¿Es posible “dispersar” la luz?

Esto se puede hacer aproximadamente, con funciones de afilado. No creo que se pueda hacer exactamente, a nivel de fotones individuales, sin importar cuánta información tenga o cuán grande sea su computadora.

Aproximadamente, la dispersión se puede describir como una imagen original enroscada con una función de dispersión de puntos. (Una función de propagación de puntos toma la intensidad de la luz en cada punto y la reemplaza por una distribución de intensidades en alguna región alrededor del punto original. Http://en.wikipedia.org/wiki/Poi…) La separación implica descontaminar la imagen dispersa . Cuanto mejor conozca la función de dispersión de puntos real, más exactamente podrá hacer esto. Pero el proceso es estadístico y aproximado. Los algoritmos avanzados de nitidez de imagen le permiten intentar revertir varios grados de propagación y elegir la mejor “imagen original”. Claramente hay algo de arte y juicio requerido en este proceso.

A nivel de fotones individuales, calcular de nuevo a la imagen antes de que se dispersara requeriría conocer no solo la posición de cada fotón en la imagen final sino también su dirección. Pero los fotones y sus movimientos están descritos por la mecánica cuántica y están sujetos al principio de incertidumbre de Heisenberg. Es decir, la posición exacta y la velocidad de un fotón no se definen simultáneamente.

Agregado: este es un subconjunto de métodos utilizados en la definición de imágenes, la reconstrucción de imágenes y los problemas de análisis de imágenes. Además de “dispersar” la luz, también es posible utilizar un conocimiento a priori sobre la imagen. Por ejemplo, si sabe que parte de su imagen es una placa de matrícula, puede utilizar su conocimiento de que el número de la placa de matrícula estará compuesto de letras mayúsculas y números. Estos pueden usarse como restricciones en la reconstrucción de la imagen y le dan mejores resultados. Ahora los factores limitantes pueden provenir de la teoría de la información en lugar de la óptica o la mecánica cuántica.

Para pequeñas cantidades de dispersión, es posible: un ejemplo de reconstrucción de imágenes a partir de luz dispersa es el uso de ópticas adaptativas en astronomía ( http://en.wikipedia.org/wiki/Ada …).

El problema al que se enfrenta la astronomía basada en tierra es muy similar a tratar de ver una imagen a través de una ventana escarchada: la atmósfera actúa como la ventana al distorsionar los frentes de onda, lo que lleva a la distorsión de la imagen.

La óptica adaptativa resuelve este problema usando una fuente de luz de referencia para descubrir cómo la atmósfera dispersa la luz. Se supone que esta fuente de luz de referencia tiene un frente de onda agradable y uniforme. Después de pasar a través de la atmósfera, este frente de onda (junto con la distorsión) se puede medir. A partir de esta medida, uno puede calcular cómo corregir su sistema óptico (¡en tiempo real!) Para compensar la dispersión. Esto se suele hacer deformando uno de los espejos del sistema óptico.

Los resultados pueden ser bastante sorprendentes. Por ejemplo, vea la siguiente imagen tomada con y sin ópticas adaptativas (de http://www.astro.caltech.edu/pal

Si bien no es exactamente una luz de dispersión, existe una tecnología de imágenes que puede usar una pared de dispersión difusa normal como si fuera un espejo. El problema es que en realidad es una búsqueda de rango tridimensional en lugar de una imagen óptica, pero utiliza luz.

http://news.discovery.com/tech/c

http://www.gizmag.com/camera-see

Es básicamente un LIDAR de tiempo de vuelo con precisión de femtosegundos: http://en.wikipedia.org/wiki/LIDAR

Charla TED del inventor:

No es posible separar la luz, pero hasta cierto punto se puede reducir la dispersión. El detalle fino se perderá para siempre.

Mi investigación de tesis está relacionada con esto, y puedo decir que es posible aunque muy difícil. Este problema es muy interesante porque la luz ofrece un método único para obtener imágenes en el tejido (que comúnmente tiene alta dispersión y baja absorción). En los experimentos en los que estoy trabajando, hacemos brillar un láser en un material altamente dispersivo y tomamos una imagen de la luz transmitida. Hacemos esto muchas veces para diferentes posiciones de origen, y utilizamos los datos para reconstruir las propiedades de dispersión y absorción del material. Esto significa que resolvemos un problema inverso, que es inherente cuando dices “luz de dispersión”. Por ejemplo:

si y son los datos medidos (valores de intensidad en píxeles en una imagen), y xi son parámetros que describen el material, entonces podemos escribir

y = f (xi)

donde f (xi) es una función que describe la propagación de la luz en el material. Entonces resolvemos para xi calculando

xi = f ^ -1 (y)

Entonces, en su caso, y sería la imagen de la pared y xi sería el índice de refracción en función de la posición, la absorción, las deformaciones de la textura, etc. Desafortunadamente, hay un número infinito de xi, por lo que debemos hacer una aproximación y solo considere los términos de orden superior (los términos que tienen el mayor impacto en nuestra imagen resultante, y). De esta manera, puede configurar un algoritmo para resolver su problema, y ​​su resolución estará limitada por la calidad de su modelo hacia adelante, o f (xi).

Para mis experimentos, usamos una ecuación de difusión óptica para f, y xi son los parámetros de absorción y dispersión en función de la posición. Puede encontrar este trabajo buscando “imágenes ópticas difusas” o “tomografía de difusión óptica” en Google scholar. Sin embargo, su problema parece estar más cerca de la “imagen de reflectancia óptica”, por lo que si lo incluye en Google scholar puede encontrar algunos buenos documentos sobre él.

No, no se puede hacer a la perfección, ya que violaría la Segunda Ley de la Termodinámica y sería equivalente a descifrar los huevos.