Claro, habrá mejoras continuas en la calidad de la imagen. Pero hay límites para la física. E incluso hoy, estamos haciendo concesiones. La calidad fotográfica es una función de las herramientas que realmente utilizamos, y eso es claramente, hoy en día, la cámara digital. Entonces, veamos dónde estamos e indiquemos a dónde nos estamos quedando sin espacio y donde podría haber alguna calidad de imagen adicional posible.
Sony en realidad hace tres versiones diferentes de la cámara sin espejo de fotograma completo A7. Obviamente, si puedes ser “perfecto” en un modelo, ¿por qué hacer tres? El A7RII tiene el segundo sensor más avanzado en cualquier cámara sin espejo o réflex digital (el nuevo Sony A9, que pronto saldrá a la luz, tendrá el más avanzado), y obtuvo un 98 en el punto de referencia de la imagen DxO, el más alto registrado para cualquier fotograma completo cámara. Pero con 42 megapíxeles, solo es muy sensible en condiciones de poca luz. Es muy bueno, no me malinterpretes. Pero el 12Mpixel A7s es mejor. El A7s también es capaz de producir mejores videos.
Y ambos están en la misma generación, pero ilustran el problema. Aquí hay otra cosa que pensar … en el otro extremo de la fotografía. Durante años, las cámaras de los teléfonos inteligentes se han ido haciendo cada vez más grandes: 5Mpixel, 8Mpixel, 12Mpixel, 16Mpixel, 20Mpixel … una de Nokia en realidad fue de 42Mpixel.
- Si tuvieras la capacidad de ver el futuro, ¿te gustaría?
- ¿Cómo se diseñarán los tanques futuristas?
- ¿Es posible el nuevo proyecto de Elon Musk Neuralink?
- ¿Por qué los incumbentes de la industria tardan tanto en responder a los disruptores?
- ¿Saldrá Ferrari eventualmente a la quiebra? Cuando se agote el combustible en 50 años, todos los Ferrari se volverán inutilizables, y hay muchos coches eléctricos mejores, como Tesla.
Sin embargo, el sensor gigante de Nokia hizo el teléfono demasiado grande. En el último año, tanto Apple, Samsung como Google parecen haberse decidido con sensores de 12Mpixel, a pesar de que Samsung y Google habían usado chips de mayor resolución en cámaras anteriores. Y el teléfono Google Pixel tuvo la cámara con la calificación más alta de 2016, incluso contra modelos de Sony con un chip un poco más grande y 20Mpixels.
Esa molesta física arruina la fiesta
Básicamente, hay límites prácticos para la cantidad de píxeles que puedes rellenar en cualquier chip. Una gran parte de eso se reduce a la difracción. Si destello un punto de luz perfecto a través de cualquier apertura, como la lente de su cámara, lo que obtengo en el punto focal de esa lente / apertura no es un punto perfecto, sino un disco. Esto se llama un Airy Disc, después de que George Airy, el primer jugador en trabajar todas las matemáticas de este fenómeno.
El tamaño de un Airy Disc solo está determinado por la apertura. A una velocidad rápida de f / 1.4, el Airy Disc de un haz de luz roja mide aproximadamente 1.78μm. Eso no es una preocupación para una cámara con píxeles realmente grandes, 6.55 μm, como mi Canon 6D de fotograma completo. Pero los teléfonos inteligentes normalmente han tenido tamaños de píxel en el rango de 1.0μm-1.5μm. Como se muestra en la ilustración, el disco es una función de impulso que se establece rápidamente, por lo que no, su teléfono no tiene problemas con la lente af / 1.4. Incluso con la lente f / 2.0 más típica, su Airy Disc tiene solo 2,54 μm.
Pero eventualmente el disco se vuelve tan grande que incluso el centro activo brillante cubre más de un píxel. En f / 3.5-f / 4.0, una apertura máxima común en cámaras de apuntar y disparar en el extremo inferior, el disco es de 5.08 μm. No es lo que desea en una cámara con píxeles de 1.5 μm. La razón por la que los teléfonos inteligentes y las cámaras P&S de gama baja no tienen un iris, no tiene una apertura variable no es un costo. Es porque se envían en o cerca del punto en el que la lente, no el sensor, establece la resolución efectiva. Esto se llama una cámara limitada por difracción. Cualquier cámara P&S de 20Mpixel con f / 3.5 o apertura reducida será limitada por difracción. Los resultados serán más parecidos a los de una cámara de 12Mpixel.
Estas reglas también se aplican a las cámaras sin espejo y réflex digital. En mi marca Olympus OM-D E-M5 II, el sensor de 16MPixel tiene 3,74 μm de píxeles. No hay problema en f / 4.0. Pero para f11, el Airy Disc tiene 13.94 μm de ancho … cubrirá muchos píxeles, causando una pérdida de resolución efectiva. Vaya a 50Mpixel EOS 5Dr de Canon y verá 4,11 μm de píxeles … esa cámara también verá una pérdida de resolución en f / 11. La 6D podría estar funcionando un poco mejor, pero para f / 16, incluso el cuadro completo verá algunas limitaciones de difracción.
Y así, en función del hecho de que estamos grabando luz, simplemente no podemos seguir reduciendo los píxeles. Para una cámara profesional totalmente funcional, realmente necesita poder detenerse hasta al menos f / 16 y esperar que no arruine su imagen. Además, las lentes que sabemos cómo fabricar, que emplean vidrio es tan raro que a veces una lente se saca del mercado cuando desaparece su sabor particular de vidrio extraño. Entonces, cuando Canon sacó la 50Mpixel EOS 5D, también publicó una lista de lentes recomendadas para ella. ¿Por qué? Porque la resolución adicional no se entregó con bastantes lentes por ahí. La tecnología para una cámara de 100Mpixel ni siquiera es una pregunta … Canon demostró un sensor de 120Mpixel hace algunos años (Especificaciones finales completas del nuevo sensor de 120 Megapixeles de Canon). Pero podría no ofrecer un práctico 120Mpixel que cualquiera pueda usar en la mayoría de las circunstancias.
Rango dinámico y ruido
En cualquier foto, el rango dinámico se define como el rango entre la oscuridad más oscura y el píxel de luz más claro. En un JPEG, se garantiza que esto sea 8 f-stops, solo porque porque JPEG es un formato de 8 bits. Pero un sensor DSLR moderno puede ofrecer 14 f-stops de rango. Unos pocos sensores de cámara de cine digital están escalando hasta 15 f-stops en estos días.
Es importante entender que el rango efectivo de luz a oscuridad es una función de todo el sistema de la cámara. Cada fotodiodo libera electrones en respuesta a los fotones. Esos electrones se almacenan, por píxel, en condensadores denominados “pozos de carga”. La densidad de flujo de la luz y el tamaño del píxel determinan la fuerza de la carga y la captura efectiva del extremo oscuro de la luz, el tamaño del condensador determina cuántos electrones puede capturar antes de que el pozo se “derrame” y ese píxel se satura.
Para leer, esa carga recogida se convierte a voltaje y, según la ISO, se amplifica. Esa tensión amplificada luego se envía a un convertidor de analógico a digital, que convertirá 10, 12 o 14 bits, típicamente, de esa tensión analógica. El rango dinámico actual del sistema puede ser mayor, pero el proceso de digitalización establecerá un límite estricto. A medida que los sistemas se vuelven más silenciosos, tiene sentido agregar más bits de resolución en el ADC, por eso los ADC de 14 bits generalmente solo se encuentran en los sensores grandes: a veces APS-C, casi todos los sensores de fotograma completo y medio. La entrega de más píxeles de sensor empuja incluso estos sensores a una operación más ruidosa.
Todo sistema del mundo real tiene un piso de ruido … el punto en el que vive el ruido más aleatorio. Ninguna señal puede ser más silenciosa que el piso de ruido. El ruido es el producto del movimiento aleatorio de electrones, el funcionamiento de la cámara y el sensor en sí, y algunas otras cosas. Y estoy hablando de ruido aleatorio: hace mucho tiempo descubrimos cómo tratar con el ruido de “patrón” en los sensores.
Entonces, en la luz brillante, su cámara está digitalizando, por ejemplo, 14 bits en la parte superior del rango de operación de la cámara. Como se mencionó, una vez que la carga se llena bien, no está recolectando más luz para ese píxel. Por lo tanto, la operación predeterminada de una cámara tiene el modo sin ganancia y el tamaño del pozo de carga coordinado, idealmente, algunas cámaras tienen una configuración “muy baja” o alguna otra ISO que no está certificada ISO, pero es parte de un rango extendido, donde puede jugar un poco con esto un poco en el software, pero de lo contrario, en su ISO normal más bajo, debería estar recibiendo toda la señal. Y debido a que ese es el ajuste más lento, va a ser lo más silencioso que puede ser una cámara. La mayoría son muy buenos aquí. Incluso los pequeños sensores de teléfonos inteligentes pueden verse bien con una luz fuerte y brillante.
Pero para cada ajuste de ISO, la amplificación debe ser activada. De hecho, en las videocámaras profesionales, no hay ningún ajuste ISO, solo un control de ganancia. La ventaja de los números ISO es que los valores de sensibilidad están estandarizados. Por lo tanto, ISO 400 en una cámara debe exponerse de la misma manera en el mismo EV que ISO 400 en otra cámara … de hecho, podemos llamar a “ISO” porque la Organización Internacional de Normalización tiene una serie de reglas sobre cómo se calibra la ISO en un smartphone Los números de ganancia de Camcoder son diferentes, de modelo a modelo.
Eventualmente, parte de ese ruido que se sienta en el piso de ruido, mientras aún se encuentra debajo del piso de muestreo, puede comenzar a voltear el bit ocasional de mínimo denominador común en el ADC. El resultado de esto es que las áreas más oscuras en una foto comienzan a desarrollar un patrón de ruido, se parece un poco al grano en la fotografía química. A medida que agrega ganancia, el ruido tiene más efecto en la foto.
Así que con el tiempo, el ruido introducido por el sistema se ha reducido en las cámaras. En los días de CCD, los datos de píxeles analógicos tenían que encadenarse a través del chip como una “brigada de carga”, convertir a voltaje, amplificar, dejar el sensor de la cámara, viajar a través de una placa de circuito, en un ADC y un procesador de imagen digital . Hoy en día, el sensor CMOS tiene carga en el chip para voltaje y amplificadores, y más conversión de analógico a digital en el chip, lo que permite que las interfaces digitales de alta velocidad como MIPI CCS2 / CCS3 lleven la señal al procesador de imágenes. Por lo tanto, no hay una salida analógica a través de una placa de circuito ruidosa … solo el ruido interno de un sensor IC.
Como se mencionó, el piso de ruido aleatorio es creado por energía térmica. Es cierto que enfriar la cámara reducirá el ruido. Los astrónomos hacen muchas exposiciones muy largas y, por supuesto, el ruido aleatorio se acumula con el tiempo. Así que hay muchas cámaras astronómicas modificadas y comerciales que pueden enfriarse para reducir el ruido. ¿Podríamos alguna vez trabajar un esquema de enfriamiento en un chip? Se ha discutido, para aquellos que están investigando ideas de chips superconductores, pero todavía no es una cosa.
Tecnologías de sensores en evolución
Como se mencionó, entramos en la era de la fotografía digital utilizando un sensor completamente analógico llamado Dispositivo de carga acoplada (CCD). Esto casi se ha reemplazado por el sensor CMOS, que ciertamente también es analógico a nivel del sensor, pero utiliza procesos de chip más comunes que permiten mezclar el circuito digital. Esto ha conducido a sensores más rápidos, menos ruido, etc. El interés de ajustar un poco más la calidad de una imagen digital.
La mayoría de las nuevas tecnologías han sido sobre la entrega de más luz al sensor. Los primeros sensores CMOS tenían varios componentes electrónicos delante del conjunto de fotodiodos … un poco como el ojo humano, que también tiene su “cableado” delante del conjunto de sensores.
Esto evolucionó hacia el sensor “parte trasera iluminada”. El chip está construido con fotodiodos en la parte inferior, con componentes electrónicos como antes. Pero luego la parte inferior del chip se corta, se pule y se voltea, dejando los fotodiodos en la parte superior de la pila, la electrónica debajo, como los ojos de los cefalópodos. Para mayor resistencia, el sensor de rebanadas delgadas está limitado al silicio a granel.
Y el actual campeón de la tecnología aquí es el sensor apilado. Esto divide el conjunto de fotodiodos, sin ningún otro componente electrónico que los diodos en sí y sus conexiones. Esta porción se limita a un componente de procesamiento activo. Esta disposición reduce el costo de las matrices de sensores fallidos y permite que se utilicen diferentes procesos para los elementos apilados superior e inferior. El resultado final es un ruido más bajo y una señal de imagen más fuerte.
Nuevas tecnologías de color
La única falla obvia en los sensores de hoy es el color. No nuestra capacidad de capturar color, sino la forma en que lo hacemos y el precio pagado.
Así que esta es una representación del filtro de Bayer, llamado así por Bryce Bayer de Kodak. Bayer inventó esta matriz de filtros en 1976 para dar color a un sensor por lo demás incoloro. Los fotodiodos son sensibles a toda la luz, incluso al infrarrojo. La mayoría de las cámaras tienen un filtro IR de sensor completo para evitar que la luz invisible afecte la toma. Los píxeles R, G y B capturan solo ese color a 12 bits o 14 bits o lo que sea. Ellos interpolan los píxeles vecinos para estimar los colores R, G o B faltantes para cada uno de los píxeles.
Esto funciona muy bien, una vez que sus píxeles son lo suficientemente pequeños (las videocámaras de definición estándar, con solo 720 × 480 (NTSC), utilizaron tres sensores separados y un prisma diacrónico para proporcionar el color completo R, G y B en cada píxel). El ojo humano solo tiene alrededor de 6 millones de “sensores” de color, junto a 120 millones de sensores de luminancia (consulte: la respuesta de Dave Haynie a ¿Cuál es la resolución del ojo humano en megapíxeles?). Pero no es perfecto … y agrega su propio tipo de “ruido”.
¿Que ruido? Bueno, hay ruido de interpolación. Si estoy promediando cuatro píxeles rojos para entregar el valor rojo faltante para un píxel azul, tengo una gran posibilidad de acercarlo, si no es que es perfecto. Pero no hay un 100% de posibilidades.
Luego está la idea básica de un filtro: bloquea la luz. Un filtro rojo pasa la luz roja, bloqueando la luz azul y verde. Por lo tanto, hacer un filtro muy bueno que sea bueno para el balance de color asegurará que su sensor Bayer esté bloqueando 2/3 de la luz que llega a él.
Configuraciones alternativas
Las compañías han probado varias variaciones del filtro clásico de Bayer, pero más o menos siguen recurriendo al diseño simple de Bayer.
Ha habido algunos intentos de mezclar elementos “blancos” en los filtros, lo que hace que esos píxeles registren la luminancia solo a 3 veces la sensibilidad. Terminan cambiando la calidad del color y, a veces, la nitidez para la sensibilidad.
Varias compañías han probado los filtros CMY o CMYG, una matriz de color “prima complementaria”. Estos tienen el efecto básico de aumentar la luz por píxel finalizado, ya que el rojo, el azul y el verde (en el caso de CMY) provienen de muestras de dos píxeles, pero la interpolación adicional da como resultado una imagen más suave.
Fujifilm, posiblemente más que cualquier otra compañía, ha jugado con diferentes estructuras de imagen. El SuperCCD usó una matriz de color intersticial. Para interpolar esto a una cuadrícula normal de N x M, duplicaron el número de píxeles, aunque, por supuesto, eso no duplicó la resolución.
El SuperCCD agregó gradualmente un par de versiones de píxeles pequeños y grandes, para permitir sensibilidades duales en la misma toma. En la segunda forma, SRII, esencialmente obtienen una matriz de baja sensibilidad intersticial con una matriz de alta sensibilidad. Espero que estos resulten costosos para hacer lo que entregaron, pero ciertamente sugiere que podemos ver otros intentos de crear píxeles especializados.
Tengo dos cámaras Fujifilm con arreglos de sensores EXR, que se trasladaron a la era del CMOS. Esto orienta los píxeles en diagonal, de manera que dos píxeles del mismo filtro de color siempre se pueden “agrupar” como vecinos. Por lo tanto, los sensores de 12Mpixel en mi X-F1 y X-S1 se pueden configurar como sensores de 6Mpixel. ¿Por qué hacer eso? Varias cosas. Simplemente agrupados, los diodos duales por píxel significan menos ruido por píxel. Cada mitad de la matriz puede estar expuesta de manera independiente en cierto grado, por lo que también permite un mayor rango dinámico por píxel. Otra idea que Fujifilm ha dejado atrás, pero no puedo evitar preguntarme si esto tiene sentido en el futuro. Imagine un sensor de súper alta resolución que puede retroceder claramente a una resolución más baja, incluso dependiendo de la lente utilizada, la situación de disparo, el ISO seleccionado, etc., siempre brindando la mejor imagen general.
Las cámaras Fujifilm actuales utilizan un patrón de filtro llamado X-Trans III, que significa mucho más verde, el pico de la sensibilidad de nuestro ojo. Afirman que esto, una vez interpolado, conduce a una apariencia más cinematográfica. Los detractores señalan el procesamiento adicional necesario para tratar el ruido como una configuración ISO más alta, lo que lleva a una apariencia algo “cerosa”.
En resumen, estas cosas todavía están siendo investigadas. La tecnología avanza, aunque no siempre a pasos agigantados.
O ¿qué hay de ningún filtro en absoluto?
Ha habido algunos intentos, particularmente de Foveon, propiedad de Sigma, de eliminar los filtros por completo, construir chips con fotodiodos a tres profundidades diferentes y usar la curva de absorción de silicio para deducir el rojo, el verde y el azul en cada capa.
Tenga en cuenta que cuando se dice “azul”, “verde” y “rojo”, esos son básicamente los puntos más allá de los cuales se pierde ese color … la capa “azul” en realidad está registrando luz blanca, la capa verde verde y roja, y la roja por supuesto, solo rojo … así que obtener color RGB involucró un procesamiento adicional. El gran problema aquí es que se pierde mucha luz en el silicio, lo que hace que se intercambie un color potencialmente más preciso por mucho más ruido en una configuración ISO elevada. Las últimas versiones de estos sensores mantienen el tamaño de píxel base en la capa superior, pero utilizan píxeles más grandes en las capas de silicona más bajas, lo que proporciona un tipo de modelo de color híbrido.
Otro enfoque que se está investigando es el divisor de micro color. Básicamente, al utilizar matrices basadas en difracción, este tipo de sensor obtiene la flexión de luz específica de la frecuencia entre los fotodiodos. Así que la matriz de sensores recibe toda la luz, aunque no se distribuye de forma equitativa entre los píxeles. Es probable que puedan ajustarse a esto yendo a un tamaño de píxel no uniforme.
Fotografía asistida por software
Una gran parte de las innovaciones recientes en fotografía en estos días es una combinación de software inteligente con su hardware, de una forma que hubiera sido imposible en el pasado. Espero que esto continúe. Claro, puedes hacer cosas en Photoshop que mejoren una imagen ya capturada, pero ¿qué hay de aplicar software (y quizás algún hardware compatible) para permitir una mejor captura de imágenes en la cámara?
Desde que uso uno, mira el Olimpo. Tienen un montón de ideas geniales en sus cámaras. En primer lugar, el sistema de estabilización de imagen en el cuerpo (IBIS). Pentax también ha usado eso, y más recientemente Sony, pero Olympus lo llevó a aproximadamente 5 paradas de estabilización en el OM-D E-M5II y 5.5 en el E-M1II. Dado que también se acopla con una lente ópticamente estabilizada, puede ofrecer 6.5 paradas de estabilización. Las personas en realidad están tomando imágenes nítidas, de mano, con exposiciones de varios segundos. Ya es una especie de ciencia ficción. Puedo grabar videos en mi E-M5II tan estable como mi videocámara Panasonic Pro en mi Glidecam 2000. O mejor. Este tipo de tecnología ha llegado muy lejos en la última década, y es probable que se propague (Panasonic la esté usando en algunos modelos nuevos) y se haya mejorado.
Olympus usó el mismo sensor de imagen en movimiento para un truco diferente. Debido a que el sensor en movimiento se puede mover para compensar el movimiento, qué pasa si, en cambio, lo mueven con precisión para mejorar la calidad de la imagen. Ese es el modo Olympus “Hires” en la E-M5II, el Pen F y la nueva E-M1II. Lo que hacen es disparar ocho tomas, moviendo el sensor ya sea 1/2 o 1 píxel completo cada vez. Eso da como resultado ocho tomas de 16MPixel en un archivo sin formato E-M5II, pero eso realmente equivale a dos imágenes de 16Pixel, compensadas por 1/2 píxel, y cada píxel contiene información RGBG. Así que no hay eliminación de Bayering, color mejorado y rango dinámico mejorado … y eso es antes de que descubras cómo hacer que sea una imagen única.
Mencioné la necesidad de una buena matriz incluso antes, ¿eh? Aquí tenemos, en esencia, una imagen RGB completa de 32Mpixel, pero con píxeles intersticiales. Al interpolar esto en una matriz de píxeles regular rectangular, se obtiene el doble de píxeles, o 64Mpixels. Ahora, esto no tendrá la resolución de una verdadera cámara de 64MPixel … en la cámara, un JPEG de esto se procesa a 40Mpixels, y se compara razonablemente bien con un Nikon de 36Mpixel, quizás una resolución un poco menos práctica, pero mejor color.
Ahora, hoy, esto debe hacerse en un trípode y solo es realmente práctico para un sujeto inmóvil. Pero agregue un disparo más rápido y un procesamiento más rápido, y quizás este tipo de disparo funcione un día.
Por supuesto, hay otras mejoras de tiro múltiple. En el procesamiento de señales, es común realizar una muestra múltiple de una señal de repetición para reducir el ruido visible. El ruido que no podemos controlar completamente en un sistema es ruido aleatorio, pero es aleatorio. Cuando agrego un número aleatorio a otro, obtengo un número aleatorio que se ve exactamente igual. Así que cuando promedia cuatro tomas de la misma cosa, recibo una toma con solo 1/4 del ruido original. Mi Canon 6D, que ya es estelar en condiciones de poca luz, tiene un modo que lo hace.
Hoy en día, muchas personas están involucradas en la captura de alto rango dinámico, y algunas cámaras tienen un modo HDR automático que hace varias exposiciones para “apilar” varias para el procesamiento HDR … si coloca tres tomas en 2 paradas, extenderá la cámara. Rango natural por 4 f-stops. Muchas cámaras pueden incluso procesar esto por ti. Ese tipo de cosas va a seguir evolucionando. Algunas cámaras incluso pueden hacer esto hoy de una sola vez, debido al rango dinámico del sensor. Para los consumidores, la mayoría de las veces toma imágenes en formato JPEG, que registra 8 bits / color (y en ocasiones menos que eso), pero un sensor DSLR de primera categoría puede proporcionar 14 bits de información por sensor. Por lo tanto, comprimir eso (que es lo que hace el software HDR) en un JPEG puede darle una idea de ese amplio rango dinámico, metido en algo que puede usar en flujos de trabajo de fotos normales.
Otra innovación de software reciente es el apilado automático de enfoque. Imagina que estás disparando una foto macro de Mr. Frog aquí. No te importa que parte de él esté fuera de foco, pero es imposible concentrarse lo suficiente con la lente macro y la exposición que necesitas para disparar. El corchete automático del enfoque hará que su cámara tome una serie de tomas con un enfoque ligeramente diferente. El apilamiento de enfoque en la cámara procesará la imagen para incluir la parte más clara de cada imagen. Obtendrá fácilmente un disparo que hubiera sido difícil de forma manual e imposible sin algún tipo de apilamiento de enfoque.
Otro de Olympus en cámaras recientes es el modo Live Composite. Esto básicamente apila la luz. Dispara exposiciones múltiples, pero solo agrega los aumentos de luz entre disparos. Esto es algo que puede hacer en Photoshop creando un objeto inteligente y configurando el modo de composición correcto, pero en realidad es más poderoso tenerlo en la cámara, porque sabe que se realizó justo en el momento de la toma.
Panasonic tiene una tecnología genial llamada Depth from Defocus (DFD). En el mundo de las réflex digitales, tiene sensores de enfoque especiales en su cámara que leen a través del espejo y utilizan la detección de fase para el enfoque automático. La detección de fase consiste básicamente en mirar un poco de la imagen y determina no solo si está enfocada, sino, si no, qué tan lejos está y en qué dirección. Esto permite un enfoque muy rápido, que la mayoría de las cámaras sin espejo no pueden igualar. Algunos sensores PDAF sin espejo colocan el chip de imagen, pero Panasonic tuvo una idea diferente.
Hicieron un análisis bastante extenso de sus lentes y cómo se veían cuando estaban fuera de foco en diferentes puntos, e incluyeron esa información en la lente. La cámara se imagina procesando la imagen para obtener una firma que se compara con la información DFD de la lente, y esto le permite estimar dónde mover la lente para acercarla al enfoque, momento en el cual el enfoque automático de detección de contraste toma el control. . Normalmente, el CDAF no puede estimar la dirección o la extensión del desenfoque, por lo que tiene que “buscar” el enfoque, y eso suele ser más lento que el PDAF, a veces de manera significativa. Dado que tenemos más procesamiento de señales en la cámara, creo que veremos más de estas nuevas soluciones de software.
En otras dimensiones
Todas estas cosas hasta ahora todavía están discutiendo las cámaras digitales bastante convencionales. Pero algunos de estos ya están cambiando de maneras interesantes.
Varias empresas están jugando con sensores de imagen curvada. Ya tratamos con uno todos los días – el ojo. El ojo humano tiene un diámetro aproximado de 22 mm, un poco más grande que el sensor en una cámara Micro de cuatro tercios. Pero es semi-esférico, por lo que el área de superficie real es de alrededor de 1100 mm ^ 2, más grande que un sensor de cámara de 35 mm. Y la lente, también, es semiesférica. Por lo tanto, el ojo puede ofrecer una imagen muy buena sin la necesidad de los lentes complejos que fabricamos para las cámaras hoy en día. Una pequeña parte de los lentes de muchos elementos es el tictac de mantener una imagen clara e igualmente brillante en el campo de la imagen plana. saliente. Un sensor curvo ofrecería una mejor imagen y un sensor más grande en un paquete más pequeño.
Otra cosa que el ojo hace es integrar continuamente el resultado de las imágenes escaneadas con el “movimiento del sensor”, un poco como el truco del sensor Olympus. Los microtremores mantienen sus ojos moviéndose solo un poco, incluso cuando están enfocados en una sola cosa. Como mencioné, la resolución de “píxel” de su ojo es de aproximadamente 120 megapíxeles … pero debido al procesamiento de la imagen, su visión real ofrece algo más cercano a los 400–500 megapíxeles. Ya tenemos cámaras que hacen un poco de escaneo de imágenes múltiples para HDR o filtrado de ruido, pero a medida que los sensores se vuelven más rápidos y el software más inteligente, esto se puede usar de otras maneras.
Tomando un enfoque completamente opuesto, ¿por qué no hacer una lente plana? Los investigadores en metamateriales han desarrollado una lente plana fabricada en un proceso similar al de un IC. Comienzan con una pieza súper delgada de cuarzo transparente, y construyen nanoestructuras de dióxido de titanio de solo 600nm de altura. La orientación y otras características físicas de estas estructuras. Las características son bastante de banda estrecha en este momento, pero pueden diseñarlas con muy pocas aberraciones, diseñar específicamente para proyección en superficies planas, etc. Una sola lente de este tipo puede ser todo lo que necesita para una lente de cámara … el prototipo hecho en Harvard , utilizada como lente de microscopio, fue un 30% más afilada que la lente de microscopio que reemplazó. Estas lentes son tan delgadas que deberían reforzarse, y pueden ser más delgadas que un filtro. Una cámara podría tener varios de estos incorporados, probablemente incluso un teléfono inteligente, cambiándolos según la distancia focal deseada.
Otra nueva dirección es la cámara plenóptica, también llamada cámara de campo de luz (se muestra la Lytro Illum). Cuando pensamos en una cámara, es fácil de entender en el ámbito digital, tomamos una foto a través de una lente y esa imagen se proyecta a través de una serie de sensores, cada uno de los cuales se convierte más o menos en un píxel de la imagen, un elemento de imagen. .
¿Qué pasa si realmente grabamos los rayos de luz? En lugar de solo registrar una intensidad para cada píxel, ¿qué tal una intensidad y un vector, la dirección de ese rayo de luz? Esa es la idea de la cámara de campo de luz. Si eres capaz de hacer eso de una manera significativa, esencialmente no grabas una imagen, registras la información necesaria para crear una imagen en una variedad de formas. Lytro ha hecho algunas de estas cámaras, pero han sido poco más que una curiosidad. Pero ahora están trabajando en cámaras de campo claro para cinematografía digital, lo que podría ser muy interesante.
Y otro es el procesamiento de objetos. En este momento, la mayoría de las cámaras nuevas pueden reconocer rostros humanos. El software en sitios de redes sociales como Facebook puede reconocer buenas imágenes de personas específicas en las fotos que subes. Imagina este tipo de tecnología de cocción durante unas décadas.
Hace mucho tiempo, el formato de video MPEG-4 fue diseñado para video procesado por objeto. Entonces, por ejemplo, quizás puedas ver el partido de fútbol gratis, pero tienes que pagar un poco más para ver la pelota. Eso es tal vez un ejemplo, y nadie ha hecho mucho al respecto, pero fue discutido. Ok, no imagines que tu cámara es lo suficientemente inteligente como para catalogar muchas de las cosas en cada foto. Toma esa foto, vuelve a casa, carga esa imagen en Photoshop 2030 y ve que hay una encuesta telefónica fea en la lista. Vaya al menú de objetos, elimine el sondeo del teléfono por nombre, y eso desaparece de su foto, no queda rastro. También puede buscar en su catálogo de fotos todas las fotos de su gato “Joffrey” (mi esposa eligió el nombre). Claro, hoy puedes agregar esos metadatos cuando recorras tu colección de fotos. Pero en el futuro, su cámara puede mostrar objetos individuales en la foto, más fácil porque mira antes y después de la exposición real a los objetos definidos, y su software de catalogación completaría información más específica: sabe que hay un gato. un nombre de gato específico Joffrey, tal vez información adicional, sabe que está sentado o durmiendo o saltando, etc. Todo con muy poco trabajo de su parte.
Últimamente hemos visto algunos teléfonos inteligentes con sensores múltiples, pero este, la cámara Light, salió antes de eso y es un poco exagerado. Esta cámara incluye dieciséis sensores separados, de los cuales se pueden usar hasta diez para cualquier toma. De los dieciséis pequeños sensores similares a teléfonos celulares, cinco son de gran angular, cinco son telefoto corto y seis son telefónicos largos. La trayectoria de la luz de todos los sensores de tele está plegada, como un periscopio, que mantiene a la cámara delgada.
Están haciendo una variedad de trucos de fotografía computacional en esta cámara. Están componiendo la salida de varios sensores para ofrecer una imagen más grande con menos ruido. Están realizando algunos cálculos paralelos, basados en diferentes posiciones de sensores, que pueden usarse para generar efectos artificiales de profundidad de campo … como se mencionó en la parte de atrás, estos sensores pequeños tienen campos focales muy profundos y no se pueden detener sin difracción. Esto también puede interpolar entre las distancias focales de la cámara para ofrecer algo como el efecto de un zoom suave. Este modelo era en realidad un poco más caro que una buena cámara réflex digital de nivel de entrada o sin espejo, pero se agotaron por primera vez, y planean ganar más en este año.
En algunos casos, la pregunta no es “mejores fotografías” en una escala absoluta, sino “mejores fotografías debido a los límites estrictos”, como la fotografía de teléfonos inteligentes. Es necesario incluir módulos de cámara pequeños y relativamente baratos en los teléfonos inteligentes y, sin embargo, han reemplazado el antiguo Instamatic de mi madre como la “cámara de la gente” de gama baja.
LG, Apple, Huawei y otros ya han instalado cámaras duales en sus teléfonos inteligentes. Esto es, en cierto modo, una admisión de que las cámaras de los teléfonos de 12 a 20 megapíxeles de hoy en día simplemente no van a ser mejores, aparte de las pequeñas mejoras tecnológicas, sin ser demasiado grandes para un teléfono. Así que todos buscan hacer algo nuevo con varias cámaras.
La cámara dual con código Leica en el Huawei P9, aunque tiene un rendimiento inferior, tenía muchas ideas interesantes. Tiene dos sistemas de cámara / lente combinados, excepto que una de las cámaras no tiene filtro de Bayer. Así que tienes una foto monocromática que es 3x o menos la sensibilidad de tu cámara a color. Incluso tan cerca como están, el software puede explotar el parallex entre los dos para juzgar la distancia de las cosas y ofrecer un ajuste de apertura “virtual”, haciendo desenfoque del software de las imágenes de fondo a una escala similar a lo que podría ver con una cámara réflex digital. Apple hace algo similar con su “Modo de retrato”.
La revolucion digital
Una buena parte de la pregunta de si las fotos de hoy se verán antiguas y de mala calidad puede responderse ahora: no es muy probable. Nuestras fotos antiguas se ven viejas debido a defectos obvios, dejando atrás el tema revelador, como la moda, el peinado, los artefactos tecnológicos de la foto, etc. Ella tomó fotos con un Instamatic de mierda, luego una cámara instantánea Poloroid SX-70. Las impresiones que obtuvo de la farmacia local comenzaron a desvanecerse en unos pocos años, y hoy en día, tanto el estilo de impresión (fotos cuadradas de 3.5 ″ por 3.5 ″) como la condición dicen “antiguas”.
Por otro lado, las fotos de mi papá, la mayoría tomadas en Kodachrome 25 o Kodachrome 64, ambas películas de alta calidad, transparencias de larga duración, escaneadas en más de 10 píxeles y con un aspecto bastante actual incluso cuando se ven en una pantalla o se imprimen en un proceso moderno.
Las tomas de hoy son en su mayoría en digital. A medida que avancemos, las cámaras y las computadoras tendrán suficiente memoria como para que la gente normal deje de comprimir todo en JPEG … Fotógrafos serios ya disparan en crudo. Pero eso es en una cosa de píxel. Las cámaras digitales muy antiguas revelan su edad a través de una resolución baja, pero una vez que las cámaras promedio alcanzaron los 12Míxeles o más, es poco probable que sea un problema importante para la forma en que la mayoría de las personas ven una imagen, impresa o en pantalla. Al menos hasta que empecemos a bioingeniería mejoramos los ojos.
Eso no significa que no habrá tendencias que vayan y vengan. El disparo anterior se realiza con niveles locos de procesamiento de alto rango dinámico, que modifica el microcontraste en todo el disparo para comprimir dinámicamente 10, 12, 14 bits de rango dinámico en los 8 bits habituales de rango dinámico que obtiene en una foto en línea. Es un efecto genial, y casi no se puede obtener con una sola exposición. Si decidiéramos que deberíamos hacer esto en cada toma, entonces sus viejas fotos se verían, bueno, fechadas. Pero también realista, lo que te dice que esta moda en particular es, en el mejor de los casos, una opción artística, no El futuro para todos.
Conclusiones y una pequeña mirada al mercado
Por lo tanto, las técnicas de diseño pueden mejorar la sensibilidad de los chips de la cámara, reducir el ruido, mejorar el color, etc. Pero ya no hay signos de un gran salto en el rendimiento en un solo chip, como hemos visto en el pasado.
De hecho, podemos ver esto en las ventas. Las ventas de cámaras aumentaron constantemente en la década de 1970, a medida que más consumidores comenzaron a usar cámaras. Se estabilizó más o menos a principios de la década de 1990, pero luego sucedió lo digital. Eso creció lentamente durante algunos años, ya que las cámaras digitales eran caras y producían resultados de baja calidad. Pero despegó, y luego se volvió loco, a medida que más personas pasaron a lo digital, los primeros usuarios compraron otro modelo nuevo (y otro, y otro …) … pero llegó a su punto máximo en 2009. Desde entonces ha estado cayendo bastante rápido.
En resumen, ha habido una burbuja de cámara digital, y está en proceso de estallar. ¿Por qué? Son muy buenos hoy. Tengo ocho cámaras digitales, todas producen muy buenos resultados. Donde hay problemas, como el hecho de que mis modelos P&S no ofrecen una calidad tan alta como la de mi réflex sin espejo o réflex digital, es fácil observar los límites de la física: chips de sensores más pequeños, lentes más simples, etc.