Fotografía Digital La fotografía digital comparte la mayor parte de sus características con la analógica. El principio de cámara oscura, los valores de enfoque, tiempo de exposición, apertura del objetivo y sensibilidad de la película son comunes a ambas – a pesar de que en las fotos digitales no hay película. Sin embargo, aun compartiendo casi todas las características generales, las cámaras digitales tienen peculiaridades derivadas de su estructura eminentemente electrónica. La más evidente de todas es la posibilidad de previsualizar las fotos, así como borrarlas del almacenamiento interno de la cámara, ahorrando así espacio para fotos útiles que queramos luego imprimir en papel. Sin embargo, además de las diferencias en el uso conviene conocer también las diferencias en la calidad que hay entre unas cámaras y otras, y para ello es necesario conocer en profundidad algo más del funcionamiento de uan cámara digital. Sensores digitales La principal diferencia entre las cámaras digitales y las analógicas es la forma cona la que la luz se recoge para guardar las imáges. Si en la fotografía analógica se usaba un rollo de plástico cubierto con una solución química (típicamente un haluro de plata) que se quemaba con la luz, en la fotografía digital se usa un sensor electrónico con diminutas células fotoeléctricas que registran la imagen llamadas fotositos. Desde allí la imagen es procesada por la cámara y registrada en la tarjeta de memoria. La capacidad de resolución o detalle de la imagen depende del número de células fotoeléctricas del sensor. Este número se expresa en píxeles. A mayor número de píxeles, mayor resolución. Los pixeles del sensor sólo captan la intensidad luminosa (la cantidad de luz que llega), por lo que para registrar el color se han de usar filtros que separen la luz en colores. Los sensores digitales registran tres colores diferentes: rojo, verde y azul (abreviado "RGB", del inglés Red, Green, Blue), por lo cual tres fotositos, uno para cada color, forman un conjunto de células fotoeléctricas capaz de captar cualquier color en la imagen. Para conseguir esta separación de colores la mayoría de cámaras utilizan una máscara de Bayer que proporciona una trama para cada conjunto de cuatro fotositos de forma que uno registra luz roja, otro luz azul y dos se reservan para la luz verde (el ojo humano es más sensible a la luz verde que a los colores rojo o azul). El resultado final incluye información sobre la luminosidad en cada pixel pero con una resolución en color menor que la resolución de iluminación, porque estamos usando cuatro fotositos para cada píxel en color. Se puede conseguir una mejor separación de colores utilizando dispositivos con sensores acoplados y un dispositivo de separación de luz como un prisma dicróico que separa la luz incidente en sus componentes rojo, verde y azul. Estos sistemas son mucho más caros que los basados en máscaras de color sobre un único sensor. Funcionamiento físico Los sensores digitales (CCD o CMOS) al igual que las células fotovoltaicas, se basan en el efecto fotoeléctrico, la conversión espontánea en algunos materiales de luz recibida en corriente eléctrica. La sensibilidad del sensor depende de la eficiencia cuántica del chip, la cantidad de fotones que deben incidir sobre cada detector para producir una corriente eléctrica. El número de electrones producido es proporcional a la cantidad de luz recibida (a diferencia de la fotografía convencional sobre negativo fotoquímico). Como consecuencia, la respuesta del sensor a la luz es lineal, es decir que al mismo aumento de la cantidad de luz que llega al sensor le corresponde un mismo aumento de la carga eléctrica. La carga eléctrica se almacena en unos condensadores durante el tiempo en que la luz llega hasta el sensor (el tiempo de exposición de la fotografía). La carga eléctrica de los condensadores se descarga mediante un circuito de lectura que transforma la cantidad de energía almacenada en un valor digital, típicamente un número desde 8 hasta 16 bits. Tecnología de sensores Un CCD (siglas en inglés del Charge-Coupled Device: ‘dispositivo de cargas [eléctricas] interconectadas’) es un circuito integrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control de un circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los dispositivos CMOS (Complementary Metal Oxide Semiconductor: semiconductor complementario de óxido metálico) utilizados en algunas cámaras digitales y en numerosas Webcam. La tecnología CMOS fue incapaz de competir con la calidad del CCD durante mucho tiempo pero el avance de la tecnología CMOS en otros campos de la electrónica le ha llevado a conseguir implementaciones técnicamente comparables al CCD – al igual que ha pasado con los televisores LCD contra el plasma. La principal diferencia entre ambas tecnologías es el llamado “factor de relleno” (fill factor). Los sensores digitales son dispositivos electrónicos colocados en un circuito integrado. No toda la superificie física del sensor es fotoreceptiva, es decir, hay partes del sensor que son “ciegas” porque allí no hay células fotoeléctricas para captar la luz. El factor de relleno es el porcentaje de la superficie del sensor que está efectivamente ocupado por fotositos. En un CCD el factor de relleno está por encima del 98%, mientras que en un CMOS los valores típicos rondaban el 60%. Para evitar las zonas ciegas del chip se usan microlentes que redirigen la luz hacia los fotositos. Las microlentes son microscópicas lupas que corrigen el ángulo de incidencia de la luz, concentrándola en un punto. Permiten recoger luz que caería en las zonas “insensibles” del sensor y redirigirla hacia las zonas sensibles. Además ayudan a resolver otro problema: entre la superficie del sensor y el lugar que ocupa el fotodiodo –que recibe luz y genera una carga eléctrica – hay una distancia (el problema es más serio en los CMOS debido a la presencia de 3, 4 o incluso 5 transistores en cada ‘píxel’). Por decirlo de algún modo, los fotodiodos están en el fondo de un pozo tapado por gruesas capas de filtros translúcidos. La consecuencia es que si la luz incide con un ángulo demasiado inclinado acabará desviándose, perdiéndose entre los filtros o chocando con la pared lateral del pozo. Una forma de aliviar este problema es reducir la gruesa capa de filtros. Pero otra es concentrar y dirigir la luz hacia el fotodiodo. Los sensores CCD captan la información en sus fotositos y después la envían a un chip de procesamiento, que la amplifica, aplica mecanismos de corrección y la envía al dispositivo de digitalización y almacenamiento. En los chips CMOS, con su mayor escala de integración el amplificador suele estar integrado al lado de cada píxel. Ventajas y desventajas - - - - La tecnología CMOS tiene mucho menor consumo de energía, lo que permite mayor autonomía de la cámara. También son más baratos, porque necesitan de menos componentes externos – el amplificador y conversor analógico/digital pueden estar incluidos en el mismo chip. Lectura simultánea de mayor número de píxeles, y más flexible. De hecho, los píxeles de la CMOS pueden ser leídos y expuestos a la luz al mismo tiempo. Esto facilita cosas como la visualización previa o la grabación de vídeo. El CCD tiene una exposición a la luz mucho mejor que el CMOS, por lo que por mucho que se mejore la tecnología de microlentes siempre tendrá una ventaja en cuanto a la nitidez individual de los píxeles (acutancia). El CCD sufre de “blooming”, un efecto por el que un punto con una luz muy brillante puede perturbar los valores de píxeles vecinos. El CMOS, por su parte tiene una cantidad de ruido fija debido a que cada píxel tiene su propio amplificador y cada uno reacciona de forma levemente distinta – sus imágenes tienen más granulosidad. Calidad de imagen La calidad de la imagen final de una cámara digital depende de un gran número de factores, analógicos y digitales, que discutiremos a continuación. Los principales son la resolución espacial (el número de píxeles), la óptica, la profundidad de color, el rango dinámico y la relación señal-ruido. Discutiremos cada uno de ellos por orden de importancia (más o menos) para ver en qué consisten y cómo afectan a la calidad de la imagen. Resolución (espacial): Una fotografía digital es una matriz de puntos de color. Si los puntos son suficientemente pequeños el ojo humanos no puede distinguirlos individualmente, sino que ve una apariencia de color uniforme. El tamaño mínimo que deben tener los puntos depende del formato físico en el que estemos viendo las fotografías. Si es en papel, las fotografías suelen imprimirse a un mínimo de 300ppp (puntos por pulgada), ya que por lo general el ojo humano no consigue "ver" los píxeles cuando se superan los 250ppp. Una fotografía digital debería proporcionar un número de píxeles suficiente para que una impresión a 300ppp de una fotografía de 10x15cm se vea de forma continua, sin apreciar puntos individuales ni efectos de "dentado", lo que equivale a 1800x1200 píxeles, o sea, 2,2 Megapíxeles. Actualmente cualquier cámara – incluso las que vienen integradas en teléfonos móviles y similares – ofrece esas resoluciones, o superiores. Aumentar la resolución por encima de 2,2 megapíxeles no aumenta la calidad a menos que queramos hacer ampliaciones. Óptica: el sensor capta la luz que llega hasta él. Si la luz no llega bien, por muy bueno que sea el sensor la imagen no saldrá bien. El objetivo es una lente de cristal cuya función es redirigir el haz de luz desde el exterior hasta la superficie del objetivo. Si la lente no es de calidad pueden producirse aberraciones cromáticas (la luz sufre variaciones en el tono de color al atravesar la lente) o desviaciones en la dirección debidas ambas a la refracción de la lente. Dos cámaras con la misma electrónica y lentes de distinta calidad obtendrán resultados notoriamente distintos, por lo que a la hora de buscar una cámara se ha de comprobar que disponga de una óptica de garantías. La mayoría de fabricantes de cámaras digitales o bien tenían experiencia previa como fabricantes de cámaras analógicas (Canon, Nikon, ...) o se han aliado con casas de fotografía tradicional con experiencia en óptica (Carl-Zeiss, Leica, etc...). Profundidad de color: La profundidad de color es la cantidad de tonos de color distintos que puede captar el sensor de una cámara. Normalmente en una fotografía en color se capturan hasta 256 matices de verde, de rojo y de azul, lo que da un abanico de posibilidades de 256x256x256 ≈ 16.000.000 de colores. Aunque la mayoría de los formatos de imagen digitales trabaja con 8 bits por canal, es posible que una cámara use más bits por canal para captar más matices de color. No es extraño encontrar cámaras que trabajan con 12, 14 ó 16 bits por canal de color, pudiendo captar por tanto 2048, 4096 o 16384 tonos de color distintos. Algunas de esas cámaras – normalmente cámaras SLR para profesionales – guardan las imágenes “en crudo”, tal y como las capta el sensor. A estas imágenes se les denomina imágenes RAW (raw image, imagen en crudo). Sin embargo, la inmensa mayoría de las cámaras, incluso trabajando internamente a más de 8 bits por canal guardan las fotos en formato de 8 bits por canal, sirviendo esos bits extra únicamente para mejorar el rango dinámico. Rango dinámico: el rango dinámico de una cámara es la diferencia entre el tono de luz más alto y el más bajo que puede captar. Para un determinado sensor, toda luz más alta que ese máximo será blanco puro y toda luz menor que ese mínimo será negro absoluto. El ojo humano es capaz de captar luces muy tenues y muy intensas, por lo que su rango dinámico es muy amplio. Las cámaras no lo son tanto, y las digitales mucho menos que las analógicas, así que este es un factor a tener muy en cuenta. Los fotositos de las cámaras recogen la luz como un pozal podría recoger el agua de lluvia. Si dejamos un cubo al aire libre durante una tormenta y miramos después cuanta agua tiene sabremos cuánto ha llovido (en ese punto). A no ser, claro está, que llueva tanto que se desborde el pozal. Si la tormenta dura dos horas y a la media hora el cubo ya se ha desbordado resulta imposible saber cuánta agua cayó realmente. Todo lo que pasa de la capacidad del cubo no puede medirse. Lo mismo ocurre si sólo caen cuatro gotas que no llegan ni a formar un charco en el fondo del cubo. Valores por debajo del mínimo son “cero”. El ojo humano tiene unos músculos que permiten contraer o dilatar la pupila a voluntad, dejando entrar más o menos luz a la retina. El proceso es muy rápido, así que los humanos podemos mirar un paisaje con diferentes zonas de iluminación (unas con mucha luz, otras en la penumbra) al mismo tiempo y captamos los detalles tanto de unas como de otras. Las lentes de las cámaras están fijas en el momento de hacer la foto, y por tanto no pueden hacer lo mismo. Esa es la razón por la cual cuando hacemos una foto en interior sin usar flash la foto sale oscura – aunque nosotros veíamos perfectamente. Lo mismo ocurre al sacar una foto de cara al sol: el fotógrafo ve muy bien, pero luego la foto sale sobreexpuesta. Además del problema de la lente, los sensores digitales responden linealmente a la cantidad de luz, mientras que el ojo humano responde logarítmicamente y las emulsiones químicas de la fotografía tradicional hasta cierto punto también. En otras palabras, si encendemos una vela y le hacemos una foto con un tiempo de exposición de un segundo, la cantidad de luz que captará la cámara será la mitad que captaría si pusiésemos dos velas y la tercera parte que si pusiéramos tres. En cambio, el ojo humano percibe que la cantidad de luz se ha doblado al pasar de una a dos velas, pero no vuelve a percibir otra duplicación de la cantidad de luz hasta que ponemos cuatro. El ojo sigue una curva de adaptación logarítimica (1, 2, 4, 8, 16...) mientras que la cámara es lineal (1, 2, 3, 4...). De ahí que muchas cámaras trabajen con 12 ó 14 bits por canal incluso aunque luego guarden las fotos con 8 bits por canal. Los bits extra sirven para evitar el desborde del pozal del que hablábamos antes, de forma que podamos medir con precisión la cantidad de luz recibida. La relación señal-ruido: si encendemos una minicadena y subimos a tope el volumen, antes de poner un CD ni nada oiremos un zumbido de fondo. Es ruido estático. Un altavoz es un aparato que transforma una señal eléctrica en vibraciones de aire (sonido). Supuestamente, si no le estamos enviando datos eléctricos no debería de oírse nada, pero como el propio altavoz (y el amplificador, y el lector de CD, y todo lo demás que tengamos conectado) van con electricidad ocurre que parte de esa electricidad “escapa” contaminando la señal eléctrica que contiene los datos de audio. Este fenómeno ocurre con cualquier aparato electrónico. Como un altavoz es un aparato de audio, el ruido se oye; en una cámara, el “ruido” se ve como pequeños puntos de color que acaban dándole una textura granulada a las fotos. Supuestamente los fotositos no deberían contener más electricidad que la correspondiente a la luz que recibieron, pero como en el caso del altavoz, siempre hay un cierto ruido – mayor en los sensores CMOS que en los CCD. Al igual que en el altavoz el ruido se hace más evidente cuanto más subamos el volumen, el la cámara se ve más el ruido cuanto más se amplifique la señal. Las cámaras digitales disponen de amplificadores, medidos según la refencia ISO (o la tradicional ASA para fotografía analógica). Una foto que a ISO 100 saldría negra por falta de luz se puede ver bien usando ISO 800 (los números de referencia se van doblando: ISO 100, 200, 400, 800...), pero obtendremos mucho más ruido digital. Algunas cámaras compactas tienen el mismo problema porque sus fabricantes se lanzaron a una “guerra de megapíxeles” para tratar de ganar clientes. Como al comprador medio le parecía que cuantos más megapíxeles tuviese una cámara mejores fotos haría se llegaron a sacar modelos con 7,2 y hasta 8 megapíxeles. Al meter tantos megapíxeles en un sensor de pequeño tamaño la cantidad de luz que recibe cada uno es muy baja, con lo que se ha de amplificar, produciendo más ruido. Para una cámara compacta los mejores resultados se obtienen entre 3,2 y 6 megapíxeles. Las cámaras profesionales no tienen ese problema porque usan sensores cuatro veces mayores (además de tener componentes de mayor calidad). La compresión: una imagen de 1800x1600 píxeles (menos de 3 megapíxeles) está formada por 2.880.000 puntos, cada uno de los cuales contiene tres canales de color (rojo, verde y azul) que normalmente tendrán un valor numérico entre cero y doscientos cincuenta y cinco (8 bits). Por tanto la imagen necesita 3 bytes por píxel, lo que significa que ocupa 8,2 megabytes. Evidentemente, las imágenes de una cámara de 6 megapíxeles ocuparán el doble y las de 12 megapíxeles cuatro veces más. Es por ello que la mayoría de las cámaras no almacenan la información tal cual la capturan (en crudo o formato RAW) sino que usan algún tipo de compresión. Normalmente el método elegido es la compresión JPEG, que ofrece un rendimiento excelente, pero es una compresión con pérdida de información. Aunque por defecto las cámaras vienen configuradas con valores de compresión bajos para no disminuir mucho la calidad de la foto, la compresión a JPEG añade pérdida de rango dinámico, profundidad de color y “artefactos” de compresión a los defectos que ya pudiera tener de por sí la imagen. Estos efectos son especialmente percibibles en las zonas sombreadas de las fotografías, además de multiplicar las consecuencias del ruido digital en fotos ya de por sí ruidosas.