Sensores digitales

Anuncio
Fotografía Digital
La fotografía digital comparte la mayor parte de sus características con la analógica. El
principio de cámara oscura, los valores de enfoque, tiempo de exposición, apertura del
objetivo y sensibilidad de la película son comunes a ambas – a pesar de que en las fotos
digitales no hay película.
Sin embargo, aun compartiendo casi todas las características generales, las cámaras
digitales tienen peculiaridades derivadas de su estructura eminentemente electrónica. La
más evidente de todas es la posibilidad de previsualizar las fotos, así como borrarlas del
almacenamiento interno de la cámara, ahorrando así espacio para fotos útiles que
queramos luego imprimir en papel. Sin embargo, además de las diferencias en el uso
conviene conocer también las diferencias en la calidad que hay entre unas cámaras y
otras, y para ello es necesario conocer en profundidad algo más del funcionamiento de
uan cámara digital.
Sensores digitales
La principal diferencia entre las cámaras digitales y las analógicas es la forma cona la
que la luz se recoge para guardar las imáges. Si en la fotografía analógica se usaba un
rollo de plástico cubierto con una solución química (típicamente un haluro de plata) que
se quemaba con la luz, en la fotografía digital se usa un sensor electrónico con
diminutas células fotoeléctricas que registran la imagen llamadas fotositos. Desde allí la
imagen es procesada por la cámara y registrada en la tarjeta de memoria.
La capacidad de resolución o detalle de la imagen depende del número de células
fotoeléctricas del sensor. Este número se expresa en píxeles. A mayor número de
píxeles, mayor resolución.
Los pixeles del sensor sólo captan la intensidad luminosa (la cantidad de luz que llega),
por lo que para registrar el color se han de usar filtros que separen la luz en colores. Los
sensores digitales registran tres colores diferentes: rojo, verde y azul (abreviado "RGB",
del inglés Red, Green, Blue), por lo cual tres fotositos, uno para cada color, forman un
conjunto de células fotoeléctricas capaz de captar cualquier color en la imagen. Para
conseguir esta separación de colores la mayoría de cámaras utilizan una máscara de
Bayer que proporciona una trama para cada conjunto de cuatro fotositos de forma que
uno registra luz roja, otro luz azul y dos se reservan para la luz verde (el ojo humano es
más sensible a la luz verde que a los colores rojo o azul). El resultado final incluye
información sobre la luminosidad en cada pixel pero con una resolución en color menor
que la resolución de iluminación, porque estamos usando cuatro fotositos para cada
píxel en color. Se puede conseguir una mejor separación de colores utilizando
dispositivos con sensores acoplados y un dispositivo de separación de luz como un
prisma dicróico que separa la luz incidente en sus componentes rojo, verde y azul. Estos
sistemas son mucho más caros que los basados en máscaras de color sobre un único
sensor.
Funcionamiento físico
Los sensores digitales (CCD o CMOS) al igual que las células fotovoltaicas, se basan en
el efecto fotoeléctrico, la conversión espontánea en algunos materiales de luz recibida
en corriente eléctrica. La sensibilidad del sensor depende de la eficiencia cuántica del
chip, la cantidad de fotones que deben incidir sobre cada detector para producir una
corriente eléctrica. El número de electrones producido es proporcional a la cantidad de
luz recibida (a diferencia de la fotografía convencional sobre negativo fotoquímico).
Como consecuencia, la respuesta del sensor a la luz es lineal, es decir que al mismo
aumento de la cantidad de luz que llega al sensor le corresponde un mismo aumento de
la carga eléctrica.
La carga eléctrica se almacena en unos condensadores durante el tiempo en que la luz
llega hasta el sensor (el tiempo de exposición de la fotografía). La carga eléctrica de los
condensadores se descarga mediante un circuito de lectura que transforma la cantidad de
energía almacenada en un valor digital, típicamente un número desde 8 hasta 16 bits.
Tecnología de sensores
Un CCD (siglas en inglés del Charge-Coupled Device: ‘dispositivo de cargas
[eléctricas] interconectadas’) es un circuito integrado que contiene un número
determinado de condensadores enlazados o acoplados. Bajo el control de un circuito
interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los
condensadores que estén a su lado en el circuito impreso. La alternativa digital a los
CCD son los dispositivos CMOS (Complementary Metal Oxide Semiconductor:
semiconductor complementario de óxido metálico) utilizados en algunas cámaras
digitales y en numerosas Webcam. La tecnología CMOS fue incapaz de competir con la
calidad del CCD durante mucho tiempo pero el avance de la tecnología CMOS en otros
campos de la electrónica le ha llevado a conseguir implementaciones técnicamente
comparables al CCD – al igual que ha pasado con los televisores LCD contra el plasma.
La principal diferencia entre ambas tecnologías es el llamado “factor de relleno” (fill
factor). Los sensores digitales son dispositivos electrónicos colocados en un circuito
integrado. No toda la superificie física del sensor es fotoreceptiva, es decir, hay partes
del sensor que son “ciegas” porque allí no hay células fotoeléctricas para captar la luz.
El factor de relleno es el porcentaje de la superficie del sensor que está efectivamente
ocupado por fotositos. En un CCD el factor de relleno está por encima del 98%,
mientras que en un CMOS los valores típicos rondaban el 60%. Para evitar las zonas
ciegas del chip se usan microlentes que redirigen la luz hacia los fotositos.
Las microlentes son microscópicas lupas que corrigen el ángulo de incidencia de la luz,
concentrándola en un punto. Permiten recoger luz que caería en las zonas “insensibles”
del sensor y redirigirla hacia las zonas sensibles. Además ayudan a resolver otro
problema: entre la superficie del sensor y el lugar que ocupa el fotodiodo –que recibe
luz y genera una carga eléctrica – hay una distancia (el problema es más serio en los
CMOS debido a la presencia de 3, 4 o incluso 5 transistores en cada ‘píxel’). Por decirlo
de algún modo, los fotodiodos están en el fondo de un pozo tapado por gruesas capas de
filtros translúcidos. La consecuencia es que si la luz incide con un ángulo demasiado
inclinado acabará desviándose, perdiéndose entre los filtros o chocando con la pared
lateral del pozo. Una forma de aliviar este problema es reducir la gruesa capa de filtros.
Pero otra es concentrar y dirigir la luz hacia el fotodiodo.
Los sensores CCD captan la información en sus fotositos y después la envían a un chip
de procesamiento, que la amplifica, aplica mecanismos de corrección y la envía al
dispositivo de digitalización y almacenamiento. En los chips CMOS, con su mayor
escala de integración el amplificador suele estar integrado al lado de cada píxel.
Ventajas y desventajas
-
-
-
-
La tecnología CMOS tiene mucho menor consumo de energía, lo que permite
mayor autonomía de la cámara. También son más baratos, porque necesitan de
menos componentes externos – el amplificador y conversor analógico/digital
pueden estar incluidos en el mismo chip.
Lectura simultánea de mayor número de píxeles, y más flexible. De hecho, los
píxeles de la CMOS pueden ser leídos y expuestos a la luz al mismo tiempo. Esto
facilita cosas como la visualización previa o la grabación de vídeo.
El CCD tiene una exposición a la luz mucho mejor que el CMOS, por lo que por
mucho que se mejore la tecnología de microlentes siempre tendrá una ventaja en
cuanto a la nitidez individual de los píxeles (acutancia).
El CCD sufre de “blooming”, un efecto por el que un punto con una luz muy
brillante puede perturbar los valores de píxeles vecinos. El CMOS, por su parte
tiene una cantidad de ruido fija debido a que cada píxel tiene su propio amplificador
y cada uno reacciona de forma levemente distinta – sus imágenes tienen más
granulosidad.
Calidad de imagen
La calidad de la imagen final de una cámara digital depende de un gran número de
factores, analógicos y digitales, que discutiremos a continuación. Los principales son la
resolución espacial (el número de píxeles), la óptica, la profundidad de color, el rango
dinámico y la relación señal-ruido. Discutiremos cada uno de ellos por orden de
importancia (más o menos) para ver en qué consisten y cómo afectan a la calidad de la
imagen.
Resolución (espacial): Una fotografía digital es una matriz de puntos de color. Si los
puntos son suficientemente pequeños el ojo humanos no puede distinguirlos
individualmente, sino que ve una apariencia de color uniforme. El tamaño mínimo que
deben tener los puntos depende del formato físico en el que estemos viendo las
fotografías. Si es en papel, las fotografías suelen imprimirse a un mínimo de 300ppp
(puntos por pulgada), ya que por lo general el ojo humano no consigue "ver" los píxeles
cuando se superan los 250ppp.
Una fotografía digital debería proporcionar un número de píxeles suficiente para que
una impresión a 300ppp de una fotografía de 10x15cm se vea de forma continua, sin
apreciar puntos individuales ni efectos de "dentado", lo que equivale a 1800x1200
píxeles, o sea, 2,2 Megapíxeles. Actualmente cualquier cámara – incluso las que vienen
integradas en teléfonos móviles y similares – ofrece esas resoluciones, o superiores.
Aumentar la resolución por encima de 2,2 megapíxeles no aumenta la calidad a menos
que queramos hacer ampliaciones.
Óptica: el sensor capta la luz que llega hasta él. Si la luz no llega bien, por muy bueno
que sea el sensor la imagen no saldrá bien. El objetivo es una lente de cristal cuya
función es redirigir el haz de luz desde el exterior hasta la superficie del objetivo. Si la
lente no es de calidad pueden producirse aberraciones cromáticas (la luz sufre
variaciones en el tono de color al atravesar la lente) o desviaciones en la dirección
debidas ambas a la refracción de la lente.
Dos cámaras con la misma electrónica y lentes de distinta calidad obtendrán resultados
notoriamente distintos, por lo que a la hora de buscar una cámara se ha de comprobar
que disponga de una óptica de garantías. La mayoría de fabricantes de cámaras digitales
o bien tenían experiencia previa como fabricantes de cámaras analógicas (Canon,
Nikon, ...) o se han aliado con casas de fotografía tradicional con experiencia en óptica
(Carl-Zeiss, Leica, etc...).
Profundidad de color: La profundidad de color es la cantidad de tonos de color
distintos que puede captar el sensor de una cámara. Normalmente en una fotografía en
color se capturan hasta 256 matices de verde, de rojo y de azul, lo que da un abanico de
posibilidades de 256x256x256 ≈ 16.000.000 de colores.
Aunque la mayoría de los formatos de imagen digitales trabaja con 8 bits por canal, es
posible que una cámara use más bits por canal para captar más matices de color. No es
extraño encontrar cámaras que trabajan con 12, 14 ó 16 bits por canal de color,
pudiendo captar por tanto 2048, 4096 o 16384 tonos de color distintos. Algunas de esas
cámaras – normalmente cámaras SLR para profesionales – guardan las imágenes “en
crudo”, tal y como las capta el sensor. A estas imágenes se les denomina imágenes
RAW (raw image, imagen en crudo). Sin embargo, la inmensa mayoría de las cámaras,
incluso trabajando internamente a más de 8 bits por canal guardan las fotos en formato
de 8 bits por canal, sirviendo esos bits extra únicamente para mejorar el rango dinámico.
Rango dinámico: el rango dinámico de una cámara es la diferencia entre el tono de luz
más alto y el más bajo que puede captar. Para un determinado sensor, toda luz más alta
que ese máximo será blanco puro y toda luz menor que ese mínimo será negro absoluto.
El ojo humano es capaz de captar luces muy tenues y muy intensas, por lo que su rango
dinámico es muy amplio. Las cámaras no lo son tanto, y las digitales mucho menos que
las analógicas, así que este es un factor a tener muy en cuenta.
Los fotositos de las cámaras recogen la luz como un pozal podría recoger el agua de
lluvia. Si dejamos un cubo al aire libre durante una tormenta y miramos después cuanta
agua tiene sabremos cuánto ha llovido (en ese punto). A no ser, claro está, que llueva
tanto que se desborde el pozal. Si la tormenta dura dos horas y a la media hora el cubo
ya se ha desbordado resulta imposible saber cuánta agua cayó realmente. Todo lo que
pasa de la capacidad del cubo no puede medirse. Lo mismo ocurre si sólo caen cuatro
gotas que no llegan ni a formar un charco en el fondo del cubo. Valores por debajo del
mínimo son “cero”.
El ojo humano tiene unos músculos que permiten contraer o dilatar la pupila a voluntad,
dejando entrar más o menos luz a la retina. El proceso es muy rápido, así que los
humanos podemos mirar un paisaje con diferentes zonas de iluminación (unas con
mucha luz, otras en la penumbra) al mismo tiempo y captamos los detalles tanto de unas
como de otras.
Las lentes de las cámaras están fijas en el momento de hacer la foto, y por tanto no
pueden hacer lo mismo. Esa es la razón por la cual cuando hacemos una foto en interior
sin usar flash la foto sale oscura – aunque nosotros veíamos perfectamente. Lo mismo
ocurre al sacar una foto de cara al sol: el fotógrafo ve muy bien, pero luego la foto sale
sobreexpuesta.
Además del problema de la lente, los sensores digitales responden linealmente a la
cantidad de luz, mientras que el ojo humano responde logarítmicamente y las
emulsiones químicas de la fotografía tradicional hasta cierto punto también. En otras
palabras, si encendemos una vela y le hacemos una foto con un tiempo de exposición de
un segundo, la cantidad de luz que captará la cámara será la mitad que captaría si
pusiésemos dos velas y la tercera parte que si pusiéramos tres. En cambio, el ojo
humano percibe que la cantidad de luz se ha doblado al pasar de una a dos velas, pero
no vuelve a percibir otra duplicación de la cantidad de luz hasta que ponemos cuatro. El
ojo sigue una curva de adaptación logarítimica (1, 2, 4, 8, 16...) mientras que la cámara
es lineal (1, 2, 3, 4...).
De ahí que muchas cámaras trabajen con 12 ó 14 bits por canal incluso aunque luego
guarden las fotos con 8 bits por canal. Los bits extra sirven para evitar el desborde del
pozal del que hablábamos antes, de forma que podamos medir con precisión la cantidad
de luz recibida.
La relación señal-ruido: si encendemos una minicadena y subimos a tope el volumen,
antes de poner un CD ni nada oiremos un zumbido de fondo. Es ruido estático. Un
altavoz es un aparato que transforma una señal eléctrica en vibraciones de aire (sonido).
Supuestamente, si no le estamos enviando datos eléctricos no debería de oírse nada,
pero como el propio altavoz (y el amplificador, y el lector de CD, y todo lo demás que
tengamos conectado) van con electricidad ocurre que parte de esa electricidad “escapa”
contaminando la señal eléctrica que contiene los datos de audio.
Este fenómeno ocurre con cualquier aparato electrónico. Como un altavoz es un aparato
de audio, el ruido se oye; en una cámara, el “ruido” se ve como pequeños puntos de
color que acaban dándole una textura granulada a las fotos. Supuestamente los fotositos
no deberían contener más electricidad que la correspondiente a la luz que recibieron,
pero como en el caso del altavoz, siempre hay un cierto ruido – mayor en los sensores
CMOS que en los CCD.
Al igual que en el altavoz el ruido se hace más evidente cuanto más subamos el
volumen, el la cámara se ve más el ruido cuanto más se amplifique la señal. Las
cámaras digitales disponen de amplificadores, medidos según la refencia ISO (o la
tradicional ASA para fotografía analógica). Una foto que a ISO 100 saldría negra por
falta de luz se puede ver bien usando ISO 800 (los números de referencia se van
doblando: ISO 100, 200, 400, 800...), pero obtendremos mucho más ruido digital.
Algunas cámaras compactas tienen el mismo problema porque sus fabricantes se
lanzaron a una “guerra de megapíxeles” para tratar de ganar clientes. Como al
comprador medio le parecía que cuantos más megapíxeles tuviese una cámara mejores
fotos haría se llegaron a sacar modelos con 7,2 y hasta 8 megapíxeles. Al meter tantos
megapíxeles en un sensor de pequeño tamaño la cantidad de luz que recibe cada uno es
muy baja, con lo que se ha de amplificar, produciendo más ruido. Para una cámara
compacta los mejores resultados se obtienen entre 3,2 y 6 megapíxeles. Las cámaras
profesionales no tienen ese problema porque usan sensores cuatro veces mayores
(además de tener componentes de mayor calidad).
La compresión: una imagen de 1800x1600 píxeles (menos de 3 megapíxeles) está
formada por 2.880.000 puntos, cada uno de los cuales contiene tres canales de color
(rojo, verde y azul) que normalmente tendrán un valor numérico entre cero y doscientos
cincuenta y cinco (8 bits). Por tanto la imagen necesita 3 bytes por píxel, lo que
significa que ocupa 8,2 megabytes.
Evidentemente, las imágenes de una cámara de 6 megapíxeles ocuparán el doble y las
de 12 megapíxeles cuatro veces más. Es por ello que la mayoría de las cámaras no
almacenan la información tal cual la capturan (en crudo o formato RAW) sino que usan
algún tipo de compresión. Normalmente el método elegido es la compresión JPEG, que
ofrece un rendimiento excelente, pero es una compresión con pérdida de información.
Aunque por defecto las cámaras vienen configuradas con valores de compresión bajos
para no disminuir mucho la calidad de la foto, la compresión a JPEG añade pérdida de
rango dinámico, profundidad de color y “artefactos” de compresión a los defectos que
ya pudiera tener de por sí la imagen. Estos efectos son especialmente percibibles en las
zonas sombreadas de las fotografías, además de multiplicar las consecuencias del ruido
digital en fotos ya de por sí ruidosas.
Descargar