Apuntes imagen digital

Anuncio
El Color.
El color no es una propiedad de los objetos, sino una impresión sensorial del observador,
producida por la absorción por el ojo humano de la energía de ciertas radiaciones
electromagnéticas y la elaboración de esta información en el cerebro. La longitud de onda ()
de estas radiaciones está comprendida aproximadamente entre 380 y 780 nm (nanometros,
1nm = 10-9 m = 0,000001 mm.), valores correspondientes a las sensaciones de violeta y rojo .
Esta franja de longitudes de onda se denomina espectro visible y cuando nuestro ojo recibe
simultáneamente las radiaciones comprendidas en esta franja, percibimos el color blanco.
Si descomponemos la luz blanca, separando las radiaciones de distinta que la componen
(debido a su distinto ángulo de refracción al atravesar un prisma), obtenemos una proyección
del espectro visible en el cual apreciamos las bandas violeta, añil (o indigo), azul, verde,
amarilla, naranja y roja.
En el diagrama de la izquierda se
representa la sensibilidad o eficiencia
luminosa del ojo ante la presencia de
radiaciones electromagnéticas de distinta
Esta sensibilidad expresa la cantidad de
energía que absorbe el ojo y la
correspondiente intensidad del estímulo
que produce.
Este diagrama serviría para explicar la
respuesta de un mecanismo de visión
acromática ante distintas longitudes de
onda, en el cual la distinta cantidad de
energía absorbida se traduciría en
sensación de brillo ; sin embargo,
nosotros podemos distinguir una calidad cromática - el matiz o tinte - que diferencia las
radiaciones en función de sus Esta diferenciación cualitativa se debe a la especialización de
unas células fotosensibles denominadas conos, y que se encuentran situadas en la retina
especialmente en el fóvea (el área de mayor resolución visual, correspondiente al centro de la
imagen, donde hay unos 34.000).
Los conos son de tres tipos : “rojos”,
“verdes” y “azules” (R, G, B), según la
zona del espectro visible que más les
estimule. El comportamiento de los
conos se muestra en este segundo
diagrama, donde comprobamos que los
tres tipos son sensibles a diferentes
espectros, y que existen longitudes de
onda que afectan a dos, e incluso a los
tres tipos de cono. La suma de las
repuestas de los conos da la respuesta
global del ojo (línea punteada), que
corresponde a la del gráfico anterior.
El color se elabora en el cerebro a
partir de la información aportada por los
conos, creando una sensación conjunta que permite observar colores no presentes en el
espectro visible, como las mezclas de rojo y azul. La interacción de las sensaciones
Francisco Martí Ferrer, 1995-2001
procedentes de 2 o 3 tipos de conos supone un aumento de energía: la máxima excitación de
los tres tipos de cono por una fuente luminosa produce el blanco, es decir, el color más
brillante. A este proceso se le denomina síntesis aditiva del color, y puede experimentarse
mezclando sobre una pantalla proyecciones de luz roja, verde y azul, cuyos colores se
denominan colores primarios. A las mezclas de igual intensidad de dos de estos colores se les
denomina colores secundarios y son complementarios de los primarios, ya que puede
considerarse que a un color primario le “falta” un secundario (la suma de los otros dos
primarios) para sintetizar el blanco. Los colores secundarios son el amarillo (R+G=Y, yellow),
el cian (G+B=C, cyan) y el magenta (R+B=M, magenta).
Captura, codificación y reproducción de imágenes con color.
Los dispositivos de captura de imágenes (cámaras de fotografía digital, cámaras de vídeo,
escáneres, películas fotográficas) y los dispositivos que emiten imágenes luminosas
(monitores y proyectores de video), se basan en la síntesis aditiva del color, almacenando de
forma separada los componentes de luz roja, verde y azul de las imágenes y restituyéndolos
conjuntamente para reproducirlas. La mayoría de los colores visibles pueden capturarse y
reproducirse por este sistema, representado por el modelo de color RGB (Red, Green, Blue)
En este modelo, ilustrado por la figura de la izquierda,
cada una de las componentes del color (denominadas colores
primarios) está representada por un eje del espacio
euclidiano, que posibilita unas coordenadas de color,
expresadas en valores r,g,b (por x,y,z). La coordenada (0,0,0)
implica la ausencia de luz, y corresponde al negro (K, de
black) ; la coordenada (1,1,1) corresponde a la suma del
máximo valor de los tres primarios (W, de white), la (1,0,0)
al rojo (R), la (0,1,0) al al verde (G) y la (0,0,1) al azul. Las
coordenadas (1,1,0), (1,0,1) y (0, 1, 1) corresponden a las
mezclas del máximo valor de dos de los primarios, es decir, a sus complementarios.
Si trazamos un cubo cuyos vértices coincidan estas ocho coordenadas, observamos que en
el modelo, los colores complementarios quedan en vértices opuestos, y que en la diagonal
entre el blanco y el negro se sitúan todos los grises acromáticos, es decir, aquellos colores
cuyos valores de rojo, verde y azul son iguales entre sí. El cubo representa el subespacio de
los colores producibles con las componentes RGB, en el que cada color es representable por
sus coordenadas, es decir, las indicaciones de intensidad de cada componente.
En la codificación informática del color se asigna una secuencia de 8 bits para la
representación del valor de cada componente, de tal manera que existen 265 (28) valores para
cada una, lo que posibilita 16, 7 millones de colores aproximadamente (224), lo que se conoce
como color de 24 bits o color verdadero (true color). Esta cantidad de colores responde a la
necesidad de que el observador no perciba diferencia entre dos colores en coordenadas
adyacentes, de forma que puedan representarse adecuadamente imágenes con variaciones de
color sutiles.
Como hemos dicho anteriormente, el modelo de color RGB se utiliza para especificar
colores procedentes de la mezcla directa de luz, y es válido para tecnologías de captura y
reproducción de imagen basadas en materiales y sensores fotosensibles y en la proyección o
emisión de luz. Sin embargo, no es aplicable a las mezclas de colores matéricos, es decir, los
que utilizamos para pintar e imprimir, en tanto que no mezclamos luz, sino una serie de
Francisco Martí Ferrer, 1995-2001
materiales cuya pigmentación se debe a su capacidad de absorber parte del espectro visible y
devolver reflejado el resto.
Cuando estos materiales son mezclados, suman su
capacidad de absorción, por tanto, los colores materiales
óptimos para conseguir todas las mezclas a partir de ellos
serán aquellos que absorban íntegra y exclusivamente una
de las componentes RGB y reflejen las otras dos, es decir,
cian, magenta y amarillo. Si mezclamos un material cian
(que absorbe la luz roja) en igual proporción con uno
amarillo (que absorbe la luz azul), el material resultante
absorberá ambas, y presentará un aspecto verde cuando se le
ilumine con luz blanca; si mezclamos cian, magenta y
amarillo, obtenemos negro, puesto que absorbemos íntegramente las componentes R, G y B.
Esta forma de obtención de mezclas de color se denomina síntesis sustractiva, y se representa
con el modelo de color CMY, que aparece en la ilustración de la izquierda.
En artes gráficas, se realiza la separación de color de los originales a reproducir en cuatro
planchas, correspondientes a cian, magenta, amarillo y negro. El negro se añade como
compensación a la incapacidad de las tintas para obtenerlo, debido a la presencia de un medio
aglutinante y a la impureza de los pigmentos industriales (el magenta es el más puro, el
amarillo contiene una pequeña contaminación de magenta, que es aún más acusada en el cian).
A este proceso de separación y reproducción del color se le llama cuatricromía, y a su modelo
de color CMYK.
La codificación de color CMYK asigna 8 bits a la descripción de cada tinta, es decir, 32
bits por color. Sin embargo, el numero de colores obtenible no es superior al del modelo RGB,
puesto que el valor de la tinta negra procede de la reducción de cierta cantidad de las otras
tres. En el modelo teórico, si restamos el mínimo valor de CMY a las tres tintas y lo
asignamos al negro, obtenemos el mismo color (100 C, 50 M, 70 Y, 0 K = 50 C, 0 M, 20 Y,
50 K); sin embargo, esto supone que el negro de compuesto - el producido por síntesis equivale al negro directo, con lo cual sería innecesario el canal K. En consecuencia, los
modelos de color de las imágenes CMYK están compensados para representar la diferencia
del negro compuesto y el directo. De la misma manera, cuando convertimos una imagen RGB
a CMYK, el negro se calcula a partir de una función llamada curva de generación de negro,
que tiene en cuenta dicha compensación. Por otra parte, el rango de colores reproducibles en
cuatricromía es considerablemente inferior al de los dispositivos RGB, por lo que los
softwares profesionales tienen en cuenta qué colores están fuera de gama, aún cuando fueron
generados en CMYK. Los colores CMYK definidos por el usuario suelen expresarse en
porcentaje, realizando el software su conversión en valores de 32 bits.
Francisco Martí Ferrer, 1995-2001
Una tercera forma de describir la mezcla
de colores está orientada al usuario, en
función de tres sensaciones: la tonalidad del
color (matiz), la pureza (saturación) y la
luminosidad (valor, brillo, o claridad). Estos
son parámetros intuitivos por los que
describimos cualquier color cotidianamente
(por ejemplo, decimos: un verde azulado
(matiz), apagado (saturación) y claro
(brillo). En base a ellos se crean los modelos
HSV 0 HSB y HLS, los cuales parten de la
proyección del cubo del modelo RGB visto
desde la diagonal principal para describir un
hexágono cromático, en el cual el matiz (Hue) se reparte angularmente, y la saturación (S)
aumenta a medida que un punto está más alejado del centro, que corresponde a la diagonal
principal de grises acromáticos. Añadiendo una tercera dimensión, basada en la luminancia
del color, obtenemos el modelo HSV (matiz, saturación, valor), también llamado HSB (matiz,
saturación, brillo), y el modelo HLS (matiz, claridad, saturación). Estos modelos representan
subconjuntos del espacio RGB, y su diferencia estriba en la consideración de que la
luminosidad de los colores saturados es la máxima (HSV, HSB), o que ésta sólo es aplicable
al blanco, y los colores de máxima saturación tienen un 50% de la luminosidad máxima
(HLS). En ambos casos se cumple la condición de que ciertos valores no tienen efecto o son
irrelevantes; por ejemplo, un color cuya componente B, V o L sea 0, siempre será negro
independientemente del valor que demos a su matiz y a su saturación, de la misma forma que
los colores cuya B, V o L no coincida con la de los colores puros (es decir, que no esté situado
sobre el hexágono principal) no puede tener la máxima saturación , por lo que a partir de
cierta saturación se situarían fuera del espacio del modelo, siendo irrepresentables. En este
segundo caso, los valores por encima de la saturación permitida para el brillo o claridad del
color son irrelevantes, y expresan todos el mismo color.
Cuando trabajamos con modelos de color, el software que utilizamos es capaz de realizar
las conversiones entre ellos, debido a que trabaja con un modelo cuya capacidad de
representación de colores es superior, es decir, abarca un espacio de color del cual los tres
modelos que hemos visto son subconjuntos. Este modelo generalmente es el l*a*b*, descrito
por la CIE (commission Internationale de L’Eclariage, Comisión Internacional de la
Iluminación), basado en las componentes de luminancia (l) y las mezclas entre verde y rojo (a)
y entre amarillo y azul (b).
Por último, en el siguiente esquema representamos los tipos de imágenes de mapa de bits
más frecuentes en función de la paleta de colores que se utiliza para describirlos. En cada
caso, se representa a la izquierda el valor numérico en binario y decimal de cada uno de un
conjunto de cuatro pixels de muestra, cuya transcripción en color se muestra a la derecha. En
el caso de las imágenes compuestas de varios canales de color (RGB y CMYK), se muestra
también la síntesis que producen.
Francisco Martí Ferrer, 1995-2001
Las imágenes de color indexado responden a la necesidad de codificar color sin utilizar el
sistema de componentes, que obliga a la utilización de 24 bits por pixel. En estos casos, la
imagen almacena una paleta de color arbitraria referenciada al modelo RGB, lo que permite
reconstruirla en dispositivos que utilizan este sistema. Su uso se restringe a medios y soportes
en los que es importante reducir cantidad de información cuando se expresan imágenes en
color, por ejemplo, en la Web, debido a la escasa velocidad de transmisión de datos, o en una
animación integrada en una aplicación multimedia o en un videojuego, donde la velocidad de
un adaptador gráfico convencional (tarjeta de video) no permite refrescar a suficiente
velocidad una secuencia de imágenes RGB. Es también el caso de las paletas del sistema, que
deben expresar una variedad cromática con 8 bits por pixel, para representar el entorno gráfico
del sistema operativo con adaptadores gráficos convencionales cuando se trabaja a altas
resoluciones de pantalla (como se verá en las siguientes secciones, la cantidad de información
que puede manejar un adaptador gráfico se reparte entre el número de pixels y la profundidad
de color de éstos).
Cantidad de colores simultáneos en una imagen.
El número de colores diferentes y simultáneos que puede expresar una imagen de mapa de
bits viene determinado por la cantidad de información asignada a cada píxel para determinar
su color. El número de colores es una potencia de dos (los dos estados posibles del bit) cuyo
exponente corresponde al número de bits utilizados para describir el color del pixel. En el
Francisco Martí Ferrer, 1995-2001
caso de una imagen compuesta de varios canales de color, el exponente será el producto de la
cantidad de bits en cada canal por el número de canales. Hay que observar que los canales alfa
- que no indican color, sino transparencia - no entran en el cómputo.
C2
c ic   2ip

Donde
C = Nº de colores posibles simultáneamente en una imagen
c = Nº de canales de color
ic = Cantidad de información por pixel para cada canal de color (en bits)
iP = Cantidad de información por pixel (en bits)
Un caso aparte es el modelo de color CMYK, en el cual el canal negro no indica
propiamente color, sino que compensa el defecto de producción de negro de los otros tres
canales. Cuando desde una aplicación convertimos una imagen creada en RGB a CMYK para
su impresión, el canal negro es calculado en un proceso denominado generación del negro, y
que podemos configurar en dicha aplicación.
Por otra parte, la gama de color, es decir, el rango de colores representables se adapta al
rango obtenible con las tintas de impresión. Los colores fuera de rango de impresión son
sustituidos por los más próximos dentro de dicho rango. Algunas aplicaciones permiten
previsualizar un aviso de gama, indicando cuáles son estos colores, lo que permite ajustar la
imagen RGB antes de su conversión.
Por último, señalar que ningún dispositivo puede mostrar el mismo número de colores que
los definidos por el modelo RGB de 24 bits. Cuando vemos una imagen en pantalla, los
colores definidos son representados por el monitor con los colores disponibles dentro de su
gama.
Ejemplo:
Cálculo del número de colores posibles simultáneamente en una imagen RGB
C = 2(3.8) = 224 = 16.777.216 colores
Cantidad de información de una imagen.
I  ph  pv  c  ic n bits 
I  ph  pv  ip n bits 
n
n/8
n / 8 / 1024
bytes 
Kb 
Mb
8
1024
1024
n
n/8
n / 8 / 1024
bytes 
Kb 
Mb
8
1024
1024
Donde
I = Cantidad de información de una imagen
Francisco Martí Ferrer, 1995-2001
ph = Nº de pixels en horizontal
pv = Nº de pixels en vertical
c = Nº de canales, incluyendo canales de color y canales
ic = Cantidad de información por pixel para cada canal (en bits)
ip = Cantidad de información por pixel (en bits)
Ejemplos:
Cálculo de la cantidad de memoria principal (Incluyendo RAM virtual) requerida para abrir
desde una aplicación una imagen CMYK de 700 x 500 pixels, y que conteniene 2 canales de
máscara.
I = 700 . 500 . 6 . 8
2,002716064453 Mb
= 16.800.000 bits = 2.100.000 bytes = 2050,78125 Kb =
Cálculo de la cantidad de memoria de vídeo (VRAM) requerida por un adaptador gráfico
para mostrar una imagen de 1.024 x 768 pixels en color de 24 bits/pixel (16,7 Mill. de
colores).
I = 1.024 . 768 . 24 = 18.874.368 bits = 2.359.296 bytes = 2.304 Kb = 2,25 Mb
Hay que señalar una diferencia sustancial entre los dos ejemplos:
Una imagen de mapa de bits puede contener tantos pixels y canales como la aplicación y el
sistema en que fue creada permitieron. Si abrimos esta imagen desde una aplicación que nos
permita editar dicha información, necesitamos que ésta esté contenida en la Memoria
Principal.
Por otro lado, lo que vemos en la pantalla es la información que la aplicación y el sistema
operativo envían al adaptador gráfico en el modo de imagen configurado actualmente, es
decir, con una resolución (320x200, 640x480, 800x600, 1024x768, 1280x1024, etc.) y un
número de colores determinados (24=16, 28=256, 216= 65.536, 224=16,7 Mill.). Generalmente,
esta información no coincide con la de la imagen que estamos trabajando. Por ejemplo,
podemos editar una imagen de 16,7 millones de colores con el adaptador gráfico funcionando
a 256 colores, o editar una imagen de 5.000x5.000 pixels con el adaptador gráfico mostrando
640x480 pixels.
Resolución de una imagen.
La resolución expresa la cantidad de pixels de la imagen por unidad de longitud.
Francisco Martí Ferrer, 1995-2001
p
l
r
Este valor se utiliza cuando se digitaliza una imagen y cuando se reproduce en un soporte,
es decir, cuando entran en juego el tamaño de la imagen original, el tamaño del soporte de
reproducción y el número de pixels por unidad de longitud que pueden producir los
dispositivos de entrada y de salida.
En la siguiente ilustración, se muestra la diferencia entre distintas resoluciones de entrada
al digitalizar una imagen en un escáner. La imagen con mayor resolución contiene más
cantidad de información, por lo que será necesario utilizar más memoria para almacenarla y
editarla..
Conociendo dos de estos datos: resolución del dispositivo, dimensiones de la imagen y
número de pixels en cada dimensión, podemos conocer el tercero. La resolución se expresa
normalmente en p.p.i. (pixels per inch, pixels por pulgada).
r
p
l
; l
p
r
;
p lr
Ejemplo:
Cálculo del número de pixels en horizontal que deberá tener una imagen para ajustarla a la
resolución de un dispositivo de impresión sin trama (impresora de sublimación) de resolución
300 p.p.i., si queremos que la imagen impresa tenga una longitud horizontal de 7 cm.
7cm = 7/2,54 pulgadas = 2,756 pulgadas
ph = 2,756 . 300 = 827 pixels
Francisco Martí Ferrer, 1995-2001
Relación entre resolución, tamaño y cantidad de información de una imagen.
De lo expuesto anteriormente, deducimos que:
I  p h  p v  i p  (r  l h )  (r  l v )  i p
Donde
r= Resolución, expresada generalmente en p.p.i. (pixels por pulgada)
ph = Nº de pixels en la dimensión horizontal de la imagen
pv = Nº de pixels en la dimensión vertical de la imagen
lh = Longitud horizontal de la imagen, expresada generalmente en pulgadas
lv = Longitud vertical de la imagen, expresada generalmente en pulgadas
ip = Cantidad de información de cada pixel
Ejemplo:
Cálculo de la cantidad de información de una imagen RGB (24 bits por pixel) con una
resolución de 300 p.p.i., y unas dimensiones de 3 x 7 pulgadas
I = (300 . 3) . (300 . 7) . 24 = 45360000 bits = 5,4 Mb
Relación entre la resolución de salida y la resolución de dispositivo.
Cuando la profundidad de color de la imagen digital es igual o menor que la del dispositivo
de salida, la resolución de salida (la que asignamos a la imagen digital) debe ser igual a la
resolución del dispositivo, puesto que cada pixel del dispositivo es capaz de representar
correctamente un pixel de la imagen. Es el caso de una imagen de RGB, CMYK, de escala de
grises o B/N para impresión en una impresora de sublimación o térmica, o de una imagen
B/N (dibujo de líneas) en una filmadora de fotolitos.
rs  rd
En el caso de dispositivos que trabajan con unas cantidades fijas de pixels (monitores de
ordenador, de televisión, tarjetas con salida a cinta de vídeo analógico y filmadoras de
Francisco Martí Ferrer, 1995-2001
diapositivas), el número de pixels debe ser el correspondiente al área de pantalla que se quiera
asignar a la imagen.
Cuando la profundidad de color de la imagen digital es mayor que la del dispositivo de
salida, la resolución de salida dependerá de la relación entre profundidades de color y de la
técnica utilizada para reproducir la gama tonal de la imagen. Por lo general, este problema se
da al reproducir imágenes CMYK en dispositivos que utilizan 1 bit para cada pixel de cada
canal de color (filmadora de fotolitos, impresora láser, impresora de chorro), o imágenes de
escala de grises en dispositivos monocromos.
Existen dos técnicas principales de reproducción tonal en dispositivos de 1 bit : el tramado
de semitonos y la difusión del error (izquierda y derecha, respectivamente, en la imagen
siguiente).
El tramado de semitonos emula la trama mecánica tradicional de las
artes gráficas. Cuando se fotografiaba el original de tono continuo en la
cámara vertical para producir el fotolito, se interponía entre la película y el
cristal superior una lámina transparente con puntos opacos e idénticos de
una forma determinada (elíptico, diamante, redondo, etc.) agrupados en
líneas con una orientación (ángulo de trama). Dichos puntos actuaban
como diafragmas, produciendo en el fotolito manchas alineadas con la forma del punto, y que
variaban de tamaño según la cantidad de luz que devolviera el original. La reconstrucción del
tono continuo se produce por el fenómeno conocido por integración espacial, que hace que el
observador promedie la intensidad tonal de un área observada a cierta distancia (compruébese
con la imagen anterior).
Encontramos el tramado de semitonos en la mayoría de imágenes impresas en offset
actualmente (puede observarse a simple vista en los carteles publicitarios, o con un
cuentahilos en libros y revistas). Cuando se reproduce en cuatricromía (CMYK) se asigna un
ángulo de trama a cada tinta para evitar que monten, lo que produce las típicas rosetas en las
intersecciones de las líneas. A la densidad de líneas de puntos se le denomina lineatura, y
suele expresarse en líneas por pulgada (lpi).
La transformación de imágenes digitales de escala de grises (cada canal de una imagen
CMYK) en tramados de semitonos se produce reservando un área de pixels del dispositivo de
salida para representar cada punto de impresión, con sus variaciones de tamaño según un
Francisco Martí Ferrer, 1995-2001
patrón de crecimiento, como se muestra en la imagen inferior, para un punto diamante sobre
una matriz de 9 x 9 pixels.
El número de tonos representable (T) por la matriz es igual al número de pixels que
pueden estar en negro simultáneamente (9 x 9) más uno (todos en blanco). Dividiendo la
resolución del dispositivo por la lineatura empleada obtenemos el número de pixels por lado
de la matriz. Por tanto :
2
r 
T   d  1 ;
 lin 
lin 
rd
T  1
De esta manera, la lineatura óptima para reproducir la gama completa de intensidades (256
niveles) en una filmadora de 4000 ppi. , es decir, utilizar matrices de 16 x 16 pixels, capaces
de producir 256 + 1 tonos es :
lin 
4000
257  1

4000
 250lpi
16
En este caso, la calidad de la imagen está garantizada por la altísima resolución del
dispositivo de salida, que permite representar toda la gama con una lineatura suficiente para
producir la integración espacial (y por tanto la continuidad de las formas en la imagen
reproducida) examinando la reproducción a muy corta distancia, siendo prácticamente
imposible ver la trama sin un cuentahilos. No obstante, la lineatura viene también determinada
por la ganancia de punto del medio de impresión,es decir, la expansión de la mancha de tinta
debido a la porosidad del papel. El papel de mayor calidad tiene menor ganancia de punto, de
forma que las lineaturas habituales son : 85 lpi. para periódicos, 133 a 150 lpi. para revistas, y
200 lpi. para catálogos y libros de arte impresos en papel cuché de alta calidad. Cuando se
imprime con dispositivos de baja resolución, es conveniente encontrar un equilibrio entre el
número de tonos y el detalle de las formas. Cuanto más baja es la lineatura, más grandes son
los puntos, y por tanto, la integración espacial se produce a mayor distancia, restando
capacidad para reproducir detalles, aunque el número de tonos es mayor, como puede
observarse en la siguiente ilustración (véase a distintas distancias para experimentar la
integración espacial).
Francisco Martí Ferrer, 1995-2001
Puesto que cada punto de semitono representa un tono dentro de la gama de la imagen,
cabría suponer que la resolución de salida debería ser igual a la lineatura, correspondiéndole a
cada pixel un punto de semitono. Sin embargo, debido al ángulo de trama, no existe
necesariamente una correspondencia en el emplazamiento de ambos, por lo que la resolución
de salida debe ser entre vez y media y el doble de la lineatura, con lo cual evitamos la
formación de dientes de sierra (aliasing) en la reproducción.
2  lin r s  1,5  lin
Las técnicas de difusión del error esparcen el error producido por la
representación de un pixel de una paleta con cierta profundidad de color en
un dispositivo con menor profundidad de color, de forma que el error entre
el tono del pixel y el que se le asigna se arrastra en el cálculo de los pixels
adyacentes. La primera de estas técnicas es la de Floyd y Stenberg (1975),
consistente en sumar parte del error (entre el valor real de un pixel y el
valor que se le asigna) a los valores reales de cuatro pixels adyacentes: 7/16 del error al pixel
situado a la derecha, 3/16 al pixel debajo a la izquierda, 5/16 al pixel debajo, y 1/16 al pixel
debajo a la derecha (el hecho de que que los cuatro errores sumen exactamente el valor del
error del pixel evita la formación de aliasing). Al no reservar una matriz de pixels de
dispositivo para la elaboración de semitonos, produce la integración espacial en menos
superficie, por lo que con idéntica profundidad de color aparente obtenemos mejor definición
de detalle.
Existen diversos desarrollos y variantes de esta técnica, concretados en algoritmos como
los de Floyd-Stenberg de 2 y 4 vías, y otros propietarios de fabricantes de periféricos y
software de impresión, que mejoran continuamente la calidad de la imagen obtenida.
En impresión, se utilizan sobre todo en sistemas láser y de chorro de tinta, aunque cada vez
están más implantadas en las artes gráficas. Es conveniente realizar una prueba de impresión
para precisar la relación entre resolución de salida y resolución de dispositivo; en general
recomendamos la siguiente :
1
1
rd  rs  rd
4
6
Relación entre la resolución de entrada y la resolución de salida.
Una vez determinada la resolución de salida (rs), hay que calcular la resolución de entrada
(re) para obtener en cada imagen digitalizada el número de pixels necesarios. Podemos
calcular la resolución de entrada a partir de la comparación de la distancia entre dos puntos de
la imagen en el original (l) y en la impresión (l’), lo cual nos dar.á un factor de escala de
Francisco Martí Ferrer, 1995-2001
entrada - salida (Ees): aplicando esta escala a la resolución de salida, obtendremos la
resolución de entrada, como expresa la siguiente fórmula.
E es 
l'
l
;
re  E es . rs
Es el caso de la imagen “A“ de la ilustración inferior, en el que conocemos el ancho de la
zona que va a actuar como fondo del montaje. Supongamos que mide 100 mm. y va a ocupar
el ancho completo de un área de impresión de 811 x 1139 mm., y que la resolución de salida
es de 60 ppi.
lA = 100 mm.
l’A = 811 mm.
rs = 60 ppi.
reA  EesA . rs 
l' A
811
. rs 
.60  486,6 ppi.
lA
100
Dado que la resolución es la razón entre el número de pixels y la longitud de la imagen, y
que el número total de pixels de una imagen rectangular (p) es el producto del número de
pixels en la dimensión horizontal (ph) por el número de pixels en la dimensión vertical (pv) ;
podemos comprobar que el número de pixels obtenido es correcto.
r
p
l
; l
p
r
;
pv  l

r
p  ph . pv
1"  25,4mm
l' A h 
811
 31,929"
25,4
l' A v 
1139
 44,842"
25,4
Francisco Martí Ferrer, 1995-2001
lAh 
100
 3,937"
25,4
lAv 
l A h . l' A v
l' A h

3,937  44,842
 5,529"
31,929
peA  peAh . peAv  (l Ah . reA ).(l Av . reA )  3,937486,6 5,529486,6  5154140 pixels
psA  psAh . psAv  (l' Ah . rsA ).(l' Av . rsA )  31,9296044,84260  5154355 pixels
El error procede de los decimales considerados en la conversión a pulgadas. Conociendo el
número de pixels, podemos hallar la cantidad de información de la imagen en distintos modos
de color (escala de grises, RGB, CMYK). Este dato repercute en la capacidad de nuestro
hardware para procesar la imagen y en los soportes de almacenamiento para transportarla (ver
fórmula en páginas anteriores).
Para evitar calcular el tamaño de todas las imágenes de un montaje en el soporte impreso,
podemos hallar la resolución de entrada de una imagen en función del tamaño deseado en
relación a otra imagen cuya re se conozca. Las re de las imágenes “B” y “C” de la
ilustración pueden hallarse calculando previamente los factores de escala entre “B” y “A”
(EBA) y entre “C” y “B” (ECB)
reB  E BA . reA 
l BA
.r ;
l B eA
reC  E CB . reB 
lCB
.r
lC eB
Las imágenes obtenidas tendrán entre sí un tamaño proporcional al previsto en la
impresión cuando sean montadas en un software de tratamiento de mapas de bits, en nuestro
caso, Adobe Photoshop™ (ver ilustración anterior). Esto se debe a que el montaje se realiza
superponiendo los píxeles de las imágenes, independientemente de su resolución.
Sin embargo, antes de imprimir el resultado, deberá aplicarse a la imagen la resolución de
salida prevista sin cambiar el número de pixels, para redistribuirlos en función del tamaño
final.
Si se cuenta con un escáner con interfaz de vía de impresión y escala, se seleccionará como
resolución de la vía de impresión la rs prevista y se aplicará como escala Ees x 100 (la escala
viene expresada en porcentajes). Este tipo de interfaz permite seleccionar un área de
escaneado y ver la variación de sus dimensiones en cm. según la escala, por lo cual lo más
frecuente es modificar la escala hasta que el tamaño del área seleccionada coincida con el
previsto en la impresión. Para proporcionar imágenes entre sí, se multiplica EBA por la escala
aplicada a la imagen A. En realidad, el escáner digitaliza a una re calculada mediante la rs de
la vía de impresión y la escala aplicada, y su software cambia la resolución a rs sin alterar el
Francisco Martí Ferrer, 1995-2001
número de pixels: al realizar el cambio de resolución de forma automática, nos evita tener que
hacerlo en nuestro software de tratamiento.
Cuando no se sabe exactamente el tamaño de impresión de las imágenes, debemos
digitalizarlas considerando el máximo tamaño previsto, puesto que una eventual reducción de
su número de pixels en el montaje no afectará a la calidad de la imagen final. Si la reducción
es considerable, habrá que aplicar a la imagen un filtro que aumente los saltos de nivel de
brillo, como la máscara de enfoque de Adobe Photoshop.
Cuando un proyecto exige distintos tamaños y soportes de impresión de una imagen, ésta
ha de digitalizarse a la resolución necesaria para el soporte donde sean necesarios más pixels.
Si la diferencia de pixels necesarios entre distintos soportes es considerable, habrá que reducir
el número de pixels de la imagen y utilizar la máscara de enfoque.
Formatos de imagen.
Se denomina formato de un archivo o documento a la norma que se utiliza para codificar y
almacenar su información. El formato puede ser propietario o de intercambio, según se quiera
almacenar toda la información susceptible de ser reconocida por la aplicación en que se creó
el archivo, o se quiera almacenar información reconocible por un amplio número de paquetes
de software y dispositivos. El método de trabajo adecuado consiste en almacenar los datos en
el formato propietario de la aplicación que utilicemos, lo que permite conservar todas la
información de nuestro trabajo, y crear copias en formatos de intercambio cuando debemos
migrar nuestros resultados a otros entornos.
Así, por ejemplo, siempre que trabajemos un proyecto en Photoshop, lo salvaremos en
formato PSD (el formato propietario), lo que nos permite conservar la información de capas,
trazados, guías, etc..., y crearemos copias de la imagen resultante en formatos de intercambio
cuando queramos trabajarla en otra aplicación o reproducirla mediante un determinado
dispositivo. Los formatos de intercambio de imágenes de mapa de bits más utilizados son :
TIFF, TIF (Tagged Image File Format). Formato de archivo de imagen etiquetada.
Introducido por Aldus Corporation como archivo de almacenamiento de imágenes
procedentes de escáner. Almacena imágenes de 1 bit, escala de grises, color indexado, RGB y
CMYK. Permite almacenar los canales alfa (máscaras). Admite compresión (reducción del
tamaño del archivo) sin pérdida de información LZW (Lempel - Ziv - Welch). Admitido por
la mayoría de software de ilustración y diseño (Aldus Freehand, Adobe Illustrator, Corel
Draw, etc.) Se utiliza para almacenar imágenes de escáner y para exportar mapas de bits a
software de ilustración.
GIF (CompuServe Graphics). Almacena imágenes de color indexado. Muy utilizado
actualmente en el Worl Wide Web de Internet. En este entorno, permite definir un color
transparente y almacenarse en modo entrelazado (que, al recupera la imagen, permite verla en
Francisco Martí Ferrer, 1995-2001
baja resolución mientras se carga).También puede almacenar secuencias de imágenes, por lo
que se utiliza para animaciones (generalmente iconos animados).
JPEG, JPG (Joint Photographic Expert Group). Almacena imágenes RGB y de escala
de grises. No almacena canales alfa. Admite compresión con pérdida de información. El
usuario elige la relación compresión/calidad de la imagen, valores inversamente
proporcionales. Muy utilizado actualmente en el Worl Wide Web de Internet, por permitir una
buena compresión con una calidad de imagen aceptable, lo cual disminuye sensiblemente el
tiempo de carga para imágenes RGB de 24 bits.
EPS (Encapsulated Postcrip). Formato basado en el lenguaje Postcript de descripción de
página para periféricos de impresión. Permite exportar gráficos de mapas de bits a software de
maquetación, ilustración y diseño, pudiendo en éstos tener acceso a cada tinta por separado
(CMYK, una tinta o varias tintas) y modificar su color. El formato puede almacenar una
representación alternativa de la imagen en RGB o color indexado a baja resolución, para
facilitar su visualización en pantalla.
Francisco Martí Ferrer, 1995-2001
Descargar