TECNOLOGÍA DE LOS CONTENIDOS MULTIMEDIA TEMA 9 La

Anuncio
Programa Oficial de Postgrado:
Master en Comunicaciones, Redes y Gestión de Contenidos
TECNOLOGÍA DE LOS CONTENIDOS MULTIMEDIA
Optativa de 2º cuatrimestre
TEMA 9
La señal de Vídeo
TEMA 9
La señal de Video
9.1
EL SISTEMA VISUAL
El primer aspecto a considerar para comprender los sistemas audiovisuales es el funcionamiento
del sistema visual humano, por razones obvias. Asimismo, en la compresión digital es también
necesario entender el sistema visual humano. Comprender las características y las limitaciones
del sistema ojo-cerebro puede ayudar a maximizar la efectividad de las operaciones de la compresión digital de imágenes.
El sistema visual humano está compuesto por el ojo y una parte del cerebro que procesa las señales neurológicas que provienen de este. El ojo convierte la información visual en impulsos nerviosos usados por el cerebro.
El ojo en su conjunto, llamado globo ocular, es una estructura casi esférica de aproximadamente
22mm de diámetro. Está rodeado por tres membranas: la córnea y la esclerótica, que constituyen
la cubierta exterior, la coroides y la retina. Los rayos de luz generados o reflejados por un objeto
primero inciden en la córnea. La córnea actúa como una lente convexa, refractando los rayos.
Esta refracción forma el enfoque inicial de la luz que entra al ojo. La córnea forma una protección transparente que cubre la superficie anterior del ojo. Después de la córnea, los rayos pasan a
través de un líquido claro y húmedo llamado el humor acuoso, y después pasan a través del iris y
el cristalino. El iris actúa como una apertura variable que controla la cantidad de luz que puede
pasar a través del cristalino. Es controlado por músculos que lo abren y lo cierran basados en la
intensidad promedio del objeto que es observado. Por la noche el iris se abre ampliamente, mientras que en un día luminoso se cierra significativamente. Este efecto lo reproducen las cámaras
fotográficas y las de vídeo mediante el diafragma.
El cristalino lleva a cabo el segundo enfoque de la luz, proyectando a esta en la retina. El cristalino es controlado por músculos que permiten variar la distancia focal del sistema óptico total
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
dependiendo de la distancia del objeto observado. Del mismo modo que en una cámara, el ojo
debe ser enfocado según lo lejos que esté del objeto. Los rayos de luz salen del cristalino pasando
a través de una sustancia transparente y gelatinosa, llamada humor vítreo, y son finalmente enfocados en la retina. El humor vítreo mantiene la estructura del ojo mientras que ópticamente une el
cristalino a la retina. Véase la figura 9.1
Figura 9.1
Diagrama de una sección transversal del ojo humano
La membrana más interna del ojo es la retina, que cubre la totalidad de la pared posterior.
Cuando el ojo está correctamente enfocado, la luz de un objeto exterior al ojo forma su imagen
en la retina. La retina está compuesta por fotorreceptores que convierten la intensidad y el color
de la luz en señales nerviosas. Existen dos tipos de fotorreceptores, bastones y conos. Los bastones son los más abundantes: entre 75 y 150 millones están distribuidos sobre la superficie retiniana y son los que más responden a la luz. Su gran área de distribución, junto con el hecho de
que grupos de varios bastones comparten una misma terminación nerviosa, reduce la cantidad de
detalle discernible por estos receptores. Los bastones sirven para dar una visión general del
campo de visión, no están implicados en la visión del color y son sensibles a niveles de iluminación bajos, por ejemplo por la noche.
Los conos son mucho menos abundantes que los bastones (alrededor de 6 a 7 millones) y están
localizados principalmente en la región central de la retina, denominada fóvea. Los conos son
muy sensibles al color y son algo menos sensitivos a la luz. Se usan para la visión de luz brillante, por ejemplo en un día soleado. Los seres humanos pueden apreciar detalles relativamente
finos gracias a esos conos porque cada uno está conectado a su propia terminación nerviosa. Los
músculos que controlan el ojo giran el globo ocular hasta que la imagen del objeto visto queda en
la fóvea. Existen tres tipos diferentes de conos; cada uno responde a una banda distinta del espectro de la luz. Básicamente, cada cono responde de forma diferente a un color arbitrario, así
genera un conjunto único de respuestas para cada color de la luz. Con estas señales de los tres
tipos de conos, el cerebro tiene la información con la que forma una percepción distinta de un
gran número de colores diferentes.
9.2
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Las diferencias entre bastones y conos, y sus distribuciones a través de la retina, son responsables
de diversos aspectos de la visión. Ya que los conos que sensan el color están concentrados en la
fóvea, la percepción del color es mejor para los objetos que se ven directamente de frente. Recíprocamente, se tiene una mínima percepción del color para objetos en la visión periférica.
Debido a que los bastones, altamente sensitivos, son abundantes por todas partes menos en la
fóvea, la percepción de luz de bajo nivel es mejor en la visión periférica. Así, durante la noche,
los objetos confusos se pueden ver por la parte periférica de la retina mientras que son invisibles
para la fóvea. La relativa insensibilidad de los conos cuenta además para la incapacidad de percibir el color bajo condiciones de poca luz, tal como por la noche.
Cuando la luz golpea los bastones y los conos, causa una reacción electroquímica que genera
impulsos nerviosos. Estos impulsos se pasan al cerebro por el nervio óptico, que es una extensión
de la retina que lo conecta al cerebro. En la retina se crea un pequeño punto ciego donde el nervio
óptico se une. Los impulsos neuronales son recibidos por el cerebro y procesados por la corteza
visual. La percepción de la visión es creada dentro del proceso de la corteza visual.
Debido a que las imágenes digitales se presentan como un conjunto de puntos brillantes, la capacidad del ojo de discriminar entre diferentes niveles de iluminación es una consideración importante para presentar los resultados del procesamiento de la imagen.
Figura 9.2
Respuesta logarítmica del ojo, Ley de Weber
La relación entre la intensidad de la luz que entra al ojo y su brillo percibido no es una función
lineal. Esto significa que a medida que la intensidad de una fuente luminosa cambia, el observador no percibirá un cambio igual en el brillo. La respuesta de la intensidad real del ojo es más
logarítmica, similar a la curva de la figura 9.2. De hecho, se ha mostrado experimentalmente que
la intensidad de una fuente luminosa debe ser cercana al doble antes de que el ojo pueda detectar
que ha cambiado. Por lo tanto, los cambios ligeros en la intensidad en regiones oscuras de una
imagen tienden a ser más perceptibles que los cambios iguales en regiones brillantes. Esta rela-
Tecnología de los Contenidos Multimedia
9.3
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
ción que hay entre la intensidad de la iluminación y el brillo percibido, es conocida como Ley de
Weber.
La capacidad del ojo para discriminar entre cambios de iluminación para cada nivel específico de
adaptación también es de considerable interés. Un experimento utilizado para determinar la capacidad del sistema visual humano de discriminar la iluminación consiste en colocar a un sujeto
observando un área plana, uniformemente iluminada, lo suficientemente grande para que ocupe
todo el campo visual. Esta área es habitualmente un simple difusor, tal como un vidrio esmerilado, que se ilumina desde atrás con una fuente de luz cuya intensidad, I , puede variarse. A este
campo se añade un incremento de iluminación, ∆I, en forma de un destello de corta duración que
aparece como un círculo en el centro del campo uniformemente iluminado, como se muestra en
la figura 9.3.
Figura 9.3
Montaje experimental empleado para caracterizar la discriminación de iluminación
Si el ∆I no es lo suficientemente brillante, el sujeto debe decir "No", indicando que no percibe el
cambio. Conforme ∆I aumenta, el sujeto puede dar una respuesta positiva "Si", indicando que ha
percibido un cambio. Finalmente cuando ∆I sea suficientemente intenso acabará diciendo "Si"
todas las veces. La cantidad ∆Ic/I , donde ∆Ic es el incremento de iluminación discernible el 50%
de las veces con la iluminación de fondo I, se conoce como el cociente de Weber. Un pequeño
valor de ∆Ic/I significa que se puede discriminar un pequeño cambio de intensidad. Esto representa una pobre discriminación de iluminación.
Una representación log ∆Ic/I como función del logI tiene la forma típica mostrada en la figura
9.4. Esta figura muestra que la discriminación de iluminación es pobre (el cociente de Weber es
grande) para niveles de iluminación bajos, y mejora significativamente (el cociente de Weber
decrece) conforme crece la iluminación del fondo. Las dos ramas de la curva reflejan el hecho de
que para niveles de iluminación bajos la visión se realiza a través de los bastones, mientras que a
niveles elevados (mostrando mejor discriminación) la visión es función de los conos.
9.4
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.4
UNED - CURSO 2007-2008
Cociente de Weber típico en función de la intensidad
Son dos los fenómenos que demuestran claramente que la percepción de la intensidad no es una
función simple lineal de la intensidad. El primero se basa en el hecho de que el sistema visual
tiende a sub o sobreestimar la intensidad. El primero se basa en el hecho de que el sistema visual
tiende a hacerlo alrededor de las fronteras de regiones de diferentes intensidades. La figura 9.5
muestra un ejemplo de este fenómeno. Aunque la intensidad de las franjas sea constante, realmente se percibe un patrón de brillos fuertemente escalonado, especialmente cerca de las fronteras. En la figura 9.5.b se presenta la intensidad real en las franjas de la escala de grises, y la
gráfica del brillo percibido por el ojo. Esta es la forma en que el ojo añade realce al contorno para
las transiciones de intensidad. El sistema visual realmente intensifica todo lo que ve, dando una
agudeza visual mejorada. Estas bandas que se perciben como escalonadas se denominan bandas
Mach, y el efecto se denomina efecto de bandas (Mach), en honor a Ernst Mach que fue el primero es describir este fenómeno en 1865.
a)
Figura 9.5
b)
Escala de grises con franjas de igual intensidad
Tecnología de los Contenidos Multimedia
9.5
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El segundo fenómeno se denomina contraste simultáneo y está relacionado con el hecho de que
el brillo percibido de una región no depende únicamente de su intensidad, sino que también
depende de la intensidad del área circundante. Este efecto se muestra en la figura 9.6. Los cuatro
cuadrados pequeños tienen intensidades idénticas, no obstante el de la parte superior izquierda
aparece más brillante que el de la inferior derecha. Esto es porque el área alrededor del cuadrado
de la parte superior izquierda es más oscura que el área alrededor del cuadrado de la parte inferior
derecha. El sistema visual ajusta su respuesta a la intensidad, basándose en la intensidad promedio alrededor de la vista resaltada. Como la parte superior izquierda de la imagen tiene una intensidad promedio más oscura (ya que el fondo es más oscuro), su cuadrado parece más brillante. La
intensidad promedio más brillante de la parte inferior derecha hace que su cuadrado parezca más
oscuro. Por consiguiente, hay una diferencia en el brillo aparente de los cuatro cuadrados pequeños, y parecen como progresivamente más oscuros, conforme el fondo se hace más claro.
Figura 9.6
Contraste simultáneo
El sistema visual tiene limitaciones fundamentales en la respuesta en frecuencia. Como en cualquier sistema óptico, el ojo tiene limites sobre cómo puede resolver detalles finos, o transiciones
de intensidad. Los factores limitantes son el número y organización de los fotorreceptores en la
retina, la calidad de la parte óptica del ojo (córnea, humor acuoso, cristalino, y humor vítreo), y la
transmisión y procesamiento de la información visual al cerebro. Generalmente, la respuesta en
frecuencia del ojo disminuye a medida que se ven transiciones de intensidad, que se vuelven cada
vez más finas, como se ve en la figura 9.7. Es también un factor el contraste, o diferencia entre
niveles de gris, de la transición de intensidad. Cuanto más alto es el contraste, más fino es el detalle que el ojo puede resolver. Finalmente, cuando las transiciones están demasiado finas o el contraste es demasiado bajo, el ojo ya no puede resolverlos. En este punto, el ojo puede percibir sólo
un promedio del nivel de gris del área detallada.
El fenómeno discutido ilustra el complejo proceso que ocurre en el sistema visual humano. Combinando los conceptos de respuesta de intensidad no lineal, interacción del fotorreceptor y respuesta en frecuencia del ojo, se pueden realizar las siguientes observaciones:
9.6
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
• La intensidad del objeto visto está relacionada con la intensidad promedio alrededor del objeto.
El objeto aparece más oscuro si el área circundante es brillante, o más brillante si el área circundante es oscura.
• Los cambios sutiles de intensidad son mas aparentes en las regiones oscuras que en las regiones
brillantes de la imagen.
• Las transiciones marcadas de intensidad se acentúan en una imagen. La respuesta a los detalles
de la imagen decae cuando los detalles a resolver son demasiado finos. Los detalles con contraste
alto se pueden resolver mas fácilmente que aquellos con contraste bajo.
Figura 9.7
Patrón que incrementa la frecuencia de izquierda a derecha y decrementa el contraste de arriba abajo
La visión de color presenta algunas características particulares. El ojo no es uniformemente sensible a todo el espectro visible. La figura 9.8 muestra la respuesta relativa del "ojo medio" a la luz
de luminancia constante proyectada en varias longitudes de onda comprendidas en el espectro. El
pico (máximo) de la curva está en la región verde-amarillo y es interesante observar que una
curva que represente la distribución de energía de luz solar o natural tiene su máximo en esta
área. La curva de línea gruesa representa la impresión subjetiva de brillo del observador medio
en condiciones de luz natural. Como muestra la segunda curva, en condiciones cercanas a la
oscuridad la curva de respuesta se desplaza hacia la izquierda.
Figura 9.8
Sensibilidad relativa del ojo humano a diferentes longitudes de onda
Tecnología de los Contenidos Multimedia
9.7
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Se dice que la luz de una sola longitud de onda es monocromática. Por nuestra aptitud para distinguir una variedad de diferentes colores se puede suponer que existen diferentes tipos de conos
en la retina, y que cada tipo está "sintonizado" a una pequeña banda de frecuencia. Si los conos
fuesen monocromáticos de esta manera, entonces la impresión de un color dado podría ser producido únicamente por la energía electromagnética que tuviese la longitud de onda apropiada. Sin
embargo, esto no es cierto. La luz monocromática brillante que impresiona a la retina no es la
única manera de crear una impresión de color dada. Por ejemplo, algunos amarillos monocromáticos pueden ser adaptados por la llegada simultanea a la retina de luz roja y verde. Casi todos los
colores pueden ser obtenidos mezclando sólo tres luces de color. A estos colores se les llama
"primarios" y los que se usan son el rojo, el verde, y el azul.
El comportamiento del ojo es consistente con los tres tipos de conos únicamente, teniendo cada
uno una curva diferente de respuesta. Las tres curvas de respuesta se solapan de manera que
todos los colores están debajo de cualquier curva de ellas, o bien parcialmente debajo de dos, o
de las tres curvas. La figura 9.9 ilustra este hecho. Se observa que el amarillo activa los conos
verde y rojo. Lo lógico es deducir que cuando la luz verde y la luz roja llegan a la retina al mismo
tiempo, la excitación simultánea de los conos correspondiente al verde y al rojo produce en el
centro sensorial del cerebro una impresión que es indistinguible de la del amarillo monocromático.
Figura 9.9
Sensibilidades de los tres tipos de conos en la retina
Para que se pueda ver el color, tiene que llegar al ojo la energía electromagnética. Se ve un objeto
por la luz reflejada desde él. Si parece verde a la luz del día, entonces esto debe implicar que aunque está bañado de luz natural "blanca", es solamente la reflexión de la parte verde de la luz la
que llega a los ojos. El resto del espectro es "absorbido". Por consiguiente un objeto parece colo-
9.8
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
reado a causa de que sólo refleja parte del espectro visible y absorbe el resto. El color procede de
la luz incidente. La hierba no parece verde bajo iluminación de sodio a causa de que en ella no
hay luz verde que pueda ser reflejada.
Los colores se pueden obtener haciendo una mezcla de los tres colores primarios, rojo, verde y
azul, esta mezcla se denomina aditiva. Un ejemplo de la mezcla aditiva de estos tres colores es el
siguiente:
Rojo
+
Verde
= Amarillo
Rojo
+
Azul
= Magenta
Azul
+
Verde
= Cian
Rojo
+
Azul
+
Verde
= Blanco
Al mezclar los colores primarios en diferentes proporciones, se puede obtener casi cualquier otro
color. Los colores amarillo, magenta y cian se conocen como colores complementarios. Si se
añade un complementario en proporciones adecuadas a uno primario no contenido en él (por
ejemplo amarillo+azul), se produce blanco. En la figura 9.10 se puede observar la mezcla aditiva
de colores.
Figura 9.10
Mezcla aditiva de colores
El sistema visual humano puede adaptarse a un gran margen de niveles de luz mediante dos procedimientos: bioquímico en las reacciones que tienen lugar en la retina y por la pupila. El tamaño
de la pupila puede variar entre un mínimo de 1.5 mm de diámetro y un máximo de 8 mm, lo que
significa unas 30 veces en el nivel de luz. El procedimiento bioquimico es más lento que el de la
pupila pero puede cambiar la sensibilidad en un factor entre 500000 y 1000000.
Considerando el conjunto de las células sensibles del ojo, la sensibilidad total varía con la frecuencia (color) de la luz. Por ejemplo, dos radiaciones lumínicas una de color amarillo-verdoso,
otra de color rojo y las dos de la misma potencia, se percibe más brillante (más clara) la amarillo
verdosa que la roja. La figura 9.11 ilustra la respuesta en frecuencia del ojo. La respuesta es dis-
Tecnología de los Contenidos Multimedia
9.9
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
tinta si la visión es fotópica (niveles medios o altos de luz) o escotópica (niveles muy bajos de
luz)
Figura 9.11
Respuesta en frecuencia del ojo
Figura 9.12
Espectro electromagnético.
9.10
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
9.2
UNED - CURSO 2007-2008
CONCEPTOS BÁSICOS DE LA RADIACIÓN LUMINOSA. TEORÍA DEL COLOR
La luz es una onda electromagnética, y por tanto uno de sus parámetros fundamentales es la frecuencia. La frecuencia de una radiación o su longitud de onda determina por ejemplo el comportamiento en la propagación, las dimensiones de las antenas a utilizar, etc.
Así, podemos tener una emisión de radio, por ejemplo, a una frecuencia de 500 KHz o de 800
MHz captada por las antenas correspondientes, pero, si subimos en frecuencia hasta una frecuencia suficiente, la onda electromagnética será captada por el ojo como una radiación lumínica de
color rojo, amarillo... hasta el violeta para la frecuencia más alta. Si sigue aumentando la frecuencia la radiación dejará de ser visible pasando a la banda de los rayos X, gamma, etc. Es decir, la
luz visible es una radiación electromagnética de la misma naturaleza que las ondas de radio pero
perteneciente a la banda de longitudes de onda comprendidas entre 380 nm (violeta) a 780 nm
(rojo). La figura 9.12 muestra el espectro electromagnético completo y un detalle del visible.
La luz es monocroma si contiene una radiación de una determinada longitud de onda y es policroma si está compuesta por varias radiaciones de longitudes de onda distintas. En el caso de la
luz monocroma el color depende de la frecuencia de la radiación.
La luz solar, percibido como luz de color blanco es un ejemplo de luz policroma. Contiene una
mezcla de todos los colores, es decir, tiene radiaciones de todas las longitudes de onda del espectro visible.
La colorimetría trata de cuantificar el color. El color en una luz monocromática está directamente
relacionado con la longitud de onda, desde el violeta para la menor longitud de onda visible (380
nm) hasta el rojo para la mayor (780 nm).
Pero en la mayor parte de las situaciones, las radiaciones luminosas que percibe el sistema visual
humano no son monocromáticas, sino que contienen una distribución espectral más o menos
ancha, policromática, como por ejemplo la del sol, o bien debida al resultado de reflejarse o
transmitiese esa luz en un cuerpo.
Los objetos tienen un determinado color porque producen una reflexión de la luz que depende de
la frecuencia. Así, un objeto iluminado con una luz blanca tiene color verde porque refleja la
radiación correspondiente a las longitudes de onda de la zona de los
verdes, y no refleja (absorbe o transmite) el resto.
Ante la presencia de una radiación policromática, el ojo, percibe una sensación de color única. La
sensación de luz tiene tres partes: en primer lugar, la cantidad de luz o lo brillante que es la radiación, la luminancia; en segundo lugar el tono o matiz que indica el color, si es rojo, verde, azul,
etc; y por último la pureza o saturación que indica si es un color claro o intenso. Por ejemplo, el
rosa es un color rojo poco saturado, rojo mezclado con luz blanca.
Tecnología de los Contenidos Multimedia
9.11
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Hay dos tipos de mezclas de color, la aditiva y la sustractiva. La sustractiva es por ejemplo la
mezcla de pinturas, y la aditiva es la que se usa para la reproducción de colores en televisión y se
consigue con mezcla de luces de colores.
La mezcla aditiva es la que se produce cuando la radiación resultante contiene la radiación de dos
o más fuentes, el resultado en el ojo es una sensación equivalente a un nuevo color. Es un fenómeno subjetivo.
Hay diferentes métodos para mezclar aditivamente varios colores. Las más relevantes son las
siguientes.
Simultánea en el mismo punto. Es una mezcla en la que varias fuentes están presentes en todo
momento sobre la misma superficie.
Alterna en el mismo punto. Es una mezcla por alternancia de las fuentes en el tiempo proyectadas
sobre la misma superficie a una frecuencia suficientemente elevada para que la integración temporal del ojo produzca una única sensación. Es la técnica empleada por los modernos proyectores
de vídeo con tecnología DLP.
Yuxtapuesta por puntos (composición de puntos). Es una mezcla por alternancia en el espacio de
manera que puntos pequeños de diferentes colores y próximos entre sí vistos a suficiente distancia para que el ojo realice la integración espacial. Esta mezcla es la que se utiliza en televisión y
las impresoras de color. Este efecto se puede ver claramente si se observa de cerca un gran cartel
publicitario. A una cierta distancia, lo normal para la observación de este tipo de carteles, se percibe un color uniforme. Pero al acercarnos los suficiente se pueden ver las partes constituyentes,
que son normalmente de cuatro colores distintos (
La colorimetría se basa en las experiencias que realizaron Grassmann y Maxwell sobre el comportamiento subjetivo ante mezclas de colores.
Las leyes de Grassmann son las siguientes:
1.- Toda sensación de color se puede obtener por suma de tres fuentes de colores seleccionados
que llamaremos primarios y que son rojo, verde y azul.
2.- Cuando se ha establecido la igualdad de la primera ley, la luminancia del color igualado es
la suma de las luminancias de los primarios utilizados en la igualación.
3.- Dos radiaciones cromáticamente equivalentes lo siguen siendo para un amplio margen de
luminancias.
4.- Dos radiaciones cromáticamente equivalentes a una tercera son equivalentes entre sí (propiedad transitiva). Esto se denomina metamerismo cromático.
La medida del color se realiza con el colorímetro, que es un dispositivo sencillo. Consta de dos
paneles, en cada uno de ellos se proyecta una luz distinta y pueden ser observadas simultáneamente. En una parte se proyecta una combinación de los tres primarios referidos por la primera
ley de Grassmann y en la otra el color bajo análisis. La figura 9.13 muestra un colirímetro.
9.12
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.13
UNED - CURSO 2007-2008
Colorímetro
El procedimiento consiste en ir variando la cantidad de cada primario hasta que el observador
tenga la misma sensación en cada uno de los paneles. En esta situación ambas radiaciones son
cromáticamente equivalentes y por tanto el color C queda caracterizado por la cantidad de cada
primario utilizado (al,a2,a3).
Con este procedimiento se realiza una medida subjetiva evitando utilizar la poca capacidad del
sistema visual para establecer una escala absoluta de colores y aprovechando su gran capacidad
para la comparación.
Al analizar una gran cantidad de colores se observa que para algunos colores no se puede obtener
una radiación equivalente con los tres primarios tal que
a1Pl + a2P2 + a3P3 ≠ C
En estos casos se llega a la equivalencia cuando uno de los primarios es negativo:
a1Pl + a2P2 - a3P3 ≠ C
La triada que identifica a este color es entonces (al,a2,-a3).
La figura 9.14 muestra las cantidades de los tres colores primarios RGB que son necesarios para
obtener las longitudes de onda del espectro visible.
Los valores negativos indican que algunos colores no pueden obtenerse con coeficientes positivos.
La Comisión Internacional de la Iluminación (CIE o ICI, Commission Internationale de L'Eclairage, or International Commission on Illumination) eligió tres colores primarios para normalizar
la medida del color. Dichos primarios se eligieron de forma que pudieran obtenerse una gran
parte de colores con coeficientes positivos.
Rojo de 700 nm (R)
Verde de 546.1 nm (G)
Azul de 435.8 nm (B)
Tecnología de los Contenidos Multimedia
9.13
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.14
UNED - CURSO 2007-2008
Cantidades de los tres colores primarios RGB que son necesarios para obtener las longitudes de onda del
espectro visible.
Estos primarios igualan el blanco (W) equienergético que es aquel con la misma potencia en cada
longitud de onda desde el violeta al rojo (ver figura 9.15), con las proporciones:
LR=1.891
LG=8.681
LB=0.1136
Figura 9.15
Blanco equienergético.
Otra representación del color, también muy utilizada, es la compuesta por la triada luminancia o
brillo, tono o matiz y saturación o pureza (HSI: Huge, Saturation and Intensity).
Ambas representaciones caracterizan a un color y se puede pasar de una a otra mediante una
matriz de transformación:
 I   γ 11 γ 12
 H  = γ
   21 γ 22
 S  γ
   31 γ 32
γ 13  R 

γ 23 
 G 

γ 33 
 B 
Donde los valores γ dependen de los primarios elegidos.
9.14
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El que cada color esté caracterizado por tres coeficientes permite representar los colores
mediante un espacio vectorial donde cada eje corresponde a un primario y cada punto del espacio
a un color, definiendo así el espacio de color.
Dada la gran distancia entre los valores, el blanco no queda en el centro del sistema de referencia,
lo cual hace que en un eje haya que tratar los números con mucha precisión, mientras que en los
otros esa precisión es menos importante.
Para evitar esto el CIE propuso otro sistema con los mismos primarios pero ponderados por unos
coeficientes tal que el blanco estuviese en las coordenadas (1, 1, l), de manera que
LR
1.891
L
G=K G
8.681
LB
B=K
0.1136
R=K
La figura 9.16 muestra este espacio de color.
Figura 9.16
Espacio colorimétrico con W en (1,1,1).
Para estudiar sólo el color no hacen falta los tres valores R,G,B puesto que la luminancia no
aporta información sobre el color, así pues, se puede normalizar respecto a la suma de R,G,B
definiendo un nuevo sistema de referencia rgb tal que:
r=
R
;
R+G + B
Tecnología de los Contenidos Multimedia
g=
G
;
R+G + B
b=
B
R+G + B
9.15
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Este sistema determina un espacio vectorial de dos dimensiones, puesto que hay una relación
lineal entre ellas r+g+b= l, tal y como ilustra la figura 9.17.
Figura 9.17
Espacio rgb.
Todos los colores están ahora sobre el plano r+g+b=l. Si se toma la parte del plano que está en el
primer cuadrante se obtiene el Triángulo de Maxwell, que se muestra en la figura 9.18.
Figura 9.18
Triángulo de Maxwell
La mezcla de los colores C1 y C2 produce el color C3.
Se puede definir también una medida del tono y la saturación sobre el triángulo definiendo un eje
de referencia para los ángulos, como se muestra en la figura 9.19, en el que el módulo está relacionado con la saturación y el ángulo con el tono.
9.16
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.19
UNED - CURSO 2007-2008
Tono y saturación sobre el triángulo de Maxwell.
Con cualquiera de los sistemas hasta ahora analizados, algunos colores y sobre todo los monocromáticos tienen coeficientes negativos. Por ejemplo:
Verde de 560 nm: r=0.3164; g=0.6881; b=-0.0045
Azul de 480 nm: r=-0.3667; g=0.2906; b= 1.0761
Además otro inconveniente es que la luminancia no queda reflejada directamente en ninguno de
los ejes del sistema de referencia.
Para evitar estos dos inconvenientes el CIE recomendó en 1931 usar un nuevo espacio
colorimétrico, el XYZ. El Y fue elegido intencionadamente de forma que sea idéntico a la función de eficiencia luminosa del ojo humano. Los primarios deben estar referidos de modo que
ningún
color tenga componentes negativos. No existe ningún trío de colores en la naturaleza que cumpla
esta condición. Así pues, el nuevo sistema XYZ consta de primarios que no tienen correspondencia con colores reales.
Los nuevos primarios escogidos tienen los siguientes coeficientes rgb:
X: r = 1.2750;g = -0.2778;b = 0.0028
Y: r = -1.7394;g = 2.7674;b = -0.0280
Z: r = - 0.7429;g = 0. 1409;b = 1.6020
y normalizados son:
x=
X
;
X +Y + Z
Tecnología de los Contenidos Multimedia
y=
Y
;
X +Y + Z
z=
Z
X +Y + Z
9.17
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
De esta forma los colores del anterior ejemplo serán:
Verde de 560 nm:x=0.3731;y=0.6245; z=0.0240
Azul de 480 nm:x=0.0913y=0.1327;z=0.7760
Al igual que con RGB al pasar a los coeficientes normalizados, conocidos dos coeficientes se
puede determinar el tercero mediante la ecuación: x+y+z = 1. Así todos los colores pueden representarse en un plano. Si por ejemplo se toman los coeficientes x e y, todos los colores quedan
representados en el triángulo de vértices (0,0), (1,0), (0,1), puesto que los coeficientes x, y, z, son
menores que 1. Este es conocido como el triangulo de cromaticidad y se ilustra en la figura 9.20.
Figura 9.20
Triángulo de cromaticidad
Si se ubican los puntos del espectro dentro del triángulo se obtiene el diagrama de cromaticidad.
El espectro comienza en 380 nm, continúa en el sentido de las agujas del reloj y termina en 780
nm. Esta línea se denomina espectrum locus por ser el lugar de los colores monocromáticos del
espectro y se ilustra en la figura 9.21.
La recta que une el punto de 380 nm con el de 780 nm no corresponde a ningún color monocromático. Se llama recta de los púrpuras y el color percibido es una sensación subjetiva.
9.2.1 LUMINÓFOROS UTILIZADOS EN TVC.
Los primarios utilizados para TV de color no son los mismos primarios que los del CIE, porque
la luz que producen los materiales luminiscentes al ser golpeados por un haz de electrones no tienen un espectro monocromático. Los primarios de TV ubicados dentro del diagrama de cromaticidad se presentan en la figura 9.22. Los colores reproducibles por el receptor de TV son los que
contiene el triángulo.
9.18
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.21
Diagrama de cromaticidad
Figura 9.22
Luminóforos utilizados en T. V.
UNED - CURSO 2007-2008
Se puede observar que los colores del espectro quedan fuera de él. Este hecho no es importante
porque los colores que se presentan en la naturaleza raramente son saturados al 100%.
En 1976 CIE redefinió el modelo, presentando el denominado CIE L*a*b, que se muestra en la
figura 9.23. Se trata de una diagrama de luminancia desde el valor cero (negro) al 100 (blanco) y
de crominancia de manera que en un eje está en el rango del verde al rojo y en el otro en el rango
Tecnología de los Contenidos Multimedia
9.19
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
del azul al amarillo. Este es el sistema utilizado por Photoshop. Recuérdese que el CMYK es el
sistema utilizado para la impresión, por lo que es razonable que Photoshop lo utiliza ya que esta
es su finalidad última. En cualquier caso también incorpora herramientas de conversión a otros
espacios de color, como por ejemplo a RGB.
Figura 9.23
CIE L*a*b
Los modelos de color para imágenes suelen basarse en el modelo (R,G,B). Estas tripletas codifican cuánto tienen que excitarse los elementos de dispositivos tales como monitores. En concreto
las pantallas CRT tienen tres luminóforos que producen una combinación de longitudes de onda
cuando se excitan mediante los electrones.
Otro modelo alternativo estrechamente relacionado es el modelo CMY, Cyan, Magenta, y
Yellow, que son los colores complementarios de RGB. Pueden utilizarse como primarios sustractivos. Este modelo suele utilizarse en dispositivos de impresión en los que los pigmentos del
color sobre el papel absorben ciertos colores, por ejemplo, no se refleja luz roja de la tinta cyan.
La figura 9.24 muestra la comparación entre los espacios RGB y CMY. La conversión entre
ambos espacios de color convierte el blanco en RGB, (1, 1, 1), a (0, 0, 0) in CMY.
 C  1  R 
 M  = 1 − G 
    
 Y  1  B 
 R  1  C 
G  = 1 −  M 
    
 B  1  Y 
9.20
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
En algunas ocasiones en los dispositivos de color se utiliza un modelo alternativo, CMYK, donde
K representa al negro (black). Con este modelo se dispone del negro directamente sin recurrir a la
mezcla de CMYK y permite alcanzar negros saturados. De la misma forma, los proyectores DLP
también incorporan luz blanca para obtener blancos luminosos y brillantes sobre la pantalla.
Figura 9.24
Comparación entre los espacios RGB y CMY.
La figura 9.25 ilustra los rangos de los diferentes modelos de color. Como puede observarse el
modelo Lab cubre todos los colores del espectro visible, el de RGB es menor, por lo que algunos
colores visibles no pueden presentarse en los monitores, como por ejemplo el amarillo puro, o el
cyan puro. Por último el modelo CMYK es el menor, pero obsérvese que no es un subconjunto
del RGB.
Para las aplicaciones de vídeo se utilizan normalmente dos modelos, YIQ y YUV.
Figura 9.25
Rangos de los diferentes modelos de color.
Tecnología de los Contenidos Multimedia
9.21
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El espacio de color YUV fue utilizado inicialmente en el vídeo analógico PAL, y en la actualidad
es utilizado en el estándar de video digital CCIR 601. En este modelo se utilizan los siguientes
parámetros:
• Y (luminancia) es el primario Y de CIE.
La figura 9.26 reproduce la curva de visibilidad relativa. En la curva se indican los tres colores
primarios utilizados en TV y en el eje de ordenadas se muestran los valores de la sensibilidad
relativa del ojo para las longitudes de onda de RGB.
Figura 9.26
Curva de visibilidad relativa.
Con ello:
Azul:
Longitud onda = 470 nm,Sensibilidad = 0,17
Verde:
Longitud onda = 535 nm,Sensibilidad = 0'92
Rojo:
Longitud onda =:610 nm,Sensibilidad = 0'47
Es decir, Y = 0.47R + 0.92G + 0.17B
Si las componentes RGB están normalizadas R, G, B , la luminancia puede normalizarse dividiendo por la suma de los coeficientes (0.47+0.92+0.17=1.56) resultando:
Y = 0.299R + 0.587G + 0.114B
En la práctica, se utiliza una expresión simplificada de la ecuación anterior:
Y =0.3R + 0.59G + 0.11 B
• "La crominancia se define como la diferencia entre un color y un blanco de referencia con la
misma luminancia. Se representa mediante las diferencias de color, U y V.
U=B-Y
V=R-Y
9.22
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Si la imagen es blanco y negro entonces U = V = 0, es decir, no hay crominancia. En las implementaciones del formato PAL (más adelante en el estudio de la señal de color compuesta se justifican estas expresiones):
U = 0.493 (B - Y)
V = 0.877 (R - Y)
Un modelo estrechamente relacionado con el YUV es el modelo YCbCr, que es un YUV escalado y desplazado. Las diferencias de color vienen dadas por:
Cb = (B - Y) / 1.772 + 0.5
Cr = (R - Y) / 1.402 + 0.5
De esta forma los valores de la crominancia están siempre en el rango de 0 a 1. El modelo YCbCr
se utiliza en JPEG y MPEG. Por este motivo, estas siglas se pueden ver también en los conectores de algunos reproductores domésticos de DVD. Cuando un reproductor tiene este tipo de
salida se dice que tiene salida por componentes y es la que proporciona mayor calidad de imagen.
Obviamente se requiere que la televisión o pantalla tenga también este tipo de entrada y esto sólo
está disponible en los visualizadores de alta gama.
Por último, el modelo de color YIQ se utiliza en el formato de televisión NTSC, y es compatible
con las televisiones blanco y negro en las que sólo se utiliza Y. Aunque U y V definen perfectamente las diferencias de color, no se corresponden con la sensitividad del color de la percepción
humana. Por ello se utilizan I y Q en su lugar en NTSC.
I es el eje naranja-azul, y Q es el eje violeta-verde. Estos dos ejes son los ejes R - Y y B - Y
escalados y rotados 33 grados en el sentido de las agujas de reloj. Así:
I = 0.877(R - Y) cos 33 - 0.492(B - Y) sin 33
Q = 0.877(R - Y) sin 33 + 0.492(B - Y) cos 33
es decir:
I = 0.736(R - Y) - 0.268(B - Y) = 0.596R - 0.275G - 0.321B
Q = 0.478(R - Y) + 0.413(B - Y) = 0.212R - 0.523G + 0.311B
Por tanto la relación entre el espacio YIQ y el RGB viene dada por:
Y  0.299 0.587 0.114   R 
 I  = 0.596 −0.275 −0.321 G 
  
 
Q  0.212 −0.523 0.311   B 
Tecnología de los Contenidos Multimedia
9.23
TEMA 9. LA SEÑAL DE VÍDEO
9.3
UNED - CURSO 2007-2008
SEÑALES ELÉCTRICAS PARA LA CONVERSIÓN DE IMÁGENES
El sistema básico de televisión captura una escena y la reproduce con el objetivo de que un
espectador vea la escena lo más parecida posible a la real. Una escena real es un espacio tridimensional en el que se encuentran objetos, también de 3 dimensiones, que emiten o reflejan luz,
produciendo una distribución de luz a lo largo de los tres ejes del espacio.
Además, puede haber movimiento, introduciendo variaciones de la distribución de luz en función
del tiempo. Por tanto una escena va a tener 4 dimensiones a considerar: tres espaciales y una temporal, además del sonido que se considera aparte.
Para formar una imagen de dos dimensiones a partir de la escena de tres dimensiones, lo que se
hace es adquirir la imagen mediante una cámara, fotográfica o de T.V, en la que la escena 3D se
proyecta sobre una superficie 2D. Con ello se elimina una cantidad importante de información de
la escena.
Para la dimensión temporal se realiza una discretización tomando proyecciones instantáneas en
determinados momentos. El movimiento se reproducirá visualizando las proyecciones de instantes sucesivos a velocidad suficiente para que el sistema visual humano tenga la sensación de un
movimiento continuo y no a saltos. Así, el problema se reduce a convertir la distribución de luz
que se produce sobre la superficie de proyección en un determinado instante a una señal eléctrica.
Para convertir variaciones de luz en variaciones de señal eléctrica se utiliza una fotocélula. Pero
esto no es suficiente para captar una imagen completa. La escena está compuesta por una intensidad de luz en cada punto, y por tanto, el sensor debe convertir independientemente la luz procedente de cada punto. Por ello hay que dividir la imagen en partes suficientemente pequeñas y
realizar una fotoconversión para cada una de ellas, a continuación transmitir la información, y en
el otro extremo reproducir la luz de cada porción de la imagen.
La dimensión de los elementos de la imagen debe ser tal que el sistema visual humano no perciba
cada elemento, sino que el conjunto de los elementos de la sensación de una imagen natural. En
ello influye, entre otros factores, la distancia a la que se observa la imagen reproducida, la diferencia entre la luz del objeto y del fondo, y la resolución visual del espectador. La resolución
visual se define como la inversa del ángulo formado por las rectas que unen los elementos con el
ojo del observador, donde la distancia que separa a los elementos es la mínima para que el observador sea capaz de distinguirlos.
Cada individuo tiene una resolución diferente y tampoco los textos bibliográficos dan un valor
estándar; pueden encontrarse desde 2 minutos de arco hasta 0.5 minutos de arco. Un valor de 1.3
minutos de arco indica una capacidad del ojo de discernir entre dos puntos separados una distancia de 0,4 mm a 1 metro.
9.24
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Para descomponer una imagen puede pensarse en disponer de un sensor formado por un conjunto
de fotocélulas colocadas en una matriz rectangular, y para reproducirla la misma disposición de
matriz de elementos fotoemisores.
Esta disposición permite no discretizar la dimensión temporal. Sin embargo, el número de elementos en los que hay que descomponer la imagen es muy elevado por lo que esta solución era
inviable en los años en los que se desarrolló la primera TV monocroma.
El método que realmente se utiliza en televisión es realizar una lectura de la imagen mediante la
exploración secuencial de la imagen proyectada sobre una superficie fotosensible, siguiendo un
patrón determinado. En el receptor, se realiza una exploración con un procedimiento fotoemisivo
puntual, es decir, que emita luz en un único punto, cuya intensidad luminosa sea función de la
señal eléctrica recibida.
En este contexto aparece el concepto de barrido o exploración, que es el método utilizado en televisión para obtener una señal eléctrica que represente una imagen.
La mayoría de cámaras de TV utilizan el barrido con un haz de electrones de una superficie fotosensible, en la que se produce una acumulación de carga en cada punto, función de la intensidad
de luz incidente.
El barrido se efectúa describiendo líneas horizontales de izquierda a derecha en la superficie
fotosensible. Una vez alcanzado el borde izquierdo, se retrocede al borde derecho y se explora la
línea horizontal siguiente, tal y como ilustra la figura 9.27.a.
Simultáneamente al movimiento horizontal, también es necesario un movimiento vertical de
arriba a abajo, para ir avanzando de una línea a otra. Al llegar a la última línea se retrocede en el
movimiento vertical para volver de nuevo a la línea superior de la pantalla.
En un sistema real de TV, el retorno vertical es mucho más lento que el movimiento horizontal y
además el movimiento horizontal no cesa durante el retorno vertical. Así la trayectoria descrita
por el haz durante el retroceso vertical () es la que se describe en la figura 9.27.b.
Figura 9.27
(a) Barrido. (b) Trayectoria del haz durante el retorno vertical.
Tecnología de los Contenidos Multimedia
9.25
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Durante los tiempos de retorno, el haz debe estar inactivo para que no se visualice en la pantalla.
La figura 9.28 muestra la señal para dos líneas, N y N+1, que se producirá para las imágenes
mostradas.
(a)
(b)
Figura 9.28
Señales para las líneas N y N+1 de dos imágenes.
En el receptor se reproduce la imagen mediante una pantalla sobre la que hay película de material
que al ser bombardeada por un haz de electrones produce luz El haz puede variar su intensidad
para reproducir en cada punto de la imagen la luz del punto correspondiente de la proyección.
Para representar la imagen completa el haz de electrones debe barrer la superficie fotoemisiva
con la misma trayectoria con la que el haz de electrones de la cámara exploró la superficie fotosensible para generar la señal eléctrica.
Con este sistema de exploración mediante líneas aparecen intrínsecamente dos aspectos básicos a
considerar. En primer lugar debe determinarse en cuántas líneas hay que dividir la imagen, y en
segundo lugar cuál es la velocidad a la que tiene que moverse el haz.
El número de líneas debe ser tal que un espectador situado a la distancia habitual de observación
no las distinga y vea una imagen continua.
El ancho de una línea, d, está relacionado con el número de líneas, N, tal que
d=
9.26
h
N
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
donde h es la altura de la pantalla.
Si se considera una distancia media de observación, D, seis veces h, D=6h, entonces el ángulo
umbral promedio θn es muy pequeño (θn es el inverso de la resolución del ojo). La figura 9.29
muestra estas magnitudes. Por tanto
tg (θ n ) = θ n =
Figura 9.29
1
d
=
D 6N
Magnitudes para el cálculo del número de líneas.
Para que el observador no aprecie las líneas debe satisfacerse que θ < θ n . Por tanto
y el número de líneas debe satisfacer
N>
1
6θ n
Para una resolución del ojo de 1.3 minutos de arco, se obtiene:
N>
1
= 425 lineas
6 × 3.92 10−4
Este valor debe entenderse como una primera aproximación. Debe tenerse en cuenta que el grosor del haz de exploración es de dimensiones similares al grosor de una línea. Cuando el barrido
es alineado, es decir, cuando la imagen tiene el máximo de detalle alineado con el haz, 425 son
suficientes para obtener una señal correcta. La figura 9.30 muestra una imagen con N barras horizontales, N/2 blancas y N/2 negras, alineadas con el haz. La señal reproducida es correcta.
Tecnología de los Contenidos Multimedia
9.27
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.30
UNED - CURSO 2007-2008
Barrido alineado.
Evidentemente en general el haz no estará alineado con la escena. La figura 9.31 muestra el caso
extremo contrario, un barrido no alineado en el que el número máximo de detalle no está alineado con el haz.
(a)
Figura 9.31
(b)
Barrido no alineado. (a) Imagen con el detalle máximo no alineado con el haz. (b) Señal resultante
La señal eléctrica obtenida es la integración de la fotoconversión. Como en la zona que abarca el
haz hay parte blanca y parte negra, la señal resultante es un nivel de señal de gris medio, y por
tanto, la imagen estará mal capturada. Evidentemente esta situación tampoco es habitual
Por tanto debe aumentar el número de líneas. Para determinar el factor de incremento se realizaron análisis estadísticos, tal que el número de líneas es:
N′ = N
1
K
donde K es el factor de Kell, K=0.7. Por tanto:
N′ = 425
1
= 607lineas
0.7
El sistema de TV europeo consta de 625 líneas, de las cuales sólo 575 contienen imagen.
9.28
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La velocidad del haz viene caracterizada por la frecuencia de barrido. Para elegir la frecuencia de
barrido debe tenerse en cuenta que la imagen se reproduce mediante un haz de electrones que
produce luz sólo en un punto en cada instante. La imagen está compuesta por muchos puntos y
transcurre un tiempo, T, mayor que cero, denominado tiempo de barrido, desde que se ilumina un
punto hasta que vuelve a iluminarse.
Si el tiempo de barrido es grande el ojo percibirá la luz de un punto de la pantalla de forma intermitente. Si el tiempo T se va haciendo más pequeño el ojo no es capaz de seguir las variaciones
rápidas y llega un momento en que el punto se percibe como constantemente iluminado.
El haz, al ir barriendo la pantalla a suficiente velocidad produce en el sistema visual humano la
sensación de una imagen, cuando en realidad en cada instante el haz sólo está bombardeando un
punto de la pantalla. Para determinar el umbral, es decir, el valor para el que el ojo ve la imagen
y no a un punto iluminado moviéndose a lo largo de la pantalla se realizó un análisis estadístico
de la respuesta del ojo al parpadeo.
La figura 9.32 ilustra la frecuencia umbral. Se puede observar que depende del brillo de la imagen. Cuánto más brillante es un punto mayor debe ser la frecuencia para que parezca constantemente iluminado.
Figura 9.32
Umbral de parpadeo en función del brillo.
Para que el parpadeo no se aprecie la frecuencia debe ser mayor que 65 Hz. Una frecuencia de
imagen de 65 Hz provoca que la TV tenga un ancho de banda muy grande. Por ello es necesario
arbitrar algún método para reducirla. Este método es el barrido entrelazado.
El barrido entrelazado consiste en efectuar el barrido de la pantalla en dos fases, cada una de ellas
al doble de frecuencia que los 65 Hz, Se realiza primero el barrido de las líneas impares y luego
el de las pares. La figura 9.33 ilustra este procedimiento.
Tecnología de los Contenidos Multimedia
9.29
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.33
UNED - CURSO 2007-2008
Barrido entrelazado
Cada fase se llama semi-imagen o campo. Con ello se consigue disminuir el parpadeo que percibe el ojo, con respecto al barrido no entrelazado de igual frecuencia, porque aunque el tiempo
que transcurre entre dos iluminaciones sucesivas de un punto es el mismo que en un barrido no
entrelazado, los puntos vecinos han sido iluminados en la mitad de tiempo.
Además, con un barrido entrelazado disminuye el efecto que consiste en que debido a la persistencia del ojo se vería una franja más iluminada que el resto, correspondiente a la estela del punto
de exploración que avanza hacia abajo y cuando desaparece por abajo vuelve a aparecer por
arriba avanzando de nuevo hacia abajo.
Este efecto 'ola' disminuye gracias al barrido entrelazado porque el tiempo que transcurre entre
dos pasadas por una zona de la pantalla es la mitad y porque en un mismo intervalo de tiempo se
iluminan doble cantidad de líneas y por tanto la 'ola' es más ancha, diluyéndose más en el resto de
la imagen.
Por razones de interferencias con la fuente de alimentación se elige la frecuencia de campo
(semi-imagen) igual a la frecuencia de la red. Así en Europa son 50 campos/segundo, 25 imágenes/segundo y 625 líneas; y en USA, Canadá, Japón y otros países son 60 campos/segundo, 30
imágenes/segundo y 525 líneas.
La frecuencia de línea y el periodo de línea en el sistema europeo son:
f L = fimagen × N = 25 × 625 = 15655 Hz
TL =
1
= 64 µ s
fL
El hecho de que el número de líneas sea impar requiere un análisis adicional. Si es así, durante
ambas semi-imágenes los recorridos del barrido vertical son iguales, simplificando la circuitería,
mientras que si es par entonces deben ser diferentes. La figura 9.34.a muestra el barrido entrelazado con un número impar de líneas horizontales y la figura 9.34.b con un número par.
9.30
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
(a)
(b)
Figura 9.34
(a) Número impar de líneas horizontales. (b) Número par de líneas horizontales
Figura 9.35
Corrección gamma.
La señal de TV transmitida desde la cámara se reproduce en el receptor de TV. La pantalla es un
tubo de rayos catódicos y tiene una respuesta de luz no lineal en función de la señal eléctrica.
Para que el comportamiento del conjunto cámara-receptor sea lineal hay que hacer una corrección, la corrección gamma. Si B es el brillo producido, E la señal aplicada y γ es la gamma del
tubo en el receptor, entonces
B ∝ E γ . En la cámara Bs es el brillo de la escena y Es la señal
de salida de la cámara y γ s , la gamma del sensor, con
Es ∝ Bsγ s
Si la señal de la cámara se aplica directamente al receptor entonces el brillo reproducido satisface
que
Tecnología de los Contenidos Multimedia
9.31
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
B ∝ Bsγ s×γ
donde γ s × γ no es uno, es no lineal. Para que el sistema sea lineal debe corregirse la gamma a
la salida de la cámara , tal y como ilustra la figura 9.35.
Así la señal transmitida será
γc
Et = Es
tal que
γ s×γ c El brillo reproducido en el
Et ∝ Bs
receptor será entonces B ∝ Bsγ s×γ c×γ , y el sistema será lineal si γ s × γ c × γ = 1 . Sin embargo
experimentalmente se ha encontrado que se obtiene una mayor calidad si la gamma del conjunto
es de 1.2.
Un valor de estándar para la gamma de los tubos de rayos catódicos es 2.8, por tanto la señal
transmitida debe tener una gamma 0.43.
El barrido de la imagen se realiza mediante líneas que son transmitidas en serie, es decir, secuencialmente. Cuando la señal llega al receptor, este debe tener algún medio para reconocer cuando
comienza una línea y cuál es. Es decir, se debe sincronizar la exploración de la imagen hecha por
la cámara con el barrido en el receptor. Si la imagen no está sincronizada el brillo de cada punto
de la escena se reproduce en unas coordenadas distintas.
La frecuencia de línea es fija por lo que los circuitos del receptor pueden mantener la misma
velocidad de barrido que la cámara a lo largo de la línea. Para conseguir la sincronización basta
transmitir al receptor una señal que indique cuando debe comenzar la línea. Además hay que
transmitir una señal para indicar cuando comienza una nueva imagen. La señal de sincronismos
son pulsos, y hay dos tipos: de línea y de campo. Se diferencian porque los pulsos de línea son
más cortos y los de campo más anchos.
Para transmitirlos se utiliza el mismo canal que para transmitir la imagen. Para insertar el sincronismo de línea se aprovecha el intervalo de tiempo que usa la cámara para retroceder desde el
borde derecho, final de línea, hasta el izquierdo, principio de la línea siguiente, y el de campo se
inserta durante el retroceso desde el borde inferior al borde superior de la pantalla. Para que el
receptor detecte con facilidad los pulsos de sincronismo, éstos se insertan con un nivel de señal
distinto al de la imagen. La amplitud pico a pico del pulso de sincronismo puede variar de un sistema a otro.
Con todo ello se dispone de los elementos fundamentales de la señal de vídeo compuesta (SVC).
La SVC está formada por la imagen, los sincronismos y algunas líneas vacías. En general
depende de cada sistema de televisión.
Para el sistema monocromo de 625 líneas y 25 imágenes por segundo utilizado en Europa distinguen tres niveles: blanco, negro, y nivel de sincronismo. La figura 9.36 muestra la SVC.
9.32
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.36
UNED - CURSO 2007-2008
Señal de vídeo compuesta
E1 margen dinámico está normalizado a 1 voltio, tal que el nivel de blanco es 1 Voltio, el de
negro 0.3 Voltios y el de sincronismo 0 Voltios. Cuando es necesario un origen para la medida de
tiempos se toma el flanco descendente del pulso de sincronismo. El sincronismo debe considerarse en dos ejes, horizontal y vertical.
El sincronismo de línea o sincronismo horizontal está formado por tres partes:
1.- El pórtico anterior (front porch), de 1.5 µs. Su función es permitir que la señal llegue al nivel
de negro desde cualquier punto del margen de vídeo.
2.- Pulso de sincronismo, de 4,7 µs. Es la señal utilizada para el sincronismo. Como su ubicación en el tiempo coincide con el final de la línea, el flanco inicial activa el retorno del haz.
3.- Pórtico posterior, de 5.3 µs. Es el tiempo extra para el retorno del haz, con la finalidad de
asegurar el correcto comienzo de la nueva línea.
Como el intervalo de tiempo dedicado a una línea es de 64 µs, el reparto son 52 µs de imagen y
12 µs de sincronismo. (Obsérvese que los 11.5 µs se redondean a 12).
El circuito de sincronismo horizontal detecta la presencia del pulso mediante un diferenciador
que proporciona una salida que es un pico de tensión ante un flanco de bajada brusco.
El sincronismo vertical también es conocido como sincronismo de imagen, de campo o de cuadro. Mientras que el sincronismo de línea se da cada 64 µs, el sincronismo de campo se da cada
semi-imagen, es decir, cada 20 ms. Esta compuesto por una forma de onda como la mostrada en
la figura 9.37
El pulso de sincronismo está formado por los 5 intervalos de media línea formando el equivalente a un pulso de larga duración fácilmente distinguible del sincronismo de línea. La figura
9.37 muestra la señal de TV según la norma CCIR de cuadro de 625 líneas y 50 campos.
Tecnología de los Contenidos Multimedia
9.33
TEMA 9. LA SEÑAL DE VÍDEO
Figura 9.37
UNED - CURSO 2007-2008
Señal de TV. Norma CCIR de cuadro de 625 líneas y 50 campos.
El circuito para separar los sincronismos de campo de los de línea es un integrador seguido de un
comparador de tensión. La figura 9.38 ilustra el sistema de sincronismo.
Figura 9.38
Sistema de sincronismo.
Los pulsos cortos de sincronismo horizontal a la salida del integrador no alcanzan el umbral
mientras que el pulso de sincronismo vertical, debido a su mayor duración, produce a la salida
una señal de mayor nivel.
El pulso de sincronismo vertical está compuesto por cinco pulsos y no por uno sólo de duración
igual a los cinco porque durante este tiempo es conveniente que el circuito de sincronismo horizontal no deje de funcionar. Por ello se necesita un flanco de bajada cada 64 µs. Dado que el ini-
9.34
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
cio del pulso de sincronismo vertical coincide en uno de los dos campos con la mitad de línea, es
necesario un pulso cada 32 µs, en vez de cada 64 µs.
El sincronismo vertical va precedido por 5 pulsos de 2.35 µs, llamados pulsos de preecualización. Como hay un número impar de líneas, en un campo el tiempo transcurrido entre el último
pulso de sincronismo horizontal y el inicio del pulso de sincronismo vertical sería de 64 µs y en
el otro campo de 32 µs. Esto afecta a las condiciones iniciales del integrador y es necesario que
sean las mismas en los dos flancos iniciales del sincronismo vertical para que los tiempos sean
iguales en ambos campos. Para ello el pulso de sincronismo vertical va precedido de los pulsos
de preecualización.
Los pulsos siguientes al pulso de sincronismo vertical se llaman de postecualización y permiten
que las condiciones finales del integrador sean las mismas en los dos campos.
Así el intervalo de sincronismo vertical se compone en total de 7.5 líneas y además hay 17,5
líneas vacías que no contienen información de imagen. A medida que ha ido avanzando la tecnología se han implementado nuevos servicios, como el teletexto, utilizando estas líneas vacías.
La figura 9.39 muestra un sistema con 17 líneas (el número de líneas del sincronismo vertical así
como otros valores no son reales por claridad).
Figura 9.39
Señal de TV de un sistema con 17 líneas y exploración entrelazada
Tecnología de los Contenidos Multimedia
9.35
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El ancho de banda de la señal de televisión en banda base va desde la componente continua a la
frecuencia máxima determinada por las variaciones más pequeñas que contenga la imagen en
sentido horizontal, ya que la exploración se hace mediante líneas horizontales.
En los sistemas de televisión lo normal es que el tamaño de detalle horizontal y vertical sea el
mismo. Para el sistema de 625 líneas, la resolución vertical real es:
N × ra × K
donde N = 625, ra
es la relación entre el número de líneas activas y el total (575/625) y K es el
factor de Kell, K= 0.7.
Como la pantalla es más ancha, el número de líneas verticales debe ser A × N × ra × K
siendo
A la relación de aspecto (A = 4/3).
Las líneas deben mostrarse en el tiempo activo de la línea t h × rl
línea (64 µs) y rl
, siendo
el tiempo de
el factor de línea activa (52/64).
La figura 9.40 muestra un ejemplo de resolución vertical de 6 líneas, que con la relación de
aspecto de 4/3 proporciona a igualdad de detalle una resolución horizontal de 8 líneas.
Figura 9.40
Resolución vertical de 6 líneas.
El número de periodos originados a lo largo de la línea horizontal es igual a la mitad de barras
verticales. Por tanto la frecuencia de la señal es
1
nº periodos 2 Nra KA
f =
=
tiempo
th × rl
9.36
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Como
th =
1
1
=
f h N × Fimagen
entonces
f =
N 2 ra KAFimagen
2rl
Teniendo en cuenta los valores N = 625; ra = 0.92; K = 0.7; A = 0.75; rl = 0.812 y Fimagen =
25 HZ, entonces f=5.163 MHz. En la práctica la señal de salida se filtra paso baja con frecuencia
de corte 5 MHZ.
En la actualidad se encuentran normalizados varios sistemas de TV monocromo. Los más importantes son:
1.- El sistema de 525 líneas, con 30 imágenes por segundo, utilizado en USA, Canadá, Japón y
otros países.
2.- El de 625 líneas, con 25 imágenes por segundo, utilizado en Europa
Las principales características de estos sistemas y otros obsoletos, como el británico de 405
líneas, se muestran en la tabla 9.1.
Características
Europeo
Americano
625 1íneas 525 1íneas.
N. líneas / imagen
625
525
Frecuencia de Imagen (Hz)
25
30
Frecuencia de campo (Hz)
50
60
Entrelazado
2-1
2-1
Relación de aspecto
4/3
4/3
Frecuencia de línea (Hz)
15625
15750
Periodo de línea (μs)
64
63.5
Periodo de linea activo (μs)
52
52.45
N. líneas activas/ imagen
575
483
Res. vertical (líneas)
402
340
Res. horizontal (líneas)
520
422
Modulación AM
Nivel de negro (%)
75
75
Nivel de borrado (%)
75
75
Nivel de blanco (%)
10
15
Ancho de banda en RF
7/8
6
(MHz)
Ancho de banda vestigio
0.75
0.75
(MHz)
Modulación del sonido
FM
FM
Separación
intercarrier
5.5
4.5
(MHz)
Tabla 9.1
Británico
625 1íneas.
625
25
50
2-1
4/3
15625
64
52
575
402
483
77
77
20
8
Británico
Francés
405 1íneas. 819 1íneas.
405
819
25
25
50
50
2-1
2-1
4/3
4/3
10125
20475
98.8
48.84
80.42
39.32
375
751
264
527
372
786
35
25
30
25
100
100
5
14
1.25
1.25
2
FM
+6
AM
-3
AM
-11
Características de diversos sistemas de TV monocromo.
Tecnología de los Contenidos Multimedia
9.37
TEMA 9. LA SEÑAL DE VÍDEO
9.4
UNED - CURSO 2007-2008
LA TELEVISIÓN EN COLOR
En la cámara de color el objetivo capta la imagen, que pasa a través de varios espejos dicroicos,
de forma que se van separando los tres colores básicos que distingue el ojo humano. Así, se descompone la imagen en base al sistema de referencia RGB. Al final la luz llega a tres sensores que
realizan la fotoconversión de las tres bandas de color y generan tres señales eléctricas. Después,
la señal es transmitida. En el receptor se vuelve a componer la imagen, y se representa en la pantalla. Esta representación se hace por tríadas de puntos, cada uno genera un color primario. Estos
puntos son los luminóforos. La estructura de tres luminóforos puede tener varias formas y se
repite espacialmente hasta completar toda la pantalla. La figura 9.41 muestra un esquema de los
Luminóforos de TV en color.
Figura 9.41
Luminóforos de TV en color.
La reproducción del color se basa en la mezcla por yuxtaposición espacial. Para que sea efectiva
el espectador debe situarse a una distancia mínima de la pantalla para que el sistema visual integre la luz emitida por los luminóforos de las tríadas.
Para representar una imagen se activan estos luminóforos en función del color que se deba visualizar. Por ejemplo, si se debe representar en la pantalla el color amarillo, se activarán los luminóforos verde y rojo.
En el tubo de rayos catódicos de la TV en color hay tres cañones de electrones, correspondientes
cada uno a uno de los tres colores primarios, los cuales hacen incidir su haz de electrones sobre
su luminóforo correspondiente atravesando una máscara metálica perforada denominada máscara
de sombra (shadow mask) colocada antes de la pantalla.
La posición exacta de los haces y su desviación se realiza mediante la aplicación de dos campos
magnéticos mediante sendos pares de bobinas que producen la deflexión de los haces, tanto en
horizontal como en vertical. Desde el punto de vista del color lo importante es que el haz de electrones del cañón del rojo incida sobre los luminóforos rojos, y así sucesivamente para los otros
dos cañones, si no es así, la reproducción del color será incorrecta.
9.38
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Los tres haces de electrones recorren la pantalla sincronizadamente, y las tres señales de color
son las encargadas de controlar la intensidad de cada uno de los haces y así, variar la luminosidad
del color a reproducir en la pantalla.La figura 9.42 muestra un tubo de TV en color.
Figura 9.42
Tubo de TV en color.
En un principio un aspecto fundamental fue la compatibilidad, es decir, la señal transmitida en
color debe poder ser visualizada en monitores en blanco y negro como gama de grises. También
es importante la compatibilidad inversa que consiste en que los receptores en color puedan representar señales transmitidas en blanco y negro.
Al considerar la compatibilidad no se podrán transmitir las tres componentes RGB, puesto que el
receptor monocromo está preparado para recibir una única señal, la de brillo. Además, la señal
que reciba debe ocupar el mismo ancho de banda, o lo que es lo mismo, debe estar ubicada en los
canales en los que se ha dividido el espectro radioeléctrico. Por tanto, el sistema de TV en color
debe transmitir la información de color para los receptores en color, pero al mismo tiempo debe
enviar una señal que equivalga a la señal de brillo que está esperando el receptor monocromo
ocupando la misma zona del espectro.
Esta señal idéntica a la de monocromo es la luminancia, que indica el brillo para cada punto de la
imagen. Además, se debe transmitir la información necesaria de color para que los receptores en
color puedan visualizar la imagen original en color. Esta otra señal que lleva asociada la informa-
Tecnología de los Contenidos Multimedia
9.39
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
ción de color es la crominancia. En el análisis del color ya se han detallado las características de
estas señales.
Recuérdese que cuando la señal de TV es en blanco y negro la luminancia sale directamente de la
luz recibida ya que la lente de la cámara en blanco y negro tiene una respuesta espectral igual a la
sensibilidad del ojo. Con el color, la luminancia se obtiene ponderando las señales R, G y B por
la sensibilidad relativa del ojo, en cada una de las bandas R, G y B, tal que la señal de luminancia
es:
Y=01299R+01587G+0'114B, Y ∈ [0,1]
Para transmitir las señales de brillo y color hay varias alternativas:
1.- Transmitir la luminancia más dos de las tres componentes RGB. Por ejemplo, Y, R, G, o Y,
R, B, etc.
2.- Transmitir la luminancia más dos de las diferencias R-Y, G-Y, B-Y. Por ejemplo, se podría
transmitir Y, R-Y, G-Y o Y, R-Y, B-Y, etc.
Con sólo transmitir dos de los tres componentes de color es suficiente, ya que la tercera se puede
calcular a partir de la luminancia y las otras dos señales de color.
Para analizar cuál de las dos es mejor se supone un ejemplo de compatibilidad inversa. Se emite
una señal monocromo y es recibida por un monitor en color. Al ser una señal monocromo, imagen con un nivel de gris, las tres componentes de color son iguales, R = G = B = k donde k es una
constante
Con la primera opción se envía la luminancia y dos de color de entre R, G, B. Supóngase que se
envía Y, R, G. La señal sería:
Y = 0'3k + 0'56k + 0'1lk = k; R = k; G = k;
El receptor en color, para recuperar R, G, B, debe aplicar las operaciones inversas, tal que las
señales decodificadas serán:
Rd = R = k ; Gd = G = k ; Bd = ( Y − 0.3R − 0.59G ) / 0.11
que es este caso es Bd = k .
Si este receptor recibe el mismo nivel de gris desde una emisora monocromo, las señales transmitidas son:
Y=K; R=0; G=0;
y el receptor en color decodifica:
Rd = R = 0; Gd = G = 0;
9.40
Bd = (Y − 0.3R − 0.59G ) / 0.11 = k / 0.11 = 9k
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
que es un color azul y no gris como se esperaba.
Con la segunda posibilidad R = G = B = k donde k es una constante.
Por lo tanto la luminancia seguirá teniendo el mismo valor:
Y = 0'3k + 0'56k + 0'1lk = k
y las señales a transmitir serán
Y = K; (R - Y) = 0; (G - Y) = 0
no habiendo diferencias en transmitir las señales desde una emisora en blanco y negro y desde
una en color.
La decodificación del receptor será:
y para obtener Bd se calcula la señal (B-Y)d a partir de las señales transmitidas (R-Y) y (G-Y).
Para ello se expresa la luminancia de la siguiente forma:
0'3(R-Y)+0'59(G-Y)+0'1 I(B-Y) = 0
por tanto
( B − Y )d = −
0 '3( R - Y ) + 0'59(G - Y )
0.11
y Bd = (B-Y)d + Y = B
Para el caso de la señal gris en que R = G = B = k las componentes de color decodificadas serían:
Rd = (R-Y) + Y = k
Gd = (G-Y) + Y = k
Bd = (B-Y) + Y = k
y por tanto el receptor habría decodificado correctamente.
En conclusión las señales que deben utilizarse para transmitir son: la luminancia y dos de las
diferencias R-Y, G-Y, B-Y
Por último debe determinarse qué dos componentes de color deben transmitirse.
Para ello se analiza una carta de colores como la que se muestra en la tabla 9.2. Una carta de
colores es un conjunto de colores primarios y complementarios a distintos grados de saturación
para observar los valores de las señales.
Tecnología de los Contenidos Multimedia
9.41
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Puede observarse que las componentes R-Y y B-Y son siempre mayores que la componente G-Y.
Esto es preferible teniendo en cuenta la relación señal/ruido.
Por tanto, la señal de crominancia transmitida está formada por R-Y y B-Y.
En conclusión la señal transmitida es
Y, R-Y y B-Y.
Blanco
Gris
Rojo Saturado (muy brillante)
Rojo Saturado (menos brillante)
Rojo no Saturado
Verde Saturado
Azul Saturado
Cyan Saturado
Magenta Saturado
Amarillo Saturado
R
1
0.2
1
0.5
1
0
0
0
1
1
G
1
0.2
0
0
0.5
1
0
1
0
1
B
1
0.2
0
0
0.5
0
1
1
1
0
Y
1
0.2
0.3
0.15
0.65
0.59
0.11
0.7
0.89
0.89
Tabla 9.2
Carta de colores.
9.5
TRANSMISIÓN DE LA SEÑAL DE CROMINANCIA
R-Y
0
0
0.7
0.35
0.35
-0.59
-0.11
-0.7
-0.11
-0.11
G-Y
0
0
-0.3
-0.15
-0.15
0.41
-0.11
0.3
0.11
0.11
B-Y
0
0
-0.3
-0.15
-0.15
-0.59
0.89
0.3
-0.59
-0.89
La compatibilidad directa e inversa obliga a considerar la necesidad de ubicar en el canal asignado a la televisión en B/N la información de color.
Debe tenerse en cuenta que sólo se puede ocupar el ancho de banda utilizado por la señal monocromo. Al realizar un análisis espectral de la señal de vídeo compuesta, se observa que la señal
de luminancia es cuasiperiódica, porque no varía mucho de una línea a otra, de período T = 64
µs. El espectro de una señal cuasiperiódica está formado por lo que se pueden considerar deltas
(no lo son exactamente) situadas en múltiplos de la frecuencia fundamental. Por tanto, el espectro
de la señal de luminancia presentará grupos de deltas concentrados en múltiplos de la frecuencia
de línea. Además, también se puede comprobar que la señal no varía mucho de un campo a otro,
por lo que también se puede considerar cuasiperiódica con período T = 20 ms, lo que en el espectro se reflejará en la aparición de rayas separadas múltiplos de 50 Hz (50 campos/seg.) respecto a
las secuencias de línea. La figura 9.43 muestra el espectro de la señal de vídeo compuesto.
El espectro está formado por paquetes de componentes centrados en múltiplos de la frecuencia de
línea, con grandes espacios libres de energía, situados en torno a múltiplos impares de la mitad
de la frecuencia de línea. Además, la amplitud de los paquetes es menor a medida que aumenta la
frecuencia, a menos que la imagen observada se componga de rayas muy finas de niveles de brillo distintos y que, por lo tanto, tenga un gran contenido en altas frecuencias, caso poco habitual.
9.42
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La forma de este espectro viene determinada en gran medida por el barrido y los sincronismos de
línea y de campo.
Figura 9.43
Espectro de luminancia.
Por tanto, como la crominancia también está sometida a este barrido, tendrá un espectro parecido, con lo que si se suman directamente luminancia y crominancia se solaparán ambas informaciones. La solución es modular (desplazar en frecuencia) la crominancia para ubicarla en los
huecos que deja la luminancia. A este proceso se le denomina imbricación de espectros.
El ancho de banda de la señal de luminancia es de 5 MHz. Como el ojo humano es más sensible
al brillo que al color, se comprueba subjetivamente que la crominancia necesita entre 0.5 y 1.5
MHz, ya que el ojo humano no es capaz de distinguir más. La figura 9.44 muestra la relación de
los anchos de banda.
Figura 9.44
Ancho de banda de luminancia y crominancia..
Para colocar la señal de crominancia en el mismo ancho de banda que ocupa la luminancia, sin
que interfiera con ésta debe tenerse en cuenta que la luminancia no puede alterarse por la necesidad de compatibilidad. Por tanto tendrá que modificarse la crominancia. Esta modificación con-
Tecnología de los Contenidos Multimedia
9.43
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
siste en una modulación por lo que se necesitará una portadora de color, conocida como
subportadora de color.
Una vez realizada la imbricación de espectros se procederá a la modulación de toda la señal de
TV. La figura 9.45 muestra un ejemplo de imbricación, concretamente para el sistema utilizado
en la mayoría de los países europeos, en el que se aprecia cómo la crominancia se encuentra
modulada con una subportadora de 4,43 Mhz por lo que su espectro no interfiere al de la luminancia, ya que se compone de paquetes de energía situados en los huecos que deja la luminancia.
Figura 9.45
Imbricación de espectros.
9.6
SEÑAL DE COLOR COMPUESTA.
La señal de color compuesta es la suma de las señales de luminancia y crominancia incluyendo
los sincronismos.
El estudio de la señal de color compuesta se basa en las barras de color estándar. Estas son bien
conocidas puesto que son las utilizadas en la carta de ajuste. Se ordenan según luminancia decreciente: blanco, amarillo, turquesa, verde, magenta, rojo, azul y negro. Se analiza cada barra calculando las amplitudes de luminancia y crominancia por separado. Seguidamente se suman
ambas amplitudes y se añaden los sincronismos y una señal que se coloca en el pórtico posterior
del sincronismo de línea y lleva información de la subportadora de color. Esta señal se denomina
burst.
Para desarrollar la señal de vídeo compuesta se calculan las señales de cada barra al 100% se
saturación y de amplitud. Los cálculos para cada barra son los siguientes.
9.44
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Para la barra blanca R=1; B=1; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×1 =1 y la crominancia R - Y = B - Y = 1 - 1 = 0. Como ambas componentes son nulas, la modulación en cuadratura también es nula.
Para la amarilla R=1; B=0; G=1. La luminancia es Y = 0.3×1 + 0.59×1 + 0.11×0 = 0.89.La crominancia es R-Y= 1 - 0.89=0.11, B - Y = 0 - 0.89 = -0.89. Por tanto el módulo de la señal de crominancia es
C = −0.892 + 0.112 = 0.9
Para la barra turquesa R=0; B=1 ; G = 1, la luminancia Y=0.3×0+0.59×1+0.11×1=0.7 y la crominancia R - Y = 0-0.7=-0'7, B-Y=1-0'7= 0'3 y el módulo de la señal de crominancia es:
C = −0.72 + 0.32 = 0.76
Así sucesivamente se calculan todos los valores de las barras. El resultado final se muestra en la
tabla 9.3.
Tabla 9.3
Barras
Y
B-Y
R-Y
C
Blanco
Amarillo
Turquesa
Verde
Magenta
Rojo
Azul
Negro
1
0.89
0.70
0.59
0.41
0.30
0.11
0
0
-0.89
0.30
-0.59
0.59
-0.30
0.89
0
0
0.11
-0.70
-0.59
0.59
0.70
-0.11
0
0
0.90
0.76
0.83
0.83
0.76
0.90
0
Parámetros de las barras de color.
Con estos valores se produce una invasión de la zona reservada para los sincronismos y además
una sobremodulación en radiofrecuencia. Es decir, algunas barras de color como el amarillo, el
magenta, el azul, etc. superan el margen dinámico permitido para la señal de vídeo compuesta.
Para evitarlo se aplica una transformación a la crominancia, Esta transformación consiste en
reducir la amplitud de la crominancia ya que la luminancia no puede modificarse por razones de
compatibilidad. Para que no quede muy reducida se establece una solución de compromiso consistente en permitir un margen dinámico mayor a la señal de color que a la señal monocroma.
Este nuevo margen es un 33 % mayor tanto en amplitudes positivas como negativas, pasando a
ser el margen dinámico de (0,1) a (-0.33,1.33).
Para reducir la crominancia se utilizan factores de ponderación. Con ellos se consigue que
Y± C
esté dentro del margen permitido (-0.33,1.33). Con ello en lugar de (B-Y) y (R-Y) se uti-
Tecnología de los Contenidos Multimedia
9.45
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
lizan estos parámetros modificados por los factores de ponderación a×(B-Y) y b×(R-Y) donde a
y b son los factores de ponderación.
Para calcular los factores de ponderación debe tenerse en cuenta que la crominancia y la luminancia no deben exceder el margen dinámico, por tanto
Y+ C
= 1.33 y Y- C
= 0.33.
La nueva crominancia con los nuevos factores de ponderación será:
C =  a ( B − Y )  + b ( R − Y )
2
2
Para calcular los factores de ponderación se sustituyen los datos de las barras azul y roja porque
son las que más sobrepasan el margen dinámico.
Para la barra azul: R = 0 ; G = 0 ; B = 1, Y =0.3×0 + 0.59×0 + 0.11×1 = 0'11, con lo que se debe
cumplir Y- C
>-0.33. Por tanto 0.11- C
≥-0.33
y
C
≤ 0.44.
Sustituyendo el máximo valor
C = 0.44 =
[ a × 0.89]2 + b × ( −0.11)
2
entonces se obtiene la ecuación
0.442 = [ a × 0.89] + b × ( −0.11)
2
2
Análogamente para la barra roja R=1; G=0; B=0; Y = 0.3×1 + 0.59 × 0+ 0.11 × 0 = 0.3, con lo
que se debe cumplir que Y -
C
≥-0.33,
C
entonces
≤ 0.63.
Sustituyendo el máximo valor
C = 0.63 =  a × ( −0.3) + [b × 0.7 ]
2
2
entonces
0.632 =  a × ( −0.3) + [b × 0.7 ]
2
2
Con esto se tiene un sistema de dos ecuaciones con dos incógnitas, que resolviendo se obtienen
los factores de ponderación a y b:
a = 0.493; b=0.877
9.46
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Con estos factores de ponderación la señal de crominancia se define con unas nuevas componentes, denominadas YUV, en las que:
U = a(B-Y) = 0.493 (B-Y);
V= b(R-Y) = 0.877 (R-Y)
con lo que el módulo de la crominancia es
C = U 2 +V 2
Las barras con U = 0.493 (B-Y) y V = 0.877 (R-Y) para un sistema de TV se muestran en la tabla
9.4.
Barras
Blanco
Amarillo
Turquesa
Verde
Magenta
Rojo
Azul
Negro
Tabla 9.4
Y
B-Y
R-Y
U
V
C
1
0.89
0.70
0.59
0.41
0.30
0.11
0
0
-0.89
0.30
-0.59
0.59
-0.30
0.89
0
0
0.11
-0.70
-0.59
0.59
0.70
-0.11
0
0
-0.4388
0.1479
-0.2909
0.2909
-0.1479
0.4388
0
0
-0.0965
-0.6139
-0.5174
0.5174
0.6139
0.0965
0
0
0,90
0.76
0.83
0.83
0.76
0.90
0
Ángulo de
crominancia
(líneas NTSC)
167º
283º
241º
61º
103º
347º
-
Barras de colores del sistema YUV.
Un sistema diferente de barra de colores es el sistema UER, en el que la amplitud de las barras de
color se fija en el 75% de amplitud manteniendo la barra blanca a 100%. La saturación para todos
los casos es del 100% al igual que en el caso anterior. La tabla 9.5 muestra los datos del sistema
YUV para el sistema UER.
Barras
Blanco
Amarillo
Turquesa
Verde
Magenta
Rojo
Azul
Negro
Tabla 9.5
R
G
B
1
1
1
0.75 0.75 0
0 0.75 0.75
0 0.75 0
0.75 0 0.75
0.75 0
0
0
0 0.75
0
0
0
Y
B-Y
R-Y
C
1
0.664
0.526
0.440
0.310
0.224
0'086
0
0
-0.664
0.224
-0.440
0.440
0.224
0'664
0
0
0.085
-0.526
-0.440
0.440
0.526
-0.086
0
0
0.336
0.474
0.443
0.443
0.474
0.336
0
Fase de las líneas
n
n+1
167.1
192.0
283.5
76.5
240.7
119.3
60.7
299.3
103.5
256.5
347.1
12.9
0
0
Sistema UER.
Como puede observarse en la tabla, dos colores complementarios, como por ejemplo el azul y el
amarillo, o el verde y el magenta, tienen fases opuestas; es decir, si el vector que representa uno
de ellos tiene fase n el otro tiene fase n+180. Sin embargo, la amplitud (módulo) de los vectores
asociados a dos colores complementarios son iguales. Esto refleja el hecho de que al mezclar dos
Tecnología de los Contenidos Multimedia
9.47
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
colores complementarios de igual amplitud y saturación, el color resultante es el blanco, es decir,
un vector de módulo cero.
A partir de esta tabla se obtiene el diagrama vectorial de los colores en función de las componentes U y V que definen la crominancia. La figura 9.46 muestra este diagrama.
Figura 9.46
Diagrama vectorial de colores.
9.7
RAZÓN O RELACIÓN DE ASPECTO
La razón o relación de aspecto de la imagen se define como el cociente entre la anchura y la
altura de la ventana. Cuando se definieron los primeros sistemas de televisión comercial en
blanco y negro, se eligió una relación de aspecto que coincidía con la utilizada en el cine. En la
época en que se definió la televisión la relación de aspecto utilizada en el cine era 4:3, es decir, la
altura de la pantalla es tres cuartas partes de su anchura. Este formato es utilizado por todos los
sistemas de TV en color analógicos definidos durante los años 50 y 60: NTSC, PAL y SECAM y
sólo recientemente se han propuesto algunos sistemas con una relación de aspecto distinta.
Uno de los parámetros directamente relacionados con la relación de aspecto es la medida de la
diagonal que se utiliza para indicar el tamaño de los monitores. Así, un monitor de 29'' (29 pulgadas) es aquel cuya longitud de la diagonal de la pantalla es 29''. Como la suma de los cuadrados
de las proporciones entre la altura y la anchura es un cuadrado perfecto, es inmediato relacionar
la altura, la anchura y la diagonal del monitor. En efecto, la anchura y la altura pueden determinarse como 4/5 y 3/5 partes de la diagonal respectivamente, ya que esta última mantiene un factor de proporcionalidad igual a 5.
Así, en un televisor de 29'' la diagonal mide 29''×2,54 cm/pulgada=73,6 cm. Por tanto la altura es
de 73,6cm×3/5=44 cm y la anchura mide 73,6×4/5=59 cm.
9.48
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Las relaciones de aspecto utilizadas en el cine experimentaron un importante cambio con la introducción de los formatos panorámicos.
A principios de los años 50 se empiezan a introducir formatos cinematográficos con relaciones
de aspecto más anchas que la 4:3 (1,33:1). En Estados Unidos destaca el formato de la Academia,
con una relación de aspecto de 1,85:1; mientras que en Europa se utilizan principalmente dos formatos con relaciones de aspecto 1,67:1 y 1,75:1. Todos estos formatos mantenían el mismo tipo
de película que el formato 1,33:1, limitando la apertura vertical y utilizando lentes de menor distancia focal en la proyección para que la anchura de la proyección fuera mayor. Todos estos formatos se adaptan mejor al campo de visión humano y permiten que se integre mucho más en la
escena, aumentando su realismo.
En 1953 se introduce el Cinemascope, que introduce un sistema con lentes anamórficas, que
esencialmente consisten en un sistema óptico que durante el registro de la película comprime las
imágenes en la dirección horizontal. Durante la proyección de la película deben usarse unas lentes inversas, que expanden la imagen en el sentido horizontal, recuperando el aspecto original de
los objetos. La relación de aspecto obtenida con este sistema es de 2,35:1. Evidentemente, aunque no es apreciable por el espectador, la resolución en sentido vertical es mayor que en sentido
horizontal, ya que este último ha sido más ampliado por la lente que el primero. Este método permitía seguir empleando el mismo tipo de película e incluso las mismas cámaras y proyectores
con el cambio de lente.
En 1963 apareció el Cinerama moderno (hubo uno anteriormente que no tuvo éxito) con un sistema de lentes anamórficas parecidas al Cinemascope, registrando la información en una película
de 70 mm de anchura y utilizando una relación de aspecto de 2,75:1. El formato estándar de 70
mm había sido introducido previamente en 1955 por Todd-AO Productions con las películas
Oklahoma! (1955) y La vuelta al mundo en 80 días (1956). La relación de aspecto utilizada en 70
mm es de 2,20:1.
El primer sistema de cine envolvente se instaló en 1955 en el parque de atracciones de Disneyland y combinaba once películas de 16 mm en un sistema de proyección sincronizada parecido
al Cinerama original. Posteriormente el sistema se modificó utilizando nueve proyectores con
películas de 35 mm.
Algunos sistemas, como el IMAX, con superficies de pantalla extremadamente grandes (IMAXPort Vell, 600 m2), utilizan relaciones de aspecto donde la altura de la pantalla es comparable o
superior a la anchura.
El gran número de relaciones de aspecto empleadas en los distintos formatos de cine provocó que
se iniciaran estudios para analizar cuál es la relación de aspecto ideal. La NHK, organismo de
radiodifusión de Japón, durante el desarrollo del sistema de televisión de alta definición analógico MUSE, elaboró una serie de experimentos subjetivos para averiguarlo. La BBC y el SMPTE
(Society of Motion Picture and Televisión Engineers) desarrollaron experimentos similares en
los que en general se observa que las preferencias del espectador dependen del tamaño de
Tecnología de los Contenidos Multimedia
9.49
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
la imagen. Se observa que cuando el área de proyección aumenta el espectador tiende a exigir un
formato más panorámico, lo que justifica el uso de formatos más panorámicos en cine que en
televisión. Si sigue aumentándose el área de proyección, se llega a un punto en que los formatos
panorámicos saturan y son poco agradables.
Los resultados obtenidos por la NHK indican que la relación de aspecto que puede considerarse
como ideal es de 15:9 (1,67:1), que coincide con el formato cinematográfico definido en Europa
en la década de los 50. Sin embargo, la relación de aspecto que eligió la NHK, y que actualmente
es aceptada por todos los organismos internacionales como idónea en sistemas con definición
mejorada o alta definición, es de 16:9. Esta relación de aspecto es parecida a la 15:9 y ofrece
importantes ventajas de compatibilidad con distintos formatos cinematográficos y con la relación
4:3 utilizada en TV convencional. Es muy parecida al formato de la Academia y al Europeo, por
lo que este tipo de películas podrán adaptarse casi sin zonas muertas en la pantalla. Los formatos
panorámicos, sobre todo el Cinerama y el Cinemascope son excesivamente anchos y estas películas deberán transmitirse con bandas negras en la parte superior o inferior de la pantalla o cortando los laterales. No obstante, actualmente el Cinerama y el Cinemascope prácticamente ya no
se utilizan por lo que, para películas nuevas el único formato que seguirá manteniendo baja compatibilidad con la televisión 16:9 será el de 70 mm.
Otra de las razones por la que se eligió la relación 16:9 en los sistemas de TV de alta definición o
sistemas de definición mejorada como el PALplus es que este formato mantiene una relación
cuadrática con el formato convencional 4:3, que puede utilizarse para presentar simultáneamente
varias imágenes 4:3 en una pantalla 16:9.
Así, un espectador puede visualizar simultáneamente hasta 4 programas en formato 4:3, sin que
se produzca ninguna pérdida de información. El canal principal ocupa tres cuartas partes de la
pantalla mientras en uno de los laterales se presentan tres canales
auxiliares que pueden monitorizarse para ver la programación o esperar un evento concreto.
Lamentablemente, aunque este fue uno de los criterios más importantes en la selección del formato panorámico de 16:9, prácticamente ningún receptor panorámico incorpora la opción de
visualizar cuatro canales simultáneamente, porque aumenta considerablemente el precio al
requerir cuatro sintonizadores y demoduladores distintos. En la práctica, los receptores de gama
alta incorporan, a lo sumo, un doble sintonizador que permite visualizar un canal principal y sólo
uno auxiliar.
9.8
LA FRECUENCIA DE IMAGEN
En principio basta con unas veinte imágenes por segundo para reproducir el movimiento de los
objetos mientras que, con los niveles de iluminación utilizados en cine y televisión, se requieren
más de 40 imágenes por segundo para que no aparezca el parpadeo. Una solución trivial al problema consiste en elegir un número de imágenes por segundo superior a 40, con lo que se cubren
9.50
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
ampliamente ambas necesidades. Sin embargo el precio del celuloide es un factor considerable
del presupuesto. En televisión el problema afecta al ancho de banda de la señal.
La solución adoptada en el cine también se utilizó para reducir el ancho de banda en la señal de
televisión. En el cine actual se realizan 24 fotogramas por segundo, lo que es más que suficiente
para proporcionar una correcta sensación de movimiento continuado. Sin embargo, la presentación directa de estos fotogramas produciría una sensación de parpadeo notable. La solución al
problema consiste en presentar dos veces cada fotograma, con lo que, al doblar la frecuencia de
disparo se obtiene una sensación de uniformidad en la iluminación de la pantalla. Algunos sistemas de cine han utilizado un número mayor de fotogramas por segundo. Un ejemplo son las primeras películas producidas en formato de 70 mm que utilizaron 30 fotogramas por segundo,
aunque posteriormente se volvió a los 24 fotogramas convencionales. A principios de la década
de los 80 apareció el sistema Showscan que utiliza 60 fotogramas por segundo. Este sistema se
utiliza únicamente para documentales en salas de proyección especiales y ha tenido poco éxito.
La solución adoptada al definir los primeros sistemas de TV comerciales siguió la misma idea.
Para simplificar el funcionamiento de algunos subsistemas, la frecuencia de imagen se hizo coincidir con la mitad de la frecuencia de red. Por tanto, en países como Estados Unidos o Japón se
transmiten 30 imágenes por segundo mientras en Europa se utilizan 25. Ambos valores son suficientes para garantizar un flujo de información que permita reconstruir correctamente el movimiento de los objetos. La selección de submúltiplos de la frecuencia de red se debe
principalmente a dos motivos que permitieron simplificar bastante los primeros diseños. Por una
parte, la frecuencia de red se mantiene bastante estable, lo que permite que varios equipos la utilicen como
patrón o señal de referencia común. Así, cuando en un estudio de TV operan simultáneamente
varias cámaras es necesario que éstas realicen un muestreo sincronizado de las imágenes para
que pueda conmutarse entre distintas cámaras sin que se produzcan pérdidas de información.
Otra ventaja derivada del uso de un submúltiplo de la frecuencia de red es que de este modo conseguía minimizarse el efecto visual que producía la interferencia de la señal de red en la pantalla
de televisión.
9.9
EL SISTEMA NTSC
El sistema NTSC fue desarrollado en USA por el National Television System Committe (NTSC),
y su puesta en mmarcha se produjo en el año 1953. Las características básicas del sistema NTSC
son:
• 525 líneas.
• Ancho de banda de vídeo: 4 MHz.
• Frecuencia de línea: 30 imágenes / segundo × 525 líneas / imagen = 15750 Hz.
• Portadora de sonido relativa a la de vídeo: 4'5 MHz
• Modulación de la portadora de vídeo: AM. negativa.
Tecnología de los Contenidos Multimedia
9.51
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
• Modulación de la portadora de sonido: FM.
• Ancho de banda del canal: 6 MHz.
Los experimentos desarrollados por el NTSC demostraron que el ojo humano tiene en relación
con el color una mayor resolución en el eje del naranja-cian que en el del magenta-verde. Por ello
se estableció tratar con un sistema de coordenadas basado en estos dos ejes, llamando I (In phase)
a la componente del color en el eje naranja-cian y Q (Quadrature) a la componente del color en el
eje magenta-verde.
La figura 9.47 muestra este sistema de coordenadas. Como puede observarse es el diagrama vectorial de la tabla 9.46 girados 33º en sentido contrario a las agujas del reloj.
Figura 9.47
Sistema de coordenadas NTSC.
Puesto que el ojo tiene mayor agudeza visual para unos colores que para otros es natural asignar
mayor ancho de banda en las zonas donde hay más resolución. Por ello el NTSC limita el ancho
de banda de la componente I a 1.5 MHZ, que es donde el ojo es más sensible, y limita a 0.5 MHz
el ancho de banda de la componente Q, donde el ojo tiene menor resolución.
Las componentes I y Q y las básicas U y V, se relacionan mediante una rotación de 33º, con lo
que la transformación es:
 I   cos 33º − sin 33º  U  0.84 −0.54 U 
Q  =  sin 33º cos 33º  V  = 0.54 0.84  V 
  
  
 
y en función de los primarios
V = 0.877(R-Y)
U = 0.493(B-Y)
resulta:
9.52
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
 I   0.84 −0.54   0.877( R - Y )  0.736 −0.268 ( R - Y ) 
Q  =  0.54 0.84   0.493( B - Y )  =  0.478 0.413  ( B - Y ) 
  

 


Por tanto las tres señales a transmitir en el sistema NTSC son:
• luminancia: Y = 0.30R + 0.59G + 0.11B
• crominancia, con las componentes:
en fase: I = 0.736(R-Y) - 0.268(B-Y) = 0.60R - 0.268G - 0.32B
en cuadratura: Q = 0.478(R-Y) + 0.13(B-Y) = 0.21R - 0.52G - 0.31B
El problema fundamental del sistema NTSC son los errores de tono. En el decodificador debe
tratarse la subportadora de color y para ello un oscilador debe sincronizar en fase correctamente
con la fase de referencia transmitida en la señal (en el burst). Si la sincronización se realiza con
cierto error entonces se producirá una rotación de los vectores recibidos, es decir de los colores.
Entonces se producen diferencias entre la fase del color emitido y la del color decodificado en el
receptor, es decir, se produce un error en el tono del color representado. Los receptores NTSC
incorporan un control electrónico denominado "Hue" que permite corregir estos errores de fase,
utilizando para ello algún color de referencia claramente distinguible e invariante, como el color
"de la piel".
Si el error se debe a fallos en el oscilador del receptor entonces es estático y se corrige mediante
el Hue, pero si se debe a la propia señal no puede solucionarse. La señal es emitida y recorre una
gran distancia con distintas operaciones sobre la misma, y por ello es normal que se den desfases
en la subportadora de color. Además estos desfases no tienen por qué afectar a toda la señal de
color ya que el desfase introducido en cada punto depende de la luminancia de la señal en ese
punto. Este es un problema importante porque el ojo humano es muy sensible a estos cambios de
fase. Es capaz de detectar errores de fase de 5º y para desfases de 10º es muy molesto.
9.10
EL SISTEMA PAL
El sistema PAL PAL (Phase Alternation Line) soluciona el problema de los errores de tono del
NTSC invirtiendo (alternando) una de sus componentes de crominancia cada dos líneas.
El sistema fue diseñado por Bruch en 1963 en los laboratorios de Telefunken. Se utiliza en
Europa Occidental, excepto Francia, mientras que puede encontrarse en Sudamérica al igual que
el NTSC.
El sistema PAL utiliza R-Y, B-Y (U y V) asignando a las dos componentes de crominancia el
mismo ancho de banda, de 1 a 1.3 MHz.
La componente R-Y se va invirtiendo 180º una línea sí y una no de manera que la expresión de la
crominancia modulada en QAM es:
Tecnología de los Contenidos Multimedia
9.53
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
C = 0.493 ( B − Y ) cos (ω t ) ± 0.877 ( R − Y ) sen (ωt )
en donde el signo ± conmuta cada línea.
El receptor detecta si el color que recibe tiene la componente V invertida o no por una modificación del burst, desfasando la señal de burst una línea a 45º y otra línea a -45º alternativamente.
Así las fases son 135º (180º - 45º) para +V y 225º (180º + 45º) para -V. El receptor detecta si se
trata de una línea normal o de una línea con la componente V invertida en función de si es +45º o
-45º.
Esta variación no afecta a la decodificación del color, porque el receptor sigue tomando como
fase de referencia los 180º, ya que está dotado de un filtro que desecha las variaciones rápidas de
+ 45º, que tan sólo se usan para detectar qué tipo de línea se está recibiendo.
El vector de crominancia varía lentamente de línea a línea. Por ello si se representan los vectores
de dos líneas sucesivas serán casi idénticos, tal y como se ilustra en la figura 9.48.
Figura 9.48
Vectores de crominancia transmitidos. vector de crominancia transmitido en la línea n. vector de crominancia transmitido en la línea n+l (componente R-Y invertida).
Figura 9.49
Decodificador PAL.
9.54
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La figura 9.49 muestra el decodificador PAL del receptor en que se recuperan las componentes
de crominancia. La señal recibida pasa por una línea de retardo y luego se suma y se resta con la
señal sin retardar. Se demodulan las salidas del sumador y restador con lo que U es la componente en fase y V la componente en cuadratura. La señal modulada en la línea n es U + V, en la
línea n+1 es U - V y en la línea n+2 es U + V. Por tanto la señal retardada durante la línea n+1 es
U + V y la señal retardada durante la línea n+2 es U - V.
En la línea n+1 la salida del sumador y del restador están formadas por la línea retardada (U + V)
y la actual (U - V), sumando y restando respectivamente. Por tanto:
la salida sumador = (U + V) + (U - V) = 2U
la salida restador = (U + V) - (U - V) = 2V
En la línea n+2 con signo cambiado:
la salida sumador = (U - V) + (U + V) = 2U
la salida restador = (U - V) - (U + V) = -2V
y así sucesivamente para las siguientes líneas, con lo que se separan las componentes de crominancia.
Por último se demodula. A la salida del sumador se demodula, con lo que se extrae la componente en fase de la salida del sumador (U), eliminando la componente en cuadratura (V). De esta
forma, si la salida del sumador tiene parte de la señal de V, como está en cuadratura, el demodulador U lo eliminará. El demodulador de V se comporta de forma equivalente, dejando pasar la
componente en cuadratura (V) y eliminando la de fase (U).
Al utilizar la crominancia de dos líneas para representar la crominancia de una línea en el receptor, se produce una disminución en la resolución vertical del color. Sin embargo, esta disminución no es apreciable si la comparamos con el filtrado paso baja que se realiza sobre la
crominancia (de 5 a 1 MHz), que produce una disminución en la resolución horizontal mucho
más significativa que esta pérdida de resolución vertical.
(a)
Figura 9.50
(b)
(a) Vectores de crominancia transmitidos y recibidos.
Tecnología de los Contenidos Multimedia
9.55
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La situación analizada corresponde a una situación ideal en la que se producen errores en la
transmisión. Sin embargo, si se produce un error en fase, como los que presentaban problemas en
el sistema NTSC, entonces los vectores recibidos son Cn ≡ vector de crominancia transmitido en
la línea n, Cn+1 ≡ vector de crominancia transmitido en la línea n+l (componente R-Y invertida),
Cr,n ≡ vector de crominancia recibido en la línea n, Cr,n+1 ≡ vector de crominancia recibido en la
línea n+l tal y como se ilustra en la figura 9.50.a. La figura 9.50.b muestra los vectores recibidos
deshaciendo la inversión de la componente R-Y del vector Cr,n+1.
Sumándolos se obtiene un vector con la misma dirección que Cn y Cn+1, es decir, en el receptor
se ha corregido el error de fase producido durante la transmisión. Por tanto, un error de fase no se
traduce en un error de tono. Sin embargo esto se realiza modificando la saturación, ya que al
sumar Cr,n y Cr,n+1 se obtiene 2C cos α , siendo α el ángulo entre ellos. Por tanto, si se transn
mite un vector C, y se recibe otro desfasado a para el receptor es como si se recibiera el vector
C n cos α
es decir, el mismo tono pero con una saturación menor o igual dependiendo de a.
Por ejemplo, para α = 10º, la saturación se reduce un 1.5 %.
9.11
EL SISTEMA PALPLUS
El PALplus es un sistema desarrollado para mejorar el sistema PAL, permitiendo una transición
suave entre la TV. Clásica y la de alta definición.
La mejora del PALplus consiste en ampliar la razón de aspecto de la imagen de TV de 4:3 a 16:9
manteniendo la resolución de 575 líneas activas. De esta forma se consiguen imágenes más apaisadas, lo que se aproxima mejor al campo visual humano.
El objetivo fundamental de PALplus es conseguir mejorar la calidad de la imagen, apaisándola, y
manteniendo un formato compatible con el clásico.
Los requisitos del sistema PALplus son:
• "Reproducción de la imagen en formato 16:9.
• "Compatibilidad con el PAL estándar.
• "Mejorar la calidad de la imagen.
• "Mejorar la calidad del sonido.
En 1990, un grupo formado por cadenas de TV de distintos países como la BBC, UKIB (Reino
Unido), ORF (Austria), SRG (Suiza), ARD y ZDF (Alemania), IRT (Institut für Rundfunktechnik, Alemania) y fabricantes europeos como Grunding, Nokia, Philips y Thomson, empezaron a
diseñar el sistema con el fin de que estuviese en funcionamiento en 1995. La rapidez del desarrollo permitió que las primeras emisiones en PALplus se realizaran a mediados de 1994.
En España también se han realizado emisiones en PALplus, como por ejemplo en TVE, Canal
Sur, TV3 y Canal 9.
9.56
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Para que el sistema PALplus aumente la calidad de la imagen la cámara debe tener una superficie
fotosensible con razón de aspecto de 16:9 y debe proyectarse en un receptor con una pantalla de
razón de aspecto 16:9. Pero además, el sistema debe ser compatible con el PAL existente.
Para cambiar la razón de aspecto de una imagen de tamaño ancho, 16:9, a una de razón 4:3 se
puede optar por dos tipos de adaptaciones, que se ilustran en la figura 9.51.
1.- El formato letterbox. Mantiene la anchura de la imagen de 16:9 en la de 4:3, apareciendo
dos franjas negras, una arriba y otra debajo de la imagen
2.- El formato panscan. Mantiene la altura de la imagen de 16:9 en la de 4:3 teniendo que eliminar zonas laterales de la imagen.
Figura 9.51
Formatos de cambio de una imagen 16.9 a una imagen 4:3
Estas diferentes adaptaciones son las que se utilizan también para pasar una película de cine a
imagen de televisión, transformación para la que se utiliza un aparato llamado telecine. La única
diferencia con respecto al cambio de razón de aspecto es que un telecine transforma imágenes de
razones de aspecto que varían desde 2.2:1 hasta 16:9 (razones de la imagen de cine) a imagen de
T.V. (razón de aspecto 4:3).
En el sistema PALplus para realizar emisiones en formato 4:3 la opción elegida es el formato letterbox,
Si la imagen original captada por la cámara 16:9 tiene 574 líneas de imagen (realmente las líneas
activas del sistema PAL son 575, pero una línea se reserva para transmitir información especial),
la imagen que se debe transmitir tendrá 430 líneas activas una vez se ha adaptado la razón de
aspecto, tal y como muestra la figura 9.52.
Figura 9.52
Número de líneas activas en las imágenes captada y transmitida.
Tecnología de los Contenidos Multimedia
9.57
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La codificación que realiza el PALplus se basa en transmitir información de vídeo en las líneas
negras que aparecen en la pantalla del receptor PAL. Estas 144 líneas negras servirán al decodificador para volver a extraer la información perdida al adaptar el formato. Así, el receptor PAL
representa la imagen que ha codificado el sistema PALplus, mientras que el receptor PALplus
obtendrá de nuevo la imagen original, tal y como se ilustra en la figura 9.53.
Figura 9.53
Imágenes PALplus vistas en receptores PAL y receptores PALplus.
El proceso de codificación necesita a su entrada una imagen digital ya que las líneas que la componen deben ser guardadas en memoria para poder realizar la codificación. Por tanto, si la imagen no está digitalizada hay que digitalizarla previamente según la recomendación 601.
El diagrama de bloques del codificador PALplus se muestra en la figura 9.54.
Figura 9.54
9.58
Codificador PALplus.
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Las entradas en el proceso de codificación son la señal de luminancia y las dos señales de crominancia U y V. Las 574 líneas de luminancia de la imagen de entrada pasan por un conversor vertical cuya salida es una imagen de 430 líneas, denominada buzón. Esta señal pasará a ser la señal
de luminancia de la imagen codificada. Las 144 líneas restantes constituyen la señal de helper o
realce vertical, que servirá al decodificador PALplus para obtener las 574 líneas de luminancia
originales, mientras que en el receptor PAL aparecerán líneas negras presentando una imagen (el
buzón) en formato letterbox. Esta señal de realce se codifica de tal forma que aún habiendo señal
en ellas la imagen resultante sean líneas casi negras. Para ello se modula como si fuera señal de
crominancia con luminancia nula, es decir, se modula en QAM a la frecuencia de subportadora
del PAL estándar.
Las 574 originales señales de diferencia de color se reducen a 430 líneas, pero al contrario que en
el caso de la luminancia, este conversar vertical no obtiene señal de realce, solamente obtiene
señal buzón. Así pues, el decodificador PALplus no podrá recuperar la imagen original, porque
la crominancia de la imagen estará compuesta solamente de 430 líneas. Para volver a componer
las 574 líneas de crominancia de la imagen se repetirá una de cada grupo de tres líneas. Esto
supone una pérdida de resolución vertical en la crominancia, pero no influye significativamente
en la imagen ya que la crominancia no varía mucho de una línea a otra y tiene mucha más resolución vertical que horizontal debido a que su ancho de banda se redujo a 1.5 MHz, reduciéndose
con ello la resolución horizontal.
La señal de salida del codificador será la señal de vídeo compuesto, formada por la luminancia
(buzón de 430 líneas) y la crominancia (señales U y Y moduladas en QAM que son 430 líneas
buzón, más 144 líneas de luminancia moduladas como si fuese señal U.
El decodificador PALplus se muestra en la figura 9.55.
Figura 9.55
Decodificador PALplus.
Tecnología de los Contenidos Multimedia
9.59
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
La señal buzón de la luminancia se obtiene directamente del filtro mientras que el realce hay que
demodularlo ya que viene modulado como señal de crominancia. Una vez que se han obtenido
las señales buzón y realce, se introducen como entradas en un conversor vertical inverso al del
codificador y se vuelven a obtener las 574 líneas de la imagen original.
La crominancia se obtiene demodulando las 430 líneas donde existe crominancia obteniéndose
en las salidas de cada demodulador las 430 líneas buzón de las señales U y V. Introduciendo
estas señales en un conversor vertical inverso al del codificador se obtienen 574 líneas de imagen
aunque no con la misma resolución que la original, ya que no existe señal realce para las señales
diferencia de color.
La función del conversor vertical en transmisión es convertir las 574 líneas, que componen la
imagen original, en 430 líneas de buzón y 144 líneas de realce, es decir, de cada 4 líneas de
entrada obtiene a su salida 3 líneas de buzón y una de realce. Ambos tipos de líneas se obtienen
como combinación de las líneas de entrada. Las líneas buzón deben ser una representación de la
imagen original y se obtienen como sumas de las de entrada (filtrados paso baja) mientras que las
líneas de realce se calculan como restas (filtrados paso alta).
En general en la entrada del conversar vertical, tanto en el caso de la luminancia como en el de la
crominancia, se tienen señales que no varían rápidamente por lo que la imagen buzón será muy
parecida a la original pero en formato 4:3, por tanto el receptor PAL estándar que no puede realizar la decodificación PALplus no perderá mucha resolución vertical por el promediado entre
líneas. En el caso del realce, al no existir muchas diferencias entre una línea y otra, la señal obtenida será de muy bajo nivel (líneas "negras"). El conversor vertical es el bloque clave del codificador PALplus para conseguir la compatibilidad con el PAL estándar ya que consigue una
imagen como la original pero con razón de aspecto 4:3 (buzón) y en formato letterbox.
En recepción, la función de transferencia del conversor vertical es la inversa que la de transmisión, es decir, se obtienen 574 líneas a partir de 430 de buzón y 144 de realce en el caso de la
luminancia. En el caso de la crominancia obtiene 514 líneas a partir de las 430 del buzón.
Con el sistema PALplus los espectadores pueden beneficiarse de una resolución máxima en los
receptores 16:9. Además este nuevo sistema ha introducido el Color plus que supone una mejora
no sólo en los receptores PALplus sino también en los receptores PAL estándar.
En el receptor PAL estándar las señales de luminancia y crominancia se separan usando dos filtros, con uno paso baja se obtiene la luminancia y con uno paso alta o paso banda (si previamente
no se ha eliminado el sonido) la crominancia. Esta forma de separar ambas señales da lugar a dos
problemas: el cross-color que consiste en que luminancia se introduce en la crominancia, y la
cross-luminancia, crominancia interferente en la luminancia. El peor de estos dos efectos es el
cross-color ya que es muy apreciable cuando en la escena hay detalles muy pequeños, es decir,
altas frecuencias de luminancia se introducen en las bajas frecuencias de crominancia.
9.60
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Existen dos formas de funcionamiento del color plus según de donde provenga la imagen: si la
imagen proviene de un telecine (imagen en modo cine), el proceso seguido recibe el nombre de
color plus fijo, mientras que si la imagen proviene de una cámara (imagen en modo cámara), se
implementa el color plus adaptado al movimiento (MACP).
El objetivo del color plus es separar limpiamente la crominancia y la luminancia dando sentido
así a la imbricación de espectros que se hizo en transmisión. Para ello el sistema se basa en el
hecho de que la información de dos líneas sucesivas en pantalla no cambia mucho. Si la línea n
pertenece al primer campo de una imagen, la línea n+312 será la línea contigua físicamente en
pantalla a la n pero perteneciente al campo segundo, es decir separada en el tiempo 312 líneas. Si
ambas líneas llevan la misma información de luminancia y crominancia la única diferencia entre
ellas será la fase de la subportadora, estando la fase de la misma para un punto de la línea n en
oposición con la de un punto de la línea n+312.
Este proceso es eficiente si la luminancia y la crominancia no varían de un campo a otro, que
ocurre cuando no existe movimiento de un campo a otro como en el cine. Este proceso se denomina color plus fijo y se implementa con un filtro peine.
Si existe movimiento entre un campo de la imagen y otro, es decir en el modo cámara, no es
implementable el color plus fijo. Sin embargo, la crominancia y la luminancia pueden separarse
mejor que en el PAL estándar porque se eliminan las altas frecuencias de luminancia en el transmisor, que se imbricarían en el espectro de la crominancia con lo que pueden separarse perfectamente con el sistema de filtros implementado en el PAL estándar. Por esta razón el sistema
PALplus mejora la calidad de la imagen no sólo con receptores PALplus, sino también en el televisor PAL convencional. Este proceso en el que existe movimiento se denomina color plus adaptado al movimiento.
9.12
SISTEMAS DE VÍDEO EN COMPONENTES
La generalización de la idea de sustituir las componentes de color RGB por la luminancia y las
señales diferencia de color es la base para la codificación del color en los sistemas de componentes de color, como por ejemplo los sistemas de televisión y de registro de señal de vídeo en
soporte magnético. Destacan el sistema de alta definición analógico japonés MUSE, que funciona desde finales de los 80; el D2-MAC, que fue el fracasado intento europeo para la definición
de un formato analógico con definición; la norma digital 4:2:2, sistema digital para el registro,
producción e intercambio de material entre estudios; los sistemas de registro de señal sobre
soporte magnético analógicos como el Betacam o los digitales como los sistemas D1, D2,
DVCam, DVCPro; el sistema MPEG-2, estándar para la compresión de imágenes digitales; etc.
La tendencia de los sistemas de televisión y vídeo es realizar una codificación en componentes de
las señales de color. Todos estos sistemas son incompatibles con los sistemas de televisión analógicos convencionales como el NTSC o el PAL. La codificación del color en componentes admite
también diversas variantes dependiendo del sistema considerado pero mantienen en común que
Tecnología de los Contenidos Multimedia
9.61
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
las señales de luminancia y las de diferencia de color pueden ser fácilmente separadas sin la aparición de cruces o interferencias entre ellas. En los sistemas analógicos la luminancia y las señales diferencia de color normalmente están multiplexadas en el tiempo.
La figura 9.56 muestra la configuración del sistema MUSE. La señal de luminancia ocupa 2/3 del
tiempo de línea activa y las señales diferencia de color se transmiten en líneas alternas durante el
1/3 del tiempo restante.
Figura 9.56
Multiplexación temporal de las componentes de color
Esta codificación aprovecha la menor resolución del sistema visual a las componentes de color
con dos técnicas. Primero las señales diferencia de color de una línea se comprimen en el tiempo
y tienen una duración la mitad que la señal de luminancia. Entonces para un ancho de banda
determinado las componentes de color tienen una resolución horizontal igual a la mitad de la
luminancia. En segundo lugar la resolución vertical de las señales diferencia de color también se
reduce a la mitad, ya que la señal (R-Y) sólo se transmite en las líneas impares y la (B-Y) en las
pares. Para decodificar el color asociado a la línea k se utiliza sistemáticamente la información de
las componentes de color correspondientes a la línea k-1 y a la línea k.
La codificación utilizada en un sistema de registro de señal de vídeo analógico sobre soporte
magnético tiene características similares. En el sistema Betacam la señal de luminancia y las
señales diferencia de color se registran en pistas adyacentes, por lo que su separación también es
simple y no existen cruces entre las señales. Las dos componentes de color se comprimen en un
factor 2 respecto la luminancia y se registran en la misma pista. El ancho de banda asignado a la
luminancia es de nuevo el doble que el de las componentes de color.
En el S-Vídeo la componente de luminancia y las componentes de croma se proporcionan
mediante cables separados en paralelo. El S-Vídeo se utiliza como un formato doméstico para la
interconexión entre equipos de vídeo analógico. Prácticamente todos los receptores modernos
incorporan una entrada en S-Vídeo que permite conectarlos directamente con una cámara de
vídeo o un magnetoscopio. La señal en S-Vídeo, al tener las componentes de luminancia y color
9.62
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
separadas, proporciona una mayor calidad de imagen que la señal de vídeo compuesto. Otra posibilidad es interconectar usando directamente las tres componentes de color R, G y B por separado. En los equipos profesionales es habitual utilizar este
tipo de interconexión. En los modelos domésticos el Euroconector permite la interconexión entre
distintos equipos de vídeo mediante la transmisión de las tres componentes de color por separado
y en paralelo.
9.13
FORMATOS DE GRABACIÓN DE VÍDEO ANALÓGICO
Mientras que el cine ha mantenido los mismos formatos básicos de 35mm y 16mm por más de
cien años. En las últimas décadas el video ha evolucionado a través de unos 20 formatos diferentes e incompatibles.
A continuación se indican las características básicas de los dos sistemas más utilizados por el
mercado de consumo. La mayoría de los consumidores están familiarizados con los formatos de
8mm y el VHS, antes de estos hubo un formato popular, el Betamax, que fue lanzado al mercado
por Sony Corporation en 1976, y posteriormente fue desplazado por el VHS. Fue el primer formato comercial aceptado y usado ampliamente en el hogar.
El sistema VHS (VIDEO HOME SYSTEM) desarrollado por JVC ocupa en la actualidad el primer puesto en el mercado de video domestico. Tiene una calidad razonable y cumple todos los
requisitos de flexibilidad que exigen los consumidores. Desde su aparición se ha extendido y
mejorado, manteniendo su compatibilidad, incluyendo características tales como, larga duración,
(Long Play), sonido en alta fidelidad (Hi-Fi) y realzado de imagen (HQ).
El máximo aprovechamiento del sistema VHS se obtiene separando los filtros pasobanda de los
componentes de luminancia (Y) y de crominancia (C) de la señal de vídeo antes de la grabación.
La señal de luminancia no puede ser grabada directamente porque su espectro se extiende desde
los 20 Hz hasta 5.5 MHz, ocupando 19 octavas, excediendo el máximo de 10 del mismo medio
magnético. Esto se soluciona mediante la compresión de la señal.
Los limites de la desviación determinan el ancho en octavas. El sistema VHS especifica 3.8 MHz
para la cresta de los impulsos de sincronismo y 4.8 MHZ para el nivel de blanco de la señal de
luminancia reproducida. Esta se extiende alrededor de 1.4 MHZ hasta menos de 5.5 MHZ consiguiendo comprimir hasta menos de dos octavas.
La utilización de un modulador asegura una excelente señal, ya que lleva la cinta hasta la saturación para cualquier señal y sin polarización, para compensar la no linealidad de transferencia de
la cinta.
Para recobrar la luminancia es necesario grabar las bandas laterales, es decir aquellas cuya amplitud supere en un 1.5 % a la portadora sin modular. Si la frecuencia modulada es mas alta, se
Tecnología de los Contenidos Multimedia
9.63
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
recorta la señal con un filtro pasa banda a 3.5 MHz y atenuación de 20db, de esta forma se evita
un empañamiento de la imagen producida.
Los incrementos de amplitud de los componentes de alta frecuencia de la señal "Y" deben ser
limitados para evitar la sobredesviación del modulador. Los circuitos recortadores de negro y
blanco limitan la excursión de señal excitadora del 40 % a 90 % respectivamente.
La componente de la entrada de video compuesto se extrae de un filtro en 443 MHZ o 357 MHz,
y se graba en señal QUAM convertida a 629.953 KHz. La polarización es convenientemente
suministrada por la señal de FM con la cual se mezcla antes de ser aplicada a las cabezas de grabación. Se necesita un buen contacto cabeza-cinta para conseguir una relación señal de cromaruido razonable durante la reproducción. Los avances tecnológicos en el campo de video y en la
fabricación de cintas de grabación hicieron posible el perfeccionamiento de la especificación
VHS.
JVC desarrolló el sistema SUPER-VHS cuya versión PAL se anuncio en enero de 1988. En el
sistema S-VHS se varia la frecuencia de la portadora de FM consiguiendo un ancho de banda de
luminancia mayor y como resultado un incremento en la resolución horizontal hasta 400 líneas.
La frecuencia se extiende hasta el 110% y el 70% respectivamente.
La velocidad lineal de la cinta, la velocidad de grabación, y el trazado de las pistas permanecen
inalterados para mantener la compatibilidad con el sistema VHS estándar, pero en el sistema SVHS se produce un incremento en la densidad de grabación. Se emplean cabezas de video de
material amorfo. Estas cabezas tienen entre hierros obtenidos con tecnología láser, el núcleo es
de estructura laminar que tiene la ventaja de mejorar las frecuencias mas altas de la banda,
debido a la reducción de las perdidas por corrientes circulares. El diseño de baja fricción entre la
cinta y el tambor reduce el ruido por contacto entre la cinta y la cabeza en 2 o 3 db, con referencia
a las cabezas de ferrita.
El incremento de la densidad de grabación exige unas especificaciones de la cinta más rigurosas.
Parece lógica la cinta de metal, igual que el sistema SONY 8 MM, pero JVC lanzó al mercado la
gama de cintas de cobalto con recubrimiento de óxido ferrico para asegurar la compatibilidad
entre los dos sistemas y sus familias de cintas. El tamaño de las partículas magnéticas es menor
para las cintas S-VHS con el fin reducir el ruido de modulación. El material de la cinta debe ser
antiestático, pues el polvo y la suciedad son los causantes de casi todas las perturbaciones de la
cinta.
Las cintas S-VHS pueden ser utilizadas con el estándar VHS, pero algunos equipos no pueden
realizar un borrado totalmente correcto de la cinta debido al alto grado de coercitividad de la
misma, además de no obtener mejora, el precio de las cintas S-VHS es significativamente más
caro. Los sistemas de camcoders tienen un conector "S", que no significa super sino SEPARATE
- VIDEO .Esto significa que separa las señales de luminancia (Y) y croma (C) permitiendo una
copia de alta calidad. SEPARATE - VIDEO es un sistema de conexión y SUPER-VIDEO, es un
sistema de grabación.
9.64
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Para reducir el tamaño de la cámara, una versión más pequeña de las cintas de VHS y S-VHS se
introdujo al mercado el VHS-C y el S-VHS-C (por compacto). Estos fueron diseñados para competir con el formato de 8 mm que comenzó a encontrar aceptación entre un gran número de consumidores.
Cuando el Betamax fracasó, el 8mm fue lanzado al mercado. Este formato en parte trata de tomar
ventaja de la fama del 8mm que fue un formato de cine muy utilizado para películas caseras. (De
hecho, Eastman Kodak fue uno de los creadores del 8mm para video).
El tamaño reducido de la cinta significa que las cámaras pueden ser incluso más pequeñas que las
de VHS, una característica que es muy atractiva para aquellos que han pasado años arrastrando
sus cámaras de VHS tamaño familiar. La calidad del 8mm es similar a la del VHS, lo que significa que el formato no está en la categoría de formato profesional.
Al tiempo que se introdujo en S-VHS Sony lanzó el Hi8, una versión de mayor calidad que el
8mm. Este también se utiliza como formato de adquisición y bajo óptimas condiciones pueden
producir video de calidad profesional. Sin embargo no puede competir con la presente generación de formatos digitales.
En cuanto a los formatos profesionales destaca el Betacam. La corporación SONY, pionera en el
desarrollo del videocasete Betamax de media pulgada para uso casero, introdujo el Betacam en
1982. Esto significó que por primera vez una cámara y un grabador pudieron integrarse en una
sola unidad. Nació la camcorder.
En 1987 lo mejoraron y lo bautizaron Betacam SP (Superior Performance) de funcionalidad
superior. La versión mejorada logró exceder los niveles de calidad del formato de una pulgada de
tipo C, y por esta razón algunas instituciones comenzaron a utilizar el Betacam para producciones de estudio y de exteriores. El Betacam ha pasado por varios procesos de mejoramiento que le
han proporcionado numerosas características, así como mejor calidad de audio y video.
Al mismo tiempo que el BETACAM era introducido en el mercado, Matsushita (Panasonic) y
RCA introducían un formato de casete de cinta de media pulgada con calidad de transmisión,
basado en su popular casete de VHS. Conocido como el formato M por la forma en que la cinta
está enhebrada en el mismo.
Pocos años después el formato M fue mejorado notablemente con la introducción del MII. Así
como el Betacam SP, la calidad del video M-II excede al de VTR de una pulgada del tipo C.
Luego Panasonic tomó la vanguardia al desarrollar una serie de formatos de video-tape digital
conocido como el formato "D".
9.14
LA TELEVISIÓN DIGITAL
En el principio básico de la televisión digital se encuentra el muestreo. Las diferentes etapas de
muestreo de la escena, muestreo espacial, permiten representarla como una señal analógica que
Tecnología de los Contenidos Multimedia
9.65
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
proporciona información sobre las componentes de luminancia y color en cada punto del espacio
y del tiempo. La digitalización de señales analógicas aporta considerables ventajas como por
ejemplo protección frente a ruidos, facilidad para encriptar las señales, posibilidad de procesar
digitalmente los datos, etc
Si se aplica un muestreo temporal de esta señal y se codifica cada una de las
muestras con una palabra binaria, se obtiene una versión digital de la escena que permite tratamientos con procesadores digitales o su transmisión mediante sistemas de
comunicación digitales.
La forma más inmediata de digitalizar una señal de televisión es tomar muestras equiespaciadas
en cada una de sus líneas. En señal de blanco y negro, si las muestras se sincronizan con el inicio
de las líneas, se obtendrá un muestreo de la imagen con estructura rectangular, en la que cada
muestra representa los valores de luminancia obtenidos sobre una retícula rectangular y la imagen puede tratarse como una matriz que se direcciona mediante filas y columnas. Estas muestras
se denominan elementos de imagen o píxeles (de picture elements).
El número de muestras que se toman en cada línea de la imagen debe estar en consonancia con el
número de líneas para que la resolución en ambas direcciones tenga valores parecidos. Por tanto,
en principio en un sistema como el europeo que utiliza 575 líneas activas, el número de muestras
de cada línea debería ser (4/3) 575 = 766 muestras, donde se multiplica la relación de aspecto
para tener en cuenta
que la imagen no es cuadrada. Entonces, la distancia física entre los pixeles
es idéntica en ambas direcciones, hecho que se identifica mediante la denominación de píxel cuadrado.
Sin embargo, hay sistemas que muestrean la señal de vídeo a una velocidad distinta, obteniendo
un número de muestras por línea que puede ser mayor o menor que el anterior. En estos casos se
dice que se trabaja con sistemas con elementos de imagen (píxeles) rectangulares.
Además, es necesario determinar el número de bits con el que debe codificarse cada muestra, o lo
que es lo mismo, el número de posibles niveles de luminancia que deben asignarse a la señal para
que el sistema visual humano sea incapaz de distinguir entre los niveles de gris originales y los
cuantificados. Este proceso se denomian cuantificación.
Para determinar este parámetro existen diferentes métodos. El más evidente es el método experimental en el que se presentan distintos tipos de imágenes a espectadores que valoran cuál es el
número mínimo de niveles a partir del que no se aprecia ninguna mejora en la calidad de las imágenes. Esta experiencia suele dar que el número de niveles de gris se sitúa entre los 45 y 60. Por
tanto para codificar correctamente las imágenes se necesita un mínimo de 6 o 7 bits. Debido a
que toda la estructura de las
9.66
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
memorias están basadas en palabras de 8 bits, se decidió cuantificar los niveles de luminancia
con 8 bits, con lo que se obtiene un total de 256 niveles posibles, que cubren perfectamente las
necesidades del sistema visual.
En el caso en que se trate de imágenes en color, puede optarse por muestrear las tres componentes de color RGB o bien la luminancia y las señales diferencia de color. En el primer caso, la
resolución de las tres imágenes debe ser la misma y cada muestra de las componentes de color se
suele cuantificar con 8 bits. En el caso de tomar la luminancia y las señales diferencia de color, es
habitual muestrear estas últimas con una retícula de muestreo que incluya un menor número de
muestras espaciales debido a la menor resolución del sistema visual al color. Normalmente la
reducción es en un factor 4,
que supone que se utilizan la mitad de filas y columnas. Tanto las muestras correspondientes a la
luminancia como a las señales diferencia de color suelen muestrearse con 8 bits.
Tradicionalmente la resolución de los sistemas analógicos se ha expresado en líneas horizontales
cuyo número está directamente relacionado con el ancho de banda de
la señal de vídeo. En el video digital sin comprimir el concepto de "frecuencia de muestreo"
(sampling rate ) es sinónimo de ancho de banda. En el estándar digital sin compresión "D-1",
ITU-R BT.601-4, la frecuencia de muestreo para la luminancia es de 13.5 Mhz, mientras que la
de crominancia es la mitad, 6.75 Mhz. Hay dos componentes de crominancia, la luminancia
menos rojo y la luminancia menos azul, Cr y Cb. Con ello la señal digital se compone de igual
cantidad de datos de luminancia y de crominancia. Esto se expresa con la relación famosa 4:2:2,
donde el 4 corresponde a la proporción de luminancia. Se podía haber dicho 2:1:1 pero no deja
margen para expresar reducciones de color.
El teorema de Nyquist establece que la frecuencia de muestreo de cualquier señal, debe ser, al
menos, el doble que la de la máxima señal a codificar. Por ejemplo, en audio se maneja una
banda auditiva de 20 Hz a 20 KHz. Aplicando este teorema, la frecuencia de muestreo debe ser el
doble que la máxima, es decir, 40.000 Hz. De hecho, la frecuencia de muestreo para audio digital
es 44.1 Khz.
Por tanto, para el estandar D-1 (4:2:2), el ancho de banda máximo de luminancia es 13.5 / 2 =
6.75Mhz, y para la crominancia la mitad de su frecuencia de muestreo 3.375 Mhz. Usando filtros
digitales muy potentes se puede dejar el ancho de banda práctico de luminancia en 6.0Mhz y el
de crominancia en 3.0 Mhz. El estandar D-1 es un formato digital de calidad máxima con un gran
ancho de banda, sin comprimir, que requiere unas capacidades de almacenamiento enormes.
DV [y miniDV] muestrea la señal de luminancia igual que el estandar D-1, a 13.5Mhz, mientras
la de crominancia a la mitad del D-1, 1.5 Mhz . Por tanto, para el sistema NTSC la relación quedaría en 4:1:1, con muestras de crominancia tomadas una vez cada cuatro muestras horizontales
de luminancia.
Tecnología de los Contenidos Multimedia
9.67
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El DV para el PAL usa un muestreo 4:2:0, tomando el valor medio de la señal de crominancia
entre sucesivas líneas de luminancia. El 4:2:0 no significa que la señal de croma Cb no se muestrea, sino que es una manera de expresar la alternancia en el muestreo. De acuerdo con el Consorcio Japonés de Vídeo Digital, 4:2:0 proporciona mejor percepción de la imagen. Panasonic
DVCPRO usa 4:1:1 tanto para NTSC como para PAL. El ATSC MPEG-2 formato para DTV,
[DVD] y HDTV, usa 4:2:0. La figura 9.57 muestra estos formatos.
Figura 9.57
Comparación del muestreo del color 4:2:2, 4:1:1, y 4:2:0.
La reducción en la frecuencia de muestreo del color en DV, le lleva a un valor práctico de
1.5Mhz. Actualmente, todos los sistemas digitales deben pasarse a analógico para permitir su
teledifusión.
9.15
FORMATOS DE TELEVISIÓN DIGITAL
Los formatos digitales más extendidos actualmente en estudios de televisión, y que pueden considerarse como el punto de partida de los distintos equipos para el registro o la transmisión digital, son las normas 4:2:2 y 4:2:0, que definen la conversión a señales digitales tanto para los
sistemas de 525líneas a 60 Hz como para los sistemas de 625 líneas a 50 Hz, manteniendo un
gran número de parámetros comunes entre ambos formatos.
En 1982, el ITU-R (anteriormente CCIR), desarrolló un conjunto de especificaciones en su recomendación 601 para las señales de televisión digital en estudios de televisión o de producción de
vídeo. El objetivo de esta recomendación era facilitar el intercambio de programas a escala internacional. Las recomendaciones definen muchos parámetros comunes entre el formato americano
9.68
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
y europeo con el fin de que los fabricantes puedan incluir varios módulos comunes en equipos
para 525 y 625 líneas. El uso de este formato permite la interconexión entre distintos equipos
digitales.
Existen básicamente dos variantes básicas: la 4:2:2 y la 4:4:4. Los dígitos indican la proporción
entre las muestras dedicadas a la luminancia y las dedicadas a las componentes de color. El sistema más utilizado es el 4:2:2, en el que se codifican la luminancia y las señales diferencia de
color. El formato 4:4:4 puede utilizarse también con componentes RGB.
La cantidad de datos binarios debida a la digitalización de una señal de vídeo es enorme. En el
estándar 4:2:2 la luminancia se muestrea a una frecuencia de 13.5 MHz tomando 8 bits por
muestra, lo que implica 108 Mbps. Además, cada una de las señales de diferencia de color se
muestrean a 6.75 MHz, nuevamente con 8 bits por muestra, lo que produce otros 108 Mbps. En
total 216 Mbps asignados exclusivamente a la señal de vídeo digital, sin tener en cuenta las componentes de audio o de información adicional. Este flujo de datos puede ser soportado por los
equipos de un estudio profesional pero es inaceptable para la transmisión directa de televisión.
Por ello, en la televisión digital es fundamental aplicar técnicas de compresión, que se analizarán
en el capítulo dedicado a ello.
Las dimensiones de la componente de luminancia en los formatos 4:4:4 y 4:2:2 son de 720 576
en los sistemas de 625 líneas a 50 Hz y de 720 480 en los de 525 líneas a 30 Hz. La diferencia en
el número de filas entre ambos sistemas se debe a los estándares analógicos. En el sistema de 625
líneas sólo son activas 575 que se reparten entre los dos campos. Esto da lugar a un total de 287,5
líneas activas por campo.
Al digitalizar cada uno de los campos, las medias líneas deben tomarse como una fila completa
de la imagen digital, por lo que hay un total de 288 líneas por campo, es decir, 576 (288x2) líneas
por imagen. Para el sistema de 525 líneas puede aplicarse un razonamiento similar.
Figura 9.58
Formato 4:4:4
Tecnología de los Contenidos Multimedia
9.69
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Tal y como se ilustra en la figura 9.58, el formato 4:4:4 toma una muestra de las dos componentes de color por cada muestra de luminancia. Esto significa que los tamaños de las matrices diferencia de color coinciden con los de las matrices de luminancia. En cambio, en el sistema 4:2:2,
las componentes de crominancia se submuestren en un factor 2 dentro de cada fila. Esto significa
que los tamaños de las matrices de crominancia son 360x576 en los sistemas 625 líneas a 50 Hz
y de 360x480 en los de 525 líneas a 60 Hz. En este formato sólo se reduce la frecuencia de muestreo en el sentido horizontal. El número de muestras de crominancia en el eje vertical sigue coincidiendo con el de la componente de luminancia, de modo que la frecuencia de muestreo de la
información de croma se mantiene constante a 6,75 MHz.
El formato 4:2:0 es una simplificación del 4:2:2 que se utiliza en un gran número de aplicaciones
para el registro de vídeo en soporte magnético o en disco duro. Es el formato de entrada utilizado
en la versión de MPEG-2 que se utiliza en la transmisión de televisión digital (Main Level, Main
Profile, MP@ML). Se obtiene reduciendo a la mitad la frecuencia de muestreo de las componentes de crominancia en el sentido vertical, con lo que se iguala la densidad de muestras de crominancia en las dos direcciones. Las muestras de croma se obtienen a partir de las muestras del
formato 4:2:2, promediando dos filas consecutivas. Con el formato 4:2:0 el tamaño de las matrices de crominancia se reduce a 360x240 para el estándar 525 líneas a 60 Hz y a 360x288 para
625 líneas a 50 Hz, y las matrices de luminancia se mantienen con el mismo tamaño que en los
formatos 4:4:4 o 4:2:2.
Además del formato 4:2:2 y el 4:2:0, también pueden encontrarse el 4:1:1 y el 4:1:0. El formato
4:1:0 fue utilizado durante algún tiempo por Intel en el DVI (Digital Video Interactive), pero en
la actualidad tanto este como el 4:1:1 están en desuso.
En aplicaciones en las que no es necesaria una gran calidad de la imagen de vídeo digital, como
por ejemplo los primeros ficheros AVI de vídeo para Windows o el MPEG-1, puede reducirse
sobre el tamaño de la imagen. Así se consigue una importante reducción respecto a la tasa de bits
original
Uno de los formatos de vídeo reducido más populares es el SIF (Source Intermediate Format)
que consiste en un submuestreo de un factor 2 del formato 4:2:0 que se aplica tanto a las componentes de luminancia y de crominancia. Los tamaños de las matrices de luminancia para el formato SIF son de 360x288 para el estándar de 625 líneas y 360x240 para el 525 líneas. Las
matrices de crominancia también se submuestrean en un factor 2 en cada dirección respecto las
matrices de crominancia del 4:2:0, 180x144 para 625 líneas y 180x120 para 525. También se realiza una reducción de la frecuencia de imagen a 25 Hz para el sistema europeo y a 30 Hz para el
americano, con lo que las imágenes resultantes no son entrelazadas. Con todo ello se obtiene una
calidad equivalente al formato de vídeo analógico VHS.
El formato CIF (Common Intermediate Format) es un compromiso entre el formato SIF para 625
y para 525 líneas. Utiliza 360x288 muestras de resolución de luminancia, como en el sistema
europeo, y una frecuencia de refresco de 30 Hz, como en el sistema.
9.70
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Todos los formatos digitales anteriores se realizan para relaciones de aspecto 4:3 y se obtienen
submuestreando las componentes de crominancia y/o luminancia del formato 4:4:4. Como la
norma ITU-R 601 establece una única frecuencia de muestreo para las señales procedentes del
NTSC o del PAL, el número de elementos en cada fila es idéntico para ambos estándares. Pero
como el número de filas es distinto, el área asociada a cada elemento de imagen no es cuadrada,
sino rectangular. En el sistema europeo, para que en una pantalla con una relación de aspecto 4:3
puedan presentarse 720 columnas y 576 filas, es necesario que los píxeles sean más anchos que
altos (4/720 > 3/576), y al contrario en el sistema americano en el que los píxeles deben ser más
altos que anchos. En aplicaciones informáticas es conveniente que los píxeles tengan una relación de aspecto cuadrada ya que las tarjetas de visualización y los programas de tratamiento de
imagen asumen esta propiedad. Por ello deben definirse formatos alternativos, denominados formatos de píxel cuadrado, para el tratamiento en computadores. Estos formatos son equivalentes a
los formatos definidos anteriormente, con la diferencia de que se modifica el número de elementos por fila para forzar que la relación de aspecto del píxel sea cuadrada. Por ejemplo, en el estándar de 625 líneas el tamaño de una imagen 4:2:0 es 768x576 píxeles (768 =(4/3)x576) mientras
que en el estándar de 525 líneas es 640x480 píxeles (640 = (4/3)x480). Este formato es el conocido VGA. Los demás formatos SIF, CIF y QCIF de píxel cuadrado se obtienen dividiendo las
resoluciones espaciales por factores de 2. La tabla 9.6 muestra los formatos digitales básicos.
Además de estas características básicas el fundamento de la televisión digital es la compresión,
por lo que el siguiente capítulo lo analiza detenidamente.
4:2:0
SIF
CIF
QSIF
Europeo TV
720×576
360×288
360×288
180×144
Americano TV
720×480
360×240
360×288
180×120
Europeo Cuadrado
720×576
384×288
384×288
192×144
Tabla 9.6
Formatos digitales básicos.
9.16
TELEVISIÓN DE ALTA DEFINICIÓN, HDTV
Americano Cuadrado
640×480
320×240
384×288
160×120
Los formatos digitales de alta definición se definen prácticamente duplicando el número de píxeles en cada dirección. En el estándar europeo el tamaño de imagen de alta definición es
1440×1152 para relaciones de aspecto de 4:3 y 1920x1152 para relaciones de aspecto panorámicas.
Con estos parámetros las señales de HDTV, transmitidas sin comprimir, requieren anchos de
banda de hasta 30 MHz, mientras que para la televisión convencional el ancho de banda es de
6MHz. Por tanto, estos sistemas son incompatibles con los equipos de TV actuales, y además
Tecnología de los Contenidos Multimedia
9.71
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
existen problemas para su paso por estaciones de difusión. La solución pasa de nuevo por la compresión de datos, que se detalla en el siguiente capítulo. Con esas técnicas se pueden comprimir
las señales de HDTV dentro de los 6 MHz. Utilizando la compresión MPEG-2, los mismos 6
MHz de ancho de banda que transportan un canal de HDTV pueden transportar seis canales
NTSC en formato digital. Estos canales adicionales podrían ser utilizados para servicios de pago
por visión, servicios de datos, y especialmente para servicios de comunicaciones bidireccionales
o videoconferencia.
Por otro lado, la HDTV tiene más de 1000 líneas de barrido, normalmente 1125 o 1250 líneas.
Pero además el método de barrido de estas líneas es completamente diferente. Recuérdese que la
televisión convencional utiliza un método de barrido entrelazado, en el que la imagen es iluminada por los patrones sucesivos de líneas alternadas. Primero son barridas las líneas impares y a
continuación se sigue con las líneas pares. El barrido entrelazado reduce el parpadeo de la pantalla al permitir que la mitad de la pantalla permanezca iluminada en cualquier instante, pero tiene
la desventaja de crear "artificios" o irregularidades en el movimiento vertical.
La HDTV utiliza un método de barrido progresivo, en el que la imagen es barrida línea por línea,
consecutivamente, de arriba a abajo de la pantalla. La mayor resolución de imagen reduce la susceptibilidad de HDTV a artificios de movimiento.
Comparado con la televisión NTSC, HDTV/DTV puede reproducir seis veces más detalle y diez
veces más información de color.
La alta definición ha tenido varios formatos y se han propuesto varios estándares. La industria
del cine está empezando a usar los formatos HDTV con el propósito de obtener altas resoluciones
para mostrar las imágenes con la mejor calidad en las grandes pantallas de cine. Así, han consolidado el estándar de alta definición más común.
Todos los formatos de alta definición adoptan la misma relación de aspecto de pantalla panorámica 16:9 (Widescreen). Además, en todos los estándar de alta definición, los pixels son cuadrados. Esto incluye a la industria informática, permitiendo integrar de forma más simple los
gráficos generados por ordenador en las imágenes de alta definición. Todos los estándar HDTV
usan la colorimetría definida en la ITU-R BT.709, que no es la misma que se usa en los sistemas
de televisión estándar PAL o NTSC.
Los estándares HDTV han considerado de forma fundamental la convergencia entre la electrónica, la industria cinematográfíca y la industria informática.
Existen dos familias de formatos de televisión en alta definición (HDTV) que se distinguen por
el número de píxeles y por el de líneas. Una de las familias tiene 1080 líneas activas de imagen
mientras que la otra, tiene 720 líneas. Cada familia define varias frecuencias de visualización o
imágenes por segundo.
Una de las características más importantes de la alta definición, ha sido el barrido entrelazado y
progresivo. La HDTV admite ambos, reconociendo las ventajas de cada uno de ellos. La forma
9.72
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
más común para referirse a un estándar de alta definición, es usar el número de líneas y la frecuencia de visualización. Por ejemplo, 1080/50i y 720/60p definen el estándar, donde el primer
número indica siempre el número de líneas, el segundo número indica la frecuencia de visualización, y la "i" o la "p" indica si el barrido es entrelazado (i) o progresivo (p). Seguidamente se presentan las características fundamentales de ambas familias.
9.16.1 ALTA DEFINICIÓN 1920×1080 ‘COMMON IMAGE FORMAT’ (HD-CIF)
Esta familia está definida internacionalmente por la SMPTE 274M y la subdivisión ITU-R
BT.709-5. El estándar BT.709 define un formato de imagen y frecuencia de visualización, y
todas sus variantes tienen 1920 píxeles horizontales y 1080 líneas activas de imagen.
La relación de aspecto es 16:9 y el pixel es cuadrado, (1080×16/9=1920) lo que se ajusta perfectamente a los sistemas informáticos.
El formato HD-CIF de 1920×1080 contiene 2,07 millones de píxeles en una imagen de televisión, frente a los 400.000 píxeles de una imagen PAL o NTSC. Por tanto, el aumento potencial
de resolución es de un factor de 5 veces.
Los diferentes estándares se presentan debido a las diferentes frecuencias de visualización y a la
forma en que las imágenes son capturadas: progresiva o entrelazada.
La SMPTE define once formatos de escaneado de HDTV 1920×1080, ocho progresivos y tres
entrelazados.
La ITU define diez sistemas de escaneado, ocho progresivos y dos entrelazados. Estos incluyen
25fps para Europa, 30fps para Estados Unidos y Japón y 24fps para la industria cinematográfica.
El formato común de imagen (CIF) facilita el intercambio de programas entre diferentes entornos
y hace posible que cualquier equipamiento pueda trabajar en cualquier entorno. El documento
ITU BT.709-5 recomienda el uso del formato HD-CIF para la producción de nuevos programas y
facilitar así los intercambios internacionales.
En la norma ITU-R BT.709-5 el formato común de imagen (CIF) está definido "para tener un
parámetro de imagen común, independiente de la frecuencia de la imagen". Los parámetros claves son el sistema de barrido y la colorimetría. La tabla 9.7muestra las frecuencias permitidas.
Sistema
Tabla 9.7
Captura
Barrido
24p, 25p, 30p, 50p, 60p
1920 x 1080, progresivo
Progresivo
24psF, 25psF, 30psF
1920 x 1080 captura progresiva
Cuadro segmentado
50i, 60i
1920 x 1080 entrelazado
Entrelazado
Frecuencias permitidas, donde i=entrelazado, p=progreivo y psF=progresivo con cuadro segmentado.
Tecnología de los Contenidos Multimedia
9.73
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El cuadro segmentado (Segmented Frame) es una forma de transportar una imagen progresiva en
dos segmentos, así esa señal se "ve" igual que los dos campos (fileds) de una imagen entrelazada.
En post producción se necesitará trabajar en ambos formatos de señal, tanto en entrelazado como
en progresivo, hasta que se imponga definitivamente el progresivo. Uno de los problemas para
monitorizar los nuevos formatos de señal, como el 24p, es el parpadeo (flicker) inducido en los
monitores de televisión TRC. El segundo es el procesamiento de las imágenes progresivas. La
mayoría de los monitores de televisión TRC muestran las imágenes de forma entrelazada. El formato de cuadro segmentado permite usar los mismos sistemas electrónicos para imágenes progresivas y entrelazadas, y visualizarlas correctamente sobre monitores de TRC. No hay cambios
en la característica de la imagen progresiva, y sólo se usa para frecuencias de hasta 30fps. Tampoco hay problemas para monitorizar la señal con los nuevos visualizadores planos, de LCD o de
plasma. El interface digital de una señal entrelazada es el mismo, aunque el contenido de esa
señal es diferente.
9.16.2 ALTA DEFINICIÓN 1280×720 ‘PROGRESSIVE IMAGE SAMPLE STRUCTURE’
Definido internacionalmente por la SMPTE 296M, aunque no por la ITU, es una familia que
incluye ocho sistemas de escaneado, todos progresivos y con una resolución de 1280 píxeles
horizontales y 720 líneas activas. Proporciona 921600 píxeles en una imagen.
Las frecuencias de visualización son 23,98p, 24p, 25p, 29,97p, 30p, 48p, 50p, 59,95p y 60p. La
tabla 9.8 muestra estas frecuencias.
Tabla 9.8
Sistema
Captura
Escaneado
24p, 25p, 30p, 50p, 60p
1280 x 720 progresivo
Progresivo (PAL)
23,98p, 29,97p, 59,94p
1280 x 720 progresivo
Progresivo compatible NTSC
Frecuencias de visualización.
La colorimetría cumple la norma ITU-R BT.709
Como puede observarse el resultado de que haya muchas variantes para cada familia de Alta
Definición es la multitud de frecuencias de cuadro.
Históricamente, en Europa y otras partes del mundo el sistema de televisión estándar tiene una
velocidad de 25 imágenes por segundo. En Estados Unidos y Japón se usan 30 imágenes por
segundo, mientras que la industria cinematográfica usa 24 imágenes por segundo.
Las grandes cadenas de televisión americanas emiten actualmente en ambos formatos de alta
definición, 1080i y 720p usando la misma frecuencia de cuadro/campo que la señal de televisión
estándar.
9.74
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
En Europa, la primera cadena de televisión de alta definición - Euro1080 -, que empezó a emitir
en enero de 2004, usando el formato 1080i a 25i (50Hz)
En alta definición, es normal producir imágenes usando un estándar y emitirlo en otro estándar.
Por ejemplo, se puede grabar a 25 imágenes o 50 campos por segundo y emitirlos a 60 campos
por segundo.
Debido a la gran cantidad de datos necesarios para las variantes de escaneo progresivo a
1920×1080, las cámaras actuales en general no disponen de frecuencias mayores de 30Hz. Las
imágenes entrelazadas pueden ser capturadas fácilmente a 60 campos por segundo.
La frecuencia de datos a 720p es más manejable, y hay cámaras que graban imágenes a 60 cuadros por segundo, proporcionando una frecuencia de reproducción variable. Esto es particularmente interesante en documentales de naturaleza y acontecimientos deportivos.
Existen conversores de alta definición en el mercado, que pueden convertir entre frecuencias de
cuadro y entre familias de 1080 y 720, aunque todavía no permiten compensar la conversión
entre 25i y 30i.
Para producción, es posible masterizar material a 24p. El material se maneja de la misma forma
que las imágenes de cine - en Estados Unidos usando el 3-2 pulldown: en Europa aumentando la
velocidad hasta 25 imágenes por segundo. La baja frecuencia de muestreo temporal de 24 imágenes por segundo, no es apropiada para todo tipo de material - en particular para deportes de
mucha acción- donde el parpadeo puede molestar la visión por parte del espectador.
Los equipamientos de post producción en Alta Definición son, en general, muy flexibles y pueden trabajar con imágenes adquiridas usando todos los estándar de ambas familias. La elección
del formato de adquisición (frecuencia de cuadro y tipo de barrido) dependerá del estilo y del
contenido.
La única limitación es el requerimiento basado en 50Hz o 60Hz para la emisión, y esto se puede
considerar en la preproducción. Se pueden elegir las variantes de 24p, 25p y 50i para Europa y
afines, o convertir 24/30p o 60i para USA y Japón aunque, como se dijo antes, la conversión de
frecuencia es posible pero sin compensación.
9.17
FORMATOS DE GRABACIÓN DE VÍDEO DIGITAL
Desde el punto de vista de la grabación y almacenamiento de vídeo, el video digital tiene un
número importante de ventajas sobre el analógico. Una cinta digital puede ser copiada casi indefinidamente sin pérdida de calidad. Esta es una ventaja importante en las sesiones de post-producción que requieren varias capas de efectos, las cintas digitales se adaptan mejor para un
almacenamiento prolongando y la calidad técnica de las grabaciones digitales es mejor que su
similar analógica.
Tecnología de los Contenidos Multimedia
9.75
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Los formatos digitales suelen utilizar alguna compresión. Las cámaras digitales más avanzadas
utilizan un formato 4:2:2 "sin pérdidas", es decir, compresión mínima, luminancia y crominancia
registradas por separado, un porcentaje de muestreo más alto, etc.
Otras cámaras utilizan un formato 4:1:1, como por ejemplo DV, DVCAM, DVCPRO, etc., que
depende en un nivel más alto de compresión, disminuyendo la calidad de video. La ventaja de
calidad del 4:2:2 es evidente cuando se requiere edición, copiado, efectos especiales complejos,
etc. La mayoría de las cámaras comerciales utilizan un formato 4:1:1.
Cuanto más se muestrea el color mejor es la calidad del cuadro; pero, también, se requiere mayor
ancho de banda y el proceso de grabación digital se hace más exigente.
El proceso de muestreo 4:4:4 está asociado a los equipos profesionales de vanguardia. Cualquier
formato que muestree por debajo de 4:4:4 realmente compromete en algo la calidad.
Básicamente son tres los formatos digitales populares que graban en cinta de ¼ de pulgada: DV,
DVCCAM y DVC Pro/DVC Pro 50.
La mayoría de las cámaras comerciales utilizan cintas digitales más pequeñas que una cinta de
audio estándar. La cámara mini DV Handycam de Sony es tan pequeña que se puede guardar en
el bolsillo de un abrigo. Además del visor estándar, tiene un visor plano, a color LCD, que se
desdobla. La PV-DV1000 de Panasonic y la mini VD AG-EZIU se han hecho muy populares.
Sus 500 líneas de resolución exceden significativamente lo que los consumidores están acostumbrados a ver con la mejor señal de televisión por aire. Esta cámara tiene una conexión FireWire,
que significa que la salida de la grabadora puede ser conectada directamente a un disco duro digital.
La GR-DV1 de JVC es Incluso más pequeña que la Handycam de Sony. Esta tiene el tamaño de
un libro de bolsillo. Tiene un lente zoom 10:1, que enfoca en macro, efectos especiales incluidos,
y registra con condiciones de luz bastante bajas. Incluso permite grabar en una proporción de 4:3
y o de 16:9.
Una cámara sin cinta fue lanzada al mercado por Hitachi a finales de 1997. La que codifica mpeg
tiene también el tamaño de un libro de bolsillo y puede grabar hasta 20 minutos de video y audio
en disco duro removible de 260 MB.
La salida del disco puede alimentar a un VCR estándar para grabar, o el disco duro puede ser
introducido a la computadora para edición digital. La resolución es comparable con el VHS
estándar.En relación con los formatos digitales profesionales destacan los denominados de la
línea "D". Muchos han sido los formatos exitosos en esta línea. El D-1 fue el primer estándar
digital a nivel mundial. Aún es utilizado en algunas aplicaciones especializadas de post-producción. Después siguieron D-2 y D-3, cada uno adicionando ventajas técnicas. No existió un D-4,
probablemente por su connotación de muerte en el lenguaje Japonés.
9.76
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
El D-5, uno de los más recientes, combina varias de las ventajas de formatos digitales anteriores,
mientras que solventa los problemas inherentes de compresión y combinación de información de
video.
Los casetes D-5 graban hasta 2 horas de material en un solo videocasete. Por la posibilidad de
grabar más información por unidad de tiempo, el formato D-5 puede ser adaptable a la producción DTV/HDTV.
El formato D-5, junto a los Digital-S, ahora conocido como D9, y unos cuantos formatos de altas
prestaciones es considerado uno de los formatos digitales sin compromiso 4:2:2, con compresión
mínima, luminancia y crominancia grabados separadamente y con mayor rango de muestreo
digital, etc.
Sony introdujo el sistema DVCAM en la convención de la NAB (Asociación Nacional de Transmisores) de 1996 como un formato digital económico. En esta línea estaba incluida una innovadora línea híbrida de edición lineal y no lineal. Las cintas DVCAM son compatibles con el
formato DV.
A pesar del formato inicial 4:1:1, el DVCPRO introdujo una versión 4:2:2 llamada el DVCPRO
50 a finales de 1997.
El formato DVCPRO se ha hecho muy popular en una gama bastante amplia de usuarios. El editor portátil DVCPRO AJ-LT75 laptop, que contiene dos unidades de reproducción, monitores a
color, monitores estéreo y batería para poder operar, todo en un maletín portátil (tipo ejecutivo,
para llevar documentos) se convirtió en una opción muy aceptada por reporteros. Posteriormente
SONY introdujo un paquete similar.
Gracias a esta unidad, las noticias pueden ser grabadas, editadas y transmitidas a la estación para
su posterior salida al aire más fácil y eficientemente.
Para muchos profesionales del video, la cámara DCR-VX1000 de Sony, con su impresionante
calidad digital, fue razón suficiente para cambiar sus equipos de tecnología analógica a digital.
Esta cámara utiliza tres CCD en vez de uno, factor que impulsó la calidad de la primera generación del video a un rango profesional.
Aunque esta calidad no puede competir con la alta calidad de los equipos 4:2:2, de mayor precio,
es si duda una excelente adquisición como formato para noticias y trabajos documentales.
La calidad del formato Digital-S (D-9) 4:2:2 excede todos los formatos analógicos e incluso
muchos de los formatos digitales. Este formato ofrece cuatro canales de audio sin compresión. D9 utiliza el diseño básico de transporte de VHS, aunque ha sido alterado junto con la cinta y el
cuerpo del casete, para ajustarse a estándares profesionales.
Aunque muchas máquinas D-9 son capaces de reproducir cintas S-VHS, el formato es muy superior al S-VHS, especialmente cuando se requieren aplicaciones multigeneracionales como la edición. La copia de una copia es la primera generación, otra copia de esa copia es la segunda, etc.
Tecnología de los Contenidos Multimedia
9.77
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Una característica importante de este formato es la pre-lectura, que permite reproducir video y
audio y simultáneamente grabar nuevas señales de video y audio en su lugar. Esto significa que
la señal original puede ser modificada varias veces antes de ser regrabada. Por ejemplo, títulos y
efectos especiales pueden ser añadidos mientras la cinta es reproducida. La tabla 9.9 muestra los
formatos digitales más habituales.
Formato
C-format
Beta SP
Beta SX
Digital Beta
DV
DVCCAM
DVCPRO
DVCPRO50
Digital S
Tabla 9.9
Tipo de Cinta
25.4mm óxido
12.7mm partículas de metal
2.7mm metal evaporado
12.7mm metal evaporado
6.35mm patículas de metal
6.35mm metal evaporado
6.35mm metal evaporado
6.35mm partículas de metal
12.7mm partículas de metal
Tracks
4
4
4
5
2
2
3
5
4
Formatos digitales más habituales.
Estándares DVB
El DVB (Digital Video Broadcasting) es un organismo encargado de regular y proponer los procedimientos para la transmisión de señales de televisión digitales compatibles. Está constituido
por más de 220 instituciones y empresas de todo el mundo y los estándares propuestos han sido
ampliamente aceptados en Europa y casi todos los continentes, con la excepción de Estados Unidos y Japón donde coexisten con otros sistemas propietarios. Todos los procedimientos de codificación de las fuentes de vídeo y audio están basados en los estándares definidos por MPEG.
Sin embargo, los estándares MPEG sólo especifican la metodología de la compresión
de las señales de audio y vídeo y los procedimientos de multiplexación y sincronización de estas
señales en tramas de transporte.
Una vez definida la trama de transporte es necesario definir los sistemas de modulación de señal
que se utilizarán para los distintos tipos de radiodifusión tales como terrestre, satélite o cable.
También deben definirse los tipos de códigos de protección frente a errores y los mecanismos de
acceso condicional a los servicios y programas.
DVB ha establecido varios estándares en función de las características del sistema de radiodifusión. Los más utilizados en la actualidad son el DVB-S y el DVB-C
que contemplan las transmisiones de señales de televisión digital mediante redes de distribución
por satélite y cable respectivamente. El DVB-T define la transmisión de televisión digital a través de redes de distribución terrestres utilizando los canales VHF convencionales.
9.78
Tecnología de los Contenidos Multimedia
TEMA 9. LA SEÑAL DE VÍDEO
UNED - CURSO 2007-2008
Además de estos estándares también están especificados sistemas para la distribución de señales
de televisión digital en redes multipunto, sistemas SMATV (Satellite Master Antenna Televisión). También existen estándares que definen las características de la señalización en el canal de
retorno en sistemas de televisión interactiva, la estructura de transmisión de datos para la encriptación y desencriptación de programas de acceso condicional, la transmisión de subtítulos, y la
radiodifusión de datos (nuevos canales de teletexto) mediante sistemas digitales.
Tecnología de los Contenidos Multimedia
9.79
TEMA 9. LA SEÑAL DE VÍDEO
9.80
UNED - CURSO 2007-2008
Tecnología de los Contenidos Multimedia
Descargar