Icon - DSpace en ESPOL

Anuncio
ESCUELA SUPERIOR POLITÉCNICA DEL
LITORAL
FACULTAD DE INGENIERÍA EN ELECTRICIDAD Y
COMPUTACIÓN
TESIS DE GRADO
“Diseño de un sistema de edición digital
utilizando multimedia sobre IP para un canal de
televisión”
Previo a la obtención del Título de:
INGENIERO EN ELECTRÓNICA Y
TELECOMUNICACIONES
Presentado por:
John Navas Herrera
Elizabeth Oviedo Anchundia
Blakeslees Suárez Muñoz
GUAYAQUIL – ECUADOR
2005
II
AGRADECIMIENTO
Agradezco a Dios por darme la fuerza
para terminar mi carrera, a pesar de
diversas dificultades. Agradezco a mis
padres y hermanas que me ayudaron
todos en mayor o menor grado, para
poder terminar mis estudios superiores.
También agradezco a mis compañeros
de tesis.
Blakeslees
Agradezco a mis padres que han sido
mi
apoyo
incondicional
durante
el
desarrollo de este proyecto y a Dios por
llenar de bendiciones mi camino para
culminar mi trabajo.
Elizabeth
A mis padres en quienes siempre
encontré un ejemplo.
John
III
DEDICATORIA
A Dios y a mi madre
Blakeslees
A Dios, a Rodrigo, Javier, Estefanía,
Maria, Víctor y especialmente a
Domenica
Elizabeth
A mi familia por supuesto.
John
IV
DECLARACIÓN EXPRESA
“La responsabilidad por los hechos, ideas y doctrinas expuestas en este
trabajo nos corresponden exclusivamente; y, el patrimonio intelectual de la
misma, a la ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL”
(Reglamento de exámenes y títulos profesionales de la ESPOL)
John Navas Herrera
Elizabeth Oviedo Anchundia
Blakeslees Suárez Muñoz
V
TRIBUNAL DE GRADUACIÓN
Ing. Miguel Yapur
Ing. Edgar Leyton
Subdecano de la FIEC
Director del Tópico
Ing. Washington Medina
Tribunal
Ing. Francisco Novillo
Tribunal
VI
RESUMEN
El propósito del presente proyecto es automatizar el sistema de edición de un
canal de televisión utilizando tecnología IP como alternativa a los actuales
sistemas de almacenamiento y transmisión analógicos utilizados en la
mayoría de estaciones televisoras nacionales.
El proyecto se encuentra dividido en 4 capítulos en los que se exponen los
principios teóricos del diseño y funcionamiento del sistema propuesto.
En el capítulo 1 se explican los principios teóricos empleados en este
proyecto. Se detallan conceptos básicos de televisión así como la definición y
diferencias entre la edición lineal o analógica y la no lineal o digital. Además
conceptos de las redes IP, específicamente de las que utilizan la pila de
protocolos TCP/IP. Este capitulo ayuda a asimilar el significado de varios
conceptos que se utilizarán durante el transcurso del proyecto.
El capitulo 2 es un estudio de la situación actual de una estación televisora
local, tanto en su estructura organizacional como la tecnología con la que
cuenta. Este análisis se justifica dentro del proyecto para comprender las
ventajas que brida el sistema, buscando evolucionar a una televisión
completamente digital.
VII
El capítulo 3 trata el diseño en sí del proyecto, especificando: requerimientos,
descripción de equipos, ubicación de los mismos y adecuaciones que serán
necesarias para el funcionamiento óptimo del sistema. En este capitulo se
diseña la red en la cual trabajaran los equipos de edición. Se muestra la
manera en la que esta red se fusiona con la red existente en el canal a través
de una Puerta de enlace. También se detalla la gestión que se debe brindar
para
asegurar
el
óptimo
funcionamiento
del
sistema
además
del
mantenimiento que se le debe dar al mismo. En este capítulo se
especificarán las seguridades que se implementarán en el sistema para
evitar pérdida o duplicación de información y el uso indebido de la red de
edición. Básicamente la seguridad se basa en los diferentes accesos
controlados desde la Puerta de enlace.
En el capítulo 4 se realiza una descripción de los costos operativos del
sistema actual. Además se detallan los precios de los equipos que requiere el
nuevo sistema y se hace un breve análisis costo – beneficio comparando los
costos operativos de almacenamiento de los sistemas analógico y digital.
Finalmente se detallan las conclusiones y recomendaciones, formuladas
durante el desarrollo del proyecto.
VIII
ÍNDICE
RESUMEN
VI
ÍNDICE
VIII
ÍNDICE DE FIGURAS
XI
ÍNDICE DE TABLAS
XIII
ABREVIATURAS
XIV
INTRODUCCIÓN
XX
CAPITULO I
FUNDAMENTOS TEORICOS
1.1. Conceptos básicos de television
1
1
1.1.1. Breve historia de la TV
2
1.1.2. La señal Televisiva
6
1.1.3 Fundamentos del sistema NTSC
10
1.1.4 Sistemas de entrega y transporte de la señal de vídeo
(Emisión/Grabación)
14
1.1.5 Formatos de vídeo
16
1.1.6 Sistemas de edición
22
1.1.6.1. Edición lineal (Analógica)
23
1.1.6.2. Edición no lineal (Digital)
28
1.1.6.2.1. Ventajas e inconvenientes de la videoedición digital
1.2. Redes TCP/IP
31
35
1.2.1. Arquitectura TCP/IP
36
1.2.2 Direccionamiento IP
40
IX
1.2.3 Transmisión multimedia sobre redes TCP/IP
42
1.2.4 Estándares de Codificación Digital
44
1.2.5 Formatos para transferencia de contenidos
48
1.2.5.1 MXF - Material Exchange Format
50
1.2.5.2 AAF - Advanced Authoring Format
54
1.2.5.3 GXF - General eXchange Format
56
CAPITULO II
ANÁLISIS DE LA SITUACIÓN ACTUAL DE LA ESTACION DE TELEVISION
59
2.1 Introducción
59
2.2 Estructura Organizacional del canal
62
2.3 Análisis de la Red LAN
66
CAPITULO III
DISEÑO DE LA RED DEL SISTEMA DE EDICION
73
3.1 Introducción
73
3.2 Requerimientos del sistema
76
3.3. Descripción de los Equipos a Utilizar en el Proyecto
77
3.4. Diseño de la red de edición
94
3.4.1. Adecuaciones e implementaciones adicionales.
3.5. Esquema general de la red de edición no lineal (Digital)
99
105
X
3.5.1. Ubicación de los Equipos Utilizados en el Proyecto
107
3.5.2. Configuraciones de los equipos
112
3.6 Gestión del sistema
119
3.6.1 Agente SNMP
120
3.6.2 Objetos Gestionados
124
3.7 Seguridad del sistema
126
3.7.1. Configuración Gateway Linux
127
3.7.2. Servicio Samba
130
3.8 Mantenimiento y respaldos
133
CAPITULO IV
ANALISIS DE COSTOS
135
4.1 Introducción
135
4.2 Análisis del sistema actual (edición analógica)
136
4.2.1 Análisis de costos operativos
4.3 Análisis del sistema propuesto (edición digital)
137
140
4.3.1 Análisis de la inversión inicial
141
4.3.2 Análisis de costos operativos
143
CONCLUSIONES Y RECOMENDACIONES
149
ANEXOS
151
BIBLIOGRAFÍA
168
XI
ÍNDICE DE FIGURAS
Figura 1.1. Circulo de color _____________________________________________ 11
Figura 1.2. Espectro de frecuencia de un canal NTSC ________________________ 13
Figura 1.3. Distribución de sistemas de TV en el mundo ______________________ 14
Figura 1.4. Cassettes con formatos de video analógicos_______________________ 17
Figura 1.5. Cassettes de formatos digitales _________________________________ 21
Figura 1.6. Editora lineal (analógica) ______________________________________ 24
Figura 1.7. Timeline o línea de tiempo donde se edita_________________________ 28
Figura 1.8. Modelo TCP/IP ______________________________________________ 37
Figura 1.9. Ventana Principal del NetMeeting. _______________________________ 43
Figura 1.10. Intercambio de formato ______________________________________ 58
Figura 2.1. Diagrama de bloques general de la estructura de un canal de televisión_ 60
Figura 2.2. Estructura Organizacional de la estación televisiva __________________ 63
Figura 2.3. Esquema actual de la red del canal. _____________________________ 70
Figura 2.4. Esquema de la red del canal luego del subnetting. __________________ 71
Figura 3.1a. Diseño general del sistema de edición digital _____________________ 74
Figura 3.1b. Red recomendada para el sistema de edición digital por Grass Valley __ 75
Figura 3.2. Proceso de edición en alta resolución ____________________________ 79
Figura 3.3a. AirPlay 1 o canal A del NewsQPro______________________________ 82
Figura 3.3b. AirPlay 2 o canal B del NewsQPro______________________________ 82
Figura 3.4. Pantalla de trabajo del NewsQPro _______________________________ 84
Figura 3.5. Pantalla del Housekeeper _____________________________________ 85
Figura 3.6. Conexión entre la red de edición digital y la red administrativa ________ 87
Figura 3.7. Pantalla de presentación Lite Edit _______________________________ 91
Figura 3.8. Sistema de edición no lineal (digital) _____________________________ 92
Figura 3.9. Esquema básico de la Red de edición digital_______________________ 95
Figura 3.10. Comunicación entre la red de edición y la red administrativa _________ 97
Figura 3.11. Esquema de la Red de Edición digital tomando en cuenta los recursos
de la estación _____________________________________________ 98
Figura 3.12. Conexiones entre equipos ___________________________________ 102
XII
Figura 3.13. Entrada de canales de video a la matriz y al switcher ______________ 103
Figura 3.14. Entrada de canales de audio a la matriz y hacia sonido ____________ 103
Figura 3.15. Esquema final de la red de edición digital _______________________ 105
Figura 3.16. Distribución de los equipos en el área de Ingeniería ______________ 109
Figura 3.17. Equipo KVM. _____________________________________________ 110
Figura 3.18. Estaciones plegables de trabajo ______________________________ 111
Figura 3.19. Configuración NetTime para usuarios red administrativa ___________ 116
Figura 3.20. Configuración NetTime 2.0 para los servidores ___________________ 117
Figura 4.1. Gráfico de barras del Gasto anual de la Transición Propuesta ________ 146
XIII
ÍNDICE DE TABLAS
Tabla 1.1. Asignaciones de frecuencia para los canales de televisión ___________ 9
Tabla 1.2. Clases de direcciones IP ____________________________________ 41
Tabla 1.3. Clases de direcciones IP y sus rangos __________________________ 41
Tabla 2.1. IPs públicas del canal de televisión ____________________________ 68
Tabla 3.1. Redes que componen el nuevo sistema de edición ________________ 106
Tabla 4.1. Tipos de cassettes Betacam producidos por Sony _________________ 138
Tabla 4.2. Tipos de cassettes DVCPro producidos por Maxwell _______________ 139
Tabla 4.3. Costos del sistema de edición digital __________________________ 142
Tabla 4.4. Gasto anual de la transición propuesta _________________________ 145
Tabla 4.5. Comparación de Costos operativos y Cálculo de Recuperación de la
Inversión ______________________________________________ 147
XIV
ABREVIATURAS
AAF
Advanced Authoring Format
Formato de Creación Avanzada
ACATS
Advisory Comittee on Advanced Television Services
Comité Consultivo de Servicios de Televisión Avanzada
AC3
Audio de 3 Canales
AGP
Accelerated Graphics Port
Puerto para Aceleradores de Graficos
ARPA
Advanced Research Projects Agency
Agencia de Programas Avanzados de Investigación
ATV
Advanced TV
Televisión Avanzada
BBC
British Broadcasting Corporation
Corporación Británica de Multidifusión
CBS
Columbia Broadcasting System
Sistema de Multidifusión de Columbia
CCIR
Consultative Comitte for International Radiocommunications
Comité Consultivo Internacional de Radiocomunicaciones
CVBS
Composite Video Burst Sync
Video Compuesto Sincronizado
XV
DCT
Discrete Cosine Transform
Transformada Discreta del Coseno
DVE
Digital Video Efect
Efecto de Video Digital
EDL
Edit Decision List
Lista de Desiciones para Editar
FCC
Federal Communication Commission
Comisión General de Telecomunicaciones
FTP
File Transfer Protocol
Protocolo de Transferencia de Archivos
GOP
Group of Pictures
Grupo de Imagines
GXF
General Exchange Format
Formato General para Intercambio
HIGH RES
Alta Resolución
HTTP
Hypertext Transfer Protocol
Protocolo de Transferencia de Hipertexto
IP
Internet Protocol
Protocolo de Internet
ISO
International Organization for Standarization
Organización Internacional para la Estandarización
XVI
ISS
Image Support Server
Servidor de Soporte de Imágenes
ITU
International Organization for Standarization
Unión Internacional de Telecomunicación
JPEG
Joint Photographic Experts Group
Formato del Grupo de Expertos en Fotografía
JVC
Japan Victor Company
Compañía Japonesa Victor
KVM
Keyboard-Video-Mouse
Ratón-Video-teclado
LAN
Local Area Network
Red de Área Local
LOW RES
Low Resolution
Baja Resolución
MIB
Management Information Base
Base de Gestión de la Información
MPEG
Motion Picture Experts Group
Grupo de Expertos en Imagines en Movimiento
MUSE
Multiple SubNyquist Sampling Encoding
Codificador con Muestreo Múltiple Sub-Nyquist
MXF
Media Exchange Format
Formato de Intercambio de Medios
XVII
NAS
Network Attached Storage
Almacenamiento adjunto a la Red
NBC
National Broadcasting Company
Compañía de Multidifusión Nacional
NHK
Nippon Hoso Kyokoi
Corporación Japonesa de Multidifusión
NTSC
National Televisión System Comitte
Comité Nacional del Sistema de Televisión
PAL
Phase Alternating Line
Linea Alternada en Fase
RAID
Redundant Array of Independent Disks
Arreglo de Discos Redundantes e Independientes
RGB
Red Green Blue
Rojo Verde Azul
RO
Read Only
Solo Lectura
SECAM
Sequentiel Couleur Memoire
Color Secuencial con Memoria
SMB
Session Message Block
Bloque de Sesión de Mensajes
SMPTE
Society of Motion Picture and Television Engineers
Sociedad de Ingeniería en Imágenes en Movimiento y
Televisión
XVIII
SMTP
Simple Mail Transfer Protocol
Protocolo Simple de Transferencia de Correo electrónico
SNMP
Simple Network Management Protocol
Protocolo Simple de Gestión de Red
SSH
Secure Shell
Entorno seguro
TCP
Transmission Control Protocol
Protocolo de Control de Transmisión
UDP
User Datagram Protocol
UTP
Unshielded Twisted Pair
Par trenzado sin capa protectora
VHS
Video Home System
Sistema de Video para el Hogar
VLC
Codification of Variable Length
Codificación de Longitud Variable
VTR
Video Tape Recorder
Grabadora Cintas de Video
WAN
Wide Area Network
Red de Área Amplia
WR
Write Only
Solo Escritura
XIX
WWW
World Wide Web
Red de Cobertura Mundial
XRE
Xul Runtime Environment
XX
INTRODUCCIÓN
El presente proyecto es una necesidad en la evolución a una televisión
completamente digital. Como ya conocemos, esta evolución tiene como
objetivos mejorar la calidad de la imagen que va a ser proyectada al
telespectador, y permitir que se pueda entregar un producto interactivo.
Actualmente las señales que se manejan en el interior de la mayoría de
estaciones de televisión nacionales son analógicas, al igual que su sistema
de transmisión; es por esto que se ha decidido presentar este sistema capaz
de interactuar con los equipos analógicos que comúnmente encontramos en
nuestro medio, pero que permite digitalizar las señales para así poder
procesarlas,
almacenarlas,
enrutarlas,
compartirlas
y
principalmente
editarlas.
Hay que recalcar que el proyecto es un paso para seguir el curso de la
tecnología mundial, ya que a pesar de que no especifica un modelo de
transmisión digital, deja listas la señales de la estación para que en un futuro
en que las entidades reguladoras de nuestro país especifiquen los modelos a
seguir, las estaciones estén preparadas para entregar información digital a
los nuevos sistemas de transmisión.
CAPITULO I
FUNDAMENTOS TEORICOS
1.1. CONCEPTOS BÁSICOS DE TELEVISIÓN
Actualmente la televisión en nuestro país como en algunos otros países del
mundo está basada en un sistema analógico. Esto implica que las señales de
video y audio, tal como son generadas en la estación de origen, se propagan por
el aire mediante ondas de radio para que sean recibidas por los usuarios.
En el caso de la televisión digital estas señales de video y audio son
digitalizadas y de esta forma pueden ser comprimidas. Gracias a esta
compresión, el transporte de las señales hasta el usuario final (el telespectador),
se puede realizar en forma digital.
Las estaciones de televisión analógica también manejan señales digitales, sin
embargo utilizan convertidores y compresores para procesarlas y luego ser
transmitirlas analógicamente.
En este capítulo se verá el desarrollo de la televisión a lo largo de la historia y el
significado de edición digital conocida como edición no lineal, que es el tema
sobre el cual se desarrollara en este proyecto.
1.1.1. BREVE HITORIA DE LA TV
Las primeras emisiones públicas de televisión las efectuó la BBC en
Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930.
Inicialmente se realizaban transmisiones sin un horario establecido y sin
una programación fija. Por el año de 1936 en Inglaterra empezaron las
transmisiones con horarios prefijados.
Un importante avance técnico registrado fue la incorporación del color a
las transmisiones televisivas. Las grandes compañías estadounidenses
fueron las primeras en proponer un sistema de televisión color: el NTSC
(Comité del Sistema de Televisión Nacional o National Televisíon System
Comitee). Con la aprobación de la FCC (Comisión Federal de las
Comunicaciones), EEUU se convirtió en 1953, en el primer país en contar
con televisión color. Hoy el NTSC está en funcionamiento en muchos
países incluido el Ecuador.
Posteriormente
en
Europa
se
puso
en
marcha
una
serie
de
investigaciones para perfeccionar el sistema estadounidense. Los
resultados de éstas dieron lugar a dos sistemas de televisión color. En
1959, el Gobierno Francés puso en marcha un sistema denominado
SECAM (Sequential Couleur Mémoire o Memoria de Color Secuencial);
mientras que en Alemania se desarrolló el sistema PAL (Phase Alternate
Line o Línea Alternada en Fase) en 1963. Actualmente el sistema PAL es
utilizado en los principales países europeos occidentales y el SECAM se
ha impuesto en los países del Este, en numerosos países del cercano
Oriente, en algunos países de América Latina y en los países Africanos
de habla francesa.
Hacia los comienzos de la década del 70 la empresa japonesa NHK
(Nippon Hoso Kyokai o Corporación Japonesa de Multidifusión) comenzó
con estudios encaminados a permitir transmisiones de imágenes de alta
definición con calidad similar a la del cine.
El grupo de trabajo de esta empresa demostró en público sus avances en
la conferencia de la SMPTE (Society of Motion Picture and Television
Engineers o Sociedad de Ingenieros en Imágenes en Movimiento y
Televisión) en San Francisco en Febrero de 1981. Para 1984 presentó un
sistema de transmisión de alta definición analógica llamado MUSE
(Codificador con Muestreo Sub-Nyquist Múltiple), el cual se echó al aire a
comienzos de 1987 utilizando un ancho de banda de 12 MHz.
Ante estos acontecimientos, varias instituciones norteamericanas por
medio del ACATS (Advisory Committee on Advanced Television Service o
Comité Consultivo de Servicios de Televisión Avanzada) solicitaron a la
NHK que desarrollara un sistema que solo ocupara un ancho de banda de
6 MHz., o sea un canal normal de televisión, y el resultado fue la
aparición del Codificador con Muestreo Sub-Nyquist Múltiple Angosto
(Narrow MUSE).
La ACATS llevó a cabo un panel especial entre el 8 y el 11 de Febrero de
1993 donde se tomaron varias decisiones, tal vez la más importante fue la
conclusión de que la nueva televisión no podía ser analógica, pues el
Narrow MUSE había demostrado que era posible mejorar la calidad de la
imagen entregada utilizando el mismo ancho de banda ( 6MHz ) que
utilizan los sistemas analógicos. En este panel se decidió continuar con el
desarrollo de tecnologías apartados del sistema nipón. Sin embargo la
NKH continuó contribuyendo en el desarrollo del sistema de televisión
digital norteamericano ATV (Televisión Avanzada o Advanced TV) y su
predecesor HDTV (Televisión de Alta Definición o High definition TV ).
En la actualidad los canales de televisión en el Ecuador se encuentran en
un proceso de migración por lo que tienen instalaciones hibridas, ya que
sus equipos procesan señales digitales y trabajan con ellas para
finalmente transmitir señales analógicas que son las que los televisores
convencionales procesan en nuestros hogares.
Aunque en algunas partes del mundo este proceso de cambio se está
agilitando en el Ecuador es aun bastante prematuro pensar en estaciones
de televisión totalmente digitales.
1.1.2. LA SEÑAL TELEVISIVA
El sistema de televisión en color utiliza la misma señal de la televisión
monocromática y envía la información del color por separado. Esto se
realiza considerando la información de imágenes en términos de dos tipos
de señales: brillo y color.
El sistema televisivo en blanco y negro transforma los colores naturales
en varias degradaciones de gris según un determinado código.
El tratamiento televisivo del color descompone cada color natural en tres
colores: Rojo, Verde y Azul RGB por sus siglas en Ingles (Red, Green,
Blue); esto lo realizan las cámaras mediante un juego de espejos que se
conocen como dicroicos. Los monitores reconstruyen los colores
naturales mediante la combinación de los colores primarios.
La señal de brillo es también conocida como luminancia (Y). Esta señal
está compuesta por los tres colores anteriormente mencionados y
representa brillantez de la imagen. Como ya se indicó, con la transmisión
de esta señal se pueden enviar imágenes sin color.
La fórmula para obtener la luminancia Y se indica a continuación:
Y = 0.2990 R + 0.5870 V + 0.1140 A
Donde los valores se expresan en unidades llamadas Lumen. Para dar
una idea, hablando solo de los colores blanco y negro, 1 Lumen
corresponde al blanco y 0.11 corresponde al negro, pasando por una
escala de grises como valores intermedios.
Valiéndose de la señal de luminancia, el CCRI estandarizó una forma de
representación de señales denominada CCRI 601 también conocida
como YCbCr. En este estándar a más de la luminancia, se especifican
dos componentes más para representar el color:
Cb = 0.1687 R – 0.3313 V + 0.5000 A
Cr = 0.5000 R – 0.4187 V – 0.0813 A
Con este estándar se permite que la misma señal pueda ser proyectada
tanto por un televisor a colores (utilizando las tres señales) como en uno
de blanco y negro (valiéndose solo de la luminancia).
Asignaciones de frecuencia para los canales de televisión
Mundialmente la banda utilizada para televisión va desde los 54MHz
hasta los 890 MHz. Cada canal tiene 6 MHz de ancho de banda como lo
muestra la tabla 1.1.
CANALES
FRECUENCIAS
Del 2 al 6
54 hasta 88MHz
Del 7 al 13
174 hasta 216MHz
Del 14 al 20
470 hasta 512MHz
Del 21 al 25
512 hasta 542MHz
Del 26 al 30
542 hasta 572MHz
Del 31 al 35
572 hasta 602MHz
Del 36 al 40
602 a 632MHz
Del 41 al 45
632 a 662MHz
Del 46 al 50
662 a 692MHz
Del 51 al 55
692 a 722MHz
Del 56 al 60
722 a 752MHz
Del 61 al 65
752 a 782MHz
Del 66 al 69
782 a 806MHz
Del 70 al 83
806 a 890MHz (usada también
para radio)
Tabla 1.1. Asignaciones de frecuencia para los canales de televisión
1.1.3. FUNDAMENTOS DEL SISTEMA NTSC
En 1953 se establecieron las bases para la transmisión de señales de
televisión, buscando así que se masifique este servicio. A este conjunto
de normas se las denominó NTSC.
Se especificó que la transmisión de luminancia se debe limitar al mismo
espectro que sé venia empleando para transmisiones en blanco y negro.
Ya estaban definidos los canales de 6MHz cada uno, por lo que el nuevo
servicio debía hacer uso de estos canales ya establecidos.
Además de la luminancia se debían trasmitir otras dos señales de color.
Ya se conocía bien la teoría de los 3 colores (YCbCr), y estaban
convencidos que eran 3 señales las que se debían trasmitir. Por
compatibilidad, una de estas señales debía ser obligatoriamente Y,
quedaba por definir las otras 2. Se decidió enviar junto con la señal Y, a
las señales (R-Y) y (B-Y). Estas 2 señales se llamaron diferencia al rojo y
diferencia al azul y son las componentes de la señal de crominancia.
Se representó gráficamente un circulo cromático (Figura 1.1) con un
sistema de ejes cartesianos en el cual se grafica la crominancia de cada
color. Como se puede ver en la gráfica los colores varían con el ángulo y
la intensidad varía con la magnitud del radio. En el sistema NTSC los
colores se representan por sus coordenadas cartesianas, es decir por la
diferencia al azul (B-Y) y la diferencia al rojo (R-Y).
Figura 1.1. Circulo de color
Quedó especificado que la transmisión de las señales de crominancia
deben realizarse dentro del mismo canal de 6 MHz, compartiendo banda
con el espectro de luminancia sin perturbarlo, o en su defecto,
perturbando lo menos posible al primero. Para lograr este objetivo se
realizaron estudios ópticos, concluyéndose que el ancho de banda de la
crominancia debía ser menor que el de luminancia.
Para conseguir agregar el espectro de la crominancia era necesario
modular las señales de diferencia de color con una portadora que se
denominó subportadora de color y la modulación se la realizó en amplitud
y fase. Se ubico la subportadora donde la luminancia dejaba huecos sin
energía. Así se eligió un valor de frecuencia de 3.579545MHz.
Figura 1.2. Espectro de frecuencia de un canal NTSC
El sistema NTSC es el que se emplea en nuestro país y se diferencia de
los otros principalmente por el número de líneas horizontales en los que
se divide la imagen para su procesamiento. A continuación se presentan
los sistemas de TV analógicos con sus respectivos números de líneas
-PAL
(Amarillo)
625 Líneas
Europa, Brasil,
-NTSC
(Verde)
525 Líneas
Iberoamérica, USA, China
-SECAM
(Naranja)
625 Líneas
Francia, Marruecos.
Figura 1.3. Distribución de sistemas de TV en el mundo
1.1.4. SISTEMA DE ENTREGA Y TRANSPORTE DE LA SEÑAL DE
VIDEO (EMISIÓN / GRABACIÓN)
Los principales sistemas de emisión y grabación de video son:
a) CVBS o video compuesto
b) Super Video
c) Componentes
d) RGB (Rojo, Verde y Azul o Red, Green, Blue)
a) CVBS (Video Compuesto de Máximo Sincronismo o Composite
Video Burst Sync): El nombre viene dado porque entrega las señales de
Luminancia y Crominancia como una señal compuesta, por lo que emplea
un solo cable coaxial. Es la forma mas pobre de transmisión de la señal.
Este sistema es utilizado por los VHSs caseros. La señal debe tener un
código común con el sistema de TV.
b) Super Video: Entrega la señal separando la de Luminancia de la de
Crominancia lo que permite mayor grado de resolución que el anterior,
por lo que utiliza 2 cables coaxiales. (Sistemas Hi:8, SVHS) Precisa de un
código común con los sistemas de TV que se van a utilizar.
c) Componentes: Separa las señales de Luminancia y las dos de
Crominancia por vías diferentes, por lo que se transmite por 3 cables
coaxiales. La mayor parte de los equipos profesionales emplean este
sistema. Al no transportar información de Crominancia de manera directa,
no necesita codificación.
Tiene cross-color (pérdida de imagen por la presencia de la Crominancia)
y cross-luminance (Pérdida de matices de color por la presencia de la
Luminancia).
d) RGB: No entrega la señal en términos de Luminancia y Crominancia,
sino como una combinación de rojo, verde y azul. Presenta mayor calidad
pero tiene problemas de sincronización entre las diferentes señales. Por
eso cuando hace edición lineal (analógica) no se lo utiliza (Se prefiere el
video componente). No necesita codificación. Se utiliza con monitores de
tratamiento de imagen o generadores de caracteres.
1.1.5. FORMATOS DE VIDEO
Los formatos analógicos graban la señal a través de una onda, mientras
que los digitales graban con códigos de 0 y 1. A continuación se presenta
una descripción de los formatos analógicos y digitales existentes en el
mercado.
a) Analógicos:
Formato Betacam
Formato S.VHS
Formato ¾ (U-matic)
Formato 8mm
Formato Hi 8
Formato VHS
Figura 1.4. Cassettes con formatos de video analógicos
8mm: (Cámara domestica) El formato de 8 mm. Nace a raíz de una
propuesta hecha por parte de Sony, Hitachi, Matsushita, JVC y Philips a
principios de 1982, para la estandarización del formato domestico de
vídeo. Su nombre el viene del ancho que usan las cintas de este formato,
o sea 8 milímetros.
La principal ventaja radica en que consigue introducir gran cantidad de
información con una calidad aceptable, en un espacio físico muy
reducido. El problema de este formato es la calidad del audio.
Hi 8: Tiene mejor calidad de Crominancia y de audio que el 8mm, pero
guarda demasiada información en un espacio pequeño, por lo que se
presentan demasiados saltos causados por pérdidas de sincronismo.
VHS (Sistema de Vídeo Casero o Vídeo Home System): Es un
estándar de la industria aunque tiene una calidad inferior a la del Hi8. Las
características básicas del sistema VHS son similares al formato Beta.
Posee una cinta de media pulgada. Las principales diferencias son en el
modo de realizar el enhebrado y en la forma de proteger la Crominancia.
Graba la señal en video compuesto.
Super VHS: Incorpora nuevas mejoras al sistema VHS, convirtiéndose en
un formato industrial de muy alta implantación en el mercado. Entre sus
principales diferencias están el cambio de las frecuencias de modulación
para permitir un mayor ancho de banda. Con lo cual se consigue tener
casi 400 líneas de resolución frente a las 270 del VHS estándar. Separa
la señal de Luminancia de la Crominancia. La calidad de audio es baja,
porque la cinta pasa despacio y al no haber mucho espacio entre las
pistas, la calidad no es muy buena.
U-MATIC: es un formato introducido por Sony a principios de los setenta,
presenta una cinta de ancho de ¾ de pulgada, guardada en un cartucho.
Este formato fue el introductor de este sistema en el mundo profesional,
ya que hasta su introducción los demás usaban cinta en bobina abierta.
Usa grabación helicoidal, y subportadora de color corregida.
BETACAM: En este formato la Luminacia y la Crominancia se graban en
pistas separadas. Además la Crominancia se divide en sus componentes
R-Y y B-Y para su grabación; es por ello que se puede decir que este
formato realiza la grabación en componentes.
Para poder grabar las dos componentes de diferencia de color en la
misma pista este formato recurre a comprimir las dos líneas en una sola
para poder grabar la información de color en una pista única. Las señales
de diferencia de color se filtran con anterioridad para dejar su ancho de
banda en 1.5 Mhz ( 3 Mhz en total ). La alta calidad de este formato se ve
claramente en el gran ancho de banda que usa para el color y el blanco y
negro ( 6 MHz ). Con posterioridad ha salido al mercado una versión de
este formato denominada Betacam SP (Superior Performance) que es el
más usado hoy en día. A finales de 1994 salió una versión que graba en
formato digital en componentes según la norma CCIR 601 de grabación
digital en formato 4:2:2; y usa una compresión de 2 a 1.
b) Digitales:
En el año 1986 Sony presenta el primer magnetoscopio que es capaz de
grabar en formato digital. Este formato recibió el nombre de D1 y la
primera maquina fabricada DVR-1000. Este formato de vídeo es capaz de
grabar la señal de vídeo digital en componentes según la norma 601 del
CCIR (Comité Consultivo Internacional de Radiocomunicación) sobre
televisión digital en formato 4:2:2. Posee 4 canales de audio de alta
calidad grabados digitalmente. Usa cinta en formato de cassette y puede
registrar hasta 90 minutos.
En una escala de calidad estos magnetoscopios se sitúan claramente por
encima de los equipos analógicos. En este caso al ser un formato digital
no se presentan los problemas que tenían otros formatos analógicos
segmentados. Ello es debido a que al ser la señal digital se puede
reconstruir con bastante facilidad y si se presentan pequeños errores de
lectura pueden ser compensados por medio de una circuitería específica.
Figura 1.5. Cassettes de formatos digitales
Con posterioridad a la salida del formato D1 aparecieron en el mercado
otros formatos de grabación digital entre ellos el D2 y D3 que realizan la
grabación en digital pero de la señal en compuesto, muestreando esta a 4
veces la frecuencia de la portadora de color. Por último como ya hemos
comentado ha aparecido en el mercado un formato que graba en
componentes digitales, el Betacam digital, que usa compresión 2:1 y que
es muy utilizado en la industria por ser poco voluminoso, trabajar en
componentes, y poseer cierta compatibilidad con el formato Betacam SP.
Los siguientes formatos ya están siendo utilizados:
Betacam digital:4:2:2
DVC Pro 50:4:2:2
Digitals 4:2:2
DVC-PRO:4:1:1
DVCAM:4:2:0
BETACAM SX:4:2:2
D-VHS:4:2:0
MiniDV4:2:0
1.1.6. SISTEMAS DE EDICIÓN
Todos los formatos descritos anteriormente son usados para almacenar
información. En los canales de televisión se usan los profesionales como
Betacam y DVCPro, siendo analógico y digital respectivamente, esto se
debe a la migración que se esta dando hacia formatos totalmente
digitales.
La información almacenada es tratada con mucho cuidado en sistemas
de edición para tener como resultado final todo tipo de efectos gráficos en
la pantalla de los hogares. La edición lineal (analógica) es bien conocida
por cualquier editor experimentado y es lo que se utiliza actualmente en
muchos canales de televisión, pero poco a poco será remplazada por la
edición no lineal (digital) debido a las gigantescas ventajas que posee.
1.1.6.1. Edición Lineal (Analógica)
Los sistemas de edición lineal se fundamentan en hardware como lo
muestra la Figura 1.6. y requieren que las ediciones se hagan de una
forma lineal en la variable tiempo, es decir en secuencia. En un
proyecto típico esto significa que se debe avanzar escena por
escena.
Figura 1.6. Editora lineal (Analógica)
Esto implica que el material debe estar muy bien organizado antes de
comenzar (si se quiere un resultado bien organizado), porque una vez
que está grabada la cinta con el proyecto, los cambios son muy
complicados de hacer. Como se verá, la edición no lineal (digital) es
más parecida a escribir con un poderoso procesador de palabras.
El concepto detrás de la edición analógica es sencillo: una o más
cintas con el material original se transfieren segmento por segmento a
otra cinta en otro grabador. En el proceso, los segmentos originales
pueden ser acortados o reacomodados en otro orden, se eliminan las
tomas malas y se pueden agregar efectos de audio y video.
Las máquinas fuentes contienen el material original, el equipo
grabador editor es manejado por un controlador editor y se utiliza
para controlar todas las máquinas y completar la secuencia final.
El operador que edita, utiliza el controlador de edición para mover la
cintas de uno a otro lado y así encontrar el inicio (y posiblemente el
final) de cada segmento seleccionado. Estos puntos de referencia
ingresan al procesador del equipo editor como marcas de secuencia o
time code. Entonces el controlador de edición se encarga
automáticamente de ubicar estos puntos, rodar las tomas y hacer
cada edición individual.
En los sistemas más sencillos los puntos de entrada y salida se
referencian por unos pulsos grabados en la cinta (30 por segundo en
video NTSC). El método de edición que referencia las entradas y
salidas a la cuenta de los pulsos que marcan secuencias se llama
Edición por Control Track.
La Edición por Control Track tiene una limitación: exige que el equipo
haga un conteo de millares de marcas de secuencia. Por razones
mecánicas esto es sumamente difícil. Durante la edición las cintas
están en constante movimiento hacia adelante y hacia atrás a
diferentes velocidades. Si el equipo pierde la cuenta apenas por una
fracción de segundo el punto de edición se correrá por uno o más
cuadros y dañará lo que de otra forma hubiese sido una edición
perfecta.
Los editores experimentados saben mirar el contador de pulsos a
medida que mueven la cinta. Si el contador se congela por un
instante, significa que el equipo ha perdido la cuenta de los pulsos de
control. Los problemas se reducen a cintas de video defectuosas o
problemas con las marcas de secuencia ya grabadas.
Tipos de edición lineal (Analógica)
Hay dos tipos de edición que puede hacerse en un sistema lineal:
a) Edición por ensamblaje: Se edita toda la información de video y
audio, además de sus respectivas marcas de secuencia en la nueva
cinta de grabación.
Como ya se afirmó, las marcas de secuencia son difíciles de grabar
sin problemas de precisión en cada punto de edición. Cualquier error
temporal resulta en un salto (conocido como glitch) en las secuencias
de video. Por ello, el método de edición por ensamblaje no es de
mucha utilidad. Apenas tiene sentido cuando hay que ensamblar muy
rápidamente una secuencia.
b) Edición por inserción: Requiere un paso previo adicional a la
edición por ensamblaje. Primero se graban marcas de secuencia en
toda la cinta que va a utilizar, y luego se procede a ensamblar el
proyecto tomando las tomas de cada entrada.
1.1.6.2. Edición no lineal (Digital)
La edición no lineal (también llamada de acceso aleatorio) es algo así
como trabajar con un procesador de palabras muy sofisticado;
permite insertar segmentos, eliminarlos, y cambiarlos de posición en
cualquier momento durante la edición.
Figura 1.7. Timeline o línea de tiempo donde se edita
En la edición no lineal (digital) los segmentos originales de video se
transfieren
digitalmente
al
disco
duro
de
un
computador
(digitalización) antes de comenzar a editar. Una vez que se han
convertido en información digital el sistema de edición los puede
ubicar y presentar en cualquier orden, instantáneamente.
Durante la edición digital puede agregarse una cantidad considerable
de efectos especiales así como títulos y corrección de color por
escena.
También puede mejorarse el sonido durante la edición con filtros y
efectos sonoros diversos. En algunos sistemas es posible hasta
comprimir y expandir la longitud del audio y el video.
La mayoría de los editores no lineales utilizan una o más líneas de
tiempo (time line) para representar la secuencia de edición. Desde
una PC, con un mouse, se puede seleccionar y mover los distintos
elementos de audio y video, transiciones, efectos especiales, etc., en
la línea de tiempo. Ensamblar un proyecto es tan sencillo como
seleccionar y mover los distintos elementos en la pantalla del
computador.
En la edición digital los segmentos de video y audio no quedan
grabados permanentemente, como en la edición analógica. Las
decisiones de edición existen en la memoria del computador como
una serie de punteros que dicen dónde ubicar la información en
cuestión en el disco. Ello implica que uno puede revisar la edición y
modificarla en cualquier momento del proceso. También significa que
se puede fácilmente experimentar con alternativas de audio y video
para evaluarlas.
El producto final puede ser obtenido de dos maneras. Puede ser
"impreso" (grabado) directamente en la cinta desde el editor no lineal
(digital), o puede ser transferido guardado en disco para ser utilizado
más adelante. Este último método es el que usualmente se utiliza
para los reportajes de noticieros.
1.1.6.2.1. Ventajas e inconvenientes de la
videoedición digital
Ventajas
Es probable que haya suficientes razones para entender por
qué los sistemas de edición no lineales se consideran
fundamentales de cara al futuro y en el presente más
inmediato. Muchas de las ventajas cuando se utilizan este tipo
de sistemas son por ejemplo, la creatividad, efectividad y
flexibilidad para probar diferentes formas de montar una
escena.
La principal ventaja de la edición no lineal (digital) es que no
existe una estructura durante la primera y más importante
etapa en la que se pretende dar sentido a todo el material. No
existe estructura hasta que el editor tiene en su mente lo que
quiere, para esto se necesita que la estructura se pueda
cambiar hasta el último momento. Con ello se podría obtener el
mejor montaje posible. De esta forma habrá que olvidar la vieja
concepción de empezar por el principio, porque la edición
digital permite comenzar o cambiar cualquier parte del material
lo que supone un montaje del material mucho más sencillo.
Otro aspecto a resaltar es que todo se puede cambiar. Debido
al concepto de grabación virtual y las funciones de deshacer de
los sistemas de edición digital, se pueden probar múltiples
opciones, haciendo y deshaciendo diferentes pruebas. Se
tratan las ideas, probando los clips en diferentes posiciones,
modificando el espacio que ocupan e intentando depurar la
secuencia según se va completando.
Por otro lado en la edición tradicional se da la dificultad de
encontrar el punto exacto de entrada en el que se tienen que
cortar las diferentes tomas. Por el contrario, las entradas
utilizadas en la edición no lineal (digital) son muy sencillas y se
pueden ajustar con suma facilidad. La edición digital significa
que no hay una necesidad urgente de solicitar una estructura
para la secuencia. La modificación del montaje se convierte en
un proceso natural en la elaboración de la obra audiovisual.
Con todo esto se asume que la razón por la que se trabaja con
sistemas no lineales, es la facilidad para que surjan las ideas.
Quizás la mayor ventaja de la edición no lineal (digital) es que
el concepto de grabación virtual posibilita la obtención de
múltiples versiones. La edición por este tipo de sistemas
supone que la estructura de las obras que se realizan, pueden
evolucionar según se trabaja. Esto permite trabajar con
pequeños trozos y reordenarlos para crear la verdadera
estructura de la obra.
La velocidad, el tiempo que se tarda en probar algo, es mucho
menor.
A nivel de resultado, el editor podrá comunicarse mucho más
fácilmente con el cliente. Así los productores se beneficiarán
del ahorro de costos.
No hay que olvidar que una vez digitalizadas las imágenes,
pueden ser manipuladas sin pérdida perceptible de calidad.
Si nos acercamos a la perspectiva profesional, una ventaja que
no suele admitirse, es que la edición digital es más divertida,
rápida e interactiva, lo que supone un mayor disfrute del
profesional, consiguiéndose un resultado más productivo y
visiblemente mejor. Así se reduce el estrés y la frustración que
siempre acompaña a la edición tradicional, de forma que se
puede prestar más atención al objetivo real de hacer el mejor
trabajo.
De todas estas ventajas se beneficia no solo la TV sino la
publicidad y el cine. Además cada día es más sencillo editar
películas de forma casera con equipos sencillos, por ejemplo el
programa Microsoft Movie Maker, presente en las últimas
versiones del sistema operativo Windows.
Desventajas
El trabajar con información electrónica supone la posibilidad de
que se pueda perder dicha información, por una caída de
tensión por ejemplo, así como por cualquier daño que sufra el
disco duro en el que se encuentra almacenada.
Las únicas barreras en principio son las económicas. Si bien el
almacenamiento
digital
puede
competir
con
las
cintas
magnéticas, los equipos que giran en torno al procesamiento
de las señales, representan costos que deberán seguir bajando
para hacerse asequibles.
1.2. REDES TCP/IP
En la actualidad la mayoría de las redes utilizan la pila de protocolos TCP/IP.
Debido a esto, se ha tratado de manipular la mayor cantidad de tipos de datos
para poder ser transportados por estas redes. En este subcapítulo se
describirán los conceptos básicos de esta tecnología.
El Protocolo de Internet (IP) y el Protocolo de Control de Transporte (TCP),
fueron desarrollados en 1973 por el informático estadounidense Vinton Cerf
como parte de un proyecto dirigido por el ingeniero norteamericano Robert Kahn
y patrocinado por ARPA, (Agencia de Programas Avanzados de Investigación)
del Departamento de Defensa de los Estados Unidos.
Como producto de este proyecto, se desarrolló una red llamada ARPAnet que
conectaba redes de ordenadores de varias universidades y laboratorios de
investigación en Estados Unidos. Con el pasar de los años esta red tomaría un
enfoque más comercial y se convertiría en lo que hoy conocemos como Internet.
El desarrollo de varias aplicaciones como por ejemplo la Red de Cobertura
Mundial o World Wide Web www, desarrollada en 1989 por el informático
británico Timothy Berners-Lee, popularizaron al Internet, pero siempre teniendo
como estándar una arquitectura de cuatro capas en las que se encontraban los
protocolos TCP/IP.
1.2.1. ARQUITECTURA TCP/IP
En la actualidad la arquitectura TCP/IP es utilizada por todos los
ordenadores conectados a Internet, de manera que éstos puedan
comunicarse entre sí.
Hay que tener en cuenta que en Internet se encuentran conectados
ordenadores de clases muy diferentes y con hardware y software
incompatibles en muchos casos, además de todos los medios y formas
posibles de conexión. Aquí se encuentra una de las grandes ventajas del
TCP/IP, pues este protocolo se encargará de que la comunicación entre
todos sea posible. TCP/IP es compatible con cualquier sistema operativo
y con cualquier tipo de hardware.
Figura 1.8. Modelo TCP/IP
Como se muestra en la figura 2.1, TCP/IP es una arquitectura de
comunicación de datos basada en cuatro capas:
a) Aplicación
b) Transporte
c) Red
d) Acceso a red.
a) Aplicación: Aquí se incluyen protocolos destinados a proporcionar
servicios directamente al usuario, tales como correo electrónico (SMTP),
transferencia de archivos (FTP), conexión remota (TELNET) y HTTP
(Protocolo de Transferencia de Hipertexto o Hypertext Transfer Protocol).
b) Transporte: Originalmente utilizaba únicamente el protocolo TCP (De
ahí el nombre de la arquitectura), pero luego se incluyó al protocolo UDP
(User Datagram Protocol). La diferencia entre ambos es que TCP
mantiene una conexión lógica entre fuente y destino mientras dure la
aplicación que la requiera y luego de esto libera los recursos; mientras
que UDP no mantiene ninguna conexión, simplemente envía los paquetes
de la capa de aplicación según vayan llegando a la capa de transporte.
Los protocolos
TCP y UDP, se encargan de manejar los datos y
proporcionar la fiabilidad necesaria en el transporte de los mismos.
c) Red: Esta capa es también conocida como Internet, ya que el
protocolo que utiliza es el IP (Internet Protocol). La capa de red se
encarga de direccionar los paquetes de información a sus destinos
correspondientes, es utilizado con esta finalidad por los protocolos del
nivel de transporte.
Para cumplir con su objetivo, IP emplea un sistema de direccionamiento
basado en cuatro octetos de bits separados por un punto. Estos cuatro
octetos representados en números decimales derivan en direcciones
formadas por cuatro números que van de 0 a 255.
d) Acceso a red: Esta capa es la encargada del acceso al medio de
transmisión y las propiedades de las señales físicas que viajan
representando la información.
Esta capa no tiene restricción alguna, pero en la actualidad, uno de los
estándares que más se utiliza en cuanto al acceso al medio es el IEEE
802.3 conocido como Ethernet.
1.2.2. DIRECCIONAMIENTO IP
La dirección IP identifica la localización de un sistema en la red, y como
es de imaginarse, es única. Cada dirección IP tiene dos partes. Una de
ellas identifica a la red y la otra identifica al terminal dentro de esa red.
Todas las maquinas que pertenecen a la misma red requieren el mismo
numero de red.
El número de terminal, identifica a una estación de trabajo, un servidor,
un ruteador o cualquier otro equipo TCP/IP dentro de la red. El número de
terminal o host debe ser único en cada red.
Clases de direcciones IP
La comunidad Internet ha definido 5 clases de direcciones, identificadas
con las primeras letras del alfabeto, para poder acomodar redes de
diferentes tamaños.
Estas clases definen cuantos bits son usados para identificar a las redes
y cuantos son usados para identificar a los terminales dentro de cada red.
Hay que recordar que por ser un número de 32 bits, teóricamente podrían
existir 232 direcciones IP diferentes.
Clase
Dirección IP
ID de Red
ID de Terminal
A
w.x.y.z
w
x.y.z
B
w.x.y.z
w.x
y.z
C
w.x.y.z
w.x.y
z
D
w.x.y.z
w.x.y
z
Tabla 1.2. Clases de direcciones IP
Se puede identificar la clase de dirección por el número del primer octeto:
Clase
Rango de valores del primer octeto
A
1 a 126
B
128 a 191
C
192 a 223
D
224 a 239
E
240 a 247
Tabla 1.3. Clases de direcciones IP y sus rangos.
El valor 0 ha sido reservado para indicar todas las redes, y el valor 127 para
representar una dirección existente en todos los terminales (dirección de lazo o
loopback).
1.2.3. TRANSMISIÓN MULTIMEDIA SOBRE REDES TCP/IP
Debido a la gran difusión de las redes TCP/IP, la transmisión multimedia
en las mismas fue una necesidad que se suplió con el tiempo. En la
actualidad existen gran cantidad de productores tanto de hardware como
de software que han incluido en el mercado productos capaces de
interactuar en redes de este tipo.
En el caso de software, existe gran cantidad de aplicaciones que permiten
establecer una comunicación entre dos o más puntos para el intercambio
de video. Un ejemplo de esto es el Netmeeting de Microsoft, el cual
reproduce y transmite audio y video en tiempo real entre dos puntos
estableciendo así una videoconferencia desde un computador personal.
En la figura 2.2 se muestra la apariencia de la ventana principal del
Netmeeting.
Figura 1.9. Ventana Principal del NetMeeting.
Hablando de hardware, existe también una gama de productos en el
mercado que son capaces de transmitir datos multimedia sobre redes
TCP/IP, e inclusive cumplir otras funciones como capturar audio y video o
reproducirlo.
Debido a que estamos hablando de redes que basan su arquitectura en el
Internet, el objetivo principal de adoptar este estándar es la compatibilidad
mundial, es entonces primordial la eficiencia en el aprovechamiento del
ancho de banda.
En muy pocas ocasiones, las redes TCP/IP son infraestructuras aisladas
de otras redes, más bien se comunican entre si por redes metropolitanas
o bien por el Internet.
1.2.4. ESTÁNDARES DE CODIFICACIÓN DIGITAL
En esta sección se describirán algunas de las normas más empleadas
para la codificación digital de señales multimedia. Se han dividido según
el organismo que propuso el estándar:
a) La norma MPEG (Grupo de Expertos de Imágenes en Movimiento o
Motion Picture Experts Group) de la Organización Internacional para la
Estandarización ISO (International Organization for Standarization).
b) Las normas H.32x del Grupo de Estándares Técnicos de la Unión
Internacional
de
Telecomunicaciones
Telecomunication Union ).
ITU-T
(International
a) Normas MPEG de la Organización Internacional para la
Estandarización ISO
El formato del Grupo de Expertos en Imágenes en Movimiento MPEG es
un estándar para compresión de video y de audio. Apareció en 1990 y a
medida que avanzaron las investigaciones, se presentaron nuevas
versiones del estándar. Cada una de estas se diferencian por la calidad
de la señal codificada y ancho de banda usado.
Entre las principales ventajas que ofrece están: compatibilidad mundial,
gran compresión y poca degradación de la imagen.
En realidad el estándar no especifica cómo se debe hacer la compresión
sino que especifica ciertas normas que deben seguir los algoritmos
creados por los fabricantes para mantener la compatibilidad.
MPEG-1 : Establecido en 1991, se diseñó para introducir video en un CDROM. Por aquel entonces estos dispositivos eran lentos, por lo que la
velocidad de transferencia quedaba limitada a 1.5 Mbps y la resolución a
352x240 pixeles. La calidad es similar a la de un VHS.
Este sistema de codificación digital es el que se utiliza en el sistema de
edición digital de este proyecto.
MPEG-2 : Establecido en 1994 para ofrecer mayor calidad con mayor
ancho de banda ( típicamente de 3 a 10 Mbps ). Proporciona 720x486
píxeles de resolución, es decir, calidad de TV. Ofrece compatibilidad con
MPEG-1.
MPEG-3 : Fue una propuesta de estándar para la TV de alta resolución,
pero como se ha demostrado que MPEG-2 con menor ancho de banda
cumple con este cometido, se ha abandonado esa propuesta.
MPEG-4 : Se trata de un formato de muy bajo ancho de banda y
resolución de 176x144 pixeles, pensado para videoconferencias sobre
redes IP. Hay una gran cantidad de software que realizan la codificación
con esta norma y que dan una calidad semejante al MPEG-2 pero con
mucho menor ancho de banda.
MPEG-7 : Normalizado a partir de 1996. Se creo para aplicaciones de
multidifusión, por ejemplo radios y canales de TV.
b) Normas H.32x del Grupo de Estándares Técnicos de la Unión
Internacional de Telecomunicaciones ITU-T
H.320 : Norma ITU-T para circuitos de vídeo teléfono y teleconferencia a
valores múltiplos de 64 Kbps. El estándar cubre desde 64 a 2048 Kbps
con un retardo inferior a 150 ms. Se señala un protocolo de conectividad
internacional que permite la comunicación entre aparatos de distinta
producción y compatible con las Redes Digitales de Servicios Integrados
(RDSI).
H.323 : Esta tecnología permite la transmisión en tiempo real de vídeo y
audio por una red de paquetes. Es de suma importancia ya que los
primeros servicios de voz sobre IP utilizan esta norma. En la versión 1
del estándar H.323v1 del año 1996 no se garantizaba la calidad de
servicio QoS (Quality of Service) sobre redes LAN. En la versión 2 del
año 1998 se definió la aplicación Voz sobre IP (VoIP). Una versión 3
posterior incluye el servicio de Fax sobre IP (FoIP) y conexiones rápidas
entre otros.
H.324 : Esta norma incluye un nuevo sistema de codificación para la
señal de vídeo. El objetivo de este nuevo sistema es el de mejorar la
calidad de la señal codificada por los otros estándares H.32x. Esta norma
es coherente con MPEG-4 desarrollado por ISO debido a que utiliza las
mismas técnicas de compresión.
H.324 permite la interactividad entre terminales PC-multimedios, módem
de voz-datos, navegadores WWW con vídeo en vivo, videoteléfonos,
sistemas de seguridad, entre otros.
1.2.5. FORMATOS PARA LA TRANSFERENCIA DE CONTENIDOS
Anteriormente un dato muy importante de conocer para los editores de
video, era la plataforma que seguiría el proceso de posproducción para
poder determinar en qué formato se debía entregar su trabajo. Ese
concepto está siendo olvidado gracias a la aparición nuevos estándares
para el almacenamiento y transferencia de contenidos.
Hace ya algunos años nacieron dos importantes organizaciones,
formadas por representantes de varios sectores de la industria de la
producción y la posproducción de televisión, con el objetivo de crear un
consenso en cuanto a temas de la industria se refiere. Estas dos
entidades eran la Advanced Authoring Format Association (Asociación
por el Formato de Autoría Avanzada) y el Foro Pro-MPEG.
A finales de los 90 las entidades anteriormente mencionadas
comenzaron a trabajar con el objetivo de establecer un formato universal
para el intercambio de materiales audiovisuales entre servidores de
archivos, plataformas de edición y otros dispositivos para la creación de
contenidos.
Si bien el trabajo en red y la transferencia de archivos eran tareas
conocidas en el ambiente de la televisión, estas operaciones estaban
basadas en formatos propietarios. Además, aunque el audio y el video
eran preservados, la mayor parte de los datos de sincronismo, banderas
de tiempo y descripción del proyecto, conocidos como metadatos, se
perdía o se ignoraba en la transferencia.
Aparecieron entonces formatos, enfocados en los usuarios, siendo
fáciles de entender y aplicar, independiente del tipo de compresión usado
en los proyectos y, además corren sobre los sistemas operativos
Windows, Mac, Unix y Linux.
1.2.5.1. MXF – Material Exchange Format (Formato de
Intercambio de Material)
Es un formato abierto que permite el intercambio de información
multimedia y sus metadatos asociados, entre diferentes estaciones de
trabajo con diversas aplicaciones e incluso con distinta tecnología.
Puede incluir desde diferentes archivos con la información sobre los
distintos cortes entre secuencias, texto y audio, hasta un proyecto
completo y terminado. De esta manera, se puede hacer una selección
de tomas recién grabadas en un computador portátil por ejemplo y
luego continuar la edición en otra plataforma de trabajo que incluso
corra sobre un sistema operativo diferente.
MXF contiene la secuencia de cada cuadro de video, junto con el
audio, los datos y los metadatos asociados. Otro factor importante
indica que MXF es independiente del formato de compresión que
lleve su esencia, ya que puede transportar diferentes tipos de
formatos como MPEG, DV o video sin compresión.
El mayor aporte de MXF es el traspaso del contenido de un programa
junto con sus metadatos asociados, también conocidos como "datos
acerca de los datos", que existen en cualquier sistema hoy. Por
ejemplo, las marcas de tiempo (timecode) constituyen una forma de
metadato.
El problema es que, debido a las incompatibilidades, esa información
normalmente se pierde mientras se mueve entre plataformas. Los
metadatos pueden contener información sobre:
ƒ
La estructura de archivos
ƒ
El contenido en sí (MPEG, DV 525, DV 625, etc.)
ƒ
Palabras clave o títulos
ƒ
Subtítulos
ƒ
Números de referencia
ƒ
Notas de edición
ƒ
Ubicación, tiempo, fecha y número de versión de un clip
Esto puede ser interminable. Incluso, en casos extremos la
información sobre los metadatos puede resultar mayor que el
contenido de audio y video. Por lo tanto, darle un buen uso a todos
estos datos parece ser la clave para el manejo del material
audiovisual.
También es importante en cada caso filtrar la información necesaria
para cada operación, con el fin de evitar las llamadas montañas de
metadatos innecesarios.
A medida que MXF sea adoptado por más fabricantes, será posible el
traslado de una mayor variedad de metadatos al siguiente escenario
de producción. Esto permitirá que un profesional se concentre más en
el uso del material audiovisual y sus metadatos, que en estar
solicitando información a los diferentes participantes de la cadena de
producción de ese contenido.
El formato MXF prioriza la simplicidad en su utilización y el
intercambio de imagen y sonido con sus metadatos asociados.
Entre sus diferentes aplicaciones encontramos:
ƒ
Material para la edición
ƒ
Transferencia entre servidores sobre redes locales (LAN) o
externas (WAN)
ƒ
Archivado de material en formatos de almacenamiento de datos
ƒ
Distribución de contenidos
Lo más importante para estas aplicaciones es el hecho de que MXF
puede ser usado tanto en procesos de transferencia de archivos
almacenados, como también en aplicaciones de flujo en tiempo real
(real time streaming en Inglés).
Otra utilidad puede ser la de servir como material de fuente en un
proyecto de posproducción AAF para un programa finalizado o para
clips independientes. Ambos formatos son capaces de transportar
esencia y metadatos; sin embargo, la prioridad en cada formato es
diferente y a la vez complementaria.
1.2.5.2. AAF - Advanced Authoring Format (Formato de Autoría
Avanzada)
A comienzos del año 2000, la asociación AAF comenzó a trabajar en
un formato de intercambio un poco más complejo que el naciente
MXF. Se puede destacar como diferencia entre este formato y el
anterior que el formato AAF es fundamentalmente usado en
proyectos de multimedia y posproducción, debido a que permite
almacenar una mayor riqueza de metadatos y, principalmente, debido
a que facilita referenciar a materiales externos. O sea, un proyecto
AAF puede incluir la esencia propia y los metadatos asociados, pero
también puede llamar a otras esencias (MXF) alojadas en un servidor
de almacenamiento, por ejemplo.
AAF incluye muy variadas clases de metadatos, que pueden usarse
para describir los componentes del armado de una producción.
Al intercambiar o trasladar datos de un proyecto entre diferentes
aplicaciones o estaciones de trabajo, AAF puede transferir el audio,
video y metadatos asociados. Sin embargo, un archivo AAF puede
incluir sólo la información de metadatos de un proyecto, con vínculos
o referencias a material externo. Por ejemplo, un archivo AAF puede
incluir una secuencia de 30 minutos, junto con la información sobre
cómo reducirla a 5 minutos, además de una referencia externa a un
texto o a imágenes fijas, ubicadas en una plataforma diferente.
La idea de AAF es el intercambio de los metadatos de composición.
Mientras que MXF es un formato pensado para el intercambio simple
de material audiovisual (en general programas terminados), el AAF es
un formato más complejo, pensado para el intercambio de proyectos
a través de diferentes plataformas de edición y entre distintas
aplicaciones.
AAF permite exportar toda la información. No sólo el audio, el video, o
el texto, sino también los metadatos con las decisiones acerca de
cómo el material ha sido manipulado (cortes, corrección de color) y
ensamblado. Además, se incluye toda la información respecto al
código de secuencia (time code) y ediciones previas que puedan
ayudar a las ediciones posteriores.
Lo que hace AAF es encapsular todos los metadatos para
transmitirlos junto con la información multimedia. Si el equipo al que
se transmitió esta información soporta este formato, puede hacer uso
de la misma, sino, no los modifica de ningún modo.
Los formatos MXF y AAF han sido diseñados para trabajar en
conjunto.
1.2.5.3. GXF - General eXchange Format (Formato de Intercambio
General)
El General eXchange Format es un formato creado por el Grupo
Grass Valley (que es el proveedor de los equipos que se utilizarán en
este proyecto). Fue diseñado para operaciones de producción de
noticias y otras aplicaciones de multidifusión relacionadas.
Está basado en el concepto de codificación de SMPTE KLV (una
forma de codificar datos basado en Edit Decition Lists EDLs para
transportarlos a través de una red) usado por AAF.
Los EDL son algoritmos que se van creando a medida que se edita
un determinado proyecto; están formados por los metadatos de las
fuentes e indican de que fuente se toma una secuencia de video y
que duración tiene. Es así que se podría transmitir un proyecto
terminado, sin enviar audio ni video.
GXF es un sistema que abarca las funciones de MXF y AAF.
Transfiere materiales a través de redes de datos y se encarga de
archivarlos en cintas u otros dispositivos de almacenamiento.
Figura 1.10. Intercambio de formato
Soporta formatos MPEG, DVCPRO, JPEG video, además de audio
AC3 y Dolby E. Por lo menos siete fabricantes soportan en la
actualidad el formato GXF.
CAPITULO II
ANÁLISIS DE LA SITUACIÓN ACTUAL DE LA
ESTACIÓN DE TELEVISION
2.1. INTRODUCCIÓN
Antes de poder hablar de una estación de televisión, se debe conocer como
funciona la misma, en este capitulo entenderemos de manera general su
estructura y funcionamiento
PROCESADOR
VIDEO
SWITCHER
MICROONDA
MASTER
PROCESADOR
AUDIO
SONIDO
CONTROL TECNICO
ESTACIÓN
SATELITAL
Figura 2.1. Diagrama de bloques general de la estructura de un canal de
televisión
Un canal de televisión está estructurado como lo muestra la figura 2.1. Estos
bloques forman parte de diferentes departamentos dentro de la organización; el
Switcher forma parte de Producción, Sonido y Master de Pautaje, los
Procesadores, Control técnico y las Estaciones son manejadas por el
departamento de Ingeniería.
El Switcher es un mezclador que permite conmutar, modificar, combinar o crear
diferentes señales de video con el propósito de realizar artísticamente el
material proporcionado por cámaras, reproductores de video (video players), u
otras fuentes de video. En el caso de la estación de televisión donde se realizó
el estudio, es un Switcher digital marca ROSS.
El Master, es un equipo encargado de enviar al aire la programación
diariamente. Permanece encendido durante todo el día y recibe material del
Switcher, reproductores de video y otras fuentes para luego decidir cual de
todas sus entradas será la que se transmite. Es de marca Grass Valley y modelo
Master21.
Sonido, esta formado por una consola de varios canales de entrada que se
encarga de musicalizar y ecualizar las señales de audio que llegan desde los
micrófonos, reproductores de audio/video y otras fuentes.
Los Procesadores de audio y video son los encargados de procesar la señal
para poder ser vista por los televidentes. Son el último paso antes de que la
señal mezclada (audio y video) sea enviada a la microonda y al satélite para su
transmisión al aire. Como vemos en la figura 2.1 el control técnico se realiza en
todos los bloques en que se manejan señales de audio y video.
En este capitulo se analizará la red LAN del canal, lo cual es importante para
describir más adelante el proceso que necesita para enlazarla con la red de
edición y con los equipos electrónicos que envían la señal al aire. También se
describirá la estructura organizacional de un canal de televisión.
2.2. ESTRUCTURA ORGANIZACIONAL DEL CANAL
El canal de televisión es una cadena televisora nacional cuya matriz está
ubicada en Guayaquil y llega aproximadamente a 29 provincias con 26
repetidoras en el territorio Ecuatoriano.
Además esta estación de televisión pertenece a una cadena de estaciones a
nivel Latinoamericano, por lo cual funciona bajo el mando de un directorio
formado por accionistas a lo largo de Sur y Centro América. El Presidente y
Vicepresidente de este canal son los representantes de los intereses de los
accionistas en el Ecuador.
DIRECTORIO
PRESIDENCIA
EJECUTIVA
VICEPRESIDENCIA
EJECUTIVA
Estudios
DEPT.
DEPORTES
DEPT.
INFORMATIVO
DEPT.
ADMINISTRACION
Garita
Recepcion
Diseño
DEPT. VENTAS
Controles
DEPT. PAUTAJE
DEPT.
PRODUCCION
Sonido
Producto 1
Producto 2
Contablidad
DEPT. FINANZAS
Caja
Nivel 1
Nivel 2
Nivel 3: Departamentos
Nivel 4: Divisiones
DEPT.
COMPUTACION
DEPT.
PROGRAMACION
Videoteca
DEPT.
PROMOCIONES
Diseño Grafico
DEPT. INGENIERIA
TCR
Figura 2.2. Estructura Organizacional de la estación televisiva
La jerarquía departamental está distribuida como lo muestra la figura 2.2 y cada
departamento tiene una función específica las cuales se describirán brevemente
a continuación.
Dpto. Administración: Administra los recursos humanos, materiales y los
servicios generales de la estación televisiva. Maneja las divisiones de
Recepción, Garita y Estudios
Dpto. Finanzas: Planifica, organiza, dirige y controla las actividades que tienen
relación con la gestión económica – financiera. Esta área se encarga de la
obtención de fondos y del suministro del capital que se utiliza en el
funcionamiento de la empresa, procurando disponer con los medios económicos
necesarios para cada uno de los departamentos, con el objeto de que puedan
funcionar debidamente.
Dpto. Computación: Este departamento es el encargado de dirigir las acciones
de análisis, diseño, desarrollo e implantación de sistemas informáticos. Se
encarga de mantener operativa la red interna de datos y de coordinar e integrar
la comunicación y transferencia de datos e información entre departamentos, así
como coordinar los servicios de mantenimiento correctivo y brindar asistencia a
usuarios de los servicios informáticos de la estación.
Dpto. Ventas: Vende programación a las agencias de publicidad o a clientes
directos.
Dpto. Pautaje: Arma la comercialización y la incorpora a la programación. Este
departamento maneja la División de Controles, encargada de enviar al aire la
comercialización; y la División de Sonido, encargada de musicalizar y colocar
efectos de sonido a la programación que sale al aire.
Dpto. Programación: Este departamento está encargado de comprar y revisar
la programación que saldrá al aire. Dentro de su división de Videoteca almacena
y respalda los programas que se emiten; además entrega la programación a
Pautaje para que arme la comercialización.
Dpto. Promociones: Su finalidad es la de reunir factores y hechos que influyen
en le mercado para crear publicidades en base al gusto del consumidor, y lo
distribuye en forma tal que esté a su disposición en el momento oportuno.
Dentro de su División de Diseño Grafico se encarga de promocionar películas y
productos propios de la estación televisiva.
Dpto. Producción: Tradicionalmente es considerado como uno de los
departamentos más importantes, ya que formula y desarrolla los métodos
adecuados para la elaboración de productos.
Dpto. Ingeniería: Administra, controla y brinda mantenimiento a los equipos
electrónicos de audio y video que se utilizan para trasmitir las señales. Además
se encarga de controlar e inventariar los equipos que se usan en trasmisiones
dentro y fuera de la planta. Este departamento se encarga de asesorar a los
directivos de la estación, en la compra de los insumos técnicos que requiere el
canal.
Dpto. Informativo: Es aquí donde se preparan las noticias, y se promociona a
través de la División de Diseño, el programa de Noticias, al igual que los
programas de Deportes.
Dpto. Deportes: Está integrado por reporteros, presentadores y editores
encargados de preparar y presentar las noticias deportivas y realizar las
transmisiones de eventos en vivo.
2.3. ANÁLISIS DE LA RED LAN
Como la nueva red de edición se transportaría sobre una red basada en la pila
de protocolos TCP/IP, es necesario hacer un estudio de la red LAN existente
(TCP/IP también) para permitir una comunicación entre ambas, según sean las
necesidades de la estación de televisión. El canal posee una red privada de
clase B. Esta red es la 172.16.0.0 con máscara de subred 255.255.0.0.
El
cableado estructurado de esta red se realizó con cable UTP categoría 5.
La red de la estación se utiliza principalmente para distribuir el Internet, para
compartir archivos y para que los usuarios puedan acceder a aplicaciones de
control de recursos (Por ejemplo un programa de inventarios).
En cuanto al Internet, el canal tiene contratado un juego de direcciones IP
públicas: 200.105.289.209 / 255.255.255.252 (2 direcciones útiles), una de estas
direcciones se encuentra configurada en el ruteador del proveedor de Internet y
es la puerta de enlace de la red; y la otra está configurada en un servidor
administrado por el departamento de sistemas del canal y presta servicios de
correo electrónico, página web y proxy (permite la navegación a la red interna
del canal). En la tabla 2.1 se muestran las direcciones IP asignadas a los
servicios que se mencionaron.
IP
USO
200.105.238.5.
DNS1
200.105.215.1
DNS2
PUERTA
200.105.289.210
DE ENLACE
(ROUTER)
200.105.289.211
SERVIDOR
Tabla 2.1. IPs públicas del canal de televisión
El servidor principal tiene dos tarjetas de red: una para la red interna y una para
el Internet. El servidor tiene instalado un sistema operativo Linux (Red Hat 9) y
actualmente tiene configurada una dirección IP en cada tarjeta de red.
La red LAN es utilizada por todos los departamentos, los cuales se han dividido
en grupos de trabajo, sin embargo esta red no se encuentra dividida en
subredes.
El sistema de distribución de las direcciones que se ha empleado, asigna el
mismo tercer octeto a equipos de un mismo departamento, es así que las PCs
del Departamento de Producción empiezan con 172.16.8 y las del Departamento
de Ingeniería con 172.16.11. Todo esto a pesar de que la red no está
enmascarada (dividida en subredes).
Se puede aprovechar esta nomenclatura para realizar una división de redes
entre departamentos. Para realizar esto se debe aumentar un octeto más a la
sección de red de la máscara de subred (actualmente 255.255.0.0), quedando la
siguiente: 255.255.255.0. Con esto obtenemos 256 redes, cada una hasta con
254 terminales.
También hay que configurar una dirección de cada red en la interfaz de la red
interna del servidor principal para que sirva de puerta de enlace de cada nueva
red. A continuación se muestra un esquema básico de la red actual del canal.
172.16.4.1
Máquina del Departamento
de Ventas
172.16.3.11
Servidor Principal
172.16.1.1
Máquina del Departamento
Administrativo
172.16.2.1
Máquina del Departamento
de Finanzas
172.16.3.1
Máquina del Departamento
de Sistemas
Figura 2.3. Esquema actual de la red del canal.
Como se puede ver en la figura 2.3, actualmente todas las máquinas pertenecen
a una sola red lógica. Si en algún momento una de las máquinas realizara una
multidifusión, esta consumiría recursos de cada una de las máquinas del canal.
Servidor Principal
172.16.1.254
172.16.3.254
172.16.2.254
RED DEL DEPARTAMENTO
DE FINANZAS
172.16.2.0 255.255.255.0
RED DEL DEPARTAMENTO
ADMINISTRATIVO
172.16.1.0 255.255.255.0
172.16.1.1
Máquina del
Departamento
Administrativo
172.16.1.2
Máquina del
Departamento
Administrativo
172.16.2.1
Máquina del
Departamento de
Finanzas
172.16.2.2
Máquina del
Departamento de
Finanzas
RED DEL DEPARTAMENTO DE
SISTEMAS
172.16.3.0 255.255.255.0
172.16.3.1
Máquina del
Departamento de
Sistemas
172.16.3.2
Máquina del
Departamento de
Sistemas
Figura 2.4. Esquema de la red del canal luego del enmascaramiento.
En la figura 2.4 se muestra el esquema de la red luego del enmascaramiento
(sólo se muestran 3 departamentos, en realidad son 13). Como se ve, cada
departamento tiene su propia red lógica reduciendo así los dominios de
multidifusión. Hay que destacar que en este esquema, el servidor principal debe
tener una dirección por cada red, de tal manera que sirva de puerta de enlace
de todas las redes. Se pueden configurar todas estas direcciones del servidor
sin necesidad de contar varias tarjetas de red, esto se lo realiza configurando
una interfaz virtual por cada red. Todas estas interfaces virtuales pueden
pertenecer a una sola tarjeta.
Entre los beneficios que se obtienen con la división de la red LAN en subredes
se destacan los siguientes:
ƒ
Control total del tráfico entre subredes (desde el servidor principal).
ƒ
Se limita la multidifusión de datos (antes a toda la red del canal) a los
usuarios de una misma subred.
ƒ
Se facilita la administración del acceso a otras redes (como Internet) por
departamentos.
CAPITULO III
DISEÑO DE LA RED DEL SISTEMA DE EDICIÓN
3.1. INTRODUCCIÓN
En este capitulo se estudia el diseño y estructura del sistema de edición digital
que se implementará y su fusión con una red convencional ya existente en una
estación de televisión.
En las figuras 3.1 que vienen continuación, se muestran el esquema final de la
red de edición del proyecto, y el esquema recomendado por el proveedor de los
equipos: Thomson-Grass Valley. Revisando este par de gráficos se puede
constatar que la red recomendada fue una guía para este proyecto.
iMac
Figura 3.1a. Diseño general del sistema de edición digital
Figura 3.1b. Red recomendada para el sistema de edición digital por Grass
Valley
La red en la que se basa este proyecto fue una de varias que el proveedor del
sistema, en este caso Thomson-Grass Valley, recomienda. Los símbolos que se
utilizarán para graficar ciertos puntos se pueden ver en el Anexo I, los mismos
que se utilizaran a lo largo de este capitulo. Además se conocerán los equipos
del sistema y sus funciones específicas dentro de la red, así como los
requerimientos físicos para un buen funcionamiento del sistema.
3.2. REQUERIMIENTOS DEL SISTEMA
Es indudable que al invertir en un sistema de edición digital profesional tan
avanzado y versátil se deben tomar en cuenta los requerimientos de espacio,
electricidad y medio ambiente para optimizar el funcionamiento del mismo.
Para facilitar el entendimiento del sistema se lo ha dividido en 3 partes, según la
resolución de la señal de video con la que se trabaja y sus funciones, que son:
•
Alta Resolución (HIGH-RES)
•
Baja Resolución. (LOW-RES)
•
Equipos de codificación y decodificación
En alta resolución se requieren:
ƒ
Ancho de banda mínimo por usuario de 64 Kbps.
ƒ
Eficiente dimensionamiento de la red
ƒ
Temperatura ambiente entre 10ºC a 40ºC
ƒ
Espacio para 2 racks de equipos dentro del cuarto de equipos
ƒ
Escalabilidad de la red
ƒ
Altas velocidades de transmisión de datos
ƒ
Buena calidad del servicio QoS (Quality Of Service)
ƒ
Alta seguridad dentro de la red sin el uso de antivirus
ƒ
Gestión de la red
En baja resolución se requiere:
ƒ
Temperatura ambiente entre 10ºC a 40ºC
ƒ
Seguridad y Gestión de la red
ƒ
Alta seguridad dentro de la red
ƒ
Maquinas con procesador Intel Pentium 4 de 1.8 GHz como mínimo
A lo largo de este capitulo hablaremos de alta y baja resolución para
comprender el funcionamiento del sistema y de los equipos que lo conforman.
3.3. DESCRIPCIÓN DE LOS EQUIPOS A UTILIZAR EN EL
PROYECTO
El sistema consta de dos partes claramente diferenciadas, debido al formato que
se usa para presentar los datos y a la calidad de la señal de audio y video:
ƒ
Alta Resolución: formato DV25 se transmite GXF
ƒ
Baja Resolución: formato MPEG-1
ƒ
Equipos de codificación y decodificación
Alta Resolución
En Alta resolución se encuentran las editoras no lineales (Full Efects y Software
Codec) conocidas como XT y SC respectivamente, el Profile XP y el NewsQPro,
todos comunicados por la red de fibra óptica 10GBase SR.
El proceso de edición empieza en las editoras no lineales, ya sea en la XT (full
efects) o en la SC (software codec). Una vez terminado un proyecto se procede
con la opción Publicar con lo que el trabajo terminado llega hasta el Profile XP,
donde se almacena hasta ser enviado al Switcher Digital por cualquiera de los 2
canales del Profile XP (A y B) administrados desde el NewsQPro como lo
muestra la figura 4.9. Finalmente el Master permitirá que el Switcher Digital
envíe el material editado al aire a través de servicios de satélite o microonda.
Figura 3.2. Proceso de edición en alta resolución
Además de conectarse por fibra óptica al Profile XP, las editoras no lineales
también se conectan por 100BaseT a los codificadores y servidores para enviar
los metadatos que se requieren para realizar la edición en la red de baja
resolución. A continuación se describirán las funciones de cada equipo dentro
de la red en alta resolución:
a) NewsEdit LT/SC
Esta editora no lineal a simple vista es un computador normal pero su poderoso
software versión 5.0b la convierte en un elemento de trabajo muy estable y fácil
de usar. Debe ser instalada bajo Windows XP. Tiene 120GB de disco duro y
512MBde memoria RAM. Cuenta con dos puertos para conectar fuentes
digitales externas (maquinas DVCPRO o BETACAM). Cuenta también con una
tarjeta capturadora de video compuesto.
Este equipo de edición, que trabaja básicamente a través de un software,
transfiere información en formato GXF al Profile XP, por lo que cuenta con una
tarjeta de red para fibra óptica y otra tarjeta de red de 100BaseT que sirve para
enviar los metadatos.
b) NewsEdit XT
Esta editora no lineal cuenta con más efectos y mayor capacidad que la
NewsEdit SC, además tiene un hardware adicional conocido como breakbox que
es un interfaz entre las fuentes de audio y video, y el CPU. El breakbox aumenta
las opciones de equipos y formatos que pueden ser usados como fuentes.
Trabaja bajo Windows XP, cuenta con dos puertos para conectar fuentes
digitales externas.
c) Profile XP
Es el encargado de almacenar archivos de
video/audio en formato
DV25/balanceado estereo. Tiene cuatro canales, 2 de los cuales (A y B) son
administrados por el NewsQPro y son llamados AirPlay 1 y AirPlay 2 como lo
muestran la figura 4.10a y 4.10b.
Figura 3.3a. AirPlay 1 o canal A del NewsQPro
Figura 3.3b. AirPlay 2 o canal B del NewsQPro
Los otros dos canales se usan para el ingreso de señales y para entregar video
al codificador secuencial como ya se indico anteriormente. El Profile XP es
donde se almacena el material de alta resolución. Cuenta con un sistema RAID
5 para el almacenamiento (ver Anexo IV). Las siglas RAID significan Redundant
Array of Independent Disks, es decir, matriz de discos independientes y
redundantes, y el 5 es el nivel del arreglo. En este caso el nivel ofrece tolerancia
al fallo y optimiza la capacidad del sistema ya que evita que el procesador
realice procesos de almacenamiento.
d) NewsQPrO
Es el encargado de organizar en listas de reproducción, conocidas como playlist,
los archivos de video que se publican desde las editoras NewsEdit XT, NewsEdit
SC, las Lite y las Advance (las dos últimas de baja resolución). Por medio del
Switch digital ROSS estas notas son enviadas al aire cuando el Master lo
decide.
El NewsQPro presenta una pantalla amigable que se muestra en la figura 3.11,
puede tener hasta 8 canales que dependen de las salidas físicas del Profile XP;
en este caso solo se utilizan 2 canales para presentar material al aire.
Aquí se arma el bloque de
notas que saldrán al aire en
orden de salida ya se
ascendente o descendente
Canal A del PPROFILE
Aquí están todas las notas
que fueron enviadas al
PROFILE, esto esta en
formato DV25
Canal B del PPROFILE
Figura 3.4. Pantalla de trabajo del NewsQPro
El NewsQPro tiene también una papelera de reciclaje particular que se llama
Housekeeper desde donde se borran las notas en alta resolución. Esto se puede
realizar periódicamente para evitar saturación en el almacenamiento y lentitud
en el sistema. Al borrar en alta resolución solamente se borran los archivos que
se encuentran en el en el Profile XP. Esto no influye en ningún otro equipo.
Figura 3.5. Pantalla del Housekeeper
Baja Resolución
En LOW-RES es donde trabaja el Servidor NewsBrowse y el NewsBrowse NAS,
además de los PCs con las licencias Advance Edit y Lite Edit (editoras básicas
instaladas en computadores normales). En la figura 4.13 se muestran los
equipos que trabajan en baja resolución.
Las computadoras que forman parte de la red administrativa se pueden
implementar como editoras a través de las licencias Lite Edit. Dentro del
segmento en que se encuentran los servidores y codificadores se habilitarán 2
computadores para las licencias Advance Edit.
Los servidores y codificadores generan el material para poder trabajar en baja
resolución de lo que reciben de alta resolución.
AV
TC
TC
Codificador
de 1 canal
10/100 BT
info
mpg
Th/stb
Servidor
Newsbrowse
NAS
mpg
web
Th/stb
10/100/1000 BT
BAJA
RESOLUCION
Red Administrativa
Figura 3.6. Conexión entre la red de edición digital y la red administrativa
A continuación se detallan las características y funciones de los equipos que
trabajan en baja resolución.
a) Servidor NewsBrowse
Es el componente central de la red de baja resolución y es el encargado de
presentar a través de aplicaciones web lo que se encuentra almacenado en el
NewsBrowse NAS que ha sido previamente tratado para poder ser visto en
formato MPEG-1
También es el encargado de controlar las sesiones de usuarios y de administrar
los privilegios de cada uno.
b) NAS Almacenamiento Vinculado a la Red (Network Attached Storage)
Es aquí donde se almacena la información que es generada en las editoras no
lineales de baja resolución, y la metadata tratada y enviada por alta resolucion.
Aquí gracias a los codificadores y servidores llegan los EDLs, archivos en
formato MPEG-1, imágenes periódicas de una secuencia de video (storyboards),
primeras imágenes de cada secuencia de video (tumbnails) y real media video
(formato de video reproducible en cualquier PC). Todos estos elementos son
necesarios para que los PCs de la red administrativa puedan trabajar con el
material que se encuentra en alta resolución.
Por deberse a un sistema de almacenamiento debe contar con una fuente de
poder redundante, además como lo muestra la Figura 4.7 debe tener 2 tarjetas
de red 1000BaseT y 100BaseT.
c) Licencias
Para el proyecto se requieren 6 licencias: 2 Advance Edit y 4 Lite Edit. Los
pasos para la instalación de estas licencias se puede ver en el anexo V y VI
respectivamente. Para la instalación de las licencias los PCs que deben cumplir
con las siguientes especificaciones:
Advance Edit: Este software se instala por red una vez habilitado el sistema, La
máquina debe tener:
•
Windows 2000 Professional or Windows XP
•
Procesador 860 MHz o mas veloz, 256 MB RAM
•
16 or 32 bit color display 1024 x 768
•
1024 MB de Memoria Virtual
Requerimientos para tarjeta de video
•
Que soporte DirectX 9.0
•
Memoria 32 MB hasta 128 MB DDR
El proveedor recomienda la tarjeta de video GeForce FX 5200 AGP con
controlador versión 4.4.6.7.
Lite Edit: Esta licencia sirve para ediciones muy básicas es decir ediciones por
corte en las que el video es cortado y pegado sin mayores efectos, sirven como
revisoras del material publicado en alta.
Figura 3.7. Pantalla de presentación Lite Edit.
Los equipos que se describirán a continuación son los más importantes del
sistema, trabajan en la parte media, como lo muestra la figura 3.15. Facilitan el
manejo de señales en alta y baja resolución sin inconvenientes, ya sea que
reciban material en alta resolución y lo conviertan en baja o viceversa.
Figura 3.8. Sistema de edición no lineal (digital).
Equipos de Codificación y Decodificación
a) Codificador de un canal (1-channel encoder )
Es el que genera el archivo en formato MPEG-1 de la señal de video analógico
que recibe (en este caso la señal que llega de la matriz de video) y lo guarda
para codificarlo y poder trabajarlo en baja resolución.
Es también el servidor de sincronismo NetTime para todos los servidores y
codificadores del sistema.
b) Codificador Secuencial (Sequential encoder )
Su función es similar a la del codificador de un canal, pero además se encarga
de realizar una copia de lo que se almacena en el Profile XP en la carpeta media
del NAS para que pueda ser utilizado en baja resolución.
c) Servidor de Soporte de Imágenes (Image Support Server ISS)
El NewsBrowse ISS es el que recibe y procesa los metadatos. El Image Support
Server, procesa lo que recibe en MPEG-1 y extrae imágenes identificadores
(thumbnail imagines) para ser usadas como carta de presentación de una
secuencia de video y son enviadas a una carpeta Media en el Newsbrowse
NAS. También extrae escenas para crear un storyboard y envía el archivo
RealVideo hacia la carpeta Media para poder ser vista por cualquier PC de la
red de baja resolución.
d) Servidor Conform
Su función es la de crear los EDLs y los envía a la carpeta Media que se
encuentra en el NAS. Tiene 2 tarjetas de red, 1 de fibra óptica y otra de
100BaseT. Luego que la información se genera en las editoras, él es el
encargado de empaquetar los archivos y enviarlos a la carpeta media
e) Puerta de enlace Linux
Este equipo es una necesidad que se le incorpora a la red pensando en la
seguridad de la misma. Con este equipo se puede administrar el tráfico entre las
redes y proteger a los demás dispositivos de posibles ataques.
3.4. DISEÑO DE LA RED DE EDICIÓN
En la Figura 3.1 se vio que existe una red de clientes (Client Network) que son
usuarios de PCs comunes, en el caso particular de este estudio será la red
existente a la cual se llamara “Red Administrativa”, y la red de producción
(Production Network) que es la nueva red que se diseñará a lo largo de este
proyecto se llamará “Red de Edición”.
Tomando en cuenta las consideraciones de fábrica y recomendaciones del
proveedor, se llegó a un esquema básico como se muestra la Figura 3.2, en la
cual se verá una clara diferenciación entre las redes que manejan señales en
alta y baja resolución (HIGH-RES y LOW-RES).
RED BAJA RESOLUCIÓN
Switch
.................
Baja Resolución (3 edit license)
Almacenamiento
en Baja resolución
Servidor NEWSBROWSE
Equipo administrador del
NAS (Vía web)
Switch
Codificador
de 1 canal
Codificador de
secuencial
Servidor ISS
Servidor Conform
ALTA RESOLUCIÓN
Entradas
externas
(analógicas)
Canales de salida
(Señal que puede
ser enviada al aire)
2
Profile XP
Almacenamiento
en Alta resolución
RS422
Equipo
administrador
de los canales
de salida del
Profile XP
2
Switch de Fibra óptica
1
Figura 3.9. Esquema básico de la Red de edición digital.
1
Los equipos de alta resolución se encuentran en la misma red del servidor
principal del sistema: el Profile XP. Para esta red (color verde en el gráfico) se
ha pensado una 10GBaseSR (fibra óptica) para poder garantizar el intercambio
de información sin limitaciones debidas al ancho de banda.
Al igual que en el esquema sugerido por el proveedor, existen equipos que
realizan la codificación y decodificación de la información multimedia para
transportarla de la red de alta resolución a la de baja resolución y viceversa, por
lo que deben tener comunicación con ambas redes (red de color lila).
Finalmente, una tercera red, (color rojo) que se conocerá como Baja resolución,
ya que se trabajará con información previamente codificada en un formato de
menor resolución.
En este esquema sencillo no se han tomado en cuenta aún las redes existentes
en el canal; las cuales, como se indicará más adelante, se acoplarán al sistema
mediante una Puerta de enlace que cumpliría funciones de ruteador y
cortafuegos (firewall) como se muestra en la figura 3.3.
1000BT
RED DE EDICION NO LINEAL
RED ADMINISTRATIVA
FIREWALL
LINUX
100BT
Figura 3.10. Comunicación entre la red de edición y la red administrativa
La estación televisiva donde se efectuó el estudio cuenta con tres
computadores, que tienen instalado un software para edición digital. Estas
máquinas pertenecen al departamento de Diseño Gráfico y deben incluirse a la
red del proyecto. Estas PCs ocuparan un segmento de la nueva red en la parte
de baja resolución.
iMac
Figura 3.11. Esquema de la Red de Edición digital tomando en cuenta los
recursos de la estación.
En la figura 3.4 se incluyen los 3 PCs de Diseño Gráfico, y 3 PCs más de ese
mismo departamento. El segmento conformado por las 6 máquinas maneja
información de Internet constantemente. Debido a que se trata de una pequeña
red de edición no lineal, carece de antivirus por lo que no puede conectarse
directamente al Internet.
Por último se debe agregar al diseño del sistema, un equipo que ya tiene la
estación y que se utiliza para enviar al aire sobreimposiciones, fondos y
anuncios, creados en los equipos de la red del Departamento de diseño. Este
equipo es el DEKO.
Teniendo en cuenta los equipos con los que cuenta el canal, y los que
conforman el nuevo sistema de edición digital, la red quedaría como lo muestra
la figura 3.4.
3.4.1. ADECUACIONES E IMPLEMENTACIONES ADICIONALES
Debido a que la estación de televisión cuenta con equipos analógicos, se
requiere realizar algunos ajustes para que el sistema opere normalmente.
Todas las señales de audio y video que maneja el canal se encuentran
conectadas a dos matrices: una de audio y una de video. La matriz de
audio maneja los dos canales de cada señal de audio (L y R), y la matriz
de video maneja cada señal de video en formato componente (R, G y B).
De una de las salidas de las matrices anteriormente mencionadas se
toman las entradas para los equipos del nuevo sistema de edición digital
con la finalidad de que cualquier señal proveniente de los equipos ya
existentes en la estación, pueda ser enrutada hacia los nuevos equipos y
editada.
La señal de entrada debe ser analógica (compuesta) para el Codificador
de 1 canal ( 1-chanell encoder), pero digital para el Profile XP. Esta señal
debe ser exactamente la misma sin retardos significativos por lo que se
requiere de un convertidor analógico a digital. En este caso se ha
seleccionado un ADC6001 (ver anexo II) que recibe una señal en video
componente proveniente de la matriz y la convierte a digital; esta señal
será la entrada del Profile XP.
Del ADC6001 se toma otra salida digital y se la lleva a una tarjeta
VSM6001. Esta tarjeta convierte la señal digital en señal analógica
compuesta (ver anexo III) para ser entregada al Codificador de 1 canal (1channel encoder). De esta manera los 2 equipos tienen la misma señal en
los formatos requeridos con retardos mínimos.
Como el Codificador 1CH es el servidor de sincronismo para el resto de
codificadores. A este equipo se le debe ingresar el mismo timecode y las
mismas entradas de audio que al servidor principal: el Profile XP. Esto se
hace conectando la señal de reloj del sistema (Reloj Master, que no es
más que un generador de onda cuadrada) a un distribuidor y tomando
una salida para el Profile XP y otra para el Codificador 1 CH. Este
distribuidor es un dispositivo que permite tomar hasta 6 señales idénticas
a una de entrada, con la posibilidad de regular su ganancia.
En la figura 3.5 se muestra un distribuidor de audio para los 2 canales de
la señal de entrada al sistema, en realidad existen 3 distribuidores, 1 para
cada canal de audio (L y R), y uno más para el timecode. También se
detallan las conexiones de los periféricos de los servidores hacia un
equipo conmutador KVM (Teclado, Video y Ratón o Keyboard, Video and
Mouse).
Figura 3.12. Conexiones entre equipos
El Profile XP usando uno de sus 4 canales le entrega video, al codificador
secuencial, así como a través de una extensión le entrega audio y
timecode. Para el video se debe utilizar una tarjeta convertidora VSM6001
ya que el Profile XP es totalmente digital, mientras que el timecode y el
audio se podrán conectar directamente del equipo gracias a que cuenta
con extensores que tienen salidas en diferentes formatos.
Figura 3.13. Entrada de canales de video a la matriz y al Switcher
Figura 3.14. Entrada de canales de audio a la matriz y hacia sonido
Finalmente las salidas (A y B) de audio y video del Profile XP deben
ingresar al Switcher o mezclador donde estarán listas para ser enviadas
al aire cuando el Master lo indique.
En las figuras 3.6 y 3.7 se puede ver que el canal B del Profile XP (tanto
en audio como en video) ingresa a las matrices analógicas de la estación
de televisión. El audio ingresa directamente, y el video (formato
compuesto) se conecta por medio de una tarjeta convertidora digital a
analógica DAC6001. Esto se realiza para que las señales puedan ser
direccionadas hacia otros destinos para ser grabadas y tener un respaldo
de ellas.
3.5. ESQUEMA GENERAL DE LA RED DE EDICIÓN NO LINEAL (DIGITAL)
iMac
Figura 3.15. Esquema final de la red de edición digital
En la figura 3.8 se pueden distinguir todas las redes que componen el
sistema. En la tabla 3.1 a continuación se detalla cada red incluyendo
la red administrativa ya existente en la estación 172.16.0.0 /
255.255.0.0.
RED
MÁSCARA
TIPO
MEDIO
172.16.0.0
255.255.0.0
100 Base T
Cobre
192.168.0.0 255.255.255.240 1000 Base T
Cobre
192.168.10.0 255.255.255.224
Cobre
100 Base T
192.168.11.0 255.255.255.240 10G Base SR
Fibra
óptica
192.168.31.0 255.255.255.248 1000 Base T
Cobre
OBSERVACIÓN
Red
Administrativa
(Baja resolución)
Red de Diseño
Gráfico ya
existente
Red de
transmisión de
Metadatos
Alta Resolución
Red para la
comunicación de
equipos de Alta
y Baja
resolución
Tabla 3.1. Redes que componen el nuevo sistema de edición.
Para la asignación de redes y máscaras de subred del sistema se han
tomado en cuenta las normas de enmascaramiento con la finalidad de
hacer eficiente la distribución de direcciones en cada red. Es así que a
la red de Diseño Gráfico ya existente se les ha asignado máscaras
255.255.255.240 lo cual permite tener 14 direcciones útiles; a la de
Alta resolución también se le ha asignado la máscara 255.255.255.240
con lo que se tienen 14 direcciones útiles, lo que permite un posible
crecimiento de la parte de alta resolución.
La red para la transmisión de metadatos utiliza la máscara
255.255.255.224, la que permite 30 direcciones útiles, con esto se
permite un posible crecimiento de la parte de baja resolución que
utiliza las licencias Advanced Edit y la de alta resolución.
A la Red para la comunicación de equipos de alta y baja resolución se
ha asignado la máscara 255.255.255.248 la cual permite 6 direcciones
útiles, esto se realiza debido a que esta red no va a crecer en el futuro.
3.5.1. UBICACIÓN DE LOS EQUIPOS UTILIZADOS EN EL
PROYECTO
En el cuarto de equipos, los dispositivos deben estar ubicados en un
lugar seco, protegidos del polvo y como lo muestra la figura 3.16 en
racks contiguos.
Esta distribución de equipos facilita las conexiones entre los
servidores. Cada rack debe ser conectado a un UPS para proteger los
equipos de fallos eléctricos
En uno de los racks es necesario ubicar una matriz para la distribución
de los puntos de red ( patchera ) de las editoras, las pequeñas LAN y
el DEKO, así como un punto de la red para enlazarse con la red
administrativa.
También se debe ubicar los dos switchs: 100BaseT Y 1000BaseT, que
son los encargados de segmentar la red. Una posible distribución de
los equipos se muestra la figura 3.4
PACHERA
XForm
PROFILE XP
1-CHANELL ENCODER
NEWSBROWSE SERVER
SEQUENCIAL ENCODER
IMAGEN SUPPORT SERVER
KVM Extender
GATEWAY LINUX
NewsQPro
UPS
UPS
UPS
UPS
Figura 3.16. Distribución de los equipos en el cuarto de equipos
Para manejar los 4 servidores y la puerta de enlace Linux desde una
misma estación de trabajo, se recomienda utilizar un equipo llamado
KVM. Este equipo es una interfaz que permite manejar varios CPUs
con un solo monitor, teclado y mouse. En la figura 3.17 se muestra un
ejemplo de KVM con una salida para el monitor, una entrada de
teclado y una para el mouse, y varios puertos paralelos que van hacia
los CPUs que se van a manejar.
Figura 3.17. Equipo KVM.
En caso de que el operador que envía las notas al aire no se
encuentre en la misma área que los servidores (como ocurre casi
siempre) se puede adicionar un KVM Extender. Con este dispositivo
se puede tener el control de los servidores desde la ubicación del
Switcher, por ejemplo, que es donde está destinado a ubicarse el
NewsQPro que es el equipo que administra los trabajos almacenados
en el Profile XP.
Este KVM Extender requiere de una conexión por cable UTP
Categoría 5e y puede estar a una distancia de la base de hasta de 30
metros.
PACHERA
XForm
PROFILE XP
PR
O
FI
LE
XP
NEWSBROWSE SERVER
IMAGEN SUPPORT SERVER
KVM Extender
GATEWAY LINUX
NewsQPro
UPS
UPS
UPS
UPS
Figura 3.18. Estaciones plegables de trabajo
En la figura 3.18 apreciamos 2 estaciones de trabajo: la que maneja 4
servidores y la que maneja el Profile XP. Desde aquí se le da
mantenimiento a la red y a los canales del Profile XP que maneja el
NewsQPro.
3.5.2. CONFIGURACIONES DE LOS EQUIPOS
A la Puerta de enlace Linux se la analizará en el subcapítulo de
seguridad debido a la importancia de su función. La configuración del
resto de equipos se puede dividir en tres etapas:
a) Configuración de los parámetros de red.
b) Configuración del sistema de sincronismo NetTime.
c) Configuración de los servicios
a) Configuración de los parámetros de red
A excepción de la puerta de enlace Linux, el resto de equipos que
requieren de un sistema operativo trabajan bajo Windows. La
configuración de los parámetros de red de un sistema operativo
Windows se puede realizar en Conexiones de Red del Panel de
Control.
Los datos para cada equipo varían según la o las redes a las que
pertenezca. Los terminales pueden utilizar las direcciones libres de la
red a la que pertenezcan.
Aparte de la configuración de red propia de los equipos, el sistema
NewsBrowse requiere que las direcciones sean asociadas con el tipo
de equipo. Esto se debe definir en una tabla que debe ser incluida en
el directorio C:\WINNT\system32\drivers\etc de cada equipo.
La tabla del sistema de este proyecto es la que se detalla a
continuación:
#-------------------------------------------------#Tabla General de Equipos
#-------------------------------------------------127.0.0.1
localhost
# NewsEdit SC
192.168.10.11 TSGNESC1
192.168.11.11 TSGNESC1_fc0
192.168.10.12 TSGNESC2
192.168.11.12 TSGNESC2_fc0
#NewsEditXT
192.168.10.13 TSGNEXT1
192.168.11.13 TSGNEXT1_fc0
192.168.10.14 TSGNEXT2
192.168.11.14 TSGNEXT2_fc0
#Profile
192.168.10.1 TSGPVS1
192.168.11.1 TSGPVS1_fc0
#NewsQPro
192.168.10.2 TSGNQP1
#Codificador de un canal
192.168.10.3 NB-LIVEENC1
#Codificador Secuencial
192.168.10.6 NB-SEQENC1
#Servidor ISS
192.168.10.8 NB-IMAGESUP1
#Servidor NewsBrowse
192.168.10.4 NB-SERVER1
192.168.31.4 NB-SERVER1_al_ NAS
#Servidor Conform
192.168.10.7 NB-XRE1
192.168.11.7 NB-XRE1_fc0
#NAS
192.168.10.5 NB-NAS1
192.168.31.5 NB-NAS1_al_NBServer
#AdvanceEdit
192.168.10.9
editora-1
192.168.10.10
editora-2
Como se puede ver en la tabla se relacionan las direcciones con
identificadores de los equipos. Estos indicadores son cadenas
definidas por el proveedor para identificar los equipos según la función
que cumplen en el sistema.
b) Configuración del sistema de sincronismo NetTime
El sistema NetTime mantiene sincronizados todos los relojes de los
equipos. Este sistema requiere de un servidor de sincronismo que
provea de su señal de tiempo a toda la red.
El proveedor de los equipos especifica que el equipo que debe de
hacer de servidor NetTime es el Codificador 1CH.
Figura 3.19. Configuración NetTime para usuarios red administrativa
Las máquinas de la Red Administrativa que van a ser clientes
NetTime, también requieren de una configuración para este objetivo, la
cual se muestra en la figura 3.19.
Teniendo
ya
un
servidor
NetTime
y
varios
clientes,
todos
pertenecientes a la Red Administrativa (172.16.0.0), se requiere
también que los usuarios de la Red de edición no lineal estén
sincronizados. Para esto se requiere que estas máquinas utilicen un
equipo que pertenezca a ambas redes como servidor NetTime.
El equipo que se utilizará será el Servidor NewsBrowse. Para realizar
esto se debe configurar al Servidor NewsBrowse como cliente
NetTime, y para las máquinas de la Red de edición no lineal, él será
su servidor NetTime. Su configuración es como lo muestra la figura
3.20.
Figura 3.20. Configuración NetTime 2.0 para los servidores
c) Configuración de los servicios
La configuración de los servicios depende de las funciones que
cumpla el dispositivo en el sistema. Para acceder al menú de
configuración de un equipo, se debe ingresar desde un navegador al
puerto 280 del equipo. Por ejemplo si se quiere ingresar a la
configuración del Servidor NewsBrowse, se debe ingresar a
http://localhost:280 y acceder con los siguientes datos:
Usuario: root_nb_svr\nbadmin
Contraseña: newedit10
Como ya se indicó anteriormente, los parámetros de configuración
dependen del equipo. Por ejemplo si se accede a la configuración del
Codificador 1 CH, se podrá configurar los tipos de señales de entrada.
A diferencia del resto de equipos, para acceder a los menú de
configuración del NAS se debe ingresar desde un navegador a
http://root_nb_nas. Los cambios se realizan como administrador (la
clave predeterminada es nb).
Los principales parámetros que se deben configurar son:
ƒ
Direcciones IP y Máscaras de Subred de todas las interfaces (Para
nuestro caso dos).
ƒ
Privilegios de acceso de equipos que acceden de ambas redes
(administrativa y de edición no lineal). Estos pueden ser: Sólo
lectura RO o Lectura y escritura WR.
ƒ
Cambio de contraseña
Una vez realizada la configuración, se pueden realizar pruebas de los
permisos configurados desde máquinas pertenecientes a cada una de
las redes. Esto se lo realiza accediendo desde la máquina que se va a
probar a la dirección \\root_nb_nas\Media y tratando de crear y leer
archivos (como prueba se puede crear un archivo de texto).
3.6. GESTIÓN DEL SISTEMA
Uno de los protocolos más utilizados para la gestión de redes de datos es el
SNMP (Protocolo Simple de Gestión de Red o Simple Network Management
Protocol). Este es un protocolo de nivel de aplicación que forma parte de la
familia TCP/IP.
Este protocolo no es orientado a conexión pues utiliza UDP, el cual no
mantiene las conexiones entre la estación de monitoreo y los agentes
gestionados.
El protocolo SNMP codifica toda la información que se desea gestionar en
variables organizadas en forma de árbol. Este árbol toma el nombre de Base
de datos de la Información de Gestión MIB (Management Information Base).
Aunque la MIB se encuentra estandarizada, este estándar da espacio para
que existan variables propias de cada fabricante de equipos. Como es de
imaginarse, dependiendo de la función del equipo terminal, será el número y
el tipo de variables.
Un dato a destacar es que los sistemas SNMP utilizan una variable
denominada comunidad, la cual es una cadena de caracteres que debe ser
utilizada igual en todos los equipos que pertenezcan a un mismo sistema.
Todos los equipos vienen la comunidad public predeterminada.
3.6.1. AGENTE SNMP
El Grupo Grass Valey sugiere para la gestión SNMP un programa
desarrollado por ellos. El programa de gestión se llama Net Central III
y puede ser instalado en plataformas Windows.
El programa requiere que la PC donde sea instalado cumpla con las
siguientes especificaciones:
• Procesador Pentium II o superior, de 266 MHz en adelante.
• 128 MB de memoria RAM.
• 100 MB de espacio disponible en el disco duro.
• Adaptador de red TCP/IP (Típicamente, tarjeta de red Ethernet)
• Tarjeta de sonido y parlantes, si se requieren activar las alarmas del
sistema.
Mientras el sistema NetCentral III se encuentre corriendo en la
computadora que realiza las funciones de agente, realiza las
siguientes operaciones de manera automática:
• Chequea periódicamente que los dispositivos gestionados tengan
conectividad con el agente de gestión.
• Indica los estados de las variables de gestión con íconos fáciles de
entender.
• Recibe y muestra mensajes de alerta de los objetos gestionados y
presenta mensajes de sugerencia de posibles acciones correctivas a
tomar.
• Guarda todos los mensajes de estado de los dispositivos (Logs).
• Notifica el estado de los objetos gestionados en base a reglas que se
deben configurar previamente.
Además de los procesos automáticos, se puede emplear el programa
para realizar chequeos manuales a los dispositivos gestionados:
• En la pantalla de estado (Status) se puede realizar un esquema de la
ubicación de cada equipo y las conexiones entre los mismos para
facilitar su ubicación.
• Se puede verificar en todo momento el estado de los dispositivos y
sus variables de gestión.
• Se puede acceder a los registros de alarmas (Logs) para realizar un
análisis de lo sucedido anteriormente.
• Con un paquete adicional llamado eNetCentral, se puede realizar el
chequeo del estado de los dispositivos desde el Internet por medio
de un navegador.
Para el proyecto se ha decidido instalar el programa en el Servidor
Profile XP. En la figura 6.1 se muestra la pantalla principal del
programa.
Figura 3.21. Pantalla Principal de Net Central III
Una vez instalado el programa se deben incluir uno a uno los equipos
a gestionar, para esto se accede a la opción File (Archivo) y se ingresa
a Add New Device (Ingresar nuevo dispositivo). Una vez realizado
esto, se debe ingresar la dirección IP del dispositivo y la comunidad
(public por defecto). Una vez ingresado un dispositivo, aparece un
menú con los parámetros a monitorear.
Con todos los dispositivos instalados, el sistema puede monitorear las
entradas de video, la temperatura interna del equipo, el estado de la
red, ancho de banda que consume cada equipo (gráfico) y el estado
de los equipos que se adicionen a él.
Obviamente estos parámetros sólo son válidos para los equipos que
manejan y codifican audio y video (No para el servidor Linux al cual
sólo se le puede monitorear el tráfico en sus interfaces).
Para el NAS, también aparece un parámetro adicional que es el de
espacio utilizado de los discos.
Aparte de solicitar información de los dispositivos, el sistema también
recibe mensajes de alerta de los mismos en caso de que alguno de los
parámetros tenga valores fuera de los normales. Por ejemplo cuando
el servidor NAS esté utilizando más del 75% de su capacidad,
aparecerá una alarma indicadora.
3.6.2. OBJETOS GESTIONADOS
Para el monitoreo de los equipos de la red mediante SNMP hay que
habilitar esta opción en el sistema operativo respectivo.
Para los sistemas Windows (que son la mayoría) hay que instalar un
componente de Windows que no viene predeterminado con la
instalación típica. Este componente se encuentra en Panel de Control,
Agregar o Quitar Programas. Se accede a la opción componentes de
Windows y se instala el componente SNMP; luego de esto se debe
habilitar el servicio.
Para habilitar al servicio. Se debe ingresar al Administración de
dispositivos ubicado en Sistema, y habilitar el agente SNMP en
Administrador de Servicios. Como predeterminada viene configurada
la comunidad public, la cual puede ser cambiada en el mismo menú.
Para los sistemas Linux, se debe editar el archivo de configuración
snmpd.conf ubicado en el directorio /etc/snmp. A continuación se
muestran las líneas principales del archivo:
#
sec.name
source
com2sec notConfigUser default
# group context
comunity
public
sec.model sec.level prefix
access notConfigGroup""
any
noauth
exact
read write notif
all none none
En las primeras dos líneas se describe un nombre de usuario
(notConfigUser), las direcciones desde donde se puede acceder
(default o cualquiera) y la comunidad (public).
En las siguientes dos líneas se puede configurar grupos con permisos
de acceso (lectura y/o escritura) que se permite al grupo.
Luego de esto, se debe incluir al servicio en el arranque del sistema;
esto se realiza ejecutando el comando:
chkconfig snmpd on
3.7. SEGURIDAD DEL SISTEMA
Debido a que la red maneja archivos multimedia, cada dispositivo requiere de
una gran cantidad de recursos del sistema para procesar este tipo de datos.
Es por esto que la instalación de un sistema antivirus no sería conveniente ya
que hay que aprovechar al máximo el procesamiento de cada equipo.
Teniendo en cuenta lo mencionado, se requiere mantener aisladas las redes,
permitiendo solamente el tráfico estrictamente necesario. Con esta
separación se puede evitar que se propague un virus en caso de la infección
de uno de los segmentos, y también se evita que se transmita información
que no tiene nada que ver con el sistema multimedia.
Con estos conceptos, la Puerta de enlace Linux se convierte en el elemento
principal de seguridad de la red, ya que es la comunica la Red Administrativa
con la de edición no lineal (digital) y va a ser donde se permita o niegue el
paso de paquetes hacia uno u otro lado, es decir va a ser el cortafuegos
(firewall).
3.7.1. CONFIGURACIÓN DE LA PUERTA DE ENLACE LINUX
La forma en que se realizará la configuración del firewall, será la que
es común a este tipo de redes de alta seguridad con aplicaciones
específicas: Se negará todo el tráfico hacia uno u otro lado, y se
configurarán
excepciones
para
el
tráfico
multimedia
y
de
administración de la red.
La configuración se realizará utilizando el comando iptables de los
sistemas Linux. Este comando permite o niega el tráfico entre redes
basándose en las direcciones, el número del puerto y/o el protocolo
que requiere el acceso.
Primero se debe declarar como política del sistema que no se permita
ningún tipo de tráfico. Luego de esto se debe permitir el tráfico entre
las interfaces de la Puerta de enlace Linux; esto se realiza para que
una vez que una petición haya ingresado al Linux, no tenga ningún
problema en dirigirse a otra interfaz diferente.
A continuación se debe configurar los permisos para las redes que van
a acceder al servicio Samba. Esto se lo realiza permitiendo el acceso
a todas las peticiones que busquen la combinación de los puertos 137
y 138 con protocolo UDP o 139 y 445 con protocolo TCP que son los
que se utilizan para una aceptar una conexión de procedimiento
remoto. Hay que tener en cuenta que también se puede permitir el
tráfico proveniente de las redes administrativas del canal (172.16.0.0)
ya que algunos de estos usuarios podrían requerir del servicio Samba.
Para configurar el servicio NewsBrowse, se debe permitir el tráfico
hacia el Servidor NewsBrowse en las combinaciones 80 TCP, 37 TCP
y 138 UDP que son utilizadas por los servicios HTTP (acceso web),
sistema de sincronismo NetTime y compartir archivos e impresoras
respectivamente. También se debe permitir el acceso al NAS
NewsBrowse en la combinación 445 TCP que es la que utiliza el
sistema para permitir una conexión remota. Se deben permitir estos
accesos tanto para las direcciones en la red administrativa como en la
red de clientes (Servidor NewsBrowse: 192.168.10.4 y 192.168.31.4,
NAS: 192.168.10.5 y 192.168.31.5).
También se debe permitir la salida al Internet a las máquinas de
Diseño Gráfico (192.168.0.2, 192.168.0.3 y 192.168.0.4). Esto se
realiza permitiendo el tráfico de estas redes hacia el servidor Proxy del
canal.
Otro acceso que se debe permitir a todas las redes es el requieran
hacia la impresora (172.16.3.7), ubicada en la red administrativa al
puerto 9100.
Para permitir el acceso remoto al Linux (SSH), se debe habilitar el
acceso desde la red administrativa al puerto 22 que es el que utilizan
los sistemas Linux para este fin.
Finalmente se recomienda habilitar también todo tipo de tráfico hacia
la interfaz de Loopback, ya que esta es utilizada por varias
aplicaciones del sistema operativo para comprobar el correcto
funcionamiento de las interfaces de red.
Todas estas reglas deben ser detalladas en un fichero, el mismo que
se debe incluir en el archivo /etc/rc.local para que se corra cada vez
que se inicia la Puerta de enlace. El archivo con las reglas se detalla
en el anexo VII.
3.7.2. SERVICIO SAMBA
Otra de las aplicaciones que se le va a dar a la Puerta de enlace
Linux, es la de montar un servicio Samba. Samba es una aplicación
para Linux y sistemas Unix en general, que nos permite trabajar con el
protocolo Session Message Block (SMB), también conocido como
protocolo NetBIOS o LanManager.
El protocolo SMB es usado para compartir discos e impresoras entre
sistemas Windows y Linux. Algunos computadores Apple Mac y ciertos
navegadores web también se comunican con el protocolo SMB.
Algunas alternativas a SMB son Netware, NFS, Appletalk, Banyan
Vines o Decnet. Sin embargo, ninguna de ellas es tan ampliamente
conocida y usada como SMB.
Usando el paquete de herramientas Samba, se montará un directorio
común en la Puerta de enlace Linux, al cual podrán acceder
determinados usuarios de las diferentes redes del canal.
La finalidad de este directorio común es permitir a los usuarios de la
red compartir archivos de manera sencilla. Una de los usos que se le
busca dar es el de compartir desde el Profile XP un archivo que
contiene un programa entero producido por la estación para que
pueda ser grabado a CD en una de las editoras.
Básicamente para la instalación de este servicio se debe editar el
archivo smb.conf del directorio /etc/samba y configurar los siguientes
parámetros:
workgroup = GrupoDeTrabajo
hosts allow = 192.168.10. 192.168.0. 192.168.31. 172.16. 127.
interfaces = 192.168.10.30/27 192.168.0.14/28 192.168.31.6/29
172.16.10.253/16
[DirectorioComun]
comment = Carpeta Comun
path = /home/comun
browseable = yes
valid users = all
public = no
writable = yes
Como se indica en la configuración, el grupo de trabajo que tendrá
acceso al directorio será GrupoDeTrabajo, y las redes que podrán
acceder serán la 192.168.10.0, 192.168.0.0, 192.168.31.0 y 172.16.0.0
(aparte de la interfaz de loopback 127.0.0.0 que es virtual). También
se detallan las direcciones que toma la Puerta de enlace en cada red.
El directorio compartido será /home/comun, previamente creado, al
cual todos los usuarios tendrán acceso de lectura y escritura
(browseable y writable).
3.8. MANTENIMIENTO Y RESPALDOS
Una manera de tener un respaldo de la configuración, es sacar una copia de
todos los servidores por medio de un programa que graba la imagen del
sistema en otro disco duro. Este programa se llama Recovery Manager.
Incluso a la Puerta de enlace Linux se le puede sacar una imagen en otro
disco. También se puede guardar copias de los archivos de configuración y
las reglas de firewall.
El mantenimiento del sistema es a nivel de hardware y de software. La
limpieza del hardware debe ser trimestral debido a que los racks sugeridos
no son cerrados.
A nivel de software es importante tomar en cuenta las actualizaciones que el
proveedor brinda semestral o mensualmente, para poder tener mayores
opciones al manejar versiones de otros programas.
Aquí también es
importante el borrado semanal de los archivos de audio y video que se
almacenan en las editoras no lineales y los servidores de alta y baja
resolución.
La
forma
del
borrado
de
archivos
es
muy
metódico.
Periódicamente se deben borrar los archivos que ya no tienen utilidad.
Primero se borra el archivo del NewsBrowse (baja resolución), luego del
Profile XP a través del Housekeepper (alta resolución). Hay que recordar que
los equipos del sistema tienen unidades de almacenamiento para el trabajo
de edición, no para realizar un archivo permanente de datos.
CAPITULO IV
ANÁLISIS DE COSTOS
4.1. INTRODUCCIÓN
En el camino a una televisión completamente digital, las estaciones
televisoras deben reemplazar sus sistemas de almacenamiento, edición y
transmisión analógicos para poder enviar la información multimedia digital a
los usuarios que a su vez deberán tener nuevos aparatos receptores con
capacidad de procesar y proyectar esta información digital.
Estos cambios requieren de una inversión (por parte de estaciones y
televidentes) que se ve justificada analizando la mejora en la calidad de la
imagen, facilidad de manejo de señales e interactividad que una televisión
digital propone; pero el principal justificativo, es la compatibilidad mundial. En
un mundo que busca siempre la globalización, es difícil pensar que una
determinada región
o país permanezca indiferente a los avances
tecnológicos que se distribuyen y aplican en el resto del planeta.
Como ya se destacó en el capítulo uno, varios países han planificado plazos
para el cambio del sistema analógico al digital. En España por ejemplo,
siguiendo el Plan Nacional de Televisión Digital, se publicó el 10 de marzo
del 2000 un decreto en el que se renovaba la concesión de bandas de
frecuencia a las estaciones de televisión Telecinco S.A., Antena 3 Televisión
S.A. y Canal Plus-Sogecable S.A. con una clausula que los obligaba luego de
24 meses (10 de marzo del 2002) a emitir programación en formato digital en
su banda asignada. Quedando a criterio de las estaciones la elección del
horario, la duración, y el tipo de la programación.
El Plan Nacional de Televisión Digital definía que el estándar que se
emplearía para las transmisiones era el DVB (Digital Video Broadcast) en el
cual se utiliza el sistema de codificación MPEG-2, compatible con el MPEG-1
empleado en este proyecto.
Actualmente las estaciones beneficiadas con el decreto se encuentran
transmitiendo el total de su programación en formato digital y analógico a
pesar de que el plazo para dejar de lado las emisiones analógicas es el 2010.
4.2. ANÁLISIS DEL SISTEMA ACTUAL (EDICIÓN ANALÓGICA)
El sistema de edición analógica se compone de equipos editores, equipos de
reproducción y/o grabación y cintas de almacenamiento. Las cintas que
contienen la información que va a formar parte de una secuencia multimedia
final, se reproducen en los equipos respectivos, los cuales envían sus
señales de salida al equipo editor para que se vaya grabando el proyecto
final en otra cinta de almacenamiento.
4.2.1. ANÁLISIS DE COSTOS OPERATIVOS
Los equipos de edición lineal (analógica) requieren de cintas
magnéticas para grabar señales que luego ingresarán al editor, y para
grabar la información editada.
Estas cintas son el principal costo operativo del sistema. Aparte de ser
utilizadas por camarógrafos, por editores para preparar sus clips, y
para grabar señales internacionales, es política de la empresa
televisora almacenar una copia de todos los programas producidos por
el canal.
El canal compra cassettes Betacam de marca Sony y DVCPro de
marca Maxwell dependiendo si el equipo de grabación almacena la
información de forma analógica o digital respectivamente.
A
continuación en las tablas 4.1 y 4.2 se presentan los costos de los
cassettes Betacam y DVCPro de las marcas mencionadas. Los
precios varían según el tiempo de video que permite almacenar y el
tipo de riel donde se enrolla la cinta (un riel más grande permite
realizar procesos de copiado, adelanto o retroceso de manera más
rápida que un riel pequeño).
Modelo
BCT-D6
BCT-D12
BCT-D22
BCT-D32
BCT-D34L
BCT-D40
BCT-D64L
BCT-D94L
BCT-D124L
BCT-D12CL
Tipo de
riel
Pequeño
Pequeño
Pequeño
Pequeño
Grande
Pequeño
Grande
Grande
Grande
No aplica
Tiempo de
almacenamiento
en minutos
6
12
22
32
34
40
64
94
124
140 Limpiezas
Costo por
unidad en
dólares
13,99
14,86
16,51
17,98
19,88
19,49
27,99
43,99
57,99
12,79
Tabla 4.1. Tipos de cassettes Betacam producidos por Sony
En la tabla 4.1 se muestra también el detalle del modelo BCTD12CL que es conocido como cassette limpiador. Este modelo se
encarga de limpiar con una sustancia especial las cabezas lectoras
de los equipos reproductores de video. Su uso es muy importante
ya que con frecuencia ocurren problemas por la presencia de polvo
acumulado en las cabezas lectoras de los equipos que trabajan
con cintas magnéticas.
Modelo
DVP-12M
DVP-24M
DVP-33M
DVP-34L
DVP-66L
DVP-66M
DVP-94L
DVP-126L
Tiempo de
Tipo de almacenamiento en Costo por unidad
minutos
en dólares
riel
Mediano
12
5,68
Mediano
24
6,89
Mediano
33
8,79
Grande
34
11,99
Grande
66
15,89
Mediano
66
12,39
Grande
94
24,29
Grande
128
30,99
Tabla 4.2. Tipos de cassettes DVCPro producidos por Maxwell
De todos los tipos anteriormente mencionados, el canal utiliza los
Betacam BCT-D32, BCT-D64L y BCT-D94L y el DVCPro DVP-126L.
A la semana el canal presenta 40 horas de programación producida
por él mismo, la cual se almacena generalmente en formato Betacam.
Para esto se requieren 26 cassettes BCT-D94L lo cual representa un
gasto de 1143,74 dólares en cintas cada semana. Basándonos en un
año de 52 semanas obtenemos como resultado un gasto de 59474,78
dólares anuales.
En el breve análisis anterior no se incluyen las cintas que se utilizan
para las grabaciones de señales internacionales, ni las que utilizan los
camarógrafos ya que generalmente se reutilizan.
4.3. ANÁLISIS DEL SISTEMA PROPUESTO (EDICIÓN DIGITAL)
Este proyecto tiene como finalidad automatizar el sistema de edición, y evitar
el inmenso gasto que se hace en cinta anualmente eliminándolo
paulatinamente. Una vez habilitado este sistema se ahorra el tiempo e
incrementa la calidad del video.
Sin embargo el beneficio económico es sustancialmente más difícil de
contabilizar. En ocasiones la cantidad de tiempo ahorrado con los sistemas
de edición no lineal (digital) es significativa, reduciéndose el tiempo de
trabajo de forma considerable.
En todo caso y en el supuesto de que el tiempo total utilizado por los
sistemas tradicionales de edición y estos sistemas de edición no lineales,
fuera el mismo, al final se obtiene la sensación de haber conseguido un
mejor producto. Todo ello en definitiva se debe a que se tiene más tiempo
para elaborar alternativas.
4.3.1. ANÁLISIS DE LA INVERSIÓN INICIAL
En la tabla 4.3 se muestran los precios a los cuales se cotizaron los
equipos por medio del representante de Grass Valley Group y
THOMSON en el Ecuador que es ELECTROLAB.
Con la compra de los equipos, el proveedor incluye un curso de
capacitación, igualmente con la compra de los programas de edición
se incluye un curso de edición sin ningún costo adicional.
En cuanto a la instalación de las redes Gigabit Ethernet (UTP) y 10
Gigabit Ethernet (fibra óptica), el valor que se ha propuesto incluye la
instalación de ducterías (material incluido), el paso de cables, pruebas
de conectividad y el reporte de ingeniería de la instalación.
BAJA RESOLUCIÓN
CODIFICADORES DE BAJA RESOLUCIÓN
Codificador NewsBrowse de un canal
Codificador NewsBrowse secuencial
LICENCIAS DE EDICIÓN
Licencia NewsBrowse Advance Edit Session
Licencia NewsBrowse Edit Session
SERVIDORES
Servidor NewsBrowse
Servidor Image
Servidor NAS
Servidor Conform
ALTA RESOLUCIÓN
SISTEMAS DE EDICIÓN NO LINEAL
NewsEdit-Full Efects (XT)
NewsEdit-Software codec (SC)
SISTEMA MASTER
Sistema de Control Master NewsQPro
Servidor Master, Profile XP + RAID 5
EQUIPOS DE RED Y CABLES
Switch de fibra óptica (10GBase SR) de 8 puertos
Switch Ethernet 10/100 BaseT de 16 puertos
Switch Gigabit 10/100/1000 BaseT de 16 puertos
Cables Ethernet cat 5E de 25 m
Cables de fibra óptica de 50m y 2m
ADICIONALES
Reloj Master
Convertidor Time Code
KVM Extender
Instalación de redes 1000Base T y 10GBase SR
TOTAL
Tabla 4.3. Costos del sistema de edición digital
Costo en
dólares
4900
8400
2450
1225
19250
4200
8890
8750
13930
9030
8750
80000
2000
1050
3010
45
150
500
450
350
1000
178330
A pesar de que los precios podrían considerarse bastante altos, el
ahorro que se tendrá desde la implementación del proyecto es
incalculable.
4.3.2. ANÁLISIS DE COSTOS OPERATIVOS
A diferencia del sistema analógico, el sistema propuesto almacena la
información en unidades completamente digitales como lo son los
discos Discos Compactos CDs (Compact Disks).
En este proyecto se ha decidido proponer un esquema de transición
de 3 años de duración, en el que se dejará por completo de almacenar
la producción del canal en cintas magnéticas.
Se cuenta con que todas las PCs de edición posean un dispositivo
quemador de CDs CD-WR (CD Writer), con el cual se puedan copiar
los archivos de video al CD.
Recordando que la señal que se transmite a los televidentes es una
más que ingresa a la matriz, se puede tomar como entrada al sistema
para ser grabada en el Profile XP, y luego copiada en la puerta de
enlace Linux mediante el sistema Samba.
Una vez que el archivo de un determinado programa se encuentre en
la carpeta Común del equipo Linux, puede ser tomado por cualquier
editora para grabarlo en un CD.
Para objetivos de este análisis se han cotizado CDs de marca
Verbatim. Estos discos vienen en paquetes de 50 unidades con un
costo de 10 dólares.
Conociendo que cada CD tiene una capacidad de 700 MB, y que el
formato MPEG-1 utilizado en este proyecto graba video a una tasa de
1.5 Mbps (0.1875 MBps), se calcula que en un CD hay capacidad para
almacenar poco más de una hora de video (62 minutos exactamente).
En este proyecto se propone que durante el primer año de
funcionamiento del sistema no se realice almacenamiento alguno de la
producción nacional en CDs, sino que se continúe con el archivo en
cintas magnéticas para que el personal de la estación se enfoque en el
aprendizaje del trabajo con los nuevos dispositivos.
Durante el segundo año del proyecto se propone que los proyectos
realizados en las editoras sean archivados una vez que se encuentren
listos para enviar al Profile XP. En este segundo año se continuará con
el almacenamiento total de la programación producida por el canal en
cintas magnéticas. Se ha estimado que de las 40 horas semanales
producidas por el canal, 15 son producidas en las editoras.
Finalmente desde el tercer año en adelante se realizará el archivo de
toda la producción del canal en CDs, desplazando completamente a
las cintas magnéticas.
Tomando para objetos de cálculo, un año de 52 semanas al igual que
en el análisis del sistema analógico, se presenta a continuación una
tabla del gasto anual en archivo de programación durante los
siguientes 4 años de la implementación del proyecto.
Gasto en cintas
magnéticas
Gasto en CDs
Gasto total
Año 1
Año 2
59.474,78
0,00
59.474,78
59.474,78
1.560,00
61.034,78
Año 3
Año 4
0,00
4.160,00
4.160,00
0,00
4.160,00
4.160,00
Tabla 4.4. Gasto anual de la transición propuesta.
Gasto Anual de la Transición
Propuesta
Dólares
80.000,00
Gasto en cintas
magnéticas
Gasto en CDs
60.000,00
40.000,00
20.000,00
Gasto total
0,00
1
2
3
4
Figura 4.1. Gráfico de barras del Gasto anual de la transición
propuesta.
Se deduce del análisis anterior que una vez completa la transición del
almacenamiento y posterior archivo de la programación producida por
la estación, un beneficio más del sistema propuesto es que el archivo
en CDs representa un gran ahorro en comparación con el
almacenamiento en cintas magnéticas.
Como ya se ha mencionado a lo largo de este proyecto, el principal
beneficio buscado no es el económico, sino que es el de facilitar la
edición de imágenes, permitiendo así que este trabajo sea más
artístico que técnico. También se busca dar un paso importante hacia
la televisión de alta definición, digitalizando las señales que se
manejan internamente en la estación. A pesar de lo anteriormente
mencionado, se puede realizar un cálculo basado en la ventaja
económica que representa archivar la producción del canal de
televisión en CDs para deducir el tiempo en que se recuperará la
inversión.
En la tabla 4.5 a continuación se muestra una comparación año a año
de los costos operativos del sistema analógico (cintas magnéticas) y
los del sistema digital (cintas magnéticas y CDs), el ahorro anual que
se obtiene con el sistema propuesto y el valor acumulado que se
ahorra con este último sistema.
Año
1
2
3
4
5
6
Costos
Operativos
Sistema
Analógico
59.474,78
59.474,78
59.474,78
59.474,78
59.474,78
59.474,78
Costos
Ahorro Acumulado
Operativos
(Recuperación de
Sistema
Ahorro Anual
la Inversión)
Digital
Sistema Digital
59.474,78
0,00
0,00
61.034,78
-1.560,00
-1.560,00
4.160,00
55.314,78
53.754,78
4.160,00
55.314,78
109.069,56
4.160,00
55.314,78
164.384,34
4.160,00
55.314,78
219.699,12
Tabla 4.5. Comparación de Costos operativos y Cálculo de
Recuperación de la Inversión.
Como se muestra en la tabla, en los dos primeros años no existe
beneficio económico, ya que según la transición propuesta aun se
archivaría la programación en cintas magnéticas. También hay que
destacar que entre el quinto y sexto año desde la implementación del
proyecto se recupera totalmente la inversión inicial ($ 178.330,00).
CONCLUSIONES Y RECOMENDACIONES
Este sistema de edición digital facilita al usuario el almacenamiento y
transferencia de información, ya que al tener un servidor centralizado se
tiene mejor control sobre el número de copias que se desea hacer y
sobre todo por trabajar en alta resolución la calidad al aire es superior a
cualquier sistema de edición convencional.
Incluyendo el sistema de edición como una aplicación de un sistema de
red ampliamente difundido como es TCP/IP, se ve beneficiado de todas
las propiedades que han hecho desarrollar este tipo de redes, como son:
compatibilidad mundial, sistema escalable de direccionamiento (por lo
menos para direcciones privadas), gestión y administración remota.
Aunque el cambio de los editores convencionales a los de edición no
lineal es un gigantesco paso para los operadores de los equipos, estos
se acostumbraran debido a las facilidades que el sistema brinda.
Como recomendación, quedó especificado en el capítulo 2, en la sección
de análisis de la red LAN, que para facilitar la administración de las PCs
de los departamentos, por seguridad y para preservar recursos del
sistema, se hace necesario segmentar toda la red existente en subredes.
Una vez realizada la transición de almacenamiento de la programación
de cintas magnéticas a CDs, se reducen los costos operativos del
sistema en una proporción de 14 a 1, lo cual permite una recuperación
de la inversión inicial en menos de 6 años de implementado el proyecto.
ANEXOS
ANEXO I
ANEXO II
Descripción del ADC-6001
El ADC-6001 es un convertidor de gran calidad de señales analógicas a
digitales que puede ser usado en múltiples aplicaciones que requieran
realizar la conversión de algún formato de video componente analógico
(como RGB o YCrCb) a una salida digital en serie. Todo el procesamiento es
llevado fuera del dominio digital para garantizar la calidad del broadcast,
manteniendo así una exactitud de 10 bits de la entrada a la salida.
La sincronización de la salida del ADC-6001 puede usar información de
sincronismo tanto de la luminancia como de otras entradas externas (con
niveles de 300mV o 2V). Se incluyen paquetes en la salida para permitir la
detección de errores de recepción.
Puerto serial de diagnostico
Esta tarjeta tiene un puerto serial de diagnostico que permite el acceso a
mensajes de error, información de configuración y control del módulo por
medio del puerto serial de una PC.
Entradas Analógicas de video
4 entradas de 75 Ohms Y, Cb, Cr, S
Conectores BNC
Nivel de entrada: 1V (video pico a pico); 2V (sincronismo pico a pico)
Pérdida por retorno menor a 40 dB a 6 MHz
Salidas digitales de video
5 salidas de 75 Ohm, 270 Mbps en serie
Conectores BNC
Niveles de salida: 800mV ± 10%
Variaciones de la salida menores que 720ps (10Hz a 1MHz BW)
Pérdidas de retorno menores que 15dB a 270MHz
Características eléctricas
Consumo de potencia: 9.5W (1.4A @ 6.5V, 0.05A @ -7.0V)
Características Mecánicas
Longitud 220mm (8.70")
Ancho 100mm (3.90")
Alto 18mm (0.75")
Peso 200g (0.52lbs)
Ruido
Luminancia mejor que 62 dB RMS (100 Hz a 5 MHz)
Crominancia mejor que 62 dB RMS (100 Hz a 5 MHz)
Barrido
Luminancia ±0.1dB a 5.5 MHz
Crominancia ±0.2dB a 2.75 MHz
Frequencia a la que se pierden 40 dB (nominal)
Luminancia 8.0MHz
Crominancia 4.0MHz
Retardo desigual entre componentes
Cualquier componente <5 nS
Rizado de retardo
Luminancia ±3nS a 5.75 MHz
Crominancia ±6nS a 2.75 MHz
ANEXO III
Descripción del VSM-6001
La familia de módulos Genesis VSE-6001 son amplificadores de distribución
de doble estándar digital en serie. La tarjeta tiene un puerto serial de
diagnóstico que permite enviar reportes a la aplicación piloto BO/S. BO/S
permite el acceso a reportes de error e información de configuración desde
un computador por medio del puerto serial. El módulo opcionalmente permite
la detección y corrección de errores.
La tarjeta puede entregar opcionalmente salidas analógicas compuestas
(PAL/NTSC) para cuando el formato de la entrada es componente digital 270
Mbps (D1/D5/DCT/Betacam Digital).
Entradas de Video Digital
Cantidad: 1
Conector BNC (75 Ohm)
Estándar: 270Mb/s (525/625), (SMPTE259M-C)
Entrada de Video Analógico
Cantidad: 4
Conector BNC (75 Ohm)
Estándar: PAL/NTSC
Niveles de 1Vp-p
Salidas de Video Digital
Cantidad: 8
Conector BNC (75 Ohm)
Estándar: 270Mb/s (525/625), (SMPTE259M-C)
Características Eléctricas
Consumo de potencia:
VSE-6001 1.8W (0.22A @ +6.5V, 0.05A @ -7.5V)
VSM-6001 3.9W (0.54A @ +6.5V, 0.05A @ -7.5V)
Características Mecánicas
Longitud: 220mm (8.70")
Ancho: 100mm (3.90")
Alto: 15mm (0.70")
Peso: 155g (0.40lbs)
Retardo
VSE-6001 5ns
VSM-6001 1.35ms
ANEXO IV
Sistema de almacenamiento RAID 5
Este arreglo de discos ofrece tolerancia al fallo, pero además, optimiza la
capacidad del sistema permitiendo una utilización de hasta el 80% de la
capacidad del conjunto de discos. Esto lo consigue mediante el cálculo de
información de paridad y su almacenamiento alternativo por bloques en
todos los discos del conjunto. La información del usuario se graba por
bloques y de forma alternativa en todos ellos. De esta manera, si
cualquiera de las unidades de disco falla, se puede recuperar la
información en tiempo real, sobre la marcha, sin que el servidor deje de
funcionar.
A diferencia de los sistemas anteriores (RAID 4), el RAID 5 no asigna un
disco específico la misión de comprobar los datos, sino que asigna un
bloque alternativo de cada disco a esta misión de escritura. Al distribuir la
función de comprobación entre todos los discos, se disminuye el cuello de
botella y con una cantidad suficiente de discos puede llegar a eliminarse
completamente, proporcionando una velocidad equivalente a un RAID 0.
RAID 5 es el nivel de RAID más eficaz y el de uso preferente para las
aplicaciones de servidor básicas para una empresa. Comparado con otros
niveles RAID con tolerancia a fallos, RAID 5 ofrece la mejor relación
rendimiento-costo en un entorno con varias unidades. Gracias a la
combinación del fraccionamiento de datos y la paridad como método para
recuperar los datos en caso de fallo, constituye una solución ideal para los
entornos de servidores en los que gran parte de la lectura y escritura es
aleatoria, la protección y disponibilidad de los datos es fundamental y el
costo es un factor importante. Este nivel de arreglo es especialmente
indicado para trabajar con sistemas operativos multiusuarios.
ANEXO V
Instalación de las Licencias Lite
1. En el NAS, en Security Setup y luego a Account Setup y se crea un
nuevo usuario con el password de Windows que este tenga en el
computador en el que se va a instalar la licencia.
2. Se crea el mismo usuario en el Newsbrowse WebDataBase en
usuarios de Windows con el mismo password; luego en la pagina de
Internet
del WebDataBase se ingresa a License and User
Management , luego a Users y se crea el mismo usuario con la clave
respectiva. Aquí con Edit/Remove se le da los privilegios que necesite.
3. En la maquina en la que se va a instalar se entra como administrador
en el archivo:
C:\windows\system32\drivers\etc\hosts (se lo abre con Notepad)
Y se aumentan las siguientes lineas:
192.168.31.10
nb-server1
192.168.31.20
nb-nas1
Guardar
4. En la configuración de pantalla (click derecho en pantalla - propiedades
- configuración - opciones avanzadas):
tamaño 1024x768; y se baja la aceleración por hardware (solución de
problemas) al punto anterior de la mitad , aplicar y aceptar.
5. En el Internet Explorer: Herramientas - Opciones de Internet Conexiones
-
Configuración
LAN
-
Servidor
proxy
Opciones
avanzadas:
En Excepciones se escribe: nb-nas1; nb-server1
6. Abrir el Internet Explorer e ir a la dirección:
http://nb-server1/nbui
y seguir los pasos de la instalación de cliente, que allí se indican:
ƒ
Instalar el flash AX
ƒ
Instalar el LIVE filter para todos los usuarios.
ƒ
Configurar el Net Time 2.2
ANEXO VI
Instalación del NewsBrowse Advance
Se verifica que los usuarios de los equipos con sus claves de sesión
Windows consten en la lista del NAS y el NewsBrowse WebDataBase y se
siguen los siguientes pasos:
1. En la configuración de pantalla (click derecho en pantalla - Propiedades Configuración - Opciones avanzadas):
tamaño 1024x768 ; y se sube la aceleración por hardware (solución de
problemas) al 100%
2. Probar conectividad con:
\\nb-nas1\media
\\nb-server1
3. En mi PC, se da clic izquierdo, Propiedades, Opciones avanzadas, y se
pone en Uso de memoria: Programas y en Memoria virtual 720.
4. En el Explorer, Propiedades, Seguridad, Intranet Local, Sitios, Opciones
Avanzadas, se incluye 192.168.10.70
ANEXO VII
Archivo de configuración del Firewal
#!/bin/bash
ROUTE=/sbin/route
IPTABLES=/sbin/iptables
OUTERIF=eth0
OUTERIP=172.16.3.11
OUTERNET=172.16.0.0/16
OUTERIP_BROADCAST=172.16.255.255
LAN_IP_RANGE=192.168.0.0/28
LAN_IP=192.168.0.14
IP_BROADCAST=192.168.0.15
LAN_IP_RANGE1=192.168.31.0/29
LAN_IP1=192.168.31.6
IP_BROADCAST1=192.168.31.7
LAN_IP_RANGE2=192.168.10.0/27
LAN_IP2=192.168.10.30
IP_BROADCAST2=192.168.10.34
LOCALHOST_IP=127.0.0.1/32
STATIC_IP=172.16.3.11/32
REMOTENET=0/0
PRIVPORTS="0:1023"
UNPRIVPORTS="1024:65535"
INET_IFACE=eth0
LAN_IFACE=eth1
LAN_IFACE1=eth2
echo -e "Activando Forwarding:
$OK"
echo 1 > /proc/sys/net/ipv4/ip_forward
/sbin/modprobe ip_tables
/sbin/modprobe ipt_limit
/sbin/modprobe ipt_state
/sbin/modprobe ip_conntrack
/sbin/modprobe ip_conntrack_ftp
/sbin/modprobe iptable_nat
/sbin/modprobe ip_nat_ftp
/sbin/modprobe ipt_multiport
/sbin/modprobe ipt_multiport
/sbin/modprobe
/sbin/modprobe
/sbin/modprobe
/sbin/modprobe
iptable_filter
iptable_mangle
ip_conntrack_irc
ip_nat_irc
#ELIMINANDO RUTA POR DEFAULT
if netstat -nr 2>/dev/null |grep -q 169.254.0.0; then
$ROUTE delete -net 169.254.0.0/16 gw 0.0.0.0
echo -e "Descartando Rutas no Necesarias:
$OK"
fi
echo -e "Flushing de Reglas por Default:
$OK"
# REMUEVE CUALQUIER REGLA EXISTENTE
$IPTABLES -F
$IPTABLES -F -t nat
$IPTABLES -F -t mangle
# POLITICA POR NEGACION
$IPTABLES -P INPUT
DROP
$IPTABLES -P OUTPUT DROP
$IPTABLES -P FORWARD DROP
echo -e "Cargando Reglas Generales Para el FireWall:
$OK"
#PERMITE EL FORWARD ENTRE TARJETAS
$IPTABLES -A FORWARD -m state --state ESTABLISHED,RELATED
ACCEPT
-j
#PERMITE LA COMUNICACION DE LAS REDES HACIA EL LINUX
$IPTABLES -A INPUT -i $OUTERIF -p tcp -s $REMOTENET -d $OUTERIP -j
ACCEPT
$IPTABLES -A OUTPUT -o $OUTERIF -p tcp -d $REMOTENET -s $OUTERIP -j
ACCEPT
$IPTABLES -A INPUT -i $OUTERIF -p udp -s $REMOTENET -d $OUTERIP -j
ACCEPT
$IPTABLES -A OUTPUT -o $OUTERIF -p udp -d $REMOTENET -s $OUTERIP -j
ACCEPT
$IPTABLES -A INPUT -i $LAN_IFACE -j ACCEPT
$IPTABLES -A OUTPUT -o $LAN_IFACE -j ACCEPT
$IPTABLES -A INPUT -i $LAN_IFACE1 -j ACCEPT
$IPTABLES -A OUTPUT -o $LAN_IFACE1 -j ACCEPT
#SAMBA
$IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE -d $LAN_IP -m multiport
--dports 137,138 -j ACCEPT
$IPTABLES -A INPUT -p tcp -s $LAN_IP_RANGE -d $LAN_IP -m multiport
--dports 139,445 -j ACCEPT
$IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE -d $IP_BROADCAST --dport
137 -j ACCEPT
$IPTABLES -A INPUT -p udp -d $LAN_IP -m multiport --dports 137,138
-j DROP
$IPTABLES -A INPUT -p tcp -d $LAN_IP -m multiport --dports 139,445
-j DROP
$IPTABLES -A OUTPUT -s $LAN_IP -d $LAN_IP_RANGE -m state --state
ESTABLISHED,RELATED -j ACCEPT
$IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE2 -d $LAN_IP2 -m
multiport --dports 137,138 -j ACCEPT
$IPTABLES -A INPUT -p tcp -s $LAN_IP_RANGE2 -d $LAN_IP2 -m
multiport --dports 139,445 -j ACCEPT
$IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE2 -d $IP_BROADCAST2 -dport 137 -j ACCEPT
$IPTABLES -A INPUT -p udp -d $LAN_IP2 -m multiport --dports 137,138
-j DROP
$IPTABLES -A INPUT -p tcp -d $LAN_IP2 -m multiport --dports 139,445
-j DROP
$IPTABLES -A OUTPUT -s $LAN_IP2 -d $LAN_IP_RANGE2 -m state --state
ESTABLISHED,RELATED -j ACCEPT
$IPTABLES -A INPUT -p udp -s $OUTERNET -d $OUTERIP -m multiport -dports 137,138 -j ACCEPT
$IPTABLES -A INPUT -p tcp -s $OUTERNET -d $OUTERIP -m multiport -dports 139,445 -j ACCEPT
$IPTABLES -A INPUT -p udp -s $OUTERNET -d $OUTERIP_BROADCAST -dport 137 -j ACCEPT
$IPTABLES -A INPUT -p udp -d $OUTERIP -m multiport --dports 137,138
-j DROP
$IPTABLES -A INPUT -p tcp -d $OUTERIP -m multiport --dports 139,445
-j DROP
$IPTABLES -A OUTPUT -s $OUTERIP -d $OUTERNET -m state --state
ESTABLISHED,RELATED -j ACCEPT
#PERMITE COMUNICACIÓN ENTRE REDES DISTINTAS
VENTAS=172.16.4.3
AVID=172.16.7.4
EMAC=172.16.12.11
PRODUCCION=172.16.12.13
$IPTABLES -A FORWARD -p tcp -s $LAN_IP_RANGE -d $ PRODUCCION -dport 445
-j ACCEPT
$IPTABLES -A FORWARD -p tcp -s $LAN_IP_RANGE -d $ PRODUCCION -dport 137:139 -j ACCEPT
$IPTABLES -A FORWARD -p tcp -d $LAN_IP_RANGE -s $ PRODUCCION -dport 445
-j ACCEPT
$IPTABLES -A FORWARD -p tcp -d $LAN_IP_RANGE -s $ PRODUCCION -dport 137:139 -j ACCEPT
$IPTABLES -A FORWARD
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
$IPTABLES -A FORWARD
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
-p tcp -s $LAN_IP_RANGE -d $EMAC --dport 445
$IPTABLES -A FORWARD
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
$IPTABLES -A FORWARD
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
-p tcp -s $LAN_IP_RANGE -d $AVID --dport 445
$IPTABLES -A FORWARD
445
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
$IPTABLES -A FORWARD
445
-j ACCEPT
$IPTABLES -A FORWARD
137:139 -j ACCEPT
-p tcp -s $LAN_IP_RANGE -d $VENTAS --dport
-p tcp -s $LAN_IP_RANGE -d $EMAC --dport
-p tcp -d $LAN_IP_RANGE -s $EMAC --dport 445
-p tcp -d $LAN_IP_RANGE -s $EMAC --dport
-p tcp -s $LAN_IP_RANGE -d $AVID --dport
-p tcp -d $LAN_IP_RANGE -s $AVID --dport 445
-p tcp -d $LAN_IP_RANGE -s $AVID --dport
-p tcp -s $LAN_IP_RANGE -d $VENTAS --dport
-p tcp -d $LAN_IP_RANGE -s $VENTAS --dport
-p tcp -d $LAN_IP_RANGE -s $VENTAS --dport
#PERMITE EL NEWSBROWSE
$IPTABLES -A FORWARD
80 -j ACCEPT
$IPTABLES -A FORWARD
37 -j ACCEPT
$IPTABLES -A FORWARD
138 -j ACCEPT
$IPTABLES -A FORWARD
445 -j ACCEPT
$IPTABLES -A FORWARD
80 -j ACCEPT
$IPTABLES -A FORWARD
37 -j ACCEPT
$IPTABLES -A FORWARD
138 -j ACCEPT
$IPTABLES -A FORWARD
445 -j ACCEPT
-p tcp -s $OUTERNET -d 192.168.31.4 --dport
-p tcp -s $OUTERNET -d 192.168.31.4 --dport
-p udp -s $OUTERNET -d 192.168.31.4 --dport
-p tcp -s $OUTERNET -d 192.168.31.5 --dport
-p tcp -s $OUTERNET -d 192.168.10.4 --dport
-p tcp -s $OUTERNET -d 192.168.10.4 --dport
-p udp -s $OUTERNET -d 192.168.10.4 --dport
-p tcp -s $OUTERNET -d 192.168.10.5 --dport
#PERMITE SALIR A INTERNET
LAN_INTER_RANGE=192.168.0.8/29
$IPTABLES -t nat -A POSTROUTING -s $LAN_INTER_RANGE -o $OUTERIF -j
SNAT --to $OUTERIP
$IPTABLES -A FORWARD
$IPTABLES -A FORWARD
$IPTABLES -A FORWARD
-s 192.168.0.11
-s 192.168.0.13
-s 192.168.0.12
-d $REMOTENET -j ACCEPT
-d $REMOTENET -j ACCEPT
-d $REMOTENET -j ACCEPT
#IMPRESORA EN RED
IMPRESORA=172.16.3.7
$IPTABLES -A FORWARD
9100 -j ACCEPT
$IPTABLES -A FORWARD
9100 -j ACCEPT
-p tcp -s $LAN_IP_RANGE -d $IMPRESORA --dport
-p udp -s $LAN_IP_RANGE -d $IMPRESORA --dport
#PERMITE SSH REMOTO
#$IPTABLES -A INPUT -i $OUTERIF -p tcp -d $OUTERIP
--dport 80 -j
ACCEPT
#$IPTABLES -t nat
-A PREROUTING -i $OUTERIF -p tcp -d $OUTERIP -dport 80 -j REDIRECT --to-port 22
#PERMITE COMUNICACION TOTAL LOOP
$IPTABLES -A INPUT -i lo -j ACCEPT
$IPTABLES -A OUTPUT -o lo -j ACCEPT
BIBLIOGRAFÍA
1. Couch II Leon; Sistemas de Comunicaciones Digitales y Analógicas;
McGraw Hill, Quinta Edición. Prentice, 1998
2. Hill Associates INC; Telecomunications; Mc Graw Hill, Primera
Edición. Osborne, 2002
3. Rodriguez Alonso; Imagen Digital: Conceptos Básicos; Marcombo
S.A., Primera edición. Madrid, 2003
4. URL: https://www.cisco.com
5. URL: http://www.thomsongrassvalley.com
6. URL: http://www.cybercollege.com/span/tvp056.htm
7. URL: http://www.digitalproduction.com/dp/news_detail.asp?ID=864
8. URL: http://www.thomsongrassvalley.com/docs/
Release_Notes/servers/pvs1000/071-8196-04.pdf
9. URL: http://www.ucm.es/info/multidoc/multidoc/revista/cuad67/anexo/edit_no_lineal/editnol.htm
10. Sánchez Sebastián y García Oscar; Unix y Linux: Guía Práctica;
Editorial RA MA, Tercera edición. Madrid, 2002
Descargar