ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL FACULTAD DE INGENIERÍA EN ELECTRICIDAD Y COMPUTACIÓN TESIS DE GRADO “Diseño de un sistema de edición digital utilizando multimedia sobre IP para un canal de televisión” Previo a la obtención del Título de: INGENIERO EN ELECTRÓNICA Y TELECOMUNICACIONES Presentado por: John Navas Herrera Elizabeth Oviedo Anchundia Blakeslees Suárez Muñoz GUAYAQUIL – ECUADOR 2005 II AGRADECIMIENTO Agradezco a Dios por darme la fuerza para terminar mi carrera, a pesar de diversas dificultades. Agradezco a mis padres y hermanas que me ayudaron todos en mayor o menor grado, para poder terminar mis estudios superiores. También agradezco a mis compañeros de tesis. Blakeslees Agradezco a mis padres que han sido mi apoyo incondicional durante el desarrollo de este proyecto y a Dios por llenar de bendiciones mi camino para culminar mi trabajo. Elizabeth A mis padres en quienes siempre encontré un ejemplo. John III DEDICATORIA A Dios y a mi madre Blakeslees A Dios, a Rodrigo, Javier, Estefanía, Maria, Víctor y especialmente a Domenica Elizabeth A mi familia por supuesto. John IV DECLARACIÓN EXPRESA “La responsabilidad por los hechos, ideas y doctrinas expuestas en este trabajo nos corresponden exclusivamente; y, el patrimonio intelectual de la misma, a la ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL” (Reglamento de exámenes y títulos profesionales de la ESPOL) John Navas Herrera Elizabeth Oviedo Anchundia Blakeslees Suárez Muñoz V TRIBUNAL DE GRADUACIÓN Ing. Miguel Yapur Ing. Edgar Leyton Subdecano de la FIEC Director del Tópico Ing. Washington Medina Tribunal Ing. Francisco Novillo Tribunal VI RESUMEN El propósito del presente proyecto es automatizar el sistema de edición de un canal de televisión utilizando tecnología IP como alternativa a los actuales sistemas de almacenamiento y transmisión analógicos utilizados en la mayoría de estaciones televisoras nacionales. El proyecto se encuentra dividido en 4 capítulos en los que se exponen los principios teóricos del diseño y funcionamiento del sistema propuesto. En el capítulo 1 se explican los principios teóricos empleados en este proyecto. Se detallan conceptos básicos de televisión así como la definición y diferencias entre la edición lineal o analógica y la no lineal o digital. Además conceptos de las redes IP, específicamente de las que utilizan la pila de protocolos TCP/IP. Este capitulo ayuda a asimilar el significado de varios conceptos que se utilizarán durante el transcurso del proyecto. El capitulo 2 es un estudio de la situación actual de una estación televisora local, tanto en su estructura organizacional como la tecnología con la que cuenta. Este análisis se justifica dentro del proyecto para comprender las ventajas que brida el sistema, buscando evolucionar a una televisión completamente digital. VII El capítulo 3 trata el diseño en sí del proyecto, especificando: requerimientos, descripción de equipos, ubicación de los mismos y adecuaciones que serán necesarias para el funcionamiento óptimo del sistema. En este capitulo se diseña la red en la cual trabajaran los equipos de edición. Se muestra la manera en la que esta red se fusiona con la red existente en el canal a través de una Puerta de enlace. También se detalla la gestión que se debe brindar para asegurar el óptimo funcionamiento del sistema además del mantenimiento que se le debe dar al mismo. En este capítulo se especificarán las seguridades que se implementarán en el sistema para evitar pérdida o duplicación de información y el uso indebido de la red de edición. Básicamente la seguridad se basa en los diferentes accesos controlados desde la Puerta de enlace. En el capítulo 4 se realiza una descripción de los costos operativos del sistema actual. Además se detallan los precios de los equipos que requiere el nuevo sistema y se hace un breve análisis costo – beneficio comparando los costos operativos de almacenamiento de los sistemas analógico y digital. Finalmente se detallan las conclusiones y recomendaciones, formuladas durante el desarrollo del proyecto. VIII ÍNDICE RESUMEN VI ÍNDICE VIII ÍNDICE DE FIGURAS XI ÍNDICE DE TABLAS XIII ABREVIATURAS XIV INTRODUCCIÓN XX CAPITULO I FUNDAMENTOS TEORICOS 1.1. Conceptos básicos de television 1 1 1.1.1. Breve historia de la TV 2 1.1.2. La señal Televisiva 6 1.1.3 Fundamentos del sistema NTSC 10 1.1.4 Sistemas de entrega y transporte de la señal de vídeo (Emisión/Grabación) 14 1.1.5 Formatos de vídeo 16 1.1.6 Sistemas de edición 22 1.1.6.1. Edición lineal (Analógica) 23 1.1.6.2. Edición no lineal (Digital) 28 1.1.6.2.1. Ventajas e inconvenientes de la videoedición digital 1.2. Redes TCP/IP 31 35 1.2.1. Arquitectura TCP/IP 36 1.2.2 Direccionamiento IP 40 IX 1.2.3 Transmisión multimedia sobre redes TCP/IP 42 1.2.4 Estándares de Codificación Digital 44 1.2.5 Formatos para transferencia de contenidos 48 1.2.5.1 MXF - Material Exchange Format 50 1.2.5.2 AAF - Advanced Authoring Format 54 1.2.5.3 GXF - General eXchange Format 56 CAPITULO II ANÁLISIS DE LA SITUACIÓN ACTUAL DE LA ESTACION DE TELEVISION 59 2.1 Introducción 59 2.2 Estructura Organizacional del canal 62 2.3 Análisis de la Red LAN 66 CAPITULO III DISEÑO DE LA RED DEL SISTEMA DE EDICION 73 3.1 Introducción 73 3.2 Requerimientos del sistema 76 3.3. Descripción de los Equipos a Utilizar en el Proyecto 77 3.4. Diseño de la red de edición 94 3.4.1. Adecuaciones e implementaciones adicionales. 3.5. Esquema general de la red de edición no lineal (Digital) 99 105 X 3.5.1. Ubicación de los Equipos Utilizados en el Proyecto 107 3.5.2. Configuraciones de los equipos 112 3.6 Gestión del sistema 119 3.6.1 Agente SNMP 120 3.6.2 Objetos Gestionados 124 3.7 Seguridad del sistema 126 3.7.1. Configuración Gateway Linux 127 3.7.2. Servicio Samba 130 3.8 Mantenimiento y respaldos 133 CAPITULO IV ANALISIS DE COSTOS 135 4.1 Introducción 135 4.2 Análisis del sistema actual (edición analógica) 136 4.2.1 Análisis de costos operativos 4.3 Análisis del sistema propuesto (edición digital) 137 140 4.3.1 Análisis de la inversión inicial 141 4.3.2 Análisis de costos operativos 143 CONCLUSIONES Y RECOMENDACIONES 149 ANEXOS 151 BIBLIOGRAFÍA 168 XI ÍNDICE DE FIGURAS Figura 1.1. Circulo de color _____________________________________________ 11 Figura 1.2. Espectro de frecuencia de un canal NTSC ________________________ 13 Figura 1.3. Distribución de sistemas de TV en el mundo ______________________ 14 Figura 1.4. Cassettes con formatos de video analógicos_______________________ 17 Figura 1.5. Cassettes de formatos digitales _________________________________ 21 Figura 1.6. Editora lineal (analógica) ______________________________________ 24 Figura 1.7. Timeline o línea de tiempo donde se edita_________________________ 28 Figura 1.8. Modelo TCP/IP ______________________________________________ 37 Figura 1.9. Ventana Principal del NetMeeting. _______________________________ 43 Figura 1.10. Intercambio de formato ______________________________________ 58 Figura 2.1. Diagrama de bloques general de la estructura de un canal de televisión_ 60 Figura 2.2. Estructura Organizacional de la estación televisiva __________________ 63 Figura 2.3. Esquema actual de la red del canal. _____________________________ 70 Figura 2.4. Esquema de la red del canal luego del subnetting. __________________ 71 Figura 3.1a. Diseño general del sistema de edición digital _____________________ 74 Figura 3.1b. Red recomendada para el sistema de edición digital por Grass Valley __ 75 Figura 3.2. Proceso de edición en alta resolución ____________________________ 79 Figura 3.3a. AirPlay 1 o canal A del NewsQPro______________________________ 82 Figura 3.3b. AirPlay 2 o canal B del NewsQPro______________________________ 82 Figura 3.4. Pantalla de trabajo del NewsQPro _______________________________ 84 Figura 3.5. Pantalla del Housekeeper _____________________________________ 85 Figura 3.6. Conexión entre la red de edición digital y la red administrativa ________ 87 Figura 3.7. Pantalla de presentación Lite Edit _______________________________ 91 Figura 3.8. Sistema de edición no lineal (digital) _____________________________ 92 Figura 3.9. Esquema básico de la Red de edición digital_______________________ 95 Figura 3.10. Comunicación entre la red de edición y la red administrativa _________ 97 Figura 3.11. Esquema de la Red de Edición digital tomando en cuenta los recursos de la estación _____________________________________________ 98 Figura 3.12. Conexiones entre equipos ___________________________________ 102 XII Figura 3.13. Entrada de canales de video a la matriz y al switcher ______________ 103 Figura 3.14. Entrada de canales de audio a la matriz y hacia sonido ____________ 103 Figura 3.15. Esquema final de la red de edición digital _______________________ 105 Figura 3.16. Distribución de los equipos en el área de Ingeniería ______________ 109 Figura 3.17. Equipo KVM. _____________________________________________ 110 Figura 3.18. Estaciones plegables de trabajo ______________________________ 111 Figura 3.19. Configuración NetTime para usuarios red administrativa ___________ 116 Figura 3.20. Configuración NetTime 2.0 para los servidores ___________________ 117 Figura 4.1. Gráfico de barras del Gasto anual de la Transición Propuesta ________ 146 XIII ÍNDICE DE TABLAS Tabla 1.1. Asignaciones de frecuencia para los canales de televisión ___________ 9 Tabla 1.2. Clases de direcciones IP ____________________________________ 41 Tabla 1.3. Clases de direcciones IP y sus rangos __________________________ 41 Tabla 2.1. IPs públicas del canal de televisión ____________________________ 68 Tabla 3.1. Redes que componen el nuevo sistema de edición ________________ 106 Tabla 4.1. Tipos de cassettes Betacam producidos por Sony _________________ 138 Tabla 4.2. Tipos de cassettes DVCPro producidos por Maxwell _______________ 139 Tabla 4.3. Costos del sistema de edición digital __________________________ 142 Tabla 4.4. Gasto anual de la transición propuesta _________________________ 145 Tabla 4.5. Comparación de Costos operativos y Cálculo de Recuperación de la Inversión ______________________________________________ 147 XIV ABREVIATURAS AAF Advanced Authoring Format Formato de Creación Avanzada ACATS Advisory Comittee on Advanced Television Services Comité Consultivo de Servicios de Televisión Avanzada AC3 Audio de 3 Canales AGP Accelerated Graphics Port Puerto para Aceleradores de Graficos ARPA Advanced Research Projects Agency Agencia de Programas Avanzados de Investigación ATV Advanced TV Televisión Avanzada BBC British Broadcasting Corporation Corporación Británica de Multidifusión CBS Columbia Broadcasting System Sistema de Multidifusión de Columbia CCIR Consultative Comitte for International Radiocommunications Comité Consultivo Internacional de Radiocomunicaciones CVBS Composite Video Burst Sync Video Compuesto Sincronizado XV DCT Discrete Cosine Transform Transformada Discreta del Coseno DVE Digital Video Efect Efecto de Video Digital EDL Edit Decision List Lista de Desiciones para Editar FCC Federal Communication Commission Comisión General de Telecomunicaciones FTP File Transfer Protocol Protocolo de Transferencia de Archivos GOP Group of Pictures Grupo de Imagines GXF General Exchange Format Formato General para Intercambio HIGH RES Alta Resolución HTTP Hypertext Transfer Protocol Protocolo de Transferencia de Hipertexto IP Internet Protocol Protocolo de Internet ISO International Organization for Standarization Organización Internacional para la Estandarización XVI ISS Image Support Server Servidor de Soporte de Imágenes ITU International Organization for Standarization Unión Internacional de Telecomunicación JPEG Joint Photographic Experts Group Formato del Grupo de Expertos en Fotografía JVC Japan Victor Company Compañía Japonesa Victor KVM Keyboard-Video-Mouse Ratón-Video-teclado LAN Local Area Network Red de Área Local LOW RES Low Resolution Baja Resolución MIB Management Information Base Base de Gestión de la Información MPEG Motion Picture Experts Group Grupo de Expertos en Imagines en Movimiento MUSE Multiple SubNyquist Sampling Encoding Codificador con Muestreo Múltiple Sub-Nyquist MXF Media Exchange Format Formato de Intercambio de Medios XVII NAS Network Attached Storage Almacenamiento adjunto a la Red NBC National Broadcasting Company Compañía de Multidifusión Nacional NHK Nippon Hoso Kyokoi Corporación Japonesa de Multidifusión NTSC National Televisión System Comitte Comité Nacional del Sistema de Televisión PAL Phase Alternating Line Linea Alternada en Fase RAID Redundant Array of Independent Disks Arreglo de Discos Redundantes e Independientes RGB Red Green Blue Rojo Verde Azul RO Read Only Solo Lectura SECAM Sequentiel Couleur Memoire Color Secuencial con Memoria SMB Session Message Block Bloque de Sesión de Mensajes SMPTE Society of Motion Picture and Television Engineers Sociedad de Ingeniería en Imágenes en Movimiento y Televisión XVIII SMTP Simple Mail Transfer Protocol Protocolo Simple de Transferencia de Correo electrónico SNMP Simple Network Management Protocol Protocolo Simple de Gestión de Red SSH Secure Shell Entorno seguro TCP Transmission Control Protocol Protocolo de Control de Transmisión UDP User Datagram Protocol UTP Unshielded Twisted Pair Par trenzado sin capa protectora VHS Video Home System Sistema de Video para el Hogar VLC Codification of Variable Length Codificación de Longitud Variable VTR Video Tape Recorder Grabadora Cintas de Video WAN Wide Area Network Red de Área Amplia WR Write Only Solo Escritura XIX WWW World Wide Web Red de Cobertura Mundial XRE Xul Runtime Environment XX INTRODUCCIÓN El presente proyecto es una necesidad en la evolución a una televisión completamente digital. Como ya conocemos, esta evolución tiene como objetivos mejorar la calidad de la imagen que va a ser proyectada al telespectador, y permitir que se pueda entregar un producto interactivo. Actualmente las señales que se manejan en el interior de la mayoría de estaciones de televisión nacionales son analógicas, al igual que su sistema de transmisión; es por esto que se ha decidido presentar este sistema capaz de interactuar con los equipos analógicos que comúnmente encontramos en nuestro medio, pero que permite digitalizar las señales para así poder procesarlas, almacenarlas, enrutarlas, compartirlas y principalmente editarlas. Hay que recalcar que el proyecto es un paso para seguir el curso de la tecnología mundial, ya que a pesar de que no especifica un modelo de transmisión digital, deja listas la señales de la estación para que en un futuro en que las entidades reguladoras de nuestro país especifiquen los modelos a seguir, las estaciones estén preparadas para entregar información digital a los nuevos sistemas de transmisión. CAPITULO I FUNDAMENTOS TEORICOS 1.1. CONCEPTOS BÁSICOS DE TELEVISIÓN Actualmente la televisión en nuestro país como en algunos otros países del mundo está basada en un sistema analógico. Esto implica que las señales de video y audio, tal como son generadas en la estación de origen, se propagan por el aire mediante ondas de radio para que sean recibidas por los usuarios. En el caso de la televisión digital estas señales de video y audio son digitalizadas y de esta forma pueden ser comprimidas. Gracias a esta compresión, el transporte de las señales hasta el usuario final (el telespectador), se puede realizar en forma digital. Las estaciones de televisión analógica también manejan señales digitales, sin embargo utilizan convertidores y compresores para procesarlas y luego ser transmitirlas analógicamente. En este capítulo se verá el desarrollo de la televisión a lo largo de la historia y el significado de edición digital conocida como edición no lineal, que es el tema sobre el cual se desarrollara en este proyecto. 1.1.1. BREVE HITORIA DE LA TV Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. Inicialmente se realizaban transmisiones sin un horario establecido y sin una programación fija. Por el año de 1936 en Inglaterra empezaron las transmisiones con horarios prefijados. Un importante avance técnico registrado fue la incorporación del color a las transmisiones televisivas. Las grandes compañías estadounidenses fueron las primeras en proponer un sistema de televisión color: el NTSC (Comité del Sistema de Televisión Nacional o National Televisíon System Comitee). Con la aprobación de la FCC (Comisión Federal de las Comunicaciones), EEUU se convirtió en 1953, en el primer país en contar con televisión color. Hoy el NTSC está en funcionamiento en muchos países incluido el Ecuador. Posteriormente en Europa se puso en marcha una serie de investigaciones para perfeccionar el sistema estadounidense. Los resultados de éstas dieron lugar a dos sistemas de televisión color. En 1959, el Gobierno Francés puso en marcha un sistema denominado SECAM (Sequential Couleur Mémoire o Memoria de Color Secuencial); mientras que en Alemania se desarrolló el sistema PAL (Phase Alternate Line o Línea Alternada en Fase) en 1963. Actualmente el sistema PAL es utilizado en los principales países europeos occidentales y el SECAM se ha impuesto en los países del Este, en numerosos países del cercano Oriente, en algunos países de América Latina y en los países Africanos de habla francesa. Hacia los comienzos de la década del 70 la empresa japonesa NHK (Nippon Hoso Kyokai o Corporación Japonesa de Multidifusión) comenzó con estudios encaminados a permitir transmisiones de imágenes de alta definición con calidad similar a la del cine. El grupo de trabajo de esta empresa demostró en público sus avances en la conferencia de la SMPTE (Society of Motion Picture and Television Engineers o Sociedad de Ingenieros en Imágenes en Movimiento y Televisión) en San Francisco en Febrero de 1981. Para 1984 presentó un sistema de transmisión de alta definición analógica llamado MUSE (Codificador con Muestreo Sub-Nyquist Múltiple), el cual se echó al aire a comienzos de 1987 utilizando un ancho de banda de 12 MHz. Ante estos acontecimientos, varias instituciones norteamericanas por medio del ACATS (Advisory Committee on Advanced Television Service o Comité Consultivo de Servicios de Televisión Avanzada) solicitaron a la NHK que desarrollara un sistema que solo ocupara un ancho de banda de 6 MHz., o sea un canal normal de televisión, y el resultado fue la aparición del Codificador con Muestreo Sub-Nyquist Múltiple Angosto (Narrow MUSE). La ACATS llevó a cabo un panel especial entre el 8 y el 11 de Febrero de 1993 donde se tomaron varias decisiones, tal vez la más importante fue la conclusión de que la nueva televisión no podía ser analógica, pues el Narrow MUSE había demostrado que era posible mejorar la calidad de la imagen entregada utilizando el mismo ancho de banda ( 6MHz ) que utilizan los sistemas analógicos. En este panel se decidió continuar con el desarrollo de tecnologías apartados del sistema nipón. Sin embargo la NKH continuó contribuyendo en el desarrollo del sistema de televisión digital norteamericano ATV (Televisión Avanzada o Advanced TV) y su predecesor HDTV (Televisión de Alta Definición o High definition TV ). En la actualidad los canales de televisión en el Ecuador se encuentran en un proceso de migración por lo que tienen instalaciones hibridas, ya que sus equipos procesan señales digitales y trabajan con ellas para finalmente transmitir señales analógicas que son las que los televisores convencionales procesan en nuestros hogares. Aunque en algunas partes del mundo este proceso de cambio se está agilitando en el Ecuador es aun bastante prematuro pensar en estaciones de televisión totalmente digitales. 1.1.2. LA SEÑAL TELEVISIVA El sistema de televisión en color utiliza la misma señal de la televisión monocromática y envía la información del color por separado. Esto se realiza considerando la información de imágenes en términos de dos tipos de señales: brillo y color. El sistema televisivo en blanco y negro transforma los colores naturales en varias degradaciones de gris según un determinado código. El tratamiento televisivo del color descompone cada color natural en tres colores: Rojo, Verde y Azul RGB por sus siglas en Ingles (Red, Green, Blue); esto lo realizan las cámaras mediante un juego de espejos que se conocen como dicroicos. Los monitores reconstruyen los colores naturales mediante la combinación de los colores primarios. La señal de brillo es también conocida como luminancia (Y). Esta señal está compuesta por los tres colores anteriormente mencionados y representa brillantez de la imagen. Como ya se indicó, con la transmisión de esta señal se pueden enviar imágenes sin color. La fórmula para obtener la luminancia Y se indica a continuación: Y = 0.2990 R + 0.5870 V + 0.1140 A Donde los valores se expresan en unidades llamadas Lumen. Para dar una idea, hablando solo de los colores blanco y negro, 1 Lumen corresponde al blanco y 0.11 corresponde al negro, pasando por una escala de grises como valores intermedios. Valiéndose de la señal de luminancia, el CCRI estandarizó una forma de representación de señales denominada CCRI 601 también conocida como YCbCr. En este estándar a más de la luminancia, se especifican dos componentes más para representar el color: Cb = 0.1687 R – 0.3313 V + 0.5000 A Cr = 0.5000 R – 0.4187 V – 0.0813 A Con este estándar se permite que la misma señal pueda ser proyectada tanto por un televisor a colores (utilizando las tres señales) como en uno de blanco y negro (valiéndose solo de la luminancia). Asignaciones de frecuencia para los canales de televisión Mundialmente la banda utilizada para televisión va desde los 54MHz hasta los 890 MHz. Cada canal tiene 6 MHz de ancho de banda como lo muestra la tabla 1.1. CANALES FRECUENCIAS Del 2 al 6 54 hasta 88MHz Del 7 al 13 174 hasta 216MHz Del 14 al 20 470 hasta 512MHz Del 21 al 25 512 hasta 542MHz Del 26 al 30 542 hasta 572MHz Del 31 al 35 572 hasta 602MHz Del 36 al 40 602 a 632MHz Del 41 al 45 632 a 662MHz Del 46 al 50 662 a 692MHz Del 51 al 55 692 a 722MHz Del 56 al 60 722 a 752MHz Del 61 al 65 752 a 782MHz Del 66 al 69 782 a 806MHz Del 70 al 83 806 a 890MHz (usada también para radio) Tabla 1.1. Asignaciones de frecuencia para los canales de televisión 1.1.3. FUNDAMENTOS DEL SISTEMA NTSC En 1953 se establecieron las bases para la transmisión de señales de televisión, buscando así que se masifique este servicio. A este conjunto de normas se las denominó NTSC. Se especificó que la transmisión de luminancia se debe limitar al mismo espectro que sé venia empleando para transmisiones en blanco y negro. Ya estaban definidos los canales de 6MHz cada uno, por lo que el nuevo servicio debía hacer uso de estos canales ya establecidos. Además de la luminancia se debían trasmitir otras dos señales de color. Ya se conocía bien la teoría de los 3 colores (YCbCr), y estaban convencidos que eran 3 señales las que se debían trasmitir. Por compatibilidad, una de estas señales debía ser obligatoriamente Y, quedaba por definir las otras 2. Se decidió enviar junto con la señal Y, a las señales (R-Y) y (B-Y). Estas 2 señales se llamaron diferencia al rojo y diferencia al azul y son las componentes de la señal de crominancia. Se representó gráficamente un circulo cromático (Figura 1.1) con un sistema de ejes cartesianos en el cual se grafica la crominancia de cada color. Como se puede ver en la gráfica los colores varían con el ángulo y la intensidad varía con la magnitud del radio. En el sistema NTSC los colores se representan por sus coordenadas cartesianas, es decir por la diferencia al azul (B-Y) y la diferencia al rojo (R-Y). Figura 1.1. Circulo de color Quedó especificado que la transmisión de las señales de crominancia deben realizarse dentro del mismo canal de 6 MHz, compartiendo banda con el espectro de luminancia sin perturbarlo, o en su defecto, perturbando lo menos posible al primero. Para lograr este objetivo se realizaron estudios ópticos, concluyéndose que el ancho de banda de la crominancia debía ser menor que el de luminancia. Para conseguir agregar el espectro de la crominancia era necesario modular las señales de diferencia de color con una portadora que se denominó subportadora de color y la modulación se la realizó en amplitud y fase. Se ubico la subportadora donde la luminancia dejaba huecos sin energía. Así se eligió un valor de frecuencia de 3.579545MHz. Figura 1.2. Espectro de frecuencia de un canal NTSC El sistema NTSC es el que se emplea en nuestro país y se diferencia de los otros principalmente por el número de líneas horizontales en los que se divide la imagen para su procesamiento. A continuación se presentan los sistemas de TV analógicos con sus respectivos números de líneas -PAL (Amarillo) 625 Líneas Europa, Brasil, -NTSC (Verde) 525 Líneas Iberoamérica, USA, China -SECAM (Naranja) 625 Líneas Francia, Marruecos. Figura 1.3. Distribución de sistemas de TV en el mundo 1.1.4. SISTEMA DE ENTREGA Y TRANSPORTE DE LA SEÑAL DE VIDEO (EMISIÓN / GRABACIÓN) Los principales sistemas de emisión y grabación de video son: a) CVBS o video compuesto b) Super Video c) Componentes d) RGB (Rojo, Verde y Azul o Red, Green, Blue) a) CVBS (Video Compuesto de Máximo Sincronismo o Composite Video Burst Sync): El nombre viene dado porque entrega las señales de Luminancia y Crominancia como una señal compuesta, por lo que emplea un solo cable coaxial. Es la forma mas pobre de transmisión de la señal. Este sistema es utilizado por los VHSs caseros. La señal debe tener un código común con el sistema de TV. b) Super Video: Entrega la señal separando la de Luminancia de la de Crominancia lo que permite mayor grado de resolución que el anterior, por lo que utiliza 2 cables coaxiales. (Sistemas Hi:8, SVHS) Precisa de un código común con los sistemas de TV que se van a utilizar. c) Componentes: Separa las señales de Luminancia y las dos de Crominancia por vías diferentes, por lo que se transmite por 3 cables coaxiales. La mayor parte de los equipos profesionales emplean este sistema. Al no transportar información de Crominancia de manera directa, no necesita codificación. Tiene cross-color (pérdida de imagen por la presencia de la Crominancia) y cross-luminance (Pérdida de matices de color por la presencia de la Luminancia). d) RGB: No entrega la señal en términos de Luminancia y Crominancia, sino como una combinación de rojo, verde y azul. Presenta mayor calidad pero tiene problemas de sincronización entre las diferentes señales. Por eso cuando hace edición lineal (analógica) no se lo utiliza (Se prefiere el video componente). No necesita codificación. Se utiliza con monitores de tratamiento de imagen o generadores de caracteres. 1.1.5. FORMATOS DE VIDEO Los formatos analógicos graban la señal a través de una onda, mientras que los digitales graban con códigos de 0 y 1. A continuación se presenta una descripción de los formatos analógicos y digitales existentes en el mercado. a) Analógicos: Formato Betacam Formato S.VHS Formato ¾ (U-matic) Formato 8mm Formato Hi 8 Formato VHS Figura 1.4. Cassettes con formatos de video analógicos 8mm: (Cámara domestica) El formato de 8 mm. Nace a raíz de una propuesta hecha por parte de Sony, Hitachi, Matsushita, JVC y Philips a principios de 1982, para la estandarización del formato domestico de vídeo. Su nombre el viene del ancho que usan las cintas de este formato, o sea 8 milímetros. La principal ventaja radica en que consigue introducir gran cantidad de información con una calidad aceptable, en un espacio físico muy reducido. El problema de este formato es la calidad del audio. Hi 8: Tiene mejor calidad de Crominancia y de audio que el 8mm, pero guarda demasiada información en un espacio pequeño, por lo que se presentan demasiados saltos causados por pérdidas de sincronismo. VHS (Sistema de Vídeo Casero o Vídeo Home System): Es un estándar de la industria aunque tiene una calidad inferior a la del Hi8. Las características básicas del sistema VHS son similares al formato Beta. Posee una cinta de media pulgada. Las principales diferencias son en el modo de realizar el enhebrado y en la forma de proteger la Crominancia. Graba la señal en video compuesto. Super VHS: Incorpora nuevas mejoras al sistema VHS, convirtiéndose en un formato industrial de muy alta implantación en el mercado. Entre sus principales diferencias están el cambio de las frecuencias de modulación para permitir un mayor ancho de banda. Con lo cual se consigue tener casi 400 líneas de resolución frente a las 270 del VHS estándar. Separa la señal de Luminancia de la Crominancia. La calidad de audio es baja, porque la cinta pasa despacio y al no haber mucho espacio entre las pistas, la calidad no es muy buena. U-MATIC: es un formato introducido por Sony a principios de los setenta, presenta una cinta de ancho de ¾ de pulgada, guardada en un cartucho. Este formato fue el introductor de este sistema en el mundo profesional, ya que hasta su introducción los demás usaban cinta en bobina abierta. Usa grabación helicoidal, y subportadora de color corregida. BETACAM: En este formato la Luminacia y la Crominancia se graban en pistas separadas. Además la Crominancia se divide en sus componentes R-Y y B-Y para su grabación; es por ello que se puede decir que este formato realiza la grabación en componentes. Para poder grabar las dos componentes de diferencia de color en la misma pista este formato recurre a comprimir las dos líneas en una sola para poder grabar la información de color en una pista única. Las señales de diferencia de color se filtran con anterioridad para dejar su ancho de banda en 1.5 Mhz ( 3 Mhz en total ). La alta calidad de este formato se ve claramente en el gran ancho de banda que usa para el color y el blanco y negro ( 6 MHz ). Con posterioridad ha salido al mercado una versión de este formato denominada Betacam SP (Superior Performance) que es el más usado hoy en día. A finales de 1994 salió una versión que graba en formato digital en componentes según la norma CCIR 601 de grabación digital en formato 4:2:2; y usa una compresión de 2 a 1. b) Digitales: En el año 1986 Sony presenta el primer magnetoscopio que es capaz de grabar en formato digital. Este formato recibió el nombre de D1 y la primera maquina fabricada DVR-1000. Este formato de vídeo es capaz de grabar la señal de vídeo digital en componentes según la norma 601 del CCIR (Comité Consultivo Internacional de Radiocomunicación) sobre televisión digital en formato 4:2:2. Posee 4 canales de audio de alta calidad grabados digitalmente. Usa cinta en formato de cassette y puede registrar hasta 90 minutos. En una escala de calidad estos magnetoscopios se sitúan claramente por encima de los equipos analógicos. En este caso al ser un formato digital no se presentan los problemas que tenían otros formatos analógicos segmentados. Ello es debido a que al ser la señal digital se puede reconstruir con bastante facilidad y si se presentan pequeños errores de lectura pueden ser compensados por medio de una circuitería específica. Figura 1.5. Cassettes de formatos digitales Con posterioridad a la salida del formato D1 aparecieron en el mercado otros formatos de grabación digital entre ellos el D2 y D3 que realizan la grabación en digital pero de la señal en compuesto, muestreando esta a 4 veces la frecuencia de la portadora de color. Por último como ya hemos comentado ha aparecido en el mercado un formato que graba en componentes digitales, el Betacam digital, que usa compresión 2:1 y que es muy utilizado en la industria por ser poco voluminoso, trabajar en componentes, y poseer cierta compatibilidad con el formato Betacam SP. Los siguientes formatos ya están siendo utilizados: Betacam digital:4:2:2 DVC Pro 50:4:2:2 Digitals 4:2:2 DVC-PRO:4:1:1 DVCAM:4:2:0 BETACAM SX:4:2:2 D-VHS:4:2:0 MiniDV4:2:0 1.1.6. SISTEMAS DE EDICIÓN Todos los formatos descritos anteriormente son usados para almacenar información. En los canales de televisión se usan los profesionales como Betacam y DVCPro, siendo analógico y digital respectivamente, esto se debe a la migración que se esta dando hacia formatos totalmente digitales. La información almacenada es tratada con mucho cuidado en sistemas de edición para tener como resultado final todo tipo de efectos gráficos en la pantalla de los hogares. La edición lineal (analógica) es bien conocida por cualquier editor experimentado y es lo que se utiliza actualmente en muchos canales de televisión, pero poco a poco será remplazada por la edición no lineal (digital) debido a las gigantescas ventajas que posee. 1.1.6.1. Edición Lineal (Analógica) Los sistemas de edición lineal se fundamentan en hardware como lo muestra la Figura 1.6. y requieren que las ediciones se hagan de una forma lineal en la variable tiempo, es decir en secuencia. En un proyecto típico esto significa que se debe avanzar escena por escena. Figura 1.6. Editora lineal (Analógica) Esto implica que el material debe estar muy bien organizado antes de comenzar (si se quiere un resultado bien organizado), porque una vez que está grabada la cinta con el proyecto, los cambios son muy complicados de hacer. Como se verá, la edición no lineal (digital) es más parecida a escribir con un poderoso procesador de palabras. El concepto detrás de la edición analógica es sencillo: una o más cintas con el material original se transfieren segmento por segmento a otra cinta en otro grabador. En el proceso, los segmentos originales pueden ser acortados o reacomodados en otro orden, se eliminan las tomas malas y se pueden agregar efectos de audio y video. Las máquinas fuentes contienen el material original, el equipo grabador editor es manejado por un controlador editor y se utiliza para controlar todas las máquinas y completar la secuencia final. El operador que edita, utiliza el controlador de edición para mover la cintas de uno a otro lado y así encontrar el inicio (y posiblemente el final) de cada segmento seleccionado. Estos puntos de referencia ingresan al procesador del equipo editor como marcas de secuencia o time code. Entonces el controlador de edición se encarga automáticamente de ubicar estos puntos, rodar las tomas y hacer cada edición individual. En los sistemas más sencillos los puntos de entrada y salida se referencian por unos pulsos grabados en la cinta (30 por segundo en video NTSC). El método de edición que referencia las entradas y salidas a la cuenta de los pulsos que marcan secuencias se llama Edición por Control Track. La Edición por Control Track tiene una limitación: exige que el equipo haga un conteo de millares de marcas de secuencia. Por razones mecánicas esto es sumamente difícil. Durante la edición las cintas están en constante movimiento hacia adelante y hacia atrás a diferentes velocidades. Si el equipo pierde la cuenta apenas por una fracción de segundo el punto de edición se correrá por uno o más cuadros y dañará lo que de otra forma hubiese sido una edición perfecta. Los editores experimentados saben mirar el contador de pulsos a medida que mueven la cinta. Si el contador se congela por un instante, significa que el equipo ha perdido la cuenta de los pulsos de control. Los problemas se reducen a cintas de video defectuosas o problemas con las marcas de secuencia ya grabadas. Tipos de edición lineal (Analógica) Hay dos tipos de edición que puede hacerse en un sistema lineal: a) Edición por ensamblaje: Se edita toda la información de video y audio, además de sus respectivas marcas de secuencia en la nueva cinta de grabación. Como ya se afirmó, las marcas de secuencia son difíciles de grabar sin problemas de precisión en cada punto de edición. Cualquier error temporal resulta en un salto (conocido como glitch) en las secuencias de video. Por ello, el método de edición por ensamblaje no es de mucha utilidad. Apenas tiene sentido cuando hay que ensamblar muy rápidamente una secuencia. b) Edición por inserción: Requiere un paso previo adicional a la edición por ensamblaje. Primero se graban marcas de secuencia en toda la cinta que va a utilizar, y luego se procede a ensamblar el proyecto tomando las tomas de cada entrada. 1.1.6.2. Edición no lineal (Digital) La edición no lineal (también llamada de acceso aleatorio) es algo así como trabajar con un procesador de palabras muy sofisticado; permite insertar segmentos, eliminarlos, y cambiarlos de posición en cualquier momento durante la edición. Figura 1.7. Timeline o línea de tiempo donde se edita En la edición no lineal (digital) los segmentos originales de video se transfieren digitalmente al disco duro de un computador (digitalización) antes de comenzar a editar. Una vez que se han convertido en información digital el sistema de edición los puede ubicar y presentar en cualquier orden, instantáneamente. Durante la edición digital puede agregarse una cantidad considerable de efectos especiales así como títulos y corrección de color por escena. También puede mejorarse el sonido durante la edición con filtros y efectos sonoros diversos. En algunos sistemas es posible hasta comprimir y expandir la longitud del audio y el video. La mayoría de los editores no lineales utilizan una o más líneas de tiempo (time line) para representar la secuencia de edición. Desde una PC, con un mouse, se puede seleccionar y mover los distintos elementos de audio y video, transiciones, efectos especiales, etc., en la línea de tiempo. Ensamblar un proyecto es tan sencillo como seleccionar y mover los distintos elementos en la pantalla del computador. En la edición digital los segmentos de video y audio no quedan grabados permanentemente, como en la edición analógica. Las decisiones de edición existen en la memoria del computador como una serie de punteros que dicen dónde ubicar la información en cuestión en el disco. Ello implica que uno puede revisar la edición y modificarla en cualquier momento del proceso. También significa que se puede fácilmente experimentar con alternativas de audio y video para evaluarlas. El producto final puede ser obtenido de dos maneras. Puede ser "impreso" (grabado) directamente en la cinta desde el editor no lineal (digital), o puede ser transferido guardado en disco para ser utilizado más adelante. Este último método es el que usualmente se utiliza para los reportajes de noticieros. 1.1.6.2.1. Ventajas e inconvenientes de la videoedición digital Ventajas Es probable que haya suficientes razones para entender por qué los sistemas de edición no lineales se consideran fundamentales de cara al futuro y en el presente más inmediato. Muchas de las ventajas cuando se utilizan este tipo de sistemas son por ejemplo, la creatividad, efectividad y flexibilidad para probar diferentes formas de montar una escena. La principal ventaja de la edición no lineal (digital) es que no existe una estructura durante la primera y más importante etapa en la que se pretende dar sentido a todo el material. No existe estructura hasta que el editor tiene en su mente lo que quiere, para esto se necesita que la estructura se pueda cambiar hasta el último momento. Con ello se podría obtener el mejor montaje posible. De esta forma habrá que olvidar la vieja concepción de empezar por el principio, porque la edición digital permite comenzar o cambiar cualquier parte del material lo que supone un montaje del material mucho más sencillo. Otro aspecto a resaltar es que todo se puede cambiar. Debido al concepto de grabación virtual y las funciones de deshacer de los sistemas de edición digital, se pueden probar múltiples opciones, haciendo y deshaciendo diferentes pruebas. Se tratan las ideas, probando los clips en diferentes posiciones, modificando el espacio que ocupan e intentando depurar la secuencia según se va completando. Por otro lado en la edición tradicional se da la dificultad de encontrar el punto exacto de entrada en el que se tienen que cortar las diferentes tomas. Por el contrario, las entradas utilizadas en la edición no lineal (digital) son muy sencillas y se pueden ajustar con suma facilidad. La edición digital significa que no hay una necesidad urgente de solicitar una estructura para la secuencia. La modificación del montaje se convierte en un proceso natural en la elaboración de la obra audiovisual. Con todo esto se asume que la razón por la que se trabaja con sistemas no lineales, es la facilidad para que surjan las ideas. Quizás la mayor ventaja de la edición no lineal (digital) es que el concepto de grabación virtual posibilita la obtención de múltiples versiones. La edición por este tipo de sistemas supone que la estructura de las obras que se realizan, pueden evolucionar según se trabaja. Esto permite trabajar con pequeños trozos y reordenarlos para crear la verdadera estructura de la obra. La velocidad, el tiempo que se tarda en probar algo, es mucho menor. A nivel de resultado, el editor podrá comunicarse mucho más fácilmente con el cliente. Así los productores se beneficiarán del ahorro de costos. No hay que olvidar que una vez digitalizadas las imágenes, pueden ser manipuladas sin pérdida perceptible de calidad. Si nos acercamos a la perspectiva profesional, una ventaja que no suele admitirse, es que la edición digital es más divertida, rápida e interactiva, lo que supone un mayor disfrute del profesional, consiguiéndose un resultado más productivo y visiblemente mejor. Así se reduce el estrés y la frustración que siempre acompaña a la edición tradicional, de forma que se puede prestar más atención al objetivo real de hacer el mejor trabajo. De todas estas ventajas se beneficia no solo la TV sino la publicidad y el cine. Además cada día es más sencillo editar películas de forma casera con equipos sencillos, por ejemplo el programa Microsoft Movie Maker, presente en las últimas versiones del sistema operativo Windows. Desventajas El trabajar con información electrónica supone la posibilidad de que se pueda perder dicha información, por una caída de tensión por ejemplo, así como por cualquier daño que sufra el disco duro en el que se encuentra almacenada. Las únicas barreras en principio son las económicas. Si bien el almacenamiento digital puede competir con las cintas magnéticas, los equipos que giran en torno al procesamiento de las señales, representan costos que deberán seguir bajando para hacerse asequibles. 1.2. REDES TCP/IP En la actualidad la mayoría de las redes utilizan la pila de protocolos TCP/IP. Debido a esto, se ha tratado de manipular la mayor cantidad de tipos de datos para poder ser transportados por estas redes. En este subcapítulo se describirán los conceptos básicos de esta tecnología. El Protocolo de Internet (IP) y el Protocolo de Control de Transporte (TCP), fueron desarrollados en 1973 por el informático estadounidense Vinton Cerf como parte de un proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por ARPA, (Agencia de Programas Avanzados de Investigación) del Departamento de Defensa de los Estados Unidos. Como producto de este proyecto, se desarrolló una red llamada ARPAnet que conectaba redes de ordenadores de varias universidades y laboratorios de investigación en Estados Unidos. Con el pasar de los años esta red tomaría un enfoque más comercial y se convertiría en lo que hoy conocemos como Internet. El desarrollo de varias aplicaciones como por ejemplo la Red de Cobertura Mundial o World Wide Web www, desarrollada en 1989 por el informático británico Timothy Berners-Lee, popularizaron al Internet, pero siempre teniendo como estándar una arquitectura de cuatro capas en las que se encontraban los protocolos TCP/IP. 1.2.1. ARQUITECTURA TCP/IP En la actualidad la arquitectura TCP/IP es utilizada por todos los ordenadores conectados a Internet, de manera que éstos puedan comunicarse entre sí. Hay que tener en cuenta que en Internet se encuentran conectados ordenadores de clases muy diferentes y con hardware y software incompatibles en muchos casos, además de todos los medios y formas posibles de conexión. Aquí se encuentra una de las grandes ventajas del TCP/IP, pues este protocolo se encargará de que la comunicación entre todos sea posible. TCP/IP es compatible con cualquier sistema operativo y con cualquier tipo de hardware. Figura 1.8. Modelo TCP/IP Como se muestra en la figura 2.1, TCP/IP es una arquitectura de comunicación de datos basada en cuatro capas: a) Aplicación b) Transporte c) Red d) Acceso a red. a) Aplicación: Aquí se incluyen protocolos destinados a proporcionar servicios directamente al usuario, tales como correo electrónico (SMTP), transferencia de archivos (FTP), conexión remota (TELNET) y HTTP (Protocolo de Transferencia de Hipertexto o Hypertext Transfer Protocol). b) Transporte: Originalmente utilizaba únicamente el protocolo TCP (De ahí el nombre de la arquitectura), pero luego se incluyó al protocolo UDP (User Datagram Protocol). La diferencia entre ambos es que TCP mantiene una conexión lógica entre fuente y destino mientras dure la aplicación que la requiera y luego de esto libera los recursos; mientras que UDP no mantiene ninguna conexión, simplemente envía los paquetes de la capa de aplicación según vayan llegando a la capa de transporte. Los protocolos TCP y UDP, se encargan de manejar los datos y proporcionar la fiabilidad necesaria en el transporte de los mismos. c) Red: Esta capa es también conocida como Internet, ya que el protocolo que utiliza es el IP (Internet Protocol). La capa de red se encarga de direccionar los paquetes de información a sus destinos correspondientes, es utilizado con esta finalidad por los protocolos del nivel de transporte. Para cumplir con su objetivo, IP emplea un sistema de direccionamiento basado en cuatro octetos de bits separados por un punto. Estos cuatro octetos representados en números decimales derivan en direcciones formadas por cuatro números que van de 0 a 255. d) Acceso a red: Esta capa es la encargada del acceso al medio de transmisión y las propiedades de las señales físicas que viajan representando la información. Esta capa no tiene restricción alguna, pero en la actualidad, uno de los estándares que más se utiliza en cuanto al acceso al medio es el IEEE 802.3 conocido como Ethernet. 1.2.2. DIRECCIONAMIENTO IP La dirección IP identifica la localización de un sistema en la red, y como es de imaginarse, es única. Cada dirección IP tiene dos partes. Una de ellas identifica a la red y la otra identifica al terminal dentro de esa red. Todas las maquinas que pertenecen a la misma red requieren el mismo numero de red. El número de terminal, identifica a una estación de trabajo, un servidor, un ruteador o cualquier otro equipo TCP/IP dentro de la red. El número de terminal o host debe ser único en cada red. Clases de direcciones IP La comunidad Internet ha definido 5 clases de direcciones, identificadas con las primeras letras del alfabeto, para poder acomodar redes de diferentes tamaños. Estas clases definen cuantos bits son usados para identificar a las redes y cuantos son usados para identificar a los terminales dentro de cada red. Hay que recordar que por ser un número de 32 bits, teóricamente podrían existir 232 direcciones IP diferentes. Clase Dirección IP ID de Red ID de Terminal A w.x.y.z w x.y.z B w.x.y.z w.x y.z C w.x.y.z w.x.y z D w.x.y.z w.x.y z Tabla 1.2. Clases de direcciones IP Se puede identificar la clase de dirección por el número del primer octeto: Clase Rango de valores del primer octeto A 1 a 126 B 128 a 191 C 192 a 223 D 224 a 239 E 240 a 247 Tabla 1.3. Clases de direcciones IP y sus rangos. El valor 0 ha sido reservado para indicar todas las redes, y el valor 127 para representar una dirección existente en todos los terminales (dirección de lazo o loopback). 1.2.3. TRANSMISIÓN MULTIMEDIA SOBRE REDES TCP/IP Debido a la gran difusión de las redes TCP/IP, la transmisión multimedia en las mismas fue una necesidad que se suplió con el tiempo. En la actualidad existen gran cantidad de productores tanto de hardware como de software que han incluido en el mercado productos capaces de interactuar en redes de este tipo. En el caso de software, existe gran cantidad de aplicaciones que permiten establecer una comunicación entre dos o más puntos para el intercambio de video. Un ejemplo de esto es el Netmeeting de Microsoft, el cual reproduce y transmite audio y video en tiempo real entre dos puntos estableciendo así una videoconferencia desde un computador personal. En la figura 2.2 se muestra la apariencia de la ventana principal del Netmeeting. Figura 1.9. Ventana Principal del NetMeeting. Hablando de hardware, existe también una gama de productos en el mercado que son capaces de transmitir datos multimedia sobre redes TCP/IP, e inclusive cumplir otras funciones como capturar audio y video o reproducirlo. Debido a que estamos hablando de redes que basan su arquitectura en el Internet, el objetivo principal de adoptar este estándar es la compatibilidad mundial, es entonces primordial la eficiencia en el aprovechamiento del ancho de banda. En muy pocas ocasiones, las redes TCP/IP son infraestructuras aisladas de otras redes, más bien se comunican entre si por redes metropolitanas o bien por el Internet. 1.2.4. ESTÁNDARES DE CODIFICACIÓN DIGITAL En esta sección se describirán algunas de las normas más empleadas para la codificación digital de señales multimedia. Se han dividido según el organismo que propuso el estándar: a) La norma MPEG (Grupo de Expertos de Imágenes en Movimiento o Motion Picture Experts Group) de la Organización Internacional para la Estandarización ISO (International Organization for Standarization). b) Las normas H.32x del Grupo de Estándares Técnicos de la Unión Internacional de Telecomunicaciones Telecomunication Union ). ITU-T (International a) Normas MPEG de la Organización Internacional para la Estandarización ISO El formato del Grupo de Expertos en Imágenes en Movimiento MPEG es un estándar para compresión de video y de audio. Apareció en 1990 y a medida que avanzaron las investigaciones, se presentaron nuevas versiones del estándar. Cada una de estas se diferencian por la calidad de la señal codificada y ancho de banda usado. Entre las principales ventajas que ofrece están: compatibilidad mundial, gran compresión y poca degradación de la imagen. En realidad el estándar no especifica cómo se debe hacer la compresión sino que especifica ciertas normas que deben seguir los algoritmos creados por los fabricantes para mantener la compatibilidad. MPEG-1 : Establecido en 1991, se diseñó para introducir video en un CDROM. Por aquel entonces estos dispositivos eran lentos, por lo que la velocidad de transferencia quedaba limitada a 1.5 Mbps y la resolución a 352x240 pixeles. La calidad es similar a la de un VHS. Este sistema de codificación digital es el que se utiliza en el sistema de edición digital de este proyecto. MPEG-2 : Establecido en 1994 para ofrecer mayor calidad con mayor ancho de banda ( típicamente de 3 a 10 Mbps ). Proporciona 720x486 píxeles de resolución, es decir, calidad de TV. Ofrece compatibilidad con MPEG-1. MPEG-3 : Fue una propuesta de estándar para la TV de alta resolución, pero como se ha demostrado que MPEG-2 con menor ancho de banda cumple con este cometido, se ha abandonado esa propuesta. MPEG-4 : Se trata de un formato de muy bajo ancho de banda y resolución de 176x144 pixeles, pensado para videoconferencias sobre redes IP. Hay una gran cantidad de software que realizan la codificación con esta norma y que dan una calidad semejante al MPEG-2 pero con mucho menor ancho de banda. MPEG-7 : Normalizado a partir de 1996. Se creo para aplicaciones de multidifusión, por ejemplo radios y canales de TV. b) Normas H.32x del Grupo de Estándares Técnicos de la Unión Internacional de Telecomunicaciones ITU-T H.320 : Norma ITU-T para circuitos de vídeo teléfono y teleconferencia a valores múltiplos de 64 Kbps. El estándar cubre desde 64 a 2048 Kbps con un retardo inferior a 150 ms. Se señala un protocolo de conectividad internacional que permite la comunicación entre aparatos de distinta producción y compatible con las Redes Digitales de Servicios Integrados (RDSI). H.323 : Esta tecnología permite la transmisión en tiempo real de vídeo y audio por una red de paquetes. Es de suma importancia ya que los primeros servicios de voz sobre IP utilizan esta norma. En la versión 1 del estándar H.323v1 del año 1996 no se garantizaba la calidad de servicio QoS (Quality of Service) sobre redes LAN. En la versión 2 del año 1998 se definió la aplicación Voz sobre IP (VoIP). Una versión 3 posterior incluye el servicio de Fax sobre IP (FoIP) y conexiones rápidas entre otros. H.324 : Esta norma incluye un nuevo sistema de codificación para la señal de vídeo. El objetivo de este nuevo sistema es el de mejorar la calidad de la señal codificada por los otros estándares H.32x. Esta norma es coherente con MPEG-4 desarrollado por ISO debido a que utiliza las mismas técnicas de compresión. H.324 permite la interactividad entre terminales PC-multimedios, módem de voz-datos, navegadores WWW con vídeo en vivo, videoteléfonos, sistemas de seguridad, entre otros. 1.2.5. FORMATOS PARA LA TRANSFERENCIA DE CONTENIDOS Anteriormente un dato muy importante de conocer para los editores de video, era la plataforma que seguiría el proceso de posproducción para poder determinar en qué formato se debía entregar su trabajo. Ese concepto está siendo olvidado gracias a la aparición nuevos estándares para el almacenamiento y transferencia de contenidos. Hace ya algunos años nacieron dos importantes organizaciones, formadas por representantes de varios sectores de la industria de la producción y la posproducción de televisión, con el objetivo de crear un consenso en cuanto a temas de la industria se refiere. Estas dos entidades eran la Advanced Authoring Format Association (Asociación por el Formato de Autoría Avanzada) y el Foro Pro-MPEG. A finales de los 90 las entidades anteriormente mencionadas comenzaron a trabajar con el objetivo de establecer un formato universal para el intercambio de materiales audiovisuales entre servidores de archivos, plataformas de edición y otros dispositivos para la creación de contenidos. Si bien el trabajo en red y la transferencia de archivos eran tareas conocidas en el ambiente de la televisión, estas operaciones estaban basadas en formatos propietarios. Además, aunque el audio y el video eran preservados, la mayor parte de los datos de sincronismo, banderas de tiempo y descripción del proyecto, conocidos como metadatos, se perdía o se ignoraba en la transferencia. Aparecieron entonces formatos, enfocados en los usuarios, siendo fáciles de entender y aplicar, independiente del tipo de compresión usado en los proyectos y, además corren sobre los sistemas operativos Windows, Mac, Unix y Linux. 1.2.5.1. MXF – Material Exchange Format (Formato de Intercambio de Material) Es un formato abierto que permite el intercambio de información multimedia y sus metadatos asociados, entre diferentes estaciones de trabajo con diversas aplicaciones e incluso con distinta tecnología. Puede incluir desde diferentes archivos con la información sobre los distintos cortes entre secuencias, texto y audio, hasta un proyecto completo y terminado. De esta manera, se puede hacer una selección de tomas recién grabadas en un computador portátil por ejemplo y luego continuar la edición en otra plataforma de trabajo que incluso corra sobre un sistema operativo diferente. MXF contiene la secuencia de cada cuadro de video, junto con el audio, los datos y los metadatos asociados. Otro factor importante indica que MXF es independiente del formato de compresión que lleve su esencia, ya que puede transportar diferentes tipos de formatos como MPEG, DV o video sin compresión. El mayor aporte de MXF es el traspaso del contenido de un programa junto con sus metadatos asociados, también conocidos como "datos acerca de los datos", que existen en cualquier sistema hoy. Por ejemplo, las marcas de tiempo (timecode) constituyen una forma de metadato. El problema es que, debido a las incompatibilidades, esa información normalmente se pierde mientras se mueve entre plataformas. Los metadatos pueden contener información sobre: La estructura de archivos El contenido en sí (MPEG, DV 525, DV 625, etc.) Palabras clave o títulos Subtítulos Números de referencia Notas de edición Ubicación, tiempo, fecha y número de versión de un clip Esto puede ser interminable. Incluso, en casos extremos la información sobre los metadatos puede resultar mayor que el contenido de audio y video. Por lo tanto, darle un buen uso a todos estos datos parece ser la clave para el manejo del material audiovisual. También es importante en cada caso filtrar la información necesaria para cada operación, con el fin de evitar las llamadas montañas de metadatos innecesarios. A medida que MXF sea adoptado por más fabricantes, será posible el traslado de una mayor variedad de metadatos al siguiente escenario de producción. Esto permitirá que un profesional se concentre más en el uso del material audiovisual y sus metadatos, que en estar solicitando información a los diferentes participantes de la cadena de producción de ese contenido. El formato MXF prioriza la simplicidad en su utilización y el intercambio de imagen y sonido con sus metadatos asociados. Entre sus diferentes aplicaciones encontramos: Material para la edición Transferencia entre servidores sobre redes locales (LAN) o externas (WAN) Archivado de material en formatos de almacenamiento de datos Distribución de contenidos Lo más importante para estas aplicaciones es el hecho de que MXF puede ser usado tanto en procesos de transferencia de archivos almacenados, como también en aplicaciones de flujo en tiempo real (real time streaming en Inglés). Otra utilidad puede ser la de servir como material de fuente en un proyecto de posproducción AAF para un programa finalizado o para clips independientes. Ambos formatos son capaces de transportar esencia y metadatos; sin embargo, la prioridad en cada formato es diferente y a la vez complementaria. 1.2.5.2. AAF - Advanced Authoring Format (Formato de Autoría Avanzada) A comienzos del año 2000, la asociación AAF comenzó a trabajar en un formato de intercambio un poco más complejo que el naciente MXF. Se puede destacar como diferencia entre este formato y el anterior que el formato AAF es fundamentalmente usado en proyectos de multimedia y posproducción, debido a que permite almacenar una mayor riqueza de metadatos y, principalmente, debido a que facilita referenciar a materiales externos. O sea, un proyecto AAF puede incluir la esencia propia y los metadatos asociados, pero también puede llamar a otras esencias (MXF) alojadas en un servidor de almacenamiento, por ejemplo. AAF incluye muy variadas clases de metadatos, que pueden usarse para describir los componentes del armado de una producción. Al intercambiar o trasladar datos de un proyecto entre diferentes aplicaciones o estaciones de trabajo, AAF puede transferir el audio, video y metadatos asociados. Sin embargo, un archivo AAF puede incluir sólo la información de metadatos de un proyecto, con vínculos o referencias a material externo. Por ejemplo, un archivo AAF puede incluir una secuencia de 30 minutos, junto con la información sobre cómo reducirla a 5 minutos, además de una referencia externa a un texto o a imágenes fijas, ubicadas en una plataforma diferente. La idea de AAF es el intercambio de los metadatos de composición. Mientras que MXF es un formato pensado para el intercambio simple de material audiovisual (en general programas terminados), el AAF es un formato más complejo, pensado para el intercambio de proyectos a través de diferentes plataformas de edición y entre distintas aplicaciones. AAF permite exportar toda la información. No sólo el audio, el video, o el texto, sino también los metadatos con las decisiones acerca de cómo el material ha sido manipulado (cortes, corrección de color) y ensamblado. Además, se incluye toda la información respecto al código de secuencia (time code) y ediciones previas que puedan ayudar a las ediciones posteriores. Lo que hace AAF es encapsular todos los metadatos para transmitirlos junto con la información multimedia. Si el equipo al que se transmitió esta información soporta este formato, puede hacer uso de la misma, sino, no los modifica de ningún modo. Los formatos MXF y AAF han sido diseñados para trabajar en conjunto. 1.2.5.3. GXF - General eXchange Format (Formato de Intercambio General) El General eXchange Format es un formato creado por el Grupo Grass Valley (que es el proveedor de los equipos que se utilizarán en este proyecto). Fue diseñado para operaciones de producción de noticias y otras aplicaciones de multidifusión relacionadas. Está basado en el concepto de codificación de SMPTE KLV (una forma de codificar datos basado en Edit Decition Lists EDLs para transportarlos a través de una red) usado por AAF. Los EDL son algoritmos que se van creando a medida que se edita un determinado proyecto; están formados por los metadatos de las fuentes e indican de que fuente se toma una secuencia de video y que duración tiene. Es así que se podría transmitir un proyecto terminado, sin enviar audio ni video. GXF es un sistema que abarca las funciones de MXF y AAF. Transfiere materiales a través de redes de datos y se encarga de archivarlos en cintas u otros dispositivos de almacenamiento. Figura 1.10. Intercambio de formato Soporta formatos MPEG, DVCPRO, JPEG video, además de audio AC3 y Dolby E. Por lo menos siete fabricantes soportan en la actualidad el formato GXF. CAPITULO II ANÁLISIS DE LA SITUACIÓN ACTUAL DE LA ESTACIÓN DE TELEVISION 2.1. INTRODUCCIÓN Antes de poder hablar de una estación de televisión, se debe conocer como funciona la misma, en este capitulo entenderemos de manera general su estructura y funcionamiento PROCESADOR VIDEO SWITCHER MICROONDA MASTER PROCESADOR AUDIO SONIDO CONTROL TECNICO ESTACIÓN SATELITAL Figura 2.1. Diagrama de bloques general de la estructura de un canal de televisión Un canal de televisión está estructurado como lo muestra la figura 2.1. Estos bloques forman parte de diferentes departamentos dentro de la organización; el Switcher forma parte de Producción, Sonido y Master de Pautaje, los Procesadores, Control técnico y las Estaciones son manejadas por el departamento de Ingeniería. El Switcher es un mezclador que permite conmutar, modificar, combinar o crear diferentes señales de video con el propósito de realizar artísticamente el material proporcionado por cámaras, reproductores de video (video players), u otras fuentes de video. En el caso de la estación de televisión donde se realizó el estudio, es un Switcher digital marca ROSS. El Master, es un equipo encargado de enviar al aire la programación diariamente. Permanece encendido durante todo el día y recibe material del Switcher, reproductores de video y otras fuentes para luego decidir cual de todas sus entradas será la que se transmite. Es de marca Grass Valley y modelo Master21. Sonido, esta formado por una consola de varios canales de entrada que se encarga de musicalizar y ecualizar las señales de audio que llegan desde los micrófonos, reproductores de audio/video y otras fuentes. Los Procesadores de audio y video son los encargados de procesar la señal para poder ser vista por los televidentes. Son el último paso antes de que la señal mezclada (audio y video) sea enviada a la microonda y al satélite para su transmisión al aire. Como vemos en la figura 2.1 el control técnico se realiza en todos los bloques en que se manejan señales de audio y video. En este capitulo se analizará la red LAN del canal, lo cual es importante para describir más adelante el proceso que necesita para enlazarla con la red de edición y con los equipos electrónicos que envían la señal al aire. También se describirá la estructura organizacional de un canal de televisión. 2.2. ESTRUCTURA ORGANIZACIONAL DEL CANAL El canal de televisión es una cadena televisora nacional cuya matriz está ubicada en Guayaquil y llega aproximadamente a 29 provincias con 26 repetidoras en el territorio Ecuatoriano. Además esta estación de televisión pertenece a una cadena de estaciones a nivel Latinoamericano, por lo cual funciona bajo el mando de un directorio formado por accionistas a lo largo de Sur y Centro América. El Presidente y Vicepresidente de este canal son los representantes de los intereses de los accionistas en el Ecuador. DIRECTORIO PRESIDENCIA EJECUTIVA VICEPRESIDENCIA EJECUTIVA Estudios DEPT. DEPORTES DEPT. INFORMATIVO DEPT. ADMINISTRACION Garita Recepcion Diseño DEPT. VENTAS Controles DEPT. PAUTAJE DEPT. PRODUCCION Sonido Producto 1 Producto 2 Contablidad DEPT. FINANZAS Caja Nivel 1 Nivel 2 Nivel 3: Departamentos Nivel 4: Divisiones DEPT. COMPUTACION DEPT. PROGRAMACION Videoteca DEPT. PROMOCIONES Diseño Grafico DEPT. INGENIERIA TCR Figura 2.2. Estructura Organizacional de la estación televisiva La jerarquía departamental está distribuida como lo muestra la figura 2.2 y cada departamento tiene una función específica las cuales se describirán brevemente a continuación. Dpto. Administración: Administra los recursos humanos, materiales y los servicios generales de la estación televisiva. Maneja las divisiones de Recepción, Garita y Estudios Dpto. Finanzas: Planifica, organiza, dirige y controla las actividades que tienen relación con la gestión económica – financiera. Esta área se encarga de la obtención de fondos y del suministro del capital que se utiliza en el funcionamiento de la empresa, procurando disponer con los medios económicos necesarios para cada uno de los departamentos, con el objeto de que puedan funcionar debidamente. Dpto. Computación: Este departamento es el encargado de dirigir las acciones de análisis, diseño, desarrollo e implantación de sistemas informáticos. Se encarga de mantener operativa la red interna de datos y de coordinar e integrar la comunicación y transferencia de datos e información entre departamentos, así como coordinar los servicios de mantenimiento correctivo y brindar asistencia a usuarios de los servicios informáticos de la estación. Dpto. Ventas: Vende programación a las agencias de publicidad o a clientes directos. Dpto. Pautaje: Arma la comercialización y la incorpora a la programación. Este departamento maneja la División de Controles, encargada de enviar al aire la comercialización; y la División de Sonido, encargada de musicalizar y colocar efectos de sonido a la programación que sale al aire. Dpto. Programación: Este departamento está encargado de comprar y revisar la programación que saldrá al aire. Dentro de su división de Videoteca almacena y respalda los programas que se emiten; además entrega la programación a Pautaje para que arme la comercialización. Dpto. Promociones: Su finalidad es la de reunir factores y hechos que influyen en le mercado para crear publicidades en base al gusto del consumidor, y lo distribuye en forma tal que esté a su disposición en el momento oportuno. Dentro de su División de Diseño Grafico se encarga de promocionar películas y productos propios de la estación televisiva. Dpto. Producción: Tradicionalmente es considerado como uno de los departamentos más importantes, ya que formula y desarrolla los métodos adecuados para la elaboración de productos. Dpto. Ingeniería: Administra, controla y brinda mantenimiento a los equipos electrónicos de audio y video que se utilizan para trasmitir las señales. Además se encarga de controlar e inventariar los equipos que se usan en trasmisiones dentro y fuera de la planta. Este departamento se encarga de asesorar a los directivos de la estación, en la compra de los insumos técnicos que requiere el canal. Dpto. Informativo: Es aquí donde se preparan las noticias, y se promociona a través de la División de Diseño, el programa de Noticias, al igual que los programas de Deportes. Dpto. Deportes: Está integrado por reporteros, presentadores y editores encargados de preparar y presentar las noticias deportivas y realizar las transmisiones de eventos en vivo. 2.3. ANÁLISIS DE LA RED LAN Como la nueva red de edición se transportaría sobre una red basada en la pila de protocolos TCP/IP, es necesario hacer un estudio de la red LAN existente (TCP/IP también) para permitir una comunicación entre ambas, según sean las necesidades de la estación de televisión. El canal posee una red privada de clase B. Esta red es la 172.16.0.0 con máscara de subred 255.255.0.0. El cableado estructurado de esta red se realizó con cable UTP categoría 5. La red de la estación se utiliza principalmente para distribuir el Internet, para compartir archivos y para que los usuarios puedan acceder a aplicaciones de control de recursos (Por ejemplo un programa de inventarios). En cuanto al Internet, el canal tiene contratado un juego de direcciones IP públicas: 200.105.289.209 / 255.255.255.252 (2 direcciones útiles), una de estas direcciones se encuentra configurada en el ruteador del proveedor de Internet y es la puerta de enlace de la red; y la otra está configurada en un servidor administrado por el departamento de sistemas del canal y presta servicios de correo electrónico, página web y proxy (permite la navegación a la red interna del canal). En la tabla 2.1 se muestran las direcciones IP asignadas a los servicios que se mencionaron. IP USO 200.105.238.5. DNS1 200.105.215.1 DNS2 PUERTA 200.105.289.210 DE ENLACE (ROUTER) 200.105.289.211 SERVIDOR Tabla 2.1. IPs públicas del canal de televisión El servidor principal tiene dos tarjetas de red: una para la red interna y una para el Internet. El servidor tiene instalado un sistema operativo Linux (Red Hat 9) y actualmente tiene configurada una dirección IP en cada tarjeta de red. La red LAN es utilizada por todos los departamentos, los cuales se han dividido en grupos de trabajo, sin embargo esta red no se encuentra dividida en subredes. El sistema de distribución de las direcciones que se ha empleado, asigna el mismo tercer octeto a equipos de un mismo departamento, es así que las PCs del Departamento de Producción empiezan con 172.16.8 y las del Departamento de Ingeniería con 172.16.11. Todo esto a pesar de que la red no está enmascarada (dividida en subredes). Se puede aprovechar esta nomenclatura para realizar una división de redes entre departamentos. Para realizar esto se debe aumentar un octeto más a la sección de red de la máscara de subred (actualmente 255.255.0.0), quedando la siguiente: 255.255.255.0. Con esto obtenemos 256 redes, cada una hasta con 254 terminales. También hay que configurar una dirección de cada red en la interfaz de la red interna del servidor principal para que sirva de puerta de enlace de cada nueva red. A continuación se muestra un esquema básico de la red actual del canal. 172.16.4.1 Máquina del Departamento de Ventas 172.16.3.11 Servidor Principal 172.16.1.1 Máquina del Departamento Administrativo 172.16.2.1 Máquina del Departamento de Finanzas 172.16.3.1 Máquina del Departamento de Sistemas Figura 2.3. Esquema actual de la red del canal. Como se puede ver en la figura 2.3, actualmente todas las máquinas pertenecen a una sola red lógica. Si en algún momento una de las máquinas realizara una multidifusión, esta consumiría recursos de cada una de las máquinas del canal. Servidor Principal 172.16.1.254 172.16.3.254 172.16.2.254 RED DEL DEPARTAMENTO DE FINANZAS 172.16.2.0 255.255.255.0 RED DEL DEPARTAMENTO ADMINISTRATIVO 172.16.1.0 255.255.255.0 172.16.1.1 Máquina del Departamento Administrativo 172.16.1.2 Máquina del Departamento Administrativo 172.16.2.1 Máquina del Departamento de Finanzas 172.16.2.2 Máquina del Departamento de Finanzas RED DEL DEPARTAMENTO DE SISTEMAS 172.16.3.0 255.255.255.0 172.16.3.1 Máquina del Departamento de Sistemas 172.16.3.2 Máquina del Departamento de Sistemas Figura 2.4. Esquema de la red del canal luego del enmascaramiento. En la figura 2.4 se muestra el esquema de la red luego del enmascaramiento (sólo se muestran 3 departamentos, en realidad son 13). Como se ve, cada departamento tiene su propia red lógica reduciendo así los dominios de multidifusión. Hay que destacar que en este esquema, el servidor principal debe tener una dirección por cada red, de tal manera que sirva de puerta de enlace de todas las redes. Se pueden configurar todas estas direcciones del servidor sin necesidad de contar varias tarjetas de red, esto se lo realiza configurando una interfaz virtual por cada red. Todas estas interfaces virtuales pueden pertenecer a una sola tarjeta. Entre los beneficios que se obtienen con la división de la red LAN en subredes se destacan los siguientes: Control total del tráfico entre subredes (desde el servidor principal). Se limita la multidifusión de datos (antes a toda la red del canal) a los usuarios de una misma subred. Se facilita la administración del acceso a otras redes (como Internet) por departamentos. CAPITULO III DISEÑO DE LA RED DEL SISTEMA DE EDICIÓN 3.1. INTRODUCCIÓN En este capitulo se estudia el diseño y estructura del sistema de edición digital que se implementará y su fusión con una red convencional ya existente en una estación de televisión. En las figuras 3.1 que vienen continuación, se muestran el esquema final de la red de edición del proyecto, y el esquema recomendado por el proveedor de los equipos: Thomson-Grass Valley. Revisando este par de gráficos se puede constatar que la red recomendada fue una guía para este proyecto. iMac Figura 3.1a. Diseño general del sistema de edición digital Figura 3.1b. Red recomendada para el sistema de edición digital por Grass Valley La red en la que se basa este proyecto fue una de varias que el proveedor del sistema, en este caso Thomson-Grass Valley, recomienda. Los símbolos que se utilizarán para graficar ciertos puntos se pueden ver en el Anexo I, los mismos que se utilizaran a lo largo de este capitulo. Además se conocerán los equipos del sistema y sus funciones específicas dentro de la red, así como los requerimientos físicos para un buen funcionamiento del sistema. 3.2. REQUERIMIENTOS DEL SISTEMA Es indudable que al invertir en un sistema de edición digital profesional tan avanzado y versátil se deben tomar en cuenta los requerimientos de espacio, electricidad y medio ambiente para optimizar el funcionamiento del mismo. Para facilitar el entendimiento del sistema se lo ha dividido en 3 partes, según la resolución de la señal de video con la que se trabaja y sus funciones, que son: • Alta Resolución (HIGH-RES) • Baja Resolución. (LOW-RES) • Equipos de codificación y decodificación En alta resolución se requieren: Ancho de banda mínimo por usuario de 64 Kbps. Eficiente dimensionamiento de la red Temperatura ambiente entre 10ºC a 40ºC Espacio para 2 racks de equipos dentro del cuarto de equipos Escalabilidad de la red Altas velocidades de transmisión de datos Buena calidad del servicio QoS (Quality Of Service) Alta seguridad dentro de la red sin el uso de antivirus Gestión de la red En baja resolución se requiere: Temperatura ambiente entre 10ºC a 40ºC Seguridad y Gestión de la red Alta seguridad dentro de la red Maquinas con procesador Intel Pentium 4 de 1.8 GHz como mínimo A lo largo de este capitulo hablaremos de alta y baja resolución para comprender el funcionamiento del sistema y de los equipos que lo conforman. 3.3. DESCRIPCIÓN DE LOS EQUIPOS A UTILIZAR EN EL PROYECTO El sistema consta de dos partes claramente diferenciadas, debido al formato que se usa para presentar los datos y a la calidad de la señal de audio y video: Alta Resolución: formato DV25 se transmite GXF Baja Resolución: formato MPEG-1 Equipos de codificación y decodificación Alta Resolución En Alta resolución se encuentran las editoras no lineales (Full Efects y Software Codec) conocidas como XT y SC respectivamente, el Profile XP y el NewsQPro, todos comunicados por la red de fibra óptica 10GBase SR. El proceso de edición empieza en las editoras no lineales, ya sea en la XT (full efects) o en la SC (software codec). Una vez terminado un proyecto se procede con la opción Publicar con lo que el trabajo terminado llega hasta el Profile XP, donde se almacena hasta ser enviado al Switcher Digital por cualquiera de los 2 canales del Profile XP (A y B) administrados desde el NewsQPro como lo muestra la figura 4.9. Finalmente el Master permitirá que el Switcher Digital envíe el material editado al aire a través de servicios de satélite o microonda. Figura 3.2. Proceso de edición en alta resolución Además de conectarse por fibra óptica al Profile XP, las editoras no lineales también se conectan por 100BaseT a los codificadores y servidores para enviar los metadatos que se requieren para realizar la edición en la red de baja resolución. A continuación se describirán las funciones de cada equipo dentro de la red en alta resolución: a) NewsEdit LT/SC Esta editora no lineal a simple vista es un computador normal pero su poderoso software versión 5.0b la convierte en un elemento de trabajo muy estable y fácil de usar. Debe ser instalada bajo Windows XP. Tiene 120GB de disco duro y 512MBde memoria RAM. Cuenta con dos puertos para conectar fuentes digitales externas (maquinas DVCPRO o BETACAM). Cuenta también con una tarjeta capturadora de video compuesto. Este equipo de edición, que trabaja básicamente a través de un software, transfiere información en formato GXF al Profile XP, por lo que cuenta con una tarjeta de red para fibra óptica y otra tarjeta de red de 100BaseT que sirve para enviar los metadatos. b) NewsEdit XT Esta editora no lineal cuenta con más efectos y mayor capacidad que la NewsEdit SC, además tiene un hardware adicional conocido como breakbox que es un interfaz entre las fuentes de audio y video, y el CPU. El breakbox aumenta las opciones de equipos y formatos que pueden ser usados como fuentes. Trabaja bajo Windows XP, cuenta con dos puertos para conectar fuentes digitales externas. c) Profile XP Es el encargado de almacenar archivos de video/audio en formato DV25/balanceado estereo. Tiene cuatro canales, 2 de los cuales (A y B) son administrados por el NewsQPro y son llamados AirPlay 1 y AirPlay 2 como lo muestran la figura 4.10a y 4.10b. Figura 3.3a. AirPlay 1 o canal A del NewsQPro Figura 3.3b. AirPlay 2 o canal B del NewsQPro Los otros dos canales se usan para el ingreso de señales y para entregar video al codificador secuencial como ya se indico anteriormente. El Profile XP es donde se almacena el material de alta resolución. Cuenta con un sistema RAID 5 para el almacenamiento (ver Anexo IV). Las siglas RAID significan Redundant Array of Independent Disks, es decir, matriz de discos independientes y redundantes, y el 5 es el nivel del arreglo. En este caso el nivel ofrece tolerancia al fallo y optimiza la capacidad del sistema ya que evita que el procesador realice procesos de almacenamiento. d) NewsQPrO Es el encargado de organizar en listas de reproducción, conocidas como playlist, los archivos de video que se publican desde las editoras NewsEdit XT, NewsEdit SC, las Lite y las Advance (las dos últimas de baja resolución). Por medio del Switch digital ROSS estas notas son enviadas al aire cuando el Master lo decide. El NewsQPro presenta una pantalla amigable que se muestra en la figura 3.11, puede tener hasta 8 canales que dependen de las salidas físicas del Profile XP; en este caso solo se utilizan 2 canales para presentar material al aire. Aquí se arma el bloque de notas que saldrán al aire en orden de salida ya se ascendente o descendente Canal A del PPROFILE Aquí están todas las notas que fueron enviadas al PROFILE, esto esta en formato DV25 Canal B del PPROFILE Figura 3.4. Pantalla de trabajo del NewsQPro El NewsQPro tiene también una papelera de reciclaje particular que se llama Housekeeper desde donde se borran las notas en alta resolución. Esto se puede realizar periódicamente para evitar saturación en el almacenamiento y lentitud en el sistema. Al borrar en alta resolución solamente se borran los archivos que se encuentran en el en el Profile XP. Esto no influye en ningún otro equipo. Figura 3.5. Pantalla del Housekeeper Baja Resolución En LOW-RES es donde trabaja el Servidor NewsBrowse y el NewsBrowse NAS, además de los PCs con las licencias Advance Edit y Lite Edit (editoras básicas instaladas en computadores normales). En la figura 4.13 se muestran los equipos que trabajan en baja resolución. Las computadoras que forman parte de la red administrativa se pueden implementar como editoras a través de las licencias Lite Edit. Dentro del segmento en que se encuentran los servidores y codificadores se habilitarán 2 computadores para las licencias Advance Edit. Los servidores y codificadores generan el material para poder trabajar en baja resolución de lo que reciben de alta resolución. AV TC TC Codificador de 1 canal 10/100 BT info mpg Th/stb Servidor Newsbrowse NAS mpg web Th/stb 10/100/1000 BT BAJA RESOLUCION Red Administrativa Figura 3.6. Conexión entre la red de edición digital y la red administrativa A continuación se detallan las características y funciones de los equipos que trabajan en baja resolución. a) Servidor NewsBrowse Es el componente central de la red de baja resolución y es el encargado de presentar a través de aplicaciones web lo que se encuentra almacenado en el NewsBrowse NAS que ha sido previamente tratado para poder ser visto en formato MPEG-1 También es el encargado de controlar las sesiones de usuarios y de administrar los privilegios de cada uno. b) NAS Almacenamiento Vinculado a la Red (Network Attached Storage) Es aquí donde se almacena la información que es generada en las editoras no lineales de baja resolución, y la metadata tratada y enviada por alta resolucion. Aquí gracias a los codificadores y servidores llegan los EDLs, archivos en formato MPEG-1, imágenes periódicas de una secuencia de video (storyboards), primeras imágenes de cada secuencia de video (tumbnails) y real media video (formato de video reproducible en cualquier PC). Todos estos elementos son necesarios para que los PCs de la red administrativa puedan trabajar con el material que se encuentra en alta resolución. Por deberse a un sistema de almacenamiento debe contar con una fuente de poder redundante, además como lo muestra la Figura 4.7 debe tener 2 tarjetas de red 1000BaseT y 100BaseT. c) Licencias Para el proyecto se requieren 6 licencias: 2 Advance Edit y 4 Lite Edit. Los pasos para la instalación de estas licencias se puede ver en el anexo V y VI respectivamente. Para la instalación de las licencias los PCs que deben cumplir con las siguientes especificaciones: Advance Edit: Este software se instala por red una vez habilitado el sistema, La máquina debe tener: • Windows 2000 Professional or Windows XP • Procesador 860 MHz o mas veloz, 256 MB RAM • 16 or 32 bit color display 1024 x 768 • 1024 MB de Memoria Virtual Requerimientos para tarjeta de video • Que soporte DirectX 9.0 • Memoria 32 MB hasta 128 MB DDR El proveedor recomienda la tarjeta de video GeForce FX 5200 AGP con controlador versión 4.4.6.7. Lite Edit: Esta licencia sirve para ediciones muy básicas es decir ediciones por corte en las que el video es cortado y pegado sin mayores efectos, sirven como revisoras del material publicado en alta. Figura 3.7. Pantalla de presentación Lite Edit. Los equipos que se describirán a continuación son los más importantes del sistema, trabajan en la parte media, como lo muestra la figura 3.15. Facilitan el manejo de señales en alta y baja resolución sin inconvenientes, ya sea que reciban material en alta resolución y lo conviertan en baja o viceversa. Figura 3.8. Sistema de edición no lineal (digital). Equipos de Codificación y Decodificación a) Codificador de un canal (1-channel encoder ) Es el que genera el archivo en formato MPEG-1 de la señal de video analógico que recibe (en este caso la señal que llega de la matriz de video) y lo guarda para codificarlo y poder trabajarlo en baja resolución. Es también el servidor de sincronismo NetTime para todos los servidores y codificadores del sistema. b) Codificador Secuencial (Sequential encoder ) Su función es similar a la del codificador de un canal, pero además se encarga de realizar una copia de lo que se almacena en el Profile XP en la carpeta media del NAS para que pueda ser utilizado en baja resolución. c) Servidor de Soporte de Imágenes (Image Support Server ISS) El NewsBrowse ISS es el que recibe y procesa los metadatos. El Image Support Server, procesa lo que recibe en MPEG-1 y extrae imágenes identificadores (thumbnail imagines) para ser usadas como carta de presentación de una secuencia de video y son enviadas a una carpeta Media en el Newsbrowse NAS. También extrae escenas para crear un storyboard y envía el archivo RealVideo hacia la carpeta Media para poder ser vista por cualquier PC de la red de baja resolución. d) Servidor Conform Su función es la de crear los EDLs y los envía a la carpeta Media que se encuentra en el NAS. Tiene 2 tarjetas de red, 1 de fibra óptica y otra de 100BaseT. Luego que la información se genera en las editoras, él es el encargado de empaquetar los archivos y enviarlos a la carpeta media e) Puerta de enlace Linux Este equipo es una necesidad que se le incorpora a la red pensando en la seguridad de la misma. Con este equipo se puede administrar el tráfico entre las redes y proteger a los demás dispositivos de posibles ataques. 3.4. DISEÑO DE LA RED DE EDICIÓN En la Figura 3.1 se vio que existe una red de clientes (Client Network) que son usuarios de PCs comunes, en el caso particular de este estudio será la red existente a la cual se llamara “Red Administrativa”, y la red de producción (Production Network) que es la nueva red que se diseñará a lo largo de este proyecto se llamará “Red de Edición”. Tomando en cuenta las consideraciones de fábrica y recomendaciones del proveedor, se llegó a un esquema básico como se muestra la Figura 3.2, en la cual se verá una clara diferenciación entre las redes que manejan señales en alta y baja resolución (HIGH-RES y LOW-RES). RED BAJA RESOLUCIÓN Switch ................. Baja Resolución (3 edit license) Almacenamiento en Baja resolución Servidor NEWSBROWSE Equipo administrador del NAS (Vía web) Switch Codificador de 1 canal Codificador de secuencial Servidor ISS Servidor Conform ALTA RESOLUCIÓN Entradas externas (analógicas) Canales de salida (Señal que puede ser enviada al aire) 2 Profile XP Almacenamiento en Alta resolución RS422 Equipo administrador de los canales de salida del Profile XP 2 Switch de Fibra óptica 1 Figura 3.9. Esquema básico de la Red de edición digital. 1 Los equipos de alta resolución se encuentran en la misma red del servidor principal del sistema: el Profile XP. Para esta red (color verde en el gráfico) se ha pensado una 10GBaseSR (fibra óptica) para poder garantizar el intercambio de información sin limitaciones debidas al ancho de banda. Al igual que en el esquema sugerido por el proveedor, existen equipos que realizan la codificación y decodificación de la información multimedia para transportarla de la red de alta resolución a la de baja resolución y viceversa, por lo que deben tener comunicación con ambas redes (red de color lila). Finalmente, una tercera red, (color rojo) que se conocerá como Baja resolución, ya que se trabajará con información previamente codificada en un formato de menor resolución. En este esquema sencillo no se han tomado en cuenta aún las redes existentes en el canal; las cuales, como se indicará más adelante, se acoplarán al sistema mediante una Puerta de enlace que cumpliría funciones de ruteador y cortafuegos (firewall) como se muestra en la figura 3.3. 1000BT RED DE EDICION NO LINEAL RED ADMINISTRATIVA FIREWALL LINUX 100BT Figura 3.10. Comunicación entre la red de edición y la red administrativa La estación televisiva donde se efectuó el estudio cuenta con tres computadores, que tienen instalado un software para edición digital. Estas máquinas pertenecen al departamento de Diseño Gráfico y deben incluirse a la red del proyecto. Estas PCs ocuparan un segmento de la nueva red en la parte de baja resolución. iMac Figura 3.11. Esquema de la Red de Edición digital tomando en cuenta los recursos de la estación. En la figura 3.4 se incluyen los 3 PCs de Diseño Gráfico, y 3 PCs más de ese mismo departamento. El segmento conformado por las 6 máquinas maneja información de Internet constantemente. Debido a que se trata de una pequeña red de edición no lineal, carece de antivirus por lo que no puede conectarse directamente al Internet. Por último se debe agregar al diseño del sistema, un equipo que ya tiene la estación y que se utiliza para enviar al aire sobreimposiciones, fondos y anuncios, creados en los equipos de la red del Departamento de diseño. Este equipo es el DEKO. Teniendo en cuenta los equipos con los que cuenta el canal, y los que conforman el nuevo sistema de edición digital, la red quedaría como lo muestra la figura 3.4. 3.4.1. ADECUACIONES E IMPLEMENTACIONES ADICIONALES Debido a que la estación de televisión cuenta con equipos analógicos, se requiere realizar algunos ajustes para que el sistema opere normalmente. Todas las señales de audio y video que maneja el canal se encuentran conectadas a dos matrices: una de audio y una de video. La matriz de audio maneja los dos canales de cada señal de audio (L y R), y la matriz de video maneja cada señal de video en formato componente (R, G y B). De una de las salidas de las matrices anteriormente mencionadas se toman las entradas para los equipos del nuevo sistema de edición digital con la finalidad de que cualquier señal proveniente de los equipos ya existentes en la estación, pueda ser enrutada hacia los nuevos equipos y editada. La señal de entrada debe ser analógica (compuesta) para el Codificador de 1 canal ( 1-chanell encoder), pero digital para el Profile XP. Esta señal debe ser exactamente la misma sin retardos significativos por lo que se requiere de un convertidor analógico a digital. En este caso se ha seleccionado un ADC6001 (ver anexo II) que recibe una señal en video componente proveniente de la matriz y la convierte a digital; esta señal será la entrada del Profile XP. Del ADC6001 se toma otra salida digital y se la lleva a una tarjeta VSM6001. Esta tarjeta convierte la señal digital en señal analógica compuesta (ver anexo III) para ser entregada al Codificador de 1 canal (1channel encoder). De esta manera los 2 equipos tienen la misma señal en los formatos requeridos con retardos mínimos. Como el Codificador 1CH es el servidor de sincronismo para el resto de codificadores. A este equipo se le debe ingresar el mismo timecode y las mismas entradas de audio que al servidor principal: el Profile XP. Esto se hace conectando la señal de reloj del sistema (Reloj Master, que no es más que un generador de onda cuadrada) a un distribuidor y tomando una salida para el Profile XP y otra para el Codificador 1 CH. Este distribuidor es un dispositivo que permite tomar hasta 6 señales idénticas a una de entrada, con la posibilidad de regular su ganancia. En la figura 3.5 se muestra un distribuidor de audio para los 2 canales de la señal de entrada al sistema, en realidad existen 3 distribuidores, 1 para cada canal de audio (L y R), y uno más para el timecode. También se detallan las conexiones de los periféricos de los servidores hacia un equipo conmutador KVM (Teclado, Video y Ratón o Keyboard, Video and Mouse). Figura 3.12. Conexiones entre equipos El Profile XP usando uno de sus 4 canales le entrega video, al codificador secuencial, así como a través de una extensión le entrega audio y timecode. Para el video se debe utilizar una tarjeta convertidora VSM6001 ya que el Profile XP es totalmente digital, mientras que el timecode y el audio se podrán conectar directamente del equipo gracias a que cuenta con extensores que tienen salidas en diferentes formatos. Figura 3.13. Entrada de canales de video a la matriz y al Switcher Figura 3.14. Entrada de canales de audio a la matriz y hacia sonido Finalmente las salidas (A y B) de audio y video del Profile XP deben ingresar al Switcher o mezclador donde estarán listas para ser enviadas al aire cuando el Master lo indique. En las figuras 3.6 y 3.7 se puede ver que el canal B del Profile XP (tanto en audio como en video) ingresa a las matrices analógicas de la estación de televisión. El audio ingresa directamente, y el video (formato compuesto) se conecta por medio de una tarjeta convertidora digital a analógica DAC6001. Esto se realiza para que las señales puedan ser direccionadas hacia otros destinos para ser grabadas y tener un respaldo de ellas. 3.5. ESQUEMA GENERAL DE LA RED DE EDICIÓN NO LINEAL (DIGITAL) iMac Figura 3.15. Esquema final de la red de edición digital En la figura 3.8 se pueden distinguir todas las redes que componen el sistema. En la tabla 3.1 a continuación se detalla cada red incluyendo la red administrativa ya existente en la estación 172.16.0.0 / 255.255.0.0. RED MÁSCARA TIPO MEDIO 172.16.0.0 255.255.0.0 100 Base T Cobre 192.168.0.0 255.255.255.240 1000 Base T Cobre 192.168.10.0 255.255.255.224 Cobre 100 Base T 192.168.11.0 255.255.255.240 10G Base SR Fibra óptica 192.168.31.0 255.255.255.248 1000 Base T Cobre OBSERVACIÓN Red Administrativa (Baja resolución) Red de Diseño Gráfico ya existente Red de transmisión de Metadatos Alta Resolución Red para la comunicación de equipos de Alta y Baja resolución Tabla 3.1. Redes que componen el nuevo sistema de edición. Para la asignación de redes y máscaras de subred del sistema se han tomado en cuenta las normas de enmascaramiento con la finalidad de hacer eficiente la distribución de direcciones en cada red. Es así que a la red de Diseño Gráfico ya existente se les ha asignado máscaras 255.255.255.240 lo cual permite tener 14 direcciones útiles; a la de Alta resolución también se le ha asignado la máscara 255.255.255.240 con lo que se tienen 14 direcciones útiles, lo que permite un posible crecimiento de la parte de alta resolución. La red para la transmisión de metadatos utiliza la máscara 255.255.255.224, la que permite 30 direcciones útiles, con esto se permite un posible crecimiento de la parte de baja resolución que utiliza las licencias Advanced Edit y la de alta resolución. A la Red para la comunicación de equipos de alta y baja resolución se ha asignado la máscara 255.255.255.248 la cual permite 6 direcciones útiles, esto se realiza debido a que esta red no va a crecer en el futuro. 3.5.1. UBICACIÓN DE LOS EQUIPOS UTILIZADOS EN EL PROYECTO En el cuarto de equipos, los dispositivos deben estar ubicados en un lugar seco, protegidos del polvo y como lo muestra la figura 3.16 en racks contiguos. Esta distribución de equipos facilita las conexiones entre los servidores. Cada rack debe ser conectado a un UPS para proteger los equipos de fallos eléctricos En uno de los racks es necesario ubicar una matriz para la distribución de los puntos de red ( patchera ) de las editoras, las pequeñas LAN y el DEKO, así como un punto de la red para enlazarse con la red administrativa. También se debe ubicar los dos switchs: 100BaseT Y 1000BaseT, que son los encargados de segmentar la red. Una posible distribución de los equipos se muestra la figura 3.4 PACHERA XForm PROFILE XP 1-CHANELL ENCODER NEWSBROWSE SERVER SEQUENCIAL ENCODER IMAGEN SUPPORT SERVER KVM Extender GATEWAY LINUX NewsQPro UPS UPS UPS UPS Figura 3.16. Distribución de los equipos en el cuarto de equipos Para manejar los 4 servidores y la puerta de enlace Linux desde una misma estación de trabajo, se recomienda utilizar un equipo llamado KVM. Este equipo es una interfaz que permite manejar varios CPUs con un solo monitor, teclado y mouse. En la figura 3.17 se muestra un ejemplo de KVM con una salida para el monitor, una entrada de teclado y una para el mouse, y varios puertos paralelos que van hacia los CPUs que se van a manejar. Figura 3.17. Equipo KVM. En caso de que el operador que envía las notas al aire no se encuentre en la misma área que los servidores (como ocurre casi siempre) se puede adicionar un KVM Extender. Con este dispositivo se puede tener el control de los servidores desde la ubicación del Switcher, por ejemplo, que es donde está destinado a ubicarse el NewsQPro que es el equipo que administra los trabajos almacenados en el Profile XP. Este KVM Extender requiere de una conexión por cable UTP Categoría 5e y puede estar a una distancia de la base de hasta de 30 metros. PACHERA XForm PROFILE XP PR O FI LE XP NEWSBROWSE SERVER IMAGEN SUPPORT SERVER KVM Extender GATEWAY LINUX NewsQPro UPS UPS UPS UPS Figura 3.18. Estaciones plegables de trabajo En la figura 3.18 apreciamos 2 estaciones de trabajo: la que maneja 4 servidores y la que maneja el Profile XP. Desde aquí se le da mantenimiento a la red y a los canales del Profile XP que maneja el NewsQPro. 3.5.2. CONFIGURACIONES DE LOS EQUIPOS A la Puerta de enlace Linux se la analizará en el subcapítulo de seguridad debido a la importancia de su función. La configuración del resto de equipos se puede dividir en tres etapas: a) Configuración de los parámetros de red. b) Configuración del sistema de sincronismo NetTime. c) Configuración de los servicios a) Configuración de los parámetros de red A excepción de la puerta de enlace Linux, el resto de equipos que requieren de un sistema operativo trabajan bajo Windows. La configuración de los parámetros de red de un sistema operativo Windows se puede realizar en Conexiones de Red del Panel de Control. Los datos para cada equipo varían según la o las redes a las que pertenezca. Los terminales pueden utilizar las direcciones libres de la red a la que pertenezcan. Aparte de la configuración de red propia de los equipos, el sistema NewsBrowse requiere que las direcciones sean asociadas con el tipo de equipo. Esto se debe definir en una tabla que debe ser incluida en el directorio C:\WINNT\system32\drivers\etc de cada equipo. La tabla del sistema de este proyecto es la que se detalla a continuación: #-------------------------------------------------#Tabla General de Equipos #-------------------------------------------------127.0.0.1 localhost # NewsEdit SC 192.168.10.11 TSGNESC1 192.168.11.11 TSGNESC1_fc0 192.168.10.12 TSGNESC2 192.168.11.12 TSGNESC2_fc0 #NewsEditXT 192.168.10.13 TSGNEXT1 192.168.11.13 TSGNEXT1_fc0 192.168.10.14 TSGNEXT2 192.168.11.14 TSGNEXT2_fc0 #Profile 192.168.10.1 TSGPVS1 192.168.11.1 TSGPVS1_fc0 #NewsQPro 192.168.10.2 TSGNQP1 #Codificador de un canal 192.168.10.3 NB-LIVEENC1 #Codificador Secuencial 192.168.10.6 NB-SEQENC1 #Servidor ISS 192.168.10.8 NB-IMAGESUP1 #Servidor NewsBrowse 192.168.10.4 NB-SERVER1 192.168.31.4 NB-SERVER1_al_ NAS #Servidor Conform 192.168.10.7 NB-XRE1 192.168.11.7 NB-XRE1_fc0 #NAS 192.168.10.5 NB-NAS1 192.168.31.5 NB-NAS1_al_NBServer #AdvanceEdit 192.168.10.9 editora-1 192.168.10.10 editora-2 Como se puede ver en la tabla se relacionan las direcciones con identificadores de los equipos. Estos indicadores son cadenas definidas por el proveedor para identificar los equipos según la función que cumplen en el sistema. b) Configuración del sistema de sincronismo NetTime El sistema NetTime mantiene sincronizados todos los relojes de los equipos. Este sistema requiere de un servidor de sincronismo que provea de su señal de tiempo a toda la red. El proveedor de los equipos especifica que el equipo que debe de hacer de servidor NetTime es el Codificador 1CH. Figura 3.19. Configuración NetTime para usuarios red administrativa Las máquinas de la Red Administrativa que van a ser clientes NetTime, también requieren de una configuración para este objetivo, la cual se muestra en la figura 3.19. Teniendo ya un servidor NetTime y varios clientes, todos pertenecientes a la Red Administrativa (172.16.0.0), se requiere también que los usuarios de la Red de edición no lineal estén sincronizados. Para esto se requiere que estas máquinas utilicen un equipo que pertenezca a ambas redes como servidor NetTime. El equipo que se utilizará será el Servidor NewsBrowse. Para realizar esto se debe configurar al Servidor NewsBrowse como cliente NetTime, y para las máquinas de la Red de edición no lineal, él será su servidor NetTime. Su configuración es como lo muestra la figura 3.20. Figura 3.20. Configuración NetTime 2.0 para los servidores c) Configuración de los servicios La configuración de los servicios depende de las funciones que cumpla el dispositivo en el sistema. Para acceder al menú de configuración de un equipo, se debe ingresar desde un navegador al puerto 280 del equipo. Por ejemplo si se quiere ingresar a la configuración del Servidor NewsBrowse, se debe ingresar a http://localhost:280 y acceder con los siguientes datos: Usuario: root_nb_svr\nbadmin Contraseña: newedit10 Como ya se indicó anteriormente, los parámetros de configuración dependen del equipo. Por ejemplo si se accede a la configuración del Codificador 1 CH, se podrá configurar los tipos de señales de entrada. A diferencia del resto de equipos, para acceder a los menú de configuración del NAS se debe ingresar desde un navegador a http://root_nb_nas. Los cambios se realizan como administrador (la clave predeterminada es nb). Los principales parámetros que se deben configurar son: Direcciones IP y Máscaras de Subred de todas las interfaces (Para nuestro caso dos). Privilegios de acceso de equipos que acceden de ambas redes (administrativa y de edición no lineal). Estos pueden ser: Sólo lectura RO o Lectura y escritura WR. Cambio de contraseña Una vez realizada la configuración, se pueden realizar pruebas de los permisos configurados desde máquinas pertenecientes a cada una de las redes. Esto se lo realiza accediendo desde la máquina que se va a probar a la dirección \\root_nb_nas\Media y tratando de crear y leer archivos (como prueba se puede crear un archivo de texto). 3.6. GESTIÓN DEL SISTEMA Uno de los protocolos más utilizados para la gestión de redes de datos es el SNMP (Protocolo Simple de Gestión de Red o Simple Network Management Protocol). Este es un protocolo de nivel de aplicación que forma parte de la familia TCP/IP. Este protocolo no es orientado a conexión pues utiliza UDP, el cual no mantiene las conexiones entre la estación de monitoreo y los agentes gestionados. El protocolo SNMP codifica toda la información que se desea gestionar en variables organizadas en forma de árbol. Este árbol toma el nombre de Base de datos de la Información de Gestión MIB (Management Information Base). Aunque la MIB se encuentra estandarizada, este estándar da espacio para que existan variables propias de cada fabricante de equipos. Como es de imaginarse, dependiendo de la función del equipo terminal, será el número y el tipo de variables. Un dato a destacar es que los sistemas SNMP utilizan una variable denominada comunidad, la cual es una cadena de caracteres que debe ser utilizada igual en todos los equipos que pertenezcan a un mismo sistema. Todos los equipos vienen la comunidad public predeterminada. 3.6.1. AGENTE SNMP El Grupo Grass Valey sugiere para la gestión SNMP un programa desarrollado por ellos. El programa de gestión se llama Net Central III y puede ser instalado en plataformas Windows. El programa requiere que la PC donde sea instalado cumpla con las siguientes especificaciones: • Procesador Pentium II o superior, de 266 MHz en adelante. • 128 MB de memoria RAM. • 100 MB de espacio disponible en el disco duro. • Adaptador de red TCP/IP (Típicamente, tarjeta de red Ethernet) • Tarjeta de sonido y parlantes, si se requieren activar las alarmas del sistema. Mientras el sistema NetCentral III se encuentre corriendo en la computadora que realiza las funciones de agente, realiza las siguientes operaciones de manera automática: • Chequea periódicamente que los dispositivos gestionados tengan conectividad con el agente de gestión. • Indica los estados de las variables de gestión con íconos fáciles de entender. • Recibe y muestra mensajes de alerta de los objetos gestionados y presenta mensajes de sugerencia de posibles acciones correctivas a tomar. • Guarda todos los mensajes de estado de los dispositivos (Logs). • Notifica el estado de los objetos gestionados en base a reglas que se deben configurar previamente. Además de los procesos automáticos, se puede emplear el programa para realizar chequeos manuales a los dispositivos gestionados: • En la pantalla de estado (Status) se puede realizar un esquema de la ubicación de cada equipo y las conexiones entre los mismos para facilitar su ubicación. • Se puede verificar en todo momento el estado de los dispositivos y sus variables de gestión. • Se puede acceder a los registros de alarmas (Logs) para realizar un análisis de lo sucedido anteriormente. • Con un paquete adicional llamado eNetCentral, se puede realizar el chequeo del estado de los dispositivos desde el Internet por medio de un navegador. Para el proyecto se ha decidido instalar el programa en el Servidor Profile XP. En la figura 6.1 se muestra la pantalla principal del programa. Figura 3.21. Pantalla Principal de Net Central III Una vez instalado el programa se deben incluir uno a uno los equipos a gestionar, para esto se accede a la opción File (Archivo) y se ingresa a Add New Device (Ingresar nuevo dispositivo). Una vez realizado esto, se debe ingresar la dirección IP del dispositivo y la comunidad (public por defecto). Una vez ingresado un dispositivo, aparece un menú con los parámetros a monitorear. Con todos los dispositivos instalados, el sistema puede monitorear las entradas de video, la temperatura interna del equipo, el estado de la red, ancho de banda que consume cada equipo (gráfico) y el estado de los equipos que se adicionen a él. Obviamente estos parámetros sólo son válidos para los equipos que manejan y codifican audio y video (No para el servidor Linux al cual sólo se le puede monitorear el tráfico en sus interfaces). Para el NAS, también aparece un parámetro adicional que es el de espacio utilizado de los discos. Aparte de solicitar información de los dispositivos, el sistema también recibe mensajes de alerta de los mismos en caso de que alguno de los parámetros tenga valores fuera de los normales. Por ejemplo cuando el servidor NAS esté utilizando más del 75% de su capacidad, aparecerá una alarma indicadora. 3.6.2. OBJETOS GESTIONADOS Para el monitoreo de los equipos de la red mediante SNMP hay que habilitar esta opción en el sistema operativo respectivo. Para los sistemas Windows (que son la mayoría) hay que instalar un componente de Windows que no viene predeterminado con la instalación típica. Este componente se encuentra en Panel de Control, Agregar o Quitar Programas. Se accede a la opción componentes de Windows y se instala el componente SNMP; luego de esto se debe habilitar el servicio. Para habilitar al servicio. Se debe ingresar al Administración de dispositivos ubicado en Sistema, y habilitar el agente SNMP en Administrador de Servicios. Como predeterminada viene configurada la comunidad public, la cual puede ser cambiada en el mismo menú. Para los sistemas Linux, se debe editar el archivo de configuración snmpd.conf ubicado en el directorio /etc/snmp. A continuación se muestran las líneas principales del archivo: # sec.name source com2sec notConfigUser default # group context comunity public sec.model sec.level prefix access notConfigGroup"" any noauth exact read write notif all none none En las primeras dos líneas se describe un nombre de usuario (notConfigUser), las direcciones desde donde se puede acceder (default o cualquiera) y la comunidad (public). En las siguientes dos líneas se puede configurar grupos con permisos de acceso (lectura y/o escritura) que se permite al grupo. Luego de esto, se debe incluir al servicio en el arranque del sistema; esto se realiza ejecutando el comando: chkconfig snmpd on 3.7. SEGURIDAD DEL SISTEMA Debido a que la red maneja archivos multimedia, cada dispositivo requiere de una gran cantidad de recursos del sistema para procesar este tipo de datos. Es por esto que la instalación de un sistema antivirus no sería conveniente ya que hay que aprovechar al máximo el procesamiento de cada equipo. Teniendo en cuenta lo mencionado, se requiere mantener aisladas las redes, permitiendo solamente el tráfico estrictamente necesario. Con esta separación se puede evitar que se propague un virus en caso de la infección de uno de los segmentos, y también se evita que se transmita información que no tiene nada que ver con el sistema multimedia. Con estos conceptos, la Puerta de enlace Linux se convierte en el elemento principal de seguridad de la red, ya que es la comunica la Red Administrativa con la de edición no lineal (digital) y va a ser donde se permita o niegue el paso de paquetes hacia uno u otro lado, es decir va a ser el cortafuegos (firewall). 3.7.1. CONFIGURACIÓN DE LA PUERTA DE ENLACE LINUX La forma en que se realizará la configuración del firewall, será la que es común a este tipo de redes de alta seguridad con aplicaciones específicas: Se negará todo el tráfico hacia uno u otro lado, y se configurarán excepciones para el tráfico multimedia y de administración de la red. La configuración se realizará utilizando el comando iptables de los sistemas Linux. Este comando permite o niega el tráfico entre redes basándose en las direcciones, el número del puerto y/o el protocolo que requiere el acceso. Primero se debe declarar como política del sistema que no se permita ningún tipo de tráfico. Luego de esto se debe permitir el tráfico entre las interfaces de la Puerta de enlace Linux; esto se realiza para que una vez que una petición haya ingresado al Linux, no tenga ningún problema en dirigirse a otra interfaz diferente. A continuación se debe configurar los permisos para las redes que van a acceder al servicio Samba. Esto se lo realiza permitiendo el acceso a todas las peticiones que busquen la combinación de los puertos 137 y 138 con protocolo UDP o 139 y 445 con protocolo TCP que son los que se utilizan para una aceptar una conexión de procedimiento remoto. Hay que tener en cuenta que también se puede permitir el tráfico proveniente de las redes administrativas del canal (172.16.0.0) ya que algunos de estos usuarios podrían requerir del servicio Samba. Para configurar el servicio NewsBrowse, se debe permitir el tráfico hacia el Servidor NewsBrowse en las combinaciones 80 TCP, 37 TCP y 138 UDP que son utilizadas por los servicios HTTP (acceso web), sistema de sincronismo NetTime y compartir archivos e impresoras respectivamente. También se debe permitir el acceso al NAS NewsBrowse en la combinación 445 TCP que es la que utiliza el sistema para permitir una conexión remota. Se deben permitir estos accesos tanto para las direcciones en la red administrativa como en la red de clientes (Servidor NewsBrowse: 192.168.10.4 y 192.168.31.4, NAS: 192.168.10.5 y 192.168.31.5). También se debe permitir la salida al Internet a las máquinas de Diseño Gráfico (192.168.0.2, 192.168.0.3 y 192.168.0.4). Esto se realiza permitiendo el tráfico de estas redes hacia el servidor Proxy del canal. Otro acceso que se debe permitir a todas las redes es el requieran hacia la impresora (172.16.3.7), ubicada en la red administrativa al puerto 9100. Para permitir el acceso remoto al Linux (SSH), se debe habilitar el acceso desde la red administrativa al puerto 22 que es el que utilizan los sistemas Linux para este fin. Finalmente se recomienda habilitar también todo tipo de tráfico hacia la interfaz de Loopback, ya que esta es utilizada por varias aplicaciones del sistema operativo para comprobar el correcto funcionamiento de las interfaces de red. Todas estas reglas deben ser detalladas en un fichero, el mismo que se debe incluir en el archivo /etc/rc.local para que se corra cada vez que se inicia la Puerta de enlace. El archivo con las reglas se detalla en el anexo VII. 3.7.2. SERVICIO SAMBA Otra de las aplicaciones que se le va a dar a la Puerta de enlace Linux, es la de montar un servicio Samba. Samba es una aplicación para Linux y sistemas Unix en general, que nos permite trabajar con el protocolo Session Message Block (SMB), también conocido como protocolo NetBIOS o LanManager. El protocolo SMB es usado para compartir discos e impresoras entre sistemas Windows y Linux. Algunos computadores Apple Mac y ciertos navegadores web también se comunican con el protocolo SMB. Algunas alternativas a SMB son Netware, NFS, Appletalk, Banyan Vines o Decnet. Sin embargo, ninguna de ellas es tan ampliamente conocida y usada como SMB. Usando el paquete de herramientas Samba, se montará un directorio común en la Puerta de enlace Linux, al cual podrán acceder determinados usuarios de las diferentes redes del canal. La finalidad de este directorio común es permitir a los usuarios de la red compartir archivos de manera sencilla. Una de los usos que se le busca dar es el de compartir desde el Profile XP un archivo que contiene un programa entero producido por la estación para que pueda ser grabado a CD en una de las editoras. Básicamente para la instalación de este servicio se debe editar el archivo smb.conf del directorio /etc/samba y configurar los siguientes parámetros: workgroup = GrupoDeTrabajo hosts allow = 192.168.10. 192.168.0. 192.168.31. 172.16. 127. interfaces = 192.168.10.30/27 192.168.0.14/28 192.168.31.6/29 172.16.10.253/16 [DirectorioComun] comment = Carpeta Comun path = /home/comun browseable = yes valid users = all public = no writable = yes Como se indica en la configuración, el grupo de trabajo que tendrá acceso al directorio será GrupoDeTrabajo, y las redes que podrán acceder serán la 192.168.10.0, 192.168.0.0, 192.168.31.0 y 172.16.0.0 (aparte de la interfaz de loopback 127.0.0.0 que es virtual). También se detallan las direcciones que toma la Puerta de enlace en cada red. El directorio compartido será /home/comun, previamente creado, al cual todos los usuarios tendrán acceso de lectura y escritura (browseable y writable). 3.8. MANTENIMIENTO Y RESPALDOS Una manera de tener un respaldo de la configuración, es sacar una copia de todos los servidores por medio de un programa que graba la imagen del sistema en otro disco duro. Este programa se llama Recovery Manager. Incluso a la Puerta de enlace Linux se le puede sacar una imagen en otro disco. También se puede guardar copias de los archivos de configuración y las reglas de firewall. El mantenimiento del sistema es a nivel de hardware y de software. La limpieza del hardware debe ser trimestral debido a que los racks sugeridos no son cerrados. A nivel de software es importante tomar en cuenta las actualizaciones que el proveedor brinda semestral o mensualmente, para poder tener mayores opciones al manejar versiones de otros programas. Aquí también es importante el borrado semanal de los archivos de audio y video que se almacenan en las editoras no lineales y los servidores de alta y baja resolución. La forma del borrado de archivos es muy metódico. Periódicamente se deben borrar los archivos que ya no tienen utilidad. Primero se borra el archivo del NewsBrowse (baja resolución), luego del Profile XP a través del Housekeepper (alta resolución). Hay que recordar que los equipos del sistema tienen unidades de almacenamiento para el trabajo de edición, no para realizar un archivo permanente de datos. CAPITULO IV ANÁLISIS DE COSTOS 4.1. INTRODUCCIÓN En el camino a una televisión completamente digital, las estaciones televisoras deben reemplazar sus sistemas de almacenamiento, edición y transmisión analógicos para poder enviar la información multimedia digital a los usuarios que a su vez deberán tener nuevos aparatos receptores con capacidad de procesar y proyectar esta información digital. Estos cambios requieren de una inversión (por parte de estaciones y televidentes) que se ve justificada analizando la mejora en la calidad de la imagen, facilidad de manejo de señales e interactividad que una televisión digital propone; pero el principal justificativo, es la compatibilidad mundial. En un mundo que busca siempre la globalización, es difícil pensar que una determinada región o país permanezca indiferente a los avances tecnológicos que se distribuyen y aplican en el resto del planeta. Como ya se destacó en el capítulo uno, varios países han planificado plazos para el cambio del sistema analógico al digital. En España por ejemplo, siguiendo el Plan Nacional de Televisión Digital, se publicó el 10 de marzo del 2000 un decreto en el que se renovaba la concesión de bandas de frecuencia a las estaciones de televisión Telecinco S.A., Antena 3 Televisión S.A. y Canal Plus-Sogecable S.A. con una clausula que los obligaba luego de 24 meses (10 de marzo del 2002) a emitir programación en formato digital en su banda asignada. Quedando a criterio de las estaciones la elección del horario, la duración, y el tipo de la programación. El Plan Nacional de Televisión Digital definía que el estándar que se emplearía para las transmisiones era el DVB (Digital Video Broadcast) en el cual se utiliza el sistema de codificación MPEG-2, compatible con el MPEG-1 empleado en este proyecto. Actualmente las estaciones beneficiadas con el decreto se encuentran transmitiendo el total de su programación en formato digital y analógico a pesar de que el plazo para dejar de lado las emisiones analógicas es el 2010. 4.2. ANÁLISIS DEL SISTEMA ACTUAL (EDICIÓN ANALÓGICA) El sistema de edición analógica se compone de equipos editores, equipos de reproducción y/o grabación y cintas de almacenamiento. Las cintas que contienen la información que va a formar parte de una secuencia multimedia final, se reproducen en los equipos respectivos, los cuales envían sus señales de salida al equipo editor para que se vaya grabando el proyecto final en otra cinta de almacenamiento. 4.2.1. ANÁLISIS DE COSTOS OPERATIVOS Los equipos de edición lineal (analógica) requieren de cintas magnéticas para grabar señales que luego ingresarán al editor, y para grabar la información editada. Estas cintas son el principal costo operativo del sistema. Aparte de ser utilizadas por camarógrafos, por editores para preparar sus clips, y para grabar señales internacionales, es política de la empresa televisora almacenar una copia de todos los programas producidos por el canal. El canal compra cassettes Betacam de marca Sony y DVCPro de marca Maxwell dependiendo si el equipo de grabación almacena la información de forma analógica o digital respectivamente. A continuación en las tablas 4.1 y 4.2 se presentan los costos de los cassettes Betacam y DVCPro de las marcas mencionadas. Los precios varían según el tiempo de video que permite almacenar y el tipo de riel donde se enrolla la cinta (un riel más grande permite realizar procesos de copiado, adelanto o retroceso de manera más rápida que un riel pequeño). Modelo BCT-D6 BCT-D12 BCT-D22 BCT-D32 BCT-D34L BCT-D40 BCT-D64L BCT-D94L BCT-D124L BCT-D12CL Tipo de riel Pequeño Pequeño Pequeño Pequeño Grande Pequeño Grande Grande Grande No aplica Tiempo de almacenamiento en minutos 6 12 22 32 34 40 64 94 124 140 Limpiezas Costo por unidad en dólares 13,99 14,86 16,51 17,98 19,88 19,49 27,99 43,99 57,99 12,79 Tabla 4.1. Tipos de cassettes Betacam producidos por Sony En la tabla 4.1 se muestra también el detalle del modelo BCTD12CL que es conocido como cassette limpiador. Este modelo se encarga de limpiar con una sustancia especial las cabezas lectoras de los equipos reproductores de video. Su uso es muy importante ya que con frecuencia ocurren problemas por la presencia de polvo acumulado en las cabezas lectoras de los equipos que trabajan con cintas magnéticas. Modelo DVP-12M DVP-24M DVP-33M DVP-34L DVP-66L DVP-66M DVP-94L DVP-126L Tiempo de Tipo de almacenamiento en Costo por unidad minutos en dólares riel Mediano 12 5,68 Mediano 24 6,89 Mediano 33 8,79 Grande 34 11,99 Grande 66 15,89 Mediano 66 12,39 Grande 94 24,29 Grande 128 30,99 Tabla 4.2. Tipos de cassettes DVCPro producidos por Maxwell De todos los tipos anteriormente mencionados, el canal utiliza los Betacam BCT-D32, BCT-D64L y BCT-D94L y el DVCPro DVP-126L. A la semana el canal presenta 40 horas de programación producida por él mismo, la cual se almacena generalmente en formato Betacam. Para esto se requieren 26 cassettes BCT-D94L lo cual representa un gasto de 1143,74 dólares en cintas cada semana. Basándonos en un año de 52 semanas obtenemos como resultado un gasto de 59474,78 dólares anuales. En el breve análisis anterior no se incluyen las cintas que se utilizan para las grabaciones de señales internacionales, ni las que utilizan los camarógrafos ya que generalmente se reutilizan. 4.3. ANÁLISIS DEL SISTEMA PROPUESTO (EDICIÓN DIGITAL) Este proyecto tiene como finalidad automatizar el sistema de edición, y evitar el inmenso gasto que se hace en cinta anualmente eliminándolo paulatinamente. Una vez habilitado este sistema se ahorra el tiempo e incrementa la calidad del video. Sin embargo el beneficio económico es sustancialmente más difícil de contabilizar. En ocasiones la cantidad de tiempo ahorrado con los sistemas de edición no lineal (digital) es significativa, reduciéndose el tiempo de trabajo de forma considerable. En todo caso y en el supuesto de que el tiempo total utilizado por los sistemas tradicionales de edición y estos sistemas de edición no lineales, fuera el mismo, al final se obtiene la sensación de haber conseguido un mejor producto. Todo ello en definitiva se debe a que se tiene más tiempo para elaborar alternativas. 4.3.1. ANÁLISIS DE LA INVERSIÓN INICIAL En la tabla 4.3 se muestran los precios a los cuales se cotizaron los equipos por medio del representante de Grass Valley Group y THOMSON en el Ecuador que es ELECTROLAB. Con la compra de los equipos, el proveedor incluye un curso de capacitación, igualmente con la compra de los programas de edición se incluye un curso de edición sin ningún costo adicional. En cuanto a la instalación de las redes Gigabit Ethernet (UTP) y 10 Gigabit Ethernet (fibra óptica), el valor que se ha propuesto incluye la instalación de ducterías (material incluido), el paso de cables, pruebas de conectividad y el reporte de ingeniería de la instalación. BAJA RESOLUCIÓN CODIFICADORES DE BAJA RESOLUCIÓN Codificador NewsBrowse de un canal Codificador NewsBrowse secuencial LICENCIAS DE EDICIÓN Licencia NewsBrowse Advance Edit Session Licencia NewsBrowse Edit Session SERVIDORES Servidor NewsBrowse Servidor Image Servidor NAS Servidor Conform ALTA RESOLUCIÓN SISTEMAS DE EDICIÓN NO LINEAL NewsEdit-Full Efects (XT) NewsEdit-Software codec (SC) SISTEMA MASTER Sistema de Control Master NewsQPro Servidor Master, Profile XP + RAID 5 EQUIPOS DE RED Y CABLES Switch de fibra óptica (10GBase SR) de 8 puertos Switch Ethernet 10/100 BaseT de 16 puertos Switch Gigabit 10/100/1000 BaseT de 16 puertos Cables Ethernet cat 5E de 25 m Cables de fibra óptica de 50m y 2m ADICIONALES Reloj Master Convertidor Time Code KVM Extender Instalación de redes 1000Base T y 10GBase SR TOTAL Tabla 4.3. Costos del sistema de edición digital Costo en dólares 4900 8400 2450 1225 19250 4200 8890 8750 13930 9030 8750 80000 2000 1050 3010 45 150 500 450 350 1000 178330 A pesar de que los precios podrían considerarse bastante altos, el ahorro que se tendrá desde la implementación del proyecto es incalculable. 4.3.2. ANÁLISIS DE COSTOS OPERATIVOS A diferencia del sistema analógico, el sistema propuesto almacena la información en unidades completamente digitales como lo son los discos Discos Compactos CDs (Compact Disks). En este proyecto se ha decidido proponer un esquema de transición de 3 años de duración, en el que se dejará por completo de almacenar la producción del canal en cintas magnéticas. Se cuenta con que todas las PCs de edición posean un dispositivo quemador de CDs CD-WR (CD Writer), con el cual se puedan copiar los archivos de video al CD. Recordando que la señal que se transmite a los televidentes es una más que ingresa a la matriz, se puede tomar como entrada al sistema para ser grabada en el Profile XP, y luego copiada en la puerta de enlace Linux mediante el sistema Samba. Una vez que el archivo de un determinado programa se encuentre en la carpeta Común del equipo Linux, puede ser tomado por cualquier editora para grabarlo en un CD. Para objetivos de este análisis se han cotizado CDs de marca Verbatim. Estos discos vienen en paquetes de 50 unidades con un costo de 10 dólares. Conociendo que cada CD tiene una capacidad de 700 MB, y que el formato MPEG-1 utilizado en este proyecto graba video a una tasa de 1.5 Mbps (0.1875 MBps), se calcula que en un CD hay capacidad para almacenar poco más de una hora de video (62 minutos exactamente). En este proyecto se propone que durante el primer año de funcionamiento del sistema no se realice almacenamiento alguno de la producción nacional en CDs, sino que se continúe con el archivo en cintas magnéticas para que el personal de la estación se enfoque en el aprendizaje del trabajo con los nuevos dispositivos. Durante el segundo año del proyecto se propone que los proyectos realizados en las editoras sean archivados una vez que se encuentren listos para enviar al Profile XP. En este segundo año se continuará con el almacenamiento total de la programación producida por el canal en cintas magnéticas. Se ha estimado que de las 40 horas semanales producidas por el canal, 15 son producidas en las editoras. Finalmente desde el tercer año en adelante se realizará el archivo de toda la producción del canal en CDs, desplazando completamente a las cintas magnéticas. Tomando para objetos de cálculo, un año de 52 semanas al igual que en el análisis del sistema analógico, se presenta a continuación una tabla del gasto anual en archivo de programación durante los siguientes 4 años de la implementación del proyecto. Gasto en cintas magnéticas Gasto en CDs Gasto total Año 1 Año 2 59.474,78 0,00 59.474,78 59.474,78 1.560,00 61.034,78 Año 3 Año 4 0,00 4.160,00 4.160,00 0,00 4.160,00 4.160,00 Tabla 4.4. Gasto anual de la transición propuesta. Gasto Anual de la Transición Propuesta Dólares 80.000,00 Gasto en cintas magnéticas Gasto en CDs 60.000,00 40.000,00 20.000,00 Gasto total 0,00 1 2 3 4 Figura 4.1. Gráfico de barras del Gasto anual de la transición propuesta. Se deduce del análisis anterior que una vez completa la transición del almacenamiento y posterior archivo de la programación producida por la estación, un beneficio más del sistema propuesto es que el archivo en CDs representa un gran ahorro en comparación con el almacenamiento en cintas magnéticas. Como ya se ha mencionado a lo largo de este proyecto, el principal beneficio buscado no es el económico, sino que es el de facilitar la edición de imágenes, permitiendo así que este trabajo sea más artístico que técnico. También se busca dar un paso importante hacia la televisión de alta definición, digitalizando las señales que se manejan internamente en la estación. A pesar de lo anteriormente mencionado, se puede realizar un cálculo basado en la ventaja económica que representa archivar la producción del canal de televisión en CDs para deducir el tiempo en que se recuperará la inversión. En la tabla 4.5 a continuación se muestra una comparación año a año de los costos operativos del sistema analógico (cintas magnéticas) y los del sistema digital (cintas magnéticas y CDs), el ahorro anual que se obtiene con el sistema propuesto y el valor acumulado que se ahorra con este último sistema. Año 1 2 3 4 5 6 Costos Operativos Sistema Analógico 59.474,78 59.474,78 59.474,78 59.474,78 59.474,78 59.474,78 Costos Ahorro Acumulado Operativos (Recuperación de Sistema Ahorro Anual la Inversión) Digital Sistema Digital 59.474,78 0,00 0,00 61.034,78 -1.560,00 -1.560,00 4.160,00 55.314,78 53.754,78 4.160,00 55.314,78 109.069,56 4.160,00 55.314,78 164.384,34 4.160,00 55.314,78 219.699,12 Tabla 4.5. Comparación de Costos operativos y Cálculo de Recuperación de la Inversión. Como se muestra en la tabla, en los dos primeros años no existe beneficio económico, ya que según la transición propuesta aun se archivaría la programación en cintas magnéticas. También hay que destacar que entre el quinto y sexto año desde la implementación del proyecto se recupera totalmente la inversión inicial ($ 178.330,00). CONCLUSIONES Y RECOMENDACIONES Este sistema de edición digital facilita al usuario el almacenamiento y transferencia de información, ya que al tener un servidor centralizado se tiene mejor control sobre el número de copias que se desea hacer y sobre todo por trabajar en alta resolución la calidad al aire es superior a cualquier sistema de edición convencional. Incluyendo el sistema de edición como una aplicación de un sistema de red ampliamente difundido como es TCP/IP, se ve beneficiado de todas las propiedades que han hecho desarrollar este tipo de redes, como son: compatibilidad mundial, sistema escalable de direccionamiento (por lo menos para direcciones privadas), gestión y administración remota. Aunque el cambio de los editores convencionales a los de edición no lineal es un gigantesco paso para los operadores de los equipos, estos se acostumbraran debido a las facilidades que el sistema brinda. Como recomendación, quedó especificado en el capítulo 2, en la sección de análisis de la red LAN, que para facilitar la administración de las PCs de los departamentos, por seguridad y para preservar recursos del sistema, se hace necesario segmentar toda la red existente en subredes. Una vez realizada la transición de almacenamiento de la programación de cintas magnéticas a CDs, se reducen los costos operativos del sistema en una proporción de 14 a 1, lo cual permite una recuperación de la inversión inicial en menos de 6 años de implementado el proyecto. ANEXOS ANEXO I ANEXO II Descripción del ADC-6001 El ADC-6001 es un convertidor de gran calidad de señales analógicas a digitales que puede ser usado en múltiples aplicaciones que requieran realizar la conversión de algún formato de video componente analógico (como RGB o YCrCb) a una salida digital en serie. Todo el procesamiento es llevado fuera del dominio digital para garantizar la calidad del broadcast, manteniendo así una exactitud de 10 bits de la entrada a la salida. La sincronización de la salida del ADC-6001 puede usar información de sincronismo tanto de la luminancia como de otras entradas externas (con niveles de 300mV o 2V). Se incluyen paquetes en la salida para permitir la detección de errores de recepción. Puerto serial de diagnostico Esta tarjeta tiene un puerto serial de diagnostico que permite el acceso a mensajes de error, información de configuración y control del módulo por medio del puerto serial de una PC. Entradas Analógicas de video 4 entradas de 75 Ohms Y, Cb, Cr, S Conectores BNC Nivel de entrada: 1V (video pico a pico); 2V (sincronismo pico a pico) Pérdida por retorno menor a 40 dB a 6 MHz Salidas digitales de video 5 salidas de 75 Ohm, 270 Mbps en serie Conectores BNC Niveles de salida: 800mV ± 10% Variaciones de la salida menores que 720ps (10Hz a 1MHz BW) Pérdidas de retorno menores que 15dB a 270MHz Características eléctricas Consumo de potencia: 9.5W (1.4A @ 6.5V, 0.05A @ -7.0V) Características Mecánicas Longitud 220mm (8.70") Ancho 100mm (3.90") Alto 18mm (0.75") Peso 200g (0.52lbs) Ruido Luminancia mejor que 62 dB RMS (100 Hz a 5 MHz) Crominancia mejor que 62 dB RMS (100 Hz a 5 MHz) Barrido Luminancia ±0.1dB a 5.5 MHz Crominancia ±0.2dB a 2.75 MHz Frequencia a la que se pierden 40 dB (nominal) Luminancia 8.0MHz Crominancia 4.0MHz Retardo desigual entre componentes Cualquier componente <5 nS Rizado de retardo Luminancia ±3nS a 5.75 MHz Crominancia ±6nS a 2.75 MHz ANEXO III Descripción del VSM-6001 La familia de módulos Genesis VSE-6001 son amplificadores de distribución de doble estándar digital en serie. La tarjeta tiene un puerto serial de diagnóstico que permite enviar reportes a la aplicación piloto BO/S. BO/S permite el acceso a reportes de error e información de configuración desde un computador por medio del puerto serial. El módulo opcionalmente permite la detección y corrección de errores. La tarjeta puede entregar opcionalmente salidas analógicas compuestas (PAL/NTSC) para cuando el formato de la entrada es componente digital 270 Mbps (D1/D5/DCT/Betacam Digital). Entradas de Video Digital Cantidad: 1 Conector BNC (75 Ohm) Estándar: 270Mb/s (525/625), (SMPTE259M-C) Entrada de Video Analógico Cantidad: 4 Conector BNC (75 Ohm) Estándar: PAL/NTSC Niveles de 1Vp-p Salidas de Video Digital Cantidad: 8 Conector BNC (75 Ohm) Estándar: 270Mb/s (525/625), (SMPTE259M-C) Características Eléctricas Consumo de potencia: VSE-6001 1.8W (0.22A @ +6.5V, 0.05A @ -7.5V) VSM-6001 3.9W (0.54A @ +6.5V, 0.05A @ -7.5V) Características Mecánicas Longitud: 220mm (8.70") Ancho: 100mm (3.90") Alto: 15mm (0.70") Peso: 155g (0.40lbs) Retardo VSE-6001 5ns VSM-6001 1.35ms ANEXO IV Sistema de almacenamiento RAID 5 Este arreglo de discos ofrece tolerancia al fallo, pero además, optimiza la capacidad del sistema permitiendo una utilización de hasta el 80% de la capacidad del conjunto de discos. Esto lo consigue mediante el cálculo de información de paridad y su almacenamiento alternativo por bloques en todos los discos del conjunto. La información del usuario se graba por bloques y de forma alternativa en todos ellos. De esta manera, si cualquiera de las unidades de disco falla, se puede recuperar la información en tiempo real, sobre la marcha, sin que el servidor deje de funcionar. A diferencia de los sistemas anteriores (RAID 4), el RAID 5 no asigna un disco específico la misión de comprobar los datos, sino que asigna un bloque alternativo de cada disco a esta misión de escritura. Al distribuir la función de comprobación entre todos los discos, se disminuye el cuello de botella y con una cantidad suficiente de discos puede llegar a eliminarse completamente, proporcionando una velocidad equivalente a un RAID 0. RAID 5 es el nivel de RAID más eficaz y el de uso preferente para las aplicaciones de servidor básicas para una empresa. Comparado con otros niveles RAID con tolerancia a fallos, RAID 5 ofrece la mejor relación rendimiento-costo en un entorno con varias unidades. Gracias a la combinación del fraccionamiento de datos y la paridad como método para recuperar los datos en caso de fallo, constituye una solución ideal para los entornos de servidores en los que gran parte de la lectura y escritura es aleatoria, la protección y disponibilidad de los datos es fundamental y el costo es un factor importante. Este nivel de arreglo es especialmente indicado para trabajar con sistemas operativos multiusuarios. ANEXO V Instalación de las Licencias Lite 1. En el NAS, en Security Setup y luego a Account Setup y se crea un nuevo usuario con el password de Windows que este tenga en el computador en el que se va a instalar la licencia. 2. Se crea el mismo usuario en el Newsbrowse WebDataBase en usuarios de Windows con el mismo password; luego en la pagina de Internet del WebDataBase se ingresa a License and User Management , luego a Users y se crea el mismo usuario con la clave respectiva. Aquí con Edit/Remove se le da los privilegios que necesite. 3. En la maquina en la que se va a instalar se entra como administrador en el archivo: C:\windows\system32\drivers\etc\hosts (se lo abre con Notepad) Y se aumentan las siguientes lineas: 192.168.31.10 nb-server1 192.168.31.20 nb-nas1 Guardar 4. En la configuración de pantalla (click derecho en pantalla - propiedades - configuración - opciones avanzadas): tamaño 1024x768; y se baja la aceleración por hardware (solución de problemas) al punto anterior de la mitad , aplicar y aceptar. 5. En el Internet Explorer: Herramientas - Opciones de Internet Conexiones - Configuración LAN - Servidor proxy Opciones avanzadas: En Excepciones se escribe: nb-nas1; nb-server1 6. Abrir el Internet Explorer e ir a la dirección: http://nb-server1/nbui y seguir los pasos de la instalación de cliente, que allí se indican: Instalar el flash AX Instalar el LIVE filter para todos los usuarios. Configurar el Net Time 2.2 ANEXO VI Instalación del NewsBrowse Advance Se verifica que los usuarios de los equipos con sus claves de sesión Windows consten en la lista del NAS y el NewsBrowse WebDataBase y se siguen los siguientes pasos: 1. En la configuración de pantalla (click derecho en pantalla - Propiedades Configuración - Opciones avanzadas): tamaño 1024x768 ; y se sube la aceleración por hardware (solución de problemas) al 100% 2. Probar conectividad con: \\nb-nas1\media \\nb-server1 3. En mi PC, se da clic izquierdo, Propiedades, Opciones avanzadas, y se pone en Uso de memoria: Programas y en Memoria virtual 720. 4. En el Explorer, Propiedades, Seguridad, Intranet Local, Sitios, Opciones Avanzadas, se incluye 192.168.10.70 ANEXO VII Archivo de configuración del Firewal #!/bin/bash ROUTE=/sbin/route IPTABLES=/sbin/iptables OUTERIF=eth0 OUTERIP=172.16.3.11 OUTERNET=172.16.0.0/16 OUTERIP_BROADCAST=172.16.255.255 LAN_IP_RANGE=192.168.0.0/28 LAN_IP=192.168.0.14 IP_BROADCAST=192.168.0.15 LAN_IP_RANGE1=192.168.31.0/29 LAN_IP1=192.168.31.6 IP_BROADCAST1=192.168.31.7 LAN_IP_RANGE2=192.168.10.0/27 LAN_IP2=192.168.10.30 IP_BROADCAST2=192.168.10.34 LOCALHOST_IP=127.0.0.1/32 STATIC_IP=172.16.3.11/32 REMOTENET=0/0 PRIVPORTS="0:1023" UNPRIVPORTS="1024:65535" INET_IFACE=eth0 LAN_IFACE=eth1 LAN_IFACE1=eth2 echo -e "Activando Forwarding: $OK" echo 1 > /proc/sys/net/ipv4/ip_forward /sbin/modprobe ip_tables /sbin/modprobe ipt_limit /sbin/modprobe ipt_state /sbin/modprobe ip_conntrack /sbin/modprobe ip_conntrack_ftp /sbin/modprobe iptable_nat /sbin/modprobe ip_nat_ftp /sbin/modprobe ipt_multiport /sbin/modprobe ipt_multiport /sbin/modprobe /sbin/modprobe /sbin/modprobe /sbin/modprobe iptable_filter iptable_mangle ip_conntrack_irc ip_nat_irc #ELIMINANDO RUTA POR DEFAULT if netstat -nr 2>/dev/null |grep -q 169.254.0.0; then $ROUTE delete -net 169.254.0.0/16 gw 0.0.0.0 echo -e "Descartando Rutas no Necesarias: $OK" fi echo -e "Flushing de Reglas por Default: $OK" # REMUEVE CUALQUIER REGLA EXISTENTE $IPTABLES -F $IPTABLES -F -t nat $IPTABLES -F -t mangle # POLITICA POR NEGACION $IPTABLES -P INPUT DROP $IPTABLES -P OUTPUT DROP $IPTABLES -P FORWARD DROP echo -e "Cargando Reglas Generales Para el FireWall: $OK" #PERMITE EL FORWARD ENTRE TARJETAS $IPTABLES -A FORWARD -m state --state ESTABLISHED,RELATED ACCEPT -j #PERMITE LA COMUNICACION DE LAS REDES HACIA EL LINUX $IPTABLES -A INPUT -i $OUTERIF -p tcp -s $REMOTENET -d $OUTERIP -j ACCEPT $IPTABLES -A OUTPUT -o $OUTERIF -p tcp -d $REMOTENET -s $OUTERIP -j ACCEPT $IPTABLES -A INPUT -i $OUTERIF -p udp -s $REMOTENET -d $OUTERIP -j ACCEPT $IPTABLES -A OUTPUT -o $OUTERIF -p udp -d $REMOTENET -s $OUTERIP -j ACCEPT $IPTABLES -A INPUT -i $LAN_IFACE -j ACCEPT $IPTABLES -A OUTPUT -o $LAN_IFACE -j ACCEPT $IPTABLES -A INPUT -i $LAN_IFACE1 -j ACCEPT $IPTABLES -A OUTPUT -o $LAN_IFACE1 -j ACCEPT #SAMBA $IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE -d $LAN_IP -m multiport --dports 137,138 -j ACCEPT $IPTABLES -A INPUT -p tcp -s $LAN_IP_RANGE -d $LAN_IP -m multiport --dports 139,445 -j ACCEPT $IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE -d $IP_BROADCAST --dport 137 -j ACCEPT $IPTABLES -A INPUT -p udp -d $LAN_IP -m multiport --dports 137,138 -j DROP $IPTABLES -A INPUT -p tcp -d $LAN_IP -m multiport --dports 139,445 -j DROP $IPTABLES -A OUTPUT -s $LAN_IP -d $LAN_IP_RANGE -m state --state ESTABLISHED,RELATED -j ACCEPT $IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE2 -d $LAN_IP2 -m multiport --dports 137,138 -j ACCEPT $IPTABLES -A INPUT -p tcp -s $LAN_IP_RANGE2 -d $LAN_IP2 -m multiport --dports 139,445 -j ACCEPT $IPTABLES -A INPUT -p udp -s $LAN_IP_RANGE2 -d $IP_BROADCAST2 -dport 137 -j ACCEPT $IPTABLES -A INPUT -p udp -d $LAN_IP2 -m multiport --dports 137,138 -j DROP $IPTABLES -A INPUT -p tcp -d $LAN_IP2 -m multiport --dports 139,445 -j DROP $IPTABLES -A OUTPUT -s $LAN_IP2 -d $LAN_IP_RANGE2 -m state --state ESTABLISHED,RELATED -j ACCEPT $IPTABLES -A INPUT -p udp -s $OUTERNET -d $OUTERIP -m multiport -dports 137,138 -j ACCEPT $IPTABLES -A INPUT -p tcp -s $OUTERNET -d $OUTERIP -m multiport -dports 139,445 -j ACCEPT $IPTABLES -A INPUT -p udp -s $OUTERNET -d $OUTERIP_BROADCAST -dport 137 -j ACCEPT $IPTABLES -A INPUT -p udp -d $OUTERIP -m multiport --dports 137,138 -j DROP $IPTABLES -A INPUT -p tcp -d $OUTERIP -m multiport --dports 139,445 -j DROP $IPTABLES -A OUTPUT -s $OUTERIP -d $OUTERNET -m state --state ESTABLISHED,RELATED -j ACCEPT #PERMITE COMUNICACIÓN ENTRE REDES DISTINTAS VENTAS=172.16.4.3 AVID=172.16.7.4 EMAC=172.16.12.11 PRODUCCION=172.16.12.13 $IPTABLES -A FORWARD -p tcp -s $LAN_IP_RANGE -d $ PRODUCCION -dport 445 -j ACCEPT $IPTABLES -A FORWARD -p tcp -s $LAN_IP_RANGE -d $ PRODUCCION -dport 137:139 -j ACCEPT $IPTABLES -A FORWARD -p tcp -d $LAN_IP_RANGE -s $ PRODUCCION -dport 445 -j ACCEPT $IPTABLES -A FORWARD -p tcp -d $LAN_IP_RANGE -s $ PRODUCCION -dport 137:139 -j ACCEPT $IPTABLES -A FORWARD -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT $IPTABLES -A FORWARD -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT -p tcp -s $LAN_IP_RANGE -d $EMAC --dport 445 $IPTABLES -A FORWARD -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT $IPTABLES -A FORWARD -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT -p tcp -s $LAN_IP_RANGE -d $AVID --dport 445 $IPTABLES -A FORWARD 445 -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT $IPTABLES -A FORWARD 445 -j ACCEPT $IPTABLES -A FORWARD 137:139 -j ACCEPT -p tcp -s $LAN_IP_RANGE -d $VENTAS --dport -p tcp -s $LAN_IP_RANGE -d $EMAC --dport -p tcp -d $LAN_IP_RANGE -s $EMAC --dport 445 -p tcp -d $LAN_IP_RANGE -s $EMAC --dport -p tcp -s $LAN_IP_RANGE -d $AVID --dport -p tcp -d $LAN_IP_RANGE -s $AVID --dport 445 -p tcp -d $LAN_IP_RANGE -s $AVID --dport -p tcp -s $LAN_IP_RANGE -d $VENTAS --dport -p tcp -d $LAN_IP_RANGE -s $VENTAS --dport -p tcp -d $LAN_IP_RANGE -s $VENTAS --dport #PERMITE EL NEWSBROWSE $IPTABLES -A FORWARD 80 -j ACCEPT $IPTABLES -A FORWARD 37 -j ACCEPT $IPTABLES -A FORWARD 138 -j ACCEPT $IPTABLES -A FORWARD 445 -j ACCEPT $IPTABLES -A FORWARD 80 -j ACCEPT $IPTABLES -A FORWARD 37 -j ACCEPT $IPTABLES -A FORWARD 138 -j ACCEPT $IPTABLES -A FORWARD 445 -j ACCEPT -p tcp -s $OUTERNET -d 192.168.31.4 --dport -p tcp -s $OUTERNET -d 192.168.31.4 --dport -p udp -s $OUTERNET -d 192.168.31.4 --dport -p tcp -s $OUTERNET -d 192.168.31.5 --dport -p tcp -s $OUTERNET -d 192.168.10.4 --dport -p tcp -s $OUTERNET -d 192.168.10.4 --dport -p udp -s $OUTERNET -d 192.168.10.4 --dport -p tcp -s $OUTERNET -d 192.168.10.5 --dport #PERMITE SALIR A INTERNET LAN_INTER_RANGE=192.168.0.8/29 $IPTABLES -t nat -A POSTROUTING -s $LAN_INTER_RANGE -o $OUTERIF -j SNAT --to $OUTERIP $IPTABLES -A FORWARD $IPTABLES -A FORWARD $IPTABLES -A FORWARD -s 192.168.0.11 -s 192.168.0.13 -s 192.168.0.12 -d $REMOTENET -j ACCEPT -d $REMOTENET -j ACCEPT -d $REMOTENET -j ACCEPT #IMPRESORA EN RED IMPRESORA=172.16.3.7 $IPTABLES -A FORWARD 9100 -j ACCEPT $IPTABLES -A FORWARD 9100 -j ACCEPT -p tcp -s $LAN_IP_RANGE -d $IMPRESORA --dport -p udp -s $LAN_IP_RANGE -d $IMPRESORA --dport #PERMITE SSH REMOTO #$IPTABLES -A INPUT -i $OUTERIF -p tcp -d $OUTERIP --dport 80 -j ACCEPT #$IPTABLES -t nat -A PREROUTING -i $OUTERIF -p tcp -d $OUTERIP -dport 80 -j REDIRECT --to-port 22 #PERMITE COMUNICACION TOTAL LOOP $IPTABLES -A INPUT -i lo -j ACCEPT $IPTABLES -A OUTPUT -o lo -j ACCEPT BIBLIOGRAFÍA 1. Couch II Leon; Sistemas de Comunicaciones Digitales y Analógicas; McGraw Hill, Quinta Edición. Prentice, 1998 2. Hill Associates INC; Telecomunications; Mc Graw Hill, Primera Edición. Osborne, 2002 3. Rodriguez Alonso; Imagen Digital: Conceptos Básicos; Marcombo S.A., Primera edición. Madrid, 2003 4. URL: https://www.cisco.com 5. URL: http://www.thomsongrassvalley.com 6. URL: http://www.cybercollege.com/span/tvp056.htm 7. URL: http://www.digitalproduction.com/dp/news_detail.asp?ID=864 8. URL: http://www.thomsongrassvalley.com/docs/ Release_Notes/servers/pvs1000/071-8196-04.pdf 9. URL: http://www.ucm.es/info/multidoc/multidoc/revista/cuad67/anexo/edit_no_lineal/editnol.htm 10. Sánchez Sebastián y García Oscar; Unix y Linux: Guía Práctica; Editorial RA MA, Tercera edición. Madrid, 2002