Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica IE – 0502 Proyecto Eléctrico ASEGURAMIENTO DE LA CALIDAD DE SERVICIO EN LAS REDES BASADAS EN EL PROTOCOLO INTERNET IP POR MEDIO DE LA INGENIERÍA DE TRÁFICO EN MPLS Por: Jose Antonio Alfaro Fallas Erick Echeverría Pradella Ciudad Universitaria Rodrigo Facio Diciembre del 2007 ASEGURAMIENTO DE LA CALIDAD DE SERVICIO EN LAS REDES BASADAS EN EL PROTOCOLO INTERNET IP POR MEDIO DE LA INGENIERÍA DE TRÁFICO EN MPLS Por: JOSE ANTONIO ALFARO FALLAS ERICK ECHEVERRÍA PRADELLA Sometido a la Escuela de Ingeniería Eléctrica de la Facultad de Ingeniería de la Universidad de Costa Rica como requisito parcial para optar por el grado de: BACHILLER EN INGENIERÍA ELÉCTRICA Aprobado por el Tribunal: _________________________________ Ing. Jhonny Cascante Ramírez, MSc Profesor Guía _________________________________ Ing. Leonardo Steller Solórzano Profesor lector _________________________________ Ing. Anthony Cascante Rodríguez Profesor lector ii DEDICATORIA A nuestras familias por todo el apoyo que nos han brindado a lo largo de nuestra carrera universitaria y de nuestras vidas. iii RECONOCIMIENTOS A los miembros del tribunal examinador, Ing. Jhonny Cascante, Ing. Leonardo Steller e Ing. Anthony Cascaste por su colaboración en la elaboración de este proyecto. A nuestros amigos y compañeros con los que hemos compartido todos estos años de carrera universitaria. A los profesores, quienes en su mayoría se han preocupado por darnos una calidad de enseñanza digna de una gran institución como la Universidad de Costa Rica. iv ÍNDICE GENERAL ÍNDICE DE FIGURAS ............................................................................. viii ÍNDICE DE TABLAS ..................................................................................ix NOMENCLATURA......................................................................................x RESUMEN..................................................................................................xvi CAPÍTULO 1: Introducción.........................................................................1 1.1 1.2 Justificación ............................................................................................................1 Objetivos.................................................................................................................4 1.2.1 Objetivo general..............................................................................................4 1.2.2 Objetivos específicos ......................................................................................4 1.3 Metodología ............................................................................................................5 CAPÍTULO 2: Generalidades acerca de redes IP .......................................7 2.1 2.2 2.3 2.4 2.5 Modelo y Arquitectura TCP/IP...............................................................................7 2.1.1 Capas del Modelo TCP/IP ..............................................................................8 Protocolo de Control de Transmisión (TCP) ........................................................11 2.2.1 Reseña histórica del protocolo TCP..............................................................11 2.2.2 Características generales de operación .........................................................12 2.2.3 Funciones Principales del TCP .....................................................................13 Protocolo de Internet (IP) .....................................................................................14 2.3.1 Reseña histórica del protocolo IP .................................................................14 2.3.2 Características generales de operación .........................................................15 2.3.3 Funciones Principales del IP.........................................................................16 Infraestructura de un ISP ......................................................................................18 2.4.1 Red de Acceso ..............................................................................................19 2.4.2 Red de Concentración...................................................................................20 2.4.3 Red Troncal o Backbone...............................................................................21 2.4.4 Red de Gestión – Centro de Proceso de Datos .............................................22 Red Avanzada de Internet (RAI) del ICE .............................................................23 2.4.1 Estructura de la RAI .....................................................................................26 2.4.2 Implementación de la RAI............................................................................27 2.4.3 Infraestructura de la RAI ..............................................................................29 2.4.4 Nivel Core.....................................................................................................31 CAPÍTULO 3: Conceptos sobre calidad de servicio en redes IP..............34 3.1 3.2 3.3 Definición de QoS ................................................................................................34 Importancia de implementar QoS .........................................................................35 Parámetros de calidad para redes IP .....................................................................36 v 3.3.1 Principales causas .........................................................................................37 3.3.2 Requerimientos para aplicaciones ................................................................38 3.3.3 Solución a los problemas de QoS .................................................................39 3.4 Clases de QoS .......................................................................................................40 3.5 Áreas importantes para la aplicación de mecanismos de QoS..............................41 3.6 Tecnologías para brindar QoS en redes IP............................................................42 3.6.1 Integrated Services (IntServ) ........................................................................42 3.6.2 Differentiated Services (DiffServ)................................................................43 3.6.3 Comparación entre IntServ y DiffServ .........................................................44 CAPÍTULO 4: Ingeniería de tráfico en MPLS..........................................45 4.1 4.2 Migración de los ISP hacia MPLS........................................................................45 Aspectos básicos de la arquitectura MPLS...........................................................48 4.2.1 Concepto de Etiqueta ....................................................................................49 4.2.2 Plano de control y plano de datos .................................................................50 4.2.3 FEC y enrutadores LSR y LER.....................................................................50 4.3 Ingeniería de tráfico en MPLS..............................................................................53 4.3.1 Conceptos sobre ingeniería de tráfico...........................................................53 4.3.2 Definición formal de ingeniería de tráfico....................................................54 4.3.3 Objetivos de la ingeniería de tráfico .............................................................54 4.3.4 Aspectos generales de la ingeniería de tráfico en MPLS..............................55 4.3.5 Principales Herramientas de MPLS para realizar ingeniería de tráfico........58 CAPÍTULO 5: Aseguramiento de la QoS en una red similar a la RAI del ICE por medio de ingeniería de tráfico en MPLS .....................................62 5.1 Calidad de Servicio (QoS) con ingeniería de tráfico en MPLS ............................62 5.1.1 Combinación de ingeniería de tráfico en MPLS con DiffServ .....................62 5.1.2 Flujo de paquetes con ingeniería de tráfico en MPLS con DiffServ ............66 5.2 Protección y restauración de redes IP/MPLS .......................................................67 5.2.1 FRR con ingeniería de tráfico en MPLS.......................................................68 5.2.2 Protección con MPLS TE .............................................................................68 5.2.3 Tipos de protección.......................................................................................69 5.3 Funcionamiento de red troncal con MPLS TE .....................................................73 5.3.1 Red Troncal “Best Effort” con ingeniería de tráfico en MPLS ....................73 5.3.2 Red Troncal DiffServ con ingeniería de tráfico en MPLS ...........................74 5.3.3 Red Troncal con MPLS TE FRR..................................................................75 5.4 Diseño estratégico de red con ingeniería de tráfico en MPLS aplicado a la RAI del ICE 76 5.4.1 Escalabilidad de los LSPs .............................................................................76 5.4.2 Datos de la RAI del ICE y Definición de Variables .....................................77 5.4.3 Acoplamiento completo entre WRs ..............................................................78 5.4.4 Acoplamiento completo entre ARs...............................................................79 5.4.5 Escalabilidad para la protección ...................................................................80 vi CAPÍTULO 6: Conclusiones y recomendaciones ......................................83 6.1 6.2 Conclusiones.........................................................................................................83 Recomendaciones .................................................................................................86 BIBLIOGRAFÍA.........................................................................................87 vii ÍNDICE DE FIGURAS Figura 2.1 Arquitectura TCP/IP [1] ....................................................................................8 Figura 2.2 Mapa del Proyecto Frontera a Frontera del ICE [18] ......................................24 Figura 2.3 Mapa de los enlaces submarinos ARCOS-1 Y Maya-1 [5] y [6] ....................25 Figura 2.3 Mapa de la interconexión Mundial de Global Crossing [7] ............................25 Figura 2.4 Capas 1 y 2 de la estructura de la RAI [18].....................................................26 Figura 2.5 Provisión actual y futura de los servicios de datos, voz y video [18] .............27 Figura 2.6 Simplificación de operaciones en el modelo de transporte [18]......................28 Figura 2.7 Medios físicos de conexión en la conmutación de circuitos y paquetes [18]..29 Figura 2.8 Giga-enrutadores [19]......................................................................................30 Figura 2.9 Mega-enrutadores y conmutadores [19]..........................................................30 Figura 2.10 Esquema de interconexión del equipo que conforma la RAI [19] ................31 Figura 2.11 Ubicación de los Giga-enrutadores de Core [19] ..........................................32 Figura 2.12 Enlace de los Giga-enrutadores [19] .............................................................32 Figura 2.13 Esquema completo de la RAI en Costa Rica [19] ........................................33 Figura 3.1 Áreas de aplicación de QoS. [19] ....................................................................41 Figura 4.1 Cabecera MPLS...............................................................................................49 Figura 4.2 Arquitectura MPLS [15]..................................................................................53 Figura 5.1 Red MPLS combinando L-LSPs y E-LSPs [4] ...............................................65 Figura 5.2 Flujo de paquetes en MPLS con DiffServ [13] ...............................................66 Figura 5.3 Protección de Trayectoria [3] ..........................................................................70 Figura 5.4 Protección de Enlace [3]..................................................................................71 Figura 5.5 Protección de Nodo [3]....................................................................................72 Figura 5.6 Control de la carga de enlace [4].....................................................................74 Figura 5.7 Control de la capacidad por clase y de la carga de acuerdo al tipo de clase [4] ..........................................................................................................................................75 viii ÍNDICE DE TABLAS Tabla 3.1 Aplicaciones y niveles de requerimiento. [2] ...................................................38 Tabla 3.2 Directrices para las clases de QoS. [17] ...........................................................40 Tabla 5.1 Comparación entre E-LSPs y L-LSPs. .............................................................64 Tabla 5.2 Tipos de routers ................................................................................................77 Tabla 5.3 Componentes de red presentes en la RAI del ICE............................................77 Tabla 5.4 Definición de variables .....................................................................................78 ix NOMENCLATURA Nomenclatura utilizada en el proyecto de investigación: ADM Add-drop Multiplexer Multiplexor Add-drop ADSL Asymmetric Digital Subscriber Line Línea de Subscriptor Digital Asimétrica AR Access Router Enrutador de Acceso ARPA Advanced Research Projects Agency Agencia de Proyectos de Investigaciones Avanzadas ATM Asynchronous Transfer Mode Modo de Transferencia Asíncrono BGP Border Gateway Protocol Protocolo de Pasarela Externa CBR Constraint Based Routing Ruteo Basado en Restricciones CNFL Compañía Nacional de Fuerza y Luz CPD Centro de Proceso de Datos CR-LDP Constrained Routing Label Distribution Protocol Protocolo de distribución de etiqueta para ruteo con restricciones DHCP Dynamic Host Configuration Protocol Protocolo de Configuración Dinámica de Host Diffserv Differentiated Services Servicios Diferenciados DNS Domain Name System Sistema de Nombres del Dominio x DR Distribution Router Enrutador de Distribución DSCP Differentiated Service Code Point Punto de Código de Servicios Diferenciados DSLAM Digital Subscriber Line Access Multiplexer Multiplexor de Acceso para xDSL E-LSP EXP-inferred PSC LSP FEC Forwarding Equivalent Class Clase Equivalente para el Avance FRR Fast Reroute Re-enrutamiento Rápido FTP File Transfer Protocol Protocolo de Transferencia de Archivos HTTP Hyper Text Transfer Protocol Protocolo de Transferencia de Hipertexto ICE Instituto Costarricense de Electricidad ICMP Internet Control Message Protocol Protocolo de Mensaje de Control de Internet IGP Interior Gateway Protocol Protocolo de Frontera Interna IntServ Integrated Service Servicios Integrados IPng Next Generation Internet Protocol Protocolo de Internet de próxima generación IP/IPv4 Internet Protocol version 4 Protocolo de Internet versión 4 IPv6 Internet Protocol version 6 Protocolo de Internet versión 6 xi IPDV IP Packet Delay Variation Variaciones del Retardo del Paquete IP IPER IP Packet Error Ratio Tasa de Errores en los Paquetes IP IPLR IP Loss Ratio Tasa de Pérdida de Paquetes IP IPTD IP Packet Transfer Delay Retardo de Transferencia de Paquete IP ISO Internacional Standard Organization Organización Internacional para la Estandarización ISP Internet Service Provider Proveedor de Servicio de Internet LAN Local Area Network Red de Area Local LDP Label Distribution Protocol Protocolo de Distribución de Etiquetas LER Label Edge Router Enrutador de Etiqueta de Borde L-LSP Label-only-inferred PSC LSP LSP Label Switched Path Camino de Etiqueta Conmutada LSR Label Switched Router Enrutador de Etiqueta Conmutada MPLS Multi Protocol Label Switching Multi Protocolo de Conmutación de Etiqueta NCP Network Control Protocol Protocolo de Control de Red NFS Network File System Sistema de Archivo de Red xii NSE OSI Network Section Ensemble Conjunto de Secciones de Red Open Systems Interconnection Interconexión de Sistemas Abiertos OSPF Open Shortest Path First Primer Camino Abierto más Corto PHB Per-Hop-Behaivor Comportamiento por salto PLC Power Line Communication Comunicación a través de Línea Eléctrica POP Point of Presence Punto de Presencia PPP Point to Point Protocol Protocolo Punto a Punto PSC PHB Scheduling Class Clase de Calendarización PHB PVC Private Virtual Channel Canal Virtual Privado QoS Quality of Service Calidad de Servicio RADIUS Remote Authentication Dial-In User Server Autorización para Aplicaciones de Acceso a la Red RAI Red de Avanzada de Internet RAS Remote Access Server Servidor de Acceso Remoto RFC Request For Comments Referencias publicadas por la IETF RIP Routing Information Protocol Protocolo de Información de Enrutamiento xiii RSVP Resourse Reservation Protocol Protocolo de Reserva de Recursos SLA Service Level Agreement Nivel Acordado de Servicio SLIP Serial Line Interface Protocol Protocolo de Interfase de Línea Serial SMTP Simple Mail Transfer Protocol Protocolo Sencillo de Transferencia de Correo SNMP Simple Network Management Protocol Protocolo Sencillo de Gestión de Red SNT Sistema Nacional de Telecomunicaciones STM-x Synchronous Transfer Mode Modo de Transferencia Síncrono SPF Shortest Path First Camino más Corto Primero TCP Transfer Control Protocol Protocolo de Control de Transferencia TE Traffic Engineering Ingeniería de Tráfico TOS Type of Service Tipo de Servicio TTL Time To Live Tiempo de Vida UDP User Datagram Protocol Protocolo de Datagrama de Usuario UIT Unión Internacional de Telecomunicaciones UL Underwriters Laboratories Organización dedicada a pruebas y certificación de productos xiv VC Virtual Circuits Circuitos Virtuales VoIP Voice over IP Voz sobre IP VPN Virtual Private Networking Red Privada Virtual WAN Wide Area Network Red de Área Amplia WLAN Wireless Local Area Network Red de Área Amplia Inalámbrica WR WAN Router Enrutador WAN o de núcleo xv RESUMEN Este trabajo de investigación se realizó con el objetivo de estudiar los fundamentos de la ingeniería de tráfico en la arquitectura MPLS como un medio para asegurar calidad de servicio en redes basadas en el protocolo Internet IP. El desarrollo teórico parte de una descripción general acerca del modelo TCP/IP y de las diferentes capas que lo conforman, y continúa con una descripción de la infraestructura de la red RAI del ICE. En el capítulo 3 se analizaron los factores que afectan la calidad de servicio en las redes IP y sus principales causas, y se establecieron posibles soluciones para garantizar la misma. En la siguiente sección se realizó un estudio detallado de la arquitectura MPLS y de los fundamentos de la ingeniería de tráfico en MPLS. Se analizó la forma en que la arquitectura MPLS, se puede combinar con modelos de QoS como DiffServ para alcanzar altos niveles de calidad de servicio. En el capítulo 5 se procedió a realizar un diseño estratégico escalable aproximado de protección de red contra fallos para la RAI del ICE, en el cual se incluyeron protecciones de enlaces, nodos y trayectorias, para ser implementado ya sea a nivel de acceso o a nivel de núcleo. Al final del proyecto, se concluyó que los modelos de IntServ y DiffServ no logran por sí solos cumplir con los requerimientos actuales de QoS en las redes IP, y que necesitan de una arquitectura como MPLS para lograrlo, pues ésta permite realizar ingeniería de tráfico. No obstante, la migración de las redes IP de los ISP hacia MPLS, va a ser paulatina, pues tendrán que realizar una inversión en routers de nueva generación, lo cual resultará a largo plazo más económico que las constantes ampliaciones en la capacidad de la red. xvi CAPÍTULO 1: Introducción 1.1 Justificación El Internet siendo la red IP de mayor relevancia en el mundo, ha ido evolucionando con el tiempo, y los fines para los que fue creado en un principio no son los mismos de la actualidad. En un principio Internet surgió como una herramienta militar, utilizada como medio seguro de comunicación, sin embargo cuando se decidió hacer pública, sus fines eran principalmente académicos. En la actualidad el Internet es un medio en el que se puede encontrar información de toda índole, además de convertirse no sólo en una herramienta de trabajo, sino también de ocio, millones de usuarios descargan diariamente videos, películas, música, leen el periódico de cualquier parte del mundo, en fin las posibilidades en la red son muy amplias. Internet ha ido creciendo de una forma exponencial y ganando popularidad desde que se empezó su comercialización, hasta convertirse hoy en día en una herramienta casi indispensable para las empresas e incluso para los usuarios comunes. Muchas organizaciones comprenden el valor de su red, ya que muchas de ellas dependen de ésta como un medio que les permite trabajar más eficientemente, ser más productivas y obtener una ventaja competitiva sobre sus contendientes. Está evolución en las aplicaciones y usos de la red ha implicado variaciones en la arquitectura y los protocolos de la misma. Se trabajó durante mucho tiempo con un protocolo básico IP, al cuál se le han realizado variaciones y modernizaciones como lo son 1 2 IP sobre ATM, IPv4, IPv6, en fin se han tratado de cubrir las necesidades de la red conforme han ido surgiendo. No obstante se ha llegado a un punto en que el Internet es un negocio que mueve billones de dólares al año, y las compañías que brindan los servicios, conocidas como ISP, viven en una competencia para apoderarse del mercado, inicialmente esta lucha se dio en cuanto a la velocidad y el ancho de banda en las conexiones, pero con el desarrollo de la fibra óptica estos parámetros ya no parecen ser un problema. Entonces, el nuevo parámetro de competencia parece ser la calidad de servicio, QoS, la cual tiene como su principal aliado la Ingeniería de Tráfico, TE. Además, con los servicios actuales que ofrecen en línea los operadores -la videoconferencia, la telefonía, la televisión, entre otros- el tema de la calidad de servicio ha tomado suma importancia, pues la retransmisión de paquetes implementada por el TCP/IP ya no es una opción válida. Puesto que al tratarse de servicios más interactivos, servicios de tiempo real, las pérdidas y los retardos deben ser minimizados al máximo. Debido a este gran interés que se maneja en el mercado, existe una fuerte inversión en la investigación en aspectos básicos sobre cómo asegurar la QoS, los parámetros que afectan al servicio, cómo estimarlos, y cuales protocolos o innovaciones aplicar para contrarrestar sus efectos negativos. Teniendo claro que se requiere una nueva evolución de la arquitectura de la red, pues con las arquitecturas anteriores no es posible realizar un control de tráfico eficiente, han surgido una serie de modelos para brindar QoS en redes IP. Los primeros intentos fueron IntServ y Diffserv, sin embargo presentaron inconvenientes en aspectos como la 3 escabilidad y la hiperagregación de tráfico en ciertas zonas, aún cuando otras se encontraban subutilizadas. Una de las opciones más recientes es la arquitectura MPLS (MultiProtocol Label Swiching), la cual posee la característica de poder realizar una eficiente Ingeniería de Tráfico (TE) por medio de herramientas como el ruteo explícito, y con las cuales complementada con modelos como el ya mencionado Diffserv, abre la posibilidad de ofrecer la calidad de servicio esperada para las nuevas necesidades del mercado. Los requerimientos actuales de la red apuntan hacia una progresiva transferencia hacia la arquitectura MPLS gracias a que su invención viene precisamente a cubrir las necesidades de QoS. Actualmente el mercado ofrece una oferta muy variada, no sólo en el aspecto de Internet y tecnología, sino en todos los campos. Esta situación obliga a las empresas a ofrecer algo que haga la diferencia sobre el resto, y la nueva tendencia ha sido tomar como parámetro la calidad. Un claro ejemplo en Costa Rica de esta situación, se da en los productos agrícolas, donde existe una fuerte migración hacia los cultivos orgánicos, pues en el mercado internacional, el agricultor nacional no puede competir en cantidad de producción, pero sí en calidad. A nivel internacional, la creación de las normas ISO para las industrias, y la existencia de empresas sin fines de lucro como UL (Underwriters Laboratories Inc.), dedicadas únicamente a certificar la calidad, evidencian la importancia de éste parámetro en el mercado actual. La necesidad de todas las empresas de productos y servicios de ofrecer QoS sumada a la dependencia tecnológica para el desarrollo de sus funciones, obligan directamente a los ISP a buscar una arquitectura como MPLS para ofrecerles los servicios de red que cumplan 4 con sus necesidades. MPLS, sin embargo apenas está iniciando un largo proceso de popularización, y aunque responde a las necesidades actuales, su continuo desarrollo e investigación son vitales para ampliar su capacidad a los requerimientos futuros. Este trabajo pretende exponer la importancia de la QoS en las redes IP y la necesidad de la evolución de las mismas, proponiendo el uso de la arquitectura MPLS como la solución más inmediata a los requerimientos actuales. Mediante MPLS los ISP podrán ofrecer a los usuarios distintos niveles de QoS de acuerdo a sus necesidades. Sin embargo, para brindar un buen servicio la mayor parte del tiempo, se deben de considerar los posibles fallos que toda red experimenta, por lo que en este trabajo se pretende realizar un aporte mediante la realización de un diseño estratégico escalable aproximado de protección contra fallos en la red, el cual podría servir como base para el caso de la RAI del ICE. 1.2 Objetivos 1.2.1 Objetivo general Estudiar los fundamentos de la ingeniería de tráfico en MPLS y establecer los medios que utiliza para asegurar la calidad de servicio en redes basadas en el protocolo Internet IP. 1.2.2 • Objetivos específicos Estudiar las partes constitutivas y el funcionamiento de una red basada en el protocolo IP. 5 • Conocer los conceptos fundamentales sobre calidad de servicio en redes basadas en el protocolo IP. • Estudiar los factores que afectan la calidad de servicio en redes basadas en el protocolo IP. • Investigar sobre los parámetros y la forma de medición de la calidad de servicio en redes basadas en el protocolo IP. • Conocer los conceptos básicos de la arquitectura MPLS. • Estudiar los fundamentos de ingeniería de tráfico en MPLS. • Establecer los medios que utiliza la ingeniería de tráfico en MPLS para asegurar la calidad de servicio en redes IP. • Proponer un diseño estratégico escalable de protección contra fallos para la RAI del ICE utilizando ingeniería de tráfico en MPLS. 1.3 Metodología La metodología a seguir en la elaboración del proyecto será la siguiente: • Recopilación de información acerca de generalidades sobre redes IP. Se utilizarán fuentes bibliográficas como publicaciones de revistas, libros e Internet. • Recopilación de información en Internet, revistas técnicas y libros sobre el tema de calidad de servicio asociada a redes IP. • Investigación bibliográfica sobre los aspectos básicos de la arquitectura MPLS, además del funcionamiento de la ingeniería de tráfico en esta arquitectura. Se consultarán medios como publicaciones de revistas, libros e Internet. 6 • Elaboración de un diseño estratégico aproximado de protección en caso de fallo en una red IP/MPLS. • Redacción final y elaboración de una presentación oral del trabajo. CAPÍTULO 2: Generalidades acerca de redes IP Para tener una mejor idea acerca del funcionamiento de las redes IP, es necesario comprender los aspectos más importantes de la arquitectura en la cual está basada, por lo que en este capítulo se realizará un estudio general acerca del modelo TCP/IP y de las diferentes capas que lo conforman, también se procederá a destacar las principales características y las distintas funciones que realizan los dos protocolos más importantes del grupo de protocolos TCP/IP como lo son el protocolo TCP y el protocolo de Internet IP. Luego se procederá a analizar cómo están compuestas físicamente las redes IP realizando una descripción de los componentes que conforman la infraestructura de un ISP. Por último se hará una recopilación de información de la infraestructura de la Red Avanzada de Internet (RAI) del ICE implementada en Costa Rica. 2.1 Modelo y Arquitectura TCP/IP La arquitectura TCP/IP está constituida por diferentes protocolos y tecnologías, que en conjunto conforman la suite de protocolos TCP/IP y el modelo TCP/IP, éste último al igual que el modelo de referencia OSI se divide en diferentes capas, las cuales realizan funciones específicas ya establecidas. La diferencia entre estos dos modelos yace principalmente en que el modelo TCP/IP presenta un menor número de capas ya que éste fusiona las capas de sesión, presentación y aplicación del modelo OSI, en una sola capa de aplicación, así como también fusiona las capas de enlace de datos y la capa física en una capa de interfase o acceso de red. 7 8 Dado que la suite de protocolos TCP/IP supera en muchos aspectos al grupo de protocolos que conforman el modelo OSI, es que se utilizan hoy en día redes de Internet basadas en el modelo TCP/IP o redes IP. 2.1.1 Capas del Modelo TCP/IP En términos generales, el modelo TCP/IP está organizado en cuatro capas conceptuales que se construyen sobre una quinta capa de hardware. El esquema de la figura 2.1 muestra las capas conceptuales., así como los protocolos que se encuentran en cada una de ellas. Figura 2.1 Arquitectura TCP/IP [1] 9 Capa de Interfase o Acceso de Red La capa de acceso de red es el nivel inferior del modelo TCP/IP, se encarga de interfasar los diferentes protocolos TCP/IP que operan en capas superiores, con las redes locales. Es la responsable de aceptar los datagramas IP y transmitirlos hacia una red específica. Algunos de los protocolos de capa de acceso de red son los siguientes: • Protocolo de Interfase de Línea Serial (SLIP, Serial Line Interface Protocol). • Protocolo Punto a Punto (PPP, Point to Point Protocol). Capa de Internet o de Red Es equivalente a la capa de red del modelo OSI, es la encargada de manejar solicitudes para enviar un paquete desde la capa de transporte, junto con una identificación de la dirección de destino hacia la que se debe enviar el paquete. En esta capa se encuentra localizado uno de los protocolos más importantes de la suite de protocolos TCP/IP como lo es el protocolo de Internet (IP), el cual se encarga de realizar el direccionamiento, la fragmentación, el empaquetado, la entrega y el enrutamiento de paquetes de información a través de la red. En esta capa se encuentran presentes los siguientes protocolos: • Protocolo de Internet (IP/IPv4 o IPv6). 10 • Protocolo de Mensajes de control de Internet (ICMP, Internet Control Message Protocol), el cual es un protocolo de soporte para IP. • Protocolos de enrutamiento tales como: RIP, OSPF y BGP entre muchos otros. Capa de Transporte La función principal de la capa de transporte es la de facilitar la comunicación a través de la red, además de regular el flujo de información. Se encarga de establecer y manejar las conexiones lógicas para la entrega confiable de datos entre dos dispositivos. Los protocolos claves en esta capa son los siguientes: • Protocolo de Control de Transmisión (TCP, Transmisión Control Protocol). • Protocolo de Datagrama de Usuario (UDP, User Datagram Protocol). Capa de Aplicación La capa de aplicación es la capa más alta del modelo TCP/IP. En esta capa se encuentran ubicados los servicios y las aplicaciones de los usuarios, por lo que su función es la de proveer servicios a aplicaciones que utilizan la red, tales como el correo electrónico, transferencia de archivos, acceso remoto y video conferencias, entre otras. Cada programa de aplicación selecciona el tipo de transporte necesario, el cual puede ser una secuencia de mensajes individuales o un flujo continuo de octetos. El programa de aplicación pasa los datos en la forma requerida hacia el nivel de transporte para su entrega. 11 La capa de aplicación incluye protocolos tales como: • Protocolos propiamente de aplicación como: HTTP, FTP y SMTP. • Protocolos administrativos como el SNMP. • Protocolos de configuración de host como el DHCP. • Sistemas como el DNS y el NFS. 2.2 Protocolo de Control de Transmisión (TCP) 2.2.1 Reseña histórica del protocolo TCP En inicios de la década de los 70, el departamento de defensa de los Estados Unidos desarrolló una pequeña red interconectada con propósitos de investigación llamada ARPAnet (ARPA, Advanced Research Projects Agency), cuya tecnología utilizaba el Protocolo de Control de Red (NCP, Network Control Protocol), que permitía a los host conectarse unos con otros. Dadas las limitaciones que tenía el NCP, se comenzó a desarrollar un nuevo protocolo que se ajustara mejor al crecimiento del sistema de redes. De esta forma se implementó el protocolo TCP, el cual realizaba las funciones de los protocolos TCP e IP, con el tiempo se le fueron implementado mejorías, por lo que fueron apareciendo nuevas versiones del TCP, hasta que en la cuarta versión de éste, se decide dividir su funcionamiento en dos protocolos, el protocolo TCP y el IP, por lo que en 1983 con la publicación del estándar RFC 793 nace el protocolo TCP tal como se conoce hoy en día. 12 2.2.2 Características generales de operación Para comprender mejor el trabajo que realiza el protocolo TCP, se debe conocer la forma en que realiza sus diferentes funciones. Las siguientes son las características generales de operación del protocolo TCP: • Funcionamiento Orientado a Conexión: TCP establece que exista una conexión entre los dispositivos que van a transmitir datos de información antes de que éstos sean enviados, por lo que TCP se asegura de que ambos dispositivos acepten la forma en que se van a enviar los datos. • Bidireccional: Lo que quiere decir es que una vez establecida la conexión, los dispositivos bajo el protocolo TCP, pueden tanto enviar como recibir información. • Confiabilidad: Las comunicaciones que utilizan TCP se consideran confiables debido a que éste le da un seguimiento a la información que ha sido enviada y recibida con el objetivo de asegurarse de que llegue completa a su destino final. • Reconocimiento de Recepción: Parte importante de la confiabilidad que brinda el protocolo TCP, es el reconocimiento de recepción de información que poseen las transmisiones en la capa de transporte. Cuando se envía información de un dispositivo a otro, cada vez que recibe una pieza de información, el dispositivo que recibe los datos le indica al que los envía que ésta se entregó exitosamente o por el contrario, que necesita ser retransmitida. 13 2.2.3 Funciones Principales del TCP El protocolo TCP realiza diferentes funciones, algunas de las más importantes son las siguientes: • Conexión entre Dispositivos: TCP se encarga primeramente de establecer la conexión por la cual se van a enviar los datos entre dos dispositivos, una vez que se establece la conexión, se encarga de velar por el buen funcionamiento de ésta y de la resolución de cualquier problema que se pueda presentar. Por último se encarga de terminar la conexión siguiendo un proceso especial para esto. • Empaquetamiento de Datos: TCP define mecanismos para permitir el envió de datos provenientes de la capa de aplicación hacia él en la capa de transporte. Luego la información es empaquetada para ser enviada a su destino final, una vez que llega a éste, TCP se encarga de desempaquetar la información y darla como una aplicación. • Transferencia de Datos: La implementación del TCP en los dispositivos que están transmitiendo paquetes de datos, permite que éstos sean transmitidos utilizando las capas inferiores del modelo TCP/IP pasando los paquetes de datos a través de los protocolos de las capas inferiores de la red como es el caso del protocolo IP. • Proveer Control de Flujo: El protocolo TCP permite que el flujo de datos entre dos dispositivos sea controlado, además trata los posibles problemas de congestión que se pueden dar durante la comunicación entre ellos. 14 2.3 Protocolo de Internet (IP) 2.3.1 Reseña histórica del protocolo IP Como protocolo, IP tuvo su origen cuando una de las primeras versiones del protocolo TCP desarrollado en los 70s por los creadores del Internet moderno fue dividido en el protocolo TCP de capa 4 y en el protocolo IP de capa 3. La publicación RFC 791, “Internet Protocol” en septiembre de 1981, fue clave en la evolución de IP. Este estándar sirvió como base para definir la funcionalidad y las características de la versión de IP que ha sido ampliamente utilizada en las últimas dos décadas. El protocolo IP definido en el estándar RFC 791 no fue la versión 1 del protocolo IP, sino que fue la versión 4 (IPv4), ya que éste surgió de la separación de una versión de TCP que combinaba las funciones de TCP e IP. Esta versión de TCP evolucionó de tres versiones anteriores y es hasta en la cuarta versión que se da la separación de los protocolos TCP e IP. IPv4 ha probado ser un protocolo de mucha capacidad, sin embargo en el futuro tarde o temprano se requerirá una nueva versión de IP, por este motivo es que a mediados de los 90s se empezó a desarrollar una nueva versión de IP, esta nueva versión se llama Internet Protocol version 6 (IPv6) y algunas veces se le refiere a esta como IP de próxima generación (IPng); la cual esta destinada a ser el futuro del IP. 15 2.3.2 Características generales de operación Para entender como trabaja el protocolo IP, se debe observar sus características y la forma en que éstas operan. Por esta razón se presentan a continuación las siguientes características generales de operación: • Direccionamiento Universal: Si se desea enviar información de un punto A hacia un punto B, es necesario asegurarse que los dispositivos sepan cual dispositivo corresponde al punto B. Por lo que IP se encarga de definir los mecanismos de direccionamiento para la red y utiliza estas direcciones para propósitos de entrega de información. • Independencia con Protocolos de capas Inferiores: IP está diseñado para permitir la transmisión de datos a través de cualquier tipo de tecnología de red de capa inferior tales como las LAN, WLAN y WAN entre otras, siempre y cuando estén diseñadas para trabajar con la arquitectura TCP/IP. De igual forma IP puede desempeñarse en protocolos de capas inferiores, como el protocolo de enlace de línea serial (SLIP) utilizado en el servicio de red conmutado y el protocolo punto a punto (PPP) de la capa de enlace de datos. • Entrega de Información no Orientada a Conexión: IP es un protocolo sin conexión, lo que significa que cuando el punto A desea enviar datos al punto B, éste no realiza una conexión con el punto B para luego enviar los datos, sino que simplemente crea los datagramas y los envía sin establecer una conexión con éste. 16 • Entrega de Información no Confiable: Esto significa que cuando se envían datagramas de un dispositivo A a un dispositivo B, el dispositivo A envía un datagrama e inmediatamente continúa con el siguiente sin seguirle la pista a los que ya ha enviado, lo cual no provee seguridad ni cualidades de servicio de calidad, tales como protección contra errores para los datos que son enviados, controles de flujo o retransmisión para los datagramas perdidos. Por esta razón es que al protocolo IP se le considera un protocolo “best-effort” por que hace su mayor esfuerzo para que la información vaya a su destino, pero no garantiza que efectivamente llegue a éste. • Entrega de Información sin Reconocimiento: Esto significa que cuando el dispositivo B recibe un datagrama del dispositivo A, éste no envía una confirmación al dispositivo A especificando que el datagrama fue recibido. 2.3.3 Funciones Principales del IP Dentro de la capa de red del modelo TCP/IP, el Protocolo de Internet IP se encarga de realizar múltiples funciones. Algunas de las que tienen mayor relevancia son las siguientes: • Direccionamiento: IP se encarga de realizar las funciones de direccionamiento para poder enviar datagramas a través de la red. Su sistema está diseñado para permitir el direccionamiento de dispositivos a través de grandes redes arbitrarias. También contiene una estructura que facilita el enrutamiento de datagramas en redes distantes. 17 • Encapsulamiento de datos: IP recibe datos o información proveniente de los protocolos UDP y TCP de la capa de transporte, la cual luego es encapsulada en datagramas IP utilizando un formato especial el cual presenta prioridad a la hora de su transmisión. • Fragmentación y Reensamblado: Las redes locales dentro de un conjunto de redes interconectadas pueden especificar diferentes tamaños máximos de paquetes, por esta razón el protocolo IP se encarga de fragmentar los datagramas en piezas de menor tamaño, de esta forma pueden ser transmitidas a través de las redes locales. El dispositivo que recibe la información utiliza la función de reensamblado para unir las piezas y recrear el datagrama IP original. • Enrutamiento: IP se encarga de realizar lo que se conoce como “entrega directa” al enviar un datagrama a un destino que se halla dentro de una misma red local. Si el destino final se encuentra en una red distante que no está directamente conectada con la fuente que está enviando la información, se utiliza lo que se conoce como “entrega indirecta” donde el datagrama es enrutado a través de sistemas o dispositivos intermedios (enrutadores) hasta llegar a su destino final. Esto lo consigue haciendo uso principalmente de protocolos de enrutamiento tales como RIP, BGP y OSPF, entre otros. 18 2.4 Infraestructura de un ISP Físicamente, Internet está compuesta por enrutadores interconectados por enlaces de comunicación. Las redes IP están formadas por unos cuantos enrutadores de propósito general que se conectan unos con otros mediante enlaces propios o alquilados. El mecanismo de enrutamiento del protocolo IP es el enrutamiento salto a salto sin estado basado en el destino, el cual tiende a agregar tráfico en las principales rutas troncales, por lo que es necesario implantar una estructura jerárquica Al asignar tareas específicas a enrutadores particulares se logra imponer una estructura jerárquica a una red compleja, por lo que los routers se dividen según su función en los siguientes tipos: • Router de concentración: proporcionan acceso a la red a los clientes individuales. Estos equipos tienden a centrarse en soportar números elevados de puertos de relativa baja velocidad conectados a los clientes. • Router de backbone: proporciona transporte óptimo entre nodos de la red, enviando paquetes a gran velocidad de un dominio a otro. El énfasis se pone en alcanzar las mayores tasas de transmisión o forwarding rates sobre los interfaces más rápidos disponibles. La interconexión de los usuarios con la red de datos del proveedor se realiza en un POP (Point of Presence) el cual es una ubicación física donde se disponen una serie de 19 equipos como los nodos de acceso o RAS, los routers concentradores de RAS y de clientes con líneas dedicadas y routers de backbone. La infraestructura de red que necesita un ISP para brindar los diferentes servicios IP, se descompone en cuatro partes fundamentales, las cuales son: 2.4.1 Red de Acceso Una red de acceso es aquella que conecta al usuario final con el nodo de red más cercano a él. Existen varios tipos de redes de acceso, entre las más conocidas están: • Líneas Conmutadas: En esta red de acceso el tráfico es enviado al punto de interconexión del operador de acceso que se conecta con la central de conmutación del ISP. La central toma el número de destino y saca en interfaces primarios (ISDN PRI) el tráfico de Internet. Estos primarios se suministran a los equipos RAS (Remote Access Server) situados en los POP de la red de datos. El usuario final establece una sesión PPP con el RAS por medio de un módem. El RAS es un dispositivo de acceso remoto que dispone de muchos módems y que realiza funciones de clientes RADIUS, autentificando al usuario y terminando la sesión PPP. El estándar de Internet RADIUS opera cuando un dispositivo de acceso remoto necesita autentificar a un usuario de acceso conmutado frente a un servicio de directorio • Líneas Dedicadas: En este caso los clientes disponen de un router que se enlaza directamente mediante una línea dedicada con un router concentrador de acceso por 20 el cual entra a la red de datos del proveedor. El router concentrador de acceso realiza la agregación del tráfico procedente de líneas alquiladas. El enlace en el router del cliente y el router concentrador se soporta actualmente sobre anillos de fibra óptica. • Líneas ADSL: En este caso el módem ADSL se conecta al punto de terminación telefónica en el domicilio del usuario. En el otro extremo del par de cobre se localiza el DSLAM (Digital Subscriber Line Access Multiplexer), encargado de terminar las conexiones ADSL de nivel físico de múltiples usuarios y de conmutar las celdas ATM transportándolas hacia la red de acceso. Para soportar el acceso por líneas ADSL es necesario introducir en la red de datos un BAS (Broadband Access Server). Este equipo concentrará el tráfico y tendrá funciones de enrutamiento, autentificación y control de tráfico. 2.4.2 Red de Concentración La misión de esta red, situada en el borde de la red de datos, es agregar las conexiones de los clientes en los puntos de presencia del proveedor. Dentro del POP, en el nivel de concentración tenemos dos tipos de routers de concentración, unos dedicados a la concentración de clientes conmutados y otros dedicados a la concentración de clientes dedicados. Las principales características que deben presentar los routers concentradores de acceso son las siguientes: 21 • Estabilidad y alto ancho de banda para satisfacer la creciente demanda de transmisión de datos, voz y video. • Alta densidad de puertos para satisfacer el continuo crecimiento del número de clientes. • Procesador optimizado para gestionar agregaciones de tráfico de gran volumen y nuevas funcionalidades software. • Prestaciones de valor añadido adicionales al enrutamiento de paquetes de alta velocidad: redes privadas virtuales, seguridad con listas de acceso extendidas y firewalls, diferenciación de QoS y soporte multicast entre otros. • Mecanismos para flexibilizar las velocidades de acceso permitidas, como es el caso de multilink PPP. 2.4.3 Red Troncal o Backbone La red troncal es la encargada de agregar el tráfico procedente de las redes de acceso y de concentración, también realiza la interconexión con el resto de puntos de presencia de la red y la interconexión a otras redes, proveedores de tránsito y puntos neutros, además de la interconexión con el entorno del Centro de Proceso de Datos (CPD). Las principales características que presentan los routers backbone son las siguientes: • Presentan un throughput en paquetes por segundo extremadamente alto. 22 • Presenta un conjunto mínimo de funcionalidades de procesamiento de paquetes, se centra en el reenvío rápido de paquetes. • 2.4.4 Tiene un número modesto de interfaces de muy alta velocidad. Red de Gestión – Centro de Proceso de Datos Éste está compuesto por servidores de gestión de red IP, gestión de equipos de cliente, DNS, RADIUS. Todos estos son sistemas de elevada disponibilidad en balanceo de carga, son altamente escalables y están protegidos por firewalls. Su principal prioridad es la de encontrar las causas de posibles fallos en el menor tiempo posible. El CPD se conecta a un router del backbone por medio de dos líneas redundantes y esta compuesto por las siguientes redes de área local: • LAN de gestión: incluye los servidores de: gestión de red IP, gestión de equipos de cliente, estadísticas y acuerdos de nivel de servicio, y máquinas de visualización. El acceso desde la red IP a la LAN esta protegido por un firewall dedicado. • LAN DNS / RADIUS: incluye los servidores de DNS principal, DNS cache y RADIUS. Debido a que esta LAN incluye los servidores más críticos, el acceso desde la red IP está protegido por dos firewalls dedicados en balanceo de carga con lo que consigue que la carga máxima posible se duplique. Para obtener una alta disponibilidad de servicios, se recomienda instalar un servidor DNS en cada uno de los POP de más tráfico de la red. 23 2.5 Red Avanzada de Internet (RAI) del ICE El 18 de abril del 2001, el ICE inauguró la Red Avanzada de Internet. Esta iniciativa fue impulsada por la presidencia de la República, el Instituto Costarricense de Electricidad y el Ministerio de Ciencia y Tecnología. Su creación se dio con el propósito de modernizar el Sistema Nacional de Telecomunicaciones mediante el desarrollo de una infraestructura de red sólida, preparada para brindar los nuevos servicios de infocomunicaciones, con costos razonables y competitivos a nivel internacional, de modo que facilite el acceso masivo a la información y se brinden comunicaciones de avanzada a todos los sectores y empresas generadoras de riqueza, potenciando el desarrollo económico y social del país. Esta red está estructurada para proveer a todos los usuarios del país un acceso a una infraestructura de telecomunicaciones de gran capacidad basada en los protocolos de Internet IP. Su infraestructura fue diseñada pensando en futuras posibilidades de expansión, crecimiento y evolución puesto que está diseñada como un sistema de alta capacidad con ventajas como conexiones dedicadas de banda ancha, bajos costos de conexión, seguridad y confiabilidad, escalabilidad y flexibilidad. Además, es compatible con plataformas actuales y su arquitectura de red está diseñada para migrar hacia las futuras tecnologías. La RAI permite utilizar los medios de transmisión ya existentes en el país, como lo son los anillos de fibra óptica, la red de cobre perteneciente a la red telefónica y por supuesto las líneas de transmisión del tendido eléctrico. En la actualidad existen una serie de proyectos en desarrollo en torno a ésta como lo son el Proyecto Power Line 24 Communication (PLC) desarrollado conjuntamente por el ICE y la Compañía Nacional de Fuerza y Luz (CNFL); el cual se encuentra en su etapa piloto y que se espera que permita complementar el acceso a Internet a velocidades de hasta 2 Mbps a través de los cables eléctricos. Sin embargo, quizás el de mayor relevancia es el Proyecto Frontera a Frontera que permitirá conectar el país de norte a sur y de este a oeste con una red de fibra óptica. Figura 2.2 Mapa del Proyecto Frontera a Frontera del ICE [18] La RAI requiere una interconexión segura con el resto del mundo, de ahí que se ha aumentado la capacidad y redundancia de los cables submarinos. En el cable submarino Maya-1, el ICE aumentó la capacidad actual del enlace a 155 Mbps, ampliables hasta 12.5 Gbps. Maya 1 es un enlace submarino que por medio de dos pares de fibra óptica de 4 400 Km de longitud, conecta a Florida (Estados Unidos) con Tolú (Colombia) con derivaciones a Cancún (México), Puerto Cortés (Honduras), Gran Caimán (Islas Caimán), Puerto Limón (Costa Rica) y Colón (Panamá). Además, el país se conectará al cable ARCOS-1 con una capacidad de 155 Mbps y que puede crecer hasta 25 Gbps. ARCOS-1 es un enlace submarino por medio de fibras ópticas de 8 400 Km de longitud que interconecta 15 países 25 en la región del Caribe: Estados Unidos, Bahamas, Turks y Caicos, República Dominicana, Puerto Rico, Curazao, Venezuela, Colombia, Panamá, Costa Rica, Nicaragua, Honduras, Guatemala, Belice y México. Funciona como una ruta alterna para el enlace submarino Maya-1. Figura 2.3 Mapa de los enlaces submarinos ARCOS-1 Y Maya-1 [5] y [6] Además, para dar una mayor redundancia a las salidas internacionales, se está formalizando la conexión al Cable Interoceánico Pacífico (Global Crossing). Figura 2.3 Mapa de la interconexión Mundial de Global Crossing [7] 26 2.4.1 Estructura de la RAI La estructura de la red se compone de dos niveles, el nivel 1: Backbone y el nivel 2: Acceso, como se puede observar en la figura 2.4, donde la nube azul representa la capa 1y todo lo que se encuentra fuera de la misma, representa la capa 2. Figura 2.4 Capas 1 y 2 de la estructura de la RAI [18] • Nivel Backbone: La red medular o backbone es la parte troncal de la red con suficiente capacidad para la interconexión de las diferentes subredes a través de ella. La configuración general de ésta se compone de dos capas la del núcleo, formada por 6 Giga-enrutadores de alta capacidad (10 Gbps) con la conexión internacional, entrelazados por la fibra óptica. Y capa de distribución, compuesta por 26 Gigaenrutadores, ubicados en los principales nodos de tránsito del Sistema Nacional de Telecomunicaciones (SNT), a velocidades de 2,5 Gbps. 27 • Nivel Acceso: La red de acceso se compone de los equipos Mega-enrutadores de agregación, que se ubican en la mayoría de las centrales telefónicas del país, los cuales agrupan los equipos Multiplexadores Digitales de Acceso a la línea del Subscriptor (DSLAM), que en definitiva brindan las conexiones a los clientes a través de los equipos de línea de Subscriptor Digital Asimétrica (DSL). 2.4.2 Implementación de la RAI En Costa Rica durante muchos años han existido tres redes funcionando paralelamente: una red para telefonía, una red para datos y una red de televisión. Las nuevas tecnologías tienden a una convergencia de todos los servicios en una sola red basada en IP, como se muestra en la figura 2.5. Figura 2.5 Provisión actual y futura de los servicios de datos, voz y video [18] Sin embargo esta convergencia exige cada vez un mayor ancho de banda, por lo cual se está implementando la nueva tecnología dominante basada en la fibra óptica. Otro aspecto que conlleva dicha convergencia es a la desaparición gradual de algunas de las 28 capas de transporte y circuitos. Los nuevos lineamientos tecnológicos van dirigidos hacia un modelo de transporte de dos capas como el mostrado en la figura 2.6, logrando bajo costo en los equipos, bajo costo en la operación, una arquitectura más simple y una facilidad de crecimiento a medida que se necesite más ancho de banda. Figura 2.6 Simplificación de operaciones en el modelo de transporte [18] El modelo de las redes IP basado en la conmutación de paquetes, permite compartir el medio físico entre todos los usuarios con un ahorro importante de recursos, y a la vez garantiza la independencia y seguridad de las comunicaciones mediante la implementación de redes virtuales o redes lógicas independientes, dejando de lado el modelo de conmutación de circuitos utilizado durante mucho tiempo en la telefonía convencional. 29 Figura 2.7 Medios físicos de conexión en la conmutación de circuitos y paquetes [18] 2.4.3 Infraestructura de la RAI Según la licitación 7075-T obtenida por la compañía GBM, la RAI cuenta con un sistema de enrutadores llave en mano estructurado de la siguiente forma: • 239 enrutadores: Conformados por 6 Giga-enrutadores de Core, 26 Gigaenrutadores de distribución y 307 Mega-enrutadores de acceso. • 58 conmutadores: Conformado por 26 conmutadores LAN-Switch y 26 conmutadores Switch IP+. • 2 sistemas de gestión: Un gestor de sistema de enrutadores y un gestor de VPNS (Redes virtuales privadas MPLS). El equipamiento utilizado específicamente es el siguiente: 30 Para los Giga-enrutadores de Core se utilizó el modelo GSR-12416, y para los Giga-enrutadores de distribución se utilizó el modelo GSR-12016, los cuales de muestran en la figura 2.8. Figura 2.8 Giga-enrutadores [19] Los Mega-enrutadores utilizados fueron del modelo A1-7606 y A2-7204 VXR, mientras que los conmutadores LAN-switch y Switch IP+ son respectivamente de los modelos 3524-EMI y 3550-12G, todos éstos se pueden observar en la figura 2.9. Figura 2.9 Mega-enrutadores y conmutadores [19] 31 El esquema general de interconexión del equipo se muestra en la figura 2.10. Figura 2.10 Esquema de interconexión del equipo que conforma la RAI [19] Así siguiendo de izquierda a derecha la figura 2.10, se puede notar como los Gigarouters de Core se conectan entre sí, y su vez se conectan con los de distribución, los cuales se conectas a los Mega-routers y aunque no se aprecia en la figura 2.10, éstos también se enlazan con otros Giga-routers de distribución. Finalmente los conmutadores se conectan a los Mega-enrutadores y posteriormente el usuario recibe los servicios a través de los equipos ADSL. Una visión más completa se muestra más adelante en la figura 12.13. 2.4.4 Nivel Core Los Giga-enrutadores de Core se colocaron en puntos estratégicos del país, estos puntos son las centrales telefónicas en San José, San Pedro, Pavas, Alajuela, San Ramón y Cartago, las cuales se representan como puntos rojos en la figura 2.11. 32 Figura 2.11 Ubicación de los Giga-enrutadores de Core [19] Todos estos Giga-enrutadores de Core deben enlazarse entre sí de una manera específica la cual se observa en la figura 2.12, donde se puede observar como el Gigarouter de San José es el enlace principal, ya que se interconecta directamente con los otros 5 Giga-routers que componen el núcleo. También destaca el Giga-enrutador de San Pedro que se conecta a los demás, excepto al de San Ramón. Figura 2.12 Enlace de los Giga-enrutadores [19] 33 La figura 2.13 muestra el esquema completo de la conexión de la RAI en el país, donde se puede observar cómo efectivamente la interconexión de los Giga-enrutadores de núcleo es la mostrada en la figura 2.12, y sigue la estructura de conexión de la figura 12.10. En la figura 2.13 los discos rojos representan los 6 Giga-enrutadores de alta capacidad (10 Gbps) del núcleo, y las líneas negras continuas sus enlaces. Los discos azul oscuro representan los 26 Giga-enrutadores de distribución ubicados en los principales nodos de tránsito del SNT, a velocidades de 2.5 Gbps, mientras sus enlaces aparecen indicados como líneas azules discontinuas. Finalmente, los discos celestes y verdes, representan los Mega-enrutadores de acceso, y las líneas verdes y naranjas sus enlaces. Figura 2.13 Esquema completo de la RAI en Costa Rica [19] 34 CAPÍTULO 3: Conceptos sobre calidad de servicio en redes IP La calidad de servicio (QoS) se ha convertido en la actualidad, en un campo de investigación necesario para el soporte de nuevos tipos de aplicaciones de red. En los últimos años, la mayoría de tecnologías de red se han preocupado más por enviar información de un lugar a otro lo más rápido posible, en vez de interesarse un poco más por la forma en como se está enviando esta información. Para algunas aplicaciones tales como las transferencias de archivos y mensajes esto no representa ningún inconveniente, sin embargo existen otra clase de aplicaciones, tal es el caso de las aplicaciones multimedia, en las que este tipo de funcionamiento no brinda un servicio de calidad, por lo que se necesita tecnologías o protocolos que puedan ofrecer QoS. En la actualidad los ISPs están interesados en ofrecer un servicio más distinguido que los diferencie de los otros proveedores de servicio de Internet, de forma que dependiendo de las necesidades de los clientes, éstos puedan proporcionar diferentes opciones de QoS que permita satisfacer los requerimientos solicitados de la calidad del servicio de los clientes o usuarios. 3.1 Definición de QoS En la Rec. UIT-T E800 se define la calidad de servicio (QoS) como “El efecto global del rendimiento de un servicio que determina el grado de satisfacción de un usuario sobre un servicio” [17]. En la Rec. UIT-T X.902 se define la calidad de servicio (QoS) como “El conjunto de requisitos de calidad que debe cumplir el comportamiento colectivo de uno o más 35 objetos”. En cuanto a la calidad de servicio puede proceder de dos maneras: se puede especificar en un contrato o medirla e informar sobre ella después del evento. [17] En la Rec. UIT-T Q.2762 se define la calidad de servicio (QoS) como “La información enviada hacia delante para indicar la clase de calidad de servicio solicitada por el usuario para una conexión”. Se definen clases de calidad de servicio para permitir que una red optimice recursos para el soporte de diversas clases de servicios. [17] La calidad de servicio se caracteriza por los aspectos combinados de actuación en cuanto al soporte del servicio, la actuación en cuanto a la operabilidad del servicio, la actuación en cuanto a la aptitud para prestar el servicio, la actuación en cuanto a la seguridad de servicio y otros factores específicos de cada servicio. Lo que se tiene que considerar es que las redes transportan tipos de tráficos múltiples que combinan datos, video y voz, y que cada uno de estos tipos de tráficos tienen distintas características y diferentes requerimientos en términos de entrega en la red, por lo que el objetivo de implementar QoS es el de brindar un desempeño consistente y predecible para cada uno de los tipos de tráfico, sin importar para donde vayan en la red. 3.2 Importancia de implementar QoS Una de las principales razones del interés por los mecanismos de calidad de servicio es la de proteger los datos en aplicaciones de misión critica de los datos de misión no crítica, lo cual representa una prioridad y una necesidad, sobre todo en las grandes organizaciones del mundo. 36 Otra importancia del QoS se presenta a la hora de implementar voz en la red, ya que se requerirá la habilidad de proteger la voz de los datos y de igual forma se necesitará proteger el tráfico de video de los datos. Además con la implementación de QoS se podrá clasificar los distintos tipos de tráficos y dar prioridad a tráficos como el de voz y video que son sensibles al retraso y a la pérdida de información. Existen grandes beneficios en la implementación de QoS en la red como tal, ya que con este se puede obtener un mejor control de nuestros recursos de red, permite utilizar un ancho de banda existente de manera más eficiente, ayudando en mayor medida a las WANs a utilizar sus recursos de red para que éstas alcancen un mejor rendimiento, ya que su ancho de banda se puede considerar que es de cierta forma limitado ya que los costos de incrementar este recurso son muy grandes, en comparación con las LANs en donde se pueden resolver muchos de los problemas simplemente aumentando el ancho de banda, sin que esto signifique mayores costos. 3.3 Parámetros de calidad para redes IP Con el objetivo de especificar y evaluar la calidad de funcionamiento de las redes IP, la Unión Internacional de Telecomunicaciones (UIT) en la Rec. UIT-T Y.1540 define un conjunto de parámetros establecidos, entre los cuales se suele utilizar los siguientes: • Retardo de transferencia de paquete IP (IPTD, IP packet transfer delay). El retardo de la transferencia de paquetes IP se define para todos los resultados paquetes satisfactorios y con errores a través de una sección básica o un NSE. El IPTD es el 37 tiempo (t2 – t1) que transcurre entre la ocurrencia de dos eventos de referencia de paquetes IP correspondientes. • Variaciones del retardo del paquete IP, o fluctuación de fase (IPDV, IP packet delay variation, or Jitter). El jitter se define como la variación de los retardos de la transferencia de paquetes IP de una población de interés. • Tasa de pérdida de paquetes IP (IPLR, IP packet loss ratio). La tasa de pérdida de paquetes IP es la relación entre el total de resultados de paquetes IP perdidos y el total de paquetes IP transmitidos en una población de interés. • Tasa de errores en los paquetes IP (IPER, IP packet error ratio). La tasa de errores en los paquetes IP es la relación entre el total de resultados de paquetes IP con errores y el total de resultados de transferencia de paquetes IP satisfactoria más los resultados de paquetes IP con errores en una población de interés. Estos cuatro parámetros en conjunto determinan la calidad de servicio que un conjunto de paquetes que van de un origen a un destino necesitan. 3.3.1 Principales causas Los errores en los paquetes pueden ser causados por ruido en los canales de comunicación, mientras que los problemas de pérdidas de paquetes pueden presentarse en los buffers. Con la implementación de nuevas tecnología y medios de transmisión como la fibra óptica este tipo de pérdidas se han vuelto tan pequeñas que se consideran insignificativas. En cuanto al retardo, este puede ser provocado de 3 formas diferentes: el 38 retardo de transmisión, el retardo de procesamiento en los enrutadores y el retardo de las colas de los enlaces, y al igual que antes con la implementación de nuevas tecnologías estos se han ido reduciendo, con excepción del retardo debido a las colas de los enlaces, en los que mucho tiene que ver la capacidad del enlace. Las fluctuaciones o jitter se producen por las congestiones en la red, y éstas se pueden solucionar añadiendo un retardo adicional en el lado del receptor, lo que implicaría la necesidad de un buffer lo suficientemente grande. 3.3.2 Requerimientos para aplicaciones Por la red viajan flujos de paquetes que van de un origen a un destino, estos flujo de información están conformados por distintos tipos de aplicaciones las cuales varían sus requerimientos unas con otras, por lo que en la siguiente tabla se hace un listado resumen de diferentes tipos de aplicaciones y el nivel de sus requerimientos. Tabla 3.1 Aplicaciones y niveles de requerimiento. [2] Aplicación Confiabilidad Retardo Fluctuación Ancho de banda Correo electrónico Alto Bajo Bajo Bajo Transferencia de archivos Alto Bajo Bajo Medio Acceso a Web Alto Medio Bajo Medio Inicio de sección remoto Alto Medio Medio Bajo Audio bajo demanda Medio Bajo Alto Medio Video bajo demanda Medio Bajo Alto Alto Telefonía Medio Alto Alto Bajo Videoconferencia Medio Alto Alto Alto 39 Para las primeras cuatro aplicaciones de la tabla presentan altos requerimientos en cuanto a confiabilidad, ya que se necesita enviar todos los bits de manera correcta y de forma completa. La alta confiabilidad para estas aplicaciones la brinda el protocolo TCP ya que éste realiza un reconocimiento de recepción cada vez que es entregada una pieza de información y en caso de un error de transmisión, éste se encarga de realizar una retransmisión. Las aplicaciones en tiempo real, como la telefonía y la videoconferencia tienen altos niveles de requerimientos en cuanto al retardo se refiere, ya que si éste es muy grande la interacción entre los usuarios se vera afectada y eso se consideraría inaceptable. En cuanto a las fluctuaciones o variaciones de retardo, los más afectados serían las transmisiones que presenten audio o video. En el audio fluctuaciones de unos cuantos milisegundos son claramente audibles. Por último, los requerimientos de ancho de banda dependen mucho del tipo de aplicación, el correo electrónico y la telefonía no necesitan altos requerimientos a diferencia de las transmisiones que involucran video. 3.3.3 Solución a los problemas de QoS Para solucionar los problemas de calidad de servicio, es necesario buscar formas para evitar que se formen congestionamientos en la red. Las congestiones se producen por que las redes no se poseen la capacidad suficiente para transportar todo el tráfico, o por una mala distribución de éste, lo que provoca que se sobrecarguen ciertos nodos más que otros. Dentro de la red IP, se deben solucionar problemas basados en la orientación de los paquetes de información, en el enrutamiento dinámico, en el poco uso de prioridades y en 40 la no separación de un tráfico especifico. Por lo que posibles mecanismos para solucionar estos problemas serían los siguientes: • Redimensionar la capacidad de la red. • Aplicar ingeniería de tráfico a modelos que garanticen QoS en las redes IP. 3.4 Clases de QoS En la Rec. UIT-T Y.1541 “Objetivos de calidad de funcionamiento de red para servicios basados en el protocolo Internet”, se definen seis clases de QoS para el IP, basándose en aplicaciones, mecanismos de nodo y técnicas de red: Tabla 3.2 Directrices para las clases de QoS. [17] Clase de QoS 0 1 2 3 4 5 Aplicaciones (ejemplos) En tiempo real, sensible a la fluctuación de fase, alta interactividad (VoIP, VTC) En tiempo real, sensible a la fluctuación de fase, interactividad normal (VoIP, VTC) Datos de transacciones, alta interactividad (señalización) Datos de transacciones, interactividad normal Sólo de baja pérdida (transacciones cortas, datos en bloque, vídeo de flujo continuo) Aplicaciones tradicionales de las redes IP por defecto Mecanismos de nodo Cola independiente con servicios preferentes, acondicionamiento de tráfico Técnicas de red Encaminamiento y distancias restringidos Encaminamiento y distancias menos restringidos Encaminamiento y distancias restringidos Cola independiente, sin prioridades Encaminamiento y distancias menos restringidos Cola larga, sin prioridades Cualquier ruta/trayecto Cola independiente, prioridad mínima Cualquier ruta/trayecto 41 Para cada clase de QoS, se definen objetivos de calidad de funcionamiento de red IP en términos de gamas de valores de parámetros de red IP medidos: IPTD, IPDV, IPLR e IPER. 3.5 Áreas importantes para la aplicación de mecanismos de QoS Existen 3 áreas claves en una red en las que se pueden aplicar mecanismos de calidad de servicio. La clasificación de paquetes es importante en donde el tráfico llega a la red, básicamente al borde. La idea es clasificar el tráfico lo más rápido posible con el objetivo de dar prioridad a cierta clase de tráfico, de manera que el ingreso a la red se considera el mejor lugar para realizarlo. En el borde de las redes de área amplia es donde es importante tener control de funciones tales como: el control de admisión, prevención de congestionamiento y también técnicas de manejo de congestión. En el núcleo de las redes es donde se implementa la prevención de congestionamiento y las técnicas de manejo de congestión. Figura 3.1 Áreas de aplicación de QoS. [19] 42 3.6 Tecnologías para brindar QoS en redes IP Existen diferentes tipos de modelos y tecnologías para brindar QoS en las redes IP, entre los más utilizados se encuentran el IntServ (Integrated Services), y DiffServ (Differentiated Services). Por lo que se realizará a continuación un repaso general de estos modelos y se dedicarán los siguientes capítulos al estudio detallado de la tecnología MPLS y cómo se utiliza la ingeniería de tráfico junto con estos modelos para garantizar QoS en las redes IP. 3.6.1 Integrated Services (IntServ) El mecanismo IntServ junto con el Protocolo de Reserva de Recursos (RSVP) permiten al usuario solicitar de antemano los recursos que necesita para poder brindar QoS a aplicaciones de tiempo real, por lo que cada enrutador en el trayecto efectúa la reserva solicitada. Normalmente la reserva de recursos se realiza para una secuencia de datagramas relacionados entre si. Para poder implementar el protocolo RSVP, los enrutadores deben incorporar los siguientes elementos: • Control de Admisión: su función es la comprobar si la red tiene los recursos suficientes para poder satisfacer la petición requerida. • Control de Vigilancia: que determina si un usuario tiene los permisos adecuados para satisfacer la petición requerida. 43 • Clasificador de paquetes: que clasifican los paquetes en categorías basándose en la calidad de servicio a la que pertenecen, dependiendo de la categoría se especificará una cola y se reservará un espacio para buffers en los enrutadores. • Organizador de paquetes: que organiza el envío de paquetes dentro de cada categoría. El problema con el IntServ radica en que es poco escalable, ya que necesita mantener información en cada enrutador, y otro inconveniente es que se necesita una compleja implementación para el protocolo RSVP en los enrutadores, lo que elevaría los costos. 3.6.2 Differentiated Services (DiffServ) La arquitectura DiffServ se basa en la división del tráfico o paquetes en categorías, utilizando una marca llamada DSCP (Differentiated Service Code Point), el cual utiliza seis bits que quedan registrados en el byte de tipo de servicio (TOS) en la cabecera del datagrama. Con esto se logra controlar la cantidad de tráfico enviado a la red correspondiente a las diferentes categorías de tráfico. Dependiendo de la categoría se le asigna un correspondiente SLA (Service Level Agreement), donde los usuarios pueden solicitar un determinado caudal con base en las diferentes categorías y así se garantiza QoS a ciertas clases de tráfico. DiffServ define un comportamiento por salto (PHB), como el comportamiento de avance a través de la red que cada nodo aplica a una colección de paquetes que poseen un 44 mismo DSCP. Éste representa una descripción cualitativa de las características de latencia, jitter o pérdidas que experimenta estos paquetes al atravesar un nodo DiffServ. En el DiffServ, los enrutadores tratan cada paquete según su categoría, que viene especificada en la cabecera del mismo; los controles de vigilancia y admisión sólo se aplican a los enrutadores de entrada a la red del proveedor y en los que atraviesan fronteras entre proveedores diferentes. 3.6.3 Comparación entre IntServ y DiffServ IntServ • IntServ fue desarrollado con anterioridad a DiffServ. • Poco escalable • Brinda garantía de recursos por flujo. • Provee soporte a los mecanismos de señalización para la reserva de recursos. • Requiere una compleja implementación en los enrutadores. DiffServ • DiffServ se ha desarrollado más que IntServ. • Permite agregar flujos, el modelo es escalable. • Provee tratamiento de tráfico por medio de clases de servicios. • Tiene una fácil implementación. • Se ajusta mejor a la arquitectura de las redes IP. 45 CAPÍTULO 4: Ingeniería de tráfico en MPLS 4.1 Migración de los ISP hacia MPLS A comienzos de los 90, las redes de los ISP se componían de routers interconectados por líneas alquiladas -enlaces E1 (2 Mb/s) y E3 (34 Mb/s). A medida que Internet comenzó su crecimiento exponencial, los ISP respondieron a este reto provisionando más enlaces para proporcionar ancho de banda adicional. En este contexto, la ingeniería de tráfico adquirió cada vez más importancia para los ISP, a fin de poder usar eficientemente el ancho de banda agregado cuando se disponía de varios caminos paralelos o alternativos. En las redes troncales basadas en routers, la ingeniería de tráfico se efectuaba simplemente manipulando las métricas de enrutamiento. El control de tráfico basado en métricas supuso una solución adecuada para la ingeniería de tráfico hasta 1994 ó 1995, momento en el que las redes adquirieron una dimensión demasiado grande para este método. En 1995 el volumen del tráfico de Internet alcanzó un punto en el que los ISP necesitaban migrar sus redes para soportar enlaces troncales superiores a E3 (34 Mb/s). Afortunadamente, en ese momento aparecieron los interfaces ATM STM-1 (155 Mb/s) en conmutadores y routers. Los ISP se vieron forzados a rediseñar sus redes para poder usar las mayores velocidades soportadas por una red troncal ATM. Después de un período de un año, los enlaces entre conmutadores ATM se tuvieron que actualizar a STM-4 (622 Mb/s). Actualmente, sin embargo, las características que eran exclusivas de ATM (interfaces de alta velocidad, rendimiento determinista, ingeniería del tráfico mediante 46 definición de PVC) se pueden encontrar también en los routers de backbone. Estos avances han hecho que los ISP se replanteen continuar con un modelo de red superpuesta IP / ATM, cuya principal limitación es que requiere gestionar dos redes diferentes, una infraestructura ATM y un overlay lógico IP. La alternativa de MPLS ("Multiprotocol Label Switching”) supone un mecanismo flexible y prometedor para soportar ingeniería de tráfico, calidad de servicio extremo y enrutamiento basado en restricciones sobre las redes de los ISP. MPLS provee una clara separación entre el enrutamiento y la conmutación, y permite el despliegue de un único plano de control, MPLS, que puede utilizarse para múltiples servicios y tipos de tráfico, y sobre distintas redes. MPLS todavía no se ha desplegado masivamente en las redes de los ISP porque los routers concentradores de la antigua tecnología carecen del rendimiento, escalabilidad y capacidad de proceso por flujo necesarios para implementarlo eficazmente. Y no todos los ISP están dispuestos a realizar las inversiones en la compra de los routers de nueva generación inmediatamente, sino que esperan hacerlo gradualmente. Por otro lado, las redes IP/MPLS no están preparadas todavía para soportar toda la gama de servicios de ATM, y aunque el tipo de tráfico que crece más rápidamente en la actualidad es IP, los servicios de ATM y Frame Relay siguen creciendo. Para aquellos proveedores que disponen de una plataforma ATM, y quieren desarrollar nuevos servicios IP manteniendo el soporte de sus servicios ATM y Frame Relay, se ha creado la funcionalidad "ships in the night" en los conmutadores ATM. Ésta permite la coexistencia de un plano de control ATM y un plano de control MPLS en el mismo equipo. Los dos 47 planos de control son co-residentes en el mismo equipo, pero operan independientemente y simultáneamente sobre cada puerto. Esto permite a los ISP introducir MPLS poco a poco en la red, dividiendo una red física ATM en dos topologías disjuntas, sin embargo lo más deseable es llegar a migrar completamente a MPLS, pues la orientación a conexión de MPLS y la conmutación basada en etiquetas posibilitan los siguientes aspectos: • Ingeniería de tráfico: Una de las principales ventajas que aporta la implantación de MPLS en la red de datos es la ingeniería de tráfico para optimizar la utilización de los enlaces entre los routers. En ausencia de ingeniería de tráfico, el tráfico IP sigue el camino más corto, ignorando rutas alternativas a través de la red. Esto conduce a cuellos de botella en enlaces fuertemente cargados ("hiperagregación"), mientras que otros enlaces permanecen subutilizados. La utilización del enrutamiento basado en restricciones de red y caminos conmutados conduce a una red cargada de forma más uniforme y permite realizar un control de congestión. Una red con ingeniería de tráfico basada en MPLS tendrá los enlaces igualmente cargados, dando como resultado una red con mayor robustez contra los picos de tráfico y unas mayores prestaciones globales. • Servicios de conectividad VPN multitecnología: Los caminos conmutados de MPLS llamados LSP (Label Switched Path) permiten provisionar servicios de interconexión corporativos de forma segura, puesto que los paquetes son conmutados mirando sólo las etiquetas. Esto es, MPLS permite transportar de forma transparente y conmutada cualquier tipo de información entre dos puntos. 48 • Calidad de servicio: Por medio de los LSP, se pueden proporcionar calidades de servicio diferenciadas, sin los problemas que presentaban IntServ y DiffServ sobre las arquitecturas con capa de red sin conexión. En MPLS la QoS se puede implementar mediante una combinación de TE (Traffic Engineering) sobre MPLS con el modelo de servicios diferenciados DiffServ. • Posibilidad de ofrecer servicios orientados a conexión en entornos LAN/MAN: MPLS permite ofrecer Redes Privadas Virtuales de Nivel 21, en las cuales el camino MPLS a través de la red del ISP es un circuito virtual entre dos ubicaciones de cliente. Los circuitos virtuales de nivel 2 son una red MPLS superpuesta sobre la red troncal del proveedor. 4.2 Aspectos básicos de la arquitectura MPLS MPLS (Multiprotocol Label Switching) es una arquitectura orientada a conexión, que actúa como una estructura de transporte de datos estándar creada por la IETF y establecido en el RFC 3031, es un mecanismo de conmutación creado para proporcionar circuitos virtuales en las redes IP. 1 Para mayor información sobre VPN consultar los documentos de la IETF RFC 2547 y RFC 4364. 49 4.2.1 Concepto de Etiqueta El RFC 3031, “Multiprotocol Label Switching Architecture” define etiqueta como un identificador continuo corto de longitud fija, que es utilizado para identificar un FEC (Forwaring Equivalence Class), usualmente aplicado de forma local. Básicamente una etiqueta es un valor que se le añade a un paquete, de forma que le indica a la red hacia donde debe ir el paquete. Una etiqueta está compuesta por 20 bits, lo que significa que existen 1.048.576 posibles valores para ésta. Un paquete puede tener múltiples etiquetas almacenadas en la pila de las etiquetas. La pila de las etiquetas es un grupo de una o más etiquetas sobre un paquete. En cada salto en la red, sólo la etiqueta que se encuentre en la parte superior de la pila es considerada. La etiqueta que el enrutador LSR (Label Switched Router) utiliza para hacer avanzar el paquete en el plano de datos corresponde a la etiqueta que fue asignada y distribuida en el plano de control. Cuando se colocan etiquetas sobre un paquete, el valor de 20 bits de la etiqueta es codificado con piezas de información adicionales que ayudan en el avance de los paquetes etiquetados a través de la red. Figura 4.1 Cabecera MPLS La cabecera está formada por 32 bits, de los cuales 20 bits son para el valor de la etiqueta (Label). Los 12 bits adicionales se distribuyen de la siguiente forma: 50 • EXP: Los 3 bits utilizados para EXP son técnicamente reservados para usos experimentales. En la mayoría de las implementaciones MPLS, estos bits se utilizan principalmente para llevar información relativa a la calidad de servicio (QoS). • S: El bit S se utiliza para indicar que el fondo de la pila se ha alcanzado (S=1), cuando S=0 se esta indicando que hay más etiquetas añadidas al paquete. Este indicador es útil ya que es muy común que un paquete tenga más de una etiqueta. • TTL: Los 8 bits Time To Live se utilizan en la mayoría de casos para realizar una copia directa del encabezado IP TTL. MPLS permite manejar distintos niveles de etiquetas, lo cual le permite establecer una red jerárquica y realizar agregación de LSPs en zonas específicas de la red. 4.2.2 Plano de control y plano de datos El plano de control es el lugar en donde la información de enrutamiento y la demás información de control es intercambiada entre enrutadores LSR. Se puede decir que MPLS es un protocolo conducido por el plano de control, lo que significa que la información de control intercambiada debe estar en el lugar antes de que al primer paquete de datos se le permita avanzar en la red. El avance de paquetes de datos a través de la red se lleva acabo en el plano de datos. 4.2.3 FEC y enrutadores LSR y LER En las arquitecturas de capa de red sin conexión mientras un paquete viaja de un enrutador al siguiente, cada enrutador toma una decisión de reenvío independiente para ese paquete. Es decir, cada enrutador analiza la cabecera del paquete, y elige de forma 51 independiente el siguiente salto para el paquete, basado en su análisis de la cabecera del paquete y los resultados de correr un algoritmo de encaminamiento. MPLS es una arquitectura orientada a conexión, en la cual se hace una partición del conjunto de todos los posibles paquetes que ingresan a la red en clases de equivalencia denominadas “Fowarding Equivalent Classes” (FEC). Entonces una FEC es un grupo de paquetes que serán reenviados de la misma manera en el dominio MPLS. Una vez asignados los paquetes a una determinada FEC, éstos son indistinguibles desde el punto de vista de su reenvío. Por su parte, la RFC 3031 define la existencia de dos tipos de enrutadores en MPLS, los LSR (Label Switched Router) que corresponden a los nodos interiores de la topología de red y los que se encuentran en los bordes de la red llamados LER (Label Edge Router). En MPLS, la asignación de un paquete particular a una FEC particular se hace sólo una vez, cuando el paquete ingresa a un LER de la red. Una vez que se definen todos los enrutadores por los que circulará una determinada FEC, se establece un acuerdo de cual será la etiqueta de envío en cada nodo, entonces se establece un camino virtual denominado LSP, el cual corresponde al camino que atravesará el paquete etiquetado a través de la red desde que se le añaden etiquetas hasta que se le remueven. Cuando un paquete etiquetado es recibido por un enrutador MPLS se examina la etiqueta que se encuentra en el tope de la pila. Basándose en el contenido de la etiqueta el enrutador puede realizar alguna de las siguientes operaciones: empujar (Push), sacar (Pop) o intercambiar (Swap). 52 En una operación “Swap” la etiqueta es cambiada por otra y el paquete es enviado en el camino asociado a esta nueva etiqueta. En una operación “Push” una nueva etiqueta es empujada por encima de otra (si es que existe). De existir otra etiqueta, la nueva etiqueta “encapsula” a la anterior. En una operación “Pop” la etiqueta es removida del paquete, lo cual puede revelar una etiqueta interior (de haberse realizado un encapsulamiento anteriormente). A este proceso se le llama “Desencapsulado” y es usualmente realizado por el LER. Cuando un paquete se reenvía a su siguiente salto, la etiqueta se envía junto con ella; es decir, los paquetes se “etiquetan” antes de que se reenvíen. La especificación del LSP se realiza por medio de protocolos extendidos de enrutamiento IP, y la distribución de etiquetas a lo largo de estas trayectorias es lograda por protocolos de distribución de etiqueta (LDP). En síntesis, en el paradigma de reenvío de MPLS, una vez que un paquete es asignado a un FEC, no se hace ningún otro análisis de la cabecera de la capa de red del paquete por los enrutadores subsecuentes; todo el reenvío es conducido por las etiquetas. Más bien, la etiqueta se utiliza como un índice en una tabla que especifica el salto siguiente, y una nueva etiqueta. La vieja etiqueta se substituye por la nueva etiqueta, y el paquete se remite a su salto siguiente. El último nodo de la red para un paquete, eliminará la etiqueta y enviará el paquete hacia fuera de la red MPLS tal como arribó al dominio, como se puede observar en la figura 4.2: 53 Figura 4.2 Arquitectura MPLS [15] 4.3 Ingeniería de tráfico en MPLS 4.3.1 Conceptos sobre ingeniería de tráfico Para poder comprender cómo es que se logra hacer ingeniería de tráfico con MPLS, primero es necesario entender el concepto en sí de Ingeniería de Tráfico (TE). Cuando se trata con redes que están en constante crecimiento y expansión, se tiene que existen dos tipos de ingenierías, la ingeniería de red y la ingeniería de tráfico. La ingeniería de red consiste en la manipulación de una red para ajustarla a un determinado tráfico. En ésta se realizan predicciones acerca de cómo fluirá el tráfico a través de una red para después ordenar los circuitos y dispositivos de red apropiados (routers, switches y otros más). La ingeniería de tráfico consiste en la manipulación del tráfico para ajustarlo a una determinada red. Básicamente se refiere a la capacidad de mover el tráfico a través de una 54 red, de modo que si existe tráfico en un enlace congestionado, éste sea movido a un enlace cuya capacidad está en desuso. 4.3.2 Definición formal de ingeniería de tráfico La ingeniería del tráfico (TE) se refiere al proceso de seleccionar las trayectorias de los paquetes basándose en los datos de tráfico para facilitar operaciones eficientes y confiables de la red mientras que simultáneamente optimiza la utilización de los recursos de la red y el rendimiento del tráfico. Específicamente el RFC 2702, establece que la ingeniería de tráfico concierne a la optimización del rendimiento de una red y abarca generalmente el uso de la tecnología y de los principios científicos para realizar diversas funciones: mediciones de tráfico, modelado de tráfico y redes, control del tráfico en Internet, y el uso de tal conocimiento y técnicas para alcanzar objetivos específicos de funcionamiento. Más aún, los principales aspectos de la ingeniería de tráfico que son concernientes a MPLS son medida y control. 4.3.3 Objetivos de la ingeniería de tráfico Según el memorando RFC 2702 la meta fundamental de la ingeniería de tráfico es calcular la trayectoria a partir de un nodo dado a otros, tal que la trayectoria no viole ninguna restricción (ancho de banda/requisitos administrativos) y sea óptima con respecto a una cierta escala establecida. Una vez que se calcule la trayectoria, la ingeniería de tráfico es responsable de establecer y de mantener el estado de la expedición a lo largo de tal trayectoria. 55 Ahora puntualizando, se tiene que los principales objetivos de la ingeniería de tráfico en MPLS son: • Mover el tráfico del camino establecido por el IGP (Interior Gateway Protocol) a un camino menos congestionado. • Utilizar el exceso de ancho de banda sobre los enlaces sub-utilizados. • Maximizar la utilización de los enlaces y nodos de la red. • Aumentar la confiabilidad del servicio. • Alcanzar requerimientos impuestos, los cuales pueden ser de dos tipos: orientados al tráfico que incluyen los aspectos que mejoran la QoS de las corrientes del tráfico, u orientados a los recursos que incluyen los aspectos referentes a la optimización de la utilización de lo recursos. Las acciones de control que la ingeniería de tráfico puede tomar para cumplir con sus objetivos incluyen: Modificación de los parámetros de gestión de tráfico, modificación de los parámetros asociados al ruteo, y modificación de los parámetros y atributos asociados con los recursos. 4.3.4 Aspectos generales de la ingeniería de tráfico en MPLS Existen básicamente tres problemas fundamentales que se relacionan con la ingeniería de tráfico sobre MPLS, estos son: • Cómo mapear paquetes en FECs. • Cómo mapear FECs en troncales de tráfico. • Cómo mapear las troncales en la red física. 56 Los IGPs existentes no son adecuados para la ingeniería del tráfico. Las decisiones del enrutamiento se basan sobre todo en los algoritmos del camino más corto (SPF) que utilizan una métrica aditiva y no consideran características del tráfico ni la disponibilidad de ancho de banda. La manera más fácil de proporcionar tales características sería utilizar un modelo superpuesto (overlay model), que permita topologías virtuales sobre las redes físicas. La topología virtual se construye a partir de los enlaces virtuales que aparecen como enlaces físicos para los protocolos de enrutamiento, IGP. Más allá, el modelo de superposición debe poder proporcionar servicios adicionales para soportar el control de tráfico y de recursos, incluyendo: enrutamiento con restricciones a nivel de los circuitos virtuales (VC), funciones de moldeamiento y de descarte de tráfico (policing), compresión de trayectorias y soporte para la configuración explícita de los caminos virtuales, entre otras. Los componentes que deben estar presentes en la arquitectura para soportar la ingeniería de tráfico incluyen: • Distribución de la información, referido a la capacidad de enviar la información acerca de la topología de la red y restricciones pertinentes a los enlaces. • Un algoritmo de selección de la trayectoria, éste debe calcular y elegir las mejores trayectorias de acuerdo a las restricciones. • Configuración de las rutas, por medio de protocolos como RSVP-TE, MPLS-TE. 57 • Control de admisión a los enlaces, decide cual camino puede tener los recursos necesarios. • Reenvío de información a través de los caminos. MPLS es muy significativo para la ingeniería de tráfico porque puede potencialmente disponer de la mayor parte de la funcionalidad existente del modelo de superposición, de una manera integrada, y a un costo más bajo que el resto de las alternativas actuales. Además, MPLS ofrece la posibilidad de automatizar algunos aspectos de la función de la ingeniería de tráfico. Específicamente el atractivo de MPLS para la ingeniería de tráfico, puede ser atribuido a los siguientes factores: • LSP explícitos que no son restringidos por el paradigma de reenvío basado en el destino y que pueden ser creados fácilmente con procesos administrativos manuales o con la acción automatizada de los protocolos subyacentes. • Los LSP puede ser mantenidos eficientemente. • Las troncales de tráfico pueden ser mapeadas sobre los LSPs. • Un conjunto de atributos puede ser asociado con las troncales de tráfico, las cuales modulan sus características de comportamiento. • Un conjunto de atributos puede ser asociado con los recursos, los cuales restringen la colocación de LSPs y troncales de tráfico a través de ellas. • MPLS permite la agregación y la desagregación del tráfico mientras que la destinación clásica basada en el reenvío IP permite solamente la agregación 58 • Con MPLS es relativamente sencillo integrar un marco de enrutamiento con restricciones. • Una buena implementación de MPLS puede ofrecer gastos significativamente más bajos que las otras alternativas. 4.3.5 Principales Herramientas de MPLS para realizar ingeniería de tráfico Las principales herramientas de MPLS para realizar la ingeniería de tráfico, son el ruteo basado en restricciones (CBR) y el balanceo de carga. El CBR busca caminos entre puntos de la red que satisfagan un conjunto de restricciones explícitas. El balanceo de carga por su parte plantea el problema de dividir el tráfico de un agregado de flujos entre diversos caminos basados en algún criterio de optimalidad de la red. A continuación se ampliarán detalles sobre ambas. Ruteo basado en restricciones La principal característica de MPLS que le permite realizar ingeniería de tráfico es el ruteo explícito. Una ruta explícita es una secuencia de nodos lógicos entre un nodo de ingreso y uno de egreso que se definen y establecen desde un nodo de la frontera. Si el nodo de ingreso quiere establecer una ruta que no sigue el camino que sigue por defecto el protocolo de ruteo IP, debe utilizar un protocolo de distribución de etiquetas que soporte la definición de rutas explícitas. Existen dos definidos por el IETF: CR-LDP (Constrained Routing Label Distribution Protocol) y RSVP (Resource Reservation Protocol). 59 La ruta LSP puede ser restringida por la capacidad de recursos y la capacidad de los nodos de cumplir con los requerimientos de QoS. Esto lleva al concepto de “constrained route" (CR) o ruta con restricciones. El CBR constituye un paradigma de enrutamiento que coexiste con la topología de saltos (hop by hop) manejada por los IGPs. Una estructura de CBR utiliza los siguientes parámetros como entradas: • Los atributos asociados con las troncales de tráfico. • Los atributos asociados con los recursos. • Otra información del estado de la topología. Basado en esta información, un proceso de CBR en cada nodo automáticamente calcula rutas explícitas para cada troncal de tráfico originada desde el nodo. Específicamente en el caso de MPLS, se determina un LSP que satisfaga los requerimientos demandados. Un CBR puede reducir grandemente el nivel de configuración manual y la intervención requerida para actualizar las políticas de la ingeniería de tráfico. Una estructura CBR debe por lo menos tener la capacidad de obtener automáticamente una solución factible básica para el problema de la colocación del camino del tráfico troncal. En general, el problema de CBR se sabe que resulta ser insuperable para la mayoría de las restricciones realistas. No obstante, en la práctica un simple algoritmo heurístico 60 puede ser utilizado para encontrar una ruta factible si es que existe. Este consta de dos pasos: • Primero descartar recursos que no satisfagan los requerimientos de los atributos de las troncales de tráfico. • Luego correr un algoritmo de SPF en el conjunto de los recursos que no fueron descartados Entonces, si una trayectoria factible existe para una troncal de tráfico individual, el simple procedimiento anteriormente explicado la encontrará. Reglas adicionales se pueden especificar para romper lazos y realizar otras optimizaciones. Los lazos generalmente deben estar rotos para reducir al mínimo la congestión. Cuando múltiples troncales de tráfico están por ser enrutadas, el algoritmo antedicho puede no encontrar siempre una trayectoria factible, aun cuando ésta exista. Balanceo de carga EL RFC 2702, habilita a realizar balanceo o reparto de carga entre diferentes LSPs. Esta herramienta brinda la posibilidad de enrutar troncales cuyo tráfico es superior a las posibilidades de un único camino en la red, y permite también mejorar el uso de recursos de la red. Para realizar reparto de carga se deben tener en cuenta dos aspectos. El primero es el algoritmo con el cual se deciden los coeficientes de reparto de carga entre los LSPs. El segundo es el mecanismo (una vez fijados los coeficientes) que se utiliza para asignar los paquetes a uno u otro LSP. 61 En muchos contextos prácticos, el tráfico agregado entre dos nodos puede ser tal que ningún enlace puede llevar la carga. No obstante, el flujo agregado puede ser menor que el flujo permitido máximo a través de un algoritmo “min-cut”, el cual establece que el flujo máximo en una red es dictado por su embotellamiento, por lo cual entre cualesquiera dos nodos, la cantidad de flujo de un nodo al otro no puede ser mayor que el conjunto más limitado de enlaces en alguna parte entre los dos nodos. En este caso, la única solución factible es dividir apropiadamente el tráfico agregado en subflujos y enrutar los subflujos a través de las múltiples trayectorias entre los dos nodos. En un dominio MPLS, este problema puede ser tratado creando una instancia física del flujo entre los múltiples troncales pertenecientes a los dos nodos, de forma que cada troncal lleve una proporción del tráfico agregado. Por lo tanto, se requiere de medios flexibles de asignación de carga para transportar las troncales que llevan tráfico entre un par de nodos. Específicamente, desde una perspectiva operacional, en las situaciones donde se han garantizado troncales de tráfico paralelas, sería útil tener cierta propiedad que pueda ser utilizada para indicar la proporción relativa de tráfico que puede ser llevada por cada troncal. Los protocolos subyacentes entonces mapearán la carga sobre los troncales de tráfico según las proporciones especificadas. 62 CAPÍTULO 5: Aseguramiento de la QoS en una red similar a la RAI del ICE por medio de ingeniería de tráfico en MPLS Para proveer QoS en los diferentes tipos de aplicaciones, una red debe satisfacer dos condiciones necesarias. La primera condición consiste en que se debe garantizar un ancho de banda para una aplicación. La segunda condición consiste en que conforme una aplicación va atravesando la red, ésta debe recibir un tratamiento según la clase a la que pertenezca. Si se satisfacen ambas condiciones se pueden alcanzar altos niveles de garantía de QoS, que a fin de cuentas, es lo que buscan tanto los ISPs como los usuarios. 5.1 Calidad de Servicio (QoS) con ingeniería de tráfico en MPLS La arquitectura MPLS en sí no puede proveer calidad de servicio, por lo que utiliza la ingeniería de tráfico (TE) como una herramienta, la cual combinada con un modelo de QoS como los servicios diferenciados (DiffServ) puede proveer y garantizar QoS. MPLS se combina con DiffServ por que éste es más simple y más escalable que IntServ. 5.1.1 Combinación de ingeniería de tráfico en MPLS con DiffServ Como se trató en el capítulo 3 DiffServ representa una solución escalable y operacionalmente simple ya que no requiere de señalamientos ni estados por-flujo, sin embargo, ésta no garantiza calidad de servicio, por que no influye en la determinación de un camino o ruta para los paquetes, lo que provoca que durante un congestionamiento o una falla, hasta los paquetes que poseen alta prioridad no se les garantice ancho de banda. 63 Por el otro lado, MPLS, establece trayectorias específicas para los paquetes que en combinación con el ruteo basado en restricciones (CBR) pueden garantizar un ancho de banda para los FECs. Sin embargo MPLS en su forma básica no especifica tratamientos de flujos por medio de una diferenciación basada en clases. Combinando las clasificaciones que realiza DiffServ y sus comportamiento por saltos (PHBs) con la ingeniería de tráfico de MPLS es que se obtiene una verdadera calidad de servicio. A continuación se describirán los mecanismos por los cuales se realiza el soporte de MPLS con DiffServ, éstos están establecidos en el estándar RFC 3270 [MPLSDiffServ], y básicamente éste se basa en la utilización de dos tipos de LSPs. El RFC 3270 define dos tipos de LSPs: E-LSP (EXP-inferred-PSC LSP) Es un tipo de LSP capaz de llevar múltiples clases de tráfico simultáneamente. En un E-LSP, la etiqueta es utilizada como un indicador del destino del FEC, y el espacio de 3 bits correspondiente a EXP se usa como un indicador de la clase de un flujo con el objetivo de seleccionar su PHB, incluyendo tanto su prioridad de extracción (drop priority) y su prioridad de calendarización (scheduling priority).El tamaño de este espacio implica que un E-LSP puede transportar hasta ocho clases de servicios. L-LSP (Label-only-inferred-PSC LSP) Es un tipo de LSP que únicamente puede transportar una sola clase de tráfico. En un L-LSP, la etiqueta es utilizada como un indicador tanto para el FEC como para la prioridad de calendarización (scheduling priority). Mientras que el espacio EXP se utiliza únicamente para la indicación de la prioridad de extracción (drop priority). 64 Tabla 5.1 Comparación entre E-LSPs y L-LSPs. E-LSP L-LSP Transporta una o más clases de tráfico por Transporta solamente una clase de tráfico LSP por LSP El PHB se deduce del espacio EXP El PHB se deduce de la etiqueta y del espacio EXP El señalamiento DiffServ es opcional El señalamiento DiffServ es requerido Los LSRs deducen la clase asociada a un paquete por medio de la etiqueta y determinan el PHB exacto usando la etiqueta en combinación con el espacio EXP. El uso de E-LSPs y de L-LSPs en una red MPLS no es mutuamente exclusivo. Los LSRs mantienen un contexto de etiquetado de DiffServ. Este contexto es el que indica el tipo de LSP (E-LSP o L-LSP), los PHBs que soporta el LSP y el mapeo entre la encapsulación del paquete y el PHB. Para las etiquetas de entrada, ese mapeo define como el LSR deduce el PHB de la encapsulación del paquete. Para las etiquetas de salida el mapeo define como el LSR codifica el PHB. La figura 5.1 muestra una red MPLS usando L-LSPs y E-LSPs simultáneamente, con diferentes clases de tráfico. 65 Figura 5.1 Red MPLS combinando L-LSPs y E-LSPs [4] En este ejemplo, hay dos E-LSPs entre el nodo E y el nodo D y dos L-LSPs entre el nodo A y el nodo D. La red soporta tres clases: EF, AF1 y AF2. En este ejemplo el nodo C está transportando tanto E-LSPs como L-LSPs, este nodo utiliza el contexto de etiqueta de DiffServ para determinar el tipo de LSP y el mapeo exacto que debe de utilizar para deducir el PHB de la encapsulación del paquete. Los routers LSR sirven los paquetes de acuerdo a sus PHB sin importar el LSP o su tipo. Los detalles del LSP influencian la determinación del PHB, pero el PHB ultimadamente es quien determina el tratamiento de los paquetes. Los nodos A y E usan un tipo de LSP exclusivamente, sin embargo, cada uno de estos puede usar alternativamente una combinación de E-LSPs y de L-LSPs para alcanzar el nodo D. 66 5.1.2 Flujo de paquetes con ingeniería de tráfico en MPLS con DiffServ La figura 5.2 ilustra cómo se mejora la calidad de servicio (QoS) y el enrutamiento de una red utilizando MPLS con DiffServ. Figura 5.2 Flujo de paquetes en MPLS con DiffServ [13] En la figura 5.2, el camino número (1), representa la trayectoria seguida por los paquetes en ausencia de ingeniería de tráfico en MPLS, ésta normalmente estaría definida por el protocolo de enrutamiento basado en el camino más corto al destino final. El camino número (2) representa la trayectoria seguida por los paquetes utilizando ingeniería de tráfico en MPLS sin DiffServ, este camino pudo haber sido escogido debido a que presentaba un ancho de banda suficiente para servir a una FEC dado, sin embargo, este ancho de banda no está asociado con ninguna clase de servicio específico, por lo que el tráfico con prioridad como VoIP puede que no tenga un ancho de banda para hacerle frente 67 a colas en espera. El camino número (3) representa la trayectoria seguida por los paquetes utilizando ingeniería de tráfico en MPLS con DiffServ, en éste se realizan reservas de ancho de banda dependiendo de especificaciones basadas en la prioridad de colas. Se establece una trayectoria LSP tipo L-LSP donde se especifica una reservación de ancho de banda para un tipo de cola en espera en particular, de esta forma el tráfico es enrutado a través de la trayectoria (3) vía LSR-3 y LSR-2 garantizando QoS. El soporte de MPLS con DiffServ satisface las dos condiciones necesarias para brindar QoS: un ancho de banda garantizado y un tratamiento de colas diferenciado. MPLS se encarga de satisfacer la primera condición ya que hace que los flujos sigan trayectorias, las cuales poseen un ancho de banda garantizado; y a través de esas trayectorias DiffServ satisface la segunda condición brindando un tratamiento de colas diferenciado. 5.2 Protección y restauración de redes IP/MPLS Los administradores de red como es el caso del ICE conocen la importancia de implementar mecanismos de protección y restauración en caso de que alguna parte de la red presente fallas. Existen muchos factores que pueden provocar fallas en una red. Desde la perspectiva de los enrutadores, existen dos tipos de fallos en una red: fallos de enlace y fallos de nodo. Un fallo de enlace puede ser provocado por algún corte en la fibra óptica, o un problema en un ADM (Add-drop Multiplexer) o muchas posibles causas más. Existen distintas posibles causas de fallo en un nodo, las cuales van desde problemas de alimentación, colapso de un router, hasta fallos provocados por falta de mantenimiento a los enrutadores. 68 Es altamente deseable reducir los efectos negativos de estos fallos, tales como la pérdida de paquetes de información. Por lo que la ingeniería de tráfico en MPLS y su habilidad en el manejo de tráfico por la red utilizando el protocolo IGP, ayudan a atenuar las pérdidas de paquetes asociadas a fallos de enlace o de nodo en la red. La habilidad de la ingeniería de tráfico en MPLS de hacer esto es conocida como FRR (Fast Reroute) o simplemente protección con ingeniería de tráfico en MPLS. 5.2.1 FRR con ingeniería de tráfico en MPLS Básicamente el FRR consiste en calcular un nuevo camino o trayectoria para un LSP después de que el camino existente colapsa. FRR se asemeja a la protección local al utilizar TE LSPs previamente señalados de reserva para re-enrutar el tráfico en caso de falla. El nodo más cercano al de la falla es el responsable de re-enrutar el tráfico y pasa a ser el headend de reserva para el TE LSP. Por lo tanto, no ocurre ningún tipo de retardo de propagación en una condición de falla, al igual que no existe ningún retardo en establecer un camino para que el nuevo TE LSP re-enrute el tráfico. FRR es capaz de re-enrutar tráfico en 10 ms. 5.2.2 Protección con MPLS TE Protección, en el contexto de una rápida restauración, hace referencia a la aplicación de ciertos recursos para asegurar una mínima pérdida de tráfico ante una eventual falla. Estos recursos de protección pueden ser vistos ya sea como recursos físicos (enlaces o nodos) o como recursos lógicos (los LSPs que cruzan un enlace o un nodo). 69 El preestablecimiento de recursos de protección es fundamental para cualquier estrategia de protección. Si no hay un preestablecimiento de recursos, éstos se tendrían que definir después de que se diera una falla, lo cual podría significar muchas pérdidas. 5.2.3 Tipos de protección Existen diferentes tipos de esquemas de protección, los cuales se pueden descomponer de la siguiente forma: • Protección de Trayectoria: la protección de trayectoria consiste en el establecimiento de un camino LSP adicional en paralelo con un camino LSP existente, en donde el LSP adicional es utilizado únicamente en caso de fallo. Este LSP es algunas veces llamado LSP de reserva, secundario o en espera. Éste no es utilizado para transportar tráfico excepto durante una condición de falla. Los LSPs de reserva se construyen a lo largo de trayectorias que pueden ser tan diversas en longitud como en número, como lo son los LSP que éstas protegen. Tanto el LSP primario como el de reserva son configurados en el headend. Los LSP primarios y los de reserva deben tener las mismas restricciones. Si un LSP primario tiene una reserva de ancho de banda de 100 Mbps, el LSP también debe reservar 100Mbps. De esta forma las características extremo-a-extremo permanecen iguales sin importar cual LSP se esté utilizando para transportar tráfico. Esto implica también que se está reservando un ancho de banda que no va a ser utilizado la mayoría del tiempo y que podría ser utilizado por otros LSPs en la red, para ser usado únicamente en caso de falla (mucho menos del 50% del tiempo). 70 Figura 5.3 Protección de Trayectoria [3] • Protección Local: la protección local se da cuando un túnel de protección o de reserva es construido para cubrir solamente un segmento de un LSP primario. En una protección local, el LSP de reserva se enruta alrededor del enlace o nodo que falló. La protección local presenta grandes ventajas con respecto a la protección de trayectoria, ya que presenta una recuperación más rápida en caso de fallo, escalabilidad 1: N (un LSP de reserva protege N LSP primarios) y un menor consumo de recursos de red entre otras. Existen dos tipos de protección local: • Protección de Enlace: En muchas redes hoy en día, es común encontrar enlaces con un alto ancho de banda transportando flujos de información importante y flujo de información que no es considerada tan importante. Si se le aplica ingeniería de tráfico MPLS a estas redes, estos flujos importantes se 71 transforman en LSPs importantes. Estos LSPs pueden estar transportando información crítica o datos que son sensibles al tiempo que requieren una respuesta en tiempo real. En estos casos, es de suma importancia proteger estos LSP importantes, mientras se ignora proteger los LSPs de menor importancia. El FRR permite proteger algunos (los que se consideren más importantes) túneles con ingeniería de tráfico o todos ellos. Con la protección de enlace, se pueden proteger los enlaces que están trasportando estos LSPs importantes utilizando túneles pre-señalados de reserva para que puenteen el enlace protegido. Figura 5.4 Protección de Enlace [3] • Protección de Nodo: Es importante proporcionar seguridad a un LSP primario en caso de que se presente un fallo en un nodo en el otro extremo de un enlace, sobre todo si este nodo es utilizado cuando se da una protección de 72 enlace, provocando un fallo en la protección misma. Por eso, es importante proporcionar protección a nodos estratégicos en la red de la misma forma como se realizó con los enlaces importantes. Figura 5.5 Protección de Nodo [3] La protección de enlace y de nodo presentan una escalabilidad diferente, resuelven diferentes tipos de problemas y presentan diferentes restricciones una con respecto a la otra. En una red no es necesario proteger todos sus elementos, sino, proteger únicamente aquellos recursos que se consideren críticos como los enlaces de núcleo de red más importantes o proteger LSPs que transportan tráfico de voz sobre IP (VoIP) o tipos específicos de tráfico de usuarios o clientes específicos los cuales poseen SLAs con los ISPs como es el caso del ICE. 73 5.3 Funcionamiento de red troncal con MPLS TE Para el diseño de redes troncales como la de la RAI del ICE, existen varias opciones con diferentes niveles de complejidad. La mayoría de los diseños utilizan DiffServ como su modelo base. Algunos otros diseños incorporan ingeniería de tráfico en MPLS para mejorar el rendimiento de las características de la red. Existen muchos factores que pueden influenciar en la selección del diseño más apropiado para una red en particular. Aunque los servicios que una red provee tienen gran importancia, el ancho de banda y los costos operacionales tienen un rol importante en la selección del diseño. Una red troncal necesita un diseño escalable y flexible que brinde QoS y que pueda satisfacer un rango amplio de servicios. Algunos de estos servicios pueden transportar un rango de diferentes aplicaciones como voz, video y datos, las cuales presentan diferentes requerimientos dependiendo de la naturaleza del servicio. 5.3.1 Red Troncal “Best Effort” con ingeniería de tráfico en MPLS Una red troncal “best effort” puede ser mejorada desplegando ingeniería de tráfico MPLS para mejorar el control sobre la utilización de los enlaces y para lograr una mejor optimización del ancho de banda. La ingeniería de tráfico en MPLS provee control de admisión, permitiendo manejar la cantidad de carga de tráfico en un enlace, tal como se muestra en la figura 5.6. 74 Figura 5.6 Control de la carga de enlace [4] La ingeniería de tráfico en MPLS también permite desarrollar un ruteo basado en restricciones que puede funcionar como un agente para determinar la disponibilidad del ancho de banda. Estas mejoras en el enrutamiento permiten que el tráfico aproveche los enlaces subutilizados y así evitar un congestionamiento a nivel troncal. 5.3.2 Red Troncal DiffServ con ingeniería de tráfico en MPLS Como se analizó anteriormente se puede realizar una combinación de DiffServ con ingeniería de tráfico en MPLS para lograr una diferenciación del tráfico y algún grado de optimización. En este caso la ingeniería de tráfico en MPLS puede proveer control sobre la utilización de los enlaces y ayudar a obtener una mejor utilización del ancho de banda existente, mientras DiffServ proporciona una diferenciación del tráfico en el plano de datos. Se puede utilizar la ingeniería de tráfico en MPLS como un buscador de enlaces para evitar congestionamientos en la red, mientras que la configuración DiffServ actúa como una red de seguridad en caso de que un enlace experimente congestionamiento por alguna falla en la red. 75 Como otra alternativa, se puede usar la ingeniería de tráfico en MPLS para controlar la carga permitida de una clase DiffServ. En este caso el máximo ancho de banda reservado para cada enlace se fija de acuerdo al ancho de banda que necesitaría cada una de las clases DiffServ por lo que se podría controlar la capacidad de los enlaces para cada tipo de clase utilizando la configuración del DiffServ a la vez que controla la carga de tráfico para cada uno de éstos utilizando ingeniería de tráfico en MPLS, como se ilustra en la figura 5.7. Figura 5.7 Control de la capacidad por clase y de la carga de acuerdo al tipo de clase [4] 5.3.3 Red Troncal con MPLS TE FRR Se puede utilizar FRR con ingeniería de tráfico en MPLS para cualquier diseño de red troncal descrito anteriormente. El FRR incrementa la disponibilidad de la red a la hora de que se presenten fallas en ésta. El FRR también proporciona un control más detallado del tráfico que se está protegiendo, de forma que se puedan establecer diferentes TE LSPs con diferentes requerimientos de protección. De esta forma se puede controlar cuál tráfico 76 está protegiendo el FRR al seleccionar apropiadamente cuál tráfico viaja a través de TE LSPs específicos. 5.4 Diseño estratégico de red con ingeniería de tráfico en MPLS aplicado a la RAI del ICE El diseño lógico de este modelo está orientado a lograr un acoplamiento completo de TE LSPs en algún nivel de la red RAI del ICE, normalmente se aplica a nivel troncal en los routers de Core o núcleo, ya que así se logra obtener un mayor control sobre el tráfico que está entrando a la WAN, manipulando el tráfico en todos los puntos por los que entra al núcleo de la red. 5.4.1 Escalabilidad de los LSPs Uno de los aspectos más importantes para tomar en cuenta a la hora de realizar un diseño de red, es la escalabilidad. En este caso, ésta dependerá del lugar en donde se coloque la nube con ingeniería de tráfico. Para esto existen dos posibles opciones, las cuales dependerán de la arquitectura de la red: • Acoplamiento completo entre WRs • Acoplamiento completo entre ARs El número de LSPs va a variar dependiendo del tipo de acoplamiento utilizado. En ambos casos se debe determinar el número de LSPs para los cuales un router será considerado: un “headend”, un “midpoint” y un “tailend”. 77 5.4.2 Datos de la RAI del ICE y Definición de Variables Tabla 5.2 Tipos de routers Tipo Definición AR Router de Acceso DR Router de Distribución WR WAN Router o router de red Troncal o de núcleo Tabla 5.3 Componentes de red presentes en la RAI del ICE Área WRs DRs ARs 0100 (Núcleo) 6 0 0 0110 0 4 17 0120 0 4 18 0130 0 3 17 0140 0 6 50 0150 0 2 14 0160 0 7 91 Total = 6 26 207 78 Tabla 5.4 Definición de variables Variable Definición M Número de LSPs para los cuales un router se considera un punto medio Wn Número de WRs en la red Dn Número de DRs en la red An Número de ARs en la red Ln Número de LSPs en la red (varía de acuerdo al lugar donde se diseñe) D Número promedio de enlaces configurados para TE relacionados a un router Número de router TE MPLS en una porción de la red Rn Rn = Wn (En acople total entre WRs) Rn = Wn+DR+AR (En acople total entre ARs) Fn Número de FRR LSPs necesarios en una red, resultado de un tipo particular de protección T 5.4.3 Número promedio de routers que son atravesados por un LSP Acoplamiento completo entre WRs El primer tipo de ingeniería de tráfico consiste en una acoplamiento total entre TE LSPs pertenecientes a WRs. Este diseño es muy utilizado debido a que los enrutadores troncales son aquellos que conectan otros puntos de presencia (POPs). Los enlaces WAN son generalmente los enlaces más costosos en una red, por lo que es importante aplicar MPLS TE para optimizar la utilización del ancho de banda en la WAN. 79 Cálculo aproximado para la RAI del ICE: El número de LSPs en la red viene dado por la siguiente fórmula: Ln = WR ⋅ (WR − 1) (5.4-1) Ln = 6 ⋅ (6 − 1) = 30 LSPs Cada router de núcleo es un headend de (Wn-1) LSPs, o sea de 5 LSPs Cada router de núcleo es un tailend de (Wn-1) LSPs, por lo tanto de 5 LSPs El número M en la red viene dado por la siguiente fórmula: max(M ) = max(M ) = 5.4.4 Ln − (2 ⋅ (Wn − 1)) Wn (5.4-2) 30 − (2 ⋅ (6 − 1)) = máximo 3 o 4 LSPs 6 Acoplamiento completo entre ARs Se aplica un acoplamiento total entre routers de acceso cuando se desea obtener un control más exacto sobre el tráfico. Los ARs son únicamente aquellos routes que son TE headends o tailends, los WRs y los DRs son únicamente puntos medios, dado que en esta arquitectura el tráfico entra y sale de la red únicamente por lo ARs. Cálculo aproximado para la RAI del ICE: El número de LSPs en la red viene dado por la siguiente fórmula: Ln = AR ⋅ ( AR − 1) Ln = 207 ⋅ (207 − 1) = 42.642 LSPs Cada router de acceso es un headend de (An-1) LSPs o sea de 206 LSPs (5.4-3) 80 Cada router de acceso es un tailend de (An-1) LSPs o sea de 206 LSPs En el modelo de red de acople completo entre ARs, los router de acceso funcionaran como headends o como tailends, pero nunca como puntos medios. 5.4.5 Escalabilidad para la protección En esta sección se analizarán y se llevarán a cabo cálculos necesarios para garantizar escalabilidad en el diseño de las protecciones de enlace, nodo y trayectoria para la RAI del ICE. Al realizar un análisis de los diferentes tipos de protección en una red, se deben de considerar dos aspectos muy importantes, uno de éstos es el número aproximado de LSPs que son añadidos a la red como un todo cuando se realiza un tipo particular de protección. El otro aspecto importante, corresponde al número de LSPs con los que un router dado tiene que tratar. Protección de Enlace En la protección de enlace, el número adicional aproximado de LSPs en una red se calcula multiplicando el grado de conexión promedio por nodo, por el número de nodos en ese determinado sector de la red. El valor de D en una red oscila entre 3 y 5, para el caso de la RAI del ICE es aproximadamente 3 y el valor aproximado de T para ésta, es también 3. Cálculo aproximado para la RAI del ICE: Caso 1. (Acoplamiento completo entre WRs) El número adicional de LSPs en la RAI del ICE viene dado por la siguiente ecuación: Ln = D ⋅ Rn Ln = 3 ⋅ 6 = 18 LSPs (5.4-4) 81 El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente fórmula: Fn = Fn = ( Ln ⋅ T ) − ( 2 ⋅ D) Rn (5.4-5) (18 ⋅ 3) − (2 ⋅ 3) = 3 FRR LSPs 6 Caso 2. (Acoplamiento completo entre ARs) El número adicional de LSPs en la RAI del ICE viene dado por la siguiente fórmula: Ln = D ⋅ Rn = 3 ⋅ 239 = 717 LSPs El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación: Fn = ( Ln ⋅ T ) (717 ⋅ 3) − (2 ⋅ D) = − (2 ⋅ 3) = 3 FRR LSPs Rn 239 Protección de Nodo En la protección de nodo, cada nodo vecino de los nodos más cercanos a un nodo de interés necesita un LSP, por esta razón es que el número de Ln crece con respecto al obtenido en la protección de enlace. Cálculo aproximado para la RAI del ICE: Caso 1. (Acoplamiento completo entre WRs) El número adicional de LSPs para la RAI del ICE viene dado por la siguiente fórmula: Fn = D ⋅ ( D − 1) ⋅ Rn Ln = 3 ⋅ (3 − 1) ⋅ 6 = 36 LSPs (5.4-6) 82 El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación: Fn = ( Ln ⋅ T ) (36 ⋅ 3) − (2 ⋅ D) = − (2 ⋅ 3) = 12 FRR LSPs Rn 6 Caso 2. (Acoplamiento completo entre ARs) El número adicional de LSPs para la RAI del ICE viene dado por la siguiente fórmula: Ln = D ⋅ ( D − 1) ⋅ Rn = 3 ⋅ (3 − 1) ⋅ 239 = 1434 LSPs El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación: Fn = ( Ln ⋅ T ) (1434 ⋅ 3) − (2 ⋅ D ) = − (2 ⋅ 3) = 12 FRR LSPs Rn 239 Protección de Trayectoria La protección de trayectoria es muy simple de calcular, si se tienen Ln LSPs en una red y se desea proteger cada uno de estos caminos, entonces lo que se hace es multiplicar por dos el número de Ln LSPs presentes en la red. En este tipo de protección se tiene que Fn = Ln. Cálculo aproximado para la RAI del ICE: Caso 1. (Acoplamiento completo entre WRs) Ln = 30 LSPs, por lo que se requieren otros 30 LSPs para ser usados en la protección de trayectoria. Caso 2. (Acoplamiento completo entre ARs) Ln = 42.642 LSPs, por lo que se requieren otros 42.642 LSPs para ser usados en la protección de trayectoria. 83 CAPÍTULO 6: Conclusiones y recomendaciones 6.1 Conclusiones • La capa de acceso de red es el nivel inferior del modelo TCP/IP y es la responsable de aceptar los datagramas IP y transmitirlos hacia una red específica. Mientras que en la capa de red se realiza el direccionamiento, la fragmentación, el empaquetado, la entrega y el enrutamiento de paquetes de información a través de la red. MPLS es una arquitectura que opera entre estas dos capas del modelo TCP/IP. • Las redes IP por sí solas no son capaces de garantizar calidad de servicio debido a que éstas utilizan protocolos de enrutamiento como el “Open Shortest Path First” los cuales dejan enlaces subutilizados mientras cargan otros con exceso de tráfico. Además éstos no son capaces de realizar un adecuado tratamiento contra las colas de tráfico. De ahí surge la necesidad de los ISPs en el mundo de implementar tecnologías como MPLS a sus redes, con el objetivo de eliminar estos aspectos negativos de las redes IP. • Los ISPs desean alcanzar altos niveles de calidad de servicio, ya que éstos buscan la forma de cómo optimizar el rendimiento de los recurso de red existentes, además de proporcionar protección a los datos clasificando los diferentes tipos de tráfico según sus prioridades de transmisión. 84 • Para lograr obtener un buen nivel de calidad de servicio se deben aplicar mecanismos que contrarresten los efectos negativos en las transmisiones de datos debido a retardos de transferencia, variaciones del retardo, pérdidas y errores en las transmisiones. • Existen diferentes tipos de modelos y tecnologías para brindar QoS en las redes IP, entre los más utilizados en los últimos tiempos se encuentran el IntServ y el DiffServ. • Los modelos de IntServ y DiffServ no logran por sí solos cumplir con los requerimientos actuales de QoS en las redes IP. El IntServ presentó problemas de escalabilidad y subutilización de los recursos, por lo que luego surgió el Diffserv que resolvió el problema de la escalabilidad, pero no corrigió el inconveniente de la hiperagregación de tráfico. Por este motivo paulatinamente las redes del mundo están migrando hacia la arquitectura MPLS ya que ésta permite realizar una ingeniería de tráfico eficiente, que elimina el problema de la hiperagregación y complementada con DiffServ permite cumplir con la exigencia de QoS de los ISP. • MPLS permite hacer una clasificación de todos los paquetes que ingresan a la red, por medio de etiquetas. Estas etiquetas son una asignación a una determinada FEC, para la cual ya está establecido un trato específico para su manejo a través de la red. • La asignación de un paquete particular a una FEC particular se hace sólo una vez, cuando el paquete ingresa a un LER. Una vez definidas las etiquetas para cada 85 nodo, entonces se establece el LSP. El último nodo de la red, eliminará la etiqueta y enviará el paquete hacia fuera de la red MPLS tal como arribó al dominio. • Los enrutadores MPLS no tienen que analizar las cabeceras de los paquetes para decidir el siguiente salto, todo el reenvío es conducido por las etiquetas. La etiqueta se utiliza como un índice en una tabla que especifica el salto siguiente, y una nueva etiqueta. • La ingeniería del tráfico es una herramienta para el adecuado manejo de las trayectorias de los paquetes en una red, permitiendo maximizar el aprovechamiento de los recursos y posibilitando un eficiente manejo del flujo de paquetes, evitando las congestiones y los cuellos de botella provocados por la hiperagregación de tráfico en ciertos sectores de la red. • La principal característica de MPLS que le permite realizar ingeniería de tráfico es el ruteo explícito. Éste le permite a MPLS utilizar herramientas como lo son el ruteo basado en restricciones (CBR) y el balanceo de carga, las cuales son fundamentales para el adecuado manejo de los paquetes. • El balanceo de carga permite dividir el tráfico de un agregado de flujos entre diversos caminos, lo que posibilita enrutar troncales cuyo tráfico es superior a las posibilidades de un único camino en la red. • El CBR coexiste con la topología de saltos (hop by hop) manejada por los IGPs, y busca caminos entre nodos de la red que satisfagan un conjunto de restricciones explícitas. Si está correctamente implementado trae ventajas como la reducción del 86 nivel de configuración manual y la disminución en la intervención requerida para actualizar las políticas de la ingeniería de tráfico. • Debido a que todas las redes experimentan fallos en ciertas ocasiones, es de gran importancia implementar mecanismos de protección y restauración que ayuden a evitar la pérdida de información valiosa. La protección de nodo y de enlace en conjunto con el FRR y con ingeniería de tráfico en MPLS representan la mejor solución a este problema, ya que se encargan de atenuar al máximo este tipo de perdidas, brindando calidad de servicio incluso en condiciones de fallo. 6.2 Recomendaciones • Para solucionar los problemas de tráfico en las redes IP, se pueden aplicar dos posibles soluciones. La primera se basa en el redimensionamiento de la red, esta solución implicaría gastos elevados a los ISPs ya que éstos deberían implementar enlaces con mayor capacidad de ancho de banda. Además ésta sería tan solo una solución momentánea debido al crecimiento acelerado del Internet, por lo que las ampliaciones y por lo tanto las inversiones a realizar sería continuas. La segunda solución, es más recomendada, aplicar ingeniería de tráfico mediante un modelo o arquitectura como MPLS para realizar un tratamiento de tráfico eficaz, y así poder alcanzar verdaderos niveles de calidad de servicio. Los ISPs tendrían que realizar una inversión considerable en routers de nueva generación, capaces de implementar MPLS, pero a mediano o largo plazo resultaría más económico, pues 87 se estarían utilizando los recursos de red existentes de manera eficiente y no sería necesario expandir la capacidad de la red constantemente. Además, cuando se requiera realizar dichas expansiones, los nuevos recursos tendrían mejor rendimiento y serían aprovechados al máximo. • La implementación de MPLS en las redes de los ISPs para brindar calidad de servicio, tiene que ser específicamente con el modelo de DiffServ, pues aunque el IntServ se sigue utilizando para ciertas aplicaciones, en un sistema de mediana y gran escala su desempeño no sería el óptimo, pues la reserva de ancho de banda que necesita para operar no sería compatible con la capacidad de la red, y se encontraría con problemas de escalabilidad que finalmente imposibilitaría cumplir con los niveles de calidad de servicio requeridos. • Basándose en las características de funcionamiento de los diferentes tipos de protecciones analizadas en el capítulo 5, aplicada al caso de la RAI del ICE, se sugiere que la que mejor se ajusta a ésta, es una combinación de protección de enlaces y de nodos a nivel de núcleo, ya que de esta forma se pueden proteger LSPs que transporten tipos específicos de tráfico de una manera escalable y sin reservar tanto ancho de banda de la red como si ocurre en la protección de trayectorias. BIBLIOGRAFÍA Libros: 88 1. Kozierorok, C. “TCP/IP Guide”, 1a edición, No Starch Press, Estados Unidos, 2005. 2. Stallings, W. “Comunicaciones y redes de computadores”, 6ª edición, Prentice Hall, España, 2000. 3. Osborne, E. “Traffic Engineering with MPLS”, 3a edición, Cisco Press, Estados Unidos, 2005. 4. Álvarez, S. “QoS for IP/MPLS Networks”, 1a edición, Cisco Press, Estados Unidos, 2006. Páginas Web: 5. “Enlace Submarino ARCOS-1”, http://en.wikipedia.org/wiki/Image:ARCOS-1-route.png 6. “Enlace Submarino MAYA-1”, http://en.wikipedia.org/wiki/Image:MAYA-1-route.png 7. “Global Crossing” www.globalcrossing.com/network/network_interactive_map.aspx 8. Pérez, A. “Infraestructura de un ISP”, www.dit.upm.es/ 9. “Multiprotocol Label Switching Architecture”, www.ietf.org/rfc/rfc3031.txt 10. “Requirements for TE Over MPLS”, www.ietf.org/rfc/rfc2702.txt 11. “MPLS Support of Differentiated Services ”, www.ietf.org/rfc/rfc3270.txt 12. “MPLS”, http://es.wikipedia.org/wiki/MPLS 13. Fineberg, V. “QoS Support in MPLS Networks”, www.ipmplsforum.org/education/mpls_white_papers.shtml 89 14. Shah, N. “Carrier Migration from ATM to MPLS: Why, When and How”, www.ipmplsforum.org/education/mpls_white_papers.shtml 15. “Converged network services using MPLS”, www.ipmplsforum.org/education/mpls_white_papers.shtml Proyectos Finales de Graduación: 16. Belzarena, P. “Ingeniería de tráfico en línea en redes MPLS aplicando la teoría de grandes desviaciones”, Universidad de la República, Uruguay, 2003. Otros: 17. “Calidad de servicio y calidad de funcionamiento de red”, Manual, UIT-T, 2004. 18. “Proyecto de Red de Internet Avanzada”, ICE 19. “Red Avanzada de Internet (RAI): Capacidades”, ICE, 2005. 20. Cisco Systems. “Curso de Redes, Modulo 1”