Información - Escuela de Ingeniería Eléctrica

Anuncio
Universidad de Costa Rica
Facultad de Ingeniería
Escuela de Ingeniería Eléctrica
IE – 0502 Proyecto Eléctrico
ASEGURAMIENTO DE LA CALIDAD DE
SERVICIO EN LAS REDES BASADAS EN EL
PROTOCOLO INTERNET IP POR MEDIO DE
LA INGENIERÍA DE TRÁFICO EN MPLS
Por:
Jose Antonio Alfaro Fallas
Erick Echeverría Pradella
Ciudad Universitaria Rodrigo Facio
Diciembre del 2007
ASEGURAMIENTO DE LA CALIDAD DE
SERVICIO EN LAS REDES BASADAS EN EL
PROTOCOLO INTERNET IP POR MEDIO DE
LA INGENIERÍA DE TRÁFICO EN MPLS
Por:
JOSE ANTONIO ALFARO FALLAS
ERICK ECHEVERRÍA PRADELLA
Sometido a la Escuela de Ingeniería Eléctrica
de la Facultad de Ingeniería
de la Universidad de Costa Rica
como requisito parcial para optar por el grado de:
BACHILLER EN INGENIERÍA ELÉCTRICA
Aprobado por el Tribunal:
_________________________________
Ing. Jhonny Cascante Ramírez, MSc
Profesor Guía
_________________________________
Ing. Leonardo Steller Solórzano
Profesor lector
_________________________________
Ing. Anthony Cascante Rodríguez
Profesor lector
ii
DEDICATORIA
A nuestras familias por todo el apoyo que nos han brindado a lo largo de nuestra
carrera universitaria y de nuestras vidas.
iii
RECONOCIMIENTOS
A los miembros del tribunal examinador, Ing. Jhonny Cascante, Ing. Leonardo
Steller e Ing. Anthony Cascaste por su colaboración en la elaboración de este proyecto.
A nuestros amigos y compañeros con los que hemos compartido todos estos años de
carrera universitaria.
A los profesores, quienes en su mayoría se han preocupado por darnos una calidad
de enseñanza digna de una gran institución como la Universidad de Costa Rica.
iv
ÍNDICE GENERAL
ÍNDICE DE FIGURAS ............................................................................. viii
ÍNDICE DE TABLAS ..................................................................................ix
NOMENCLATURA......................................................................................x
RESUMEN..................................................................................................xvi
CAPÍTULO 1: Introducción.........................................................................1
1.1
1.2
Justificación ............................................................................................................1
Objetivos.................................................................................................................4
1.2.1
Objetivo general..............................................................................................4
1.2.2
Objetivos específicos ......................................................................................4
1.3
Metodología ............................................................................................................5
CAPÍTULO 2: Generalidades acerca de redes IP .......................................7
2.1
2.2
2.3
2.4
2.5
Modelo y Arquitectura TCP/IP...............................................................................7
2.1.1
Capas del Modelo TCP/IP ..............................................................................8
Protocolo de Control de Transmisión (TCP) ........................................................11
2.2.1
Reseña histórica del protocolo TCP..............................................................11
2.2.2
Características generales de operación .........................................................12
2.2.3
Funciones Principales del TCP .....................................................................13
Protocolo de Internet (IP) .....................................................................................14
2.3.1
Reseña histórica del protocolo IP .................................................................14
2.3.2
Características generales de operación .........................................................15
2.3.3
Funciones Principales del IP.........................................................................16
Infraestructura de un ISP ......................................................................................18
2.4.1
Red de Acceso ..............................................................................................19
2.4.2
Red de Concentración...................................................................................20
2.4.3
Red Troncal o Backbone...............................................................................21
2.4.4
Red de Gestión – Centro de Proceso de Datos .............................................22
Red Avanzada de Internet (RAI) del ICE .............................................................23
2.4.1
Estructura de la RAI .....................................................................................26
2.4.2
Implementación de la RAI............................................................................27
2.4.3
Infraestructura de la RAI ..............................................................................29
2.4.4
Nivel Core.....................................................................................................31
CAPÍTULO 3: Conceptos sobre calidad de servicio en redes IP..............34
3.1
3.2
3.3
Definición de QoS ................................................................................................34
Importancia de implementar QoS .........................................................................35
Parámetros de calidad para redes IP .....................................................................36
v
3.3.1
Principales causas .........................................................................................37
3.3.2
Requerimientos para aplicaciones ................................................................38
3.3.3
Solución a los problemas de QoS .................................................................39
3.4
Clases de QoS .......................................................................................................40
3.5
Áreas importantes para la aplicación de mecanismos de QoS..............................41
3.6
Tecnologías para brindar QoS en redes IP............................................................42
3.6.1
Integrated Services (IntServ) ........................................................................42
3.6.2
Differentiated Services (DiffServ)................................................................43
3.6.3
Comparación entre IntServ y DiffServ .........................................................44
CAPÍTULO 4: Ingeniería de tráfico en MPLS..........................................45
4.1
4.2
Migración de los ISP hacia MPLS........................................................................45
Aspectos básicos de la arquitectura MPLS...........................................................48
4.2.1
Concepto de Etiqueta ....................................................................................49
4.2.2
Plano de control y plano de datos .................................................................50
4.2.3
FEC y enrutadores LSR y LER.....................................................................50
4.3
Ingeniería de tráfico en MPLS..............................................................................53
4.3.1
Conceptos sobre ingeniería de tráfico...........................................................53
4.3.2
Definición formal de ingeniería de tráfico....................................................54
4.3.3
Objetivos de la ingeniería de tráfico .............................................................54
4.3.4
Aspectos generales de la ingeniería de tráfico en MPLS..............................55
4.3.5
Principales Herramientas de MPLS para realizar ingeniería de tráfico........58
CAPÍTULO 5: Aseguramiento de la QoS en una red similar a la RAI del
ICE por medio de ingeniería de tráfico en MPLS .....................................62
5.1
Calidad de Servicio (QoS) con ingeniería de tráfico en MPLS ............................62
5.1.1
Combinación de ingeniería de tráfico en MPLS con DiffServ .....................62
5.1.2
Flujo de paquetes con ingeniería de tráfico en MPLS con DiffServ ............66
5.2
Protección y restauración de redes IP/MPLS .......................................................67
5.2.1
FRR con ingeniería de tráfico en MPLS.......................................................68
5.2.2
Protección con MPLS TE .............................................................................68
5.2.3
Tipos de protección.......................................................................................69
5.3
Funcionamiento de red troncal con MPLS TE .....................................................73
5.3.1
Red Troncal “Best Effort” con ingeniería de tráfico en MPLS ....................73
5.3.2
Red Troncal DiffServ con ingeniería de tráfico en MPLS ...........................74
5.3.3
Red Troncal con MPLS TE FRR..................................................................75
5.4
Diseño estratégico de red con ingeniería de tráfico en MPLS aplicado a la RAI
del ICE 76
5.4.1
Escalabilidad de los LSPs .............................................................................76
5.4.2
Datos de la RAI del ICE y Definición de Variables .....................................77
5.4.3
Acoplamiento completo entre WRs ..............................................................78
5.4.4
Acoplamiento completo entre ARs...............................................................79
5.4.5
Escalabilidad para la protección ...................................................................80
vi
CAPÍTULO 6: Conclusiones y recomendaciones ......................................83
6.1
6.2
Conclusiones.........................................................................................................83
Recomendaciones .................................................................................................86
BIBLIOGRAFÍA.........................................................................................87
vii
ÍNDICE DE FIGURAS
Figura 2.1 Arquitectura TCP/IP [1] ....................................................................................8
Figura 2.2 Mapa del Proyecto Frontera a Frontera del ICE [18] ......................................24
Figura 2.3 Mapa de los enlaces submarinos ARCOS-1 Y Maya-1 [5] y [6] ....................25
Figura 2.3 Mapa de la interconexión Mundial de Global Crossing [7] ............................25
Figura 2.4 Capas 1 y 2 de la estructura de la RAI [18].....................................................26
Figura 2.5 Provisión actual y futura de los servicios de datos, voz y video [18] .............27
Figura 2.6 Simplificación de operaciones en el modelo de transporte [18]......................28
Figura 2.7 Medios físicos de conexión en la conmutación de circuitos y paquetes [18]..29
Figura 2.8 Giga-enrutadores [19]......................................................................................30
Figura 2.9 Mega-enrutadores y conmutadores [19]..........................................................30
Figura 2.10 Esquema de interconexión del equipo que conforma la RAI [19] ................31
Figura 2.11 Ubicación de los Giga-enrutadores de Core [19] ..........................................32
Figura 2.12 Enlace de los Giga-enrutadores [19] .............................................................32
Figura 2.13 Esquema completo de la RAI en Costa Rica [19] ........................................33
Figura 3.1 Áreas de aplicación de QoS. [19] ....................................................................41
Figura 4.1 Cabecera MPLS...............................................................................................49
Figura 4.2 Arquitectura MPLS [15]..................................................................................53
Figura 5.1 Red MPLS combinando L-LSPs y E-LSPs [4] ...............................................65
Figura 5.2 Flujo de paquetes en MPLS con DiffServ [13] ...............................................66
Figura 5.3 Protección de Trayectoria [3] ..........................................................................70
Figura 5.4 Protección de Enlace [3]..................................................................................71
Figura 5.5 Protección de Nodo [3]....................................................................................72
Figura 5.6 Control de la carga de enlace [4].....................................................................74
Figura 5.7 Control de la capacidad por clase y de la carga de acuerdo al tipo de clase [4]
..........................................................................................................................................75
viii
ÍNDICE DE TABLAS
Tabla 3.1 Aplicaciones y niveles de requerimiento. [2] ...................................................38
Tabla 3.2 Directrices para las clases de QoS. [17] ...........................................................40
Tabla 5.1 Comparación entre E-LSPs y L-LSPs. .............................................................64
Tabla 5.2 Tipos de routers ................................................................................................77
Tabla 5.3 Componentes de red presentes en la RAI del ICE............................................77
Tabla 5.4 Definición de variables .....................................................................................78
ix
NOMENCLATURA
Nomenclatura utilizada en el proyecto de investigación:
ADM
Add-drop Multiplexer
Multiplexor Add-drop
ADSL
Asymmetric Digital Subscriber Line
Línea de Subscriptor Digital Asimétrica
AR
Access Router
Enrutador de Acceso
ARPA
Advanced Research Projects Agency
Agencia de Proyectos de Investigaciones Avanzadas
ATM
Asynchronous Transfer Mode
Modo de Transferencia Asíncrono
BGP
Border Gateway Protocol
Protocolo de Pasarela Externa
CBR
Constraint Based Routing
Ruteo Basado en Restricciones
CNFL
Compañía Nacional de Fuerza y Luz
CPD
Centro de Proceso de Datos
CR-LDP
Constrained Routing Label Distribution Protocol
Protocolo de distribución de etiqueta para ruteo con restricciones
DHCP
Dynamic Host Configuration Protocol
Protocolo de Configuración Dinámica de Host
Diffserv
Differentiated Services
Servicios Diferenciados
DNS
Domain Name System
Sistema de Nombres del Dominio
x
DR
Distribution Router
Enrutador de Distribución
DSCP
Differentiated Service Code Point
Punto de Código de Servicios Diferenciados
DSLAM
Digital Subscriber Line Access Multiplexer
Multiplexor de Acceso para xDSL
E-LSP
EXP-inferred PSC LSP
FEC
Forwarding Equivalent Class
Clase Equivalente para el Avance
FRR
Fast Reroute
Re-enrutamiento Rápido
FTP
File Transfer Protocol
Protocolo de Transferencia de Archivos
HTTP
Hyper Text Transfer Protocol
Protocolo de Transferencia de Hipertexto
ICE
Instituto Costarricense de Electricidad
ICMP
Internet Control Message Protocol
Protocolo de Mensaje de Control de Internet
IGP
Interior Gateway Protocol
Protocolo de Frontera Interna
IntServ
Integrated Service
Servicios Integrados
IPng
Next Generation Internet Protocol
Protocolo de Internet de próxima generación
IP/IPv4
Internet Protocol version 4
Protocolo de Internet versión 4
IPv6
Internet Protocol version 6
Protocolo de Internet versión 6
xi
IPDV
IP Packet Delay Variation
Variaciones del Retardo del Paquete IP
IPER
IP Packet Error Ratio
Tasa de Errores en los Paquetes IP
IPLR
IP Loss Ratio
Tasa de Pérdida de Paquetes IP
IPTD
IP Packet Transfer Delay
Retardo de Transferencia de Paquete IP
ISO
Internacional Standard Organization
Organización Internacional para la Estandarización
ISP
Internet Service Provider
Proveedor de Servicio de Internet
LAN
Local Area Network
Red de Area Local
LDP
Label Distribution Protocol
Protocolo de Distribución de Etiquetas
LER
Label Edge Router
Enrutador de Etiqueta de Borde
L-LSP
Label-only-inferred PSC LSP
LSP
Label Switched Path
Camino de Etiqueta Conmutada
LSR
Label Switched Router
Enrutador de Etiqueta Conmutada
MPLS
Multi Protocol Label Switching
Multi Protocolo de Conmutación de Etiqueta
NCP
Network Control Protocol
Protocolo de Control de Red
NFS
Network File System
Sistema de Archivo de Red
xii
NSE
OSI
Network Section Ensemble
Conjunto de Secciones de Red
Open Systems Interconnection
Interconexión de Sistemas Abiertos
OSPF
Open Shortest Path First
Primer Camino Abierto más Corto
PHB
Per-Hop-Behaivor
Comportamiento por salto
PLC
Power Line Communication
Comunicación a través de Línea Eléctrica
POP
Point of Presence
Punto de Presencia
PPP
Point to Point Protocol
Protocolo Punto a Punto
PSC
PHB Scheduling Class
Clase de Calendarización PHB
PVC
Private Virtual Channel
Canal Virtual Privado
QoS
Quality of Service
Calidad de Servicio
RADIUS
Remote Authentication Dial-In User Server
Autorización para Aplicaciones de Acceso a la Red
RAI
Red de Avanzada de Internet
RAS
Remote Access Server
Servidor de Acceso Remoto
RFC
Request For Comments
Referencias publicadas por la IETF
RIP
Routing Information Protocol
Protocolo de Información de Enrutamiento
xiii
RSVP
Resourse Reservation Protocol
Protocolo de Reserva de Recursos
SLA
Service Level Agreement
Nivel Acordado de Servicio
SLIP
Serial Line Interface Protocol
Protocolo de Interfase de Línea Serial
SMTP
Simple Mail Transfer Protocol
Protocolo Sencillo de Transferencia de Correo
SNMP
Simple Network Management Protocol
Protocolo Sencillo de Gestión de Red
SNT
Sistema Nacional de Telecomunicaciones
STM-x
Synchronous Transfer Mode
Modo de Transferencia Síncrono
SPF
Shortest Path First
Camino más Corto Primero
TCP
Transfer Control Protocol
Protocolo de Control de Transferencia
TE
Traffic Engineering
Ingeniería de Tráfico
TOS
Type of Service
Tipo de Servicio
TTL
Time To Live
Tiempo de Vida
UDP
User Datagram Protocol
Protocolo de Datagrama de Usuario
UIT
Unión Internacional de Telecomunicaciones
UL
Underwriters Laboratories
Organización dedicada a pruebas y certificación de productos
xiv
VC
Virtual Circuits
Circuitos Virtuales
VoIP
Voice over IP
Voz sobre IP
VPN
Virtual Private Networking
Red Privada Virtual
WAN
Wide Area Network
Red de Área Amplia
WLAN
Wireless Local Area Network
Red de Área Amplia Inalámbrica
WR
WAN Router
Enrutador WAN o de núcleo
xv
RESUMEN
Este trabajo de investigación se realizó con el objetivo de estudiar los
fundamentos de la ingeniería de tráfico en la arquitectura MPLS como un medio para
asegurar calidad de servicio en redes basadas en el protocolo Internet IP.
El desarrollo teórico parte de una descripción general acerca del modelo TCP/IP y
de las diferentes capas que lo conforman, y continúa con una descripción de la
infraestructura de la red RAI del ICE. En el capítulo 3 se analizaron los factores que afectan
la calidad de servicio en las redes IP y sus principales causas, y se establecieron posibles
soluciones para garantizar la misma. En la siguiente sección se realizó un estudio detallado
de la arquitectura MPLS y de los fundamentos de la ingeniería de tráfico en MPLS. Se
analizó la forma en que la arquitectura MPLS, se puede combinar con modelos de QoS
como DiffServ para alcanzar altos niveles de calidad de servicio. En el capítulo 5 se
procedió a realizar un diseño estratégico escalable aproximado de protección de red contra
fallos para la RAI del ICE, en el cual se incluyeron protecciones de enlaces, nodos y
trayectorias, para ser implementado ya sea a nivel de acceso o a nivel de núcleo.
Al final del proyecto, se concluyó que los modelos de IntServ y DiffServ no logran
por sí solos cumplir con los requerimientos actuales de QoS en las redes IP, y que necesitan
de una arquitectura como MPLS para lograrlo, pues ésta permite realizar ingeniería de
tráfico. No obstante, la migración de las redes IP de los ISP hacia MPLS, va a ser paulatina,
pues tendrán que realizar una inversión en routers de nueva generación, lo cual resultará a
largo plazo más económico que las constantes ampliaciones en la capacidad de la red.
xvi
CAPÍTULO 1: Introducción
1.1
Justificación
El Internet siendo la red IP de mayor relevancia en el mundo, ha ido evolucionando
con el tiempo, y los fines para los que fue creado en un principio no son los mismos de la
actualidad. En un principio Internet surgió como una herramienta militar, utilizada como
medio seguro de comunicación, sin embargo cuando se decidió hacer pública, sus fines
eran principalmente académicos. En la actualidad el Internet es un medio en el que se puede
encontrar información de toda índole, además de convertirse no sólo en una herramienta de
trabajo, sino también de ocio, millones de usuarios descargan diariamente videos, películas,
música, leen el periódico de cualquier parte del mundo, en fin las posibilidades en la red
son muy amplias.
Internet ha ido creciendo de una forma exponencial y ganando popularidad desde
que se empezó su comercialización, hasta convertirse hoy en día en una herramienta casi
indispensable para las empresas e incluso para los usuarios comunes. Muchas
organizaciones comprenden el valor de su red, ya que muchas de ellas dependen de ésta
como un medio que les permite trabajar más eficientemente, ser más productivas y obtener
una ventaja competitiva sobre sus contendientes.
Está evolución en las aplicaciones y usos de la red ha implicado variaciones en la
arquitectura y los protocolos de la misma. Se trabajó durante mucho tiempo con un
protocolo básico IP, al cuál se le han realizado variaciones y modernizaciones como lo son
1
2
IP sobre ATM, IPv4, IPv6, en fin se han tratado de cubrir las necesidades de la red
conforme han ido surgiendo.
No obstante se ha llegado a un punto en que el Internet es un negocio que mueve
billones de dólares al año, y las compañías que brindan los servicios, conocidas como ISP,
viven en una competencia para apoderarse del mercado, inicialmente esta lucha se dio en
cuanto a la velocidad y el ancho de banda en las conexiones, pero con el desarrollo de la
fibra óptica estos parámetros ya no parecen ser un problema. Entonces, el nuevo parámetro
de competencia parece ser la calidad de servicio, QoS, la cual tiene como su principal
aliado la Ingeniería de Tráfico, TE.
Además, con los servicios actuales que ofrecen en línea los operadores -la
videoconferencia, la telefonía, la televisión, entre otros- el tema de la calidad de servicio ha
tomado suma importancia, pues la retransmisión de paquetes implementada por el TCP/IP
ya no es una opción válida. Puesto que al tratarse de servicios más interactivos, servicios de
tiempo real, las pérdidas y los retardos deben ser minimizados al máximo.
Debido a este gran interés que se maneja en el mercado, existe una fuerte inversión
en la investigación en aspectos básicos sobre cómo asegurar la QoS, los parámetros que
afectan al servicio, cómo estimarlos, y cuales protocolos o innovaciones aplicar para
contrarrestar sus efectos negativos.
Teniendo claro que se requiere una nueva evolución de la arquitectura de la red,
pues con las arquitecturas anteriores no es posible realizar un control de tráfico eficiente,
han surgido una serie de modelos para brindar QoS en redes IP. Los primeros intentos
fueron IntServ y Diffserv, sin embargo presentaron inconvenientes en aspectos como la
3
escabilidad y la hiperagregación de tráfico en ciertas zonas, aún cuando otras se
encontraban subutilizadas. Una de las opciones más recientes es la arquitectura MPLS
(MultiProtocol Label Swiching), la cual posee la característica de poder realizar una
eficiente Ingeniería de Tráfico (TE) por medio de herramientas como el ruteo explícito, y
con las cuales complementada con modelos como el ya mencionado Diffserv, abre la
posibilidad de ofrecer la calidad de servicio esperada para las nuevas necesidades del
mercado.
Los requerimientos actuales de la red apuntan hacia una progresiva transferencia
hacia la arquitectura MPLS gracias a que su invención viene precisamente a cubrir las
necesidades de QoS. Actualmente el mercado ofrece una oferta muy variada, no sólo en el
aspecto de Internet y tecnología, sino en todos los campos. Esta situación obliga a las
empresas a ofrecer algo que haga la diferencia sobre el resto, y la nueva tendencia ha sido
tomar como parámetro la calidad. Un claro ejemplo en Costa Rica de esta situación, se da
en los productos agrícolas, donde existe una fuerte migración hacia los cultivos orgánicos,
pues en el mercado internacional, el agricultor nacional no puede competir en cantidad de
producción, pero sí en calidad. A nivel internacional, la creación de las normas ISO para las
industrias, y la existencia de empresas sin fines de lucro como UL (Underwriters
Laboratories Inc.), dedicadas únicamente a certificar la calidad, evidencian la importancia
de éste parámetro en el mercado actual.
La necesidad de todas las empresas de productos y servicios de ofrecer QoS sumada
a la dependencia tecnológica para el desarrollo de sus funciones, obligan directamente a los
ISP a buscar una arquitectura como MPLS para ofrecerles los servicios de red que cumplan
4
con sus necesidades. MPLS, sin embargo apenas está iniciando un largo proceso de
popularización, y aunque responde a las necesidades actuales, su continuo desarrollo e
investigación son vitales para ampliar su capacidad a los requerimientos futuros.
Este trabajo pretende exponer la importancia de la QoS en las redes IP y la
necesidad de la evolución de las mismas, proponiendo el uso de la arquitectura MPLS
como la solución más inmediata a los requerimientos actuales. Mediante MPLS los ISP
podrán ofrecer a los usuarios distintos niveles de QoS de acuerdo a sus necesidades. Sin
embargo, para brindar un buen servicio la mayor parte del tiempo, se deben de considerar
los posibles fallos que toda red experimenta, por lo que en este trabajo se pretende realizar
un aporte mediante la realización de un diseño estratégico escalable aproximado de
protección contra fallos en la red, el cual podría servir como base para el caso de la RAI del
ICE.
1.2
Objetivos
1.2.1
Objetivo general
Estudiar los fundamentos de la ingeniería de tráfico en MPLS y establecer los medios
que utiliza para asegurar la calidad de servicio en redes basadas en el protocolo
Internet IP.
1.2.2
•
Objetivos específicos
Estudiar las partes constitutivas y el funcionamiento de una red basada en el
protocolo IP.
5
•
Conocer los conceptos fundamentales sobre calidad de servicio en redes basadas en el
protocolo IP.
•
Estudiar los factores que afectan la calidad de servicio en redes basadas en el
protocolo IP.
•
Investigar sobre los parámetros y la forma de medición de la calidad de servicio en
redes basadas en el protocolo IP.
•
Conocer los conceptos básicos de la arquitectura MPLS.
•
Estudiar los fundamentos de ingeniería de tráfico en MPLS.
•
Establecer los medios que utiliza la ingeniería de tráfico en MPLS para asegurar la
calidad de servicio en redes IP.
•
Proponer un diseño estratégico escalable de protección contra fallos para la RAI del
ICE utilizando ingeniería de tráfico en MPLS.
1.3
Metodología
La metodología a seguir en la elaboración del proyecto será la siguiente:
•
Recopilación de información acerca de generalidades sobre redes IP. Se utilizarán
fuentes bibliográficas como publicaciones de revistas, libros e Internet.
•
Recopilación de información en Internet, revistas técnicas y libros sobre el tema de
calidad de servicio asociada a redes IP.
•
Investigación bibliográfica sobre los aspectos básicos de la arquitectura MPLS,
además del funcionamiento de la ingeniería de tráfico en esta arquitectura. Se
consultarán medios como publicaciones de revistas, libros e Internet.
6
•
Elaboración de un diseño estratégico aproximado de protección en caso de fallo en
una red IP/MPLS.
•
Redacción final y elaboración de una presentación oral del trabajo.
CAPÍTULO 2: Generalidades acerca de redes IP
Para tener una mejor idea acerca del funcionamiento de las redes IP, es necesario
comprender los aspectos más importantes de la arquitectura en la cual está basada, por lo
que en este capítulo se realizará un estudio general acerca del modelo TCP/IP y de las
diferentes capas que lo conforman, también se procederá a destacar las principales
características y las distintas funciones que realizan los dos protocolos más importantes del
grupo de protocolos TCP/IP como lo son el protocolo TCP y el protocolo de Internet IP.
Luego se procederá a analizar cómo están compuestas físicamente las redes IP realizando
una descripción de los componentes que conforman la infraestructura de un ISP. Por último
se hará una recopilación de información de la infraestructura de la Red Avanzada de
Internet (RAI) del ICE implementada en Costa Rica.
2.1
Modelo y Arquitectura TCP/IP
La arquitectura TCP/IP está constituida por diferentes protocolos y tecnologías, que
en conjunto conforman la suite de protocolos TCP/IP y el modelo TCP/IP, éste último al
igual que el modelo de referencia OSI se divide en diferentes capas, las cuales realizan
funciones específicas ya establecidas. La diferencia entre estos dos modelos yace
principalmente en que el modelo TCP/IP presenta un menor número de capas ya que éste
fusiona las capas de sesión, presentación y aplicación del modelo OSI, en una sola capa de
aplicación, así como también fusiona las capas de enlace de datos y la capa física en una
capa de interfase o acceso de red.
7
8
Dado que la suite de protocolos TCP/IP supera en muchos aspectos al grupo de
protocolos que conforman el modelo OSI, es que se utilizan hoy en día redes de Internet
basadas en el modelo TCP/IP o redes IP.
2.1.1
Capas del Modelo TCP/IP
En términos generales, el modelo TCP/IP está organizado en cuatro capas
conceptuales que se construyen sobre una quinta capa de hardware. El esquema de la figura
2.1 muestra las capas conceptuales., así como los protocolos que se encuentran en cada una
de ellas.
Figura 2.1 Arquitectura TCP/IP [1]
9
Capa de Interfase o Acceso de Red
La capa de acceso de red es el nivel inferior del modelo TCP/IP, se encarga de
interfasar los diferentes protocolos TCP/IP que operan en capas superiores, con las redes
locales. Es la responsable de aceptar los datagramas IP y transmitirlos hacia una red
específica.
Algunos de los protocolos de capa de acceso de red son los siguientes:
•
Protocolo de Interfase de Línea Serial (SLIP, Serial Line Interface Protocol).
•
Protocolo Punto a Punto (PPP, Point to Point Protocol).
Capa de Internet o de Red
Es equivalente a la capa de red del modelo OSI, es la encargada de manejar
solicitudes para enviar un paquete desde la capa de transporte, junto con una identificación
de la dirección de destino hacia la que se debe enviar el paquete. En esta capa se encuentra
localizado uno de los protocolos más importantes de la suite de protocolos TCP/IP como lo
es el protocolo de Internet (IP), el cual se encarga de realizar el direccionamiento, la
fragmentación, el empaquetado, la entrega y el enrutamiento de paquetes de información a
través de la red.
En esta capa se encuentran presentes los siguientes protocolos:
•
Protocolo de Internet (IP/IPv4 o IPv6).
10
•
Protocolo de Mensajes de control de Internet (ICMP, Internet Control Message
Protocol), el cual es un protocolo de soporte para IP.
•
Protocolos de enrutamiento tales como: RIP, OSPF y BGP entre muchos otros.
Capa de Transporte
La función principal de la capa de transporte es la de facilitar la comunicación a
través de la red, además de regular el flujo de información. Se encarga de establecer y
manejar las conexiones lógicas para la entrega confiable de datos entre dos dispositivos.
Los protocolos claves en esta capa son los siguientes:
•
Protocolo de Control de Transmisión (TCP, Transmisión Control Protocol).
•
Protocolo de Datagrama de Usuario (UDP, User Datagram Protocol).
Capa de Aplicación
La capa de aplicación es la capa más alta del modelo TCP/IP. En esta capa se
encuentran ubicados los servicios y las aplicaciones de los usuarios, por lo que su función
es la de proveer servicios a aplicaciones que utilizan la red, tales como el correo
electrónico, transferencia de archivos, acceso remoto y video conferencias, entre otras.
Cada programa de aplicación selecciona el tipo de transporte necesario, el cual puede ser
una secuencia de mensajes individuales o un flujo continuo de octetos. El programa de
aplicación pasa los datos en la forma requerida hacia el nivel de transporte para su entrega.
11
La capa de aplicación incluye protocolos tales como:
•
Protocolos propiamente de aplicación como: HTTP, FTP y SMTP.
•
Protocolos administrativos como el SNMP.
•
Protocolos de configuración de host como el DHCP.
•
Sistemas como el DNS y el NFS.
2.2
Protocolo de Control de Transmisión (TCP)
2.2.1
Reseña histórica del protocolo TCP
En inicios de la década de los 70, el departamento de defensa de los Estados Unidos
desarrolló una pequeña red interconectada con propósitos de investigación llamada
ARPAnet (ARPA, Advanced Research Projects Agency), cuya tecnología utilizaba el
Protocolo de Control de Red (NCP, Network Control Protocol), que permitía a los host
conectarse unos con otros. Dadas las limitaciones que tenía el NCP, se comenzó a
desarrollar un nuevo protocolo que se ajustara mejor al crecimiento del sistema de redes.
De esta forma se implementó el protocolo TCP, el cual realizaba las funciones de los
protocolos TCP e IP, con el tiempo se le fueron implementado mejorías, por lo que fueron
apareciendo nuevas versiones del TCP, hasta que en la cuarta versión de éste, se decide
dividir su funcionamiento en dos protocolos, el protocolo TCP y el IP, por lo que en 1983
con la publicación del estándar RFC 793 nace el protocolo TCP tal como se conoce hoy en
día.
12
2.2.2
Características generales de operación
Para comprender mejor el trabajo que realiza el protocolo TCP, se debe conocer la
forma en que realiza sus diferentes funciones. Las siguientes son las características
generales de operación del protocolo TCP:
•
Funcionamiento Orientado a Conexión: TCP establece que exista una conexión
entre los dispositivos que van a transmitir datos de información antes de que éstos
sean enviados, por lo que TCP se asegura de que ambos dispositivos acepten la
forma en que se van a enviar los datos.
•
Bidireccional: Lo que quiere decir es que una vez establecida la conexión, los
dispositivos bajo el protocolo TCP, pueden tanto enviar como recibir información.
•
Confiabilidad: Las comunicaciones que utilizan TCP se consideran confiables
debido a que éste le da un seguimiento a la información que ha sido enviada y
recibida con el objetivo de asegurarse de que llegue completa a su destino final.
•
Reconocimiento de Recepción: Parte importante de la confiabilidad que brinda el
protocolo TCP, es el reconocimiento de recepción de información que poseen las
transmisiones en la capa de transporte. Cuando se envía información de un
dispositivo a otro, cada vez que recibe una pieza de información, el dispositivo que
recibe los datos le indica al que los envía que ésta se entregó exitosamente o por el
contrario, que necesita ser retransmitida.
13
2.2.3
Funciones Principales del TCP
El protocolo TCP realiza diferentes funciones, algunas de las más importantes son
las siguientes:
•
Conexión entre Dispositivos: TCP se encarga primeramente de establecer la
conexión por la cual se van a enviar los datos entre dos dispositivos, una vez que se
establece la conexión, se encarga de velar por el buen funcionamiento de ésta y de
la resolución de cualquier problema que se pueda presentar. Por último se encarga
de terminar la conexión siguiendo un proceso especial para esto.
•
Empaquetamiento de Datos: TCP define mecanismos para permitir el envió de
datos provenientes de la capa de aplicación hacia él en la capa de transporte. Luego
la información es empaquetada para ser enviada a su destino final, una vez que llega
a éste, TCP se encarga de desempaquetar la información y darla como una
aplicación.
•
Transferencia de Datos: La implementación del TCP en los dispositivos que están
transmitiendo paquetes de datos, permite que éstos sean transmitidos utilizando las
capas inferiores del modelo TCP/IP pasando los paquetes de datos a través de los
protocolos de las capas inferiores de la red como es el caso del protocolo IP.
•
Proveer Control de Flujo: El protocolo TCP permite que el flujo de datos entre
dos dispositivos sea controlado, además trata los posibles problemas de congestión
que se pueden dar durante la comunicación entre ellos.
14
2.3
Protocolo de Internet (IP)
2.3.1
Reseña histórica del protocolo IP
Como protocolo, IP tuvo su origen cuando una de las primeras versiones del
protocolo TCP desarrollado en los 70s por los creadores del Internet moderno fue dividido
en el protocolo TCP de capa 4 y en el protocolo IP de capa 3. La publicación RFC 791,
“Internet Protocol” en septiembre de 1981, fue clave en la evolución de IP. Este estándar
sirvió como base para definir la funcionalidad y las características de la versión de IP que
ha sido ampliamente utilizada en las últimas dos décadas.
El protocolo IP definido en el estándar RFC 791 no fue la versión 1 del protocolo
IP, sino que fue la versión 4 (IPv4), ya que éste surgió de la separación de una versión de
TCP que combinaba las funciones de TCP e IP. Esta versión de TCP evolucionó de tres
versiones anteriores y es hasta en la cuarta versión que se da
la separación de los
protocolos TCP e IP.
IPv4 ha probado ser un protocolo de mucha capacidad, sin embargo en el futuro
tarde o temprano se requerirá una nueva versión de IP, por este motivo es que a mediados
de los 90s se empezó a desarrollar una nueva versión de IP, esta nueva versión se llama
Internet Protocol version 6 (IPv6) y algunas veces se le refiere a esta como IP de próxima
generación (IPng); la cual esta destinada a ser el futuro del IP.
15
2.3.2
Características generales de operación
Para entender como trabaja el protocolo IP, se debe observar sus características y la
forma en que éstas operan. Por esta razón se presentan a continuación las siguientes
características generales de operación:
•
Direccionamiento Universal: Si se desea enviar información de un punto A hacia
un punto B, es necesario asegurarse que los dispositivos sepan cual dispositivo
corresponde al punto B. Por lo que IP se encarga de definir los mecanismos de
direccionamiento para la red y utiliza estas direcciones para propósitos de entrega
de información.
•
Independencia con Protocolos de capas Inferiores: IP está diseñado para permitir
la transmisión de datos a través de cualquier tipo de tecnología de red de capa
inferior tales como las LAN, WLAN y WAN entre otras, siempre y cuando estén
diseñadas para trabajar con la arquitectura TCP/IP. De igual forma IP puede
desempeñarse en protocolos de capas inferiores, como el protocolo de enlace de
línea serial (SLIP) utilizado en el servicio de red conmutado y el protocolo punto a
punto (PPP) de la capa de enlace de datos.
•
Entrega de Información no Orientada a Conexión: IP es un protocolo sin
conexión, lo que significa que cuando el punto A desea enviar datos al punto B, éste
no realiza una conexión con el punto B para luego enviar los datos, sino que
simplemente crea los datagramas y los envía sin establecer una conexión con éste.
16
•
Entrega de Información no Confiable: Esto significa que cuando se envían
datagramas de un dispositivo A a un dispositivo B, el dispositivo A envía un
datagrama e inmediatamente continúa con el siguiente sin seguirle la pista a los que
ya ha enviado, lo cual no provee seguridad ni cualidades de servicio de calidad,
tales como protección contra errores para los datos que son enviados, controles de
flujo o retransmisión para los datagramas perdidos. Por esta razón es que al
protocolo IP se le considera un protocolo “best-effort” por que hace su mayor
esfuerzo para que la información vaya a su destino, pero no garantiza que
efectivamente llegue a éste.
•
Entrega de Información sin Reconocimiento: Esto significa que cuando el
dispositivo B recibe un datagrama del dispositivo A, éste no envía una confirmación
al dispositivo A especificando que el datagrama fue recibido.
2.3.3
Funciones Principales del IP
Dentro de la capa de red del modelo TCP/IP, el Protocolo de Internet IP se encarga
de realizar múltiples funciones. Algunas de las que tienen mayor relevancia son las
siguientes:
•
Direccionamiento: IP se encarga de realizar las funciones de direccionamiento para
poder enviar datagramas a través de la red. Su sistema está diseñado para permitir el
direccionamiento de dispositivos a través de grandes redes arbitrarias. También
contiene una estructura que facilita el enrutamiento de datagramas en redes
distantes.
17
•
Encapsulamiento de datos: IP recibe datos o información proveniente de los
protocolos UDP y TCP de la capa de transporte, la cual luego es encapsulada en
datagramas IP utilizando un formato especial el cual presenta prioridad a la hora de
su transmisión.
•
Fragmentación y Reensamblado: Las redes locales dentro de un conjunto de redes
interconectadas pueden especificar diferentes tamaños máximos de paquetes, por
esta razón el protocolo IP se encarga de fragmentar los datagramas en piezas de
menor tamaño, de esta forma pueden ser transmitidas a través de las redes locales.
El dispositivo que recibe la información utiliza la función de reensamblado para
unir las piezas y recrear el datagrama IP original.
•
Enrutamiento: IP se encarga de realizar lo que se conoce como “entrega directa” al
enviar un datagrama a un destino que se halla dentro de una misma red local. Si el
destino final se encuentra en una red distante que no está directamente conectada
con la fuente que está enviando la información, se utiliza lo que se conoce como
“entrega indirecta” donde el datagrama es enrutado a través de sistemas o
dispositivos intermedios (enrutadores) hasta llegar a su destino final. Esto lo
consigue haciendo uso principalmente de protocolos de enrutamiento tales como
RIP, BGP y OSPF, entre otros.
18
2.4
Infraestructura de un ISP
Físicamente, Internet está compuesta por enrutadores interconectados por enlaces de
comunicación. Las redes IP están formadas por unos cuantos enrutadores de propósito
general que se conectan unos con otros mediante enlaces propios o alquilados.
El mecanismo de enrutamiento del protocolo IP es el enrutamiento salto a salto sin
estado basado en el destino, el cual tiende a agregar tráfico en las principales rutas
troncales, por lo que es necesario implantar una estructura jerárquica
Al asignar tareas específicas a enrutadores particulares se logra imponer una
estructura jerárquica a una red compleja, por lo que los routers se dividen según su función
en los siguientes tipos:
•
Router de concentración: proporcionan acceso a la red a los clientes individuales.
Estos equipos tienden a centrarse en soportar números elevados de puertos de
relativa baja velocidad conectados a los clientes.
•
Router de backbone: proporciona transporte óptimo entre nodos de la red,
enviando paquetes a gran velocidad de un dominio a otro. El énfasis se pone en
alcanzar las mayores tasas de transmisión o forwarding rates sobre los interfaces
más rápidos disponibles.
La interconexión de los usuarios con la red de datos del proveedor se realiza en un
POP (Point of Presence) el cual es una ubicación física donde se disponen una serie de
19
equipos como los nodos de acceso o RAS, los routers concentradores de RAS y de clientes
con líneas dedicadas y routers de backbone.
La infraestructura de red que necesita un ISP para brindar los diferentes servicios
IP, se descompone en cuatro partes fundamentales, las cuales son:
2.4.1
Red de Acceso
Una red de acceso es aquella que conecta al usuario final con el nodo de red más
cercano a él. Existen varios tipos de redes de acceso, entre las más conocidas están:
•
Líneas Conmutadas: En esta red de acceso el tráfico es enviado al punto de
interconexión del operador de acceso que se conecta con la central de conmutación
del ISP. La central toma el número de destino y saca en interfaces primarios (ISDN
PRI) el tráfico de Internet. Estos primarios se suministran a los equipos RAS
(Remote Access Server) situados en los POP de la red de datos. El usuario final
establece una sesión PPP con el RAS por medio de un módem.
El RAS es un dispositivo de acceso remoto que dispone de muchos módems y que
realiza funciones de clientes RADIUS, autentificando al usuario y terminando la
sesión PPP. El estándar de Internet RADIUS opera cuando un dispositivo de acceso
remoto necesita autentificar a un usuario de acceso conmutado frente a un servicio
de directorio
•
Líneas Dedicadas: En este caso los clientes disponen de un router que se enlaza
directamente mediante una línea dedicada con un router concentrador de acceso por
20
el cual entra a la red de datos del proveedor. El router concentrador de acceso
realiza la agregación del tráfico procedente de líneas alquiladas. El enlace en el
router del cliente y el router concentrador se soporta actualmente sobre anillos de
fibra óptica.
•
Líneas ADSL: En este caso el módem ADSL se conecta al punto de terminación
telefónica en el domicilio del usuario. En el otro extremo del par de cobre se
localiza el DSLAM (Digital Subscriber Line Access Multiplexer), encargado de
terminar las conexiones ADSL de nivel físico de múltiples usuarios y de conmutar
las celdas ATM transportándolas hacia la red de acceso.
Para soportar el acceso por líneas ADSL es necesario introducir en la red de datos
un BAS (Broadband Access Server). Este equipo concentrará el tráfico y tendrá
funciones de enrutamiento, autentificación y control de tráfico.
2.4.2
Red de Concentración
La misión de esta red, situada en el borde de la red de datos, es agregar las
conexiones de los clientes en los puntos de presencia del proveedor. Dentro del POP, en el
nivel de concentración tenemos dos tipos de routers de concentración, unos dedicados a la
concentración de clientes conmutados y otros dedicados a la concentración de clientes
dedicados.
Las principales características que deben presentar los routers concentradores de
acceso son las siguientes:
21
•
Estabilidad y alto ancho de banda para satisfacer la creciente demanda de
transmisión de datos, voz y video.
•
Alta densidad de puertos para satisfacer el continuo crecimiento del número de
clientes.
•
Procesador optimizado para gestionar agregaciones de tráfico de gran volumen y
nuevas funcionalidades software.
•
Prestaciones de valor añadido adicionales al enrutamiento de paquetes de alta
velocidad: redes privadas virtuales, seguridad con listas de acceso extendidas y
firewalls, diferenciación de QoS y soporte multicast entre otros.
•
Mecanismos para flexibilizar las velocidades de acceso permitidas, como es el caso
de multilink PPP.
2.4.3
Red Troncal o Backbone
La red troncal es la encargada de agregar el tráfico procedente de las redes de
acceso y de concentración, también realiza la interconexión con el resto de puntos de
presencia de la red y la interconexión a otras redes, proveedores de tránsito y puntos
neutros, además de la interconexión con el entorno del Centro de Proceso de Datos (CPD).
Las principales características que presentan los routers backbone son las
siguientes:
•
Presentan un throughput en paquetes por segundo extremadamente alto.
22
•
Presenta un conjunto mínimo de funcionalidades de procesamiento de paquetes, se
centra en el reenvío rápido de paquetes.
•
2.4.4
Tiene un número modesto de interfaces de muy alta velocidad.
Red de Gestión – Centro de Proceso de Datos
Éste está compuesto por servidores de gestión de red IP, gestión de equipos de
cliente, DNS, RADIUS. Todos estos son sistemas de elevada disponibilidad en balanceo de
carga, son altamente escalables y están protegidos por firewalls. Su principal prioridad es la
de encontrar las causas de posibles fallos en el menor tiempo posible.
El CPD se conecta a un router del backbone por medio de dos líneas redundantes y
esta compuesto por las siguientes redes de área local:
•
LAN de gestión: incluye los servidores de: gestión de red IP, gestión de equipos de
cliente, estadísticas y acuerdos de nivel de servicio, y máquinas de visualización. El
acceso desde la red IP a la LAN esta protegido por un firewall dedicado.
•
LAN DNS / RADIUS: incluye los servidores de DNS principal, DNS cache y
RADIUS. Debido a que esta LAN incluye los servidores más críticos, el acceso
desde la red IP está protegido por dos firewalls dedicados en balanceo de carga con
lo que consigue que la carga máxima posible se duplique. Para obtener una alta
disponibilidad de servicios, se recomienda instalar un servidor DNS en cada uno de
los POP de más tráfico de la red.
23
2.5
Red Avanzada de Internet (RAI) del ICE
El 18 de abril del 2001, el ICE inauguró la Red Avanzada de Internet. Esta
iniciativa fue impulsada por la presidencia de la República, el Instituto Costarricense de
Electricidad y el Ministerio de Ciencia y Tecnología. Su creación se dio con el propósito de
modernizar el Sistema Nacional de Telecomunicaciones mediante el desarrollo de una
infraestructura de red sólida, preparada para brindar los nuevos servicios de
infocomunicaciones, con costos razonables y competitivos a nivel internacional, de modo
que facilite el acceso masivo a la información y se brinden comunicaciones de avanzada a
todos los sectores y empresas generadoras de riqueza, potenciando el desarrollo económico
y social del país.
Esta red está estructurada para proveer a todos los usuarios del país un acceso a una
infraestructura de telecomunicaciones de gran capacidad basada en los protocolos de
Internet IP. Su infraestructura fue diseñada pensando en futuras posibilidades de expansión,
crecimiento y evolución puesto que está diseñada como un sistema de alta capacidad con
ventajas como conexiones dedicadas de banda ancha, bajos costos de conexión, seguridad y
confiabilidad, escalabilidad y flexibilidad. Además, es compatible con plataformas actuales
y su arquitectura de red está diseñada para migrar hacia las futuras tecnologías.
La RAI permite utilizar los medios de transmisión ya existentes en el país, como lo
son los anillos de fibra óptica, la red de cobre perteneciente a la red telefónica y por
supuesto las líneas de transmisión del tendido eléctrico. En la actualidad existen una serie
de proyectos en desarrollo en torno a ésta como lo son el Proyecto Power Line
24
Communication (PLC) desarrollado conjuntamente por el ICE y la Compañía Nacional de
Fuerza y Luz (CNFL); el cual se encuentra en su etapa piloto y que se espera que permita
complementar el acceso a Internet a velocidades de hasta 2 Mbps a través de los cables
eléctricos. Sin embargo, quizás el de mayor relevancia es el Proyecto Frontera a Frontera
que permitirá conectar el país de norte a sur y de este a oeste con una red de fibra óptica.
Figura 2.2 Mapa del Proyecto Frontera a Frontera del ICE [18]
La RAI requiere una interconexión segura con el resto del mundo, de ahí que se ha
aumentado la capacidad y redundancia de los cables submarinos. En el cable submarino
Maya-1, el ICE aumentó la capacidad actual del enlace a 155 Mbps, ampliables hasta 12.5
Gbps. Maya 1 es un enlace submarino que por medio de dos pares de fibra óptica de 4 400
Km de longitud, conecta a Florida (Estados Unidos) con Tolú (Colombia) con derivaciones
a Cancún (México), Puerto Cortés (Honduras), Gran Caimán (Islas Caimán), Puerto Limón
(Costa Rica) y Colón (Panamá). Además, el país se conectará al cable ARCOS-1 con una
capacidad de 155 Mbps y que puede crecer hasta 25 Gbps. ARCOS-1 es un enlace
submarino por medio de fibras ópticas de 8 400 Km de longitud que interconecta 15 países
25
en la región del Caribe: Estados Unidos, Bahamas, Turks y Caicos, República Dominicana,
Puerto Rico, Curazao, Venezuela, Colombia, Panamá, Costa Rica, Nicaragua, Honduras,
Guatemala, Belice y México. Funciona como una ruta alterna para el enlace submarino
Maya-1.
Figura 2.3 Mapa de los enlaces submarinos ARCOS-1 Y Maya-1 [5] y [6]
Además, para dar una mayor redundancia a las salidas internacionales, se está
formalizando la conexión al Cable Interoceánico Pacífico (Global Crossing).
Figura 2.3 Mapa de la interconexión Mundial de Global Crossing [7]
26
2.4.1
Estructura de la RAI
La estructura de la red se compone de dos niveles, el nivel 1: Backbone y el nivel 2:
Acceso, como se puede observar en la figura 2.4, donde la nube azul representa la capa 1y
todo lo que se encuentra fuera de la misma, representa la capa 2.
Figura 2.4 Capas 1 y 2 de la estructura de la RAI [18]
•
Nivel Backbone: La red medular o backbone es la parte troncal de la red con
suficiente capacidad para la interconexión de las diferentes subredes a través de ella.
La configuración general de ésta se compone de dos capas la del núcleo, formada
por 6 Giga-enrutadores de alta capacidad (10 Gbps) con la conexión internacional,
entrelazados por la fibra óptica. Y capa de distribución, compuesta por 26 Gigaenrutadores, ubicados en los principales nodos de tránsito del Sistema Nacional de
Telecomunicaciones (SNT), a velocidades de 2,5 Gbps.
27
•
Nivel Acceso: La red de acceso se compone de los equipos Mega-enrutadores de
agregación, que se ubican en la mayoría de las centrales telefónicas del país, los
cuales agrupan los equipos Multiplexadores Digitales de Acceso a la línea del
Subscriptor (DSLAM), que en definitiva brindan las conexiones a los clientes a
través de los equipos de línea de Subscriptor Digital Asimétrica (DSL).
2.4.2
Implementación de la RAI
En Costa Rica durante muchos años han existido tres redes funcionando
paralelamente: una red para telefonía, una red para datos y una red de televisión. Las
nuevas tecnologías tienden a una convergencia de todos los servicios en una sola red basada
en IP, como se muestra en la figura 2.5.
Figura 2.5 Provisión actual y futura de los servicios de datos, voz y video [18]
Sin embargo esta convergencia exige cada vez un mayor ancho de banda, por lo
cual se está implementando la nueva tecnología dominante basada en la fibra óptica. Otro
aspecto que conlleva dicha convergencia es a la desaparición gradual de algunas de las
28
capas de transporte y circuitos. Los nuevos lineamientos tecnológicos van dirigidos hacia
un modelo de transporte de dos capas como el mostrado en la figura 2.6, logrando bajo
costo en los equipos, bajo costo en la operación, una arquitectura más simple y una
facilidad de crecimiento a medida que se necesite más ancho de banda.
Figura 2.6 Simplificación de operaciones en el modelo de transporte [18]
El modelo de las redes IP basado en la conmutación de paquetes, permite compartir
el medio físico entre todos los usuarios con un ahorro importante de recursos, y a la vez
garantiza la independencia y seguridad de las comunicaciones mediante la implementación
de redes virtuales o redes lógicas independientes, dejando de lado el modelo de
conmutación de circuitos utilizado durante mucho tiempo en la telefonía convencional.
29
Figura 2.7 Medios físicos de conexión en la conmutación de circuitos y paquetes [18]
2.4.3
Infraestructura de la RAI
Según la licitación 7075-T obtenida por la compañía GBM, la RAI cuenta con un
sistema de enrutadores llave en mano estructurado de la siguiente forma:
•
239 enrutadores: Conformados por 6 Giga-enrutadores de Core, 26 Gigaenrutadores de distribución y 307 Mega-enrutadores de acceso.
•
58 conmutadores: Conformado por 26 conmutadores LAN-Switch y 26
conmutadores Switch IP+.
•
2 sistemas de gestión: Un gestor de sistema de enrutadores y un gestor de VPNS
(Redes virtuales privadas MPLS).
El equipamiento utilizado específicamente es el siguiente:
30
Para los Giga-enrutadores de Core se utilizó el modelo GSR-12416, y para los
Giga-enrutadores de distribución se utilizó el modelo GSR-12016, los cuales de muestran
en la figura 2.8.
Figura 2.8 Giga-enrutadores [19]
Los Mega-enrutadores utilizados fueron del modelo A1-7606 y A2-7204 VXR,
mientras que los conmutadores LAN-switch y Switch IP+ son respectivamente de los
modelos 3524-EMI y 3550-12G, todos éstos se pueden observar en la figura 2.9.
Figura 2.9 Mega-enrutadores y conmutadores [19]
31
El esquema general de interconexión del equipo se muestra en la figura 2.10.
Figura 2.10 Esquema de interconexión del equipo que conforma la RAI [19]
Así siguiendo de izquierda a derecha la figura 2.10, se puede notar como los Gigarouters de Core se conectan entre sí, y su vez se conectan con los de distribución, los cuales
se conectas a los Mega-routers y aunque no se aprecia en la figura 2.10, éstos también se
enlazan con otros Giga-routers de distribución. Finalmente los conmutadores se conectan a
los Mega-enrutadores y posteriormente el usuario recibe los servicios a través de los
equipos ADSL. Una visión más completa se muestra más adelante en la figura 12.13.
2.4.4
Nivel Core
Los Giga-enrutadores de Core se colocaron en puntos estratégicos del país, estos
puntos son las centrales telefónicas en San José, San Pedro, Pavas, Alajuela, San Ramón y
Cartago, las cuales se representan como puntos rojos en la figura 2.11.
32
Figura 2.11 Ubicación de los Giga-enrutadores de Core [19]
Todos estos Giga-enrutadores de Core deben enlazarse entre sí de una manera
específica la cual se observa en la figura 2.12, donde se puede observar como el Gigarouter de San José es el enlace principal, ya que se interconecta directamente con los otros
5 Giga-routers que componen el núcleo. También destaca el Giga-enrutador de San Pedro
que se conecta a los demás, excepto al de San Ramón.
Figura 2.12 Enlace de los Giga-enrutadores [19]
33
La figura 2.13 muestra el esquema completo de la conexión de la RAI en el país,
donde se puede observar cómo efectivamente la interconexión de los Giga-enrutadores de
núcleo es la mostrada en la figura 2.12, y sigue la estructura de conexión de la figura 12.10.
En la figura 2.13 los discos rojos representan los 6 Giga-enrutadores de alta
capacidad (10 Gbps) del núcleo, y las líneas negras continuas sus enlaces. Los discos azul
oscuro representan los 26 Giga-enrutadores de distribución ubicados en los principales
nodos de tránsito del SNT, a velocidades de 2.5 Gbps, mientras sus enlaces aparecen
indicados como líneas azules discontinuas. Finalmente, los discos celestes y verdes,
representan los Mega-enrutadores de acceso, y las líneas verdes y naranjas sus enlaces.
Figura 2.13 Esquema completo de la RAI en Costa Rica [19]
34
CAPÍTULO 3: Conceptos sobre calidad de servicio en redes IP
La calidad de servicio (QoS) se ha convertido en la actualidad, en un campo de
investigación necesario para el soporte de nuevos tipos de aplicaciones de red. En los
últimos años, la mayoría de tecnologías de red se han preocupado más por enviar
información de un lugar a otro lo más rápido posible, en vez de interesarse un poco más por
la forma en como se está enviando esta información. Para algunas aplicaciones tales como
las transferencias de archivos y mensajes esto no representa ningún inconveniente, sin
embargo existen otra clase de aplicaciones, tal es el caso de las aplicaciones multimedia, en
las que este tipo de funcionamiento no brinda un servicio de calidad, por lo que se necesita
tecnologías o protocolos que puedan ofrecer QoS.
En la actualidad los ISPs están interesados en ofrecer un servicio más distinguido
que los diferencie de los otros proveedores de servicio de Internet, de forma que
dependiendo de las necesidades de los clientes, éstos puedan proporcionar diferentes
opciones de QoS que permita satisfacer los requerimientos solicitados de la calidad del
servicio de los clientes o usuarios.
3.1
Definición de QoS
En la Rec. UIT-T E800 se define la calidad de servicio (QoS) como “El efecto
global del rendimiento de un servicio que determina el grado de satisfacción de un usuario
sobre un servicio” [17].
En la Rec. UIT-T X.902 se define la calidad de servicio (QoS) como “El conjunto
de requisitos de calidad que debe cumplir el comportamiento colectivo de uno o más
35
objetos”. En cuanto a la calidad de servicio puede proceder de dos maneras: se puede
especificar en un contrato o medirla e informar sobre ella después del evento. [17]
En la Rec. UIT-T Q.2762 se define la calidad de servicio (QoS) como “La
información enviada hacia delante para indicar la clase de calidad de servicio solicitada por
el usuario para una conexión”. Se definen clases de calidad de servicio para permitir que
una red optimice recursos para el soporte de diversas clases de servicios. [17]
La calidad de servicio se caracteriza por los aspectos combinados de actuación en
cuanto al soporte del servicio, la actuación en cuanto a la operabilidad del servicio, la
actuación en cuanto a la aptitud para prestar el servicio, la actuación en cuanto a la
seguridad de servicio y otros factores específicos de cada servicio.
Lo que se tiene que considerar es que las redes transportan tipos de tráficos
múltiples que combinan datos, video y voz, y que cada uno de estos tipos de tráficos tienen
distintas características y diferentes requerimientos en términos de entrega en la red, por lo
que el objetivo de implementar QoS es el de brindar un desempeño consistente y predecible
para cada uno de los tipos de tráfico, sin importar para donde vayan en la red.
3.2
Importancia de implementar QoS
Una de las principales razones del interés por los mecanismos de calidad de servicio
es la de proteger los datos en aplicaciones de misión critica de los datos de misión no
crítica, lo cual representa una prioridad y una necesidad, sobre todo en las grandes
organizaciones del mundo.
36
Otra importancia del QoS se presenta a la hora de implementar voz en la red, ya que
se requerirá la habilidad de proteger la voz de los datos y de igual forma se necesitará
proteger el tráfico de video de los datos. Además con la implementación de QoS se podrá
clasificar los distintos tipos de tráficos y dar prioridad a tráficos como el de voz y video que
son sensibles al retraso y a la pérdida de información.
Existen grandes beneficios en la implementación de QoS en la red como tal, ya que
con este se puede obtener un mejor control de nuestros recursos de red, permite utilizar un
ancho de banda existente de manera más eficiente, ayudando en mayor medida a las WANs
a utilizar sus recursos de red para que éstas alcancen un mejor rendimiento, ya que su ancho
de banda se puede considerar que es de cierta forma limitado ya que los costos de
incrementar este recurso son muy grandes, en comparación con las LANs en donde se
pueden resolver muchos de los problemas simplemente aumentando el ancho de banda, sin
que esto signifique mayores costos.
3.3
Parámetros de calidad para redes IP
Con el objetivo de especificar y evaluar la calidad de funcionamiento de las redes
IP, la Unión Internacional de Telecomunicaciones (UIT) en la Rec. UIT-T Y.1540 define
un conjunto de parámetros establecidos, entre los cuales se suele utilizar los siguientes:
•
Retardo de transferencia de paquete IP (IPTD, IP packet transfer delay).
El retardo de la transferencia de paquetes IP se define para todos los resultados
paquetes satisfactorios y con errores a través de una sección básica o un NSE. El IPTD es el
37
tiempo (t2 – t1) que transcurre entre la ocurrencia de dos eventos de referencia de
paquetes IP correspondientes.
•
Variaciones del retardo del paquete IP, o fluctuación de fase (IPDV, IP packet
delay variation, or Jitter).
El jitter se define como la variación de los retardos de la transferencia de paquetes
IP de una población de interés.
•
Tasa de pérdida de paquetes IP (IPLR, IP packet loss ratio).
La tasa de pérdida de paquetes IP es la relación entre el total de resultados de
paquetes IP perdidos y el total de paquetes IP transmitidos en una población de interés.
•
Tasa de errores en los paquetes IP (IPER, IP packet error ratio).
La tasa de errores en los paquetes IP es la relación entre el total de resultados de
paquetes IP con errores y el total de resultados de transferencia de paquetes IP satisfactoria
más los resultados de paquetes IP con errores en una población de interés.
Estos cuatro parámetros en conjunto determinan la calidad de servicio que un
conjunto de paquetes que van de un origen a un destino necesitan.
3.3.1
Principales causas
Los errores en los paquetes pueden ser causados por ruido en los canales de
comunicación, mientras que los problemas de pérdidas de paquetes pueden presentarse en
los buffers. Con la implementación de nuevas tecnología y medios de transmisión como la
fibra óptica este tipo de pérdidas se han vuelto tan pequeñas que se consideran
insignificativas. En cuanto al retardo, este puede ser provocado de 3 formas diferentes: el
38
retardo de transmisión, el retardo de procesamiento en los enrutadores y el retardo de las
colas de los enlaces, y al igual que antes con la implementación de nuevas tecnologías estos
se han ido reduciendo, con excepción del retardo debido a las colas de los enlaces, en los
que mucho tiene que ver la capacidad del enlace. Las fluctuaciones o jitter se producen por
las congestiones en la red, y éstas se pueden solucionar añadiendo un retardo adicional en el
lado del receptor, lo que implicaría la necesidad de un buffer lo suficientemente grande.
3.3.2
Requerimientos para aplicaciones
Por la red viajan flujos de paquetes que van de un origen a un destino, estos flujo de
información están conformados por distintos tipos de aplicaciones las cuales varían sus
requerimientos unas con otras, por lo que en la siguiente tabla se hace un listado resumen
de diferentes tipos de aplicaciones y el nivel de sus requerimientos.
Tabla 3.1 Aplicaciones y niveles de requerimiento. [2]
Aplicación
Confiabilidad
Retardo Fluctuación Ancho de banda
Correo electrónico
Alto
Bajo
Bajo
Bajo
Transferencia de archivos
Alto
Bajo
Bajo
Medio
Acceso a Web
Alto
Medio
Bajo
Medio
Inicio de sección remoto
Alto
Medio
Medio
Bajo
Audio bajo demanda
Medio
Bajo
Alto
Medio
Video bajo demanda
Medio
Bajo
Alto
Alto
Telefonía
Medio
Alto
Alto
Bajo
Videoconferencia
Medio
Alto
Alto
Alto
39
Para las primeras cuatro aplicaciones de la tabla presentan altos requerimientos en
cuanto a confiabilidad, ya que se necesita enviar todos los bits de manera correcta y de
forma completa. La alta confiabilidad para estas aplicaciones la brinda el protocolo TCP ya
que éste realiza un reconocimiento de recepción cada vez que es entregada una pieza de
información y en caso de un error de transmisión, éste se encarga de realizar una
retransmisión. Las aplicaciones en tiempo real, como la telefonía y la videoconferencia
tienen altos niveles de requerimientos en cuanto al retardo se refiere, ya que si éste es muy
grande la interacción entre los usuarios se vera afectada y eso se consideraría inaceptable.
En cuanto a las fluctuaciones o variaciones de retardo, los más afectados serían las
transmisiones que presenten audio o video. En el audio fluctuaciones de unos cuantos
milisegundos son claramente audibles. Por último, los requerimientos de ancho de banda
dependen mucho del tipo de aplicación, el correo electrónico y la telefonía no necesitan
altos requerimientos a diferencia de las transmisiones que involucran video.
3.3.3
Solución a los problemas de QoS
Para solucionar los problemas de calidad de servicio, es necesario buscar formas
para evitar que se formen congestionamientos en la red. Las congestiones se producen por
que las redes no se poseen la capacidad suficiente para transportar todo el tráfico, o por una
mala distribución de éste, lo que provoca que se sobrecarguen ciertos nodos más que otros.
Dentro de la red IP, se deben solucionar problemas basados en la orientación de los
paquetes de información, en el enrutamiento dinámico, en el poco uso de prioridades y en
40
la no separación de un tráfico especifico. Por lo que posibles mecanismos para solucionar
estos problemas serían los siguientes:
•
Redimensionar la capacidad de la red.
•
Aplicar ingeniería de tráfico a modelos que garanticen QoS en las redes IP.
3.4
Clases de QoS
En la Rec. UIT-T Y.1541 “Objetivos de calidad de funcionamiento de red para
servicios basados en el protocolo Internet”, se definen seis clases de QoS para el IP,
basándose en aplicaciones, mecanismos de nodo y técnicas de red:
Tabla 3.2 Directrices para las clases de QoS. [17]
Clase de
QoS
0
1
2
3
4
5
Aplicaciones (ejemplos)
En tiempo real, sensible a
la fluctuación de fase, alta
interactividad
(VoIP, VTC)
En tiempo real, sensible a
la fluctuación de fase,
interactividad normal
(VoIP, VTC)
Datos de transacciones,
alta interactividad
(señalización)
Datos de transacciones,
interactividad normal
Sólo de baja pérdida
(transacciones cortas,
datos en bloque, vídeo de
flujo continuo)
Aplicaciones tradicionales
de las redes IP por defecto
Mecanismos de nodo
Cola independiente con
servicios preferentes,
acondicionamiento de
tráfico
Técnicas de red
Encaminamiento y
distancias restringidos
Encaminamiento y
distancias menos
restringidos
Encaminamiento y
distancias restringidos
Cola independiente, sin
prioridades
Encaminamiento y
distancias menos
restringidos
Cola larga, sin prioridades
Cualquier ruta/trayecto
Cola independiente,
prioridad mínima
Cualquier ruta/trayecto
41
Para cada clase de QoS, se definen objetivos de calidad de funcionamiento de red IP
en términos de gamas de valores de parámetros de red IP medidos: IPTD, IPDV, IPLR e
IPER.
3.5
Áreas importantes para la aplicación de mecanismos de QoS
Existen 3 áreas claves en una red en las que se pueden aplicar mecanismos de
calidad de servicio.
La clasificación de paquetes es importante en donde el tráfico llega a la red,
básicamente al borde. La idea es clasificar el tráfico lo más rápido posible con el objetivo
de dar prioridad a cierta clase de tráfico, de manera que el ingreso a la red se considera el
mejor lugar para realizarlo. En el borde de las redes de área amplia es donde es importante
tener control de funciones tales como: el control de admisión, prevención de
congestionamiento y también técnicas de manejo de congestión. En el núcleo de las redes
es donde se implementa la prevención de congestionamiento y las técnicas de manejo de
congestión.
Figura 3.1 Áreas de aplicación de QoS. [19]
42
3.6
Tecnologías para brindar QoS en redes IP
Existen diferentes tipos de modelos y tecnologías para brindar QoS en las redes IP,
entre los más utilizados se encuentran el IntServ (Integrated Services), y DiffServ
(Differentiated Services). Por lo que se realizará a continuación un repaso general de estos
modelos y se dedicarán los siguientes capítulos al estudio detallado de la tecnología MPLS
y cómo se utiliza la ingeniería de tráfico junto con estos modelos para garantizar QoS en las
redes IP.
3.6.1
Integrated Services (IntServ)
El mecanismo IntServ junto con el Protocolo de Reserva de Recursos (RSVP)
permiten al usuario solicitar de antemano los recursos que necesita para poder brindar QoS
a aplicaciones de tiempo real, por lo que cada enrutador en el trayecto efectúa la reserva
solicitada. Normalmente la reserva de recursos se realiza para una secuencia de datagramas
relacionados entre si.
Para poder implementar el protocolo RSVP, los enrutadores deben incorporar los
siguientes elementos:
•
Control de Admisión: su función es la comprobar si la red tiene los recursos
suficientes para poder satisfacer la petición requerida.
•
Control de Vigilancia: que determina si un usuario tiene los permisos adecuados
para satisfacer la petición requerida.
43
•
Clasificador de paquetes: que clasifican los paquetes en categorías basándose en la
calidad de servicio a la que pertenecen, dependiendo de la categoría se especificará
una cola y se reservará un espacio para buffers en los enrutadores.
•
Organizador de paquetes: que organiza el envío de paquetes dentro de cada
categoría.
El problema con el IntServ radica en que es poco escalable, ya que necesita
mantener información en cada enrutador, y otro inconveniente es que se necesita una
compleja implementación para el protocolo RSVP en los enrutadores, lo que elevaría los
costos.
3.6.2
Differentiated Services (DiffServ)
La arquitectura DiffServ se basa en la división del tráfico o paquetes en categorías,
utilizando una marca llamada DSCP (Differentiated Service Code Point), el cual utiliza seis
bits que quedan registrados en el byte de tipo de servicio (TOS) en la cabecera del
datagrama. Con esto se logra controlar la cantidad de tráfico enviado a la red
correspondiente a las diferentes categorías de tráfico. Dependiendo de la categoría se le
asigna un correspondiente SLA (Service Level Agreement), donde los usuarios pueden
solicitar un determinado caudal con base en las diferentes categorías y así se garantiza QoS
a ciertas clases de tráfico.
DiffServ define un comportamiento por salto (PHB), como el comportamiento de
avance a través de la red que cada nodo aplica a una colección de paquetes que poseen un
44
mismo DSCP. Éste representa una descripción cualitativa de las características de latencia,
jitter o pérdidas que experimenta estos paquetes al atravesar un nodo DiffServ.
En el DiffServ, los enrutadores tratan cada paquete según su categoría, que viene
especificada en la cabecera del mismo; los controles de vigilancia y admisión sólo se
aplican a los enrutadores de entrada a la red del proveedor y en los que atraviesan fronteras
entre proveedores diferentes.
3.6.3
Comparación entre IntServ y DiffServ
IntServ
•
IntServ fue desarrollado con anterioridad a DiffServ.
•
Poco escalable
•
Brinda garantía de recursos por flujo.
•
Provee soporte a los mecanismos de señalización para la reserva de recursos.
•
Requiere una compleja implementación en los enrutadores.
DiffServ
•
DiffServ se ha desarrollado más que IntServ.
•
Permite agregar flujos, el modelo es escalable.
•
Provee tratamiento de tráfico por medio de clases de servicios.
•
Tiene una fácil implementación.
•
Se ajusta mejor a la arquitectura de las redes IP.
45
CAPÍTULO 4: Ingeniería de tráfico en MPLS
4.1
Migración de los ISP hacia MPLS
A comienzos de los 90, las redes de los ISP se componían de routers
interconectados por líneas alquiladas -enlaces E1 (2 Mb/s) y E3 (34 Mb/s). A medida que
Internet comenzó su crecimiento exponencial, los ISP respondieron a este reto
provisionando más enlaces para proporcionar ancho de banda adicional. En este contexto,
la ingeniería de tráfico adquirió cada vez más importancia para los ISP, a fin de poder usar
eficientemente el ancho de banda agregado cuando se disponía de varios caminos paralelos
o alternativos.
En las redes troncales basadas en routers, la ingeniería de tráfico se efectuaba
simplemente manipulando las métricas de enrutamiento. El control de tráfico basado en
métricas supuso una solución adecuada para la ingeniería de tráfico hasta 1994 ó 1995,
momento en el que las redes adquirieron una dimensión demasiado grande para este
método. En 1995 el volumen del tráfico de Internet alcanzó un punto en el que los ISP
necesitaban migrar sus redes para soportar enlaces troncales superiores a E3 (34 Mb/s).
Afortunadamente, en ese momento aparecieron los interfaces ATM STM-1 (155 Mb/s) en
conmutadores y routers. Los ISP se vieron forzados a rediseñar sus redes para poder usar
las mayores velocidades soportadas por una red troncal ATM. Después de un período de un
año, los enlaces entre conmutadores ATM se tuvieron que actualizar a STM-4 (622 Mb/s).
Actualmente, sin embargo, las características que eran exclusivas de ATM
(interfaces de alta velocidad, rendimiento determinista, ingeniería del tráfico mediante
46
definición de PVC) se pueden encontrar también en los routers de backbone. Estos avances
han hecho que los ISP se replanteen continuar con un modelo de red superpuesta IP / ATM,
cuya principal limitación es que requiere gestionar dos redes diferentes, una infraestructura
ATM y un overlay lógico IP.
La alternativa de MPLS ("Multiprotocol Label Switching”) supone un mecanismo
flexible y prometedor para soportar ingeniería de tráfico, calidad de servicio extremo y
enrutamiento basado en restricciones sobre las redes de los ISP. MPLS provee una clara
separación entre el enrutamiento y la conmutación, y permite el despliegue de un único
plano de control, MPLS, que puede utilizarse para múltiples servicios y tipos de tráfico, y
sobre distintas redes.
MPLS todavía no se ha desplegado masivamente en las redes de los ISP porque los
routers concentradores de la antigua tecnología carecen del rendimiento, escalabilidad y
capacidad de proceso por flujo necesarios para implementarlo eficazmente. Y no todos los
ISP están dispuestos a realizar las inversiones en la compra de los routers de nueva
generación inmediatamente, sino que esperan hacerlo gradualmente.
Por otro lado, las redes IP/MPLS no están preparadas todavía para soportar toda la
gama de servicios de ATM, y aunque el tipo de tráfico que crece más rápidamente en la
actualidad es IP, los servicios de ATM y Frame Relay siguen creciendo. Para aquellos
proveedores que disponen de una plataforma ATM, y quieren desarrollar nuevos servicios
IP manteniendo el
soporte de sus servicios ATM y Frame Relay, se ha creado la
funcionalidad "ships in the night" en los conmutadores ATM. Ésta permite la coexistencia
de un plano de control ATM y un plano de control MPLS en el mismo equipo. Los dos
47
planos de control son co-residentes en el mismo equipo, pero operan independientemente y
simultáneamente sobre cada puerto. Esto permite a los ISP introducir MPLS poco a poco
en la red, dividiendo una red física ATM en dos topologías disjuntas, sin embargo lo más
deseable es llegar a migrar completamente a MPLS, pues la orientación a conexión de
MPLS y la conmutación basada en etiquetas posibilitan los siguientes aspectos:
•
Ingeniería de tráfico: Una de las principales ventajas que aporta la implantación de
MPLS en la red de datos es la ingeniería de tráfico para optimizar la utilización de
los enlaces entre los routers. En ausencia de ingeniería de tráfico, el tráfico IP sigue
el camino más corto, ignorando rutas alternativas a través de la red. Esto conduce a
cuellos de botella en enlaces fuertemente cargados ("hiperagregación"), mientras
que otros enlaces permanecen subutilizados. La utilización del enrutamiento basado
en restricciones de red y caminos conmutados conduce a una red cargada de forma
más uniforme y permite realizar un control de congestión. Una red con ingeniería de
tráfico basada en MPLS tendrá los enlaces igualmente cargados, dando como
resultado una red con mayor robustez contra los picos de tráfico y unas mayores
prestaciones globales.
•
Servicios de conectividad VPN multitecnología: Los caminos conmutados de
MPLS llamados LSP (Label Switched Path) permiten provisionar servicios de
interconexión corporativos de forma segura, puesto que los paquetes son
conmutados mirando sólo las etiquetas. Esto es, MPLS permite transportar de forma
transparente y conmutada cualquier tipo de información entre dos puntos.
48
•
Calidad de servicio: Por medio de los LSP, se pueden proporcionar calidades de
servicio diferenciadas, sin los problemas que presentaban IntServ y DiffServ sobre
las arquitecturas con capa de red sin conexión. En MPLS la QoS se puede
implementar mediante una combinación de TE (Traffic Engineering) sobre MPLS
con el modelo de servicios diferenciados DiffServ.
•
Posibilidad de ofrecer servicios orientados a conexión en entornos LAN/MAN:
MPLS permite ofrecer Redes Privadas Virtuales de Nivel 21, en las cuales el camino
MPLS a través de la red del ISP es un circuito virtual entre dos ubicaciones de
cliente. Los circuitos virtuales de nivel 2 son una red MPLS superpuesta sobre la
red troncal del proveedor.
4.2
Aspectos básicos de la arquitectura MPLS
MPLS (Multiprotocol Label Switching) es una arquitectura orientada a conexión,
que actúa como una estructura de transporte de datos estándar creada por la IETF y
establecido en el RFC 3031, es un mecanismo de conmutación creado para proporcionar
circuitos virtuales en las redes IP.
1
Para mayor información sobre VPN consultar los documentos de la IETF RFC 2547 y RFC 4364.
49
4.2.1
Concepto de Etiqueta
El RFC 3031, “Multiprotocol Label Switching Architecture” define etiqueta como
un identificador continuo corto de longitud fija, que es utilizado para identificar un FEC
(Forwaring Equivalence Class), usualmente aplicado de forma local.
Básicamente una etiqueta es un valor que se le añade a un paquete, de forma que le
indica a la red hacia donde debe ir el paquete. Una etiqueta está compuesta por 20 bits, lo
que significa que existen 1.048.576 posibles valores para ésta.
Un paquete puede tener múltiples etiquetas almacenadas en la pila de las etiquetas.
La pila de las etiquetas es un grupo de una o más etiquetas sobre un paquete. En cada salto
en la red, sólo la etiqueta que se encuentre en la parte superior de la pila es considerada. La
etiqueta que el enrutador LSR (Label Switched Router) utiliza para hacer avanzar el
paquete en el plano de datos corresponde a la etiqueta que fue asignada y distribuida en el
plano de control.
Cuando se colocan etiquetas sobre un paquete, el valor de 20 bits de la etiqueta es
codificado con piezas de información adicionales que ayudan en el avance de los paquetes
etiquetados a través de la red.
Figura 4.1 Cabecera MPLS
La cabecera está formada por 32 bits, de los cuales 20 bits son para el valor de la
etiqueta (Label). Los 12 bits adicionales se distribuyen de la siguiente forma:
50
•
EXP: Los 3 bits utilizados para EXP son técnicamente reservados para usos
experimentales. En la mayoría de las implementaciones MPLS, estos bits se utilizan
principalmente para llevar información relativa a la calidad de servicio (QoS).
•
S: El bit S se utiliza para indicar que el fondo de la pila se ha alcanzado (S=1),
cuando S=0 se esta indicando que hay más etiquetas añadidas al paquete. Este
indicador es útil ya que es muy común que un paquete tenga más de una etiqueta.
•
TTL: Los 8 bits Time To Live se utilizan en la mayoría de casos para realizar una
copia directa del encabezado IP TTL.
MPLS permite manejar distintos niveles de etiquetas, lo cual le permite establecer
una red jerárquica y realizar agregación de LSPs en zonas específicas de la red.
4.2.2
Plano de control y plano de datos
El plano de control es el lugar en donde la información de enrutamiento y la demás
información de control es intercambiada entre enrutadores LSR. Se puede decir que MPLS
es un protocolo conducido por el plano de control, lo que significa que la información de
control intercambiada debe estar en el lugar antes de que al primer paquete de datos se le
permita avanzar en la red. El avance de paquetes de datos a través de la red se lleva acabo
en el plano de datos.
4.2.3
FEC y enrutadores LSR y LER
En las arquitecturas de capa de red sin conexión mientras un paquete viaja de un
enrutador al siguiente, cada enrutador toma una decisión de reenvío independiente para ese
paquete.
Es decir, cada enrutador analiza la cabecera del paquete, y elige de forma
51
independiente el siguiente salto para el paquete, basado en su análisis de la cabecera del
paquete y los resultados de correr un algoritmo de encaminamiento.
MPLS es una arquitectura orientada a conexión, en la cual se hace una partición del
conjunto de todos los posibles paquetes que ingresan a la red en clases de equivalencia
denominadas “Fowarding Equivalent Classes” (FEC). Entonces una FEC es un grupo de
paquetes que serán reenviados de la misma manera en el dominio MPLS. Una vez
asignados los paquetes a una determinada FEC, éstos son indistinguibles desde el punto de
vista de su reenvío.
Por su parte, la RFC 3031 define la existencia de dos tipos de enrutadores en MPLS,
los LSR (Label Switched Router) que corresponden a los nodos interiores de la topología de
red y los que se encuentran en los bordes de la red llamados LER (Label Edge Router).
En MPLS, la asignación de un paquete particular a una FEC particular se hace sólo
una vez, cuando el paquete ingresa a un LER de la red. Una vez que se definen todos los
enrutadores por los que circulará una determinada FEC, se establece un acuerdo de cual
será la etiqueta de envío en cada nodo, entonces se establece un camino virtual denominado
LSP, el cual corresponde al camino que atravesará el paquete etiquetado a través de la red
desde que se le añaden etiquetas hasta que se le remueven.
Cuando un paquete etiquetado es recibido por un enrutador MPLS se examina la
etiqueta que se encuentra en el tope de la pila. Basándose en el contenido de la etiqueta el
enrutador puede realizar alguna de las siguientes operaciones: empujar (Push), sacar (Pop)
o intercambiar (Swap).
52
En una operación “Swap” la etiqueta es cambiada por otra y el paquete es enviado
en el camino asociado a esta nueva etiqueta.
En una operación “Push” una nueva etiqueta es empujada por encima de otra (si es
que existe). De existir otra etiqueta, la nueva etiqueta “encapsula” a la anterior.
En una operación “Pop” la etiqueta es removida del paquete, lo cual puede revelar
una etiqueta interior (de haberse realizado un encapsulamiento anteriormente). A este
proceso se le llama “Desencapsulado” y es usualmente realizado por el LER.
Cuando un paquete se reenvía a su siguiente salto, la etiqueta se envía junto con
ella; es decir, los paquetes se “etiquetan” antes de que se reenvíen.
La especificación del LSP se realiza por medio de protocolos extendidos de
enrutamiento IP, y la distribución de etiquetas a lo largo de estas trayectorias es lograda por
protocolos de distribución de etiqueta (LDP).
En síntesis, en el paradigma de reenvío de MPLS, una vez que un paquete es
asignado a un FEC, no se hace ningún otro análisis de la cabecera de la capa de red del
paquete por los enrutadores subsecuentes; todo el reenvío es conducido por las etiquetas.
Más bien, la etiqueta se utiliza como un índice en una tabla que especifica el salto siguiente,
y una nueva etiqueta. La vieja etiqueta se substituye por la nueva etiqueta, y el paquete se
remite a su salto siguiente. El último nodo de la red para un paquete, eliminará la etiqueta y
enviará el paquete hacia fuera de la red MPLS tal como arribó al dominio, como se puede
observar en la figura 4.2:
53
Figura 4.2 Arquitectura MPLS [15]
4.3
Ingeniería de tráfico en MPLS
4.3.1
Conceptos sobre ingeniería de tráfico
Para poder comprender cómo es que se logra hacer ingeniería de tráfico con MPLS,
primero es necesario entender el concepto en sí de Ingeniería de Tráfico (TE).
Cuando se trata con redes que están en constante crecimiento y expansión, se tiene
que existen dos tipos de ingenierías, la ingeniería de red y la ingeniería de tráfico.
La ingeniería de red consiste en la manipulación de una red para ajustarla a un
determinado tráfico. En ésta se realizan predicciones acerca de cómo fluirá el tráfico a
través de una red para después ordenar los circuitos y dispositivos de red apropiados
(routers, switches y otros más).
La ingeniería de tráfico consiste en la manipulación del tráfico para ajustarlo a una
determinada red. Básicamente se refiere a la capacidad de mover el tráfico a través de una
54
red, de modo que si existe tráfico en un enlace congestionado, éste sea movido a un enlace
cuya capacidad está en desuso.
4.3.2
Definición formal de ingeniería de tráfico
La ingeniería del tráfico (TE) se refiere al proceso de seleccionar las trayectorias de
los paquetes basándose en los datos de tráfico para facilitar operaciones eficientes y
confiables de la red mientras que simultáneamente optimiza la utilización de los recursos de
la red y el rendimiento del tráfico.
Específicamente el RFC 2702, establece que la ingeniería de tráfico concierne a la
optimización del rendimiento de una red y abarca generalmente el uso de la tecnología y de
los principios científicos para realizar diversas funciones: mediciones de tráfico, modelado
de tráfico y redes, control del tráfico en Internet, y el uso de tal conocimiento y técnicas
para alcanzar objetivos específicos de funcionamiento. Más aún, los principales aspectos de
la ingeniería de tráfico que son concernientes a MPLS son medida y control.
4.3.3
Objetivos de la ingeniería de tráfico
Según el memorando RFC 2702 la meta fundamental de la ingeniería de tráfico es
calcular la trayectoria a partir de un nodo dado a otros, tal que la trayectoria no viole
ninguna restricción (ancho de banda/requisitos administrativos) y sea óptima con respecto a
una cierta escala establecida. Una vez que se calcule la trayectoria, la ingeniería de tráfico
es responsable de establecer y de mantener el estado de la expedición a lo largo de tal
trayectoria.
55
Ahora puntualizando, se tiene que los principales objetivos de la ingeniería de
tráfico en MPLS son:
•
Mover el tráfico del camino establecido por el IGP (Interior Gateway Protocol) a
un camino menos congestionado.
•
Utilizar el exceso de ancho de banda sobre los enlaces sub-utilizados.
•
Maximizar la utilización de los enlaces y nodos de la red.
•
Aumentar la confiabilidad del servicio.
•
Alcanzar requerimientos impuestos, los cuales pueden ser de dos tipos: orientados
al tráfico que incluyen los aspectos que mejoran la QoS de las corrientes del tráfico,
u orientados a los recursos que incluyen los aspectos referentes a la optimización de
la utilización de lo recursos.
Las acciones de control que la ingeniería de tráfico puede tomar para cumplir con
sus objetivos incluyen: Modificación de los parámetros de gestión de tráfico, modificación
de los parámetros asociados al ruteo, y modificación de los parámetros y atributos
asociados con los recursos.
4.3.4
Aspectos generales de la ingeniería de tráfico en MPLS
Existen básicamente tres problemas fundamentales que se relacionan con la
ingeniería de tráfico sobre MPLS, estos son:
•
Cómo mapear paquetes en FECs.
•
Cómo mapear FECs en troncales de tráfico.
•
Cómo mapear las troncales en la red física.
56
Los IGPs existentes no son adecuados para la ingeniería del tráfico. Las decisiones
del enrutamiento se basan sobre todo en los algoritmos del camino más corto (SPF) que
utilizan una métrica aditiva y no consideran características del tráfico ni la disponibilidad
de ancho de banda.
La manera más fácil de proporcionar tales características sería utilizar un modelo
superpuesto (overlay model), que permita topologías virtuales sobre las redes físicas. La
topología virtual se construye a partir de los enlaces virtuales que aparecen como enlaces
físicos para los protocolos de enrutamiento, IGP.
Más allá, el modelo de superposición debe poder proporcionar servicios adicionales
para soportar el control de tráfico y de recursos, incluyendo: enrutamiento con restricciones
a nivel de los circuitos virtuales (VC), funciones de moldeamiento y de descarte de tráfico
(policing), compresión de trayectorias y soporte para la configuración explícita de los
caminos virtuales, entre otras.
Los componentes que deben estar presentes en la arquitectura para soportar la
ingeniería de tráfico incluyen:
•
Distribución de la información, referido a la capacidad de enviar la información
acerca de la topología de la red y restricciones pertinentes a los enlaces.
•
Un algoritmo de selección de la trayectoria, éste debe calcular y elegir las mejores
trayectorias de acuerdo a las restricciones.
•
Configuración de las rutas, por medio de protocolos como RSVP-TE, MPLS-TE.
57
•
Control de admisión a los enlaces, decide cual camino puede tener los recursos
necesarios.
•
Reenvío de información a través de los caminos.
MPLS es muy significativo para la ingeniería de tráfico porque puede
potencialmente disponer de la mayor parte de la funcionalidad existente del modelo de
superposición, de una manera integrada, y a un costo más bajo que el resto de las
alternativas actuales. Además, MPLS ofrece la posibilidad de automatizar algunos aspectos
de la función de la ingeniería de tráfico.
Específicamente el atractivo de MPLS para la ingeniería de tráfico, puede ser
atribuido a los siguientes factores:
•
LSP explícitos que no son restringidos por el paradigma de reenvío basado en el
destino y que pueden ser creados fácilmente con procesos administrativos manuales
o con la acción automatizada de los protocolos subyacentes.
•
Los LSP puede ser mantenidos eficientemente.
•
Las troncales de tráfico pueden ser mapeadas sobre los LSPs.
•
Un conjunto de atributos puede ser asociado con las troncales de tráfico, las cuales
modulan sus características de comportamiento.
•
Un conjunto de atributos puede ser asociado con los recursos, los cuales restringen
la colocación de LSPs y troncales de tráfico a través de ellas.
•
MPLS permite la agregación y la desagregación del tráfico mientras que la
destinación clásica basada en el reenvío IP permite solamente la agregación
58
•
Con MPLS es relativamente sencillo integrar un marco de enrutamiento con
restricciones.
•
Una buena implementación de MPLS puede ofrecer gastos significativamente más
bajos que las otras alternativas.
4.3.5
Principales Herramientas de MPLS para realizar ingeniería de tráfico
Las principales herramientas de MPLS para realizar la ingeniería de tráfico, son el
ruteo basado en restricciones (CBR) y el balanceo de carga. El CBR busca caminos entre
puntos de la red que satisfagan un conjunto de restricciones explícitas. El balanceo de carga
por su parte plantea el problema de dividir el tráfico de un agregado de flujos entre diversos
caminos basados en algún criterio de optimalidad de la red. A continuación se ampliarán
detalles sobre ambas.
Ruteo basado en restricciones
La principal característica de MPLS que le permite realizar ingeniería de tráfico es
el ruteo explícito. Una ruta explícita es una secuencia de nodos lógicos entre un nodo de
ingreso y uno de egreso que se definen y establecen desde un nodo de la frontera. Si el
nodo de ingreso quiere establecer una ruta que no sigue el camino que sigue por defecto el
protocolo de ruteo IP, debe utilizar un protocolo de distribución de etiquetas que soporte la
definición de rutas explícitas. Existen dos definidos por el IETF: CR-LDP (Constrained
Routing Label Distribution Protocol) y RSVP (Resource Reservation Protocol).
59
La ruta LSP puede ser restringida por la capacidad de recursos y la capacidad de los
nodos de cumplir con los requerimientos de QoS. Esto lleva al concepto de “constrained
route" (CR) o ruta con restricciones.
El CBR constituye un paradigma de enrutamiento que coexiste con la topología de
saltos (hop by hop) manejada por los IGPs. Una estructura de CBR utiliza los siguientes
parámetros como entradas:
•
Los atributos asociados con las troncales de tráfico.
•
Los atributos asociados con los recursos.
•
Otra información del estado de la topología.
Basado en esta información, un proceso de CBR en cada nodo automáticamente
calcula rutas explícitas para cada troncal de tráfico originada desde el nodo.
Específicamente en el caso de MPLS, se determina un LSP que satisfaga los requerimientos
demandados.
Un CBR puede reducir grandemente el nivel de configuración manual y la
intervención requerida para actualizar las políticas de la ingeniería de tráfico.
Una estructura CBR debe por lo menos tener la capacidad de obtener
automáticamente una solución factible básica para el problema de la colocación del camino
del tráfico troncal.
En general, el problema de CBR se sabe que resulta ser insuperable para la mayoría
de las restricciones realistas. No obstante, en la práctica un simple algoritmo heurístico
60
puede ser utilizado para encontrar una ruta factible si es que existe. Este consta de dos
pasos:
•
Primero descartar recursos que no satisfagan los requerimientos de los atributos de
las troncales de tráfico.
•
Luego correr un algoritmo de SPF en el conjunto de los recursos que no fueron
descartados
Entonces, si una trayectoria factible existe para una troncal de tráfico individual, el
simple procedimiento anteriormente explicado la encontrará. Reglas adicionales se pueden
especificar para romper lazos y realizar otras optimizaciones. Los lazos generalmente
deben estar rotos para reducir al mínimo la congestión. Cuando múltiples troncales de
tráfico están por ser enrutadas, el algoritmo antedicho puede no encontrar siempre una
trayectoria factible, aun cuando ésta exista.
Balanceo de carga
EL RFC 2702, habilita a realizar balanceo o reparto de carga entre diferentes LSPs.
Esta herramienta brinda la posibilidad de enrutar troncales cuyo tráfico es superior a las
posibilidades de un único camino en la red, y permite también mejorar el uso de recursos de
la red.
Para realizar reparto de carga se deben tener en cuenta dos aspectos. El primero es
el algoritmo con el cual se deciden los coeficientes de reparto de carga entre los LSPs. El
segundo es el mecanismo (una vez fijados los coeficientes) que se utiliza para asignar los
paquetes a uno u otro LSP.
61
En muchos contextos prácticos, el tráfico agregado entre dos nodos puede ser tal
que ningún enlace puede llevar la carga. No obstante, el flujo agregado puede ser menor
que el flujo permitido máximo a través de un algoritmo “min-cut”, el cual establece que el
flujo máximo en una red es dictado por su embotellamiento, por lo cual entre cualesquiera
dos nodos, la cantidad de flujo de un nodo al otro no puede ser mayor que el conjunto más
limitado de enlaces en alguna parte entre los dos nodos.
En este caso, la única solución factible es dividir apropiadamente el tráfico
agregado en subflujos y enrutar los subflujos a través de las múltiples trayectorias entre los
dos nodos.
En un dominio MPLS, este problema puede ser tratado creando una instancia física
del flujo entre los múltiples troncales pertenecientes a los dos nodos, de forma que cada
troncal lleve una proporción del tráfico agregado. Por lo tanto, se requiere de medios
flexibles de asignación de carga para transportar las troncales que llevan tráfico entre un par
de nodos.
Específicamente, desde una perspectiva operacional, en las situaciones donde se han
garantizado troncales de tráfico paralelas, sería útil tener cierta propiedad que pueda ser
utilizada para indicar la proporción relativa de tráfico que puede ser llevada por cada
troncal. Los protocolos subyacentes entonces mapearán la carga sobre los troncales de
tráfico según las proporciones especificadas.
62
CAPÍTULO 5: Aseguramiento de la QoS en una red similar a la
RAI del ICE por medio de ingeniería de tráfico en MPLS
Para proveer QoS en los diferentes tipos de aplicaciones, una red debe satisfacer dos
condiciones necesarias. La primera condición consiste en que se debe garantizar un ancho
de banda para una aplicación.
La segunda condición consiste en que conforme una aplicación va atravesando la
red, ésta debe recibir un tratamiento según la clase a la que pertenezca.
Si se satisfacen ambas condiciones se pueden alcanzar altos niveles de garantía de
QoS, que a fin de cuentas, es lo que buscan tanto los ISPs como los usuarios.
5.1
Calidad de Servicio (QoS) con ingeniería de tráfico en MPLS
La arquitectura MPLS en sí no puede proveer calidad de servicio, por lo que utiliza
la ingeniería de tráfico (TE) como una herramienta, la cual combinada con un modelo de
QoS como los servicios diferenciados (DiffServ) puede proveer y garantizar QoS. MPLS se
combina con DiffServ por que éste es más simple y más escalable que IntServ.
5.1.1
Combinación de ingeniería de tráfico en MPLS con DiffServ
Como se trató en el capítulo 3 DiffServ representa una solución escalable y
operacionalmente simple ya que no requiere de señalamientos ni estados por-flujo, sin
embargo, ésta no garantiza calidad de servicio, por que no influye en la determinación de
un camino o ruta para los paquetes, lo que provoca que durante un congestionamiento o una
falla, hasta los paquetes que poseen alta prioridad no se les garantice ancho de banda.
63
Por el otro lado, MPLS, establece trayectorias específicas para los paquetes que en
combinación con el ruteo basado en restricciones (CBR) pueden garantizar un ancho de
banda para los FECs. Sin embargo MPLS en su forma básica no especifica tratamientos de
flujos por medio de una diferenciación basada en clases.
Combinando las clasificaciones que realiza DiffServ y sus comportamiento por
saltos (PHBs) con la ingeniería de tráfico de MPLS es que se obtiene una verdadera calidad
de servicio. A continuación se describirán los mecanismos por los cuales se realiza el
soporte de MPLS con DiffServ, éstos están establecidos en el estándar RFC 3270 [MPLSDiffServ], y básicamente éste se basa en la utilización de dos tipos de LSPs.
El RFC 3270 define dos tipos de LSPs:
E-LSP (EXP-inferred-PSC LSP)
Es un tipo de LSP capaz de llevar múltiples clases de tráfico simultáneamente. En
un E-LSP, la etiqueta es utilizada como un indicador del destino del FEC, y el espacio de 3
bits correspondiente a EXP se usa como un indicador de la clase de un flujo con el objetivo
de seleccionar su PHB, incluyendo tanto su prioridad de extracción (drop priority) y su
prioridad de calendarización (scheduling priority).El tamaño de este espacio implica que un
E-LSP puede transportar hasta ocho clases de servicios.
L-LSP (Label-only-inferred-PSC LSP)
Es un tipo de LSP que únicamente puede transportar una sola clase de tráfico. En un
L-LSP, la etiqueta es utilizada como un indicador tanto para el FEC como para la prioridad
de calendarización (scheduling priority). Mientras que el espacio EXP se utiliza únicamente
para la indicación de la prioridad de extracción (drop priority).
64
Tabla 5.1 Comparación entre E-LSPs y L-LSPs.
E-LSP
L-LSP
Transporta una o más clases de tráfico por
Transporta solamente una clase de tráfico
LSP
por LSP
El PHB se deduce del espacio EXP
El PHB se deduce de la etiqueta y del
espacio EXP
El señalamiento DiffServ es opcional
El señalamiento DiffServ es requerido
Los LSRs deducen la clase asociada a un paquete por medio de la etiqueta y
determinan el PHB exacto usando la etiqueta en combinación con el espacio EXP. El uso
de E-LSPs y de L-LSPs en una red MPLS no es mutuamente exclusivo. Los LSRs
mantienen un contexto de etiquetado de DiffServ. Este contexto es el que indica el tipo de
LSP (E-LSP o L-LSP), los PHBs que soporta el LSP y el mapeo entre la encapsulación del
paquete y el PHB. Para las etiquetas de entrada, ese mapeo define como el LSR deduce el
PHB de la encapsulación del paquete. Para las etiquetas de salida el mapeo define como el
LSR codifica el PHB.
La figura 5.1 muestra una red MPLS usando L-LSPs y E-LSPs simultáneamente,
con diferentes clases de tráfico.
65
Figura 5.1 Red MPLS combinando L-LSPs y E-LSPs [4]
En este ejemplo, hay dos E-LSPs entre el nodo E y el nodo D y dos L-LSPs entre el
nodo A y el nodo D. La red soporta tres clases: EF, AF1 y AF2. En este ejemplo el nodo C
está transportando tanto E-LSPs como L-LSPs, este nodo utiliza el contexto de etiqueta de
DiffServ para determinar el tipo de LSP y el mapeo exacto que debe de utilizar para deducir
el PHB de la encapsulación del paquete. Los routers LSR sirven los paquetes de acuerdo a
sus PHB sin importar el LSP o su tipo. Los detalles del LSP influencian la determinación
del PHB, pero el PHB ultimadamente es quien determina el tratamiento de los paquetes.
Los nodos A y E usan un tipo de LSP exclusivamente, sin embargo, cada uno de estos
puede usar alternativamente una combinación de E-LSPs y de L-LSPs para alcanzar el
nodo D.
66
5.1.2
Flujo de paquetes con ingeniería de tráfico en MPLS con DiffServ
La figura 5.2 ilustra cómo se mejora la calidad de servicio (QoS) y el enrutamiento
de una red utilizando MPLS con DiffServ.
Figura 5.2 Flujo de paquetes en MPLS con DiffServ [13]
En la figura 5.2, el camino número (1), representa la trayectoria seguida por los
paquetes en ausencia de ingeniería de tráfico en MPLS, ésta normalmente estaría definida
por el protocolo de enrutamiento basado en el camino más corto al destino final. El camino
número (2) representa la trayectoria seguida por los paquetes utilizando ingeniería de
tráfico en MPLS sin DiffServ, este camino pudo haber sido escogido debido a que
presentaba un ancho de banda suficiente para servir a una FEC dado, sin embargo, este
ancho de banda no está asociado con ninguna clase de servicio específico, por lo que el
tráfico con prioridad como VoIP puede que no tenga un ancho de banda para hacerle frente
67
a colas en espera. El camino número (3) representa la trayectoria seguida por los paquetes
utilizando ingeniería de tráfico en MPLS con DiffServ, en éste se realizan reservas de ancho
de banda dependiendo de especificaciones basadas en la prioridad de colas. Se establece
una trayectoria LSP tipo L-LSP donde se especifica una reservación de ancho de banda
para un tipo de cola en espera en particular, de esta forma el tráfico es enrutado a través de
la trayectoria (3) vía LSR-3 y LSR-2 garantizando QoS.
El soporte de MPLS con DiffServ satisface las dos condiciones necesarias para
brindar QoS: un ancho de banda garantizado y un tratamiento de colas diferenciado. MPLS
se encarga de satisfacer la primera condición ya que hace que los flujos sigan trayectorias,
las cuales poseen un ancho de banda garantizado; y a través de esas trayectorias DiffServ
satisface la segunda condición brindando un tratamiento de colas diferenciado.
5.2
Protección y restauración de redes IP/MPLS
Los administradores de red como es el caso del ICE conocen la importancia de
implementar mecanismos de protección y restauración en caso de que alguna parte de la red
presente fallas. Existen muchos factores que pueden provocar fallas en una red.
Desde la perspectiva de los enrutadores, existen dos tipos de fallos en una red: fallos
de enlace y fallos de nodo. Un fallo de enlace puede ser provocado por algún corte en la
fibra óptica, o un problema en un ADM (Add-drop Multiplexer) o muchas posibles causas
más. Existen distintas posibles causas de fallo en un nodo, las cuales van desde problemas
de alimentación, colapso de un router, hasta fallos provocados por falta de mantenimiento a
los enrutadores.
68
Es altamente deseable reducir los efectos negativos de estos fallos, tales como la
pérdida de paquetes de información. Por lo que la ingeniería de tráfico en MPLS y su
habilidad en el manejo de tráfico por la red utilizando el protocolo IGP, ayudan a atenuar
las pérdidas de paquetes asociadas a fallos de enlace o de nodo en la red. La habilidad de la
ingeniería de tráfico en MPLS de hacer esto es conocida como FRR (Fast Reroute) o
simplemente protección con ingeniería de tráfico en MPLS.
5.2.1
FRR con ingeniería de tráfico en MPLS
Básicamente el FRR consiste en calcular un nuevo camino o trayectoria para un
LSP después de que el camino existente colapsa. FRR se asemeja a la protección local al
utilizar TE LSPs previamente señalados de reserva para re-enrutar el tráfico en caso de
falla. El nodo más cercano al de la falla es el responsable de re-enrutar el tráfico y pasa a
ser el headend de reserva para el TE LSP. Por lo tanto, no ocurre ningún tipo de retardo de
propagación en una condición de falla, al igual que no existe ningún retardo en establecer
un camino para que el nuevo TE LSP re-enrute el tráfico. FRR es capaz de re-enrutar
tráfico en 10 ms.
5.2.2
Protección con MPLS TE
Protección, en el contexto de una rápida restauración, hace referencia a la aplicación
de ciertos recursos para asegurar una mínima pérdida de tráfico ante una eventual falla.
Estos recursos de protección pueden ser vistos ya sea como recursos físicos (enlaces o
nodos) o como recursos lógicos (los LSPs que cruzan un enlace o un nodo).
69
El preestablecimiento de recursos de protección es fundamental para cualquier
estrategia de protección. Si no hay un preestablecimiento de recursos, éstos se tendrían que
definir después de que se diera una falla, lo cual podría significar muchas pérdidas.
5.2.3
Tipos de protección
Existen diferentes tipos de esquemas de protección, los cuales se pueden
descomponer de la siguiente forma:
•
Protección de Trayectoria: la protección de trayectoria consiste en el
establecimiento de un camino LSP adicional en paralelo con un camino LSP
existente, en donde el LSP adicional es utilizado únicamente en caso de fallo. Este
LSP es algunas veces llamado LSP de reserva, secundario o en espera. Éste no es
utilizado para transportar tráfico excepto durante una condición de falla.
Los LSPs de reserva se construyen a lo largo de trayectorias que pueden ser tan
diversas en longitud como en número, como lo son los LSP que éstas protegen.
Tanto el LSP primario como el de reserva son configurados en el headend.
Los LSP primarios y los de reserva deben tener las mismas restricciones. Si un LSP
primario tiene una reserva de ancho de banda de 100 Mbps, el LSP también debe
reservar 100Mbps. De esta forma las características extremo-a-extremo permanecen
iguales sin importar cual LSP se esté utilizando para transportar tráfico. Esto
implica también que se está reservando un ancho de banda que no va a ser utilizado
la mayoría del tiempo y que podría ser utilizado por otros LSPs en la red, para ser
usado únicamente en caso de falla (mucho menos del 50% del tiempo).
70
Figura 5.3 Protección de Trayectoria [3]
•
Protección Local: la protección local se da cuando un túnel de protección o de
reserva es construido para cubrir solamente un segmento de un LSP primario. En
una protección local, el LSP de reserva se enruta alrededor del enlace o nodo que
falló. La protección local presenta grandes ventajas con respecto a la protección de
trayectoria, ya que presenta una recuperación más rápida en caso de fallo,
escalabilidad 1: N (un LSP de reserva protege N LSP primarios) y un menor
consumo de recursos de red entre otras.
Existen dos tipos de protección local:
• Protección de Enlace: En muchas redes hoy en día, es común encontrar
enlaces con un alto ancho de banda transportando flujos de información
importante y flujo de información que no es considerada tan importante. Si se
le aplica ingeniería de tráfico MPLS a estas redes, estos flujos importantes se
71
transforman en LSPs importantes. Estos LSPs pueden estar transportando
información crítica o datos que son sensibles al tiempo que requieren una
respuesta en tiempo real. En estos casos, es de suma importancia proteger
estos LSP importantes, mientras se ignora proteger los LSPs de menor
importancia. El FRR permite proteger algunos (los que se consideren más
importantes) túneles con ingeniería de tráfico o todos ellos. Con la protección
de enlace, se pueden proteger los enlaces que están trasportando estos LSPs
importantes utilizando túneles pre-señalados de reserva para que puenteen el
enlace protegido.
Figura 5.4 Protección de Enlace [3]
• Protección de Nodo: Es importante proporcionar seguridad a un LSP
primario en caso de que se presente un fallo en un nodo en el otro extremo de
un enlace, sobre todo si este nodo es utilizado cuando se da una protección de
72
enlace, provocando un fallo en la protección misma. Por eso, es importante
proporcionar protección a nodos estratégicos en la red de la misma forma
como se realizó con los enlaces importantes.
Figura 5.5 Protección de Nodo [3]
La protección de enlace y de nodo presentan una escalabilidad diferente, resuelven
diferentes tipos de problemas y presentan diferentes restricciones una con respecto a la otra.
En una red no es necesario proteger todos sus elementos, sino, proteger únicamente
aquellos recursos que se consideren críticos como los enlaces de núcleo de red más
importantes o proteger LSPs que transportan
tráfico de voz sobre IP (VoIP) o tipos
específicos de tráfico de usuarios o clientes específicos los cuales poseen SLAs con los
ISPs como es el caso del ICE.
73
5.3
Funcionamiento de red troncal con MPLS TE
Para el diseño de redes troncales como la de la RAI del ICE, existen varias opciones
con diferentes niveles de complejidad. La mayoría de los diseños utilizan DiffServ como su
modelo base. Algunos otros diseños incorporan ingeniería de tráfico en MPLS para mejorar
el rendimiento de las características de la red. Existen muchos factores que pueden
influenciar en la selección del diseño más apropiado para una red en particular. Aunque los
servicios que una red provee tienen gran importancia, el ancho de banda y los costos
operacionales tienen un rol importante en la selección del diseño.
Una red troncal necesita un diseño escalable y flexible que brinde QoS y que pueda
satisfacer un rango amplio de servicios. Algunos de estos servicios pueden transportar un
rango de diferentes aplicaciones como voz, video y datos, las cuales presentan diferentes
requerimientos dependiendo de la naturaleza del servicio.
5.3.1
Red Troncal “Best Effort” con ingeniería de tráfico en MPLS
Una red troncal “best effort” puede ser mejorada desplegando ingeniería de tráfico
MPLS para mejorar el control sobre la utilización de los enlaces y para lograr una mejor
optimización del ancho de banda. La ingeniería de tráfico en MPLS provee control de
admisión, permitiendo manejar la cantidad de carga de tráfico en un enlace, tal como se
muestra en la figura 5.6.
74
Figura 5.6 Control de la carga de enlace [4]
La ingeniería de tráfico en MPLS también permite desarrollar un ruteo basado en
restricciones que puede funcionar como un agente para determinar la disponibilidad del
ancho de banda. Estas mejoras en el enrutamiento permiten que el tráfico aproveche los
enlaces subutilizados y así evitar un congestionamiento a nivel troncal.
5.3.2
Red Troncal DiffServ con ingeniería de tráfico en MPLS
Como se analizó anteriormente se puede realizar una combinación de DiffServ con
ingeniería de tráfico en MPLS para lograr una diferenciación del tráfico y algún grado de
optimización. En este caso la ingeniería de tráfico en MPLS puede proveer control sobre la
utilización de los enlaces y ayudar a obtener una mejor utilización del ancho de banda
existente, mientras DiffServ proporciona una diferenciación del tráfico en el plano de datos.
Se puede utilizar la ingeniería de tráfico en MPLS como un buscador de enlaces para evitar
congestionamientos en la red, mientras que la configuración DiffServ actúa como una red
de seguridad en caso de que un enlace experimente congestionamiento por alguna falla en
la red.
75
Como otra alternativa, se puede usar la ingeniería de tráfico en MPLS para controlar
la carga permitida de una clase DiffServ. En este caso el máximo ancho de banda reservado
para cada enlace se fija de acuerdo al ancho de banda que necesitaría cada una de las clases
DiffServ por lo que se podría controlar la capacidad de los enlaces para cada tipo de clase
utilizando la configuración del DiffServ a la vez que controla la carga de tráfico para cada
uno de éstos utilizando ingeniería de tráfico en MPLS, como se ilustra en la figura 5.7.
Figura 5.7 Control de la capacidad por clase y de la carga de acuerdo al tipo de clase
[4]
5.3.3
Red Troncal con MPLS TE FRR
Se puede utilizar FRR con ingeniería de tráfico en MPLS para cualquier diseño de
red troncal descrito anteriormente. El FRR incrementa la disponibilidad de la red a la hora
de que se presenten fallas en ésta. El FRR también proporciona un control más detallado
del tráfico que se está protegiendo, de forma que se puedan establecer diferentes TE LSPs
con diferentes requerimientos de protección. De esta forma se puede controlar cuál tráfico
76
está protegiendo el FRR al seleccionar apropiadamente cuál tráfico viaja a través de TE
LSPs específicos.
5.4
Diseño estratégico de red con ingeniería de tráfico en MPLS
aplicado a la RAI del ICE
El diseño lógico de este modelo está orientado a lograr un acoplamiento completo
de TE LSPs en algún nivel de la red RAI del ICE, normalmente se aplica a nivel troncal en
los routers de Core o núcleo, ya que así se logra obtener un mayor control sobre el tráfico
que está entrando a la WAN, manipulando el tráfico en todos los puntos por los que entra al
núcleo de la red.
5.4.1
Escalabilidad de los LSPs
Uno de los aspectos más importantes para tomar en cuenta a la hora de realizar un
diseño de red, es la escalabilidad. En este caso, ésta dependerá del lugar en donde se
coloque la nube con ingeniería de tráfico. Para esto existen dos posibles opciones, las
cuales dependerán de la arquitectura de la red:
•
Acoplamiento completo entre WRs
•
Acoplamiento completo entre ARs
El número de LSPs va a variar dependiendo del tipo de acoplamiento utilizado. En
ambos casos se debe determinar el número de LSPs para los cuales un router será
considerado: un “headend”, un “midpoint” y un “tailend”.
77
5.4.2
Datos de la RAI del ICE y Definición de Variables
Tabla 5.2 Tipos de routers
Tipo
Definición
AR
Router de Acceso
DR
Router de Distribución
WR
WAN Router o router de red Troncal o de núcleo
Tabla 5.3 Componentes de red presentes en la RAI del ICE
Área
WRs
DRs
ARs
0100 (Núcleo)
6
0
0
0110
0
4
17
0120
0
4
18
0130
0
3
17
0140
0
6
50
0150
0
2
14
0160
0
7
91
Total =
6
26
207
78
Tabla 5.4 Definición de variables
Variable
Definición
M
Número de LSPs para los cuales un router se considera un punto medio
Wn
Número de WRs en la red
Dn
Número de DRs en la red
An
Número de ARs en la red
Ln
Número de LSPs en la red (varía de acuerdo al lugar donde se diseñe)
D
Número promedio de enlaces configurados para TE relacionados a un router
Número de router TE MPLS en una porción de la red
Rn
Rn = Wn (En acople total entre WRs)
Rn = Wn+DR+AR (En acople total entre ARs)
Fn
Número de FRR LSPs necesarios en una red, resultado de un tipo particular
de protección
T
5.4.3
Número promedio de routers que son atravesados por un LSP
Acoplamiento completo entre WRs
El primer tipo de ingeniería de tráfico consiste en una acoplamiento total entre TE
LSPs pertenecientes a WRs. Este diseño es muy utilizado debido a que los enrutadores
troncales son aquellos que conectan otros puntos de presencia (POPs). Los enlaces WAN
son generalmente los enlaces más costosos en una red, por lo que es importante aplicar
MPLS TE para optimizar la utilización del ancho de banda en la WAN.
79
Cálculo aproximado para la RAI del ICE:
El número de LSPs en la red viene dado por la siguiente fórmula:
Ln = WR ⋅ (WR − 1)
(5.4-1)
Ln = 6 ⋅ (6 − 1) = 30 LSPs
Cada router de núcleo es un headend de (Wn-1) LSPs, o sea de 5 LSPs
Cada router de núcleo es un tailend de (Wn-1) LSPs, por lo tanto de 5 LSPs
El número M en la red viene dado por la siguiente fórmula:
max(M ) =
max(M ) =
5.4.4
Ln − (2 ⋅ (Wn − 1))
Wn
(5.4-2)
30 − (2 ⋅ (6 − 1))
= máximo 3 o 4 LSPs
6
Acoplamiento completo entre ARs
Se aplica un acoplamiento total entre routers de acceso cuando se desea obtener un
control más exacto sobre el tráfico. Los ARs son únicamente aquellos routes que son TE
headends o tailends, los WRs y los DRs son únicamente puntos medios, dado que en esta
arquitectura el tráfico entra y sale de la red únicamente por lo ARs.
Cálculo aproximado para la RAI del ICE:
El número de LSPs en la red viene dado por la siguiente fórmula:
Ln = AR ⋅ ( AR − 1)
Ln = 207 ⋅ (207 − 1) = 42.642 LSPs
Cada router de acceso es un headend de (An-1) LSPs o sea de 206 LSPs
(5.4-3)
80
Cada router de acceso es un tailend de (An-1) LSPs o sea de 206 LSPs
En el modelo de red de acople completo entre ARs, los router de acceso funcionaran
como headends o como tailends, pero nunca como puntos medios.
5.4.5
Escalabilidad para la protección
En esta sección se analizarán y se llevarán a cabo cálculos necesarios para
garantizar escalabilidad en el diseño de las protecciones de enlace, nodo y trayectoria para
la RAI del ICE. Al realizar un análisis de los diferentes tipos de protección en una red, se
deben de considerar dos aspectos muy importantes, uno de éstos es el número aproximado
de LSPs que son añadidos a la red como un todo cuando se realiza un tipo particular de
protección. El otro aspecto importante, corresponde al número de LSPs con los que un
router dado tiene que tratar.
Protección de Enlace
En la protección de enlace, el número adicional aproximado de LSPs en una red se
calcula multiplicando el grado de conexión promedio por nodo, por el número de nodos en
ese determinado sector de la red. El valor de D en una red oscila entre 3 y 5, para el caso de
la RAI del ICE es aproximadamente 3 y el valor aproximado de T para ésta, es también 3.
Cálculo aproximado para la RAI del ICE:
Caso 1. (Acoplamiento completo entre WRs)
El número adicional de LSPs en la RAI del ICE viene dado por la siguiente ecuación:
Ln = D ⋅ Rn
Ln = 3 ⋅ 6 = 18 LSPs
(5.4-4)
81
El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente fórmula:
Fn =
Fn =
( Ln ⋅ T )
− ( 2 ⋅ D)
Rn
(5.4-5)
(18 ⋅ 3)
− (2 ⋅ 3) = 3 FRR LSPs
6
Caso 2. (Acoplamiento completo entre ARs)
El número adicional de LSPs en la RAI del ICE viene dado por la siguiente fórmula:
Ln = D ⋅ Rn = 3 ⋅ 239 = 717 LSPs
El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación:
Fn =
( Ln ⋅ T )
(717 ⋅ 3)
− (2 ⋅ D) =
− (2 ⋅ 3) = 3 FRR LSPs
Rn
239
Protección de Nodo
En la protección de nodo, cada nodo vecino de los nodos más cercanos a un nodo de
interés necesita un LSP, por esta razón es que el número de Ln crece con respecto al
obtenido en la protección de enlace.
Cálculo aproximado para la RAI del ICE:
Caso 1. (Acoplamiento completo entre WRs)
El número adicional de LSPs para la RAI del ICE viene dado por la siguiente fórmula:
Fn = D ⋅ ( D − 1) ⋅ Rn
Ln = 3 ⋅ (3 − 1) ⋅ 6 = 36 LSPs
(5.4-6)
82
El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación:
Fn =
( Ln ⋅ T )
(36 ⋅ 3)
− (2 ⋅ D) =
− (2 ⋅ 3) = 12 FRR LSPs
Rn
6
Caso 2. (Acoplamiento completo entre ARs)
El número adicional de LSPs para la RAI del ICE viene dado por la siguiente fórmula:
Ln = D ⋅ ( D − 1) ⋅ Rn = 3 ⋅ (3 − 1) ⋅ 239 = 1434 LSPs
El número de FRR LSPs que deben existir en la RAI viene dado por la siguiente ecuación:
Fn =
( Ln ⋅ T )
(1434 ⋅ 3)
− (2 ⋅ D ) =
− (2 ⋅ 3) = 12 FRR LSPs
Rn
239
Protección de Trayectoria
La protección de trayectoria es muy simple de calcular, si se tienen Ln LSPs en una
red y se desea proteger cada uno de estos caminos, entonces lo que se hace es multiplicar
por dos el número de Ln LSPs presentes en la red. En este tipo de protección se tiene que
Fn = Ln.
Cálculo aproximado para la RAI del ICE:
Caso 1. (Acoplamiento completo entre WRs)
Ln = 30 LSPs, por lo que se requieren otros 30 LSPs para ser usados en la
protección de trayectoria.
Caso 2. (Acoplamiento completo entre ARs)
Ln = 42.642 LSPs, por lo que se requieren otros 42.642 LSPs para ser usados en la
protección de trayectoria.
83
CAPÍTULO 6: Conclusiones y recomendaciones
6.1
Conclusiones
•
La capa de acceso de red es el nivel inferior del modelo TCP/IP y es la responsable
de aceptar los datagramas IP y transmitirlos hacia una red específica. Mientras que
en la capa de red se realiza el direccionamiento, la fragmentación, el empaquetado,
la entrega y el enrutamiento de paquetes de información a través de la red. MPLS es
una arquitectura que opera entre estas dos capas del modelo TCP/IP.
•
Las redes IP por sí solas no son capaces de garantizar calidad de servicio debido a
que éstas utilizan protocolos de enrutamiento como el “Open Shortest Path First”
los cuales dejan enlaces subutilizados mientras cargan otros con exceso de tráfico.
Además éstos no son capaces de realizar un adecuado tratamiento contra las colas
de tráfico. De ahí surge la necesidad de los ISPs en el mundo de implementar
tecnologías como MPLS a sus redes, con el objetivo de eliminar estos aspectos
negativos de las redes IP.
•
Los ISPs desean alcanzar altos niveles de calidad de servicio, ya que éstos buscan la
forma de cómo optimizar el rendimiento de los recurso de red existentes, además de
proporcionar protección a los datos clasificando los diferentes tipos de tráfico según
sus prioridades de transmisión.
84
•
Para lograr obtener un buen nivel de calidad de servicio se deben aplicar
mecanismos que contrarresten los efectos negativos en las transmisiones de datos
debido a retardos de transferencia, variaciones del retardo, pérdidas y errores en las
transmisiones.
•
Existen diferentes tipos de modelos y tecnologías para brindar QoS en las redes IP,
entre los más utilizados en los últimos tiempos se encuentran el IntServ y el
DiffServ.
•
Los modelos de IntServ y DiffServ no logran por sí solos cumplir con los
requerimientos actuales de QoS en las redes IP. El IntServ presentó problemas de
escalabilidad y subutilización de los recursos, por lo que luego surgió el Diffserv
que resolvió el problema de la escalabilidad, pero no corrigió el inconveniente de la
hiperagregación de tráfico. Por este motivo paulatinamente las redes del mundo
están migrando hacia la arquitectura MPLS ya que ésta permite realizar una
ingeniería de tráfico eficiente, que elimina el problema de la hiperagregación y
complementada con DiffServ permite cumplir con la exigencia de QoS de los ISP.
•
MPLS permite hacer una clasificación de todos los paquetes que ingresan a la red,
por medio de etiquetas. Estas etiquetas son una asignación a una determinada FEC,
para la cual ya está establecido un trato específico para su manejo a través de la red.
•
La asignación de un paquete particular a una FEC particular se hace sólo una vez,
cuando el paquete ingresa a un LER. Una vez definidas las etiquetas para cada
85
nodo, entonces se establece el LSP. El último nodo de la red, eliminará la etiqueta y
enviará el paquete hacia fuera de la red MPLS tal como arribó al dominio.
•
Los enrutadores MPLS no tienen que analizar las cabeceras de los paquetes para
decidir el siguiente salto, todo el reenvío es conducido por las etiquetas. La etiqueta
se utiliza como un índice en una tabla que especifica el salto siguiente, y una nueva
etiqueta.
•
La ingeniería del tráfico es una herramienta para el adecuado manejo de las
trayectorias de los paquetes en una red, permitiendo maximizar el aprovechamiento
de los recursos y posibilitando un eficiente manejo del flujo de paquetes, evitando
las congestiones y los cuellos de botella provocados por la hiperagregación de
tráfico en ciertos sectores de la red.
•
La principal característica de MPLS que le permite realizar ingeniería de tráfico es
el ruteo explícito. Éste le permite a MPLS utilizar herramientas como lo son el ruteo
basado en restricciones (CBR) y el balanceo de carga, las cuales son fundamentales
para el adecuado manejo de los paquetes.
•
El balanceo de carga permite dividir el tráfico de un agregado de flujos entre
diversos caminos, lo que posibilita enrutar troncales cuyo tráfico es superior a las
posibilidades de un único camino en la red.
•
El CBR coexiste con la topología de saltos (hop by hop) manejada por los IGPs, y
busca caminos entre nodos de la red que satisfagan un conjunto de restricciones
explícitas. Si está correctamente implementado trae ventajas como la reducción del
86
nivel de configuración manual y la disminución en la intervención requerida para
actualizar las políticas de la ingeniería de tráfico.
•
Debido a que todas las redes experimentan fallos en ciertas ocasiones, es de gran
importancia implementar mecanismos de protección y restauración que ayuden a
evitar la pérdida de información valiosa. La protección de nodo y de enlace en
conjunto con el FRR y con ingeniería de tráfico en MPLS representan la mejor
solución a este problema, ya que se encargan de atenuar al máximo este tipo de
perdidas, brindando calidad de servicio incluso en condiciones de fallo.
6.2
Recomendaciones
•
Para solucionar los problemas de tráfico en las redes IP, se pueden aplicar dos
posibles soluciones. La primera se basa en el redimensionamiento de la red, esta
solución implicaría gastos elevados a los ISPs ya que éstos deberían implementar
enlaces con mayor capacidad de ancho de banda. Además ésta sería tan solo una
solución momentánea debido al crecimiento acelerado del Internet, por lo que las
ampliaciones y por lo tanto las inversiones a realizar sería continuas.
La segunda solución, es más recomendada, aplicar ingeniería de tráfico mediante un
modelo o arquitectura como MPLS para realizar un tratamiento de tráfico eficaz, y
así poder alcanzar verdaderos niveles de calidad de servicio. Los ISPs tendrían que
realizar una inversión considerable en routers de nueva generación, capaces de
implementar MPLS, pero a mediano o largo plazo resultaría más económico, pues
87
se estarían utilizando los recursos de red existentes de manera eficiente y no sería
necesario expandir la capacidad de la red constantemente. Además, cuando se
requiera realizar dichas expansiones, los nuevos recursos tendrían mejor
rendimiento y serían aprovechados al máximo.
•
La implementación de MPLS en las redes de los ISPs para brindar calidad de
servicio, tiene que ser específicamente con el modelo de DiffServ, pues aunque el
IntServ se sigue utilizando para ciertas aplicaciones, en un sistema de mediana y
gran escala su desempeño no sería el óptimo, pues la reserva de ancho de banda que
necesita para operar no sería compatible con la capacidad de la red, y se encontraría
con problemas de escalabilidad que finalmente imposibilitaría cumplir con los
niveles de calidad de servicio requeridos.
•
Basándose en las características de funcionamiento de los diferentes tipos de
protecciones analizadas en el capítulo 5, aplicada al caso de la RAI del ICE, se
sugiere que la que mejor se ajusta a ésta, es una combinación de protección de
enlaces y de nodos a nivel de núcleo, ya que de esta forma se pueden proteger LSPs
que transporten tipos específicos de tráfico de una manera escalable y sin reservar
tanto ancho de banda de la red como si ocurre en la protección de trayectorias.
BIBLIOGRAFÍA
Libros:
88
1. Kozierorok, C. “TCP/IP Guide”, 1a edición, No Starch Press, Estados Unidos,
2005.
2. Stallings, W. “Comunicaciones y redes de computadores”, 6ª edición, Prentice
Hall, España, 2000.
3. Osborne, E. “Traffic Engineering with MPLS”, 3a edición, Cisco Press, Estados
Unidos, 2005.
4. Álvarez, S. “QoS for IP/MPLS Networks”, 1a edición, Cisco Press, Estados
Unidos, 2006.
Páginas Web:
5. “Enlace Submarino ARCOS-1”,
http://en.wikipedia.org/wiki/Image:ARCOS-1-route.png
6. “Enlace Submarino MAYA-1”,
http://en.wikipedia.org/wiki/Image:MAYA-1-route.png
7. “Global Crossing”
www.globalcrossing.com/network/network_interactive_map.aspx
8. Pérez, A. “Infraestructura de un ISP”, www.dit.upm.es/
9. “Multiprotocol Label Switching Architecture”, www.ietf.org/rfc/rfc3031.txt
10. “Requirements for TE Over MPLS”, www.ietf.org/rfc/rfc2702.txt
11. “MPLS Support of Differentiated Services ”, www.ietf.org/rfc/rfc3270.txt
12. “MPLS”, http://es.wikipedia.org/wiki/MPLS
13. Fineberg, V. “QoS Support in MPLS Networks”,
www.ipmplsforum.org/education/mpls_white_papers.shtml
89
14. Shah, N. “Carrier Migration from ATM to MPLS: Why, When and How”,
www.ipmplsforum.org/education/mpls_white_papers.shtml
15. “Converged network services using MPLS”,
www.ipmplsforum.org/education/mpls_white_papers.shtml
Proyectos Finales de Graduación:
16. Belzarena, P. “Ingeniería de tráfico en línea en redes MPLS aplicando la teoría
de grandes desviaciones”, Universidad de la República, Uruguay, 2003.
Otros:
17. “Calidad de servicio y calidad de funcionamiento de red”, Manual, UIT-T, 2004.
18. “Proyecto de Red de Internet Avanzada”, ICE
19. “Red Avanzada de Internet (RAI): Capacidades”, ICE, 2005.
20. Cisco Systems. “Curso de Redes, Modulo 1”
Descargar