Arquitectura del Sistema de Gestión del ancho de Banda y Protección (SGBP) para entornos de redes MPLS Eusebi Calle, Pere Vilà, Jose L Marzo, Santiago Cots Instituto de Informática y Aplicaciones, Universitat de Girona Av. Lluís Santaló, s/n, 17071 Girona, Spain {eusebi, perev, marzo, scots}@eia.udg.es Resumen. En el presente artículo se describe la arquitectura de un sistema integral de gestión del ancho de banda y protección para entornos de redes MPLS. El sistema está formado por dos módulos, el de encaminamiento y el de gestión de recursos. El módulo de encaminamiento escogerá la mejor ruta de trabajo y las posibles rutas de respaldo, teniendo en cuenta los requerimientos de calidad de servicio y de protección de la petición. El módulo de gestión de recursos se encargará de la gestión de fallos en la red y de la mejora de la utilización de los recursos de la red mediante mecanismos de reasignación dinámica del ancho de banda. 1. Introducción La evolución de las tecnologías de las comunicaciones hacia redes de servicios integrados conlleva un aumento de complejidad en su gestión. Entendemos por redes de integración de servicios aquellas redes más dinámicas orientadas a la conexión con garantías de calidad de servicio, con un crecimiento en nodos, usuarios y sobre todo en tráfico. Los mecanismos existentes contemplan la gestión desde una óptica básicamente aislada en cuanto a asignación de anchos de banda, encaminamiento, establecimiento de circuitos y de rutas de respaldo, etc. Por otro lado, dichas gestiones suelen actuar de forma estática, como procesos activados de forma manual y esporádica. Así pues, nos encontramos ante un nuevo escenario donde se requieren nuevas estrategias que proporcionen a la red el control y el dinamismo que los nuevos servicios requieren. En el presente artículo se describe el desarrollo de un módulo de gestión de red orientado al encaminamiento con protección (con rutas de respaldo) y a la gestión de los recursos de la red adaptándolos al estado de ésta y a las necesidades de calidad de servicio (QoS: quality of service) del tráfico. MPLS es la tecnología elegida para el desarrollo del sistema. Este trabajo está parcialmente financiado por la CICYT número TEL-99-0976. En la sección 2 se describe brevemente la tecnología MPLS y cómo ésta se utiliza en la implementación de mecanismos de “ingeniería del tráfico” [1], [2]. La sección 3 presenta la especificación funcional del sistema. Ésta se divide en tres subsecciones: la descripción de los mecanismos de gestión de ancho de banda, mecanismos de protección MPLS y encaminamiento con calidad de servicio y protección. La sección 4 detalla la arquitectura propuesta del sistema. Por último, se presentan las conclusiones y futuros trabajos. 2. Ingeniería del tráfico en entornos MPLS En esta sección se describe el marco en el que se desarrolla la arquitectura SGBP. Ésta se basa en redes MPLS. Para ello se describe brevemente la arquitectura MPLS y los métodos de ingeniería del tráfico. MPLS tiene como principal característica la división de los planos de control y de envío. El mecanismo de control se encarga de dos funciones: la creación de las rutas, que implica la construcción de las tablas de encaminamiento, y la señalización de las rutas. El módulo de envío se encarga de la conmutación de paquetes mediante el mecanismo de intercambio de etiquetas. Gracias a este intercambio de etiquetas se pueden crear los LSP (label switching paths), haciendo un paralelismo con ATM, los VCI. La distribución de la información entre los diferentes nodos (distribución de las etiquetas) se realiza mediante un algoritmo de señalización. Actualmente existen dos alternativas: variaciones a RSVP (reservation protocol) o el LDP (label distribution protocol). La arquitectura MPLS está pensada como protocolo en un entorno de red donde podemos encontrar routers IP, conmutadores ATM, etc. Una red MPLS estará compuesta por routers MPLS: LSR (label switch routers). Éstos se dividen en nodos de entrada (ingress nodes), nodos de salida (egress nodes) y nodos intermedios (core routers). Los primeros y los de salida se encargan de encapsular y desencapsular los paquetes, mientras que los intermedios únicamente realizan la conmutación de etiquetas. Dos conceptos fundamentales en MPLS lo diferencian de otros protocolos: son la posibilidad de agregar tráfico y la posibilidad de hacer encaminamiento explícito. MPLS clasifica en el nodo de entrada (ingress node) el tráfico de modo que le asigna, según el destino y la clase de tráfico, una FEC (forwarding equivalence class). Cada flujo de tráfico tendrá asociada una FEC que podrá asignarse a un LSP determinado. Además, tendremos la posibilidad de agregar flujos asignándolos a una FEC determinada. Por otro lado, podemos hacer un encaminamiento explícito, indicando cuáles son los nodos por los que queremos que pase un LSP. Esto nos permite, a diferencia de otros protocolos de encaminamiento que no ofrecen esta posibilidad (como el encaminamiento en IP), evitar situaciones de congestión. Por ejemplo, si el encaminamiento proporciona una ruta que ya está congestionada, debido a que sólo tiene en cuenta el destino y el número mínimo de saltos. Estas dos herramientas, la agregación de tráfico y el encaminamiento explícito, hacen de MPLS un protocolo adecuado para gestionar las redes actuales. O dicho de otro modo, para realizar lo que actualmente se conoce como ingeniería del tráfico (TE, traffic engineering) [1]. Uno de los problemas actuales en redes IP es la falta de “habilidad” para ajustar flujos de tráfico haciendo un uso adecuado del ancho de banda de la red. Tampoco se dispone de mecanismos para diferenciar clases de tráfico. Este problema es el que intenta solucionar la ingeniería del tráfico en entornos MPLS. Según define el IETF [2], un enlace troncal de tráfico (traffic trunk) es un agregado de todo el tráfico entre un ingress node y un egress node. La idea de la ingeniería del tráfico es cómo se puede realizar el mapeo de traffic trunks sobre la red física optimizando el rendimiento (uso de los recursos, balanceo de la carga, etc.). Por lo tanto, la ingeniería de tráfico contempla diferentes tareas: gestión de los recursos, protección y encaminamiento con calidad de servicio. 3. Descripción del sistema En esta sección se describe cada uno de los elementos necesarios para la construcción del sistema: mecanismos de gestión de recursos, mecanismos de protección y mecanismos de encaminamiento con calidad de servicio y protección. 3.1. Gestión de recursos MPLS permite establecer LSP y además establecer LSP de respaldo asociados a los de trabajo. El establecimiento de todos estos LSP se realiza usando algoritmos de encaminamiento con calidad de servicio que buscan la ruta óptima, tanto desde el punto de vista de la calidad de servicio requerida como desde el punto de vista del uso de los recursos de la red. A partir de este punto la gestión de recursos básicamente se encarga de ajustar los LSP establecidos en la red adaptándolos al uso real que se esté haciendo de ellos, de forma parecida a la realizada en ATM [3]. Para conseguir esta adaptación al tráfico real de la red, los mecanismos de ingeniería del tráfico deben realizar tareas de monitorización. Por lo tanto, se puede afirmar que los mecanismos de gestión de recursos están constantemente pendientes del estado real de la red y fuertemente relacionados con el establecimiento de LSP de trabajo y de respaldo con algoritmos de encaminamiento con calidad de servicio. Por este motivo, la gestión de recursos también cubre la detección de las alarmas en el momento en que se produce un fallo en la red y la activación de los LSP de respaldo. Por lo tanto, la gestión de recursos cubre la monitorización del estado real de la red y procede a su adaptación (cambiando los LSP existentes) al tráfico real y a los posibles fallos que puedan surgir (activando los LSP de respaldo necesarios). Una vez establecidos los LSP, éstos tendrán una cierta vida, corta o larga, durante la cual pueden sufrir una serie de problemas. Se puede establecer un LSP con un cierto ancho de banda asignado para una cierta cantidad de tráfico con una cierta calidad de servicio. Sobre este LSP puede suceder que, al cabo de un cierto tiempo, la demanda de tráfico supere la 5 Mb 2 3 reserva inicial y se produzca un rechazo de tráfico 4 Mb de entrada. Este rechazo o bloqueo se produce 1 debido a algún tipo mecanismo de control de ad4 5 misión necesario para garantizar la calidad de 3 Mb servicio de las distintas conexiones existentes, y a) Situación inicial: 3 LSPs de 3, 4 y 5 Mb puede cuantificarse calculando la probabilidad de de ancho de banda. El de 4 Mb es el que está congestionado y requiere incrementar su banda bloqueo para cada LSP. Otro fenómeno que puede 5 Mb suceder es que, una vez reservada una cierta canti2 3 dad de ancho de banda para un cierto LSP, después 5 Mb 1 de cierto tiempo este LSP esté poco utilizado y se estén desperdiciando los recursos de la red, cuando 4 5 posiblemente otros LSP puedan estar congestiona3 Mb b) Cambio del ancho de banda del LSP dos y rechazando tráfico. de 4 Mb a 5 Mb. Se supone que existen suficientes recursos disponibles enel enlace 1-2 La técnica habitual para adaptar el ancho de banda de los LSP al tráfico real es la reasignación 4 Mb 2 3 de banda de los mismos, incrementándola o de6 Mb crementándola según sea el caso. Para poder in1 crementar la banda de un LSP es necesario que a 4 5 lo largo del camino que sigue este LSP (los dife3 Mb rentes enlaces físicos que atraviesa) existan los c) Cambio del ancho de banda del LSP de 4 Mb a 6 Mb tomando parte de esta banda suficientes recursos libres (figura 1 b). Si esto no del LSP que inicialmente era de 5. Se supone que no la estaba usando. sucede, existen dos posibles acciones a tener en 5 Mb cuenta. La primera es buscar en qué enlaces físicos 2 3 no se cumple la condición de que no exista suficiente banda disponible, y posteriormente, en estos 1 6 Mb enlaces comprobar si existe algún otro LSP infra4 5 utilizado y del que se pueda tomar la banda nece3 Mb saria (figura 1 c). En otras palabras, consiste en d) Cambio del ancho de banda del LSP de 4 Mb a 6 Mb. Debido a no existir suficiente traspasar banda de LSP poco usados a un LSP banda libre en el enlace 1-2 ni suficiente banda no usada en el LSP de 5 Mb se reencamina el congestionado y que necesita incrementar su banLSP conflictivo a través de 1-4-2. da. La segunda posibilidad, en el caso de que la 6 Mb 2 3 primera no sea posible, es reencaminar el LSP que 5 Mb necesita mayor ancho de banda a través de otro 1 camino que pueda satisfacer sus necesidades (figu4 5 ra 1 d). También en este caso, si no es posible 3 Mb reencaminar al LSP congestionado, también existe e) Cambio del ancho de banda del LSP de la posibilidad de reencaminar uno o varios de los 4 Mb a 6 Mb. Debido a no existir suficiente banda libre en el enlace 1-2 ni suficiente ni demás LSP con los que comparte los mismos enlasuficiente banda libre en los enlaces 1-4-2 se reencamina el LSP de 5 Mb ces físicos, con lo cual se liberan recursos y permite incrementar su banda (figura 1 e). En los casos en los que hay que reencaminar Fig. 1. Gestión de banda. LSP se puede hacer uso de los algoritmos de encaminamiento dinámicos y con calidad de servicio. De ahí que estos mecanismos de gestión de recursos estén estrechamente relacionados con los mecanismos de establecimiento de LSP de trabajo y de respaldo con calidad de servicio, creando un entorno global de ingeniería del tráfico. Otro aspecto a tener en cuenta es el de qué mecanismos toman la decisión de adaptar la banda de los LSP y realizar las operaciones anteriormente descritas. Existen diferentes ejemplos en la literatura, y dependiendo de dónde se tome la decisión, se puede hablar de mecanismos centralizados o distribuidos. Estos mecanismos, por las tareas que realizan, se situarían dentro del plano de gestión. Tradicionalmente la gestión, en este caso de recursos y de fallos, se ha realizado de forma centralizada, lanzando algoritmos de optimización que, disponiendo de los datos de monitorización de toda la red, calculan la distribución óptima de los LSP. En redes troncales relativamente grandes por las que circula gran cantidad de LSP es muy difícil disponer de todos los datos de monitorización de forma centralizada y calcular la distribución óptima a tiempo antes de que el estado de la red ya haya cambiado. Una de las opciones que aparecen en la literatura reciente es tratar de mantener la distribución de LSP lo más cercana posible a la óptima haciendo pequeños ajustes usando algoritmos distribuidos. La ventaja principal de los algoritmos distribuidos es que disponen de la información de forma local y permanentemente actualizada. Por el contrario, la desventaja está en que no se dispone de una visión global de la red. Por esta razón algunos algoritmos de este tipo se basan en distintas técnicas de inteligencia artificial y/o en distintas heurísticas para intentar realizar las mejores adaptaciones, aunque no se no dispone de una completa información [4], [5], [6] y [7]. Otro tema importante es el de la frecuencia con la que se realizan las adaptaciones de los LSP. Existen mecanismos que las realizan periódicamente, otros que las realizan cada vez que se detecta un problema, etc. La frecuencia máxima sería cada vez que se realiza una conexión nueva o finaliza una conexión antigua. Por el contrario, una frecuencia mínima sería no cambiar nunca los LSP. Con respecto a los mecanismos periódicos, depende del periodo y de cómo se calcule la nueva distribución de LSP, pero en general pueden calcular la nueva distribución cuando no se está produciendo el problema. Una frecuencia excesiva provocaría una gran generación de mensajes de señalización en la red con un efecto contrario al buscado, un empeoramiento del rendimiento de la red. Parece que de nuevo es necesario realizar los cambios en cuanto se detectan los problemas, pero evaluando correctamente si vale la pena o no realizar el cambio en ese momento, por lo que de nuevo se precisa una cierta inteligencia en estos mecanismos. 3.2. Protección en entornos MPLS Los enlaces físicos o virtuales de una red están expuestos a fallos de conectividad. El objetivo de los mecanismos de protección consiste en minimizar el riesgo de desconexión. Dichos métodos de protección siguen un ciclo, que va desde la detección de un fallo en un camino de datos, hasta que el tráfico puede reestablecerse en dicho camino. Este ciclo involucra a varios componentes: un método de encaminamiento que selecciona caminos de trabajo y de respaldo; un método de reserva de banda en ambos caminos; un método de señalización para configurar (distribuir las etiquetas) en los caminos de trabajo y respaldo; un mecanismo de detección y otro de notificación de fallos, necesarios para indicar al nodo responsable de tomar las acciones de respuesta al fallo que se ha producido; y, finalmente, un mecanismo para desviar el tráfico desde el camino de trabajo (en el que se ha producido el fallo) hasta el camino de respaldo 4 2 (acción de switchover). Opcionalmente, podemos disponer de un mecanismo de 1 3 5 6 detección de la recuperación del camino Fig 2.a Mecanismo de protección Global original y de los elementos necesarios para volver a restablecer el tráfico. 4 Un aspecto que distingue a MPLS de otros mecanismos de protección es que 1 3 5 6 podemos aplicar protección a diferentes Fig 2.b Mecanismo de protección Local niveles [8]. En los dominios MPLS, podemos disponer de mecanismos de protección 4 2 para todo el camino o bien para un segmento de éste. En la protección a nivel de toda 1 3 5 6 la ruta, la protección siempre vendrá actiFig 2.c Mecanismo de protección inverso vada por los nodos extremos del LSP, independientemente de dónde se origine el Fig 2: Mecanismos de protección MPLS fallo. Estos mecanismos implican propagar la señal de indicación de fallo FIS (fault indication signal) hasta el nodo inicial (ingress node), lo cual implica un cierto coste en términos de tiempos de restauración. En la protección por segmentos o protección local, las acciones de recuperación se activan en el propio nodo que detecta el fallo. Este LSR tiene que estar provisto de funcionalidades PSL (protection source LSR). En el otro extremo tendremos otro nodo con funcionalidades de PML (path merge LSR) que permiten mezclar los tráficos que provienen del propio camino de trabajo y el de respaldo en un solo LSP. Evidentemente, si bien este mecanismo es más rápido que el anterior, no permite proteger todo el camino. Para ello tendríamos que proteger cada uno de los segmentos del camino de trabajo con el coste en recursos que esto implica. A continuación se realiza un análisis de los tres métodos más comunes de protección MPLS. Las ventajas e inconvenientes de cada uno de ellos serán analizados y comparados entre los diversos esquemas. Ruta de respaldo PML PSL PML Ruta de Respaldo Local Camino de trabajo PSL Ruta de respaldo PML/PSL PSL PML Método global. En este modelo, el nodo inicial (ingress node) es el responsable de resolver la restauración cuando la FIS llegue [8]. Este método necesita de un camino de respaldo disjunto al camino de trabajo. Las acciones de protección siempre se activan en el ingress node, independientemente de donde ocurra el fallo (a lo largo del camino de trabajo). Esto significa que la información del fallo tiene que propagarse desde el nodo donde éste es detectado hasta el nodo inicial. Si no disponemos de ningún LSP inverso, la detección del fallo se tendrá que realizar con otro tipo de mecanismo como el testeo continuo del camino de trabajo. Este método tiene la ventaja de tener que configurar una única ruta de respaldo para cada camino de trabajo y, además, es un método centralizado, lo que significa que un único nodo tiene que ser provisto de las funciones de PSL. Por otro lado, este método presenta un alto coste en términos de tiempos de restauración y pérdida de paquetes. La figura 2.a nos enseña un escenario simple formado por seis LSR donde el camino de trabajo (LSR1-LSR3-LSR5-LSR6) y el camino de respaldo (LSR1-LSR2LSR4-LSR6) están preestablecidos. En condiciones normales, el tráfico se transmite desde el ingress node LSR1 hasta el egress node LSR6 a través del camino de trabajo. Cuando se detecta un fallo (por ejemplo entre el nodo LSR5 y LRR6), el tráfico cambia hacia el camino de respaldo. Método local. En este método la restauración se activa en el mismo punto donde se produce el fallo; es, por lo tanto, un método transparente al ingress node. Su principal ventaja es que ofrece mejores tiempos de restauración que los métodos globales. En este método la dificultad principal reside en tener que proveer de funcionalidades PSL (y en su caso PML) a todos los nodos (origen-destino) de los segmentos del camino de trabajo que queramos proteger. Además, tendremos que buscar tantos caminos de respaldo como segmentos a proteger (a diferencia del esquema global, donde era necesario un único backup). Otra ventaja, sin embargo, es que en este método no se producen pérdidas de paquetes como en el esquema global. La figura 2.b muestra este caso. El modelo de red es el mismo: tenemos un camino de trabajo formado por los nodos (LSR1-LSR3-LSR5-LSR6) y una ruta de respaldo formada por LSR3-LSR4-LSR6. Cuando se produce un fallo (por ejemplo, entre LSR5-LSR6) se restaura el tráfico en el mismo punto usando la ruta de respaldo local. Método inverso. La principal idea de este método es devolver el tráfico al nodo inicial (ingress node) usando un backup inverso desde el punto donde se produce el fallo. Así se evitan las pérdidas de paquetes [9]. La principal desventaja es que tiene un tiempo de restauración igual al del método global. Además, necesita introducir una nueva ruta de respaldo, con lo cual la utilización de los recursos es aún peor que en el método global. Su única ventaja es que disminuye la pérdida de paquetes y simplifica la notificación del fallo. La figura 2.c muestra un ejemplo de utilización del método inverso. Se establecen los caminos de trabajo y respaldo igual al modelo global y además añadimos una ruta de respaldo inversa desde LSR5 (LSR5-LSR3-LSR1) hacia el ingress node. Cuando se detecta un fallo en el LSP (LSR5-LSR6), el tráfico se desvía hacía el LSR1 (ingress node) a través de la ruta de respaldo inversa; una vez allí, el modelo se comporta igual que el global. 3.3. Encaminamiento con calidad de servicio y protección El establecimiento de una ruta de origen a destino se puede hacer de varias maneras. La opción más sencilla es buscar un camino que sea lo más corto posible (familia SPR, shortest path routing). Si suponemos que se mide la distancia en número de saltos, el algoritmo más sencillo sería un MHA (minimun hop algorithm). Si consideramos algoritmos de encaminamiento con calidad de servicio, éstos tendrán en cuenta el hecho de maximizar la utilización de los recursos y la minimización de la carga (en términos de banda) de la red. Aquí entraríamos en otra familia de algoritmos como son los WSP (widest shortest path), SWP (shortest widest path), DAP (dynamic alternative path) ([10], [11]). En estos algoritmos los dos objetivos usados para la elección de la ruta son: el número de saltos (maximizar la utilización de los recursos) y el ancho de banda disponible (balancear la carga de la red). Estos algoritmos consiguen maximizar el número de peticiones de establecimiento de las rutas. Otra familia de algoritmos de encaminamiento con calidad de servicio, donde sí tenemos como objetivo la maximización de este parámetro, son los de mínima interferencia [12]. Se busca establecer rutas que maximicen el sumatorio de los máximos flujos de la red, con lo cual se permite el poder establecer un mayor número de peticiones. MIRA es una propuesta de encaminamiento con mínimas interferencias que además tiene en cuenta las características de una red MPLS (a priori podemos conocer el conjunto de ingress-egress nodes). Este tipo de algoritmos, a diferencia de los anteriores, realiza una fase de preproceso para crear un grafo con pesos donde posteriormente se aplica un SPR. Si en el MIRA se aplica el preproceso de cálculo de máximos flujos y enlaces críticos (véase [12]), hay otras propuestas donde el preproceso usa otro tipo de cálculo. Por ejemplo, en [13] el preproceso se basa en un cálculo de flujos multiactivos. En otros el cálculo de las rutas se realiza usando métodos de programación entera [14], [15]. En la mayoría de estas propuestas el objetivo principal es establecer un camino de trabajo. Si bien algunas contemplan el establecimiento de caminos de respaldo, suele ser un tratamiento secundario. En algunas propuestas (como en MIRA) el establecimiento de rutas de respaldo se reduce al simple hecho de que el algoritmo permite un mejor aprovechamiento de la banda de la red, lo cual permite hacer reencaminamiento en caso de fallo. Otras propuestas como el PBR (obviamente propuestas anteriores como el WSP) no contemplan ningún esquema de protección. La mayoría, como mucho, dejan los esquemas de protección a tener un camino alternativo entre origen y destino para el caso de fallos. Una de las pocas propuestas donde se intenta ofrecer un camino de trabajo y un camino de respaldo con ciertas garantías de calidad de servicio (básicamente banda) es [14]. En ella el algoritmo de encaminamiento intenta encaminar un camino de trabajo y una ruta de respaldo (global y disjunto al camino de trabajo); en caso de no ser posible, la petición es rechazada. Aunque este primer esquema sólo tiene en consideración el establecimiento de esquemas globales de protección, esta propuesta viene completada en [15], donde sí se contempla la posibilidad de establecer otros esquemas de protección (en concreto, protección local). En cualquier caso, pocas propuestas tienen en cuenta el hecho de que no sólo disponemos de un esquema de rutas de respaldo (globales) para ofrecer protección a nuestros caminos de trabajo (o segmentos del camino de trabajo), sino que existen otros esquemas: locales, inversos e híbridos de éstos para ofrecer protección. Además, pocos tienen en cuenta las ventajas y desventajas de utilizar uno u otro esquema. La aplicación de uno u otro esquema, como hemos visto en la sección anterior, tendrá asociada unos parámetros de velocidad de recuperación, pérdida de paquetes, consumo de recursos, etc. que hay que tener en consideración. En definitiva, la aplica- ción de uno u otro esquema permite obtener una cierta QoS en el tráfico y optimizar el rendimiento global de la red. Estas características y cómo y dónde aplicar un esquema u otro de protección son un campo poco explorado en la literatura. En [15] sí se hace mención de las ventajas de aplicar una protección local frente a una global. En [16] se propone el uso de uno o más esquemas en función de las necesidades de protección de nuestra red. 4. Arquitectura del sistema de gestión del ancho de banda y protección En esta sección describimos la arquitectura básica del módulo a desarrollar y sus principales dependencias funcionales. Sus componentes básicos son: el módulo de encaminamiento y el módulo de gestión de recursos. A partir de la red física y de la definición de tráfico inicial, el módulo de encaminamiento con calidad de servicio configurará una topología de red lógica inicial. Para ello se deben utilizar algoritmos de encaminamiento que establezcan tanto la ruta de trabajo como la de respaldo; de esto se encargará el módulo de encaminamiento. Ambos caminos deben asegurar la calidad de servicio acordada con los usuarios. La obtención de estos caminos no es simple, y se debe establecer un compromiso entre la eficiencia en la utilización de los recursos de red y la velocidad de respuesta a las peticiones de conexión que impliquen la evaluación de nuevas rutas. Las técnicas conocidas que obtienen los mejores resultados son inapropiadas para respuestas dinámicas o bajo demanda (on-line). El establecimiento de ese equilibrio es uno de los objetivos de esta arquitectura. Básicamente este módulo tiene en cuenta tanto los parámetros de calidad de servicio del encaminamiento de caminos de trabajo: maximización de los recursos, optimización del número de peticiones aceptadas y balanceo de la carga, como los de las rutas de respaldo: pérdidas de paquetes, tiempos de respuesta ante fallos y utilización de recursos. El módulo de reconfiguración actúa simplemente de interfaz entre el módulo de encaminamiento, el de gestión de recursos y la red real. Utilizará los procedimientos estandarizados más adecuados al escenario propuesto. En este sentido, resulta muy interesante la posibilidad de programar este módulo de configuración para que pueda interactuar con los nodos de una red real usando el protocolo de gestión SNMP (simple network management protocol). Este protocolo es el estándar de gestión en IP y lo soportan prácticamente todos los routers y conmutadores. El módulo de gestión de recursos observa de manera continua el estado de la red. Éste está compuesto, entre otros, por los siguientes parámetros: - Ocupación de cada LSP (banda utilizada) - Retraso - Pérdidas - Probabilidad de bloqueo ante la petición de nuevas conexiones - Caídas de enlaces y nodos Red física (nodos y enlaces) Previsión de tráfico inicial Módulo de gestión para Internet 2 “Direccionamiento, asignación de banda y tolerancia a fallos” Direccionamiento Redireccionamiento (QoS, caminos de trabajo y de respaldo) Reasignación de banda Nueva ruta Gestión de recursos Gestión de fallos (Switchover) (Re)configuración Fallos Red lógica (Red física + LSP ) Estado Tráfico Fig 3. Arquitectura del SGBP. En función del estado de la red, el módulo de gestión de recursos puede “decidir” acciones de reconfiguración de la red que podemos resumir en las tres siguientes: - Reasignación de banda. A partir de un análisis del estado de la red, se decide que la acción a tomar es la de reasignar banda (o bien tomándola del conjunto de banda residual disponible o bien tomándola de caminos donde no se utiliza exhaustivamente, preemption). La acción se lleva a cabo reconfigurando la red de forma directa (como se indica en la figura 3). - Reencaminamiento. Un problema detectado puede ser de características tales que no tenga solución mediante una reasignación de banda y se debe modificar la topología de la red. En este caso debe intervenir el módulo de encaminamiento. Aquí caben dos estrategias: a) recalcular todas las rutas para obtener una nueva solución al sistema, o b) obtener una solución al problema de forma rápida y con el mínimo de cambios en la topología. Aquí aparece de nuevo el compromiso entre eficiencia en la utilización de recursos y una respuesta más ágil (simple) al problema. - Gestión de fallos de red (funciones de switchover). Esta acción se corresponde con la detección de una caída de un enlace (o nodo). La casuística aquí es muy variada, desde la simple activación de las tablas de encaminamiento hacia los caminos de respaldo previamente establecidos y con banda asignada, pasando por la captura de banda y nuevos encaminamientos si fuera necesario. La característica principal de estas funciones es que deben dar una respuesta rápida. Estos aspectos son objeto de investigación del proyecto, como se detallará. El módulo de encaminamiento se basa en modelos complejos pero generalmente bien definidos, mientras que para el módulo de gestión de recursos podrán utilizarse diversas técnicas que permitan solucionar la toma de decisiones. 5. Conclusiones y trabajo futuro En este artículo se ha presentado la arquitectura de una propuesta de un sistema integral de gestión de recursos y protección para redes en entornos MPLS. La novedad en esta arquitectura es la unión de varios mecanismos hasta ahora desarrollados de forma independiente en la mayoría de las arquitecturas actuales. Las ventajas de la integración de estos mecanismos es que permiten, dentro de un mismo sistema, la coexistencia de mecanismos que trabajan a distintas escalas temporales. Por otro lado, esta integración permite, a diferencia de la mayoría de mecanismos actuales, el aprovechar las ventajas que ofrece cada sistema por separado de forma coordinada. Es decir, evita situaciones donde la aplicación de un mecanismo entre en conflicto con el otro. Actualmente se ha terminado el diseño del sistema y se han implementado algunos de sus módulos [16] y [17]. Como trabajo futuro se plantea el desarrollo y prueba de diversas alternativas a los módulos descritos en la propuesta. Concretamente, se realizarán experimentos con algoritmos de encaminamiento con soporte MPLS, calidad de servicio, bajo demanda (on-line) y con soporte de protección. Por otro lado, para el desarrollo del módulo de gestión se evaluarán distintas técnicas de toma de decisiones en entornos de sistemas multiagentes. Referencias 1. Xipeng Xiao, Alan Hannan, Brook Bailey, Traffic Engineering with MPLS in the Intenet IEEE Networks. March/April 2000 2. D. Awduche, J. Malcolm, J. Agogbua, M. O'Dell, J. McManus, Requirements for Traffic Engineering Over MPLS Sep 1999 RFC2702 3. V.J. Friesen, J.J. Harms, J.W. Wong, Resource Management with Virtual Paths in ATM networks IEEE Network, vol 10 no 5, September/October 1996 4. Jim Hardwicke, Rob Davison, Software Agents for ATM Performance Management. IEEE NOMS'98 Network Opertaions and Management Symposium, New Orleans (USA), February 1998 5. J. Bigham, L.G. Cuthbert, A.L.G. Hayzelden, Z. Luo, Multi-Agent System for Network Resource Management. International Conference on Intelligence in Services and Networks, IS&N'99, Barcelona (Spain), April 1999 6. Z. Luo, J. Bigham, L.G. Cuthbert, A.L.G. Hayzelden, Traffic Control and Resource Management using a Multi-Agent System. 5th International Conference on Broadband Communications, Hong Kong (China), November 1999 7. Greg Osinaike, Rachel Bourne, Chris Phillips, Agent-Based Dynamic Configuration of Differentiated Traffic using MPLS with CR-LDP Signalling. 17th UK Teletraffic Symposium UKTS 2001, May 16-18, Dublin, Ireland. 8. S. Makam, V. Sharma, K. Owens, C. Huang Protection/Restoration of MPLS Networks (work in progress) Internet Draft draft-makam-mpls-protection, Oct 1999 6. D. Haskin, R. Krishnan. A Method for Setting an Alternative Label Switched Paths to Handle Fast Reroute (work in progress) Internet Draft draft-haskin-mpls-fastreroute, Nov 2000 10. R. Guerin, D. Williams, A. Orda, QoS Routing Mechanisms and OSPF Extensions Proceedings of Globecom 1997. 11. Q. Ma and P. Steenkiste On Path Selection for Traffic with Bandwidth Guarantees, Proceedings of IEEE International Conference of Network Protocols. Oct. 1997 12. M. Kodialam, T.V. Lakshman, Minimum Interference Routing with Applications to MPLS Traffic Engineering, in Proceedings of the conference of Computer Communications (Infocom 2000). Mar.2000 13. S. Subhash,M. Waldvogel ,P. Warkhede .Profile-Based Routing: A New Framework for MPLS Traffic Engineering 2nd International Workshop on Quality of future Internet Services OoSFis'01 14. M Kodialam and T. V. Lakshman, Dynamic routing of bandwidth guaranteed tunnels with restoration. In Proceedings of the Conference on Computer Communications (IEEE Infocom), Mar. 2000. 15. M. Kodialam, T.V. Lakshman, Dynamic Routing of Locally Restorable Bandwidth Guaranteed Tunnels using Aggregated Link Usage Information. In Proceedings of the conference of Computer Communications (Infocom 2001) 16. E. Calle, T. Jové, P. Vilà, J.L. Marzo. A dynamic multilevel MPLS protection domain DCRN’2001. Third International Workshop on Design of Reliable Communication Networks. 7-10 October 2001, Budapest, Hungary 17. P. Vilà, J.L. Marzo, E. Calle. “Dynamic Bandwidth Management as part of an Integrated Network Management System based on Distributed Agents" to appear in proceedings of IEEE Global Communications Conference (GLOBECOM 2002), Taipei (Taiwan), November 17-21, 2002