POLÍTICAS DE QOS PARA INTERFACES TRONCALES DE

Anuncio
POLÍTICAS DE QOS PARA INTERFACES TRONCALES DE LOS EQUIPOS METRO Y CORE MPLS
DE UNA RED BASADA EN ASON
Octavio José Salcedo Parra
Universidad Nacional de Colombia-Universidad Distrital Francisco José de Caldas
Giovanny Narvaez
Universidad Distrital Francisco José de Caldas
Francisco J Puente
Universidad Distrital Francisco José de Caldas
Resumen:
Este articulo presenta una evaluación
especificaciones de las políticas de QoS para
de
las
interfaces
troncales de los equipos Metro y Core MPLS de una red basada en
ASON de proyecto “Prototipo para evaluar las ventajas técnicas y
de costo beneficio en redes backbone con servicios de nueva
generación basadas en ASON (Automatic Switched Optical
network)”, en la primera parte se definen los servicios prestados
por los proveedores de servicios, en la segunda se hace un análisis
de la QoS de los servicios con el objetivo de nivel de servicio
(SLO), posteriormente se define la arquitectura de QoS adoptada
y por ultimo se define los mecanismos de QoS
En este capitulo se va analizar Figura 2; pero es necesario tener en
cuenta algunos parámetros de diseño, por lo tanto se contempla
una nueva configuración de 6 colas en interfaces de salida para ser
implantada una vez que se haya alcanzado un suficiente grado de
actualización de la planta que permita configurarlas en todas las
interfaces troncales de las redes Metro y Core.
Palabras Claves: Calidad de Servicio (QoS), Metro Ethernet,
Ingeniaría de Trafico, Clasificación de paquetes. Objetivo de
Nivel de Servicio (SLO)
Introduccion
En la época en que vivimos actualmente el tráfico sigue creciendo
a ritmo acelerado y plantea grandes retos a los operadores de
telecomunicaciones que han visto superado el tráfico de voz por el
de datos, cuya aportación económica es mucho menor.
Para este nuevo reto, es indispensable tener redes flexibles, que
utilicen tecnologías que optimice el ancho de banda, seguras,
gestionables y que sean integrables con otros servicios, de ahí la
importancia de definir las políticas de QoS para interfaces
troncales de los equipos Metro Ethernet y Core MPLS de una red
basada en ASON.
El Objetivo de este articulo es especificar las políticas de QoS
para interfaces troncales de los equipos Metro y Core MPLS de
una red basada en ASON, este basado de acuerdo las nuevas
aplicaciones que están surgiendo en Internet que han producido
en aumento de la necesidad de transmitir información desde un
origen a múltiples destinos (multidifusión) y que esta transmisión
se haga garantizando ciertos parámetros de Calidad de Servicio
como pueden ser el Delay máximo y el número de paquetes que
pueden ser descartados sin afectar a la calidad de la transmisión de
la información. Esta Calidad de Servicio no puede ser asegurada
por los protocolos TCP/IP por lo que se han desarrollado
diferentes tecnologías para superar este inconveniente [1]
Figura 2. Topología de Red Concebida2
Las tablas de mapeo de tráfico a colas en las interfaces de salida
incluyen solo el campo EXP de los paquetes MPLS [4], que son
los paquetes presentes internamente en las redes Metro y Core. La
clasificación de paquetes y la correspondencia con valores IP
Precedence y DSCP deberá especificarse en los mencionados
documentos Plan Técnico o similares para cada servicio y para
cada tipo de tráfico que deba ser cursado por la red de cada
proveedor de servicios.
Se elimina la clase “Datos Excedentes” como tal. Deberá definirse
la manera en que se mapean los excedentes de cada tipo de tráfico
en los documentos de cada servicio.
1.1
SERVICIOS PRESTADOS
Los servicios prestados por las redes de las operadoras son:
Servicios Residenciales:
1. Internet
2. Video (IPTV, Video On Demand) esta
próxima a salir al mercado
3. VoIP
Servicios Corporativos:
1. Internet IP (IP dedicado)
2. LAN to LAN (VLL y VPLS)
3. VPN IP MPLS
1.2
QoS
Con el modelo de red propuesto, la red puede ser configurada para
alcanzar los requisitos de red basados en cada uno de los
servicios. Siendo así, garantizar una cantidad de ancho de banda
para los servicios a lo largo de la red va a depender del modelo de
clasificación, marcado y encolado de los mismos, sin olvidarse
del control y gestión de la congestión en el core de la red [5].
Figura 1. Modelo de Red de dos capas basada en ASON1
1
Topología de red basado en ASON “Next Generation”
La pérdida de paquetes se produce por desborde de una cola en el
momento de congestión, y el delay y jitter están asociados a la
configuración de los servicios, además de ser impactados por
situaciones de congestión. O sea, la pérdida de paquetes puede ser
significativamente reducida si se aplica una política de
encolamiento adecuada en la red y si se emplea una planificación
de capacidad adecuada (Capacity Planning), así como el delay de
2
Escenario evaluado de acuerdo al escenario a evaluar.
los paquetes y el jitter para los servicios en que estos parámetros
son de significativa importancia.
La definición de las colas a lo largo de la red, ya sea en el
Backbone IP o en la MetroEthernet, está totalmente ligada al
número de colas disponibles en cada interfaz. Esto se debe a que
podemos encontrar interfaces con distintas configuraciones de
colas. Algunas interfaces son del tipo 1p2q2t (esto es, una cola
prioritaria, dos colas concurrentes y dos parámetros de descartes
para cada cola), otras son 1p3q8t (esto es, una cola prioritaria y
tres colas concurrentes y ocho parámetros de descarte para cada
cola), otras son 1p7q8t, más allá de otras interfaces existentes en
el mercado, o sea, existen varias configuraciones que pueden ser
hechas para que el tráfico se ubique en las colas correctas. Es
importante que los tráficos sean clasificados y marcados en la
entrada de la red para que los mismos sean encolados de forma
correcta y de acuerdo con los requisitos de red esperados por el
servicio [6].
Dado que la nueva gama de equipos de Core y Metro, así como
nuevas placas de interfaces en equipos antiguos ya soportan 8
colas por interfaz, se incorpora en este capitulo un mapeo de
clases de servicio a 6 colas, lo que permitirá dar mayor
flexibilidad a la red para gestionar los requerimientos de calidades
de servicio y brindar una mejor diferenciación de tratamiento de
tráfico ante condiciones exigentes.
Generalmente en una primera fase de implementación se
configurarán todos los equipos de la red con 4 colas en cada
interfaz de salida, en la modalidad 1p3q2t, para garantizar
configuraciones homogéneas.
arquitectura DiffServ propone una forma de implantar QoS en las
redes IP con la capacidad de ampliación requerida por grandes
redes como los backbones de los proveedores de servicio IP.
El modelo de Diffserv se basa en la definición de clases de
servicio y en la implementación de mecanismos que permitan
tratar cada clase de forma diferenciada con relación a diversos
requisitos de red (delay, throughput, jitter)[8].
La implementación de una Arquitectura de QoS se divide en dos
partes:
•
Clases de servicios y Traffic Conditioners (TC) en los
elementos de borde de la red.
•
Clases de servicios y Per Hop Behavior (PHB) del core
de la red IP y red MPLS
La separación se debe a las definiciones de la Arquitectura
DiffServ y que especifica la necesidad de:
•
Aplicación de los condicionamientos de tráfico (TC) en
el borde del backbone, para adecuar el tráfico de cliente a las
condiciones fijadas en el SLA.
•
Reserva de ancho de banda y priorización de las
aplicaciones en el backbone a través de la aplicación de PHBs, de
forma de garantizar los objetivos de SLA.
La siguiente figura ilustra esta arquitectura:
En una fase posterior, una vez que se haya alcanzado un grado de
actualización de la planta que permita configurar 6 colas en todas
las interfaces, se propone migrar las configuraciones a 6 colas.
1.3
SERVICE LEVEL OJECTIVE (SLO)
El Objetivo de Nivel de Servicio (SLO) corresponde a un
conjunto de parámetros de desempeño y criterios técnicos
definidos para la totalidad de la red, para cada servicio prestado
por la red. En suma, el SLO corresponde a los valores máximos y
mínimos prestados por la red.
Dadas las características dinámicas de cualquier red, la garantía de
SLO es un proceso continuo dentro de la red y depende
directamente del diseño de la red, así como su arquitectura y
operación.
Por lo tanto, para garantizar los parámetros, la red debe ser
monitoreada continuamente a fin de verificar que los parámetros
medidos se encuadren dentro de los parámetros definidos. En caso
que ocurrir un desvío de estos parámetros se deberán realizar
acciones correctivas para que los SLA’s acordados con los
clientes no se vean perjudicados. Tales acciones pueden ser:
reconfiguración de la red, ampliación del ancho de banda e
interfaces y hasta el mismo cambio de equipamientos[17].
Para cada descripción del servicio será definido un SLO, definido
a partir de resultados de laboratorio.
Además de la configuración de red, el SLO ofrecido está
directamente relacionado con el MTBF (Mean Time Between
Failure) de cada equipamiento, por lo tanto las especificaciones de
los equipos de red deben garantizar que los SLOs sean
cumplidos[17].
1.4
ARQUITETURA DE QoS
En esta sección se detalla la arquitectura de QoS a ser adoptada
para la red de forma de implementar las clases en las redes Metro
Ethernet, red IP y red IP/MPLS basadas en ASON.
PHB:PHB:
- Colas
Filas
- Control
Controlede
deCongestión
Congestionamento
TC de Entrada:
- Clasificación
Classificação
- Marcado
Marcação
- Policing
Policiamento
TCde
deSaída:
Salida
TC
- Colas
Filas
- Control
Controlede
deCongestión
Congestionamento
- Policing,
Policiamento
Shaping
Figura 3 – Arquitectura del Modelo Diffserv
Desde el punto de vista de la arquitectura Diffserv, la clasificación
y el marcado deben suceder en el punto más próximo posible del
cliente, o sea, en el primer, nodo de red capaz de realizar esta
funcionalidad. Siendo así, el DSLAM será responsable por el
marcado del tráfico de acuerdo con el servicio ofrecido, de esta
forma todo el tráfico proveniente del DSLAM será considerado
como tráfico confiable por parte del switch directamente
conectado. O sea, las puertas de los switches conectadas al
DSLAM’s no tendrán la responsabilidad de clasificar y marcar los
paquetes, una vez que esta función será del DSLAM. Por ello,
más allá de la responsabilidad de confiar en el tráfico, el switch
puede tener la responsabilidad de remarcar el tráfico. Eso ocurre,
porque el tráfico proveniente del DSLAM se modifica con el
marcado 802.1p y fija como responsabilidad del switch remarcar
el tráfico en el caso que el mismo sea enviado fuera de la red
metro. La remarcación ocurrirá en el caso de mapear 802.1p para
EXPbit ó 802.1p para DSCP.
Para los clientes corporativos, existen dos tipos de CPE, los
llamados confiables (gestionados por un sistema de Gestion) y los
no confiables (no gestionados por el mismo proveedor).
Más allá de la definición de la arquitectura de QoS, se debe
realizar también una Planificación de la Capacidad de la Red,
definiéndose de qué forma el ancho de banda será dividido entre
las clases.
Los CPE’s confiables pertenecen a la operadora, y ésta, a su vez,
es responsable por la configuración y gestión del equipo, por lo
tanto, y al igual que para el DSLAM, el TC se encuentra en el
propio CPE, y el próximo elemento de red, sea ese un Switch, un
Router o un DSLAM, se debe basar en el marcado recibido.
La arquitectura de QoS en la arquitectura Differentiated Services
(DiffServ) definida en las RFC 2474 y RFC 2475 [9][10]. La
Ya que los CPE`s no confiables son configurados por el propio
cliente, esto significa que la marcación realizada en el paquete
puede no estar de acuerdo con la política implementada por la red
de la operadora para el servicio contratado, por consiguiente todo
el tráfico recibido desde este CPE en un DSLAM, Switch Ethernet
o un Router de la red, debe ser ignorado el marcado existente en el
DSCP, y marcar el CoS y/o EXP Bit para la clase de servicio
contratada. El Byte TOS (que incluye al DSCP) no debe ser
alterado dentro de la red pues tal campo podrá ser utilizado dentro
de la red del cliente.
Para los casos en que los CPE`s están conectados a la red por una
linea DSL, el DSLAM debe estar dimensionado para soportar
todo el ancho de banda contratado por el cliente evitando que
ocurran congestiones de paquetes en ese punto de la red.
En las secciones que siguen se definen diversas clases de servicio
y se detallan los mecanismos de QoS utilizados para
implementarlas.
1.4.1
Definición de clases de servicio
Las clases de servicio constituyen un agregado de aplicaciones
que comparten los mismos requisitos de red (delay, throughput,
jitter).
Se propone la definición de 6 clases de servicio en el núcleo de la
red IP, las cuales se consideran suficientes para encaminar la gran
mayoría de las aplicaciones: Control de red, Real Time, Video,
Datos Críticos, Datos no-críticos, Best Effort [16].
Según lo expresado anteriormente, en una primera fase de
implementación se configurarán todos los equipos de la red con 4
colas en cada interfaz de salida, en la modalidad 1p3q2t, para
garantizar configuraciones homogéneas [7]. Por consiguiente, las
6 clases de servicio definidas deben ser traducidas en las 4 colas,
según lo descrito en el apartado 1.4.3 del capitulo. En una fase
posterior, una vez que se haya alcanzado la actualización de la
planta y exista soporte de un mínimo de 6 colas en todas las
interfaces, se podrán migrar las configuraciones.
Los paquetes de los protocolos de routing y control generados por
los equipos de la red forman parte de la clase “Control de Red” y
deben ser mapeados a una cola específica no compartida por otros
tipos de tráfico para evitar competencia con tráfico de clientes.
Dicha cola no debe implementar mecanismos de descarte de
paquetes ante eventos de congestión pues se trata de tráfico vital
para el funcionamiento de la red. La mayoría de los equipos
realizan una marcación automática de este tráfico con valor de
DSCP CS6 , Cos 6 y/o EXP 6. Esta cola debe tener garantía
absoluta de Ancho de Banda, aún en casos de congestión grave.
La clase Control de Red solo existe en el interior de la red y no
puede ser utilizada por ningún otro servicio.
La siguiente tabla muestra las clases de servicio que la red dispone
y ofrece hacia el exterior:
CLASE
TIPO DE TRÁFICO
Real Time
Tráfico de aplicaciones de
Tiempo Real (VoIP, otras)
5
Video
Tráfico TV Broadcast y Video
Streaming
4
Datos Críticos
EXP
Tráfico de Gestión
3
Tráfico Datos PLATINO
3
Tráfico de Routing del cliente
3
Tráfico de control de VoD
2
Tráfico de Datos ORO
2
Datos No
Críticos
Tráfico de Datos PLATA
1
Tráfico de Datos BRONCE
1
Best Effort
Tráfico Best Effort
0
Tabla 1 - Asignación sugerida de valores EXP en los PE de la Red
La asignación de valores de IP Precedence y/o DSCP deberá ser
definida en los documentos que traten la implementación de cada
servicio ofrecido por la red.
En dichos documentos deberá publicarse una tabla que muestre la
correspondencia entre los valores IP Precedence y/o DSCP, según
sea el caso, y los valores EXP. Luego en el presente documento se
encuentra la definición de cómo cada paquete es tratado en las
colas de salida de los troncales de Metro y Core para cada valor
EXP del encabezado de los paquetes MPLS[15].
En el ítem 1.6 se incluye una tabla sugerida de mapeo de valores
IP Precedence y DSCP a EXP para ser aplicado en un nodo de
borde o PE.
A continuación se describe brevemente cada clase, con sus
características salientes y requisitos:
1.4.1.1
Real Time
Destinada a las aplicaciones en tiempo real, interactivas y
bidireccionales. Los principales representantes de esta clase son
las aplicaciones de voz sobre IP (VoIP) y Video conferencia.
Debe ofrecer garantías mínimas para un throughput variable,
bajos índices de pérdida de paquetes, bajos delay y jitter.
SLO pretendido:
Pérdida de paquetes : < 0,5%;
Delay: < 50 ms;
Jitter: < 2 ms.
1.4.1.2
Video
El tráfico de video es generalmente unidireccional y no
necesariamente se ve afectado por el delay. Respecto al jitter, el
mismo es corregido por los buffers del STB. El video es muy
sensible a descartes puesto que la información transportada por los
paquetes es enviada de forma comprimida.
Los tráficos de Video Broadcast y Video Streaming, así como el
de Voz, no son adaptativos. Las fuentes que originan este tipo de
tráfico, en la gran mayoría de los casos, no modifican la tasa de
generación de paquetes al ocurrir descartes en el trayecto.
SLO pretendido:
Pérdida de paquetes: < 0,1 %;
Delay: < 100 ms;
Jitter: < 5 ms.
1.4.1.3
Datos críticos
Destinada a aplicaciones residenciales o corporativas.
Se trata de aplicaciones que requieren Ancho de Banda
garantizado y bajo delay.
Esta clase suportará el tráfico de Gestión de los equipos de red y
los equipos de cliente. Ejemplos de aplicaciones que se encuadran
en esta clase son: SNMP, Telnet, SSH, HTTP, RADIUS, etc.
Las aplicaciones que mejor se adaptan a esta clase en general
requieren un bajo throughput pero deben ser priorizadas respecto
a otros tráficos de datos para que sea posible, por ejemplo, acceder
a gestionar un equipo de red o de cliente (CPE) aún en situaciones
de congestión.
Esta clase admite 2 sabores o sub-clases, uno de mayor prioridad
que el otro, de manera que pueden mapearse en ella tráficos muy
críticos diferenciados de otros tráficos también críticos pero de
menor prioridad.
En esta clase deberían mapearse tráficos tipo “Bussiness Low
Latency”, destinada a aplicaciones especificas, como por ejemplo
las transportadas nativamente sobre protocolo SNA, que exigen
bajísima latencia y pérdida de paquetes, pero demandan bajo
throughput.
La principal diferencia en relación a la clase Datos No Críticos se
refiere al bajo ancho de banda necesario y al bajo delay.
SLO pretendido:
Pérdida de paquetes: < 0,1 %;
Delay: < 100 ms;
Jitter: < 40 ms.
En el caso de CPEs no confiables, se debe ignorar el marcado del
DSCP, y marcar el CoS y EXP Bit en función de la puerta física
(interface) o lógica (VLAN) de entrada, o incluso en función del
número de port del protocolo de Transporte de los Frames (por
ejemplo, port TCP o UDP).
1.4.1.4
En ningún momento el campo TOS deberá ser remarcado, pues se
trata de la aplicación del cliente final, y la red lo transportará de
acuerdo al servicio contratado y no de acuerdo al servicio
requerido por la marca. De hecho podría ser de interés del cliente
utilizar la marca del TOS para su QoS interno.
Datos no críticos
Destinada a aplicaciones de datos no tan críticas para la empresa
para las cuales el tiempo de respuesta debe ser bajo. Como
representantes de esta clase se ubican aplicaciones de base de
datos, e intranet.
Son aplicaciones adaptativas (generalmente basadas en TCP), que
requieren throughput garantizado relativamente alto y variable y
presentan baja tolerancia a pérdidas.
Según lo recomendado en la Especificación de Política de
Switching, las redes Metro Ethernet deben evolucionar a MPLS
en el futuro y, por lo tanto, el encolamiento del tráfico estará
basado en los EXP bits. De esta manera, el marcado 802.1p será
utilizado solamente en las conexiones de los Switches de la red
Metro Ethernet hacia los accesos de cliente y deben estar
detallados en los Planes Técnicos que definen los servicios.
SLO pretendido:
Pérdida de paquetes: < 1 %;
Delay: < 150 ms;
Jitter: < 50 ms.
1.4.1.5
Best Effort
Destinada a aplicaciones poco rigurosas en relación a los
requisitos de red (delay, jitter, throughput). Como representante
de esta clase, tendríamos las aplicaciones asociadas a la
navegación en Internet y al correo electrónico.
Son aplicaciones que presentan tolerancia a descartes y soportan
valores de RTT (Round Trip Time) altos.
SLO pretendido:
Pérdida de paquetes: < 1 %;
Delay: no aplica;
Jitter: no aplica.
1.4.2
Mecanismos de QoS.
1.4.2.1
Se sugiere mantener una relación uno a uno entre el marcado
802.1p (CoS) y el EXP Bit, para garantizar un tratamiento
coherente de los tráficos provenientes de la MetroEthernet y del
Backbone IP[11].
1.4.2.2
El control de admisión se ejecuta antes de iniciar una aplicación
con el objeto de verificar la existencia de suficientes recursos en la
red para garantizar la calidad requerida.
El protocolo RSVP [3] será usado como mecanismo de control de
admisión para las aplicaciones de tiempo real cuando sea
necesario. Este protocolo está fuera del alcance de este
documento.
1.4.2.3
El marcado de paquetes IP y MPLS posibilita la diferenciación de
clases y grupos de aplicaciones en el acceso. El marcado entre los
CPE’s y el borde de la red hará uso de los bits IP Precedence o
DSCP (incluidos en el campo TOS del paquete IP) y el CoS (bits
de QoS del paquete Ethernet). Internamente el marcado se realiza
sobre el campo Experimental Field (EXP) del encabezado MPLS,
ya que el campo TOS del paquete IP no puede ser leído en una red
MPLS [14].
En caso de utilizar los bits DSCP del campo TOS, existen hasta 64
posibles marcas. Si se utilizan los bits IP Precedence del campo
TOS, se tienen 8 marcas posibles. Hacia adentro de la red, a partir
del equipo PE, solo se disponen 8 marcas posibles para el campo
EXP. Este comportamiento de identificar el PHB del paquete a
través del Exp Field es denominado E-LSP [2].
Ubicación del campo TOS y correspondencia entre los bits IP
Precendence y DSCP:
7
ToS
8 bits
6
5
Len
4
IP Precedence
3
Policing y Shaping
El policing controla el volumen de tráfico de las aplicaciones y
clases en las interfaces de entrada y salida. Algunas razones para
su empleo se enumeran a continuación:
Marcado
Version
Length
Control de Admisión
ID
2
Offset
1
TTL
Proto
FCS
IPSA
IPDA
DATA
0
DiffServ Flow control
•
El ancho de banda consumido por clase debe
controlarse para que el cliente no exceda lo contratado;
•
La cola prioritaria empleada en los routers
para el tráfico de tiempo real interactivo debe estar
limitada a volúmenes de tráfico que no comprometan la
performance de esas aplicaciones y de las aplicaciones
de las demás clases;
•
Aplicaciones no-adaptativas, basadas en el
protocolo UDP, no reaccionan a notificaciones de
congestión y tienden a perjudicar a las aplicaciones que
sí reaccionan (basadas en TCP); para evitar situaciones
de este tipo sus tasas deben ser limitadas;
Existen dos formas para implementar policing: Traffic Policing y
Traffic Shaping. El primero se basa en el descarte del tráfico que
excede los bursts especificados. El segundo restringe la emisión
de tráfico a una tasa media o máxima especificadas, reteniendo los
excesos de tráfico en los buffers de las interfaces de salida. El
Traffic Policing puede ser aplicado en interfaces de entrada y de
salida. El Traffic Shaping solo actúa en interfaces de salida.
Vale aclarar que el mecanismo de shaping introduce delay y jitter
y por tanto no es aconsejable utilizarlo para aplicaciones de
tiempo real.
Los mecanismos de Policing serán detallados en los documentos
que refieren a la política de QoS en el acceso, para cada servicio.
DS CP
Differentiated Service Code Point Bits
Figura 4
El frame MPLS formado a partir de un paquete entrante en la red
MPLS heredará, por default, el valor de los bits IP Precedence del
paquete IP original[14]. Este comportamiento default solo será
evitado configurando un TC que configure el MPLS Exp Field.
1.4.2.4
Gestión de la Congestión (Queueing)
La función Queueing (Gestión de la Congestión) implementa la
distribución del tráfico de cada clase de servicio en las interfaces
de salida de los routers. La asignación de ancho de banda mínima
por clase es fundamental para garantizar los índices exigidos del
throughput, delay y jitter requerido. Con la asignación de ancho
de banda a una clase está siendo reservada una cola que tendrá el
derecho de competir por la cola de salida del router (TX-queue) en
la tasa especificada por el ancho de banda. Para aplicaciones con
requisitos rigurosos de delay y jitter, como las de la clase Real
Time, la asignación de ancho de banda en la cola prioritaria de los
routers es obligatoria. La cola prioritaria es una cola que tiene
prioridad en la asignación de la TX-queue, cuando el ancho de
banda asignado para esa cola no la excede.
Vale aclarar que la asignación de ancho de banda por clase es
conservadora, o sea, el ancho de banda asignado y no utilizado por
una clase podrá ser utilizado por las demás clases si hubiese
necesidad.
En los elementos del backbone la función de scheduling será
implementada por los mecanismos CB-LLQ y CB-WFQ. En
algunos routers, el mecanismo de cola utilizado es el MDRR
(Modified Deficit Round Robin). El MDRR está implementado por
hardware y es equivalente a los mecanismos anteriores, a pesar de
poseer menor precisión en su forma de asignar ancho de banda, el
MDRR posee también una cola prioritaria que puede ser empleada
para el soporte de la clase Real Time y soporta hasta ocho colas,
número suficiente para implementar las clases definidas.
1.4.2.5
1.4.3.1
Configuración de 4 colas para todas las interfaces
troncales
COLA
Nombre
q3
Control de red
q2
Real Time
q1
Datos
q0
El mecanismo Weighted Random Early Detection (WRED)
implementará las estrategias de random drop regulando inclusive
las prioridades de descarte de paquetes en función del valor del
campo EXP cuando distinto valor EXP es mapeado a la misma
cola.3
Los mecanismos descriptos serán aplicados a las configuraciones
de TC en el borde de la red y PHB en interior del backbone IP.
No Drops
6
No Drops
5
Tail Drop
4
WRED LOW
3
WRED LOW
2
WRED LOW
1
WRED HIGH
0
WRED
Tabla 2 – Configuración de colas de salida para interfaces con 4
colas
1.4.3.2
Configuración de 3 colas para interfaces que no
soportan 4
COLA
EXP
Drop profile
Control de
red
7
No Drops
6
No Drops
q1
Real Time
5
Tail Drop
q0
Best Effort
4
WRED LOW
3
WRED LOW
2
WRED LOW
1
WRED LOW
0
WRED HIGH
q2
El mecanismo de dropping (Controle de Congestión) actúa para
prevenir situaciones de congestión cuando las colas de salida de
los routers agotan sus recursos. En dichas situaciones ocurre
pérdida de paquetes o descartes sin distinción de clase (tail drop).
Las aplicaciones reaccionan de manera diferente a esos descartes.
La estrategia tail drop se aplica en casos de aplicaciones noadaptativas como las de la clase Real Time. Esas aplicaciones no
reaccionan a la congestión y, por lo tanto no se obtiene ningún
beneficio aplicándole random drop a ese tipo de tráfico.
Drop profile
7
Best Effort
Control de Congestión (Dropping)
La función de dropping puede implementar dos estrategias para
tratar descarte de paquetes: tail drop o random drop. El random
drop se utiliza para aplicaciones que reaccionan a la pérdida de
paquetes reduciendo su tasa de emisión de paquetes, adaptándose
así a situaciones de congestión. El random drop se anticipa a
situaciones extremas de congestión y prioriza determinadas
aplicaciones al descartar paquetes selectivamente en las colas.
EXP
Nombre
Tabla 3 – Configuración de colas de salida para interfaces con 3
colas
Dado que 4 colas resulta insuficiente para dar cumplimiento a los
requisitos de diferenciación de tráfico por calidades, como resulta
de las especificaciones de servicios como VPN de nivel 3, se
propone la utilización de 6 colas en una fase posterior.
Nota: en equipos Juniper M320, T320 y T640 con Enhanced II
FPC, es posible utilizar 4 niveles de descarte: Low, Medium-Low,
Medium-High y High. Utilizando opcionalmente estos 4 niveles
se puede configurar el Drop Profile para las interfaces con 3 y 4
colas asignando correlativamente estas 4 prioridades a los EXP 4,
3, 2 y 1 respectivamente. De esta manera se tendrá una mejor
priorización del tráfico
1.4.3.3
Configuración de 6 colas, modelo evolutivo a ser
implementado en una segunda fase
La forma de aplicar estos mecanismos a los PHB se detalla en el
capítulo siguiente.
COLA
1.4.3
Configuración de las colas de las interfaces troncales
en los equipos de Metro (PE y P) y Core (P)
Las tablas siguientes presentan la configuración de las colas en las
interfaces de salida de lo equipos de Metro y Core que actúen
como PE y P en la red MPLS.
EXP
Drop profile
7
No Drops
6
No Drops
5
Tail Drop
Video
4
Tail Drop
Datos críticos
3
WRED LOW
Nombre
q5
Control de red
q4
Real Time
q3
q2
2
WRED HIGH
q1
Datos no críticos
1
WRED
q0
Best Effort
0
WRED
Tabla 4 – Configuración de colas de salida para interfaces con 6
colas
Esta propuesta se basa en las siguientes consideraciones:
3
Marcado, policing, queueing y dropping no son las únicas funciones que
implementan los PHB o los Traffic Conditioning en la Arquitectura
DiffServ, pero son las fundamentales. Otras funciones podrán ser
implementadas para el caso de QoS en ADSL como Link Fragmentation,
Header Compression, entre otros.
Al mezclar en la misma cola tráfico basado en
UDP (el tráfico de Video, por ejemplo) y tráfico basado
en TCP, se produce un efecto denominado “TCPstarvation/UDP-dominance”
en
situaciones
de
congestión cuando se produce descarte de paquetes en la
cola. Este efecto implica la “inundación” de la cola por
parte del tráfico UDP que no bajará la tasa de
generación, frente al tráfico TCP que sí lo hará en
presencia de descarte de paquetes. Tampoco es
conveniente mezclar el tráfico de Gestión y el de Datos
PLATINO con el de Video Broadcast, por este mismo
motivo.
Por su naturaleza no adaptativa, no se obtiene
ningún beneficio utilizando un mecanismo de control de
congestión como WRED para el tráfico de video. Este
tráfico debiera ser mapeado a una cola con mecanismo
Tail Drop, pero esto no es posible en la configuración de
4 colas.
Es necesario tratar en distinta cola el tráfico de
Datos Críticos y el de Datos No Críticos puesto que
tienen distintos requisitos de calidad.
En general, el modelo de 6 colas presenta una
mejor distribución del tráfico en las interfaces de salida,
atendiendo los requisitos de las 6 clases de servicio
mencionadas en este documento: Control de red, Real
Time, Video, Datos críticos, Datos no críticos y Best
Effort.
Conclusiones
De acuerdo a las parámetros se plantea un mapeo sugerido para
configurar un equipo de borde o PE en una Red basada en ASON.
A continuación se presenta una tabla que amplía la tabla 1 con los
valores sugeridos de IP Precedence o DSCP, según sea el caso de
aplicación, todo depende del clase de servicio.
La primera columna indica las clases que la Red MPLS (Core +
Metro) ofrece hacia el exterior. Las otras columnas son una
sugerencia de cómo mapear cada tráfico o aplicación a esas clases,
y valores sugeridos de IP Precedence y DSCP que surgen de
diversas fuentes
CLASE
TIPO DE TRÁFICO
IP
Precedence
DSCP
EXP
Real Time
Tráfico de aplicaciones de
Tiempo Real (VoIP, otras)
Voz, VideoConferencia
5
EF
5
Video
Tráfico TV Broadcast y
Video Streaming
VideoConferencia,
Video Broadcasting,
Video Streaming, VoD
4
CS4,AF4
x
4
Datos Críticos
Tráfico de Gestión
Gestión de elementos
de Red, Radius, SNMP
3
CS3
3
Tráfico Datos PLATINO
SAP, ERP
3
Tráfico de Routing y
Gestión de VPN
BGP interno del cliente
Routing CE-PE
Tráfico de control de VoD
Datos No
Críticos
Best Effort
EJEMPLO DE
APLICACIÓN
3
AF3x
6,7
CS6,CS7
3
RTSP
2
CS2
2
Tráfico de Datos ORO
SNA
2
AF2x
2
Tráfico de Datos PLATA
FTP, HTTP, SMTP,
POP3
1
AF1x
1
Tráfico de Datos BRONCE
Best Effort de VPN
0
0
1
Tráfico Best Effort
Tráfico de Internet
0
0
0
Tabla 5 – Mapeo sugerido para el acceso
Respecto al tráfico de routing de cliente, se refiere a los
protocolos de ruteo que el cliente implementa extremo a extremo
entre dispositivos de su red interna y que no son interpretados por
la red. El tráfico de routing PE-CE para accesos del servicio VPN
no trascienden el PE y por tanto no se mapean en MPLS. Ese
tráfico utilizará típicamente IP Precedence 6 o 7.
Referencias.
[1] Yezid Donoso Meisel, Ramon Fabregat, Multidifusión IP
sobre MPLS sin y con QoS Noviembre 2005.
[2] Ash. LSP Modification Using CR-LDP. RFC 3214. January
2002
[3] Awduche. RSVP-TE: Extensions to RSVP for LSP Tunnels.
RFC 3209. December 2001.
[4] Boudani, Ali. An Effective Solution for Multicast scalability:
The MPLS Multicast Tree (MMT). draft-boudani-mpls-multicasttree-00.txt. November 2001
[5]
Allied
Telesis,
Advanced
QoS
White
Paper,
www.alliedtelesis.com, marzo 2007
[6]Metro Ethernet Forum. “Metro Ethernet Network Architecture
Framework”. Part 2: Ethernet Services Layer. April 2005
http://www.metroethernetforum.org/PDFs/Standards/MEF12.
doc
[7] Frank Brockners. “Metro Ethernet Services and
standarization”. Cisco Networkers 2005. Cannes (France).
November 2005
[8] Thomas Martin. “Metro Ethernet Arquitectures”. Cisco
Networkers 2005. Cannes (France). November 2005.
[9] RFC 2474 - Definition of the Differentiated Services Field
(DS Field) in the IPv4 and IPv6 Headers 1998 IETF.
[10] RFC 2475 - An Architecture for Differentiated Service 1998
IETF.
[11] David Allan, Nigel Bragg, Alan Mcguire y Andy Reid.
“Ethernet as Carrier Transport Infrastructure”. IEEE
Communications Manager. February 2006.
[12]http://www.cisco.com/en/US/products/hw/switches/ps708/pro
ducts_configuration_guide_chapter09186a00801679f8.html#wp1
480292.
[13]http://www.cisco.com/en/US/products/hw/switches/ps708/pro
ducts_configuration_guide_chapter09186a00801679f8.html#wp1
480168.
[14] Biyn Raahemi, AnGe, Maher Ali. “Metro Ethernet Quality of
Services”. Alcatel Telecommunications Review. December
2004.
[15] Michael Beck. “Ethernet in the First Mile”. MacGraw-Hill.
2005 .
[16] “Ethernet Services Definitions – Phase I, Draft v5.5”, Metro
Ethernet Forum, March 2004.
[17] “Ethernet Services Definitions – Phase I, Draft v5.5”, Metro
Ethernet Forum, March 2004.
Descargar