Redes Convergentes

Anuncio
Redes Convergentes
Antología
22/04/2010
Universidad Tecnológica de Izúcar de Matamoros
Mtro. Sergio Valero Orea
“Redes convergentes”
Contenido
Unidad I. Diseño de redes ................................................................................................................... 4
1.
Sistemas de cableado estructurado ........................................................................................ 4
1.1 Subsistemas de cableado estructurado ................................................................................ 5
1.2 Escalabilidad .......................................................................................................................... 6
1.3 Punto de demarcación .......................................................................................................... 6
1.4 Salas de equipamiento .......................................................................................................... 7
1.5 MC, IC y HC ............................................................................................................................ 8
1.6 Códigos y estándares de cableado estructurado .................................................................. 9
1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias
de Electrónica (EIA) ..................................................................................................................... 9
2.
Arquitecturas de redes orientadas a servicios ...................................................................... 11
2.1 Diseño jerárquico de redes ..................................................................................................... 11
2.2 La arquitectura de redes orientadas a servicio de Cisco ......................................................... 13
2.3 Tecnologías WLAN................................................................................................................... 15
2.3.1 Estándares operacionales IEEE 802.11 ............................................................................. 16
2.3.2 RF Site Survey ................................................................................................................... 17
Unidad II. Calidad en el servicio (QoS) .............................................................................................. 18
1.
Introducción a la calidad en el servicio (QoS) ....................................................................... 18
2.
Modelos de QoS .................................................................................................................... 20
3.
Descripción de DiffServ QoS .................................................................................................. 21
4.
Clasificación y marcado de tráfico ........................................................................................ 23
5.
Mecanismos de QoS para administrar y evitar la congestión de la red ................................ 25
6.
AutoQoS ................................................................................................................................ 29
Unidad III. Voz sobre IP (VoIP)........................................................................................................... 29
1.
Introducción a la tecnología y arquitecturas de VoIP ........................................................... 30
2.
Funciones y componentes de VoIP ....................................................................................... 31
3.
Principales protocolos de VoIP de acuerdo al modelo OSI ................................................... 32
4.
Cálculo de requerimientos de ancho de banda .................................................................... 36
5.
Configuración de puertos e interfaces de voz en un router ................................................. 38
6.
Protocolo H.232 .................................................................................................................... 41
Unidad IV. Tecnologías WAN............................................................................................................. 46
1.
Servicios de banda ancha y 3G .............................................................................................. 46
2.
Estándares WAN.................................................................................................................... 50
Unidad V. Switches multicapa ........................................................................................................... 54
1.
Introducción a los switches multicapa .................................................................................. 54
2.
VLANs .................................................................................................................................... 55
3.
STP, RSTP, PVST+, PVRST, MSTP y EtherChannel .................................................................. 63
4.
Ruteo InterVLAN.................................................................................................................... 68
5.
Alta disponibilidad en un campus ......................................................................................... 70
Unidad VI. IPv6 .................................................................................................................................. 70
1.
Esquema de direccionamiento IPv6 ...................................................................................... 70
2.
Tipos de tunneling IPv4 a IPv6 .............................................................................................. 72
Unidad I. Diseño de redes
Objetivo. El alumno diseñará redes convergentes aplicando las arquitecturas orientadas al servicio
considerando la infraestructura adecuada para garantizar la transmisión eficiente de información.
1. Sistemas de cableado estructurado
El cableado estructurado es un enfoque sistemático del cableado. Es un método para crear un
sistema de cableado organizado que pueda ser fácilmente comprendido por los instaladores,
administradores de red y cualquier otro técnico que trabaje con cables.
Hay tres reglas que ayudan a garantizar la efectividad y la eficiencia en los proyectos de diseño del
cableado estructurado.
La primera regla es buscar una solución completa de conectividad. Una solución óptima para
lograr la conectividad de redes abarca todos los sistemas que han sido diseñados para conectar,
tender, administrar e identificar los cables en los sistemas de cableado estructurado. La
implementación basada en estándares está diseñada para admitir tecnologías actuales y futuras. El
cumplimiento de los estándares servirá para garantizar el rendimiento y confiabilidad del proyecto
a largo plazo.
La segunda regla es planificar el crecimiento a futuro. La cantidad de cables instalados debe
satisfacer necesidades futuras. Se deben tener en cuenta las soluciones de categoría 5e, categoría
6 y de fibra óptica para garantizar que se satisfagan futuras necesidades. La instalación de la capa
física debe poder funcionar durante diez años o más.
La regla final es conservar la libertad de elección de proveedores. Aunque un sistema cerrado y
propietario puede resultar más económico en un principio, con el tiempo puede resultar mucho
más costoso. Con un sistema provisto por un único proveedor y que no cumpla con los estándares,
es probable que más tarde sea más difícil realizar traslados, ampliaciones o modificaciones.
1.1 Subsistemas de cableado estructurado
Figura 1. Subsistemas de cableado estructurado
Hay siete subsistemas relacionados con sistemas de cableado estructurado como se ve en la figura
1. Cada subsistema realiza funciones determinadas para proveer servicios de datos y voz en toda
la planta de cables:







Punto de demarcación (demarc) dentro de las instalaciones de entrada (EF) en la sala de
equipamiento.
Sala de equipamiento (ER).
Sala de telecomunicaciones (TR).
Cableado backbone, también conocido como cableado vertical.
Cableado de distribución, también conocido como cableado horizontal.
Área de trabajo (WA).
Administración.
El demarc es donde los cables del proveedor externo de servicios se conectan a los cables del
cliente en su edificio. El cableado backbone está compuesto por cables de alimentación que van
desde el demarc hasta la salas de equipamiento y luego a la salas de telecomunicaciones en todo
el edificio. El cableado horizontal distribuye los cables desde las salas de telecomunicaciones hasta
las áreas de trabajo. Las salas de telecomunicaciones es donde se producen las conexiones que
proporcionan una transición entre el cableado backbone y el horizontal.
Estos subsistemas convierten al cableado estructurado en una arquitectura distribuida con
capacidades de administración que están limitadas al equipo activo, como por ejemplo los PC,
switches, hubs, etc. El diseño de una infraestructura de cableado estructurado que enrute,
proteja, identifique y termine los medios de cobre o fibra de manera apropiada, es esencial para el
funcionamiento de la red y sus futuras actualizaciones.
1.2 Escalabilidad
Una LAN que es capaz de adaptarse a un crecimiento posterior se denomina red escalable. Es
importante planear con anterioridad la cantidad de tendidos y de derivaciones de cableado en el
área de trabajo. Es preferible instalar cables de más que no tener los suficientes.
Además de tender cables adicionales en el área de backbone para permitir posteriores
ampliaciones, por lo general se tiende un cable adicional hacia cada estación de trabajo o
escritorio. Esto ofrece protección contra pares que puedan fallar en cables de voz durante la
instalación, y también permite la expansión. Por otro lado, es una buena idea colocar una cuerda
de tracción cuando se instalan los cables para facilitar el agregado de cables adicionales en el
futuro. Cada vez que se agregan nuevos cables, se debe también agregar otra cuerda de tracción.
1.3 Punto de demarcación
El punto de demarcación (demarc) es el punto en el que el cableado externo del proveedor de
servicios se conecta con el cableado backbone dentro del edificio. Representa el límite entre la
responsabilidad del proveedor de servicios y la responsabilidad del cliente. En muchos edificios, el
demarc está cerca del punto de presencia (POP) de otros servicios tales como electricidad y agua
corriente.
El proveedor de servicios es responsable de todo lo que ocurre desde el demarc hasta la
instalación del proveedor de servicios. Todo lo que ocurre desde el demarc hacia dentro del
edificio es responsabilidad del cliente.
El proveedor de telefonía local normalmente debe terminar el cableado dentro de los 15 m (49,2
pies) del punto de penetración del edificio y proveer protección primaria de voltaje. Por lo general,
el proveedor de servicios instala esto.
Asociación de Industrias Electrónicas (EIA) desarrollan y publican estándares para muchas
industrias, incluyendo la industria del cableado. Se deben aplicar estos estándares durante
cualquier proceso de instalación o mantenimiento del cableado de voz o de datos, para garantizar
que el cableado sea seguro, esté correctamente instalado, y tenga el rendimiento adecuado.
El estándar TIA/EIA-569-A especifica los requisitos para el espacio del demarc. Los estándares
sobre el tamaño y estructura del espacio del demarc se relacionan con el tamaño del edificio. Para
edificios de más de 2000 metros cuadrados (21.528 pies cuadrados), se recomienda contar con
una habitación dentro del edificio que sea designada para este fin y que tenga llave.
Las siguientes son pautas generales para determinar el sitio del punto de demarcación.



Calcule 1 metro cuadrado (10,8 pies cuadrados) de un montaje de pared de madera
terciada por cada área de 20-metros cuadrados (215,3 pies cuadrados) de piso.
Cubra las superficies donde se montan los elementos de distribución con madera terciada
resistente al fuego o madera terciada pintada con dos capas de pintura ignífuga.
Ya sea la madera terciada o las cubiertas para el equipo de terminación deben estar
pintadas de color naranja para indicar el punto de demarcación.
1.4 Salas de equipamiento
Una vez que el cable ingresa al edificio a través del demarc, se dirige hacia la instalación de
entrada (EF), que por lo general se encuentra en la sala de equipamiento (ER). La sala de
equipamiento es el centro de la red de voz y datos. La sala de equipamiento es esencialmente una
gran sala de telecomunicaciones que puede albergar el marco de distribución, servidores de red,
routers, switches, PBX telefónico, protección secundaria de voltaje, receptores satelitales,
moduladores y equipos de Internet de alta velocidad, entre otros. Los aspectos de diseño de la
sala de equipamiento se describen en los estándares TIA/EIA-569-A.
En edificios grandes, la sala de equipamiento puede alimentar una o más salas de
telecomunicaciones (TR) distribuidas en todo el edificio. Las TR albergan el equipo del sistema de
cableado de telecomunicaciones para un área particular de la LAN, como por ejemplo, un piso o
parte de un piso. Esto incluye las terminaciones mecánicas y dispositivos de conexión cruzada para
sistemas de cableado backbone y horizontal. Los routers, hubs y switches de departamentos y
grupos de trabajo se encuentran comúnmente en la TR.
El hub de cableado y un panel de conexión de una TR pueden estar montados contra una pared
con una consola de pared con bisagra, un gabinete para equipamiento completo, o un bastidor de
distribución.
La consola de pared con bisagra debe ser colocada sobre un panel de madera terciada que cubra la
superficie de pared subyacente. La bisagra permite que la unidad pueda girar hacia afuera de
modo que los técnicos tengan fácil acceso a la parte posterior de la pared. Es importante dejar 48
cm (19 pulgadas) para que el panel se pueda separar de la pared.
El bastidor de distribución debe tener un mínimo de 1 metro (3 pies) de espacio libre para poder
trabajar en la parte delantera y trasera del bastidor. Para montar el bastidor de distribución, se
utiliza una placa de piso de 55,9 cm (22 pulgadas). La placa de piso brinda estabilidad y determina
la distancia mínima para la posición final del bastidor de distribución. La Figura 2 muestra un
bastidor de distribución.
Un gabinete para equipamiento completo requiere por lo menos 76,2 cm (30 pulgadas) de espacio
libre delante de la puerta para que ésta se pueda abrir. Los gabinetes para equipamiento tienen
por lo general 1,8 m (5,9 pies) de alto, 0,74 m (2,4 pies) de ancho y 0,66 m (2.16 pies) de
profundidad.
Cuando coloque el equipamiento dentro de los bastidores de equipos, tenga en cuenta si el equipo
utiliza electricidad o no. Otras consideraciones a tener en cuenta son el tendido y administración
de los cables y la facilidad de uso. Por ejemplo, un panel de conexión no debe colocarse en la parte
de arriba de un bastidor si se van a realizar modificaciones significativas después de la instalación.
Los equipos pesados como switches y servidores deben ser colocados cerca de la base del bastidor
por razones de estabilidad.
La escalabilidad que permite el crecimiento futuro es otro aspecto a tener en cuenta en la
configuración del equipamiento. La configuración inicial debe incluir espacio adicional en el
bastidor para así poder agregar otros paneles de conexión o espacio adicional en el piso para
instalar bastidores adicionales en el futuro.
La instalación adecuada de bastidores de equipos y paneles de conexión en la TR permitirá, en el
futuro, realizar fácilmente modificaciones a la instalación del cableado.
1.5 MC, IC y HC
Por varias razones, la mayoría de las redes tienen varias TR. Si una red está distribuida en varios
pisos o edificios, se necesita una TR para cada piso de cada edificio. Los medios sólo pueden
recorrer cierta distancia antes de que la señal se comience a degradar o atenuar. Es por ello que
las TR están ubicadas a distancias definidas dentro de la LAN para ofrecer interconexiones y
conexiones cruzadas a los hubs y switches, con el fin de garantizar el rendimiento deseado de la
red. Estas TR contienen equipos como repetidores, hubs, puentes, o switches que son necesarios
para regenerar las señales.
La TR primaria se llama conexión cruzada principal (MC) La MC es el centro de la red. Es allí donde
se origina todo el cableado y donde se encuentra la mayor parte del equipamiento. La conexión
cruzada intermedia (IC) se conecta a la MC y puede albergar el equipamiento de un edificio en el
campus. La conexión cruzada horizontal (HC) brinda la conexión cruzada entre los cables backbone
y horizontales en un solo piso del edificio.
1.6 Códigos y estándares de cableado estructurado
Los estándares son conjuntos de normas o procedimientos de uso generalizado, o que se
especifican oficialmente, y que sirven como modelo de excelencia. Un proveedor especifica ciertos
estándares. Los estándares de la industria admiten la interoperabilidad entre varios proveedores
de la siguiente forma:



Descripciones estandarizadas de medios y configuración del cableado backbone y
horizontal.
Interfaces de conexión estándares para la conexión física del equipo.
Diseño coherente y uniforme que siga un plan de sistema y principios de diseño básicos.
Hay numerosas organizaciones que regulan y especifican los diferentes tipos de cables. Las
agencias locales, estatales, de los condados o provincias y nacionales también emiten códigos,
especificaciones y requisitos.
Una red que se arma según los estándares debería funcionar bien, o interoperar con otros
dispositivos de red estándar. El rendimiento a largo plazo y el valor de la inversión de muchos
sistemas de cableado de red se ven reducidos porque los instaladores no cumplen con los
estándares obligatorios y recomendados.
Muchas organizaciones internacionales tratan de desarrollar estándares universales.
Organizaciones como IEEE, ISO, y IEC son ejemplos de organismos internacionales de
homologación. Estas organizaciones incluyen miembros de muchas naciones, las cuales tiene sus
propios procesos para generar estándares.
1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de
Industrias de Electrónica (EIA)
La TIA/EIA son asociaciones industriales que desarrollan y publican una serie de estándares sobre
el cableado estructurado para voz y datos para las LAN.
Tanto la TIA como la EIA están acreditadas por el Instituto Nacional Americano de Normalización
(ANSI) para desarrollar estándares voluntarios para la industria de las telecomunicaciones. Muchos
de los estándares están clasificados ANSI/TIA/EIA. Los distintos comités y subcomités de TIA/EIA
desarrollan estándares para fibra óptica, equipo terminal del usuario, equipo de red,
comunicaciones inalámbricas y satelitales.
Estándares TIA/EIA
Aunque hay muchos estándares y suplementos, los que se enumeran a continuación son los que
los instaladores de cableado utilizan con más frecuencia:





TIA/EIA-568-A: Este antiguo Estándar para Cableado de Telecomunicaciones en Edificios
Comerciales especificaba los requisitos mínimos de cableado para telecomunicaciones, la
topología recomendada y los límites de distancia, las especificaciones sobre el
rendimiento de los aparatos de conexión y medios, y los conectores y asignaciones de pin.
TIA/EIA-568-B: El actual Estándar de Cableado especifica los requisitos sobre componentes
y transmisión para los medios de telecomunicaciones. El estándar TIA/EIA-568-B se divide
en tres secciones diferentes: 568-B.1, 568-B.2 y 568-B.3.
o TIA/EIA-568-B.1 especifica un sistema genérico de cableado para
telecomunicaciones para edificios comerciales que admite un entorno de
múltiples proveedores y productos.
o TIA/EIA-568-B.1.1 es una enmienda que se aplica al radio de curvatura del cable
de conexión UTP de 4 pares y par trenzado apantallado (ScTP) de 4 pares.
o TIA/EIA-568-B.2 especifica los componentes de cableado, transmisión, modelos de
sistemas y los procedimientos de medición necesarios para la verificación del
cableado de par trenzado.
o TIA/EIA-568-B.2.1 es una enmienda que especifica los requisitos para el cableado
de Categoría 6.
o TIA/EIA-568-B.3 especifica los componentes y requisitos de transmisión para un
sistema de cableado de fibra óptica.
TIA/EIA-569-A: El Estándar para Recorridos y Espacios de Telecomunicaciones en Edificios
Comerciales especifica las prácticas de diseño y construcción dentro de los edificios y
entre los mismos, que admiten equipos y medios de telecomunicaciones.
TIA/EIA-606-A: El Estándar de Administración para la Infraestructura de
Telecomunicaciones de Edificios Comerciales incluye estándares para la rotulación del
cableado. Los estándares especifican que cada unidad de terminación de hardware debe
tener una identificación exclusiva. También describe los requisitos de registro y
mantenimiento de la documentación para la administración de la red.
TIA/EIA-607-A: Los estándares sobre Requisitos de Conexión a Tierra y Conexión de
Telecomunicaciones para Edificios Comerciales admiten un entorno de varios proveedores
y productos diferentes, así como las prácticas de conexión a tierra para varios sistemas
que pueden instalarse en las instalaciones del cliente. El estándar especifica los puntos
exactos de interfaz entre los sistemas de conexión a tierra y la configuración de la
conexión a tierra para los equipos de telecomunicaciones. El estándar también especifica
las configuraciones de la conexión a tierra y de las conexiones necesarias para el
funcionamiento de estos equipos.
Para saber más…
Cisco Systems. (2003). Suplemento sobre cableado estructurado, Programa de la Academia de
Cisco CCNA 1: Conceptos básicos sobre networking v3.1.
2. Arquitecturas de redes orientadas a servicios
Los modelos de redes jerárquicos permiten diseñar redes que usan especialización de funciones
combinados con una organización jerárquica. Tal diseño simplifica las tareas requeridas para
construir una red que cumplan los requerimientos actuales y puede crecer para cumplir los
requerimientos a futuro. Los modelos jerárquicos utilizan niveles o capas para simplificar las
tareas, así, cada capa se enfoca en una función específica, permitiéndote elegir los sistemas y
características correctos de cada capa. Los modelos jerárquicos aplican a diseños tanto de redes
LAN como WAN.
Los beneficios de utilizar modelos jerárquicos para el diseño de las redes incluyen los siguientes:




Reducción de costos
Facilidad de comprensión o interpretación
Crecimiento modular
Mejora en el aislamiento de errores
2.1 Diseño jerárquico de redes
Como se muestra en la figura 2, un tradicional diseño jerárquico para una LAN tiene 3 capas. Entre
las ventajas que tenemos de separar las redes en 3 niveles tenemos que es más fácil diseñar,
implementar, mantener y escalar la red, además de que la hace más confiable, con una mejor
relación costo/beneficio. Cada capa tiene funciones específicas asignadas y no se refiere
necesariamente a una separación física, sino lógica; así que podemos tener distintos dispositivos
en una sola capa o un dispositivo haciendo las funciones de más de una de las capas.
Las capas y sus funciones son:
Capa de Núcleo (core layer): esta capa es el backbone de alta velocidad de la red, la cual es crucial
para comunicaciones corporativas. Debe tener las siguientes características: transporte rápido,
alta confiabilidad, redundancia, tolerancia a fallos, rápida adaptación a fallos, baja latencia. Su
única función es switchear tráfico tan rápido como sea posible.
Se debe diseñar el core para una alta confiabilidad (high reliability), por ejemplo con tecnologías
de capa dos que faciliten redundancia y velocidad, como FDDI, Gigabit Ethernet (con enlaces
redundantes), ATM, y seleccionamos todo el diseño con la velocidad en mente, procurando la
latencia más baja, y considerando protocolos con tiempo de convergencia más bajos.
Figura 2. Diseño jerárquico de redes
Capa de distribución (distribution layer): routing. Esta capa es el medio de comunicación entre la
capa de acceso y el núcleo. Las funciones de esta capa son proveer ruteo, filtrado, acceso a la red
WAN y determinar qué paquetes deben llegar al core. Aquí se implementan las políticas de red,
por ejemplo: ruteo, access-list, filtrado de paquetes, colas de espera, se implementan la seguridad
y las políticas de red (traducciones NAT y firewalls), la redistribución entre protocolos de ruteo,
ruteo entre VLANs, se definen dominios de broadcast y multicast.
Capa de acceso (access layer): switching. Esta capa proporciona a los usuarios acceso a segmentos
locales de la red, controla a los usuarios y el acceso de grupos de trabajo o los recursos de la red.
Entre las funciones más importantes están la continuación de control de tráfico y políticas,
creación de dominios de colisión separados (segmentación), alta disponibilidad, seguridad en
puertos, limite en tasas de transferencia, inspección del protocolo ARP. En esta capa se lleva a
cabo la segmentación Ethernet, DDR y ruteo estático.
Los switchs LANs de esta capa pueden controlar el acceso a los puertos y limitar la tasa de
transferencia al enviar y recibir tramas hacia y desde el switch. Esto se puede implementar al
identificar las direcciones MAC utilizando ARP y utilizando listas de acceso.
2.2 La arquitectura de redes orientadas a servicio de Cisco
La extremadamente rica variedad de aplicaciones de negocios disponible hoy en día y la necesidad
de integrar dichas aplicaciones conduce a la necesidad de una nueva arquitectura para redes.
La arquitectura SONA (Service Oriented Network Architecture, por sus siglas en inglés), es un
framework arquitectónico que ilustra cómo construir sistemas integrados y guía a la evolución de
las empresas hacia redes más inteligentes. Al utilizar el framework SONA, las empresas pueden
mejorar la flexibilidad e incrementar su eficiencia al optimizar sus aplicaciones, procesos de
negocio y sus recursos al habilitar las Tecnologías de la Información y tener un efecto mayor en los
negocios.
El framework SONA (figura 3), muestra cómo los sistemas integrados pueden permitir una
arquitectura flexible y dinámica al proveer eficiencia operacional a través de la estandarización y la
virtualización.
Figura 3. Framework SONA de Cisco
El framework SONA define las siguientes tres capas:
Capa de infraestructura en red. Es donde todos los recursos de TI están interconectados a través
de los cimientos de la red convergente. Los recursos de TI incluyen servidores, dispositivos de
almacenamiento y clientes. La capa de infraestructura en red representa cómo esos recursos
existen en diferentes lugares en la red, incluyendo campus, sucursales, data centers, WAN, MAN y
trabajadores remotos. El objetivo de esta capa es proporcionar conectividad, en cualquier lugar y a
cualquier hora.
Capa de servicios interactivos. Esta capa incluye servicios de aplicaciones de red así como
servicios de infraestructura. Esta capa permite una asignación eficiente de recursos para
aplicaciones y procesos de negocios provistos a través de la infraestructura de la red. Esta capa
incluye los siguientes servicios: voz y colaboración, movilidad, wireless, identidad y seguridad,
almacenamiento, cómputo, aplicaciones en red, virtualización, QoS, alta disponibilidad, multicast
IP.
Capa de aplicaciones. Esta capa incluye aplicaciones de negocio y colaboración. El objetivo de esta
capa es recibir requerimientos de negocio e impulsar la eficiencia de la capa de los servicios
interactivos. Esta capa incluye las siguientes aplicaciones colaborativas: mensajería instantánea,
telefonía IP, transmisión de video usando el Cisco Digital Media System, entre otros.
Figura 4. Servicios Cisco SONA.
En resumen, el marco de trabajo SONA, ofrece los siguientes beneficios:



Funcionalidad: soporta los requerimientos de la organización.
Escalabilidad: soporta crecimiento y expansión de las tareas de la organización al separar
funciones y productos en capas; esta separación hace más fácil el crecimiento de la red.
Disponibilidad: proporciona los servicios necesarios, confiabilidad, donde sea y cuando
sea.




Desempeño: provee el grado de reacción deseado, rendimiento y utilización a través de
los servicios e infraestructura de la red.
Manejabilidad: provee control, supervisión de desempeño y detección de fallas.
Eficiencia: proporciona los servicios de red e infraestructura requeridos con un costo
operacional razonable e inversión de capital apropiados, al migrar hacia una red más
inteligente, mediante el crecimiento de los servicios de red paso a paso.
Seguridad: provee un balance efectivo entre usabilidad y seguridad al proteger de
amenazas de información y la infraestructura tanto internas como externas.
2.3 Tecnologías WLAN
Un sistema de comunicación inalámbrica utiliza energía de radio frecuencia (RF) para transmitir
datos de un punto a otro a través del aire; el término señal es utilizado para referirse a esta
energía de RF. El dato a transmitirse primero es modulado (convertido) en una señal portadora y
después enviado; los receptores demodulan (convierten) la señal y procesan el dato.
Existen diferentes tipos de tecnologías inalámbricas, cada una cubre un área geográfica distinta:




Redes de área personal (PAN): típicamente cubre un espacio de trabajo personal.
Redes de área local: las LAN’s inalámbricas (WLAN), están diseñadas para ser redes
empresariales que permiten el uso de suites completas de aplicaciones, sin cables.
Redes de área metropolitana (MAN): las redes MAN’s inalámbricas están desarrolladas
dentro de un área metropolitana, permitiendo la conectividad inalámbrica a lo largo de un
área urbana.
Redes de área amplia (WAN): las WAN’s inalámbricas típicamente son más lentas pero
ofrecen mayor cobertura, abarcando áreas rurales.
Las redes WLAN remplazan el medio de transmisión de capa 1 de una red alámbrica tradicional
(usualmente cable categoría 5) con radio transmisión sobre el aire. Las WLAN se pueden conectar
a una red LAN cableada y funcionar sobre ella o pueden ser desarrolladas por sí solas donde el
cableado de red no es posible. Una computadora con una NIC inalámbrica se conecta a una WLAN
mediante un punto de acceso (Access point – AP). Una WLAN desarrollada apropiadamente puede
proveer acceso instantáneo a la red desde cualquier lugar dentro de las instalaciones de manera
que los usuarios puedan “vagar” sin perder su conexión a la red.
Los productos inalámbricos de Cisco admiten las siguientes tres topologías:


Acceso a clientes inalámbricos: para la conectividad de usuarios móviles.
Puente inalámbrico: para interconectar LAN’s que se encuentran físicamente separadas,
por ejemplo, en diferentes edificios.

Red de malla inalámbrica: provee accedo a clientes así como una conexión dinámica y
redundante entre edificios.
Las WLAN usan un identificador (SSID – Service Set Identifier) para identificar el nombre de la
WLAN. Este SSID debe ser de 2 a 32 caracteres de longitud. Todos los dispositivos en la WLAN
deben tener configurado el mismo SSID para comunicarse, es similar a una VLAN en una red
cableada.
La capa de control de acceso al medio (MAC) de la IEEE 802.11 implementa el método de acceso
CSMA/CA (Carrier Sense Multiple Access/ Collision Avoidance). Con este método, cada estación
WLAN “escucha” para ver si algún dispositivo está transmitiendo. Si no ocurre actividad, la
estación transmite. Si existe algún tipo de transmisión, la estación usa un conteo regresivo con un
reloj. Cuando el tiempo expira, la estación transmite.
Algunas de las agencias y grupos de estándares relacionados con redes WLAN son los siguientes:
-
Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): crea y mantiene estándares
operacionales.
Instituto de Estándares de Telecomunicaciones Europeo (ETSI): colegiados para producir
estándares comunes en Europa.
Wi-Fi Alliance: promueve y prueba interoperabilidad para redes WLAN.
WLAN Association: educa y promueve el uso de las WLAN.
2.3.1 Estándares operacionales IEEE 802.11
En Septiembre de 1999, la IEEE ratificó el estándar IEEE 802.11 (5 GHz a 54 Mpbs) y el estándar
802.11b (2.4 GHz a 11 Mbps). En Junio del 2003, la IEEE ratificó el estándar 802.11g (2.4 GHz a 54
Mbps); este estándar es compatible con los sistemas 802.11b, ya que ambos usan el mismo ancho
de banda en la misma frecuencia. A continuación se presenta un resumen de los estándares IEEE
802.11 para comunicaciones inalámbricas:
Protocolo IEEE
802.11
802.11a
802.11b
802.11g
802.11n
Fecha de
lanzamiento
1997
1999
1999
2003
2007
Frecuencia
Ancho de banda
ISM
UNII
ISM
ISM
ISM o UNII
1 Mbps
25 Mbps
6.5 Mbps
25 Mbps
200 Mbps
Tabla 1. Resumen estándares IEEE
Ancho de banda
máximo
2 Mbps
54 Mbps
11 Mbps
54 Mbps
540 Mbps
2.3.2 RF Site Survey
Las redes inalámbricas utilizan un medio compartido, el aire, para transmitir ondas de radio
frecuencia (RF). En este, existen obstáculos e interferencias que afectan la calidad del aire. Dos
redes similares (por ejemplo, dos sucursales bancarias de arquitectura similar) pueden dar
rendimientos muy diferentes por causa del entorno: vecinos, ruidos, materiales de construcción,
decorados, etc. Por lo tanto, es de vital importancia, antes de desplegar una red inalámbrica,
estudiar “el terreno” y el entorno. A ese estudio se le conoce como “site survey” – estudio o
evaluación de sitio.
Un site survey de RF es el primer paso en el diseño y desarrollo de una red inalámbrica, y el más
importante para asegurar la operación deseada. Un estudio de sitio es un proceso en el cual el
“perito” estudia las instalaciones para entender las características de RF en el ambiente, planea y
revisa las áreas de cobertura, verifica la interferencia y determina el lugar apropiado para
establecer los dispositivos inalámbricos de la infraestructura de la red.
La meta principal del site survey es proveer suficiente información para determinar el número y
ubicación de los access points que provean la adecuada cobertura a través del edificio. Un site
survey de RF adicionalmente detecta la presencia de interferencia proveniente de otros orígenes
(microondas, teléfonos inalámbricos) que puedan degradar el performance de la WLAN.
Cuando conducimos un site survey de RF, se realizan los siguientes pasos:
-
Definir requisitos de usuario.
Obtener un diagrama del área.
Inspección visual del área.
Identificación de áreas y densidad de usuarios.
Determinación preliminar de los access points.
Verificar la locación de los access points.
Documentar los resultados.
Para saber más…
Teare D. (2007). Designing for Cisco Internetwork Solution. 2nd Ed. Pearson Education.
Bruno A. (2007). CCDA Official Exam Certification Guide. 3rd Ed. Pearson Education.
Unidad II. Calidad en el servicio (QoS)
Objetivo. El alumno implementará y administrará la QoS en las redes de las organizaciones para
aprovechar al máximo la infraestructura de telecomunicaciones.
Figura 5. Ejemplo de QoS
1. Introducción a la calidad en el servicio (QoS)
Hace pocos años, debido básicamente a la baja capacidad de las redes, la posibilidad de llevar a
cabo aplicaciones relacionadas con información multimedia (videoconferencia, audioconferencia,
video bajo demanda, pizarras compartidas, teletrabajo, telemedicina, etc.) eran prácticamente
impensable, pero en estos momentos es una realidad. Se ha avanzado mucho en la comprensión
de audio y video, y en tecnologías de redes.
Afortunadamente, en la actualidad se están implantando nuevas tecnologías de fibra óptica que
proporcionan el gran ancho de banda requerido por las aplicaciones anteriores, pero no basta solo
con el aumento del mismo, es necesario gestionarlo de manera eficiente: utilizarlo en un
porcentaje elevado asegurando una calidad determinada. Esto es la calidad en el servicio (QoS).
Hasta hace poco este término no era importante en la mayoría de los sistemas. Para comprobarlo
tan solo tenemos que pensar en los algoritmos que se usan actualmente en la transmisión de
paquetes por la red (pensar en el sistema Best Effort utilizado en Internet), estos algoritmos suelen
garantizar la llegada de todos los paquetes, pero no dan ninguna cota respecto al límite de su
llegada a destino. Esta forma de transmisión es buena para muchas aplicaciones, como por
ejemplo la transmisión de archivos (FTP), la navegación vía Web, el correo electrónico, donde lo
importante es que los datos lleguen correctamente. Para el tráfico en tiempo real, en cambio, los
datos necesitan llegar a su destino en un tiempo determinado, ya que tardar un poco más implica
que la aplicación se detendría por falta de datos, lo cual sería inadmisible.
La calidad en el servicio (QoS) es el rendimiento de extremo a extremo de los servicios electrónicos
tal y como los percibe el usuario final. Los parámetros de QoS son: el ancho de banda (bandwith),
el retardo (delay), la variación del retardo (jitter) y la pérdida de paquetes (packet loss). Una red
debe garantizar cierto nivel de calidad de servicio para un nivel de tráfico que sigue un conjunto
especificado de parámetros.
La implementación de políticas de calidad de servicio se puede enfocar en varios puntos según los
requerimientos de la red, los principales son:




Asignar ancho de banda en forma diferenciada.
Evitar y/o administrar la congestión de la red.
Manejar prioridades de acuerdo al tipo de tráfico.
Modelar el tráfico de la red.
Ancho de banda (Bandwidth)
El término ancho de banda es una medida de la capacidad de transmisión de datos y se refiere al
número de bits por segundo que pueden viajar a través de un medio. Esta capacidad se ve
disminuida por factores negativos tales como el retardo, que pueden causar un deterioro en la
calidad.
Aumentar el ancho de banda significa poder transmitir más datos (algo así como aumentar el
número de carriles de una autopista), pero también implica un incremento económico y, en
ocasiones, resulta imposible su ampliación sin cambiar de tecnología de red.
Retardo (Delay)
Es la variación temporal y/o retraso de la llegada de los flujos de datos a su destino. Es una
característica que se hace muy evidente en aplicaciones como la videoconferencia donde todos
hemos experimentado alguna vez el retraso en la recepción de algún mensaje vocal enviado por
nosotros y el retardo existente entre la señal de voz y la señal de video. Teniendo en cuenta hacia
qué tipo de aplicaciones se están orientando las telecomunicaciones (es evidente la llegada de voz
sobre IP), es necesario que las en las políticas de QoS definidas para nuestra red este parámetro
sea reducido al mínimo.
Variación del retardo (Jitter)
Es lo que ocurre cuando los paquetes transmitidos en una red no llegan a su destino en debido
orden o en la base de tiempo determinada, es decir, varían en latencia. Algo semejante a la
distorsión de una señal. En redes de conmutación de paquetes, jitter es una distorsión de los
tiempos de llegada de los paquetes recibidos, comparados con los tiempos de los paquetes
transmitidos originalmente. Esta distorsión es particularmente perjudicial para el tráfico
multimedia.
Una solución ante el jitter es la utilización de buffers en el receptor. Pero esta medida es poco
eficaz, dado que sería necesario un gran tamaño para los buffers, lo que implica un costo
económico en los equipos, y porque estos buffers incrementarían el retardo. El tamaño de uno de
estos buffers debería ser al menos dos veces el tamaño del jitter y el retardo adicional introducido
por el buffer podría superar el retardo máximo permitido por la aplicación.
Pérdida de paquetes (packet loss)
Indica el número de paquetes perdidos durante la transmisión. Normalmente se mide en tanto por
ciento. Por ejemplo, los routers pierden/niegan/descartan paquetes por muchas razones, muchas
de las cuales, las herramientas QoS no pueden hacer nada.
2. Modelos de QoS
|
Existen 3 modelos de QoS llamados Best-Effort, IntServ y DiffServ. Los cuales serán definidos a
continuación:
Best-Effort. Este modelo es el más sencillo. Es un modelo simple de servicio, en el cual, una
aplicación envía información cuando ella lo desea, en cualquier cantidad, sin ningún permiso
requerido y sin informar previamente a la red. Es decir, simplemente este modelo quiere decir que
no se aplica calidad en el servicio al tráfico. Además, este modelo no asegura tasa de
transferencia, retraso o fiabilidad. Por último, utiliza el modelo de cola FIFO (First In First Out) para
sus transmisiones.
Decimos que una red o un proveedor ofrece calidad en el servicio cuando se garantiza el valor de
uno o varios de los parámetros que definen esta calidad. Si el proveedor no se compromete en
ningún parámetro decimos que lo que ofrece es un servicio “best-effort”. TCP/IP fue diseñado
para dar un servicio best-effort también. Existen aplicaciones que no pueden funcionan en redes
congestionadas con best-effort, por ejemplo, la videoconferencia o VoIP.
IntServ (Integrated Services). Este modelo se basa en la idea de reserva de recursos en la red por
flujos. Un flujo es una cadena de paquetes que fluyen por la red desde una aplicación en una
computadora origen hasta una aplicación en una computadora destino. Para cada flujo entrante se
definen los recursos (ancho de banda, retardo, etc.) que serán necesarios para este flujo. La
reserva de recursos debe establecerse previamente en cada uno de los routers que forman parte
del camino entre el origen y el destino. Cada nodo en el camino indica si puede asegurar la reserva
y mantiene una tabla con el estado de la reserva por flujo.
La principal limitación de este modelo es la gran cantidad de información que debe almacenar
cada nodo, provocando que la solución no sea aplicable en situaciones con gran cantidad de flujos
entre usuarios finales.
DiffServ (Differentiated Services). Este modelo será descrito a continuación.
3. Descripción de DiffServ QoS
Differentiated Services es un protocolo de QoS propuesto por IETF [RFC 2475 y RFC 2474] que
permite distinguir diferentes clases de servicio marcando los paquetes. Consiste en un método
para marcar o etiquetar paquetes, permitiendo a los routers modificar su comportamiento de
envío. Cada tipo de etiqueta representa un determinado tipo de QoS y el tráfico con la misma
etiqueta se trata de la misma forma.
DiffServ fue desarrollada en respuesta a la necesidad de métodos toscos pero simples de proveer
diferentes niveles de servicio para el tráfico de internet y para soportar diferentes tipos de
aplicaciones y negocios específicos.
Para proporcionar los diferentes niveles de servicio utiliza el campo type of service (ToS) o DiffServ
Codepoint (DSCP) de la cabecera del estándar IPv4 e IPv6. Éste es un campo de 8 bits estando los
últimos 2 reservados. Con los 6 bits restantes se consiguen 64 combinaciones: 48 para el espacio
global y 16 para uso local.
Figura 6. Cabecera IPv4
Para su funcionamiento, DiffServ divide el tráfico en unas pocas clases y los recursos se asignan
con base a las clases (y no a los flujos individuales como IntServ), lo que hace que esta arquitectura
no sufra el problema de agotamiento de recursos de la red.
Para el control del tráfico DiffServ tiene dos enrutadores (routers): los nodos frontera y los nodos
interiores (Figura 7). Solo los nodos frontera clasifican tráfico y marcan paquetes, mientras que
los nodos interiores usan las clases codificadas en la cabecera del paquete (llamadas clases de
retransmisión o forwarding equivalence class) para determinar el tratamiento de los paquetes. El
tratamiento que reciben los paquetes según su clase se denomina tratamiento de retransmisión
(PHB ó Per-Hop Behaviour).
Figura 7. Arquitectura de una red DiffServ
Los conceptos clave de DiffServ se pueden resumir de la siguiente forma:





Toma ventaja de las propiedades escalables de las herramientas QoS basadas en clases
para diferencias entre tipos de paquetes, con la meta de “diferenciar servicios en
Internet”.
En una red simple, los paquetes deberían ser marcados al ingreso a un punto dentro de la
red, con otros dispositivos realizando elecciones QoS basados en el campo marcado.
El campo marcado estará en el encabezado IP y no en el encabezado de la capa de enlace
de datos, ya que el encabezado IP permanece a lo largo de toda la red.
Entre redes, los paquetes pueden ser reclasificados y remarcados al ingresar dentro de
otra red.
Para facilitar el marcado, el encabezado IP ha sido redefinido al incluir un campo de 6 bits
llamado DSCP, el cual permite 64 clasificaciones diferentes.
Aparte de las estrategias generales de QoS, DiffServ realmente provee dos características claves
adicionales: el campo DSCP y algunas sugerencias de cómo usar este campo.
4. Clasificación y marcado de tráfico
La mayoría de las herramientas QoS clasifican el tráfico. El cual, permite a cada clase de tráfico
recibir un trato diferente con respecto a otras clases de tráfico. Estos diferentes tipos de tráfico,
en terminología QoS se les llama típicamente clases de servicio. La clasificación permite a los
dispositivos decidir qué paquetes son parte de cada clase de servicio.
Las herramientas de clasificación y marcado de tráfico no solo clasifican paquetes en clases de
servicio, sino que también marcan los paquetes en la misma clase de servicio con el mismo valor
en un campo en el encabezado. Al marcar los paquetes, otras herramientas QoS que examinan el
paquete más tarde, pueden examinar los bits de marca para que sea más fácil clasificar los
paquetes.
Casi todas las herramientas QoS usan la clasificación en algún nivel. Para poner un paquete en una
cola de espera diferente a otro paquete, el IOS debe diferenciar de alguna forma entre los dos
paquetes, por ejemplo: paquetes de voz (VoIP) y paquetes de datos.
Por ejemplo, muchas herramientas QoS permiten clasificar utilizando listas de control de acceso
(ACL). Si la ACL 101 permite el paso a un paquete, la herramienta de encolado podría poner el
paquete en una cola, si la ACL 102 permite el paso a otro paquete, este es almacenado en una
segunda cola de espera, y así sucesivamente.
Marcado de tráfico basado en clases
El marcado de tráfico basado en clases puede clasificar paquetes en clases de servicio al examinar
directamente el encabezado de la trama, paquete, celda (ATM) y segmento. Este método de
marcado también puede utilizar ACL para igualar (match) paquetes.
Clasificación con NBAR (Network Based Application Recognition)
NBAR provee un router con la capacidad de clasificar paquetes, particularmente paquetes difíciles
de identificar. Independientemente, NBAR puede ser configurado para mantener contadores de
tipo de tráfico y volumen de tráfico de cada tipo.
NBAR clasifica paquetes que, normalmente, son difíciles de clasificar. Por ejemplo, algunas
aplicaciones utilizan números de puertos dinámicos, entonces, un comando “match” configurado
estáticamente, buscando por un número de puerto particular TCP o UDP, simplemente podría no
clasificarlo. NBAR puede buscar en el encabezado TCP y UDP y mandar al nombre del host, URL o
tipo MIME en solicitudes HTTP.
Marcado de tráfico
El marcado de tráfico involucra la configuración de algunos bits dentro del encabezado de la capa
de red, con el objetivo de dejar a otros dispositivos QoS realizar la clasificación basado en los
valores de las marcas. Algunas opciones del marcado de tráfico tienen sentido para todos los
dispositivos de una LAN, mientras otros solamente cuando se utilizan plataformas de hardware
específicas.
Campos QoS del encabezado IP
Los dos campos más populares para el marcado de tráfico para QoS son el campo “prioridad”
(Precedence) y el campo “DSCP” (Differentiated Services Code Point).
Figura 8. Campos IP Precedence y DSCP
Se puede marcar los campos “prioridad” y DSCP con cualquier valor binario válido de 3 o 6 bits,
respectivamente.
Toda la clasificación QoS se resuelve con este campo en el modelo DiffServ, ya que se identifica
cada paquete su agregado de tráfico (BA, Behavior Aggregate). Cada BA es identificado por un
único código DS. En términos concretos un PHB (Per-Hop Behaviors) se refiere a la programación,
encolamiento, definición de políticas o características de un nodo en cualquier paquete, es decir,
cómo se le tratará.
El marcado de tráfico puede ocurrir en dos lugares:
-
La fuente original del tráfico, como un servidor web, marca el tráfico.
Un router, como el primer router que el tráfico encuentra, clasifica y marca el tráfico.
Cuando un paquete entra en un router, la lógica de ruteo selecciona su puerto de salida, y su valor
DSCP es usado para conducir el paquete a una cola específica o tratamiento específico en ese
puerto. El PHB particular es configurado por un mecanismo administrador de la red, estableciendo
la tabla de comportamiento dentro del router.
Clase de servicio LAN (LAN Class of Service – CoS)
Muchos de los switches LAN de hoy en día pueden marcar y reaccionar a campos de capa 2,
llamado clase de servicio (CoS) dentro de los encabezados Ethernet. El campo CoS existe
solamente dentro de las tramas Ethernet cuando los enlaces troncales 802.1Q o ISL (InterSwitching Link) están siendo usados. El estándar IEEE 802.1P actualmente define el uso de los bits
CoS dentro del encabezado 802.1Q. se puede utilizar el campo para establecer 8 valores binarios
diferentes, los cuales pueden ser utilizados para la clasificación llevada a cabo por herramientas
QoS, de la misma forma que los campos “prioridad” y “DSCP”. La figura 9 muestra el encabezado
descrito anteriormente.
Figura 9. Campos CoS LAN
5. Mecanismos de QoS para administrar y evitar la congestión de la red
Cisco utiliza el término “administración de la congestión” para referirse a los sistemas de
encolamiento de sus productos. La mayoría de la gente entiende los conceptos básicos de
encolamiento, ya que la mayoría de nosotros lo experimenta día a día: una cola de espera para
pagar los abarrotes en el supermercado, una cola de espera para ser atendidos en el banco y así
sucesivamente.
Los sistemas de encolamiento tienen un impacto en las 4 características mencionadas
anteriormente: ancho de banda, delay, jitter y pérdida de paquetes. Mucha gente escucha el
término QoS e inmediatamente piensa en sistemas de encolamiento, pero QoS incluye muchos
más conceptos y características que solamente encolar. Ciertamente, los sistemas de
encolamiento son muy a menudo las herramientas desarrolladas más importantes.
Los sistemas de encolamiento más básicos utilizan una cola sencilla con un tratamiento FIFO (First
In First Out). Y, ¿qué significa esto? Bueno, cuando el IOS decide tomar el siguiente paquete de la
cola, de todos los que están esperando, toma aquel que llegó primero como se muestra en la
figura 10.
Figura 10. Cola FIFO.
El encolamiento FIFO no requiere las dos características más interesantes de otras herramientas
de encolamiento: clasificación y planeación.
Finalmente, cabe mencionar que el IOS Cisco utiliza por default el método de encolamiento
“weighted fair” (espera equitativa ponderada) en lugar del encolamiento FIFO y que para
cambiarse, los routers proveen los comandos necesarios para ajustar estos parámetros.
Encolamiento por prioridad (PQ – Priority Queuing)
La característica más distintiva de las colas de prioridad es su programación. PQ programa el
tráfico de manera que las colas de prioridad más alta siempre obtienen el servicio, con el efecto
secundario en las colas de baja prioridad. Se pueden establecer un número máximo de 4 colas,
llamadas: alta, medio, normal y baja.
El proceso de este mecanismo es muy simple, siempre inicia en la cola de alta prioridad y ella
transmitirá primero, si esta cola no tiene paquetes en espera, la cola de mediana prioridad tiene la
opción de transmitir paquetes y así sucesivamente. La cola de baja prioridad transmitirá sus
paquetes si ninguna de las anteriores tiene paquetes en espera.
Encolamiento por espera equitativa ponderada (WFQ - Weighted Fair Queuing)
Este método de encolamiento clasifica paquetes en flujos. Un flujo es un conjunto de paquetes
que tienen la misma dirección IP origen y destino y los mismos números de puerto tanto origen
como destino. Dado que WFQ es basado en flujos, cada flujo utiliza diferentes colas FIFOS
separadas, el número de colas alcanza las 4096 colas por interface.
Es un método automatizado que provee una justa asignación de ancho de banda para todo el
tráfico de la red. Como se mencionó, WFQ ordena el tráfico en flujos utilizando una combinación
de parámetros. Por ejemplo, para una conversación TCP/IP, se utiliza el protocolo IP (dirección
origen y destino), etc. Una vez distinguidos estos flujos el router determina cuáles son de uso
intensivo o sensible al retardo, priorizándolos y asegurando que los flujos de alto volumen sean
empujados al final de la cola, y los volúmenes bajos, sensibles al retardo, sean empujados al
principio de la cola.
Esta técnica es apropiada en situaciones donde se desea proveer un tiempo respuesta consistente
ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a las condiciones
cambiantes del tráfico en ésta.
A manera de resumen, mostramos las características más importantes:
Tabla 1. Resumen WFQ
Encolamiento por espera equitativa ponderada basado en clases (CBWFQ –Class Based Weighted
Fair Queuing)
WFQ tiene algunas limitantes de escalamiento, ya que la implementación del algoritmo se ve
afectada a medida que el tráfico por enlace aumenta, colapsa debido a la cantidad numerosa de
flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones, tomando el algoritmo de
WFQ y expandiéndolo, permitiendo la definición de clases definidas por el usuario, que permiten
un mayor control sobre las colas de tráfico y asignación de ancho de banda.
Algunas veces es necesario garantizar una determinada tasa de transmisión para cierto tipo de
tráfico, lo cual no es posible mediante WFQ pero sí con CBWFQ. Las clases que son posibles
implementar con CBWFQ pueden ser determinadas según protocolo ACL, valor DSCP o interfaz de
ingreso. Cada clase posee una cola separada y todos los paquetes que cumplen con el criterio
definido para una clase en particular son asignados a dicha cola. Una vez que se establecen los
criterios para las clases, es posible determinar cómo los paquetes pertenecientes a dicha clase
serán manejados. Si una clase no utiliza su porción de ancho de banda, otras pueden hacerlo. Se
pueden configurar específicamente el ancho de banda y el límite de paquetes máximos (o
profundidad de cola) para cada clase. El peso asignado a la cola de la clase es determinado
mediante el ancho de banda asignado a dicha clase.
Encolamiento de baja latencia (LLQ – Low Latency Queueing)
El encolamiento de baja latencia es una mezcla entre PQ y CBWFQ. Es actualmente el método de
encolamiento recomendado para Voz sobre IP (VoIP) y telefonía IP, que también trabajará
apropiadamente con videoconferencias. LLQ consta de colas de prioridad personalizadas, basadas
en clases de tráficos, en conjunto con una cola de prioridad, la cual tiene preferencia absoluta
sobre las otras colas.
Si existe tráfico en la cola de prioridad, ésta es atendida antes que las otras colas de prioridad
personalizadas. Si la cola de prioridad no está encolando paquetes, se procede a atender a otras
colas según su prioridad. Debido a este comportamiento es necesario configurar un ancho de
banda límite reservado para la cola de prioridad, evitando la inanición del resto de las colas. La
cola de prioridad que posee LLQ provee un máximo retardo garantizado para los paquetes
entrantes para esta cola, el cual es calculado como el tamaño del MTU dividido por la velocidad
del enlace.
Evasión de la congestión
Las metodologías de evasión de la congestión se basan en la manera en que los protocolos operan,
con el fin de no llegar a la congestión de la red. Las técnicas de RED (Random Early Detection) y
WRED (Weighted Random Early Detection) evitan el efecto conocido como “sincronización global”.
Cuando múltiples conexiones TCP operan sobre un enlace común todas ellas incrementan el
tamaño de su ventana deslizante a medida que el tráfico llega sin problemas. Este aumento
gradual consume el ancho de banda hasta congestionarlo.
En este punto, las conexiones TCP experimentan errores de transmisión, lo que hace que se
disminuya su tamaño de ventana simultáneamente. Esto conlleva a una sincronización global,
donde todos los flujos comienzan a incrementar su tasa de transmisión nuevamente para llegar a
otro estado de congestión. Este ciclo es repetitivo, creando picos y valles en la utilización del
ancho de banda del enlace. Es debido a este comportamiento que no se utiliza los máximos
recursos de la red.
Los métodos de evasión de la congestión tratan con este tipo de situación, descartando paquetes
de forma aleatoria. RED forza a que el flujo de reduzca el tamaño de su ventana de transmisión,
disminuyendo la cantidad de información enviada. A medida que se alcanza el estado de
congestión de la red, más paquetes entrantes son descartados con el fin de no llegar al punto de
congestión en el enlace. Lo que limita a estas técnicas de evasión de congestión es que sólo sirve
para el tráfico basado en TCP, ya que otros protocolos no utilizan el concepto de ventana
deslizante.
6. AutoQoS
Cisco ha desarrollado una nueva forma de QoS denominada AutoQoS y que tiene como propósito
facilitarle al administrador de la red las pruebas básicas de los atributos de QoS. AutoQoS clasifica
automáticamente el tráfico al implementar los comandos necesarios en la CLI del router.
AutoQoS se encuentra disponible en los routers Cisco IOS desde la serie 2600 hasta la serie 7200 y
también en la mayoría de los routers Cisco que utilizan versiones del IOS 12.2(15)T y posteriores.
AutoQoS ofrece los siguientes beneficios:



No requiere una comprensión avanzada de QoS del mismo modo que sí se desea
configurar desde la línea de comandos.
Se pueden reutilizar las políticas de QoS y reutilizarlas, del mismo modo en que si se
tratara de una plantilla.
Se ahorra mucho tiempo de configuración.
Para saber más…
Wendell O. (2005). IP Telephony Self Study Cisco QoS Exam Certification Guide. 2nd Ed. Pearson
Education.
Unidad III. Voz sobre IP (VoIP)
Objetivo. El alumno configurará protocolos de VoIP en una red convergente para establecer
comunicaciones de voz.
1. Introducción a la tecnología y arquitecturas de VoIP
La red telefónica pública conmutada (PSTN – Public Switched Telephone Network) es una red
masiva de voz. Si alguna vez has hecho alguna llamada desde o hacia un teléfono público o
residencial entonces has experimentado los usos de las líneas telefónicas tradicionales.
Esta red no es distinta a muchas de las redes de datos de hoy en día. Su objetivo primario es
establecer rutas permitiendo a la gente, conectarse, conversar y desconectarse fácilmente. Los
sistemas modernos PSTN son construidos utilizando la tecnología mostrada en la figura 11.
Figura 11. Componentes PSTN
Por otro lado, la telefonía IP conjuga dos mundos históricamente separados: la transmisión de voz
y la de datos. Se trata de transportar la voz, previamente convertida a datos, entre dos puntos
distantes. Esto posibilitaría utilizar las redes de datos para efectuar llamadas telefónicas, y yendo
un poco más allá, desarrollar una única red que se encargue de cursar todo tipo de comunicación,
ya sea vocal o de datos. Es evidente que tener una red en lugar de dos, es beneficioso para
cualquier operador que ofrezca ambos servicios, como gastos de mantenimiento, personal, entre
otros.
El crecimiento y fuerte implantación de las redes IP, tanto local como remoto, el desarrollo de
técnicas avanzadas de digitalización de voz, mecanismos de priorización y control de tráfico,
protocolos de transmisión en tiempo real, así como el estudio de nuevos estándares que permiten
las calidad en el servicio en redes IP, han creado un entorno donde es posible transmitir telefonía
sobre IP lo que no significará en modo alguno la desaparición de las redes telefónicas, sino que
habrá, al menos temporalmente, una fase de coexistencia entre ambas, y por supuesto, la
necesaria interconexión entre gateways, denominados genéricamente gateways IP. El concepto
original es relativamente simple: se trata de transformar la voz en “paquetes de información”
manejables por una red IP.
2. Funciones y componentes de VoIP
Muchas empresas tienen cientos –o tal vez miles- de teléfonos en sus compañías. Si cada
compañía contratara una línea telefónica para cada uno de esos teléfonos el costo sería
demasiado alto. En su lugar, la mayoría de las organizaciones eligen utilizar un conmutador
telefónico (PBX – Private Branch Exchange) para administrar esas líneas telefónicas internas. Con
estos sistemas, se permite realizar llamadas telefónicas a los usuarios internos sin utilizar recursos
extras de la PSTN.
El modelo de referencia OSI fue diseñado para crear métodos de conexión y comunicación
estándares a través de las redes de datos. En el mundo de las transmisiones de voz, existen
modelos de conexión similares que describes este tipo de comunicaciones. Cisco ha desarrollado
un modelo que describe el sistema de comunicaciones unificadas, mostrado en la figura 12.
Figura 12. Capas del modelo de comunicaciones unificadas de Cisco
Como se puede apreciar en la figura 12, existen una serie de capas (infraestructura,
procesamiento de llamadas, aplicaciones y dispositivos de usuario) y en cada una de ellas, existen
dispositivos o componentes de la tecnología de VoIP.
Se describirán brevemente algunos de ellos:
Routers, switches y gateways de voz: estos dispositivos representan la base que sostienen la red
de voz. Estos dispositivos deben proveer redundancia y QoS, esto es un aspecto clave para ellos. El
tiempo de funcionamiento de sistemas de estos tipos es de 99.99% (aproximadamente unos 5
minutos de inactividad al año).
Cisco Unified Communications Manager: esta serie de dispositivos de la compañía Cisco tiene
como función el procesamiento de llamadas y todas las funciones que ello implique. Cuando un
usuario levanta un teléfono estos dispositivos se involucran al generar un tono. Cada dígito que es
marcado es analizado y procesado. Una señal de timbrado es generada en el dispositivo remoto y
la llamada es establecida. Acciones como el reenvío de llamadas, el correo de voz, la
intercomunicación y las comunicaciones móviles son posibles gracias a estos dispositivos.
Teléfonos IP: un teléfono IP (también llamado teléfono softphone), permite hacer llamadas a
cualquier otro teléfono IP, móvil o estándar por medio de la tecnología de VoIP (la voz es
transmitida por internet en lugar de la red PSTN). Puede ser un teléfono basado en software o un
teléfono de hardware analógico o digital. Los teléfonos IP de Cisco ofrecen una gran cantidad de
funcionalidades, entre las que destacan: flexibilidad, escalabilidad, adaptabilidad, conectividad,
simplicidad. Algunos ofrecen la posibilidad de transmisión de video, touchscreen, identificador de
llamadas, PoE, XML, entre otros.
3. Principales protocolos de VoIP de acuerdo al modelo OSI
Figura 13. Pila de protocolos de VoIP
H.323. La arquitectura del protocolo H.323 define todo lo necesario (componentes, protocolos,
señalización, codecs, etc.) para llevar a cabo la comunicación y garantizar así la compatibilidad
entre dispositivos. H.323 consta de una serie de protocolos y una serie de codecs. Esta
arquitectura es descrita en la sección 6 de esta unidad.
SIP. Protocolo para el Inicio de Sesión. Fue diseñado por IETF como una alternativa a H.323.
Comparar los dos protocolos, es como comparar a TCP/IP con FTP: H.323 es una suite de
protocolos mientras que SIP tiene un solo propósito, que es configurar sesiones entre dispositivos
de voz y video. SIP no está diseñado para transferir audio, video y demás. Es un protocolo de
señalización para el establecimiento, mantenimiento y terminación de sesiones interactivas entre
usuarios; estas sesiones pueden tratarse de conferencias multimedia, chat, sesiones de voz o
distribución de contenidos multimedia.
El protocolo SIP adopta el modelo cliente-servidor y es transaccional. El cliente realiza peticiones
que el servidor atiende y genera una o más respuestas. El servidor responde, ya sea rechazando o
aceptando esa petición en una serie de respuestas. Las respuestas llevan un código de estado que
brindan información acerca de si las peticiones fueron realizadas con éxito o si se produjo un
error. La petición inicial y todas sus respuestas constituyen una transacción.
Los servidores por defecto utilizan el puerto 5060 en TCP y UDP para recibir las peticiones de los
clientes SIP. Este protocolo es muy similar a HTTP y comparte con él algunos de sus principios de
diseño: es legible por humanos y sigue una estructura de petición respuesta.
Para implementar las funcionalidades que SIP ofrece, este protocolo se apoya de distintos
componentes: los agentes de usuario y los servidores.
Agentes de usuario (User Agent – UA): están formados por dos partes distintas: el User Agent
Client (UAC) y el User Agen Server (UAS). Un UAC es una entidad lógica que genera peticiones SIP y
recibe respuestas a esas peticiones. Un UAS es una entidad lógica que genera respuestas a las
peticiones SIP. Ambos se encuentran en todos los UA, así permiten la comunicación entre
diferentes agentes usuario mediante comunicaciones de tipo cliente-servidor.
Los servidores SIP pueden ser de tres tipos:


Proxy server: retransmiten solicitudes y deciden a qué otro servidor deben remitir,
alternando los campos de la solicitud en caso de ser necesario. Es una entidad intermedia
que actúa como cliente y servidor con el propósito de establecer llamadas entre los
usuarios. Este servidor tiene una funcionalidad semejante a la de un Proxy HTTP que tiene
una tarea de encaminar las peticiones que recibe de otras entidades más próximas al
destinatario.
Registrar server: es un servidor que acepta invitaciones de registro de los usuarios y
guarda la información de estas peticiones para suministrar un servicio de localización y
traducción de direcciones en el dominio que controla.

Redirect server: es un servidor que genera respuestas de redirección a las peticiones que
recibe. Este servidor reencamina las peticiones hacia el próximo servidor.
La división de estos servidores es conceptual, cualquiera de ellos puede estar físicamente en una
única máquina, la división de ellos puede ser por motivos de escalabilidad y rendimiento.
RTP. Es el Protocolo de Transporte de Tiempo Real. Surgió con la idea de crear un protocolo
específico para la gran demanda de recursos en tiempo real por parte de los usuarios. Algunos de
estos recursos son la música, la videoconferencia, video, telefonía en internet y más aplicaciones
multimedia. Se ejecuta, generalmente, sobre UDP ya que posee menor retardo que TCP. Por
tanto, con UDP se gana en velocidad a cambio de sacrificar la confiabilidad de TCP. Debido a esto,
RTP no garantiza la entrega de todos los paquetes, ni la llegada de éstos en el instante adecuado.
La función básica de RTP es multiplexar varios flujos de datos en tiempo real en un solo flujo de
paquetes UDP, pudiéndose enviar tanto a un solo destino (unicast) o múltiples destinos
(multicast). Los paquetes son numerados de la siguiente manera: se le asigna a cada paquete un
número mayor que su antecesor. Esto será útil para que la aplicación conozca si ha fallado algún
paquete o no en la transmisión.
RTCP. Es el Protocolo de Control de la Transmisión en Tiempo Real. Es el protocolo
complementario a RTP y le brinda a éste un mecanismo de control. Utiliza UDP por el puerto
adyacente siguiente al puerto que se utiliza para RTP. Este protocolo se basa en la periódica
transmisión de paquetes de control a todos los participantes en sesión ofreciéndole información
sobre la calidad de los datos distribuidos por la fuente. El protocolo subyacente debe proveer de la
multiplexación de los datos y de los paquetes del control. Por lo tanto, la función primordial de
RTCP es la de proveer una realimentación de la calidad del servicio.
H.248 (MEGACO). Este protocolo es un esfuerzo colaborativo de la ITU (Union Internacional de
Telecomunicaciones) y la IETF (Internet Engineering Task Force). H.248 es un protocolo para
que el control de pasarela de medios (Media Gateway Controller - MGC) controle a pasarelas de
medios (Media Gateways – MG).
Figura 14. Protocolo H.248
En términos del protocolo H.248, un MGC es un elemento de control de medios y llamadas
externas que maneja el señalamiento y el procesamiento de llamadas. Es decir, controlan a los MG
para una buena gestión en el intercambio de información a través del protocolo MGCP. El MGC
también suele llamarse “Call Agent”. Un MG, son elementos funcionales que median entre los
puntos finales, es decir, los clientes.
Este protocolo se considera complementario a H.323 y SIP, un MGC controlará varios MG
utilizando H.248, pero será capaz de comunicarse con otro MGC utilizando H.323 o SIP.
Para que la comunicación pueda ser realizada, se necesitará un una computadora con micrófono y
bocinas o un teléfono analógico o digital. Si un usuario desea hacer una llamada debe descolgar el
teléfono y marcar el número del destinatario. Esta llamada llega al MG, éste, notifica al MGC que
una llamada está en camino. El MGC busca en su base de datos, el número de teléfono del
destinatario para saber su IP y su número de puerto. Entonces, busca el MG del destinatario y le
envía un mensaje para indicarle que le está llegando una llamada. El MG del destinatario abre una
conexión RTP cuando el usuario descuelga.
MGCP. El Protocolo para el Control de Pasarelas de Medios (Media Gateway Control Protocol)
permite controlar las pasarelas (gateways) de los medios de comunicaciones de los elementos de
control de llamada externas (MGC).
Mucha gente confunde al control de medios con señalización. Señalización (como se describió
anteriormente), es el establecimiento de sesiones entre dos o más partes. En redes VoIP cada una
necesita ser manejada por un diferente tipo de Gateway VoIP: un Gateway de señalización y un
Gateway de control de medio. Los Gateway de señalización traducen los canales de datos en
protocolos de señalización compatibles con VoIP, como H.323 o SIP. Un Gateway de control de
medio proporciona el puente para el tránsito entre datos de redes PSTN y VoIP. Los MGC
controlan MG por medio de MGCP.
Dicho con otras palabras, MGCP es un protocolo que permite comunicar al MGC (también
conocido como Call Agent) con los Gateway de telefonía (PBX o PSTN). Este protocolo es de tipo
maestro-esclavo donde el MGC informa al MG qué hacer. Los mensajes MGCP viajan sobre UDP/IP
por la misma red de transporte IP con seguridad IPSec.
El formato de trabajo genera una inteligencia externa a la red (concentrada en el MGC) y donde la
red de conmutación está formada por routers de la red IP. El Gateway solo realiza funciones de
conversión vocal y genera un camino RTP entre extremos. La sesión de MGCP puede ser punto a
punto o multipunto. El protocolo MGCP entrega al Gateway la dirección IP, el puerto UDP y los
perfiles de RTP.
4. Cálculo de requerimientos de ancho de banda
El punto fundamental en el diseño de redes o rediseño de redes existentes para el transporte de
VoIP, es el cálculo del ancho de banda necesario para la prestación adecuada del servicio. El
requerimiento del ancho de banda necesario para el transporte de VoIP es el resultante de dos
factores:
1. el número de llamadas concurrentes. Es la estimación de la cantidad máxima de llamadas
simultáneas que se podrán gestionar en un enlace. Esta estimación debe considerar la
actual de llamadas telefónicas simultáneas entre diferentes puntos, como el posible
margen de crecimiento y las políticas de la organización al respecto.
2. el requerimiento de ancho de banda para gestionar cada conversación telefónica.
Cuando se implemente VoIP se asume un conjunto de elecciones que impactan en ese
requerimiento: códec, opciones de compresión, enlaces los que se rutearán las llamadas,
etc.
Para entender al método, se hará mediante un ejemplo que permita entenderlo más fácilmente.
Paso 1. Calcular el tamaño de las tramas de voz. Para esta tarea, se puede emplear el siguiente
procedimiento:
a) este parámetro es resultado del códec utilizado, que da como resultado el tamaño de la
porción de datos. A esto debe sumarse el tamaño de los encabezados de capa 4, capa 3 y
capa 2.
Tamaño de la trama = Payload + Encabezado 4 + Encabezado 3 + Encabezado 2
Por ejemplo, las tramas utilizadas al utilizar G.729 tienen una longitud de 20 Bytes, a eso
debemos sumarle los encabezados RTP, UDP e IP necesarios, que son 40 Bytes adicionales,
y luego el encabezado de capa de enlace, que suponiendo que se trata de una trama PPP
agrega 6 Bytes (al final del procedimiento se agregan las tablas de los valores necesarios):
Tamaño de trama = 20B + 40B + 6B = 66 Bytes
b) dado el peso del encabezado en el tamaño de la trama a transmitir, en enlaces de bajo
ancho de banda (menos de 768 Kbps) es conveniente aplicar compresión de los
encabezados de capa 3 y capa 4, lo que se suele denominar compresión de RTP (cRTP).
Esto reduce los 40 Bytes iniciales a 2 o 4. De este modo, el cálculo queda:
Tamaño de trama = 20B + 2B + 6B = 28 Bytes
c) a fin de continuar el cálculo, es conveniente convertir el tamaño expresado en Bytes a bits:
28 Bytes x 8 bits/Byte = 224 bits/trama
Paso 2. Calcular el ancho de banda requerido por una llamada:
a) los códecs actualmente utilizados para la digitalización de voz (G.711, G.728, G.729)
generan 50 tramas por segundo.
b) Para calcular el ancho de banda requerido para cada llamada se debe multiplicar el
tamaño de cada trama por la cantidad de tramas que se envían por segundo:
BW/llamada = tamaño de la trama x tramas por segundo
BW/llamada = 224 bits/trama x 50 tramas/seg = 11200 bps/llamada
Paso 3. Calcular el ancho de banda requerido en la implementación:
a) Se debe considerar primero el número de llamadas concurrentes y multiplicar el ancho de
banda requerido para cada llamada por el número de llamadas concurrentes:
BW requerido = BW/llamada x llamadas recurrentes
Para el ejemplo, supongamos que se trata de administrar un máximo de 10 llamadas
recurrentes generadas con el códec G.729 sobre un enlace PPP con cRTP:
BW requerido = 11,200 bps x 10 = 112,000 bps = 112 Kbps
Finalmente, es preciso tener en cuenta que:
-
El tamaño de la porción de datos depende del códec implementado.
La porción correspondiente a los encabezados de capa 3 y 4 está en función del enlace que
de que se trate. En este ejemplo se ha considerado PPP.
Cuando se implementa voz sobre VPN IPSec, se debe considerar el overhead
correspondiente a la implementación de IPSec que se esté aplicando.
Figura 15. Códecs y sus valores
Capa OSI
Tecnología
Encabezado
2
3
4
5
Sobrecarga
Ethernet
Frame Relay
PPP
802.1Q
IP
UDP
RTP
L2TP
MPLS
IPSec
(bytes)
18-20
4-6
6
22
20
8
20
24
4
50-57
Tabla 1. Tecnologías y valores de encabezados
5. Configuración de puertos e interfaces de voz en un router
Puertos FXS (Foreign eXchange Station)
Los puertos FXS conectan dispositivos finales. Generalmente, dispositivos analógicos como
teléfonos, fax o módems. También se les denomina interfaces de abonado, ya que se envía la línea
analógica hacia el abonado. Una interfaz FXS proporciona alimentación eléctrica, señalización de
llamada y tono al dispositivo terminal. Estas interfaces son las que permiten conectar un teléfono
analógico convencional a un router o central de telefonía IP, es decir, estas interfaces -o puertosemulan a una línea analógica tradicional.
Puerto FXO (Foreign eXchange Office)
Estos puertos actúan como enlaces troncales para la PSTN o PBX. Es el puerto que recibe la línea
analógica. Es la interfaz que permite conectar un dispositivo terminal a un servicio de telefonía
como PSTN o una PBX. Envía al sistema telefónico una señal de colgado o descolgado (cierre de
loop). Este puerto recibe las señales del puerto FXS. Un teléfono tiene un puerto FXO, es decir,
este puerto no envía señales de tono o timbrado, solo recibe las señales de los FXS.
FXS y FXO son siempre pares que se corresponde mutuamente: una interfaz FXS se conecta en el
otro extremo de la línea a una interfaz FXO.
Figura 16. Interfaces FXS y FXO
Cuando se instala una central telefónica (PBX), la línea telefónica se conecta al puerto FXO de la
PBX, la cual provee múltiples puertos FXS para conectar los teléfonos o aparatos de fax.
Figura 17. Interfaces FXS y FXO con una PBX
Gateway de voz
Es el dispositivo que permite interconectar la red PSTN o las PBX de telefonía tradicional con la red
IP. Este dispositivo puede ser un router o un PBX IP y debe contar con tantos puertos FXO como
líneas telefónicas desee acceder y puertos FXS como PBXs o teléfonos convencionales desee
conectar.
Figura 18. Gateway de Voz
Ejemplo
A partir de ahora, se revisará la configuración de un router Cisco IOS para operar como Gateway
de voz, definiendo un plan de marcación (dial plan) que permitirá utilizar la red de telefonía
pública como la red IP para el transporte de voz, usando el ejemplo que se muestra a
continuación:
Figura 19. Topología de ejemplo para configurar interfaces de voz
Como se puede observar en la figura 19, se tienen 2 routers Cisco conectados entre sí a través de
sus puertos seriales utilizando la subred 172.16.1.0/30. El router 1 tiene conectado un teléfono
analógico (interno 720) a través de un puerto FXS. El router 2 conecta a la PSTN usando un puerto
FXO y da acceso al interno 721 mediante un puerto FXS.
Para permitir la operación es necesario definir un plan de marcación. El código de configuración
mostrado es para el router 2:
!
interface Serial0/0/0
ip address 172.16.1.1 255.255.255.252
!
! Redirige una llamada dirigida al interno 720
! a través del enlace serial (sobre IP)
! hacia el Router1
dial-peer voice 1 voip
destination-pattern 720
session-target ipv4:172.16.1.2
!
! Una llamada al interno 721
! genera señal de ring en el puerto FXS
dial-peer voice 2 pots
destination-pattern 721
port 1/0/0
!
! Define dial-peer para acceso a línea externa
! Marcando 9 se obtiene línea
dial-peer voice 3 pots
destination-pattern 9
port 2/0/0
!
Cada número de interno definido requiere de un "destination-pattern" que define el ID que se
recibe. Cuando se trata de una comunicación telefónica tradicional, a ese destination-pattern se
asocia el puerto de voz correspondiente, es el caso por ejemplo del interno 721.Cuando se trata
de destination-pattern cuyo tráfico debe encaminarse a través de la red IP se define la dirección IP
de destino del dispositivo en el cual se encuentra conectado ese interno, como es el caso del
interno 720.
6. Protocolo H.323
La Unión Internacional de Telecomunicaciones (ITU-T) originalmente creo el protocolo H.323 para
permitir la transmisión de voz, video y datos a través de conexiones ISDN. Ahora ha sido adaptado
para trabajar en ambientes LAN. Los diseñadores de H.323 lo crearon como un protocolo punto a
punto. Esto, le permite a cada dispositivo que ejecuta H.323 una completa independencia de otros
dispositivos. Esto permite configurar cada dispositivo H.323 independientemente y evitar
“reliance” sobre cualquier otro dispositivo para una operación normal. De esta forma, si el
Gateway H.323 pierde comunicación con otros routers, continúa operando y proporciona soporte
a dispositivos de voz sin perder ninguna capacidad de procesamiento de llamadas. La desventaja
de este diseño punto a punto es la cantidad de configuración que debe realizarse en cada
dispositivo. Dado que se configura cada Gateway H.323 independientemente de los demás, se
necesita un conocimiento completo de la red.
Figura 20. Topología con Gateway H.323
Por ejemplo, considere la red mostrada en la figura 20. En esta red, necesitaría configurar cada
Gateway H.323 para conocer acerca de todas las extensiones de las oficinas remotas. Por ejemplo,
sería necesario configurar el Gateway 1 para apuntar a la IP 10.1.1.2 y alcanzar las extensiones
2XXX, apuntar a la 10.1.1.3 para alcanzar las extensiones 3XXX y apuntar a la 10.1.1.4 para alcanzar
las extensiones 4XXX. Sería necesario entonces repetir este proceso en cada uno de los Gateway
H.323 para alcanzar a las demás oficinas. Por último, imagine que su red crece de 4 a 10 o hasta 20
oficinas remotas, la cantidad de configuración de cada uno de estos dispositivos de voz podría
volverse muy difícil de administrar.
Esta configuración se puede facilitar al implementar un Gatekeeper H.323 (también aparece en la
figura 20). Este dispositivo actúa como punto de referencia central en la red H.323 para números
de teléfono, control de acceso y administración de ancho de banda. Por ejemplo, si fuera
necesario configurar la red mostrada en la figura 20 utilizando un gatekeeper, solamente este
dispositivo requeriría conocimiento completo de la red. De esta forma, se configuran los Gateways
para “preguntar” al gatekeeper por la ubicación y los números de marcación en el momento en
que lo necesiten para alcanzar otro dispositivo en la red. Además de actuar como directorio
telefónico en la red, el gatekeeper también provee control para el ingreso de llamadas (CAC – Call
Admission Control) y administración de ancho de banda. Un Gateway no solo pregunta al
gatekeeper por una extensión telefónica dada, sino también pregunta: “¿Estoy autorizado para
hacer esta llamada?” (CAC) y “¿Hay suficiente ancho de banda para hacerla?”. De esta forma, se
habilita a un dispositivo para que administre el ancho de banda disponible en la WAN asegurando
que cada enlace no esté saturado de tráfico.
El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana,
regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15
del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de
comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de
conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese
que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y
RDSI.En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP.
Componentes H.323
• Entidad
La especificación H.323 define el término genérico entidad como cualquier componente que
cumpla con el estándar.
• Extremo
Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede generar
y/o recibir secuencias de información.
• Terminal
Un terminal H.323 es un extremo de la red que proporciona comunicaciones bidireccionales en
tiempo real con otro terminal H.323, gateway o unidad de control multipunto (MCU). Esta
comunicación consta de señales de control, indicaciones, audio, imagen en color en movimiento
y/o datos entre los dos terminales. Conforme a la especificación, un terminal H.323 puede
proporcionar sólo voz, voz y datos, voz y vídeo, o voz, datos y vídeo.
• Gatekeeper
El gatekeeper (GK) es una entidad que proporciona la traducción de direcciones y el control de
acceso a la red de los terminales H.323, gateways y MCUs. El GK puede también ofrecer otros
servicios a los terminales, gateways y MCUs, tales como gestión del ancho de banda y localización
de los gateways o pasarelas. El Gatekeeper realiza dos funciones de control de llamadas que
preservan la integridad de la red corporativa de datos. La primera es la traslación de direcciones
de los terminales de la LAN a las correspondientes IP o IPX, tal y como se describe en la
especificación RAS. La segunda es la gestión del ancho de banda, fijando el número de
conferencias que pueden estar dándose simultáneamente en la LAN y rechazando las nuevas
peticiones por encima del nivel establecido, de manera tal que se garantice ancho de banda
suficiente para las aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las
funciones anteriores para los terminales, Gateways y MCUs, que están registrados dentro de la
denominada Zona de control H.323.
Figura 21. Arquitectura H.323
• Gateway
Un gateway H.323 (GW) es un extremo que proporciona comunicaciones bidireccionales en
tiempo real entre terminales H.323 en la red IP y otros terminales o gateways en una red
conmutada. En general, el propósito del gateway es reflejar transparentemente las características
de un extremo en la red IP a otro en una red conmutada y viceversa.
• MCU (Multipoint Control Units)
La unidad de control multipunto está diseñada para soportar la conferencia entre tres o más
puntos bajo el estándar H.323, llevando la negociación entre terminales para determinar las
capacidades comunes para el proceso de audio y video y controlar la multidifusión.
La comunicación bajo H.323 contempla las señales de audio y video. La señal de audio se digitaliza
y se comprime bajo los algoritmos soportados, tales como G.711 o G.723, y la señal de video
(opcional) se trata con la norma H.261 o H.263. Los datos (opcional) se manejan bajo el estándar
T.120 que permite la compartición de aplicaciones en conferencias punto a punto y multipunto.
Ejemplo H.323
A continuación se analizará detalladamente una llamada. En una llamada H.323 hay varias fases
como se indica en el siguiente gráfico y varios protocolos cada uno de un color.
Figura 22. Fases de una llamada H.323
Una llamada H.323 se caracteriza por las siguientes fases:
1. ESTABLECIMIENTO
-
-
-
En esta fase lo primero que se observa es que uno de los terminales se registra en el
gatekeeper utilizando el protocolo RAS (Registro, admisión y estado) con los mensajes
ARQ y ACF.
Posteriormente utilizando el protocolo H.225 (que se utiliza para establecimiento y
liberación de la llamada) se manda un mensaje de SETUP para iniciar una llamada H.323.
Entre la información que contiene el mensaje se encuentra la dirección IP, puerto y alias
del llamante o la dirección IP y puerto del llamado.
El terminal llamado contesta con un CALL PROCEEDING advirtiendo del intento de
establecer una llamada.
En este momento el segundo terminal tiene que registrarse con el gatekeeper utilizando el
protocolo RAS de manera similar al primer terminal
El mensaje ALERTING indica el inicio de la fase de generación de tono.
Y por último CONNECT indica el comienzo de la conexión.
2. SEÑALIZACIÓN DE CONTROL
-
-
En esta fase se abre una negociación mediante el protocolo H.245 (control de
conferencia), el intercambio de los mensajes (petición y respuesta) entre los dos
terminales establecen quién será master y quién slave, las capacidades de los
participantes y codecs de audio y video a utilizar. Como punto final de esta negociación se
abre el canal de comunicación (direcciones IP, puerto).
Los principales mensajes H.245 que se utilizan en esta fase son:
o TerminalCapabilitySet (TCS). Mensaje de intercambio de capacidades soportadas
por los terminales que intervienen en una llamada.
o OpenLogicalChannel (OLC). Mensaje para abrir el canal lógico de información que
contiene información para permitir la recepción y codificación de los datos.
Contiene la información del tipo de datos que será transportados.
3. AUDIO
Los terminales inician la comunicación y el intercambio de audio (o video) mediante el protocolo
RTP/RTCP.
4. DESCONEXIÓN
-
-
En esta fase cualquiera de los participantes activos en la comunicación puede iniciar el
proceso de finalización de llamada mediante mensajes CloseLogicalChannel y
EndSessionComand de H.245.
Posteriormente utilizando H.225 se cierra la conexión con el mensaje RELEASE COMPLETE
Por último se liberan los registros con el gatekeeper utilizando mensajes del protocolo RAS
Para saber más…
Cioara J. (2009). CCNA Voice Official Exam Certification Guide. Pearson Education. Cisco Press.
ISBN 987-158720-2070.
Unidad IV. Tecnologías WAN
Objetivo. El alumno integrará las tecnologías WAN y de banda ancha en las comunicaciones
actuales para adaptarlas a las necesidades de las empresas.
1. Servicios de banda ancha y 3G
En telecomunicaciones, se conoce como banda ancha a la transmisión de datos en la cual se envía
simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de
transmisión efectiva. En ingeniería de redes, este término se utiliza también para los métodos en
donde dos o más señales comparten un medio de transmisión. Banda base es la señal de una sola
transmisión en un canal, banda ancha significa que lleva más de una señal y cada una de ellas se
transmite en diferentes canales, hasta su número máximo de canal.
Algunas de las variantes de los servicios de Línea Digital de Suscriptor (DSL – Digital Subscriber
Line) son de banda ancha en el sentido de que los datos se envían por un canal y la voz por otro
canal pero compartiendo el mismo par de cables.
El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La
Comisión Federal de Comunicaciones de los Estados Unidos (FCC, por sus siglas en inglés) define al
servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por
segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada
(del Internet a la computadora del usuario) o de subida (de la computadora del usuario al
Internet).
Tipos de conexiones de banda ancha

Línea Digital de Suscriptor (DSL)
La Línea Digital de Suscriptor (DSL, por sus siglas en inglés) es una tecnología de transmisión
telefónica que transmite datos más rápido a través de las líneas telefónicas de cobre ya instaladas
en casas y empresas. La banda ancha de DSL proporciona velocidades de transmisión que van
desde varios cientos de kilobits por segundo (Kbps) hasta millones de bits por segundo (Mbps). La
disponibilidad y velocidad de su servicio de DSL puede depender de la distancia que hay entre su
casa o negocio a las instalaciones más próximas de la compañía de teléfonos.
Algunos tipos de tecnologías de transmisión de la DSL son:
o
o
Línea digital asimétrica de suscriptor (ADSL, por sus siglas en inglés) - es usada
principalmente por usuarios en residencias que reciben una gran cantidad de
datos pero no mandan muchos datos, como son las personas que navegan por
Internet. La ADSL proporciona una velocidad más rápida en la transferencia de
datos que bajan a la computadora del cliente que en la transferencia de datos que
suben a la central telefónica. El ADSL permite una transmisión de datos de bajada
más rápida a través de la misma línea que usa para proveer el servicio de voz, sin
interrumpir las llamadas telefónicas regulares en esa línea.
Línea digital simétrica de suscriptor (SDSL, por sus siglas en inglés) - se usa
típicamente en los negocios para servicios tales como video conferencias que
necesitan un ancho de banda importante para la transmisión de datos de subida y
bajada.
Algunas formas más rápidas de DSL disponibles típicamente para empresas son:
o
o

Línea digital de suscriptor de alta velocidad (HDSL, por sus siglas en inglés); y
Línea digital de suscriptor de muy alta velocidad (VDSL, por sus siglas en inglés).
Módem de Cable
El servicio de módem de cable permite a los operadores de cable suministrar acceso a Internet de
alta velocidad usando los cables coaxiales que envían imágenes y sonidos a su televisor.
La mayoría de los módems de cable son dispositivos externos que tienen dos conectores, uno en la
salida de pared del cable y el otro en la computadora. La velocidad de transmisión de datos es de
1.5 Mbps o más.
Los suscriptores pueden tener acceso al servicio de módem de cable simplemente prendiendo sus
computadores sin tener que marcar al proveedor del servicio de Internet (ISP, por sus siglas en
inglés). Podrá ver la TV por cable y usar el Internet al mismo tiempo. Las velocidades de
transmisión varían dependiendo del tipo de módem de cable, red del cable y carga de tráfico. Las
velocidades son comparables con la DSL.

Fibra óptica
La fibra o fibra óptica es una tecnología muy nueva que proporciona servicio de banda ancha. La
tecnología de fibra óptica convierte las señales eléctricas que llevan los datos en luz y envía la luz a
través de fibras de vidrio transparentes con un diámetro cercano al del cabello humano. La fibra
transmite los datos a velocidades muy superiores a las velocidades de la DSL o módem de cable
actuales, normalmente en diez o cien veces más Mbps.
La velocidad real que experimenta variará dependiendo de diversos factores como qué tan cerca
lleva su proveedor de servicio la fibra a su computadora y la forma como configura el servicio,
incluyendo la cantidad de ancho de banda utilizada. La misma fibra que provee su banda ancha
puede también simultáneamente suministrar servicios de telefonía por Internet (VoIP) y de vídeo,
incluyendo vídeo según demanda.
Los proveedores de servicios de telecomunicaciones (en su mayoría compañías telefónicas) están
ofreciendo banda ancha por fibra óptica en áreas limitadas y han anunciado planes para ampliar
sus redes de fibra y ofrecer un paquete de servicios de voz, acceso a Internet y vídeo.
Las variantes de esta tecnología permiten que la fibra llegue hasta el hogar o empresa del cliente,
hasta la esquina de su casa o algún lugar entre las instalaciones del proveedor y el cliente.

Inalámbrica
La banda ancha inalámbrica conecta su casa o negocio a Internet usando un enlace de radio entre
la localidad del cliente y las instalaciones del proveedor del servicio. La banda ancha inalámbrica
puede ser móvil o fija.
Las tecnologías inalámbricas que usan equipo direccional con un rango mayor proveen el servicio
de banda ancha en áreas remotas o muy poco pobladas donde el servicio de la DSL o del módem
de cable sería muy costoso. Generalmente las velocidades son comparables a las de la DSL y el
módem de cable. Normalmente se requiere de una antena externa.
Cada vez es más frecuente el servicio de banda ancha inalámbrica fija en aeropuertos, parques de
la ciudad, bibliotecas y otros lugares públicos llamados "hotspots". Los "hotspots" usan
generalmente una tecnología de rango corto con velocidades de transmisión de hasta 54 Mbps. La
tecnología de fidelidad inalámbrica (Wi-Fi) se usa con frecuencia también en conjunto con el
servicio de la DSL o módem de cable para conectar los dispositivos de una casa o negocio al
Internet vía una conexión de banda ancha.
Los servicios de banda ancha inalámbrica móvil se pueden obtener también de compañías de
telefonía móvil y otros. Estos servicios generalmente son adecuados para los clientes que tienen
mucha movilidad y requieren una tarjeta especial para PC con una antena integrada que se
conecta a la computadora portátil del usuario. Generalmente proveen velocidades menores de
transmisión en el rango de varios cientos de Kbps.

Satélite
Así como los satélites que giran alrededor de la tierra proveen los enlaces necesarios para los
servicios de telefonía y televisión, también proveen enlaces para la banda ancha. La banda ancha
por satélite es otra forma de banda ancha inalámbrica, muy útil también para dar servicio a áreas
remotas o muy poco pobladas.
Las velocidades de transmisión de datos de subida y bajada para la banda ancha por satélite
dependen de varios factores, incluyendo el paquete de servicios que se compra y el proveedor, la
línea de visibilidad directa del consumidor al satélite y el clima. Normalmente un consumidor
puede esperar recibir (descargar) los datos a una velocidad de aproximadamente 500 Kbps y
enviarlos (cargar) a una velocidad de aproximadamente 80 Kbps. Estas velocidades pueden ser
menores que las que se tienen con la DSL o el módem de cable, pero la velocidad para descargar
los datos es aproximadamente 10 veces más rápida que la velocidad que se tiene con el Internet
de marcación telefónica. El servicio puede interrumpirse en condiciones climáticas severas.

Banda ancha por la línea eléctrica (BPL)
La banda ancha por la línea eléctrica (BPL, por sus siglas en inglés) es el servicio que se
proporciona a través de la red existente de distribución de energía eléctrica de bajo y medio
voltaje. Las velocidades de transmisión de la BPL son comparables a las de la DSL y el módem de
cable. La BPL puede llegar a las casas usando las conexiones y salidas eléctricas existentes.
La BPL es una tecnología emergente, actualmente disponible en áreas muy limitadas. Tiene un
potencial significativo ya que las líneas eléctricas están instaladas virtualmente en todos lados,
aliviando la necesidad de construir nuevas instalaciones de banda ancha para cada consumidor.
Tecnología 3G
La tecnología 3G (tecnología inalámbrica de tercera generación) es un servicio de comunicaciones
inalámbricas que le permite estar conectado permanentemente a Internet a través del teléfono
móvil, computadoras de bolsillo, el Tablet PC o una computadora portátil. La tecnología 3G
promete una mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho
de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con
velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que una conexión
telefónica estándar. Lo que permite que podamos tener video llamadas, dado que dichas llamadas
se harán con una conexión directa a internet.
Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos
de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los
empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se
encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que
puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede
automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones.
2. Estándares WAN
Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente
grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de
servicios como las telefónicas. Las tecnologías WAN operan en las 3 capas inferiores del modelo
OSI.
Con frecuencia las organizaciones desean compartir información con otras organizaciones que se
encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel
nacional o mundial de la misma manera en que las computadoras de una LAN se conectan con
cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está
utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para
algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan
seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de
redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares
satisfacer sus necesidades de comunicaciones de área extensa.
Redes WAN y modelo OSI
Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se
centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen
tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos,
incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la
administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas,
entre ellas la Organización Internacional de Normalización (ISO), la Asociación de la Industria de las
Telecomunicaciones (TIA, Telecommunications Industry Association) y la Asociación de Industrias
Electrónicas (EIA, Electronic Industries Alliance).
Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones
eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de
servicios de comunicaciones.
Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan
los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas
resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos
de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de
datos de alto nivel (HDLC, High‐Level Data Link Control), una norma ISO o uno de sus subgrupos o
variantes.
Figura 23. Modelo OSI y Tecnologías WAN
Terminología de la capa física de la WAN
Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización
debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una
portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una
operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de
otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la
WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La
imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la
WAN, por ejemplo:




Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado
interno localizados en las instalaciones del suscriptor y conectados con un canal de
telecomunicaciones de una portadora. El suscriptor es dueño de un CPE o le alquila un CPE
al proveedor de servicios. En este contexto, un suscriptor es una empresa que contrata los
servicios WAN de un proveedor de servicios u operadora.
Equipo de comunicación de datos (DCE, Data Communications Equipment): también
llamado equipo de terminación de circuito de datos, el DCE está compuesto por
dispositivos que ponen datos en el bucle local. La tarea principal del DCE es suministrar
una interfaz para conectar suscriptores a un enlace de comunicación en la nube WAN.
Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que
pasan los datos de la red o la computadora host de un cliente para transmisión a través de
la WAN. El DTE se conecta al bucle local a través del DCE.
Punto de demarcación: punto establecido en un edificio o un complejo para separar los
equipos del cliente de los equipos del proveedor de servicios. Físicamente, el punto de
demarcación es la caja de empalme del cableado que se encuentra en las instalaciones del
cliente y que conecta los cables del CPE con el bucle local. Normalmente se coloca en un
lugar de fácil acceso para los técnicos.
PPPoE y PPPoA
PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre
dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos
que estén conectados. Estándar oficial RFC 2516 (PPPoE)
PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre
una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de
conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de
Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen
automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364
(PPPoA)
El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL.
Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos.
Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las
transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC‐MUX y LLC.
Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la
LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de
direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como
servidor DHCP.
Dispositivos WAN
Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN,
entre ellos:
o
o
o
o
Módem: modula una señal portadora analógica para codificar información digital y demodula
la señal portadora para decodificar la información transmitida.
CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad
de servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data
service unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo,
llamada CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la
integridad de la conexión mediante la corrección de errores y la supervisión de la línea. La DSU
convierte las tramas de la línea Portadora T en tramas que la LAN puede interpretar y
viceversa.
Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con
marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales
y admitir a cientos de usuarios al mismo tiempo.
Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes
portadoras. Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay,
ATM o X.25, y operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la
nube también es posible utilizar switches de red pública de telefonía conmutada (PSTN, Public
o
Switched Telephone Network) para conexiones de conmutación de circuitos, por ejemplo red
digital de servicios integrados (ISDN, Integrated Services Digital Network) o conexión
telefónica analógica.
Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para
conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones
seriales u otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo
externo, como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router
al punto de presencia (POP, point of presence) local del proveedor de servicios.
Estándares de la capa física de una WAN
Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas,
mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también
describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa
física, entre ellos:
o
o
o
o
o
EIA/TIA‐232: este protocolo permite velocidades de señal de hasta 64 Kbps en un conector
D de 25 pins en distancias cortas. Antiguamente denominado RS‐232. La especificación
ITU‐T V.24 es en efecto lo mismo.
EIA/TIA‐449/530: este protocolo es una versión más rápida (hasta 2 Mbps) del
EIA/TIA‐232. Utiliza un conector D de 36 pins y admite cables más largos. Existen varias
versiones. Este estándar también se conoce como RS‐422 y RS‐423.
EIA/TIA‐612/613: este estándar describe el protocolo de interfaz serial de alta velocidad
(HSSI, High‐Speed Serial Interface), que brinda acceso a servicios de hasta 52 Mbps en un
conector D de 60 pins.
V.35: este es el estándar de ITU‐T para comunicaciones síncronas entre un dispositivo de
acceso a la red y una red de paquetes. Originalmente especificado para soportar
velocidades de datos de 48 kbps, en la actualidad soporta velocidades de hasta 2.048
Mbps con un conector rectangular de 34 pins.
X.21: este protocolo es un estándar de UIT‐T para comunicaciones digitales síncronas.
Utiliza un conector D de 15 pins.
Protocolos de enlace de datos
Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su
transmisión a lugares remotos, así como también los mecanismos de transferencia de las tramas
resultantes. Se utiliza una variedad de tecnologías diferentes, como ISDN, Frame Relay o ATM.
Muchos de estos protocolos utilizan los mismos mecanismos básicos de entramado, HDLC, un
estándar ISO o uno de sus subgrupos o variantes. ATM se diferencia de los demás porque utiliza
celdas pequeñas de un tamaño fijo de 53 bytes (48 bytes para datos), mientras que las demás
tecnologías de conmutación de paquetes utilizan paquetes de tamaño variable.
Los protocolos de enlace de datos WAN más comunes son:




HDLC
PPP
Frame Relay
ATM
ISDN y X.25 son protocolos de enlace de datos más antiguos que en la actualidad se utilizan con
menor frecuencia. Sin embargo, ISDN se sigue incluyendo en este curso porque se utiliza para
proporcionar redes VoIP con enlaces PRI. X.25 se menciona para ayudar a explicar la importancia
de Frame Relay.
Frame Relay
Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que
envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una
empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La
línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean
económicas entre LAN muy dispersas.
Unidad V. Switches multicapa
Objetivo. El alumno configurará switches multicapa aplicando los protocolos de capa 2 y 3 para
mejorar el rendimiento de la red.
1. Introducción a los switches multicapa
Un switch multicapa (multilayer switch) es un dispositivo que integra funciones de conmutación y
enrutamiento basado en hardware dentro de una misma plataforma. Un switch multicapa realiza,
a una trama y un paquete, lo que hacen los switches y routers tradicionales, incluyendo:









Proveer múltiples rutas simultáneas.
Segmentar dominios de broadcast.
Proveer reenvío de tramas a un destino específico basados en información de capa 2.
Determinar la ruta de reenvío basado en información de capa 3.
Validar la integridad de la trama de capa 2 y el paquete de capa 3 a través de sumas de
verificación (checksums) y otros métodos.
Verificar la expiración del paquete y sus actualizaciones.
Tener la habilidad de soportar QoS.
Tener la habilidad de soportar VoIP.
Entre otros.
Debido a que son diseñados para manejar tráfico LAN de alto rendimiento, un switch multicapa
puede ser ubicado en cualquier lugar dentro de la red, reemplazando a los switches y routers
tradicionales.
Mientras que muchos switches operan a nivel 2 (enlace de datos) según el modelo OSI, algunos
incorporan funciones de router y operan a nivel 3 (red) también. De hecho, un multilayer switch o
switch de nivel 3 es increíblemente similar a un router. Cuando un router recibe un paquete, mira
dentro de él y verifica las direcciones de origen y destino para determinar el camino que el
paquete debería tomar. Un switch estándar relega en la dirección MAC para determinar el origen y
destino de un paquete, lo cual es puramente nivel 2.
La diferencia fundamental entre un router y un multilayer switch es que estos últimos tienen
hardware optimizado para pasar datos igual de rápido que los switches de nivel 2. Sin embargo,
toman decisiones de cómo debe ser transmitido el tráfico a nivel 3, igual que un router. Dentro de
un entorno LAN, un multilayer switch es normalmente más rápido que un router porque está
construido en la electrónica que usan los switches.
La manera que tienen los multilayer switches de tratar los paquetes y gestionar el tráfico es muy
similar a la de los routers. Ambos usan un protocolo de enrutamiento y una tabla de rutas para
determinar el mejor camino. Sin embargo, un switch de nivel 3 tiene la habilidad de reprogramar
el hardware de una forma dinámica con la información de rutas que tiene. Esto es lo que le
permite procesar los paquetes mucho más deprisa. En los multilayer switches actuales, la
información que se recibe de los protocolos de routing, es usada para actualizar las tablas
hardware de almacenamiento caché.
Normalmente estos equipos se usan compañías para uso interno donde hacen de punto central de
comunicaciones en edificio, comunicándolo con otros edificios o nodos. Tienen las típicas tarjetas
de red donde los usuarios se pueden conectar a sus puertos, y una tarjeta que hace la función de
enrutar tráfico a nivel 3. Decimos que hacen de punto central porque también suele interconectar
otros switches de nivel 2 que están distribuidos por las plantas del edificio.
2. VLANs
Básicamente, una vlan es una colección de nodos que están agrupadas en un solo dominio
broadcast, el cual no está limitado estrictamente a una localización física. Los routers no pasan los
broadcast o paquetes de amplia difusión.
Un dominio broadcast es una red, o porción de red, que recibirá un paquete broadcast de
cualquier nodo localizado dentro de la red. En una red típica, todo lo que está en el mismo lado del
router, forma parte del mismo dominio broadcast. En un switch donde se han creado muchas
vlans, tiene múltiples dominios broadcast. Aun así, se sigue necesitando un router, o un multilayer
switch, para realizar un enrutamiento de paquetes de una vlan a otra – el switch no puede hacer
esto por sí mismo.
Una Red de Área Local Virtual (VLAN) puede definirse como una serie de dispositivos conectados
en red que a pesar de estar conectados en diferentes equipos de interconexión (hubs o switches),
zonas geográficas distantes, diferentes pisos de un edificio e, incluso, distintos edificios,
pertenecen a una misma Red de Área Local.
Con los switches, el rendimiento de la red mejora en los siguientes aspectos:






Aísla los “dominios de colisión” por cada uno de los puertos.
Dedica el ancho de banda a cada uno de los puertos y, por lo tanto, a cada computadora.
Aísla los “dominios de broadcast”, en lugar de uno solo, se puede configurar el switch para
que existan más “dominios”.
Proporciona seguridad, ya que si se quiere conectar a otro puerto del switch que no sea el
suyo, no va a poder realizarlo, debido a que se configuraron cierta cantidad de puertos
para cada VLAN.
Controla más la administración de las direcciones IP. Por cada VLAN se recomienda asignar
un bloque de IPs, independiente uno de otro, así ya no se podrá configurar por parte del
usuario cualquier dirección IP en su máquina y se evitará la repetición de direcciones IP en
la LAN.
No importa en donde nos encontremos conectados dentro del edificio de oficinas, si
estamos configurados en una VLAN, nuestros compañeros de área, dirección, sistemas,
administrativos, etc., estarán conectados dentro de la misma VLAN, y quienes se
encuentren en otro edificio, podrán “vernos” como una Red de Área Local independiente
a las demás.
El funcionamiento e implementación de las VLANs está definido por un organismo internacional
llamado IEEE Computer Society y el documento en donde se detalla es el IEEE 802.1Q. En el
estándar 802.1Q se define que para llevar a cabo esta comunicación se requerirá de un dispositivo
dentro de la LAN, capaz de entender los formatos de los paquetes con que están formadas las
VLANs. Este dispositivo es un equipo de capa 3, mejor conocido como enrutador o router, que
tendrá que ser capaz de entender los formatos de las VLANs para recibir y dirigir el tráfico hacia la
VLAN correspondiente
Una VLAN es una subred IP separada de manera lógica. Las VLAN permiten que redes de IP y
subredes múltiples existan en la misma red conmutada. La figura 24 muestra una red con tres
computadoras. Para que las computadoras se comuniquen en la misma VLAN, cada una debe
tener una dirección IP y una máscara de subred consistente con esa VLAN. En el switch deben
darse de alta las VLANs y cada puerto asignarse a la VLAN correspondiente. Un puerto de switch
con una VLAN singular configurada en el mismo se denomina puerto de acceso. Recuerde que si
dos computadoras están conectadas físicamente en el mismo switch no significa que se puedan
comunicar. Los dispositivos en dos redes y subredes separadas se deben comunicar a través de un
router (Capa 3), se utilicen o no las VLAN. No necesita las VLAN para tener redes y subredes
múltiples en una red conmutada, pero existen ventajas reales para utilizar las VLAN.
Figura 24. VLANs
Ventajas de las VLAN
La productividad del usuario y la adaptabilidad de la red son impulsores clave para el crecimiento y
el éxito del negocio. La implementación de la tecnología de VLAN permite que una red admita de
manera más flexible las metas comerciales. Los principales beneficios de utilizar las VLAN son los
siguientes:




Seguridad: los grupos que tienen datos sensibles se separan del resto de la red,
disminuyendo las posibilidades de que ocurran violaciones de información confidencial.
Como se ve en la figura 25, las computadoras del cuerpo docente se encuentran en la
VLAN 10 y están completamente separadas del tráfico de datos del Invitado y de los
estudiantes.
Reducción de costo: el ahorro en el costo resulta de la poca necesidad de actualizaciones
de red caras y más usos eficientes de enlaces y ancho de banda existente.
Mejor rendimiento: la división de las redes planas de Capa 2 en múltiples grupos lógicos de
trabajo (dominios de broadcast) reduce el tráfico innecesario en la red y potencia el
rendimiento.
Mitigación de la tormenta de broadcast: la división de una red en las VLAN reduce la
cantidad de dispositivos que pueden participar en una tormenta de broadcast. La
segmentación de LAN impide que una tormenta de broadcast se propague a toda la red.


En la figura 25 puede observar que, a pesar de que hay seis computadoras en esta red, hay
sólo tres dominios de broadcast: Cuerpo docente, Estudiante y Invitado .
Mayor eficiencia del personal de TI: las VLAN facilitan el manejo de la red debido a que los
usuarios con requerimientos similares de red comparten la misma VLAN. Cuando
proporciona un switch nuevo, todas las políticas y procedimientos que ya se configuraron
para la VLAN particular se implementan cuando se asignan los puertos. También es fácil
para el personal de TI identificar la función de una VLAN proporcionándole un nombre. En
la figura 25, para una identificación más fácil se nombró "Estudiante" a la VLAN 20, la
VLAN 10 se podría nombrar "Cuerpo docente" y la VLAN 30 "Invitado ".
Administración de aplicación o de proyectos más simples: las VLAN agregan dispositivos de
red y usuarios para admitir los requerimientos geográficos o comerciales. Tener funciones
separadas hace que gestionar un proyecto o trabajar con una aplicación especializada sea
más fácil, por ejemplo una plataforma de desarrollo de e-learning para el cuerpo docente.
También es fácil determinar el alcance de los efectos de la actualización de los servicios de
red.
Figura 25. Ventajas de las VLANs
Tipos de VLAN
Hoy en día, existe fundamentalmente una manera de implementar las VLAN: VLAN basada en
puerto. Una VLAN basada en puerto se asocia con un puerto denominado acceso VLAN.
Sin embargo, en las redes existe una cantidad de términos para las VLAN. Algunos términos
definen el tipo de tráfico de red que envían y otros definen una función específica que desempeña
una VLAN. A continuación, se describe la terminología común de VLAN:
VLAN de Datos
Una VLAN de datos es una VLAN configurada para enviar sólo tráfico de datos generado por el
usuario. Una VLAN podría enviar tráfico basado en voz o tráfico utilizado para administrar el
switch, pero este tráfico no sería parte de una VLAN de datos. Es una práctica común separar el
tráfico de voz y de administración del tráfico de datos. La importancia de separar los datos del
usuario del tráfico de voz y del control de administración del switch se destaca mediante el uso de
un término específico para identificar las VLAN que sólo pueden enviar datos del usuario: una
"VLAN de datos". A veces, a una VLAN de datos se la denomina VLAN de usuario.
VLAN Predeterminada
Todos los puertos de switch se convierten en un miembro de la VLAN predeterminada luego del
arranque inicial del switch. Hacer participar a todos los puertos de switch en la VLAN
predeterminada los hace a todos parte del mismo dominio de broadcast. Esto admite cualquier
dispositivo conectado a cualquier puerto de switch para comunicarse con otros dispositivos en
otros puertos de switch. La VLAN predeterminada para los switches de Cisco es la VLAN 1. La VLAN
1 tiene todas las características de cualquier VLAN, excepto que no la puede volver a denominar y
no la puede eliminar. El tráfico de control de Capa 2, como CDP y el tráfico del protocolo spanning
tree se asociará siempre con la VLAN 1: esto no se puede cambiar.
VLAN Nativa
Una VLAN nativa está asignada a un puerto troncal 802.1Q. Un puerto de enlace troncal 802.1Q
admite el tráfico que llega de muchas VLAN (tráfico etiquetado) como también el tráfico que no
llega de una VLAN (tráfico no etiquetado). El puerto de enlace troncal 802.1Q coloca el tráfico no
etiquetado en la VLAN nativa. Las VLAN se establecen en la especificación IEEE 802.1Q para
mantener la compatibilidad retrospectiva con el tráfico no etiquetado común para los ejemplos de
LAN antigua. Una VLAN nativa sirve como un identificador común en extremos opuestos de un
enlace troncal. Es una optimización usar una VLAN diferente de la VLAN 1 como la VLAN nativa.
VLAN de Administración
Una VLAN de administración es cualquier VLAN que usted configura para acceder a las
capacidades de administración de un switch. La VLAN 1 serviría como VLAN de administración si
no definió proactivamente una VLAN única para que sirva como VLAN de administración. Se asigna
una dirección IP y una máscara de subred a la VLAN de administración. Se puede manejar un
switch mediante HTTP, Telnet, SSH o SNMP. Debido a que la configuración lista para usar de un
switch de Cisco tiene a VLAN 1 como la VLAN predeterminada, puede notar que la VLAN 1 sería
una mala opción como VLAN de administración; no querría que un usuario arbitrario se conectara
a un switch para que se configurara de manera predeterminada la VLAN de administración.
VLAN de voz
Es fácil apreciar por qué se necesita una VLAN separada para admitir la Voz sobre IP (VoIP).
Imagine que está recibiendo una llamada de urgencia y de repente la calidad de la transmisión se
distorsiona tanto que no puede comprender lo que está diciendo la persona que llama. El tráfico
de VoIP requiere:




Ancho de banda garantizado para asegurar la calidad de la voz
Prioridad de la transmisión sobre los tipos de tráfico de la red
Capacidad para ser enrutado en áreas congestionadas de la red
Demora de menos de 150 milisegundos (ms) a través de la red
Para cumplir estos requerimientos, se debe diseñar la red completa para que admita VoIP. Los
detalles sobre cómo configurar una red para que admita VoIP están más allá del alcance del curso,
pero es útil resumir cómo una VLAN de voz funciona entre un switch, un teléfono IP de Cisco y una
computadora.
En la figura 26, la VLAN 150 se diseña para enviar tráfico de voz. La computadora del estudiante
PC5 está conectada al teléfono IP de Cisco y el teléfono está conectado al switch S3. La PC5 está en
la VLAN 20 que se utiliza para los datos de los estudiantes. El puerto F0/18 en S3 se configura para
que esté en modo de voz a fin de que diga al teléfono que etiquete las tramas de voz con VLAN
150. Las tramas de datos que vienen a través del teléfono IP de Cisco desde la PC5 no se marcan.
Los datos que se destinan a la PC5 que llegan del puerto F0/18 se etiquetan con la VLAN 20 en el
camino al teléfono, que elimina la etiqueta de la VLAN antes de que los datos se envíen a la PC5.
Etiquetar se refiere a la adición de bytes a un campo en la trama de datos que utiliza el switch para
identificar a qué VLAN se debe enviar la trama de datos.
Figura 26. VLAN de Voz
VLAN por Puerto
Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN ‐un puerto solo puede
pertenecer a una VLAN ‐, el problema se presenta cuando se quieren hacer VLAN por MAC ya que
la tarea es compleja. Aquí el puerto del switch pertenece a una VLAN, por tanto, si alguien posee
un servidor conectado a un puerto y este pertenece a la VLAN amarilla, el servidor estará en la
VLAN amarilla.
VLAN por MAC
Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario pertenezca a una
determinada VLAN. Obviamente dependerá de la política de creación. Este tipo de VLAN ofrece
mayores ventajas, pero es complejo porque hay que meterse con las direcciones MAC y si no se
cuenta con un software que las administre, será muy laborioso configurar cada una de ellas.
VLAN por Protocolo
Lo que pertenezca a IP sé enrutara a la VLAN de IP e IPX se dirigirá a la VLAN de IPX, es decir, se
tendrá una VLAN por protocolo. Las ventajas que se obtienen con este tipo de VLAN radican en
que dependiendo del protocolo que use cada usuario, este se conectara automáticamente a la
VLAN correspondiente.
VLAN por subredes de IP o IPX
Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro de este
para que el usuario aunque esté conectado a la VLAN del protocolo IP sea asignado en otra VLAN
subred que pertenecerá al grupo 10 o 20 dentro del protocolo.
VLAN definidas por el usuario
En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el frame. Si los
primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las características del
usuario protocolo, dirección MAC y puerto. Si el usuario manifiesta otro patrón de bits, entonces
se trasladara a la VLAN que le corresponda; aquí el usuario define las VLAN.
VLAN Binding
Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es del puerto x,
entonces se le asignara una VLAN correspondiente. También puede ser puerto, protocolo y
dirección MAC, pero lo importante es cubrir los tres requisitos previamente establecidos, ya que
cuando se cumplen estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno
de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN.
VLAN por DHCP
Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario enciende la
computadora automáticamente el DHCP pregunta al servidor para que tome la dirección IP y con
base en esta acción asignar al usuario a la VLAN correspondiente. Esta política de VLAN es de las
últimas generaciones.
¿Qué es un enlace troncal?
Es difícil describir las VLAN sin mencionar los enlaces troncales de la VLAN. Aprendió acerca de
controlar broadcasts de la red con segmentación de la VLAN y observó la manera en que los
enlaces troncales de la VLAN transmitieron tráfico a diferentes partes de la red configurada en una
VLAN. En la figura 27, los enlaces entre los switches S1 y S2 y entre S1 y S3 están configurados para
transmitir el tráfico que proviene de las VLAN 10, 20, 30 y 99. Es posible que esta red no funcione
sin los enlaces troncales de la VLAN. El usuario descubrirá que la mayoría de las redes que
encuentra están configuradas con enlaces troncales de la VLAN. Esta sección une su conocimiento
previo sobre el enlace troncal de la VLAN y proporciona los detalles necesarios para poder
configurar el enlace troncal de la VLAN en una red.
Figura 27. Enlace troncal
Definición de enlace troncal de la VLAN
Un enlace troncal es un enlace punto a punto, entre dos dispositivos de red, que transporta más
de una VLAN. Un enlace troncal de VLAN le permite extender las VLAN a través de toda una red.
Cisco admite IEEE 802.1Q para la coordinación de enlaces troncales en interfaces Fast Ethernet y
Gigabit Ethernet. Más adelante en esta sección, aprenderá acerca de 802.1Q.
Un enlace troncal de VLAN no pertenece a una VLAN específica, sino que es un conducto para las
VLAN entre switches y routers.
¿Cuál es el problema que resuelve un enlace troncal?
Sin “trunking” se requiere de varios puertos dedicados a cada vlan. Utilizando “trunking” se
requiere un único puerto etiquetando las tramas.
3. STP, RSTP, PVST+, PVRST, MSTP y EtherChannel
Es claro que las redes de computadoras representan un componente fundamental para la mayoría
de las pequeñas y medianas empresas. En consecuencia, los administradores de TI deben
implementar la redundancia en sus redes jerárquicas. Sin embargo, cuando se agregan enlaces
adicionales a switches y routers de la red, se generan bucles en el tráfico que deben ser
administrados de manera dinámica. Cuando se pierde la conexión con un switch, otro enlace debe
reemplazarlo rápidamente sin introducir nuevos bucles en el tráfico. El protocolo spanning-tree
(STP) evita los inconvenientes relacionados con bucles en la red y la manera en que STP ha
evolucionado en un protocolo que determina de forma rápida aquellos puertos que deben
bloquearse, de forma que una red basada en red de área local virtual (VLAN, Virtual Local Area
Network) no experimente bucles en el tráfico.
Spanning Tree Protocol (STP)
La redundancia aumenta la disponibilidad de la topología de red al proteger la red de un único
punto de falla, como un cable de red o switch que fallan. Cuando se introduce la redundancia en
un diseño de la Capa 2, pueden generarse bucles y tramas duplicadas. Los bucles y las tramas
duplicadas pueden tener consecuencias graves en la red. El protocolo spanning tree (STP) fue
desarrollado para enfrentar estos inconvenientes.
STP asegura que exista sólo una ruta lógica entre todos los destinos de la red, al bloquear de forma
intencional aquellas rutas redundantes que puedan ocasionar un bucle. Un puerto se considera
bloqueado cuando el tráfico de la red no puede ingresar ni salir del puerto. Esto no incluye las
tramas de unidad de datos del protocolo de puentes (BPDU) utilizadas por STP para evitar bucles.
El bloqueo de las rutas redundantes es fundamental para evitar bucles en la red. Las rutas físicas
aún existen para proporcionar la redundancia, pero las mismas se deshabilitan para evitar que se
generen bucles. Si alguna vez la ruta es necesaria para compensar la falla de un cable de red o de
un switch, STP vuelve a calcular las rutas y desbloquea los puertos necesarios para permitir que la
ruta redundante se active.
STP utiliza el algoritmo spanning tree (STA) para determinar los puertos de switch de la red que
deben configurarse para el bloqueo, y así evitar que se generen bucles. El STA designa un único
switch como puente raíz y lo utiliza como punto de referencia para todos los cálculos de rutas. En
la figura 28, el puente raíz, el switch S1, se escoge a través de un proceso de elección. Todos los
switches que comparten STP intercambian tramas de BPDU para determinar el switch que posee
el menor ID de puente (BID) en la red. El switch con el menor BID se transforma en el puente raíz
de forma automática según los cálculos del STA.
Figura 28. Algoritmo STA
La BPDU es la trama de mensaje que se intercambia entre los switches en STP. Cada BPDU
contiene un BID que identifica al switch que envió la BPDU. El BID contiene un valor de prioridad,
la dirección MAC del switch emisor y un ID de sistema extendido opcional. Se determina el BID de
menor valor mediante la combinación de estos tres campos.
Después de determinar el puente raíz, el STA calcula la ruta más corta hacia el mismo. Todos los
switches utilizan el STA para determinar los puertos que deben bloquearse. Al determinar el STA
las mejores rutas hacia el puente raíz para todos los destinos del dominio de broadcast, se evita
que todo el tráfico sea enviado a través de la red. El STA considera los costos tanto de la ruta como
del puerto cuando determina la ruta que debe permanecer desbloqueada. Los costos de la ruta se
calculan mediante los valores de costo de puerto asociados con las velocidades de los puertos para
cada puerto de switch que atraviesa una ruta determinada. La suma de los valores de costo de
puerto determina el costo de ruta total para el puente raíz. Si existe más de una ruta a escoger, el
STA elige la de menor costo de ruta.
Cuando el STA determina las rutas que deben permanecer disponibles, configura los puertos de
switch de acuerdo con distintas funciones. Las funciones de los puertos describen su relación en la
red con el puente raíz y si los mismos pueden enviar tráfico.



Puertos raíz: los puertos de switch más cercanos al puente raíz. En el ejemplo, el puerto
raíz del switch S2 es F0/1, configurado para el enlace troncal entre el switch S2 y el switch
S1. El puerto raíz del switch S3 es F0/1, configurado para el enlace troncal entre el switch
S3 y el switch S1.
Puertos designados: todos los puertos que no son raíz y que aún pueden enviar tráfico a la
red. En el ejemplo, los puertos de switch F0/1 y F0/2 del switch S1 son puertos
designados. El switch S2 también cuenta con su puerto F0/2 configurado como puerto
designado.
Puertos no designados: todos los puertos configurados en estado de bloqueo para evitar
los bucles. En el ejemplo, el STA configura al puerto F0/2 del switch S3 en la función no
designado. El puerto F0/2 del switch S3 se encuentra en estado de bloqueo.
Al igual que con muchos estándares de redes, la evolución de STP se ha enfocado en la necesidad
de crear especificaciones para toda la industria cuando los protocolos de propiedad son
estándares de hecho. Cuando un protocolo de propiedad es tan predominante que todos sus
competidores del mercado deben contar con soporte para el mismo, las agencias como el IEEE
intervienen y crean una especificación pública.
Existen muchos tipos de variantes de STP. Algunas de estas variantes son propiedad de Cisco y
otras son estándares de IEEE.
Protocolo Spanning Tree por VLAN (PVST)
Mantiene una instancia de spanning-tree para cada VLAN configurada en la red. Utiliza el
protocolo de enlace troncal ISL propiedad de Cisco que permite que un enlace troncal de la VLAN
se encuentre en estado de enviar para algunas VLAN y en estado de bloqueo para otras. Debido a
que PVST trata a cada VLAN como una red independiente, puede balancear la carga de tráfico de
la Capa 2 mediante el envío de algunas VLAN de un enlace troncal y otras de otro enlace troncal
sin generar bucles. Para PVST, Cisco desarrolló varias extensiones de propiedad del IEEE 802.1D
STP original, como BackboneFast, UplinkFast y PortFast.
PVST+
Cisco desarrolló PVST+ para que una red pueda ejecutar una instancia de STP para cada VLAN de la
red. Con PVST+ puede bloquearse más de un enlace troncal en una VLAN y puede implementarse
la carga compartida. Sin embargo, implementar PVST+ implica que todos los switches de la red se
comprometan con la convergencia de la red y los puertos de switch deben ajustarse al ancho de
banda adicional utilizado para cada instancia de PVST+ a fin de poder enviar sus propias BPDU.
En un entorno de PVST+ de Cisco se pueden ajustar los parámetros de spanning-tree de manera
que la mitad de las VLAN puedan enviar en todos los enlaces troncales. En la figura 29, el puerto
F0/3 del switch S2 es el puerto emisor para la VLAN 20 y F0/2 del switch S2 es el puerto emisor
para la VLAN 10. Esto se logra mediante la configuración de un switch para elegirlo como puente
raíz para la mitad de la cantidad total de VLAN de la red y de otro para elegirlo como puente raíz
para la otra mitad de las VLAN. En la figura 29, el switch S3 es el puente raíz para la VLAN 20 y el
switch S1 es el puente raíz para la VLAN 10. La creación de distintos switches raíz en STP por VLAN
genera una red más redundante.
Figura 29. Protocolo PVST+
Protocolo Spanning Tree por VLAN rápido (PVST+ rápido)
PVST+ rápido es una implementación de Cisco de RSTP. Admite spanning tree para cada VLAN y es
la variante rápida de STP para utilizar en redes de Cisco. Se basa en el estándar IEEE 802.1w y
posee una convergencia más veloz que STP (estándar 802.1D). PVST+ rápido incluye las
extensiones propiedad de Cisco, como BackboneFast, UplinkFast y PortFast.
Protocolo Rapid Spanning Tree (RSTP)
RSTP (IEEE 802.1w) es una evolución del estándar 802.1D. Principalmente, la terminología de
802.1w STP sigue siendo la misma que la del IEEE 802.1D STP. La mayoría de los parámetros no se
modifican, de modo que los usuarios familiarizados con STP puedan configurar rápidamente el
nuevo protocolo.
En la figura 30, la red muestra un ejemplo de RSTP. El switch S1 es el puente raíz con dos puertos
designados en estado de enviar. RSTP admite un nuevo tipo de puerto. El puerto F0/3 del switch
S2 es un puerto alternativo en estado de descarte. Observe que no existen puertos bloqueados.
RSTP no posee el estado de puerto de bloqueo. RSTP define los estados de puertos como de
descarte, aprender o enviar.
Figura 30. Protocolo RTSP
STP Múltiple (MSTP)
Permite que se asignen VLAN múltiples a la misma instancia de spanning‐tree, de modo tal que se
reduce la cantidad de instancias necesarias para admitir una gran cantidad de VLAN. MSTP se
inspiró en STP de instancias múltiples (MISTP) propiedad de Cisco y es una evolución de STP y
RSTP. Se introdujo en el IEEE 802.1s como enmienda de la edición de 802.1Q de 1998. El estándar
IEEE 802.1Q‐2003 ahora incluye a MSTP. MSTP proporciona varias rutas de envío para el tráfico de
datos y permite el balanceo de carga.
Etherchannel
Cisco EtherChannel® construye su tecnología en base a estándares 802.3 full-duplex de Fast
Ethernet. EtherChannel agrupa varios enlaces Ethernet en un único enlace lógico, proveyendo así
más ancho de banda de hasta 16 veces la capacidad máxima del enlace (full-duplex).
Por ejemplo, agrupando enlaces Fast Ethernet de 100 Mbps cada uno, pudiéndose agrupar hasta 8
enlaces, se puede lograr una capacidad de hasta 1600 Mbps en full-duplex. Esta tecnología aplica
tanto para Fast EthernetChannel (FEC) o Gigabit EtherChannel (GEC).
Las características más resaltantes que se puede lograr con esta tecnología son:
 Incremento de ancho de banda.
 Convergencia rápida con tolerancia a fallas.
 Balanceo de cargas.
Figura 31. Etherchannel
4. Ruteo InterVLAN
Ahora que ya conoce cómo configurar las VLAN en un switch de redes, el siguiente paso es
permitir a los dispositivos conectados a las distintas VLAN comunicarse entre sí. Anteriormente,
aprendió que cada VLAN es un dominio de broadcast único. Por lo tanto, de manera
predeterminada, las computadoras en VLAN separadas no pueden comunicarse. Existe una
manera para permitir que estas estaciones finales puedan comunicarse; esta manera se llama
enrutamiento inter VLAN.
Tradicionalmente, el enrutamiento de la LAN utiliza routers con interfaces físicas múltiples. Es
necesario conectar cada interfaz a una red separada y configurarla para una subred diferente.
En una red tradicional que utiliza VLAN múltiples para segmentar el tráfico de la red en dominios
de broadcast lógicos, el enrutamiento se realiza mediante la conexión de diferentes interfaces
físicas del router a diferentes puertos físicos del switch. Los puertos del switch conectan al router
en modo de acceso; en el modo de acceso, diferentes VLAN estáticas se asignan a cada interfaz del
puerto. Cada interfaz del switch estaría asignada a una VLAN estática diferente. Cada interfaz del
router puede entonces aceptar el tráfico desde la VLAN asociada a la interfaz del switch que se
encuentra conectada, y el tráfico puede enrutarse a otras VLAN conectadas a otras interfaces.
El enrutamiento inter VLAN tradicional requiere de interfaces físicas múltiples en el router y en el
switch. Sin embargo, no todas las configuraciones del enrutamiento inter VLAN requieren de
interfaces físicas múltiples. Algunos software del router permiten configurar interfaces del router
como enlaces troncales. Esto abre nuevas posibilidades para el enrutamiento inter VLAN.
"Router-on-a-stick" es un tipo de configuración de router en la cual una interfaz física única enruta
el tráfico entre múltiples VLAN en una red. La interfaz del router se configura para funcionar como
enlace troncal y está conectada a un puerto del switch configurado en modo de enlace troncal. El
router realiza el enrutamiento inter VLAN al aceptar el tráfico etiquetado de la VLAN en la interfaz
troncal proveniente del switch adyacente y enrutar en forma interna entre las VLAN, mediante
subinterfaz. El router luego reenvía el tráfico enrutado de la VLAN etiquetada para la VLAN de
destino, por la misma interfaz física.
Figura 32. Enrutamiento interVLAN usando router
Las subinterfaces son interfaces virtuales múltiples, asociadas a una interfaz física. Estas interfaces
están configuradas en software en un router configurado en forma independiente con una
dirección IP y una asignación de VLAN para funcionar en una VLAN específica. Las subinterfaces
están configuradas para diferentes subredes que corresponden a la asignación de la VLAN, para
facilitar el enrutamiento lógico antes de que la VLAN etiquete las tramas de datos y las reenvíe por
la interfaz física.
Algunos switches pueden realizar funciones de Capa 3, reemplazando la necesidad de utilizar
routers dedicados para realizar el enrutamiento básico en una red. Los switches multicapas
pueden realizar el enrutamiento inter VLAN.
Figura 33. Enrutamiento interVLAN usando un switch multicapa
5. Alta disponibilidad en un campus
Las redes que usan segmentos en campus, obtienen su funcionalidad basada en la organización,
políticas, aplicaciones, equipos de trabajo o simplemente por ubicaciones geográficas. Para lograr
ahorros considerables en servicios, costos y equipos se utiliza la arquitectura de las VLAN en vez
de instalar redes independientes físicamente y unidas por routers Se recomienda el uso de VLANs
que además estén basadas en una segmentación a través de subredes.
Figura 34. Redes en un campus
Para saber más…
Cisco Systems (2006). Building Cisco Multilayer Switched Networks, Student Guide.
Unidad VI. IPv6
Objetivo. El alumno configurará los esquemas de direccionamiento IPv6 y los tipos de tunneling
de IPv4 a IPv6 para su implementación en la empresa.
1. Esquema de direccionamiento IPv6
El esquema de direccionamiento IPv6 ha sido desarrollado para ser compatible con el actual
esquema de direccionamiento IPv4, lo cual, permite a las actuales redes IPv6 coexistir con la redes
IPv4. El esquema de direccionamiento IPv6 incrementa el tamaño de direcciones al usar, de 32 bits
a 128 bits, el cual provee 340,282,366,920,938,463,374,607,431,768,211,456 o 3.4 x 10 38
direcciones IP.
IPv6 también mejora el enrutamiento, la seguridad y características de QoS al simplificar el
encabezado IP. Este direccionamiento esta descrito en RFC 3513, el cual define cómo será utilizado
el espacio de direcciones.
Formato de direcciones IPv6
A diferencia del formato decimal separado por puntos de IPv4, IPv6 es representado por números
hexadecimales. Un número hexadecimal es equivalente a 4 bits, y su representación va del 0 - 9 y
de la A – F. La dirección IPv6 es un valor numérico hexadecimal de 32 dígitos, 8 grupos de 4 dígitos
hexadecimales, separados por dos puntos (:), representando una dirección de 128 bits. Por
ejemplo, 1041:0000:130B:0000:0000:09C0:586C:1305.
Existen 3 formatos para representar una dirección IPv6:



Forma hexadecimal-dos puntos. Ésta es la forma preferida n:n:n:n:n:n:n:n. Cada n
representa el valor hexadecimal de uno de los ocho elementos de 16 bits de la dirección.
Por ejemplo: 3FFE:FFFF:7654:FEDA:1245:BA98:3210:4562.
Forma comprimida. Debido a la longitud de la dirección, resulta habitual tener direcciones
que contengan una larga cadena de ceros. Para simplificar la escritura de estas
direcciones, se utiliza la forma comprimida, en la que una única secuencia contigua de
bloques de 0 se representa mediante un doble signo de dos puntos (::). Este símbolo sólo
puede aparecer una vez en una dirección. Por ejemplo, la dirección de multidifusión
FFED:0:0:0:0:BA98:3210:4562 en formato comprimido es FFED::BA98:3210:4562. La
dirección de unidifusión 3FFE:FFFF:0:0:8:800:20C4:0 en formato comprimido es
3FFE:FFFF::8:800:20C4:0. La dirección de bucle invertido 0:0:0:0:0:0:0:1 en formato
comprimido es ::1. La dirección no especificada 0:0:0:0:0:0:0:0 en formato comprimido es
::.
Forma mixta. Esta forma combina las direcciones IPv4 e IPv6. En este caso, el formato de
dirección es n:n:n:n:n:n:d.d.d.d, donde cada n representa a los valores hexadecimales de
los seis elementos de dirección de 16 bits de nivel superior de IPv6, y cada d representa al
valor decimal de una dirección de IPv4.
Tipos de direcciones IP
IPv6 define 3 tipos de direcciones: unicast, anycast y multicast.
Unicast. Este tipo de direcciones son bastante conocidas. Un paquete que se envía a una dirección
unicast debería llegar a la interfaz identificada por dicha dirección.
Anycast. Las direcciones anycast son sintácticamente indistinguibles de las direcciones unicast
pero sirven para identificar a un conjunto de interfaces. Un paquete destinado a una dirección
anycast llega a la interfaz “más cercana” (en términos de métrica de “routers”). Las direcciones
anycast sólo se pueden utilizar en “routers”.
Multicast. Las direcciones multicast identifican un grupo de interfaces. Un paquete destinado a
una dirección multicast llega a todas los interfaces que se encuentran agrupados bajo dicha
dirección.
2. Tipos de tunneling IPv4 a IPv6
Los mecanismos de transición son un conjunto de mecanismos y de protocolos implementados en
hosts y routers, junto con algunas guías operativas de direccionamiento designadas para hacer la
transición de Internet al IPv6 con la menor interrupción posible.
Dichos mecanismos están diseñados para ser usados por hosts y routers IPv6 que necesitan
interoperar con hosts IPv4 y utilizar infraestructuras de ruteo IPv4. Se espera que muchos nodos
necesitarán compatibilidad por mucho tiempo y quizás indefinidamente. No obstante, IPv6
también puede ser usado en ambientes donde no se requiere interoperabilidad con IPv4. Nodos
diseñados para esos ambientes no necesitan usar ni implementar estos mecanismos.
El tunneling es un mecanismo de transición que permite a máquinas con IPv6 instalado
comunicarse entre sí a través de una red IPv4. El mecanismo consiste en crear los paquetes IPv6
de forma normal e introducirlos en un paquete IPv4. El proceso inverso se realiza en la máquina
destino, que recibe un paquete IPv6.
Los nodos o redes IPv6 que se encuentran separadas por infraestructuras IPv4 pueden construir un
enlace virtual, configurando un túnel. Paquetes IPv6 que van hacia un dominio IPv6 serán
encapsulados dentro de paquetes IPv4. Los extremos del túnel son dos direcciones IPv4 y dos IPv6.
Se pueden utilizar dos tipos de túneles: configurados y automáticos. Los túneles configurados son
creados mediante configuración manual. Un ejemplo de redes conteniendo túneles configurados
es el 6bone. Los túneles automáticos no necesitan configuración manual. Los extremos se
determinan automáticamente determinados usando direcciones IPv6 IPv4-compatible.
Figura 35. Tunneling IPv6
Descargar