Redes Convergentes Antología 22/04/2010 Universidad Tecnológica de Izúcar de Matamoros Mtro. Sergio Valero Orea “Redes convergentes” Contenido Unidad I. Diseño de redes ................................................................................................................... 4 1. Sistemas de cableado estructurado ........................................................................................ 4 1.1 Subsistemas de cableado estructurado ................................................................................ 5 1.2 Escalabilidad .......................................................................................................................... 6 1.3 Punto de demarcación .......................................................................................................... 6 1.4 Salas de equipamiento .......................................................................................................... 7 1.5 MC, IC y HC ............................................................................................................................ 8 1.6 Códigos y estándares de cableado estructurado .................................................................. 9 1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias de Electrónica (EIA) ..................................................................................................................... 9 2. Arquitecturas de redes orientadas a servicios ...................................................................... 11 2.1 Diseño jerárquico de redes ..................................................................................................... 11 2.2 La arquitectura de redes orientadas a servicio de Cisco ......................................................... 13 2.3 Tecnologías WLAN................................................................................................................... 15 2.3.1 Estándares operacionales IEEE 802.11 ............................................................................. 16 2.3.2 RF Site Survey ................................................................................................................... 17 Unidad II. Calidad en el servicio (QoS) .............................................................................................. 18 1. Introducción a la calidad en el servicio (QoS) ....................................................................... 18 2. Modelos de QoS .................................................................................................................... 20 3. Descripción de DiffServ QoS .................................................................................................. 21 4. Clasificación y marcado de tráfico ........................................................................................ 23 5. Mecanismos de QoS para administrar y evitar la congestión de la red ................................ 25 6. AutoQoS ................................................................................................................................ 29 Unidad III. Voz sobre IP (VoIP)........................................................................................................... 29 1. Introducción a la tecnología y arquitecturas de VoIP ........................................................... 30 2. Funciones y componentes de VoIP ....................................................................................... 31 3. Principales protocolos de VoIP de acuerdo al modelo OSI ................................................... 32 4. Cálculo de requerimientos de ancho de banda .................................................................... 36 5. Configuración de puertos e interfaces de voz en un router ................................................. 38 6. Protocolo H.232 .................................................................................................................... 41 Unidad IV. Tecnologías WAN............................................................................................................. 46 1. Servicios de banda ancha y 3G .............................................................................................. 46 2. Estándares WAN.................................................................................................................... 50 Unidad V. Switches multicapa ........................................................................................................... 54 1. Introducción a los switches multicapa .................................................................................. 54 2. VLANs .................................................................................................................................... 55 3. STP, RSTP, PVST+, PVRST, MSTP y EtherChannel .................................................................. 63 4. Ruteo InterVLAN.................................................................................................................... 68 5. Alta disponibilidad en un campus ......................................................................................... 70 Unidad VI. IPv6 .................................................................................................................................. 70 1. Esquema de direccionamiento IPv6 ...................................................................................... 70 2. Tipos de tunneling IPv4 a IPv6 .............................................................................................. 72 Unidad I. Diseño de redes Objetivo. El alumno diseñará redes convergentes aplicando las arquitecturas orientadas al servicio considerando la infraestructura adecuada para garantizar la transmisión eficiente de información. 1. Sistemas de cableado estructurado El cableado estructurado es un enfoque sistemático del cableado. Es un método para crear un sistema de cableado organizado que pueda ser fácilmente comprendido por los instaladores, administradores de red y cualquier otro técnico que trabaje con cables. Hay tres reglas que ayudan a garantizar la efectividad y la eficiencia en los proyectos de diseño del cableado estructurado. La primera regla es buscar una solución completa de conectividad. Una solución óptima para lograr la conectividad de redes abarca todos los sistemas que han sido diseñados para conectar, tender, administrar e identificar los cables en los sistemas de cableado estructurado. La implementación basada en estándares está diseñada para admitir tecnologías actuales y futuras. El cumplimiento de los estándares servirá para garantizar el rendimiento y confiabilidad del proyecto a largo plazo. La segunda regla es planificar el crecimiento a futuro. La cantidad de cables instalados debe satisfacer necesidades futuras. Se deben tener en cuenta las soluciones de categoría 5e, categoría 6 y de fibra óptica para garantizar que se satisfagan futuras necesidades. La instalación de la capa física debe poder funcionar durante diez años o más. La regla final es conservar la libertad de elección de proveedores. Aunque un sistema cerrado y propietario puede resultar más económico en un principio, con el tiempo puede resultar mucho más costoso. Con un sistema provisto por un único proveedor y que no cumpla con los estándares, es probable que más tarde sea más difícil realizar traslados, ampliaciones o modificaciones. 1.1 Subsistemas de cableado estructurado Figura 1. Subsistemas de cableado estructurado Hay siete subsistemas relacionados con sistemas de cableado estructurado como se ve en la figura 1. Cada subsistema realiza funciones determinadas para proveer servicios de datos y voz en toda la planta de cables: Punto de demarcación (demarc) dentro de las instalaciones de entrada (EF) en la sala de equipamiento. Sala de equipamiento (ER). Sala de telecomunicaciones (TR). Cableado backbone, también conocido como cableado vertical. Cableado de distribución, también conocido como cableado horizontal. Área de trabajo (WA). Administración. El demarc es donde los cables del proveedor externo de servicios se conectan a los cables del cliente en su edificio. El cableado backbone está compuesto por cables de alimentación que van desde el demarc hasta la salas de equipamiento y luego a la salas de telecomunicaciones en todo el edificio. El cableado horizontal distribuye los cables desde las salas de telecomunicaciones hasta las áreas de trabajo. Las salas de telecomunicaciones es donde se producen las conexiones que proporcionan una transición entre el cableado backbone y el horizontal. Estos subsistemas convierten al cableado estructurado en una arquitectura distribuida con capacidades de administración que están limitadas al equipo activo, como por ejemplo los PC, switches, hubs, etc. El diseño de una infraestructura de cableado estructurado que enrute, proteja, identifique y termine los medios de cobre o fibra de manera apropiada, es esencial para el funcionamiento de la red y sus futuras actualizaciones. 1.2 Escalabilidad Una LAN que es capaz de adaptarse a un crecimiento posterior se denomina red escalable. Es importante planear con anterioridad la cantidad de tendidos y de derivaciones de cableado en el área de trabajo. Es preferible instalar cables de más que no tener los suficientes. Además de tender cables adicionales en el área de backbone para permitir posteriores ampliaciones, por lo general se tiende un cable adicional hacia cada estación de trabajo o escritorio. Esto ofrece protección contra pares que puedan fallar en cables de voz durante la instalación, y también permite la expansión. Por otro lado, es una buena idea colocar una cuerda de tracción cuando se instalan los cables para facilitar el agregado de cables adicionales en el futuro. Cada vez que se agregan nuevos cables, se debe también agregar otra cuerda de tracción. 1.3 Punto de demarcación El punto de demarcación (demarc) es el punto en el que el cableado externo del proveedor de servicios se conecta con el cableado backbone dentro del edificio. Representa el límite entre la responsabilidad del proveedor de servicios y la responsabilidad del cliente. En muchos edificios, el demarc está cerca del punto de presencia (POP) de otros servicios tales como electricidad y agua corriente. El proveedor de servicios es responsable de todo lo que ocurre desde el demarc hasta la instalación del proveedor de servicios. Todo lo que ocurre desde el demarc hacia dentro del edificio es responsabilidad del cliente. El proveedor de telefonía local normalmente debe terminar el cableado dentro de los 15 m (49,2 pies) del punto de penetración del edificio y proveer protección primaria de voltaje. Por lo general, el proveedor de servicios instala esto. Asociación de Industrias Electrónicas (EIA) desarrollan y publican estándares para muchas industrias, incluyendo la industria del cableado. Se deben aplicar estos estándares durante cualquier proceso de instalación o mantenimiento del cableado de voz o de datos, para garantizar que el cableado sea seguro, esté correctamente instalado, y tenga el rendimiento adecuado. El estándar TIA/EIA-569-A especifica los requisitos para el espacio del demarc. Los estándares sobre el tamaño y estructura del espacio del demarc se relacionan con el tamaño del edificio. Para edificios de más de 2000 metros cuadrados (21.528 pies cuadrados), se recomienda contar con una habitación dentro del edificio que sea designada para este fin y que tenga llave. Las siguientes son pautas generales para determinar el sitio del punto de demarcación. Calcule 1 metro cuadrado (10,8 pies cuadrados) de un montaje de pared de madera terciada por cada área de 20-metros cuadrados (215,3 pies cuadrados) de piso. Cubra las superficies donde se montan los elementos de distribución con madera terciada resistente al fuego o madera terciada pintada con dos capas de pintura ignífuga. Ya sea la madera terciada o las cubiertas para el equipo de terminación deben estar pintadas de color naranja para indicar el punto de demarcación. 1.4 Salas de equipamiento Una vez que el cable ingresa al edificio a través del demarc, se dirige hacia la instalación de entrada (EF), que por lo general se encuentra en la sala de equipamiento (ER). La sala de equipamiento es el centro de la red de voz y datos. La sala de equipamiento es esencialmente una gran sala de telecomunicaciones que puede albergar el marco de distribución, servidores de red, routers, switches, PBX telefónico, protección secundaria de voltaje, receptores satelitales, moduladores y equipos de Internet de alta velocidad, entre otros. Los aspectos de diseño de la sala de equipamiento se describen en los estándares TIA/EIA-569-A. En edificios grandes, la sala de equipamiento puede alimentar una o más salas de telecomunicaciones (TR) distribuidas en todo el edificio. Las TR albergan el equipo del sistema de cableado de telecomunicaciones para un área particular de la LAN, como por ejemplo, un piso o parte de un piso. Esto incluye las terminaciones mecánicas y dispositivos de conexión cruzada para sistemas de cableado backbone y horizontal. Los routers, hubs y switches de departamentos y grupos de trabajo se encuentran comúnmente en la TR. El hub de cableado y un panel de conexión de una TR pueden estar montados contra una pared con una consola de pared con bisagra, un gabinete para equipamiento completo, o un bastidor de distribución. La consola de pared con bisagra debe ser colocada sobre un panel de madera terciada que cubra la superficie de pared subyacente. La bisagra permite que la unidad pueda girar hacia afuera de modo que los técnicos tengan fácil acceso a la parte posterior de la pared. Es importante dejar 48 cm (19 pulgadas) para que el panel se pueda separar de la pared. El bastidor de distribución debe tener un mínimo de 1 metro (3 pies) de espacio libre para poder trabajar en la parte delantera y trasera del bastidor. Para montar el bastidor de distribución, se utiliza una placa de piso de 55,9 cm (22 pulgadas). La placa de piso brinda estabilidad y determina la distancia mínima para la posición final del bastidor de distribución. La Figura 2 muestra un bastidor de distribución. Un gabinete para equipamiento completo requiere por lo menos 76,2 cm (30 pulgadas) de espacio libre delante de la puerta para que ésta se pueda abrir. Los gabinetes para equipamiento tienen por lo general 1,8 m (5,9 pies) de alto, 0,74 m (2,4 pies) de ancho y 0,66 m (2.16 pies) de profundidad. Cuando coloque el equipamiento dentro de los bastidores de equipos, tenga en cuenta si el equipo utiliza electricidad o no. Otras consideraciones a tener en cuenta son el tendido y administración de los cables y la facilidad de uso. Por ejemplo, un panel de conexión no debe colocarse en la parte de arriba de un bastidor si se van a realizar modificaciones significativas después de la instalación. Los equipos pesados como switches y servidores deben ser colocados cerca de la base del bastidor por razones de estabilidad. La escalabilidad que permite el crecimiento futuro es otro aspecto a tener en cuenta en la configuración del equipamiento. La configuración inicial debe incluir espacio adicional en el bastidor para así poder agregar otros paneles de conexión o espacio adicional en el piso para instalar bastidores adicionales en el futuro. La instalación adecuada de bastidores de equipos y paneles de conexión en la TR permitirá, en el futuro, realizar fácilmente modificaciones a la instalación del cableado. 1.5 MC, IC y HC Por varias razones, la mayoría de las redes tienen varias TR. Si una red está distribuida en varios pisos o edificios, se necesita una TR para cada piso de cada edificio. Los medios sólo pueden recorrer cierta distancia antes de que la señal se comience a degradar o atenuar. Es por ello que las TR están ubicadas a distancias definidas dentro de la LAN para ofrecer interconexiones y conexiones cruzadas a los hubs y switches, con el fin de garantizar el rendimiento deseado de la red. Estas TR contienen equipos como repetidores, hubs, puentes, o switches que son necesarios para regenerar las señales. La TR primaria se llama conexión cruzada principal (MC) La MC es el centro de la red. Es allí donde se origina todo el cableado y donde se encuentra la mayor parte del equipamiento. La conexión cruzada intermedia (IC) se conecta a la MC y puede albergar el equipamiento de un edificio en el campus. La conexión cruzada horizontal (HC) brinda la conexión cruzada entre los cables backbone y horizontales en un solo piso del edificio. 1.6 Códigos y estándares de cableado estructurado Los estándares son conjuntos de normas o procedimientos de uso generalizado, o que se especifican oficialmente, y que sirven como modelo de excelencia. Un proveedor especifica ciertos estándares. Los estándares de la industria admiten la interoperabilidad entre varios proveedores de la siguiente forma: Descripciones estandarizadas de medios y configuración del cableado backbone y horizontal. Interfaces de conexión estándares para la conexión física del equipo. Diseño coherente y uniforme que siga un plan de sistema y principios de diseño básicos. Hay numerosas organizaciones que regulan y especifican los diferentes tipos de cables. Las agencias locales, estatales, de los condados o provincias y nacionales también emiten códigos, especificaciones y requisitos. Una red que se arma según los estándares debería funcionar bien, o interoperar con otros dispositivos de red estándar. El rendimiento a largo plazo y el valor de la inversión de muchos sistemas de cableado de red se ven reducidos porque los instaladores no cumplen con los estándares obligatorios y recomendados. Muchas organizaciones internacionales tratan de desarrollar estándares universales. Organizaciones como IEEE, ISO, y IEC son ejemplos de organismos internacionales de homologación. Estas organizaciones incluyen miembros de muchas naciones, las cuales tiene sus propios procesos para generar estándares. 1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias de Electrónica (EIA) La TIA/EIA son asociaciones industriales que desarrollan y publican una serie de estándares sobre el cableado estructurado para voz y datos para las LAN. Tanto la TIA como la EIA están acreditadas por el Instituto Nacional Americano de Normalización (ANSI) para desarrollar estándares voluntarios para la industria de las telecomunicaciones. Muchos de los estándares están clasificados ANSI/TIA/EIA. Los distintos comités y subcomités de TIA/EIA desarrollan estándares para fibra óptica, equipo terminal del usuario, equipo de red, comunicaciones inalámbricas y satelitales. Estándares TIA/EIA Aunque hay muchos estándares y suplementos, los que se enumeran a continuación son los que los instaladores de cableado utilizan con más frecuencia: TIA/EIA-568-A: Este antiguo Estándar para Cableado de Telecomunicaciones en Edificios Comerciales especificaba los requisitos mínimos de cableado para telecomunicaciones, la topología recomendada y los límites de distancia, las especificaciones sobre el rendimiento de los aparatos de conexión y medios, y los conectores y asignaciones de pin. TIA/EIA-568-B: El actual Estándar de Cableado especifica los requisitos sobre componentes y transmisión para los medios de telecomunicaciones. El estándar TIA/EIA-568-B se divide en tres secciones diferentes: 568-B.1, 568-B.2 y 568-B.3. o TIA/EIA-568-B.1 especifica un sistema genérico de cableado para telecomunicaciones para edificios comerciales que admite un entorno de múltiples proveedores y productos. o TIA/EIA-568-B.1.1 es una enmienda que se aplica al radio de curvatura del cable de conexión UTP de 4 pares y par trenzado apantallado (ScTP) de 4 pares. o TIA/EIA-568-B.2 especifica los componentes de cableado, transmisión, modelos de sistemas y los procedimientos de medición necesarios para la verificación del cableado de par trenzado. o TIA/EIA-568-B.2.1 es una enmienda que especifica los requisitos para el cableado de Categoría 6. o TIA/EIA-568-B.3 especifica los componentes y requisitos de transmisión para un sistema de cableado de fibra óptica. TIA/EIA-569-A: El Estándar para Recorridos y Espacios de Telecomunicaciones en Edificios Comerciales especifica las prácticas de diseño y construcción dentro de los edificios y entre los mismos, que admiten equipos y medios de telecomunicaciones. TIA/EIA-606-A: El Estándar de Administración para la Infraestructura de Telecomunicaciones de Edificios Comerciales incluye estándares para la rotulación del cableado. Los estándares especifican que cada unidad de terminación de hardware debe tener una identificación exclusiva. También describe los requisitos de registro y mantenimiento de la documentación para la administración de la red. TIA/EIA-607-A: Los estándares sobre Requisitos de Conexión a Tierra y Conexión de Telecomunicaciones para Edificios Comerciales admiten un entorno de varios proveedores y productos diferentes, así como las prácticas de conexión a tierra para varios sistemas que pueden instalarse en las instalaciones del cliente. El estándar especifica los puntos exactos de interfaz entre los sistemas de conexión a tierra y la configuración de la conexión a tierra para los equipos de telecomunicaciones. El estándar también especifica las configuraciones de la conexión a tierra y de las conexiones necesarias para el funcionamiento de estos equipos. Para saber más… Cisco Systems. (2003). Suplemento sobre cableado estructurado, Programa de la Academia de Cisco CCNA 1: Conceptos básicos sobre networking v3.1. 2. Arquitecturas de redes orientadas a servicios Los modelos de redes jerárquicos permiten diseñar redes que usan especialización de funciones combinados con una organización jerárquica. Tal diseño simplifica las tareas requeridas para construir una red que cumplan los requerimientos actuales y puede crecer para cumplir los requerimientos a futuro. Los modelos jerárquicos utilizan niveles o capas para simplificar las tareas, así, cada capa se enfoca en una función específica, permitiéndote elegir los sistemas y características correctos de cada capa. Los modelos jerárquicos aplican a diseños tanto de redes LAN como WAN. Los beneficios de utilizar modelos jerárquicos para el diseño de las redes incluyen los siguientes: Reducción de costos Facilidad de comprensión o interpretación Crecimiento modular Mejora en el aislamiento de errores 2.1 Diseño jerárquico de redes Como se muestra en la figura 2, un tradicional diseño jerárquico para una LAN tiene 3 capas. Entre las ventajas que tenemos de separar las redes en 3 niveles tenemos que es más fácil diseñar, implementar, mantener y escalar la red, además de que la hace más confiable, con una mejor relación costo/beneficio. Cada capa tiene funciones específicas asignadas y no se refiere necesariamente a una separación física, sino lógica; así que podemos tener distintos dispositivos en una sola capa o un dispositivo haciendo las funciones de más de una de las capas. Las capas y sus funciones son: Capa de Núcleo (core layer): esta capa es el backbone de alta velocidad de la red, la cual es crucial para comunicaciones corporativas. Debe tener las siguientes características: transporte rápido, alta confiabilidad, redundancia, tolerancia a fallos, rápida adaptación a fallos, baja latencia. Su única función es switchear tráfico tan rápido como sea posible. Se debe diseñar el core para una alta confiabilidad (high reliability), por ejemplo con tecnologías de capa dos que faciliten redundancia y velocidad, como FDDI, Gigabit Ethernet (con enlaces redundantes), ATM, y seleccionamos todo el diseño con la velocidad en mente, procurando la latencia más baja, y considerando protocolos con tiempo de convergencia más bajos. Figura 2. Diseño jerárquico de redes Capa de distribución (distribution layer): routing. Esta capa es el medio de comunicación entre la capa de acceso y el núcleo. Las funciones de esta capa son proveer ruteo, filtrado, acceso a la red WAN y determinar qué paquetes deben llegar al core. Aquí se implementan las políticas de red, por ejemplo: ruteo, access-list, filtrado de paquetes, colas de espera, se implementan la seguridad y las políticas de red (traducciones NAT y firewalls), la redistribución entre protocolos de ruteo, ruteo entre VLANs, se definen dominios de broadcast y multicast. Capa de acceso (access layer): switching. Esta capa proporciona a los usuarios acceso a segmentos locales de la red, controla a los usuarios y el acceso de grupos de trabajo o los recursos de la red. Entre las funciones más importantes están la continuación de control de tráfico y políticas, creación de dominios de colisión separados (segmentación), alta disponibilidad, seguridad en puertos, limite en tasas de transferencia, inspección del protocolo ARP. En esta capa se lleva a cabo la segmentación Ethernet, DDR y ruteo estático. Los switchs LANs de esta capa pueden controlar el acceso a los puertos y limitar la tasa de transferencia al enviar y recibir tramas hacia y desde el switch. Esto se puede implementar al identificar las direcciones MAC utilizando ARP y utilizando listas de acceso. 2.2 La arquitectura de redes orientadas a servicio de Cisco La extremadamente rica variedad de aplicaciones de negocios disponible hoy en día y la necesidad de integrar dichas aplicaciones conduce a la necesidad de una nueva arquitectura para redes. La arquitectura SONA (Service Oriented Network Architecture, por sus siglas en inglés), es un framework arquitectónico que ilustra cómo construir sistemas integrados y guía a la evolución de las empresas hacia redes más inteligentes. Al utilizar el framework SONA, las empresas pueden mejorar la flexibilidad e incrementar su eficiencia al optimizar sus aplicaciones, procesos de negocio y sus recursos al habilitar las Tecnologías de la Información y tener un efecto mayor en los negocios. El framework SONA (figura 3), muestra cómo los sistemas integrados pueden permitir una arquitectura flexible y dinámica al proveer eficiencia operacional a través de la estandarización y la virtualización. Figura 3. Framework SONA de Cisco El framework SONA define las siguientes tres capas: Capa de infraestructura en red. Es donde todos los recursos de TI están interconectados a través de los cimientos de la red convergente. Los recursos de TI incluyen servidores, dispositivos de almacenamiento y clientes. La capa de infraestructura en red representa cómo esos recursos existen en diferentes lugares en la red, incluyendo campus, sucursales, data centers, WAN, MAN y trabajadores remotos. El objetivo de esta capa es proporcionar conectividad, en cualquier lugar y a cualquier hora. Capa de servicios interactivos. Esta capa incluye servicios de aplicaciones de red así como servicios de infraestructura. Esta capa permite una asignación eficiente de recursos para aplicaciones y procesos de negocios provistos a través de la infraestructura de la red. Esta capa incluye los siguientes servicios: voz y colaboración, movilidad, wireless, identidad y seguridad, almacenamiento, cómputo, aplicaciones en red, virtualización, QoS, alta disponibilidad, multicast IP. Capa de aplicaciones. Esta capa incluye aplicaciones de negocio y colaboración. El objetivo de esta capa es recibir requerimientos de negocio e impulsar la eficiencia de la capa de los servicios interactivos. Esta capa incluye las siguientes aplicaciones colaborativas: mensajería instantánea, telefonía IP, transmisión de video usando el Cisco Digital Media System, entre otros. Figura 4. Servicios Cisco SONA. En resumen, el marco de trabajo SONA, ofrece los siguientes beneficios: Funcionalidad: soporta los requerimientos de la organización. Escalabilidad: soporta crecimiento y expansión de las tareas de la organización al separar funciones y productos en capas; esta separación hace más fácil el crecimiento de la red. Disponibilidad: proporciona los servicios necesarios, confiabilidad, donde sea y cuando sea. Desempeño: provee el grado de reacción deseado, rendimiento y utilización a través de los servicios e infraestructura de la red. Manejabilidad: provee control, supervisión de desempeño y detección de fallas. Eficiencia: proporciona los servicios de red e infraestructura requeridos con un costo operacional razonable e inversión de capital apropiados, al migrar hacia una red más inteligente, mediante el crecimiento de los servicios de red paso a paso. Seguridad: provee un balance efectivo entre usabilidad y seguridad al proteger de amenazas de información y la infraestructura tanto internas como externas. 2.3 Tecnologías WLAN Un sistema de comunicación inalámbrica utiliza energía de radio frecuencia (RF) para transmitir datos de un punto a otro a través del aire; el término señal es utilizado para referirse a esta energía de RF. El dato a transmitirse primero es modulado (convertido) en una señal portadora y después enviado; los receptores demodulan (convierten) la señal y procesan el dato. Existen diferentes tipos de tecnologías inalámbricas, cada una cubre un área geográfica distinta: Redes de área personal (PAN): típicamente cubre un espacio de trabajo personal. Redes de área local: las LAN’s inalámbricas (WLAN), están diseñadas para ser redes empresariales que permiten el uso de suites completas de aplicaciones, sin cables. Redes de área metropolitana (MAN): las redes MAN’s inalámbricas están desarrolladas dentro de un área metropolitana, permitiendo la conectividad inalámbrica a lo largo de un área urbana. Redes de área amplia (WAN): las WAN’s inalámbricas típicamente son más lentas pero ofrecen mayor cobertura, abarcando áreas rurales. Las redes WLAN remplazan el medio de transmisión de capa 1 de una red alámbrica tradicional (usualmente cable categoría 5) con radio transmisión sobre el aire. Las WLAN se pueden conectar a una red LAN cableada y funcionar sobre ella o pueden ser desarrolladas por sí solas donde el cableado de red no es posible. Una computadora con una NIC inalámbrica se conecta a una WLAN mediante un punto de acceso (Access point – AP). Una WLAN desarrollada apropiadamente puede proveer acceso instantáneo a la red desde cualquier lugar dentro de las instalaciones de manera que los usuarios puedan “vagar” sin perder su conexión a la red. Los productos inalámbricos de Cisco admiten las siguientes tres topologías: Acceso a clientes inalámbricos: para la conectividad de usuarios móviles. Puente inalámbrico: para interconectar LAN’s que se encuentran físicamente separadas, por ejemplo, en diferentes edificios. Red de malla inalámbrica: provee accedo a clientes así como una conexión dinámica y redundante entre edificios. Las WLAN usan un identificador (SSID – Service Set Identifier) para identificar el nombre de la WLAN. Este SSID debe ser de 2 a 32 caracteres de longitud. Todos los dispositivos en la WLAN deben tener configurado el mismo SSID para comunicarse, es similar a una VLAN en una red cableada. La capa de control de acceso al medio (MAC) de la IEEE 802.11 implementa el método de acceso CSMA/CA (Carrier Sense Multiple Access/ Collision Avoidance). Con este método, cada estación WLAN “escucha” para ver si algún dispositivo está transmitiendo. Si no ocurre actividad, la estación transmite. Si existe algún tipo de transmisión, la estación usa un conteo regresivo con un reloj. Cuando el tiempo expira, la estación transmite. Algunas de las agencias y grupos de estándares relacionados con redes WLAN son los siguientes: - Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): crea y mantiene estándares operacionales. Instituto de Estándares de Telecomunicaciones Europeo (ETSI): colegiados para producir estándares comunes en Europa. Wi-Fi Alliance: promueve y prueba interoperabilidad para redes WLAN. WLAN Association: educa y promueve el uso de las WLAN. 2.3.1 Estándares operacionales IEEE 802.11 En Septiembre de 1999, la IEEE ratificó el estándar IEEE 802.11 (5 GHz a 54 Mpbs) y el estándar 802.11b (2.4 GHz a 11 Mbps). En Junio del 2003, la IEEE ratificó el estándar 802.11g (2.4 GHz a 54 Mbps); este estándar es compatible con los sistemas 802.11b, ya que ambos usan el mismo ancho de banda en la misma frecuencia. A continuación se presenta un resumen de los estándares IEEE 802.11 para comunicaciones inalámbricas: Protocolo IEEE 802.11 802.11a 802.11b 802.11g 802.11n Fecha de lanzamiento 1997 1999 1999 2003 2007 Frecuencia Ancho de banda ISM UNII ISM ISM ISM o UNII 1 Mbps 25 Mbps 6.5 Mbps 25 Mbps 200 Mbps Tabla 1. Resumen estándares IEEE Ancho de banda máximo 2 Mbps 54 Mbps 11 Mbps 54 Mbps 540 Mbps 2.3.2 RF Site Survey Las redes inalámbricas utilizan un medio compartido, el aire, para transmitir ondas de radio frecuencia (RF). En este, existen obstáculos e interferencias que afectan la calidad del aire. Dos redes similares (por ejemplo, dos sucursales bancarias de arquitectura similar) pueden dar rendimientos muy diferentes por causa del entorno: vecinos, ruidos, materiales de construcción, decorados, etc. Por lo tanto, es de vital importancia, antes de desplegar una red inalámbrica, estudiar “el terreno” y el entorno. A ese estudio se le conoce como “site survey” – estudio o evaluación de sitio. Un site survey de RF es el primer paso en el diseño y desarrollo de una red inalámbrica, y el más importante para asegurar la operación deseada. Un estudio de sitio es un proceso en el cual el “perito” estudia las instalaciones para entender las características de RF en el ambiente, planea y revisa las áreas de cobertura, verifica la interferencia y determina el lugar apropiado para establecer los dispositivos inalámbricos de la infraestructura de la red. La meta principal del site survey es proveer suficiente información para determinar el número y ubicación de los access points que provean la adecuada cobertura a través del edificio. Un site survey de RF adicionalmente detecta la presencia de interferencia proveniente de otros orígenes (microondas, teléfonos inalámbricos) que puedan degradar el performance de la WLAN. Cuando conducimos un site survey de RF, se realizan los siguientes pasos: - Definir requisitos de usuario. Obtener un diagrama del área. Inspección visual del área. Identificación de áreas y densidad de usuarios. Determinación preliminar de los access points. Verificar la locación de los access points. Documentar los resultados. Para saber más… Teare D. (2007). Designing for Cisco Internetwork Solution. 2nd Ed. Pearson Education. Bruno A. (2007). CCDA Official Exam Certification Guide. 3rd Ed. Pearson Education. Unidad II. Calidad en el servicio (QoS) Objetivo. El alumno implementará y administrará la QoS en las redes de las organizaciones para aprovechar al máximo la infraestructura de telecomunicaciones. Figura 5. Ejemplo de QoS 1. Introducción a la calidad en el servicio (QoS) Hace pocos años, debido básicamente a la baja capacidad de las redes, la posibilidad de llevar a cabo aplicaciones relacionadas con información multimedia (videoconferencia, audioconferencia, video bajo demanda, pizarras compartidas, teletrabajo, telemedicina, etc.) eran prácticamente impensable, pero en estos momentos es una realidad. Se ha avanzado mucho en la comprensión de audio y video, y en tecnologías de redes. Afortunadamente, en la actualidad se están implantando nuevas tecnologías de fibra óptica que proporcionan el gran ancho de banda requerido por las aplicaciones anteriores, pero no basta solo con el aumento del mismo, es necesario gestionarlo de manera eficiente: utilizarlo en un porcentaje elevado asegurando una calidad determinada. Esto es la calidad en el servicio (QoS). Hasta hace poco este término no era importante en la mayoría de los sistemas. Para comprobarlo tan solo tenemos que pensar en los algoritmos que se usan actualmente en la transmisión de paquetes por la red (pensar en el sistema Best Effort utilizado en Internet), estos algoritmos suelen garantizar la llegada de todos los paquetes, pero no dan ninguna cota respecto al límite de su llegada a destino. Esta forma de transmisión es buena para muchas aplicaciones, como por ejemplo la transmisión de archivos (FTP), la navegación vía Web, el correo electrónico, donde lo importante es que los datos lleguen correctamente. Para el tráfico en tiempo real, en cambio, los datos necesitan llegar a su destino en un tiempo determinado, ya que tardar un poco más implica que la aplicación se detendría por falta de datos, lo cual sería inadmisible. La calidad en el servicio (QoS) es el rendimiento de extremo a extremo de los servicios electrónicos tal y como los percibe el usuario final. Los parámetros de QoS son: el ancho de banda (bandwith), el retardo (delay), la variación del retardo (jitter) y la pérdida de paquetes (packet loss). Una red debe garantizar cierto nivel de calidad de servicio para un nivel de tráfico que sigue un conjunto especificado de parámetros. La implementación de políticas de calidad de servicio se puede enfocar en varios puntos según los requerimientos de la red, los principales son: Asignar ancho de banda en forma diferenciada. Evitar y/o administrar la congestión de la red. Manejar prioridades de acuerdo al tipo de tráfico. Modelar el tráfico de la red. Ancho de banda (Bandwidth) El término ancho de banda es una medida de la capacidad de transmisión de datos y se refiere al número de bits por segundo que pueden viajar a través de un medio. Esta capacidad se ve disminuida por factores negativos tales como el retardo, que pueden causar un deterioro en la calidad. Aumentar el ancho de banda significa poder transmitir más datos (algo así como aumentar el número de carriles de una autopista), pero también implica un incremento económico y, en ocasiones, resulta imposible su ampliación sin cambiar de tecnología de red. Retardo (Delay) Es la variación temporal y/o retraso de la llegada de los flujos de datos a su destino. Es una característica que se hace muy evidente en aplicaciones como la videoconferencia donde todos hemos experimentado alguna vez el retraso en la recepción de algún mensaje vocal enviado por nosotros y el retardo existente entre la señal de voz y la señal de video. Teniendo en cuenta hacia qué tipo de aplicaciones se están orientando las telecomunicaciones (es evidente la llegada de voz sobre IP), es necesario que las en las políticas de QoS definidas para nuestra red este parámetro sea reducido al mínimo. Variación del retardo (Jitter) Es lo que ocurre cuando los paquetes transmitidos en una red no llegan a su destino en debido orden o en la base de tiempo determinada, es decir, varían en latencia. Algo semejante a la distorsión de una señal. En redes de conmutación de paquetes, jitter es una distorsión de los tiempos de llegada de los paquetes recibidos, comparados con los tiempos de los paquetes transmitidos originalmente. Esta distorsión es particularmente perjudicial para el tráfico multimedia. Una solución ante el jitter es la utilización de buffers en el receptor. Pero esta medida es poco eficaz, dado que sería necesario un gran tamaño para los buffers, lo que implica un costo económico en los equipos, y porque estos buffers incrementarían el retardo. El tamaño de uno de estos buffers debería ser al menos dos veces el tamaño del jitter y el retardo adicional introducido por el buffer podría superar el retardo máximo permitido por la aplicación. Pérdida de paquetes (packet loss) Indica el número de paquetes perdidos durante la transmisión. Normalmente se mide en tanto por ciento. Por ejemplo, los routers pierden/niegan/descartan paquetes por muchas razones, muchas de las cuales, las herramientas QoS no pueden hacer nada. 2. Modelos de QoS | Existen 3 modelos de QoS llamados Best-Effort, IntServ y DiffServ. Los cuales serán definidos a continuación: Best-Effort. Este modelo es el más sencillo. Es un modelo simple de servicio, en el cual, una aplicación envía información cuando ella lo desea, en cualquier cantidad, sin ningún permiso requerido y sin informar previamente a la red. Es decir, simplemente este modelo quiere decir que no se aplica calidad en el servicio al tráfico. Además, este modelo no asegura tasa de transferencia, retraso o fiabilidad. Por último, utiliza el modelo de cola FIFO (First In First Out) para sus transmisiones. Decimos que una red o un proveedor ofrece calidad en el servicio cuando se garantiza el valor de uno o varios de los parámetros que definen esta calidad. Si el proveedor no se compromete en ningún parámetro decimos que lo que ofrece es un servicio “best-effort”. TCP/IP fue diseñado para dar un servicio best-effort también. Existen aplicaciones que no pueden funcionan en redes congestionadas con best-effort, por ejemplo, la videoconferencia o VoIP. IntServ (Integrated Services). Este modelo se basa en la idea de reserva de recursos en la red por flujos. Un flujo es una cadena de paquetes que fluyen por la red desde una aplicación en una computadora origen hasta una aplicación en una computadora destino. Para cada flujo entrante se definen los recursos (ancho de banda, retardo, etc.) que serán necesarios para este flujo. La reserva de recursos debe establecerse previamente en cada uno de los routers que forman parte del camino entre el origen y el destino. Cada nodo en el camino indica si puede asegurar la reserva y mantiene una tabla con el estado de la reserva por flujo. La principal limitación de este modelo es la gran cantidad de información que debe almacenar cada nodo, provocando que la solución no sea aplicable en situaciones con gran cantidad de flujos entre usuarios finales. DiffServ (Differentiated Services). Este modelo será descrito a continuación. 3. Descripción de DiffServ QoS Differentiated Services es un protocolo de QoS propuesto por IETF [RFC 2475 y RFC 2474] que permite distinguir diferentes clases de servicio marcando los paquetes. Consiste en un método para marcar o etiquetar paquetes, permitiendo a los routers modificar su comportamiento de envío. Cada tipo de etiqueta representa un determinado tipo de QoS y el tráfico con la misma etiqueta se trata de la misma forma. DiffServ fue desarrollada en respuesta a la necesidad de métodos toscos pero simples de proveer diferentes niveles de servicio para el tráfico de internet y para soportar diferentes tipos de aplicaciones y negocios específicos. Para proporcionar los diferentes niveles de servicio utiliza el campo type of service (ToS) o DiffServ Codepoint (DSCP) de la cabecera del estándar IPv4 e IPv6. Éste es un campo de 8 bits estando los últimos 2 reservados. Con los 6 bits restantes se consiguen 64 combinaciones: 48 para el espacio global y 16 para uso local. Figura 6. Cabecera IPv4 Para su funcionamiento, DiffServ divide el tráfico en unas pocas clases y los recursos se asignan con base a las clases (y no a los flujos individuales como IntServ), lo que hace que esta arquitectura no sufra el problema de agotamiento de recursos de la red. Para el control del tráfico DiffServ tiene dos enrutadores (routers): los nodos frontera y los nodos interiores (Figura 7). Solo los nodos frontera clasifican tráfico y marcan paquetes, mientras que los nodos interiores usan las clases codificadas en la cabecera del paquete (llamadas clases de retransmisión o forwarding equivalence class) para determinar el tratamiento de los paquetes. El tratamiento que reciben los paquetes según su clase se denomina tratamiento de retransmisión (PHB ó Per-Hop Behaviour). Figura 7. Arquitectura de una red DiffServ Los conceptos clave de DiffServ se pueden resumir de la siguiente forma: Toma ventaja de las propiedades escalables de las herramientas QoS basadas en clases para diferencias entre tipos de paquetes, con la meta de “diferenciar servicios en Internet”. En una red simple, los paquetes deberían ser marcados al ingreso a un punto dentro de la red, con otros dispositivos realizando elecciones QoS basados en el campo marcado. El campo marcado estará en el encabezado IP y no en el encabezado de la capa de enlace de datos, ya que el encabezado IP permanece a lo largo de toda la red. Entre redes, los paquetes pueden ser reclasificados y remarcados al ingresar dentro de otra red. Para facilitar el marcado, el encabezado IP ha sido redefinido al incluir un campo de 6 bits llamado DSCP, el cual permite 64 clasificaciones diferentes. Aparte de las estrategias generales de QoS, DiffServ realmente provee dos características claves adicionales: el campo DSCP y algunas sugerencias de cómo usar este campo. 4. Clasificación y marcado de tráfico La mayoría de las herramientas QoS clasifican el tráfico. El cual, permite a cada clase de tráfico recibir un trato diferente con respecto a otras clases de tráfico. Estos diferentes tipos de tráfico, en terminología QoS se les llama típicamente clases de servicio. La clasificación permite a los dispositivos decidir qué paquetes son parte de cada clase de servicio. Las herramientas de clasificación y marcado de tráfico no solo clasifican paquetes en clases de servicio, sino que también marcan los paquetes en la misma clase de servicio con el mismo valor en un campo en el encabezado. Al marcar los paquetes, otras herramientas QoS que examinan el paquete más tarde, pueden examinar los bits de marca para que sea más fácil clasificar los paquetes. Casi todas las herramientas QoS usan la clasificación en algún nivel. Para poner un paquete en una cola de espera diferente a otro paquete, el IOS debe diferenciar de alguna forma entre los dos paquetes, por ejemplo: paquetes de voz (VoIP) y paquetes de datos. Por ejemplo, muchas herramientas QoS permiten clasificar utilizando listas de control de acceso (ACL). Si la ACL 101 permite el paso a un paquete, la herramienta de encolado podría poner el paquete en una cola, si la ACL 102 permite el paso a otro paquete, este es almacenado en una segunda cola de espera, y así sucesivamente. Marcado de tráfico basado en clases El marcado de tráfico basado en clases puede clasificar paquetes en clases de servicio al examinar directamente el encabezado de la trama, paquete, celda (ATM) y segmento. Este método de marcado también puede utilizar ACL para igualar (match) paquetes. Clasificación con NBAR (Network Based Application Recognition) NBAR provee un router con la capacidad de clasificar paquetes, particularmente paquetes difíciles de identificar. Independientemente, NBAR puede ser configurado para mantener contadores de tipo de tráfico y volumen de tráfico de cada tipo. NBAR clasifica paquetes que, normalmente, son difíciles de clasificar. Por ejemplo, algunas aplicaciones utilizan números de puertos dinámicos, entonces, un comando “match” configurado estáticamente, buscando por un número de puerto particular TCP o UDP, simplemente podría no clasificarlo. NBAR puede buscar en el encabezado TCP y UDP y mandar al nombre del host, URL o tipo MIME en solicitudes HTTP. Marcado de tráfico El marcado de tráfico involucra la configuración de algunos bits dentro del encabezado de la capa de red, con el objetivo de dejar a otros dispositivos QoS realizar la clasificación basado en los valores de las marcas. Algunas opciones del marcado de tráfico tienen sentido para todos los dispositivos de una LAN, mientras otros solamente cuando se utilizan plataformas de hardware específicas. Campos QoS del encabezado IP Los dos campos más populares para el marcado de tráfico para QoS son el campo “prioridad” (Precedence) y el campo “DSCP” (Differentiated Services Code Point). Figura 8. Campos IP Precedence y DSCP Se puede marcar los campos “prioridad” y DSCP con cualquier valor binario válido de 3 o 6 bits, respectivamente. Toda la clasificación QoS se resuelve con este campo en el modelo DiffServ, ya que se identifica cada paquete su agregado de tráfico (BA, Behavior Aggregate). Cada BA es identificado por un único código DS. En términos concretos un PHB (Per-Hop Behaviors) se refiere a la programación, encolamiento, definición de políticas o características de un nodo en cualquier paquete, es decir, cómo se le tratará. El marcado de tráfico puede ocurrir en dos lugares: - La fuente original del tráfico, como un servidor web, marca el tráfico. Un router, como el primer router que el tráfico encuentra, clasifica y marca el tráfico. Cuando un paquete entra en un router, la lógica de ruteo selecciona su puerto de salida, y su valor DSCP es usado para conducir el paquete a una cola específica o tratamiento específico en ese puerto. El PHB particular es configurado por un mecanismo administrador de la red, estableciendo la tabla de comportamiento dentro del router. Clase de servicio LAN (LAN Class of Service – CoS) Muchos de los switches LAN de hoy en día pueden marcar y reaccionar a campos de capa 2, llamado clase de servicio (CoS) dentro de los encabezados Ethernet. El campo CoS existe solamente dentro de las tramas Ethernet cuando los enlaces troncales 802.1Q o ISL (InterSwitching Link) están siendo usados. El estándar IEEE 802.1P actualmente define el uso de los bits CoS dentro del encabezado 802.1Q. se puede utilizar el campo para establecer 8 valores binarios diferentes, los cuales pueden ser utilizados para la clasificación llevada a cabo por herramientas QoS, de la misma forma que los campos “prioridad” y “DSCP”. La figura 9 muestra el encabezado descrito anteriormente. Figura 9. Campos CoS LAN 5. Mecanismos de QoS para administrar y evitar la congestión de la red Cisco utiliza el término “administración de la congestión” para referirse a los sistemas de encolamiento de sus productos. La mayoría de la gente entiende los conceptos básicos de encolamiento, ya que la mayoría de nosotros lo experimenta día a día: una cola de espera para pagar los abarrotes en el supermercado, una cola de espera para ser atendidos en el banco y así sucesivamente. Los sistemas de encolamiento tienen un impacto en las 4 características mencionadas anteriormente: ancho de banda, delay, jitter y pérdida de paquetes. Mucha gente escucha el término QoS e inmediatamente piensa en sistemas de encolamiento, pero QoS incluye muchos más conceptos y características que solamente encolar. Ciertamente, los sistemas de encolamiento son muy a menudo las herramientas desarrolladas más importantes. Los sistemas de encolamiento más básicos utilizan una cola sencilla con un tratamiento FIFO (First In First Out). Y, ¿qué significa esto? Bueno, cuando el IOS decide tomar el siguiente paquete de la cola, de todos los que están esperando, toma aquel que llegó primero como se muestra en la figura 10. Figura 10. Cola FIFO. El encolamiento FIFO no requiere las dos características más interesantes de otras herramientas de encolamiento: clasificación y planeación. Finalmente, cabe mencionar que el IOS Cisco utiliza por default el método de encolamiento “weighted fair” (espera equitativa ponderada) en lugar del encolamiento FIFO y que para cambiarse, los routers proveen los comandos necesarios para ajustar estos parámetros. Encolamiento por prioridad (PQ – Priority Queuing) La característica más distintiva de las colas de prioridad es su programación. PQ programa el tráfico de manera que las colas de prioridad más alta siempre obtienen el servicio, con el efecto secundario en las colas de baja prioridad. Se pueden establecer un número máximo de 4 colas, llamadas: alta, medio, normal y baja. El proceso de este mecanismo es muy simple, siempre inicia en la cola de alta prioridad y ella transmitirá primero, si esta cola no tiene paquetes en espera, la cola de mediana prioridad tiene la opción de transmitir paquetes y así sucesivamente. La cola de baja prioridad transmitirá sus paquetes si ninguna de las anteriores tiene paquetes en espera. Encolamiento por espera equitativa ponderada (WFQ - Weighted Fair Queuing) Este método de encolamiento clasifica paquetes en flujos. Un flujo es un conjunto de paquetes que tienen la misma dirección IP origen y destino y los mismos números de puerto tanto origen como destino. Dado que WFQ es basado en flujos, cada flujo utiliza diferentes colas FIFOS separadas, el número de colas alcanza las 4096 colas por interface. Es un método automatizado que provee una justa asignación de ancho de banda para todo el tráfico de la red. Como se mencionó, WFQ ordena el tráfico en flujos utilizando una combinación de parámetros. Por ejemplo, para una conversación TCP/IP, se utiliza el protocolo IP (dirección origen y destino), etc. Una vez distinguidos estos flujos el router determina cuáles son de uso intensivo o sensible al retardo, priorizándolos y asegurando que los flujos de alto volumen sean empujados al final de la cola, y los volúmenes bajos, sensibles al retardo, sean empujados al principio de la cola. Esta técnica es apropiada en situaciones donde se desea proveer un tiempo respuesta consistente ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a las condiciones cambiantes del tráfico en ésta. A manera de resumen, mostramos las características más importantes: Tabla 1. Resumen WFQ Encolamiento por espera equitativa ponderada basado en clases (CBWFQ –Class Based Weighted Fair Queuing) WFQ tiene algunas limitantes de escalamiento, ya que la implementación del algoritmo se ve afectada a medida que el tráfico por enlace aumenta, colapsa debido a la cantidad numerosa de flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones, tomando el algoritmo de WFQ y expandiéndolo, permitiendo la definición de clases definidas por el usuario, que permiten un mayor control sobre las colas de tráfico y asignación de ancho de banda. Algunas veces es necesario garantizar una determinada tasa de transmisión para cierto tipo de tráfico, lo cual no es posible mediante WFQ pero sí con CBWFQ. Las clases que son posibles implementar con CBWFQ pueden ser determinadas según protocolo ACL, valor DSCP o interfaz de ingreso. Cada clase posee una cola separada y todos los paquetes que cumplen con el criterio definido para una clase en particular son asignados a dicha cola. Una vez que se establecen los criterios para las clases, es posible determinar cómo los paquetes pertenecientes a dicha clase serán manejados. Si una clase no utiliza su porción de ancho de banda, otras pueden hacerlo. Se pueden configurar específicamente el ancho de banda y el límite de paquetes máximos (o profundidad de cola) para cada clase. El peso asignado a la cola de la clase es determinado mediante el ancho de banda asignado a dicha clase. Encolamiento de baja latencia (LLQ – Low Latency Queueing) El encolamiento de baja latencia es una mezcla entre PQ y CBWFQ. Es actualmente el método de encolamiento recomendado para Voz sobre IP (VoIP) y telefonía IP, que también trabajará apropiadamente con videoconferencias. LLQ consta de colas de prioridad personalizadas, basadas en clases de tráficos, en conjunto con una cola de prioridad, la cual tiene preferencia absoluta sobre las otras colas. Si existe tráfico en la cola de prioridad, ésta es atendida antes que las otras colas de prioridad personalizadas. Si la cola de prioridad no está encolando paquetes, se procede a atender a otras colas según su prioridad. Debido a este comportamiento es necesario configurar un ancho de banda límite reservado para la cola de prioridad, evitando la inanición del resto de las colas. La cola de prioridad que posee LLQ provee un máximo retardo garantizado para los paquetes entrantes para esta cola, el cual es calculado como el tamaño del MTU dividido por la velocidad del enlace. Evasión de la congestión Las metodologías de evasión de la congestión se basan en la manera en que los protocolos operan, con el fin de no llegar a la congestión de la red. Las técnicas de RED (Random Early Detection) y WRED (Weighted Random Early Detection) evitan el efecto conocido como “sincronización global”. Cuando múltiples conexiones TCP operan sobre un enlace común todas ellas incrementan el tamaño de su ventana deslizante a medida que el tráfico llega sin problemas. Este aumento gradual consume el ancho de banda hasta congestionarlo. En este punto, las conexiones TCP experimentan errores de transmisión, lo que hace que se disminuya su tamaño de ventana simultáneamente. Esto conlleva a una sincronización global, donde todos los flujos comienzan a incrementar su tasa de transmisión nuevamente para llegar a otro estado de congestión. Este ciclo es repetitivo, creando picos y valles en la utilización del ancho de banda del enlace. Es debido a este comportamiento que no se utiliza los máximos recursos de la red. Los métodos de evasión de la congestión tratan con este tipo de situación, descartando paquetes de forma aleatoria. RED forza a que el flujo de reduzca el tamaño de su ventana de transmisión, disminuyendo la cantidad de información enviada. A medida que se alcanza el estado de congestión de la red, más paquetes entrantes son descartados con el fin de no llegar al punto de congestión en el enlace. Lo que limita a estas técnicas de evasión de congestión es que sólo sirve para el tráfico basado en TCP, ya que otros protocolos no utilizan el concepto de ventana deslizante. 6. AutoQoS Cisco ha desarrollado una nueva forma de QoS denominada AutoQoS y que tiene como propósito facilitarle al administrador de la red las pruebas básicas de los atributos de QoS. AutoQoS clasifica automáticamente el tráfico al implementar los comandos necesarios en la CLI del router. AutoQoS se encuentra disponible en los routers Cisco IOS desde la serie 2600 hasta la serie 7200 y también en la mayoría de los routers Cisco que utilizan versiones del IOS 12.2(15)T y posteriores. AutoQoS ofrece los siguientes beneficios: No requiere una comprensión avanzada de QoS del mismo modo que sí se desea configurar desde la línea de comandos. Se pueden reutilizar las políticas de QoS y reutilizarlas, del mismo modo en que si se tratara de una plantilla. Se ahorra mucho tiempo de configuración. Para saber más… Wendell O. (2005). IP Telephony Self Study Cisco QoS Exam Certification Guide. 2nd Ed. Pearson Education. Unidad III. Voz sobre IP (VoIP) Objetivo. El alumno configurará protocolos de VoIP en una red convergente para establecer comunicaciones de voz. 1. Introducción a la tecnología y arquitecturas de VoIP La red telefónica pública conmutada (PSTN – Public Switched Telephone Network) es una red masiva de voz. Si alguna vez has hecho alguna llamada desde o hacia un teléfono público o residencial entonces has experimentado los usos de las líneas telefónicas tradicionales. Esta red no es distinta a muchas de las redes de datos de hoy en día. Su objetivo primario es establecer rutas permitiendo a la gente, conectarse, conversar y desconectarse fácilmente. Los sistemas modernos PSTN son construidos utilizando la tecnología mostrada en la figura 11. Figura 11. Componentes PSTN Por otro lado, la telefonía IP conjuga dos mundos históricamente separados: la transmisión de voz y la de datos. Se trata de transportar la voz, previamente convertida a datos, entre dos puntos distantes. Esto posibilitaría utilizar las redes de datos para efectuar llamadas telefónicas, y yendo un poco más allá, desarrollar una única red que se encargue de cursar todo tipo de comunicación, ya sea vocal o de datos. Es evidente que tener una red en lugar de dos, es beneficioso para cualquier operador que ofrezca ambos servicios, como gastos de mantenimiento, personal, entre otros. El crecimiento y fuerte implantación de las redes IP, tanto local como remoto, el desarrollo de técnicas avanzadas de digitalización de voz, mecanismos de priorización y control de tráfico, protocolos de transmisión en tiempo real, así como el estudio de nuevos estándares que permiten las calidad en el servicio en redes IP, han creado un entorno donde es posible transmitir telefonía sobre IP lo que no significará en modo alguno la desaparición de las redes telefónicas, sino que habrá, al menos temporalmente, una fase de coexistencia entre ambas, y por supuesto, la necesaria interconexión entre gateways, denominados genéricamente gateways IP. El concepto original es relativamente simple: se trata de transformar la voz en “paquetes de información” manejables por una red IP. 2. Funciones y componentes de VoIP Muchas empresas tienen cientos –o tal vez miles- de teléfonos en sus compañías. Si cada compañía contratara una línea telefónica para cada uno de esos teléfonos el costo sería demasiado alto. En su lugar, la mayoría de las organizaciones eligen utilizar un conmutador telefónico (PBX – Private Branch Exchange) para administrar esas líneas telefónicas internas. Con estos sistemas, se permite realizar llamadas telefónicas a los usuarios internos sin utilizar recursos extras de la PSTN. El modelo de referencia OSI fue diseñado para crear métodos de conexión y comunicación estándares a través de las redes de datos. En el mundo de las transmisiones de voz, existen modelos de conexión similares que describes este tipo de comunicaciones. Cisco ha desarrollado un modelo que describe el sistema de comunicaciones unificadas, mostrado en la figura 12. Figura 12. Capas del modelo de comunicaciones unificadas de Cisco Como se puede apreciar en la figura 12, existen una serie de capas (infraestructura, procesamiento de llamadas, aplicaciones y dispositivos de usuario) y en cada una de ellas, existen dispositivos o componentes de la tecnología de VoIP. Se describirán brevemente algunos de ellos: Routers, switches y gateways de voz: estos dispositivos representan la base que sostienen la red de voz. Estos dispositivos deben proveer redundancia y QoS, esto es un aspecto clave para ellos. El tiempo de funcionamiento de sistemas de estos tipos es de 99.99% (aproximadamente unos 5 minutos de inactividad al año). Cisco Unified Communications Manager: esta serie de dispositivos de la compañía Cisco tiene como función el procesamiento de llamadas y todas las funciones que ello implique. Cuando un usuario levanta un teléfono estos dispositivos se involucran al generar un tono. Cada dígito que es marcado es analizado y procesado. Una señal de timbrado es generada en el dispositivo remoto y la llamada es establecida. Acciones como el reenvío de llamadas, el correo de voz, la intercomunicación y las comunicaciones móviles son posibles gracias a estos dispositivos. Teléfonos IP: un teléfono IP (también llamado teléfono softphone), permite hacer llamadas a cualquier otro teléfono IP, móvil o estándar por medio de la tecnología de VoIP (la voz es transmitida por internet en lugar de la red PSTN). Puede ser un teléfono basado en software o un teléfono de hardware analógico o digital. Los teléfonos IP de Cisco ofrecen una gran cantidad de funcionalidades, entre las que destacan: flexibilidad, escalabilidad, adaptabilidad, conectividad, simplicidad. Algunos ofrecen la posibilidad de transmisión de video, touchscreen, identificador de llamadas, PoE, XML, entre otros. 3. Principales protocolos de VoIP de acuerdo al modelo OSI Figura 13. Pila de protocolos de VoIP H.323. La arquitectura del protocolo H.323 define todo lo necesario (componentes, protocolos, señalización, codecs, etc.) para llevar a cabo la comunicación y garantizar así la compatibilidad entre dispositivos. H.323 consta de una serie de protocolos y una serie de codecs. Esta arquitectura es descrita en la sección 6 de esta unidad. SIP. Protocolo para el Inicio de Sesión. Fue diseñado por IETF como una alternativa a H.323. Comparar los dos protocolos, es como comparar a TCP/IP con FTP: H.323 es una suite de protocolos mientras que SIP tiene un solo propósito, que es configurar sesiones entre dispositivos de voz y video. SIP no está diseñado para transferir audio, video y demás. Es un protocolo de señalización para el establecimiento, mantenimiento y terminación de sesiones interactivas entre usuarios; estas sesiones pueden tratarse de conferencias multimedia, chat, sesiones de voz o distribución de contenidos multimedia. El protocolo SIP adopta el modelo cliente-servidor y es transaccional. El cliente realiza peticiones que el servidor atiende y genera una o más respuestas. El servidor responde, ya sea rechazando o aceptando esa petición en una serie de respuestas. Las respuestas llevan un código de estado que brindan información acerca de si las peticiones fueron realizadas con éxito o si se produjo un error. La petición inicial y todas sus respuestas constituyen una transacción. Los servidores por defecto utilizan el puerto 5060 en TCP y UDP para recibir las peticiones de los clientes SIP. Este protocolo es muy similar a HTTP y comparte con él algunos de sus principios de diseño: es legible por humanos y sigue una estructura de petición respuesta. Para implementar las funcionalidades que SIP ofrece, este protocolo se apoya de distintos componentes: los agentes de usuario y los servidores. Agentes de usuario (User Agent – UA): están formados por dos partes distintas: el User Agent Client (UAC) y el User Agen Server (UAS). Un UAC es una entidad lógica que genera peticiones SIP y recibe respuestas a esas peticiones. Un UAS es una entidad lógica que genera respuestas a las peticiones SIP. Ambos se encuentran en todos los UA, así permiten la comunicación entre diferentes agentes usuario mediante comunicaciones de tipo cliente-servidor. Los servidores SIP pueden ser de tres tipos: Proxy server: retransmiten solicitudes y deciden a qué otro servidor deben remitir, alternando los campos de la solicitud en caso de ser necesario. Es una entidad intermedia que actúa como cliente y servidor con el propósito de establecer llamadas entre los usuarios. Este servidor tiene una funcionalidad semejante a la de un Proxy HTTP que tiene una tarea de encaminar las peticiones que recibe de otras entidades más próximas al destinatario. Registrar server: es un servidor que acepta invitaciones de registro de los usuarios y guarda la información de estas peticiones para suministrar un servicio de localización y traducción de direcciones en el dominio que controla. Redirect server: es un servidor que genera respuestas de redirección a las peticiones que recibe. Este servidor reencamina las peticiones hacia el próximo servidor. La división de estos servidores es conceptual, cualquiera de ellos puede estar físicamente en una única máquina, la división de ellos puede ser por motivos de escalabilidad y rendimiento. RTP. Es el Protocolo de Transporte de Tiempo Real. Surgió con la idea de crear un protocolo específico para la gran demanda de recursos en tiempo real por parte de los usuarios. Algunos de estos recursos son la música, la videoconferencia, video, telefonía en internet y más aplicaciones multimedia. Se ejecuta, generalmente, sobre UDP ya que posee menor retardo que TCP. Por tanto, con UDP se gana en velocidad a cambio de sacrificar la confiabilidad de TCP. Debido a esto, RTP no garantiza la entrega de todos los paquetes, ni la llegada de éstos en el instante adecuado. La función básica de RTP es multiplexar varios flujos de datos en tiempo real en un solo flujo de paquetes UDP, pudiéndose enviar tanto a un solo destino (unicast) o múltiples destinos (multicast). Los paquetes son numerados de la siguiente manera: se le asigna a cada paquete un número mayor que su antecesor. Esto será útil para que la aplicación conozca si ha fallado algún paquete o no en la transmisión. RTCP. Es el Protocolo de Control de la Transmisión en Tiempo Real. Es el protocolo complementario a RTP y le brinda a éste un mecanismo de control. Utiliza UDP por el puerto adyacente siguiente al puerto que se utiliza para RTP. Este protocolo se basa en la periódica transmisión de paquetes de control a todos los participantes en sesión ofreciéndole información sobre la calidad de los datos distribuidos por la fuente. El protocolo subyacente debe proveer de la multiplexación de los datos y de los paquetes del control. Por lo tanto, la función primordial de RTCP es la de proveer una realimentación de la calidad del servicio. H.248 (MEGACO). Este protocolo es un esfuerzo colaborativo de la ITU (Union Internacional de Telecomunicaciones) y la IETF (Internet Engineering Task Force). H.248 es un protocolo para que el control de pasarela de medios (Media Gateway Controller - MGC) controle a pasarelas de medios (Media Gateways – MG). Figura 14. Protocolo H.248 En términos del protocolo H.248, un MGC es un elemento de control de medios y llamadas externas que maneja el señalamiento y el procesamiento de llamadas. Es decir, controlan a los MG para una buena gestión en el intercambio de información a través del protocolo MGCP. El MGC también suele llamarse “Call Agent”. Un MG, son elementos funcionales que median entre los puntos finales, es decir, los clientes. Este protocolo se considera complementario a H.323 y SIP, un MGC controlará varios MG utilizando H.248, pero será capaz de comunicarse con otro MGC utilizando H.323 o SIP. Para que la comunicación pueda ser realizada, se necesitará un una computadora con micrófono y bocinas o un teléfono analógico o digital. Si un usuario desea hacer una llamada debe descolgar el teléfono y marcar el número del destinatario. Esta llamada llega al MG, éste, notifica al MGC que una llamada está en camino. El MGC busca en su base de datos, el número de teléfono del destinatario para saber su IP y su número de puerto. Entonces, busca el MG del destinatario y le envía un mensaje para indicarle que le está llegando una llamada. El MG del destinatario abre una conexión RTP cuando el usuario descuelga. MGCP. El Protocolo para el Control de Pasarelas de Medios (Media Gateway Control Protocol) permite controlar las pasarelas (gateways) de los medios de comunicaciones de los elementos de control de llamada externas (MGC). Mucha gente confunde al control de medios con señalización. Señalización (como se describió anteriormente), es el establecimiento de sesiones entre dos o más partes. En redes VoIP cada una necesita ser manejada por un diferente tipo de Gateway VoIP: un Gateway de señalización y un Gateway de control de medio. Los Gateway de señalización traducen los canales de datos en protocolos de señalización compatibles con VoIP, como H.323 o SIP. Un Gateway de control de medio proporciona el puente para el tránsito entre datos de redes PSTN y VoIP. Los MGC controlan MG por medio de MGCP. Dicho con otras palabras, MGCP es un protocolo que permite comunicar al MGC (también conocido como Call Agent) con los Gateway de telefonía (PBX o PSTN). Este protocolo es de tipo maestro-esclavo donde el MGC informa al MG qué hacer. Los mensajes MGCP viajan sobre UDP/IP por la misma red de transporte IP con seguridad IPSec. El formato de trabajo genera una inteligencia externa a la red (concentrada en el MGC) y donde la red de conmutación está formada por routers de la red IP. El Gateway solo realiza funciones de conversión vocal y genera un camino RTP entre extremos. La sesión de MGCP puede ser punto a punto o multipunto. El protocolo MGCP entrega al Gateway la dirección IP, el puerto UDP y los perfiles de RTP. 4. Cálculo de requerimientos de ancho de banda El punto fundamental en el diseño de redes o rediseño de redes existentes para el transporte de VoIP, es el cálculo del ancho de banda necesario para la prestación adecuada del servicio. El requerimiento del ancho de banda necesario para el transporte de VoIP es el resultante de dos factores: 1. el número de llamadas concurrentes. Es la estimación de la cantidad máxima de llamadas simultáneas que se podrán gestionar en un enlace. Esta estimación debe considerar la actual de llamadas telefónicas simultáneas entre diferentes puntos, como el posible margen de crecimiento y las políticas de la organización al respecto. 2. el requerimiento de ancho de banda para gestionar cada conversación telefónica. Cuando se implemente VoIP se asume un conjunto de elecciones que impactan en ese requerimiento: códec, opciones de compresión, enlaces los que se rutearán las llamadas, etc. Para entender al método, se hará mediante un ejemplo que permita entenderlo más fácilmente. Paso 1. Calcular el tamaño de las tramas de voz. Para esta tarea, se puede emplear el siguiente procedimiento: a) este parámetro es resultado del códec utilizado, que da como resultado el tamaño de la porción de datos. A esto debe sumarse el tamaño de los encabezados de capa 4, capa 3 y capa 2. Tamaño de la trama = Payload + Encabezado 4 + Encabezado 3 + Encabezado 2 Por ejemplo, las tramas utilizadas al utilizar G.729 tienen una longitud de 20 Bytes, a eso debemos sumarle los encabezados RTP, UDP e IP necesarios, que son 40 Bytes adicionales, y luego el encabezado de capa de enlace, que suponiendo que se trata de una trama PPP agrega 6 Bytes (al final del procedimiento se agregan las tablas de los valores necesarios): Tamaño de trama = 20B + 40B + 6B = 66 Bytes b) dado el peso del encabezado en el tamaño de la trama a transmitir, en enlaces de bajo ancho de banda (menos de 768 Kbps) es conveniente aplicar compresión de los encabezados de capa 3 y capa 4, lo que se suele denominar compresión de RTP (cRTP). Esto reduce los 40 Bytes iniciales a 2 o 4. De este modo, el cálculo queda: Tamaño de trama = 20B + 2B + 6B = 28 Bytes c) a fin de continuar el cálculo, es conveniente convertir el tamaño expresado en Bytes a bits: 28 Bytes x 8 bits/Byte = 224 bits/trama Paso 2. Calcular el ancho de banda requerido por una llamada: a) los códecs actualmente utilizados para la digitalización de voz (G.711, G.728, G.729) generan 50 tramas por segundo. b) Para calcular el ancho de banda requerido para cada llamada se debe multiplicar el tamaño de cada trama por la cantidad de tramas que se envían por segundo: BW/llamada = tamaño de la trama x tramas por segundo BW/llamada = 224 bits/trama x 50 tramas/seg = 11200 bps/llamada Paso 3. Calcular el ancho de banda requerido en la implementación: a) Se debe considerar primero el número de llamadas concurrentes y multiplicar el ancho de banda requerido para cada llamada por el número de llamadas concurrentes: BW requerido = BW/llamada x llamadas recurrentes Para el ejemplo, supongamos que se trata de administrar un máximo de 10 llamadas recurrentes generadas con el códec G.729 sobre un enlace PPP con cRTP: BW requerido = 11,200 bps x 10 = 112,000 bps = 112 Kbps Finalmente, es preciso tener en cuenta que: - El tamaño de la porción de datos depende del códec implementado. La porción correspondiente a los encabezados de capa 3 y 4 está en función del enlace que de que se trate. En este ejemplo se ha considerado PPP. Cuando se implementa voz sobre VPN IPSec, se debe considerar el overhead correspondiente a la implementación de IPSec que se esté aplicando. Figura 15. Códecs y sus valores Capa OSI Tecnología Encabezado 2 3 4 5 Sobrecarga Ethernet Frame Relay PPP 802.1Q IP UDP RTP L2TP MPLS IPSec (bytes) 18-20 4-6 6 22 20 8 20 24 4 50-57 Tabla 1. Tecnologías y valores de encabezados 5. Configuración de puertos e interfaces de voz en un router Puertos FXS (Foreign eXchange Station) Los puertos FXS conectan dispositivos finales. Generalmente, dispositivos analógicos como teléfonos, fax o módems. También se les denomina interfaces de abonado, ya que se envía la línea analógica hacia el abonado. Una interfaz FXS proporciona alimentación eléctrica, señalización de llamada y tono al dispositivo terminal. Estas interfaces son las que permiten conectar un teléfono analógico convencional a un router o central de telefonía IP, es decir, estas interfaces -o puertosemulan a una línea analógica tradicional. Puerto FXO (Foreign eXchange Office) Estos puertos actúan como enlaces troncales para la PSTN o PBX. Es el puerto que recibe la línea analógica. Es la interfaz que permite conectar un dispositivo terminal a un servicio de telefonía como PSTN o una PBX. Envía al sistema telefónico una señal de colgado o descolgado (cierre de loop). Este puerto recibe las señales del puerto FXS. Un teléfono tiene un puerto FXO, es decir, este puerto no envía señales de tono o timbrado, solo recibe las señales de los FXS. FXS y FXO son siempre pares que se corresponde mutuamente: una interfaz FXS se conecta en el otro extremo de la línea a una interfaz FXO. Figura 16. Interfaces FXS y FXO Cuando se instala una central telefónica (PBX), la línea telefónica se conecta al puerto FXO de la PBX, la cual provee múltiples puertos FXS para conectar los teléfonos o aparatos de fax. Figura 17. Interfaces FXS y FXO con una PBX Gateway de voz Es el dispositivo que permite interconectar la red PSTN o las PBX de telefonía tradicional con la red IP. Este dispositivo puede ser un router o un PBX IP y debe contar con tantos puertos FXO como líneas telefónicas desee acceder y puertos FXS como PBXs o teléfonos convencionales desee conectar. Figura 18. Gateway de Voz Ejemplo A partir de ahora, se revisará la configuración de un router Cisco IOS para operar como Gateway de voz, definiendo un plan de marcación (dial plan) que permitirá utilizar la red de telefonía pública como la red IP para el transporte de voz, usando el ejemplo que se muestra a continuación: Figura 19. Topología de ejemplo para configurar interfaces de voz Como se puede observar en la figura 19, se tienen 2 routers Cisco conectados entre sí a través de sus puertos seriales utilizando la subred 172.16.1.0/30. El router 1 tiene conectado un teléfono analógico (interno 720) a través de un puerto FXS. El router 2 conecta a la PSTN usando un puerto FXO y da acceso al interno 721 mediante un puerto FXS. Para permitir la operación es necesario definir un plan de marcación. El código de configuración mostrado es para el router 2: ! interface Serial0/0/0 ip address 172.16.1.1 255.255.255.252 ! ! Redirige una llamada dirigida al interno 720 ! a través del enlace serial (sobre IP) ! hacia el Router1 dial-peer voice 1 voip destination-pattern 720 session-target ipv4:172.16.1.2 ! ! Una llamada al interno 721 ! genera señal de ring en el puerto FXS dial-peer voice 2 pots destination-pattern 721 port 1/0/0 ! ! Define dial-peer para acceso a línea externa ! Marcando 9 se obtiene línea dial-peer voice 3 pots destination-pattern 9 port 2/0/0 ! Cada número de interno definido requiere de un "destination-pattern" que define el ID que se recibe. Cuando se trata de una comunicación telefónica tradicional, a ese destination-pattern se asocia el puerto de voz correspondiente, es el caso por ejemplo del interno 721.Cuando se trata de destination-pattern cuyo tráfico debe encaminarse a través de la red IP se define la dirección IP de destino del dispositivo en el cual se encuentra conectado ese interno, como es el caso del interno 720. 6. Protocolo H.323 La Unión Internacional de Telecomunicaciones (ITU-T) originalmente creo el protocolo H.323 para permitir la transmisión de voz, video y datos a través de conexiones ISDN. Ahora ha sido adaptado para trabajar en ambientes LAN. Los diseñadores de H.323 lo crearon como un protocolo punto a punto. Esto, le permite a cada dispositivo que ejecuta H.323 una completa independencia de otros dispositivos. Esto permite configurar cada dispositivo H.323 independientemente y evitar “reliance” sobre cualquier otro dispositivo para una operación normal. De esta forma, si el Gateway H.323 pierde comunicación con otros routers, continúa operando y proporciona soporte a dispositivos de voz sin perder ninguna capacidad de procesamiento de llamadas. La desventaja de este diseño punto a punto es la cantidad de configuración que debe realizarse en cada dispositivo. Dado que se configura cada Gateway H.323 independientemente de los demás, se necesita un conocimiento completo de la red. Figura 20. Topología con Gateway H.323 Por ejemplo, considere la red mostrada en la figura 20. En esta red, necesitaría configurar cada Gateway H.323 para conocer acerca de todas las extensiones de las oficinas remotas. Por ejemplo, sería necesario configurar el Gateway 1 para apuntar a la IP 10.1.1.2 y alcanzar las extensiones 2XXX, apuntar a la 10.1.1.3 para alcanzar las extensiones 3XXX y apuntar a la 10.1.1.4 para alcanzar las extensiones 4XXX. Sería necesario entonces repetir este proceso en cada uno de los Gateway H.323 para alcanzar a las demás oficinas. Por último, imagine que su red crece de 4 a 10 o hasta 20 oficinas remotas, la cantidad de configuración de cada uno de estos dispositivos de voz podría volverse muy difícil de administrar. Esta configuración se puede facilitar al implementar un Gatekeeper H.323 (también aparece en la figura 20). Este dispositivo actúa como punto de referencia central en la red H.323 para números de teléfono, control de acceso y administración de ancho de banda. Por ejemplo, si fuera necesario configurar la red mostrada en la figura 20 utilizando un gatekeeper, solamente este dispositivo requeriría conocimiento completo de la red. De esta forma, se configuran los Gateways para “preguntar” al gatekeeper por la ubicación y los números de marcación en el momento en que lo necesiten para alcanzar otro dispositivo en la red. Además de actuar como directorio telefónico en la red, el gatekeeper también provee control para el ingreso de llamadas (CAC – Call Admission Control) y administración de ancho de banda. Un Gateway no solo pregunta al gatekeeper por una extensión telefónica dada, sino también pregunta: “¿Estoy autorizado para hacer esta llamada?” (CAC) y “¿Hay suficiente ancho de banda para hacerla?”. De esta forma, se habilita a un dispositivo para que administre el ancho de banda disponible en la WAN asegurando que cada enlace no esté saturado de tráfico. El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana, regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15 del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y RDSI.En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP. Componentes H.323 • Entidad La especificación H.323 define el término genérico entidad como cualquier componente que cumpla con el estándar. • Extremo Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede generar y/o recibir secuencias de información. • Terminal Un terminal H.323 es un extremo de la red que proporciona comunicaciones bidireccionales en tiempo real con otro terminal H.323, gateway o unidad de control multipunto (MCU). Esta comunicación consta de señales de control, indicaciones, audio, imagen en color en movimiento y/o datos entre los dos terminales. Conforme a la especificación, un terminal H.323 puede proporcionar sólo voz, voz y datos, voz y vídeo, o voz, datos y vídeo. • Gatekeeper El gatekeeper (GK) es una entidad que proporciona la traducción de direcciones y el control de acceso a la red de los terminales H.323, gateways y MCUs. El GK puede también ofrecer otros servicios a los terminales, gateways y MCUs, tales como gestión del ancho de banda y localización de los gateways o pasarelas. El Gatekeeper realiza dos funciones de control de llamadas que preservan la integridad de la red corporativa de datos. La primera es la traslación de direcciones de los terminales de la LAN a las correspondientes IP o IPX, tal y como se describe en la especificación RAS. La segunda es la gestión del ancho de banda, fijando el número de conferencias que pueden estar dándose simultáneamente en la LAN y rechazando las nuevas peticiones por encima del nivel establecido, de manera tal que se garantice ancho de banda suficiente para las aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las funciones anteriores para los terminales, Gateways y MCUs, que están registrados dentro de la denominada Zona de control H.323. Figura 21. Arquitectura H.323 • Gateway Un gateway H.323 (GW) es un extremo que proporciona comunicaciones bidireccionales en tiempo real entre terminales H.323 en la red IP y otros terminales o gateways en una red conmutada. En general, el propósito del gateway es reflejar transparentemente las características de un extremo en la red IP a otro en una red conmutada y viceversa. • MCU (Multipoint Control Units) La unidad de control multipunto está diseñada para soportar la conferencia entre tres o más puntos bajo el estándar H.323, llevando la negociación entre terminales para determinar las capacidades comunes para el proceso de audio y video y controlar la multidifusión. La comunicación bajo H.323 contempla las señales de audio y video. La señal de audio se digitaliza y se comprime bajo los algoritmos soportados, tales como G.711 o G.723, y la señal de video (opcional) se trata con la norma H.261 o H.263. Los datos (opcional) se manejan bajo el estándar T.120 que permite la compartición de aplicaciones en conferencias punto a punto y multipunto. Ejemplo H.323 A continuación se analizará detalladamente una llamada. En una llamada H.323 hay varias fases como se indica en el siguiente gráfico y varios protocolos cada uno de un color. Figura 22. Fases de una llamada H.323 Una llamada H.323 se caracteriza por las siguientes fases: 1. ESTABLECIMIENTO - - - En esta fase lo primero que se observa es que uno de los terminales se registra en el gatekeeper utilizando el protocolo RAS (Registro, admisión y estado) con los mensajes ARQ y ACF. Posteriormente utilizando el protocolo H.225 (que se utiliza para establecimiento y liberación de la llamada) se manda un mensaje de SETUP para iniciar una llamada H.323. Entre la información que contiene el mensaje se encuentra la dirección IP, puerto y alias del llamante o la dirección IP y puerto del llamado. El terminal llamado contesta con un CALL PROCEEDING advirtiendo del intento de establecer una llamada. En este momento el segundo terminal tiene que registrarse con el gatekeeper utilizando el protocolo RAS de manera similar al primer terminal El mensaje ALERTING indica el inicio de la fase de generación de tono. Y por último CONNECT indica el comienzo de la conexión. 2. SEÑALIZACIÓN DE CONTROL - - En esta fase se abre una negociación mediante el protocolo H.245 (control de conferencia), el intercambio de los mensajes (petición y respuesta) entre los dos terminales establecen quién será master y quién slave, las capacidades de los participantes y codecs de audio y video a utilizar. Como punto final de esta negociación se abre el canal de comunicación (direcciones IP, puerto). Los principales mensajes H.245 que se utilizan en esta fase son: o TerminalCapabilitySet (TCS). Mensaje de intercambio de capacidades soportadas por los terminales que intervienen en una llamada. o OpenLogicalChannel (OLC). Mensaje para abrir el canal lógico de información que contiene información para permitir la recepción y codificación de los datos. Contiene la información del tipo de datos que será transportados. 3. AUDIO Los terminales inician la comunicación y el intercambio de audio (o video) mediante el protocolo RTP/RTCP. 4. DESCONEXIÓN - - En esta fase cualquiera de los participantes activos en la comunicación puede iniciar el proceso de finalización de llamada mediante mensajes CloseLogicalChannel y EndSessionComand de H.245. Posteriormente utilizando H.225 se cierra la conexión con el mensaje RELEASE COMPLETE Por último se liberan los registros con el gatekeeper utilizando mensajes del protocolo RAS Para saber más… Cioara J. (2009). CCNA Voice Official Exam Certification Guide. Pearson Education. Cisco Press. ISBN 987-158720-2070. Unidad IV. Tecnologías WAN Objetivo. El alumno integrará las tecnologías WAN y de banda ancha en las comunicaciones actuales para adaptarlas a las necesidades de las empresas. 1. Servicios de banda ancha y 3G En telecomunicaciones, se conoce como banda ancha a la transmisión de datos en la cual se envía simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redes, este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión. Banda base es la señal de una sola transmisión en un canal, banda ancha significa que lleva más de una señal y cada una de ellas se transmite en diferentes canales, hasta su número máximo de canal. Algunas de las variantes de los servicios de Línea Digital de Suscriptor (DSL – Digital Subscriber Line) son de banda ancha en el sentido de que los datos se envían por un canal y la voz por otro canal pero compartiendo el mismo par de cables. El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La Comisión Federal de Comunicaciones de los Estados Unidos (FCC, por sus siglas en inglés) define al servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada (del Internet a la computadora del usuario) o de subida (de la computadora del usuario al Internet). Tipos de conexiones de banda ancha Línea Digital de Suscriptor (DSL) La Línea Digital de Suscriptor (DSL, por sus siglas en inglés) es una tecnología de transmisión telefónica que transmite datos más rápido a través de las líneas telefónicas de cobre ya instaladas en casas y empresas. La banda ancha de DSL proporciona velocidades de transmisión que van desde varios cientos de kilobits por segundo (Kbps) hasta millones de bits por segundo (Mbps). La disponibilidad y velocidad de su servicio de DSL puede depender de la distancia que hay entre su casa o negocio a las instalaciones más próximas de la compañía de teléfonos. Algunos tipos de tecnologías de transmisión de la DSL son: o o Línea digital asimétrica de suscriptor (ADSL, por sus siglas en inglés) - es usada principalmente por usuarios en residencias que reciben una gran cantidad de datos pero no mandan muchos datos, como son las personas que navegan por Internet. La ADSL proporciona una velocidad más rápida en la transferencia de datos que bajan a la computadora del cliente que en la transferencia de datos que suben a la central telefónica. El ADSL permite una transmisión de datos de bajada más rápida a través de la misma línea que usa para proveer el servicio de voz, sin interrumpir las llamadas telefónicas regulares en esa línea. Línea digital simétrica de suscriptor (SDSL, por sus siglas en inglés) - se usa típicamente en los negocios para servicios tales como video conferencias que necesitan un ancho de banda importante para la transmisión de datos de subida y bajada. Algunas formas más rápidas de DSL disponibles típicamente para empresas son: o o Línea digital de suscriptor de alta velocidad (HDSL, por sus siglas en inglés); y Línea digital de suscriptor de muy alta velocidad (VDSL, por sus siglas en inglés). Módem de Cable El servicio de módem de cable permite a los operadores de cable suministrar acceso a Internet de alta velocidad usando los cables coaxiales que envían imágenes y sonidos a su televisor. La mayoría de los módems de cable son dispositivos externos que tienen dos conectores, uno en la salida de pared del cable y el otro en la computadora. La velocidad de transmisión de datos es de 1.5 Mbps o más. Los suscriptores pueden tener acceso al servicio de módem de cable simplemente prendiendo sus computadores sin tener que marcar al proveedor del servicio de Internet (ISP, por sus siglas en inglés). Podrá ver la TV por cable y usar el Internet al mismo tiempo. Las velocidades de transmisión varían dependiendo del tipo de módem de cable, red del cable y carga de tráfico. Las velocidades son comparables con la DSL. Fibra óptica La fibra o fibra óptica es una tecnología muy nueva que proporciona servicio de banda ancha. La tecnología de fibra óptica convierte las señales eléctricas que llevan los datos en luz y envía la luz a través de fibras de vidrio transparentes con un diámetro cercano al del cabello humano. La fibra transmite los datos a velocidades muy superiores a las velocidades de la DSL o módem de cable actuales, normalmente en diez o cien veces más Mbps. La velocidad real que experimenta variará dependiendo de diversos factores como qué tan cerca lleva su proveedor de servicio la fibra a su computadora y la forma como configura el servicio, incluyendo la cantidad de ancho de banda utilizada. La misma fibra que provee su banda ancha puede también simultáneamente suministrar servicios de telefonía por Internet (VoIP) y de vídeo, incluyendo vídeo según demanda. Los proveedores de servicios de telecomunicaciones (en su mayoría compañías telefónicas) están ofreciendo banda ancha por fibra óptica en áreas limitadas y han anunciado planes para ampliar sus redes de fibra y ofrecer un paquete de servicios de voz, acceso a Internet y vídeo. Las variantes de esta tecnología permiten que la fibra llegue hasta el hogar o empresa del cliente, hasta la esquina de su casa o algún lugar entre las instalaciones del proveedor y el cliente. Inalámbrica La banda ancha inalámbrica conecta su casa o negocio a Internet usando un enlace de radio entre la localidad del cliente y las instalaciones del proveedor del servicio. La banda ancha inalámbrica puede ser móvil o fija. Las tecnologías inalámbricas que usan equipo direccional con un rango mayor proveen el servicio de banda ancha en áreas remotas o muy poco pobladas donde el servicio de la DSL o del módem de cable sería muy costoso. Generalmente las velocidades son comparables a las de la DSL y el módem de cable. Normalmente se requiere de una antena externa. Cada vez es más frecuente el servicio de banda ancha inalámbrica fija en aeropuertos, parques de la ciudad, bibliotecas y otros lugares públicos llamados "hotspots". Los "hotspots" usan generalmente una tecnología de rango corto con velocidades de transmisión de hasta 54 Mbps. La tecnología de fidelidad inalámbrica (Wi-Fi) se usa con frecuencia también en conjunto con el servicio de la DSL o módem de cable para conectar los dispositivos de una casa o negocio al Internet vía una conexión de banda ancha. Los servicios de banda ancha inalámbrica móvil se pueden obtener también de compañías de telefonía móvil y otros. Estos servicios generalmente son adecuados para los clientes que tienen mucha movilidad y requieren una tarjeta especial para PC con una antena integrada que se conecta a la computadora portátil del usuario. Generalmente proveen velocidades menores de transmisión en el rango de varios cientos de Kbps. Satélite Así como los satélites que giran alrededor de la tierra proveen los enlaces necesarios para los servicios de telefonía y televisión, también proveen enlaces para la banda ancha. La banda ancha por satélite es otra forma de banda ancha inalámbrica, muy útil también para dar servicio a áreas remotas o muy poco pobladas. Las velocidades de transmisión de datos de subida y bajada para la banda ancha por satélite dependen de varios factores, incluyendo el paquete de servicios que se compra y el proveedor, la línea de visibilidad directa del consumidor al satélite y el clima. Normalmente un consumidor puede esperar recibir (descargar) los datos a una velocidad de aproximadamente 500 Kbps y enviarlos (cargar) a una velocidad de aproximadamente 80 Kbps. Estas velocidades pueden ser menores que las que se tienen con la DSL o el módem de cable, pero la velocidad para descargar los datos es aproximadamente 10 veces más rápida que la velocidad que se tiene con el Internet de marcación telefónica. El servicio puede interrumpirse en condiciones climáticas severas. Banda ancha por la línea eléctrica (BPL) La banda ancha por la línea eléctrica (BPL, por sus siglas en inglés) es el servicio que se proporciona a través de la red existente de distribución de energía eléctrica de bajo y medio voltaje. Las velocidades de transmisión de la BPL son comparables a las de la DSL y el módem de cable. La BPL puede llegar a las casas usando las conexiones y salidas eléctricas existentes. La BPL es una tecnología emergente, actualmente disponible en áreas muy limitadas. Tiene un potencial significativo ya que las líneas eléctricas están instaladas virtualmente en todos lados, aliviando la necesidad de construir nuevas instalaciones de banda ancha para cada consumidor. Tecnología 3G La tecnología 3G (tecnología inalámbrica de tercera generación) es un servicio de comunicaciones inalámbricas que le permite estar conectado permanentemente a Internet a través del teléfono móvil, computadoras de bolsillo, el Tablet PC o una computadora portátil. La tecnología 3G promete una mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que una conexión telefónica estándar. Lo que permite que podamos tener video llamadas, dado que dichas llamadas se harán con una conexión directa a internet. Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones. 2. Estándares WAN Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de servicios como las telefónicas. Las tecnologías WAN operan en las 3 capas inferiores del modelo OSI. Con frecuencia las organizaciones desean compartir información con otras organizaciones que se encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel nacional o mundial de la misma manera en que las computadoras de una LAN se conectan con cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares satisfacer sus necesidades de comunicaciones de área extensa. Redes WAN y modelo OSI Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos, incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas, entre ellas la Organización Internacional de Normalización (ISO), la Asociación de la Industria de las Telecomunicaciones (TIA, Telecommunications Industry Association) y la Asociación de Industrias Electrónicas (EIA, Electronic Industries Alliance). Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de servicios de comunicaciones. Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de datos de alto nivel (HDLC, High‐Level Data Link Control), una norma ISO o uno de sus subgrupos o variantes. Figura 23. Modelo OSI y Tecnologías WAN Terminología de la capa física de la WAN Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la WAN, por ejemplo: Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado interno localizados en las instalaciones del suscriptor y conectados con un canal de telecomunicaciones de una portadora. El suscriptor es dueño de un CPE o le alquila un CPE al proveedor de servicios. En este contexto, un suscriptor es una empresa que contrata los servicios WAN de un proveedor de servicios u operadora. Equipo de comunicación de datos (DCE, Data Communications Equipment): también llamado equipo de terminación de circuito de datos, el DCE está compuesto por dispositivos que ponen datos en el bucle local. La tarea principal del DCE es suministrar una interfaz para conectar suscriptores a un enlace de comunicación en la nube WAN. Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que pasan los datos de la red o la computadora host de un cliente para transmisión a través de la WAN. El DTE se conecta al bucle local a través del DCE. Punto de demarcación: punto establecido en un edificio o un complejo para separar los equipos del cliente de los equipos del proveedor de servicios. Físicamente, el punto de demarcación es la caja de empalme del cableado que se encuentra en las instalaciones del cliente y que conecta los cables del CPE con el bucle local. Normalmente se coloca en un lugar de fácil acceso para los técnicos. PPPoE y PPPoA PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos que estén conectados. Estándar oficial RFC 2516 (PPPoE) PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364 (PPPoA) El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL. Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos. Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC‐MUX y LLC. Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como servidor DHCP. Dispositivos WAN Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN, entre ellos: o o o o Módem: modula una señal portadora analógica para codificar información digital y demodula la señal portadora para decodificar la información transmitida. CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad de servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data service unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo, llamada CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la integridad de la conexión mediante la corrección de errores y la supervisión de la línea. La DSU convierte las tramas de la línea Portadora T en tramas que la LAN puede interpretar y viceversa. Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales y admitir a cientos de usuarios al mismo tiempo. Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes portadoras. Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay, ATM o X.25, y operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la nube también es posible utilizar switches de red pública de telefonía conmutada (PSTN, Public o Switched Telephone Network) para conexiones de conmutación de circuitos, por ejemplo red digital de servicios integrados (ISDN, Integrated Services Digital Network) o conexión telefónica analógica. Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones seriales u otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo externo, como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router al punto de presencia (POP, point of presence) local del proveedor de servicios. Estándares de la capa física de una WAN Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas, mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa física, entre ellos: o o o o o EIA/TIA‐232: este protocolo permite velocidades de señal de hasta 64 Kbps en un conector D de 25 pins en distancias cortas. Antiguamente denominado RS‐232. La especificación ITU‐T V.24 es en efecto lo mismo. EIA/TIA‐449/530: este protocolo es una versión más rápida (hasta 2 Mbps) del EIA/TIA‐232. Utiliza un conector D de 36 pins y admite cables más largos. Existen varias versiones. Este estándar también se conoce como RS‐422 y RS‐423. EIA/TIA‐612/613: este estándar describe el protocolo de interfaz serial de alta velocidad (HSSI, High‐Speed Serial Interface), que brinda acceso a servicios de hasta 52 Mbps en un conector D de 60 pins. V.35: este es el estándar de ITU‐T para comunicaciones síncronas entre un dispositivo de acceso a la red y una red de paquetes. Originalmente especificado para soportar velocidades de datos de 48 kbps, en la actualidad soporta velocidades de hasta 2.048 Mbps con un conector rectangular de 34 pins. X.21: este protocolo es un estándar de UIT‐T para comunicaciones digitales síncronas. Utiliza un conector D de 15 pins. Protocolos de enlace de datos Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su transmisión a lugares remotos, así como también los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías diferentes, como ISDN, Frame Relay o ATM. Muchos de estos protocolos utilizan los mismos mecanismos básicos de entramado, HDLC, un estándar ISO o uno de sus subgrupos o variantes. ATM se diferencia de los demás porque utiliza celdas pequeñas de un tamaño fijo de 53 bytes (48 bytes para datos), mientras que las demás tecnologías de conmutación de paquetes utilizan paquetes de tamaño variable. Los protocolos de enlace de datos WAN más comunes son: HDLC PPP Frame Relay ATM ISDN y X.25 son protocolos de enlace de datos más antiguos que en la actualidad se utilizan con menor frecuencia. Sin embargo, ISDN se sigue incluyendo en este curso porque se utiliza para proporcionar redes VoIP con enlaces PRI. X.25 se menciona para ayudar a explicar la importancia de Frame Relay. Frame Relay Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean económicas entre LAN muy dispersas. Unidad V. Switches multicapa Objetivo. El alumno configurará switches multicapa aplicando los protocolos de capa 2 y 3 para mejorar el rendimiento de la red. 1. Introducción a los switches multicapa Un switch multicapa (multilayer switch) es un dispositivo que integra funciones de conmutación y enrutamiento basado en hardware dentro de una misma plataforma. Un switch multicapa realiza, a una trama y un paquete, lo que hacen los switches y routers tradicionales, incluyendo: Proveer múltiples rutas simultáneas. Segmentar dominios de broadcast. Proveer reenvío de tramas a un destino específico basados en información de capa 2. Determinar la ruta de reenvío basado en información de capa 3. Validar la integridad de la trama de capa 2 y el paquete de capa 3 a través de sumas de verificación (checksums) y otros métodos. Verificar la expiración del paquete y sus actualizaciones. Tener la habilidad de soportar QoS. Tener la habilidad de soportar VoIP. Entre otros. Debido a que son diseñados para manejar tráfico LAN de alto rendimiento, un switch multicapa puede ser ubicado en cualquier lugar dentro de la red, reemplazando a los switches y routers tradicionales. Mientras que muchos switches operan a nivel 2 (enlace de datos) según el modelo OSI, algunos incorporan funciones de router y operan a nivel 3 (red) también. De hecho, un multilayer switch o switch de nivel 3 es increíblemente similar a un router. Cuando un router recibe un paquete, mira dentro de él y verifica las direcciones de origen y destino para determinar el camino que el paquete debería tomar. Un switch estándar relega en la dirección MAC para determinar el origen y destino de un paquete, lo cual es puramente nivel 2. La diferencia fundamental entre un router y un multilayer switch es que estos últimos tienen hardware optimizado para pasar datos igual de rápido que los switches de nivel 2. Sin embargo, toman decisiones de cómo debe ser transmitido el tráfico a nivel 3, igual que un router. Dentro de un entorno LAN, un multilayer switch es normalmente más rápido que un router porque está construido en la electrónica que usan los switches. La manera que tienen los multilayer switches de tratar los paquetes y gestionar el tráfico es muy similar a la de los routers. Ambos usan un protocolo de enrutamiento y una tabla de rutas para determinar el mejor camino. Sin embargo, un switch de nivel 3 tiene la habilidad de reprogramar el hardware de una forma dinámica con la información de rutas que tiene. Esto es lo que le permite procesar los paquetes mucho más deprisa. En los multilayer switches actuales, la información que se recibe de los protocolos de routing, es usada para actualizar las tablas hardware de almacenamiento caché. Normalmente estos equipos se usan compañías para uso interno donde hacen de punto central de comunicaciones en edificio, comunicándolo con otros edificios o nodos. Tienen las típicas tarjetas de red donde los usuarios se pueden conectar a sus puertos, y una tarjeta que hace la función de enrutar tráfico a nivel 3. Decimos que hacen de punto central porque también suele interconectar otros switches de nivel 2 que están distribuidos por las plantas del edificio. 2. VLANs Básicamente, una vlan es una colección de nodos que están agrupadas en un solo dominio broadcast, el cual no está limitado estrictamente a una localización física. Los routers no pasan los broadcast o paquetes de amplia difusión. Un dominio broadcast es una red, o porción de red, que recibirá un paquete broadcast de cualquier nodo localizado dentro de la red. En una red típica, todo lo que está en el mismo lado del router, forma parte del mismo dominio broadcast. En un switch donde se han creado muchas vlans, tiene múltiples dominios broadcast. Aun así, se sigue necesitando un router, o un multilayer switch, para realizar un enrutamiento de paquetes de una vlan a otra – el switch no puede hacer esto por sí mismo. Una Red de Área Local Virtual (VLAN) puede definirse como una serie de dispositivos conectados en red que a pesar de estar conectados en diferentes equipos de interconexión (hubs o switches), zonas geográficas distantes, diferentes pisos de un edificio e, incluso, distintos edificios, pertenecen a una misma Red de Área Local. Con los switches, el rendimiento de la red mejora en los siguientes aspectos: Aísla los “dominios de colisión” por cada uno de los puertos. Dedica el ancho de banda a cada uno de los puertos y, por lo tanto, a cada computadora. Aísla los “dominios de broadcast”, en lugar de uno solo, se puede configurar el switch para que existan más “dominios”. Proporciona seguridad, ya que si se quiere conectar a otro puerto del switch que no sea el suyo, no va a poder realizarlo, debido a que se configuraron cierta cantidad de puertos para cada VLAN. Controla más la administración de las direcciones IP. Por cada VLAN se recomienda asignar un bloque de IPs, independiente uno de otro, así ya no se podrá configurar por parte del usuario cualquier dirección IP en su máquina y se evitará la repetición de direcciones IP en la LAN. No importa en donde nos encontremos conectados dentro del edificio de oficinas, si estamos configurados en una VLAN, nuestros compañeros de área, dirección, sistemas, administrativos, etc., estarán conectados dentro de la misma VLAN, y quienes se encuentren en otro edificio, podrán “vernos” como una Red de Área Local independiente a las demás. El funcionamiento e implementación de las VLANs está definido por un organismo internacional llamado IEEE Computer Society y el documento en donde se detalla es el IEEE 802.1Q. En el estándar 802.1Q se define que para llevar a cabo esta comunicación se requerirá de un dispositivo dentro de la LAN, capaz de entender los formatos de los paquetes con que están formadas las VLANs. Este dispositivo es un equipo de capa 3, mejor conocido como enrutador o router, que tendrá que ser capaz de entender los formatos de las VLANs para recibir y dirigir el tráfico hacia la VLAN correspondiente Una VLAN es una subred IP separada de manera lógica. Las VLAN permiten que redes de IP y subredes múltiples existan en la misma red conmutada. La figura 24 muestra una red con tres computadoras. Para que las computadoras se comuniquen en la misma VLAN, cada una debe tener una dirección IP y una máscara de subred consistente con esa VLAN. En el switch deben darse de alta las VLANs y cada puerto asignarse a la VLAN correspondiente. Un puerto de switch con una VLAN singular configurada en el mismo se denomina puerto de acceso. Recuerde que si dos computadoras están conectadas físicamente en el mismo switch no significa que se puedan comunicar. Los dispositivos en dos redes y subredes separadas se deben comunicar a través de un router (Capa 3), se utilicen o no las VLAN. No necesita las VLAN para tener redes y subredes múltiples en una red conmutada, pero existen ventajas reales para utilizar las VLAN. Figura 24. VLANs Ventajas de las VLAN La productividad del usuario y la adaptabilidad de la red son impulsores clave para el crecimiento y el éxito del negocio. La implementación de la tecnología de VLAN permite que una red admita de manera más flexible las metas comerciales. Los principales beneficios de utilizar las VLAN son los siguientes: Seguridad: los grupos que tienen datos sensibles se separan del resto de la red, disminuyendo las posibilidades de que ocurran violaciones de información confidencial. Como se ve en la figura 25, las computadoras del cuerpo docente se encuentran en la VLAN 10 y están completamente separadas del tráfico de datos del Invitado y de los estudiantes. Reducción de costo: el ahorro en el costo resulta de la poca necesidad de actualizaciones de red caras y más usos eficientes de enlaces y ancho de banda existente. Mejor rendimiento: la división de las redes planas de Capa 2 en múltiples grupos lógicos de trabajo (dominios de broadcast) reduce el tráfico innecesario en la red y potencia el rendimiento. Mitigación de la tormenta de broadcast: la división de una red en las VLAN reduce la cantidad de dispositivos que pueden participar en una tormenta de broadcast. La segmentación de LAN impide que una tormenta de broadcast se propague a toda la red. En la figura 25 puede observar que, a pesar de que hay seis computadoras en esta red, hay sólo tres dominios de broadcast: Cuerpo docente, Estudiante y Invitado . Mayor eficiencia del personal de TI: las VLAN facilitan el manejo de la red debido a que los usuarios con requerimientos similares de red comparten la misma VLAN. Cuando proporciona un switch nuevo, todas las políticas y procedimientos que ya se configuraron para la VLAN particular se implementan cuando se asignan los puertos. También es fácil para el personal de TI identificar la función de una VLAN proporcionándole un nombre. En la figura 25, para una identificación más fácil se nombró "Estudiante" a la VLAN 20, la VLAN 10 se podría nombrar "Cuerpo docente" y la VLAN 30 "Invitado ". Administración de aplicación o de proyectos más simples: las VLAN agregan dispositivos de red y usuarios para admitir los requerimientos geográficos o comerciales. Tener funciones separadas hace que gestionar un proyecto o trabajar con una aplicación especializada sea más fácil, por ejemplo una plataforma de desarrollo de e-learning para el cuerpo docente. También es fácil determinar el alcance de los efectos de la actualización de los servicios de red. Figura 25. Ventajas de las VLANs Tipos de VLAN Hoy en día, existe fundamentalmente una manera de implementar las VLAN: VLAN basada en puerto. Una VLAN basada en puerto se asocia con un puerto denominado acceso VLAN. Sin embargo, en las redes existe una cantidad de términos para las VLAN. Algunos términos definen el tipo de tráfico de red que envían y otros definen una función específica que desempeña una VLAN. A continuación, se describe la terminología común de VLAN: VLAN de Datos Una VLAN de datos es una VLAN configurada para enviar sólo tráfico de datos generado por el usuario. Una VLAN podría enviar tráfico basado en voz o tráfico utilizado para administrar el switch, pero este tráfico no sería parte de una VLAN de datos. Es una práctica común separar el tráfico de voz y de administración del tráfico de datos. La importancia de separar los datos del usuario del tráfico de voz y del control de administración del switch se destaca mediante el uso de un término específico para identificar las VLAN que sólo pueden enviar datos del usuario: una "VLAN de datos". A veces, a una VLAN de datos se la denomina VLAN de usuario. VLAN Predeterminada Todos los puertos de switch se convierten en un miembro de la VLAN predeterminada luego del arranque inicial del switch. Hacer participar a todos los puertos de switch en la VLAN predeterminada los hace a todos parte del mismo dominio de broadcast. Esto admite cualquier dispositivo conectado a cualquier puerto de switch para comunicarse con otros dispositivos en otros puertos de switch. La VLAN predeterminada para los switches de Cisco es la VLAN 1. La VLAN 1 tiene todas las características de cualquier VLAN, excepto que no la puede volver a denominar y no la puede eliminar. El tráfico de control de Capa 2, como CDP y el tráfico del protocolo spanning tree se asociará siempre con la VLAN 1: esto no se puede cambiar. VLAN Nativa Una VLAN nativa está asignada a un puerto troncal 802.1Q. Un puerto de enlace troncal 802.1Q admite el tráfico que llega de muchas VLAN (tráfico etiquetado) como también el tráfico que no llega de una VLAN (tráfico no etiquetado). El puerto de enlace troncal 802.1Q coloca el tráfico no etiquetado en la VLAN nativa. Las VLAN se establecen en la especificación IEEE 802.1Q para mantener la compatibilidad retrospectiva con el tráfico no etiquetado común para los ejemplos de LAN antigua. Una VLAN nativa sirve como un identificador común en extremos opuestos de un enlace troncal. Es una optimización usar una VLAN diferente de la VLAN 1 como la VLAN nativa. VLAN de Administración Una VLAN de administración es cualquier VLAN que usted configura para acceder a las capacidades de administración de un switch. La VLAN 1 serviría como VLAN de administración si no definió proactivamente una VLAN única para que sirva como VLAN de administración. Se asigna una dirección IP y una máscara de subred a la VLAN de administración. Se puede manejar un switch mediante HTTP, Telnet, SSH o SNMP. Debido a que la configuración lista para usar de un switch de Cisco tiene a VLAN 1 como la VLAN predeterminada, puede notar que la VLAN 1 sería una mala opción como VLAN de administración; no querría que un usuario arbitrario se conectara a un switch para que se configurara de manera predeterminada la VLAN de administración. VLAN de voz Es fácil apreciar por qué se necesita una VLAN separada para admitir la Voz sobre IP (VoIP). Imagine que está recibiendo una llamada de urgencia y de repente la calidad de la transmisión se distorsiona tanto que no puede comprender lo que está diciendo la persona que llama. El tráfico de VoIP requiere: Ancho de banda garantizado para asegurar la calidad de la voz Prioridad de la transmisión sobre los tipos de tráfico de la red Capacidad para ser enrutado en áreas congestionadas de la red Demora de menos de 150 milisegundos (ms) a través de la red Para cumplir estos requerimientos, se debe diseñar la red completa para que admita VoIP. Los detalles sobre cómo configurar una red para que admita VoIP están más allá del alcance del curso, pero es útil resumir cómo una VLAN de voz funciona entre un switch, un teléfono IP de Cisco y una computadora. En la figura 26, la VLAN 150 se diseña para enviar tráfico de voz. La computadora del estudiante PC5 está conectada al teléfono IP de Cisco y el teléfono está conectado al switch S3. La PC5 está en la VLAN 20 que se utiliza para los datos de los estudiantes. El puerto F0/18 en S3 se configura para que esté en modo de voz a fin de que diga al teléfono que etiquete las tramas de voz con VLAN 150. Las tramas de datos que vienen a través del teléfono IP de Cisco desde la PC5 no se marcan. Los datos que se destinan a la PC5 que llegan del puerto F0/18 se etiquetan con la VLAN 20 en el camino al teléfono, que elimina la etiqueta de la VLAN antes de que los datos se envíen a la PC5. Etiquetar se refiere a la adición de bytes a un campo en la trama de datos que utiliza el switch para identificar a qué VLAN se debe enviar la trama de datos. Figura 26. VLAN de Voz VLAN por Puerto Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN ‐un puerto solo puede pertenecer a una VLAN ‐, el problema se presenta cuando se quieren hacer VLAN por MAC ya que la tarea es compleja. Aquí el puerto del switch pertenece a una VLAN, por tanto, si alguien posee un servidor conectado a un puerto y este pertenece a la VLAN amarilla, el servidor estará en la VLAN amarilla. VLAN por MAC Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario pertenezca a una determinada VLAN. Obviamente dependerá de la política de creación. Este tipo de VLAN ofrece mayores ventajas, pero es complejo porque hay que meterse con las direcciones MAC y si no se cuenta con un software que las administre, será muy laborioso configurar cada una de ellas. VLAN por Protocolo Lo que pertenezca a IP sé enrutara a la VLAN de IP e IPX se dirigirá a la VLAN de IPX, es decir, se tendrá una VLAN por protocolo. Las ventajas que se obtienen con este tipo de VLAN radican en que dependiendo del protocolo que use cada usuario, este se conectara automáticamente a la VLAN correspondiente. VLAN por subredes de IP o IPX Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro de este para que el usuario aunque esté conectado a la VLAN del protocolo IP sea asignado en otra VLAN subred que pertenecerá al grupo 10 o 20 dentro del protocolo. VLAN definidas por el usuario En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el frame. Si los primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las características del usuario protocolo, dirección MAC y puerto. Si el usuario manifiesta otro patrón de bits, entonces se trasladara a la VLAN que le corresponda; aquí el usuario define las VLAN. VLAN Binding Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es del puerto x, entonces se le asignara una VLAN correspondiente. También puede ser puerto, protocolo y dirección MAC, pero lo importante es cubrir los tres requisitos previamente establecidos, ya que cuando se cumplen estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN. VLAN por DHCP Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario enciende la computadora automáticamente el DHCP pregunta al servidor para que tome la dirección IP y con base en esta acción asignar al usuario a la VLAN correspondiente. Esta política de VLAN es de las últimas generaciones. ¿Qué es un enlace troncal? Es difícil describir las VLAN sin mencionar los enlaces troncales de la VLAN. Aprendió acerca de controlar broadcasts de la red con segmentación de la VLAN y observó la manera en que los enlaces troncales de la VLAN transmitieron tráfico a diferentes partes de la red configurada en una VLAN. En la figura 27, los enlaces entre los switches S1 y S2 y entre S1 y S3 están configurados para transmitir el tráfico que proviene de las VLAN 10, 20, 30 y 99. Es posible que esta red no funcione sin los enlaces troncales de la VLAN. El usuario descubrirá que la mayoría de las redes que encuentra están configuradas con enlaces troncales de la VLAN. Esta sección une su conocimiento previo sobre el enlace troncal de la VLAN y proporciona los detalles necesarios para poder configurar el enlace troncal de la VLAN en una red. Figura 27. Enlace troncal Definición de enlace troncal de la VLAN Un enlace troncal es un enlace punto a punto, entre dos dispositivos de red, que transporta más de una VLAN. Un enlace troncal de VLAN le permite extender las VLAN a través de toda una red. Cisco admite IEEE 802.1Q para la coordinación de enlaces troncales en interfaces Fast Ethernet y Gigabit Ethernet. Más adelante en esta sección, aprenderá acerca de 802.1Q. Un enlace troncal de VLAN no pertenece a una VLAN específica, sino que es un conducto para las VLAN entre switches y routers. ¿Cuál es el problema que resuelve un enlace troncal? Sin “trunking” se requiere de varios puertos dedicados a cada vlan. Utilizando “trunking” se requiere un único puerto etiquetando las tramas. 3. STP, RSTP, PVST+, PVRST, MSTP y EtherChannel Es claro que las redes de computadoras representan un componente fundamental para la mayoría de las pequeñas y medianas empresas. En consecuencia, los administradores de TI deben implementar la redundancia en sus redes jerárquicas. Sin embargo, cuando se agregan enlaces adicionales a switches y routers de la red, se generan bucles en el tráfico que deben ser administrados de manera dinámica. Cuando se pierde la conexión con un switch, otro enlace debe reemplazarlo rápidamente sin introducir nuevos bucles en el tráfico. El protocolo spanning-tree (STP) evita los inconvenientes relacionados con bucles en la red y la manera en que STP ha evolucionado en un protocolo que determina de forma rápida aquellos puertos que deben bloquearse, de forma que una red basada en red de área local virtual (VLAN, Virtual Local Area Network) no experimente bucles en el tráfico. Spanning Tree Protocol (STP) La redundancia aumenta la disponibilidad de la topología de red al proteger la red de un único punto de falla, como un cable de red o switch que fallan. Cuando se introduce la redundancia en un diseño de la Capa 2, pueden generarse bucles y tramas duplicadas. Los bucles y las tramas duplicadas pueden tener consecuencias graves en la red. El protocolo spanning tree (STP) fue desarrollado para enfrentar estos inconvenientes. STP asegura que exista sólo una ruta lógica entre todos los destinos de la red, al bloquear de forma intencional aquellas rutas redundantes que puedan ocasionar un bucle. Un puerto se considera bloqueado cuando el tráfico de la red no puede ingresar ni salir del puerto. Esto no incluye las tramas de unidad de datos del protocolo de puentes (BPDU) utilizadas por STP para evitar bucles. El bloqueo de las rutas redundantes es fundamental para evitar bucles en la red. Las rutas físicas aún existen para proporcionar la redundancia, pero las mismas se deshabilitan para evitar que se generen bucles. Si alguna vez la ruta es necesaria para compensar la falla de un cable de red o de un switch, STP vuelve a calcular las rutas y desbloquea los puertos necesarios para permitir que la ruta redundante se active. STP utiliza el algoritmo spanning tree (STA) para determinar los puertos de switch de la red que deben configurarse para el bloqueo, y así evitar que se generen bucles. El STA designa un único switch como puente raíz y lo utiliza como punto de referencia para todos los cálculos de rutas. En la figura 28, el puente raíz, el switch S1, se escoge a través de un proceso de elección. Todos los switches que comparten STP intercambian tramas de BPDU para determinar el switch que posee el menor ID de puente (BID) en la red. El switch con el menor BID se transforma en el puente raíz de forma automática según los cálculos del STA. Figura 28. Algoritmo STA La BPDU es la trama de mensaje que se intercambia entre los switches en STP. Cada BPDU contiene un BID que identifica al switch que envió la BPDU. El BID contiene un valor de prioridad, la dirección MAC del switch emisor y un ID de sistema extendido opcional. Se determina el BID de menor valor mediante la combinación de estos tres campos. Después de determinar el puente raíz, el STA calcula la ruta más corta hacia el mismo. Todos los switches utilizan el STA para determinar los puertos que deben bloquearse. Al determinar el STA las mejores rutas hacia el puente raíz para todos los destinos del dominio de broadcast, se evita que todo el tráfico sea enviado a través de la red. El STA considera los costos tanto de la ruta como del puerto cuando determina la ruta que debe permanecer desbloqueada. Los costos de la ruta se calculan mediante los valores de costo de puerto asociados con las velocidades de los puertos para cada puerto de switch que atraviesa una ruta determinada. La suma de los valores de costo de puerto determina el costo de ruta total para el puente raíz. Si existe más de una ruta a escoger, el STA elige la de menor costo de ruta. Cuando el STA determina las rutas que deben permanecer disponibles, configura los puertos de switch de acuerdo con distintas funciones. Las funciones de los puertos describen su relación en la red con el puente raíz y si los mismos pueden enviar tráfico. Puertos raíz: los puertos de switch más cercanos al puente raíz. En el ejemplo, el puerto raíz del switch S2 es F0/1, configurado para el enlace troncal entre el switch S2 y el switch S1. El puerto raíz del switch S3 es F0/1, configurado para el enlace troncal entre el switch S3 y el switch S1. Puertos designados: todos los puertos que no son raíz y que aún pueden enviar tráfico a la red. En el ejemplo, los puertos de switch F0/1 y F0/2 del switch S1 son puertos designados. El switch S2 también cuenta con su puerto F0/2 configurado como puerto designado. Puertos no designados: todos los puertos configurados en estado de bloqueo para evitar los bucles. En el ejemplo, el STA configura al puerto F0/2 del switch S3 en la función no designado. El puerto F0/2 del switch S3 se encuentra en estado de bloqueo. Al igual que con muchos estándares de redes, la evolución de STP se ha enfocado en la necesidad de crear especificaciones para toda la industria cuando los protocolos de propiedad son estándares de hecho. Cuando un protocolo de propiedad es tan predominante que todos sus competidores del mercado deben contar con soporte para el mismo, las agencias como el IEEE intervienen y crean una especificación pública. Existen muchos tipos de variantes de STP. Algunas de estas variantes son propiedad de Cisco y otras son estándares de IEEE. Protocolo Spanning Tree por VLAN (PVST) Mantiene una instancia de spanning-tree para cada VLAN configurada en la red. Utiliza el protocolo de enlace troncal ISL propiedad de Cisco que permite que un enlace troncal de la VLAN se encuentre en estado de enviar para algunas VLAN y en estado de bloqueo para otras. Debido a que PVST trata a cada VLAN como una red independiente, puede balancear la carga de tráfico de la Capa 2 mediante el envío de algunas VLAN de un enlace troncal y otras de otro enlace troncal sin generar bucles. Para PVST, Cisco desarrolló varias extensiones de propiedad del IEEE 802.1D STP original, como BackboneFast, UplinkFast y PortFast. PVST+ Cisco desarrolló PVST+ para que una red pueda ejecutar una instancia de STP para cada VLAN de la red. Con PVST+ puede bloquearse más de un enlace troncal en una VLAN y puede implementarse la carga compartida. Sin embargo, implementar PVST+ implica que todos los switches de la red se comprometan con la convergencia de la red y los puertos de switch deben ajustarse al ancho de banda adicional utilizado para cada instancia de PVST+ a fin de poder enviar sus propias BPDU. En un entorno de PVST+ de Cisco se pueden ajustar los parámetros de spanning-tree de manera que la mitad de las VLAN puedan enviar en todos los enlaces troncales. En la figura 29, el puerto F0/3 del switch S2 es el puerto emisor para la VLAN 20 y F0/2 del switch S2 es el puerto emisor para la VLAN 10. Esto se logra mediante la configuración de un switch para elegirlo como puente raíz para la mitad de la cantidad total de VLAN de la red y de otro para elegirlo como puente raíz para la otra mitad de las VLAN. En la figura 29, el switch S3 es el puente raíz para la VLAN 20 y el switch S1 es el puente raíz para la VLAN 10. La creación de distintos switches raíz en STP por VLAN genera una red más redundante. Figura 29. Protocolo PVST+ Protocolo Spanning Tree por VLAN rápido (PVST+ rápido) PVST+ rápido es una implementación de Cisco de RSTP. Admite spanning tree para cada VLAN y es la variante rápida de STP para utilizar en redes de Cisco. Se basa en el estándar IEEE 802.1w y posee una convergencia más veloz que STP (estándar 802.1D). PVST+ rápido incluye las extensiones propiedad de Cisco, como BackboneFast, UplinkFast y PortFast. Protocolo Rapid Spanning Tree (RSTP) RSTP (IEEE 802.1w) es una evolución del estándar 802.1D. Principalmente, la terminología de 802.1w STP sigue siendo la misma que la del IEEE 802.1D STP. La mayoría de los parámetros no se modifican, de modo que los usuarios familiarizados con STP puedan configurar rápidamente el nuevo protocolo. En la figura 30, la red muestra un ejemplo de RSTP. El switch S1 es el puente raíz con dos puertos designados en estado de enviar. RSTP admite un nuevo tipo de puerto. El puerto F0/3 del switch S2 es un puerto alternativo en estado de descarte. Observe que no existen puertos bloqueados. RSTP no posee el estado de puerto de bloqueo. RSTP define los estados de puertos como de descarte, aprender o enviar. Figura 30. Protocolo RTSP STP Múltiple (MSTP) Permite que se asignen VLAN múltiples a la misma instancia de spanning‐tree, de modo tal que se reduce la cantidad de instancias necesarias para admitir una gran cantidad de VLAN. MSTP se inspiró en STP de instancias múltiples (MISTP) propiedad de Cisco y es una evolución de STP y RSTP. Se introdujo en el IEEE 802.1s como enmienda de la edición de 802.1Q de 1998. El estándar IEEE 802.1Q‐2003 ahora incluye a MSTP. MSTP proporciona varias rutas de envío para el tráfico de datos y permite el balanceo de carga. Etherchannel Cisco EtherChannel® construye su tecnología en base a estándares 802.3 full-duplex de Fast Ethernet. EtherChannel agrupa varios enlaces Ethernet en un único enlace lógico, proveyendo así más ancho de banda de hasta 16 veces la capacidad máxima del enlace (full-duplex). Por ejemplo, agrupando enlaces Fast Ethernet de 100 Mbps cada uno, pudiéndose agrupar hasta 8 enlaces, se puede lograr una capacidad de hasta 1600 Mbps en full-duplex. Esta tecnología aplica tanto para Fast EthernetChannel (FEC) o Gigabit EtherChannel (GEC). Las características más resaltantes que se puede lograr con esta tecnología son: Incremento de ancho de banda. Convergencia rápida con tolerancia a fallas. Balanceo de cargas. Figura 31. Etherchannel 4. Ruteo InterVLAN Ahora que ya conoce cómo configurar las VLAN en un switch de redes, el siguiente paso es permitir a los dispositivos conectados a las distintas VLAN comunicarse entre sí. Anteriormente, aprendió que cada VLAN es un dominio de broadcast único. Por lo tanto, de manera predeterminada, las computadoras en VLAN separadas no pueden comunicarse. Existe una manera para permitir que estas estaciones finales puedan comunicarse; esta manera se llama enrutamiento inter VLAN. Tradicionalmente, el enrutamiento de la LAN utiliza routers con interfaces físicas múltiples. Es necesario conectar cada interfaz a una red separada y configurarla para una subred diferente. En una red tradicional que utiliza VLAN múltiples para segmentar el tráfico de la red en dominios de broadcast lógicos, el enrutamiento se realiza mediante la conexión de diferentes interfaces físicas del router a diferentes puertos físicos del switch. Los puertos del switch conectan al router en modo de acceso; en el modo de acceso, diferentes VLAN estáticas se asignan a cada interfaz del puerto. Cada interfaz del switch estaría asignada a una VLAN estática diferente. Cada interfaz del router puede entonces aceptar el tráfico desde la VLAN asociada a la interfaz del switch que se encuentra conectada, y el tráfico puede enrutarse a otras VLAN conectadas a otras interfaces. El enrutamiento inter VLAN tradicional requiere de interfaces físicas múltiples en el router y en el switch. Sin embargo, no todas las configuraciones del enrutamiento inter VLAN requieren de interfaces físicas múltiples. Algunos software del router permiten configurar interfaces del router como enlaces troncales. Esto abre nuevas posibilidades para el enrutamiento inter VLAN. "Router-on-a-stick" es un tipo de configuración de router en la cual una interfaz física única enruta el tráfico entre múltiples VLAN en una red. La interfaz del router se configura para funcionar como enlace troncal y está conectada a un puerto del switch configurado en modo de enlace troncal. El router realiza el enrutamiento inter VLAN al aceptar el tráfico etiquetado de la VLAN en la interfaz troncal proveniente del switch adyacente y enrutar en forma interna entre las VLAN, mediante subinterfaz. El router luego reenvía el tráfico enrutado de la VLAN etiquetada para la VLAN de destino, por la misma interfaz física. Figura 32. Enrutamiento interVLAN usando router Las subinterfaces son interfaces virtuales múltiples, asociadas a una interfaz física. Estas interfaces están configuradas en software en un router configurado en forma independiente con una dirección IP y una asignación de VLAN para funcionar en una VLAN específica. Las subinterfaces están configuradas para diferentes subredes que corresponden a la asignación de la VLAN, para facilitar el enrutamiento lógico antes de que la VLAN etiquete las tramas de datos y las reenvíe por la interfaz física. Algunos switches pueden realizar funciones de Capa 3, reemplazando la necesidad de utilizar routers dedicados para realizar el enrutamiento básico en una red. Los switches multicapas pueden realizar el enrutamiento inter VLAN. Figura 33. Enrutamiento interVLAN usando un switch multicapa 5. Alta disponibilidad en un campus Las redes que usan segmentos en campus, obtienen su funcionalidad basada en la organización, políticas, aplicaciones, equipos de trabajo o simplemente por ubicaciones geográficas. Para lograr ahorros considerables en servicios, costos y equipos se utiliza la arquitectura de las VLAN en vez de instalar redes independientes físicamente y unidas por routers Se recomienda el uso de VLANs que además estén basadas en una segmentación a través de subredes. Figura 34. Redes en un campus Para saber más… Cisco Systems (2006). Building Cisco Multilayer Switched Networks, Student Guide. Unidad VI. IPv6 Objetivo. El alumno configurará los esquemas de direccionamiento IPv6 y los tipos de tunneling de IPv4 a IPv6 para su implementación en la empresa. 1. Esquema de direccionamiento IPv6 El esquema de direccionamiento IPv6 ha sido desarrollado para ser compatible con el actual esquema de direccionamiento IPv4, lo cual, permite a las actuales redes IPv6 coexistir con la redes IPv4. El esquema de direccionamiento IPv6 incrementa el tamaño de direcciones al usar, de 32 bits a 128 bits, el cual provee 340,282,366,920,938,463,374,607,431,768,211,456 o 3.4 x 10 38 direcciones IP. IPv6 también mejora el enrutamiento, la seguridad y características de QoS al simplificar el encabezado IP. Este direccionamiento esta descrito en RFC 3513, el cual define cómo será utilizado el espacio de direcciones. Formato de direcciones IPv6 A diferencia del formato decimal separado por puntos de IPv4, IPv6 es representado por números hexadecimales. Un número hexadecimal es equivalente a 4 bits, y su representación va del 0 - 9 y de la A – F. La dirección IPv6 es un valor numérico hexadecimal de 32 dígitos, 8 grupos de 4 dígitos hexadecimales, separados por dos puntos (:), representando una dirección de 128 bits. Por ejemplo, 1041:0000:130B:0000:0000:09C0:586C:1305. Existen 3 formatos para representar una dirección IPv6: Forma hexadecimal-dos puntos. Ésta es la forma preferida n:n:n:n:n:n:n:n. Cada n representa el valor hexadecimal de uno de los ocho elementos de 16 bits de la dirección. Por ejemplo: 3FFE:FFFF:7654:FEDA:1245:BA98:3210:4562. Forma comprimida. Debido a la longitud de la dirección, resulta habitual tener direcciones que contengan una larga cadena de ceros. Para simplificar la escritura de estas direcciones, se utiliza la forma comprimida, en la que una única secuencia contigua de bloques de 0 se representa mediante un doble signo de dos puntos (::). Este símbolo sólo puede aparecer una vez en una dirección. Por ejemplo, la dirección de multidifusión FFED:0:0:0:0:BA98:3210:4562 en formato comprimido es FFED::BA98:3210:4562. La dirección de unidifusión 3FFE:FFFF:0:0:8:800:20C4:0 en formato comprimido es 3FFE:FFFF::8:800:20C4:0. La dirección de bucle invertido 0:0:0:0:0:0:0:1 en formato comprimido es ::1. La dirección no especificada 0:0:0:0:0:0:0:0 en formato comprimido es ::. Forma mixta. Esta forma combina las direcciones IPv4 e IPv6. En este caso, el formato de dirección es n:n:n:n:n:n:d.d.d.d, donde cada n representa a los valores hexadecimales de los seis elementos de dirección de 16 bits de nivel superior de IPv6, y cada d representa al valor decimal de una dirección de IPv4. Tipos de direcciones IP IPv6 define 3 tipos de direcciones: unicast, anycast y multicast. Unicast. Este tipo de direcciones son bastante conocidas. Un paquete que se envía a una dirección unicast debería llegar a la interfaz identificada por dicha dirección. Anycast. Las direcciones anycast son sintácticamente indistinguibles de las direcciones unicast pero sirven para identificar a un conjunto de interfaces. Un paquete destinado a una dirección anycast llega a la interfaz “más cercana” (en términos de métrica de “routers”). Las direcciones anycast sólo se pueden utilizar en “routers”. Multicast. Las direcciones multicast identifican un grupo de interfaces. Un paquete destinado a una dirección multicast llega a todas los interfaces que se encuentran agrupados bajo dicha dirección. 2. Tipos de tunneling IPv4 a IPv6 Los mecanismos de transición son un conjunto de mecanismos y de protocolos implementados en hosts y routers, junto con algunas guías operativas de direccionamiento designadas para hacer la transición de Internet al IPv6 con la menor interrupción posible. Dichos mecanismos están diseñados para ser usados por hosts y routers IPv6 que necesitan interoperar con hosts IPv4 y utilizar infraestructuras de ruteo IPv4. Se espera que muchos nodos necesitarán compatibilidad por mucho tiempo y quizás indefinidamente. No obstante, IPv6 también puede ser usado en ambientes donde no se requiere interoperabilidad con IPv4. Nodos diseñados para esos ambientes no necesitan usar ni implementar estos mecanismos. El tunneling es un mecanismo de transición que permite a máquinas con IPv6 instalado comunicarse entre sí a través de una red IPv4. El mecanismo consiste en crear los paquetes IPv6 de forma normal e introducirlos en un paquete IPv4. El proceso inverso se realiza en la máquina destino, que recibe un paquete IPv6. Los nodos o redes IPv6 que se encuentran separadas por infraestructuras IPv4 pueden construir un enlace virtual, configurando un túnel. Paquetes IPv6 que van hacia un dominio IPv6 serán encapsulados dentro de paquetes IPv4. Los extremos del túnel son dos direcciones IPv4 y dos IPv6. Se pueden utilizar dos tipos de túneles: configurados y automáticos. Los túneles configurados son creados mediante configuración manual. Un ejemplo de redes conteniendo túneles configurados es el 6bone. Los túneles automáticos no necesitan configuración manual. Los extremos se determinan automáticamente determinados usando direcciones IPv6 IPv4-compatible. Figura 35. Tunneling IPv6