1. ¿Qué es la Comunicación? Es principalmente transmitir información desde un punto a otro a través de una sucesión de procesos. Los diferentes medios de comunicación tienen algo en común: transmiten información. 2. ¿Qué es la telecomunicación? Las telecomunicaciones es la comunicación a distancia, técnica que consiste en transmitir un mensaje desde un punto a otro, normalmente con una comunicación de tipo bidireccional. Las telecomunicaciones abarcan varias formas de comunicación a distancia, la radio, telegrafía, televisión, transmisión de datos e interconexión de PCs a nivel de enlace. 3. ¿Cómo es el proceso de un Sistema de Comunicaciones? Dentro del *procesamiento de comunicaciones digitales* se trabaja con: El formato: este transforma la información de la fuente a una simbología digital. La codificación de la fuente: produce conversión A/D si se trata de fuente análogas y elimina la información redundante o innecesaria. El cifrado: evita que el mensaje sea entendido por usuarios no autorizados y previene que se introduzcan falsos mensajes. La codificación del canal: donde se puede reducir la probabilidad de error o los requerimientos de SNR a expensas del ancho de banda o complejidad en el decodificador. Dentro de los procesos de un Sistemas Digital de Comunicaciones se trabaja con: Generación (Abstracta): Es la generación de señal mensaje en la fuente de información. La descripción (Símbolos): Generación de señal mensaje en la fuente de información. La codificación (la adecuación al medio): Codificación de Fuente: elimina información redundante. Codificación de Canal: Adiciona información adecuada. Modulación: adaptación al canal de transmisión. La transmisión, decodificación y Regeneración de Información: Transmisión a través de un canal. Demodulación: recuperación de versión ruidos de la señal original. Decodificación de Canal: eliminar perturbaciones y estimar (recuperar) la señal original. Decodificación de Fuente: añadir información redundante necesaria para su reinterpretación por el nuevo dispositivo de recepción. Entrega de la señal mensaje estimada al usuario destino. 4. Tareas de un Sistema de Comunicaciones: Uso de un Sistema de Transmisión: Que tiene una necesidad de uso eficaz de los recursos. Intervienen técnicas de multiplexación y control de flujo. Generación de señal: Generar señales electromagnéticas para que la misma se propague por el medio de transmisión hasta el receptor. Sincronismo: Sincronismo entre el transmisor y el receptor. Sincronismo en la interfaz. Gestión del intercambio: Reglas y requisitos a cumplir por ambas partes para que la comunicación tenga efecto. Detección y corrección de errores: Para el caso que sea necesario se aplican una o ambas tareas. Control de flujo: La forma de regular el flujo de información para que no se reproduzca perdida de información por congestión. Direccionamiento: La manera de identificar las fuentes y destinos. Enrutamiento: El camino que se decide por el que los datos son enviados por la fuente hacia un destino específico. Recuperación: Recupero ante una falla. Formato de mensajes: Acuerdo entre fuente y destino. Seguridad y gestión de red: Se asegura que la información enviada por la fuente la recibe sólo el receptor. Y en gestión monitorea y configuración de los recursos que hacen al sistema. 5. Networking El objetivo básico de una red es permitir que la información se pueda compartir entre personas y/o máquinas. Uno de los tipos más comunes de redes es la Red de Área Local o LAN. Una red de computadoras puede definirse como "dos o más computadoras conectadas de alguna manera por la cual son capaces de intercambiar información." según Gary A. Donahue, de Network Warrior, 2007. A través del networking, es posible que diferentes tipos de computadoras se comuniquen. Dentro del networking, lo más importante es que todos los dispositivos hablen el mismo idioma o protocolo. Las LANS lograron reducir costos al permitir la utilización compartida entre periféricos, archivos y demás dispositivos de forma más eficiente. Con el aumento de su popularidad y uso, se hizo necesario la vinculación de distintas LAN's para poder transferir información. La solución fue la creación de las Redes de Área amplia, las WAN. LAs WAN hicieron posible que las empresas se comunicaran entre ellas, aún estando geográficamente alejadas entre sí. Central de Conmutación (Def): Una central de conmutación dentro de las telecomunicaciones, es una dispositivo clave pata poder permitir la comunicación fluida entre diferentes dispositivos redes. Su función principal es permitir que los usuarios se conecten entre si a través de diferentes medios de comunicación. En otras palabras, en un "puente" entre diferentes sistemas de comunicación. Puede ser sistemas telefónicos, plataformas de comunicaciones más complejas. Actualmente, se usan varios tipos de centrales de conmutación dentro de las telecomunicaciones: Centrales telefónicas analógicas: Estas son las que se consideran más antiguas. Centrales telefónicas digitales: usan señales digitales para transmitir la voz y otros datos. Centrales híbridas: Combinan las características de las centrales analógicas y digitales. Centrales telefónicas basadas en tecnología IP: Usan el protocolo de Internet para transmitir la voz como los datos a través de la red. Centrales virtuales: Son sistemas basados en la nube que proporcionan servicios de centralita sin necesidad de una hardware físico. 6. Redes de Datos: La comunicación se realiza por la transmisión de datos a través de nodos de conmutación. A los nodos de conmutación no les importa el contenido. Los dispositivos extremos se denominan estaciones (las computadoras, las terminales, los teléfonos, etc). Los nodos se conectan con cierta topología a través de enlaces de transmisión. Las estaciones se conectan a un nodo. El conjunto de nodos es una red de comunicaciones. 7. Evolución cronológica de las distintas redes: El primer avance que se hace en la red de transmisión entre las centrales de un aérea múltiple comienza con la posibilidad de transmitir sobre los pares de cobre señales digitales. 7.1 TDM (Time Division Multiplexing): TDM (Time Division Multiplexing): Esta tecnología consiste en la intercalación en el tiempo de nuestras de diferentes fuentes de tal manera que la información de toda ellas sea transmitida en serie sobre un mismo canal de transmisión. Es el método de combinar diversas señales muestreadas en una secuencia previamente definida. Existe dos normas fundamentales para esta multicanalización: La norma americana que contempla el envío de 24 señales simultaneas de 64 Kbits/s con una capacidad final de 1.536 Mbits/s. Su denominación es T1. La norma europea en la que envían 30 señales con carga de datos mas dos de control (30 + 2). 30 canales x 64 Kbits/s = 2.048 Mbits/s. Su denominación es E1. 7.2 PCM (Pulse Code Modulation): Después del PCM que utilizaba como medio físico los cables multipares de cobre, se logra otro salto cuantitativo con el advenimiento de la Fibra Óptica como medio superior de transmisión. Esto permitió un crecimiento en las posibilidades que ofrecía este método de multicanalización. El último paso hasta el presente proceso evolutivo de los sistemas de transmisión lo constituye la Tecnología IP. IP es un protocolo no orientado conexión, división en caso de ser necesario en paquetes, direccionamiento con direcciones internet de 32 Bits. Tamaño máximo de los paquetes: 65535 bytes. Tiempo de vida finito de los paquetes. Entrega de acuerdo al "mejor esfuerzo". 8. Central de conmutación Digital: Las evoluciones posteriores de este tipo de Centrales de Conmutación se presentan solo con modificaciones de software: La última evolución de esta tecnología es el salto cualitativo desde el concepto de la conmutación de circuitos a la de paquetes IP. Estas funciones, es decir la comunicación de clientes entre sí, ya no son efectuadas principalmente por hardware sino que en una red totalmente IP, lo que en realidad se "conmuta" son paquetes y acá juegan roles especiales los routers distribuidos en toda la red. El equipo final o de conmutación propiamente dicho lo constituye el softswitch. 9. ¿Qué es Internet? El Internet es una red de redes. Es una red conectada a otra de manera continua y simultanea. Internet es una plataforma mundial de comunicaciones multimedia, basada en el en muchos protocolos y el direccionamiento de objetos de información, servicios e individuos basado en el DNS (Domain Name System) que es el vehículo para todas las actividades que se relacionen en cualquier grado con el intercambio de información humana y de contenido en tiempo real o diferido (voz, datos, videos) y de información de comunicaciones y control entre sistemas (multimedia), utilizando diferentes sistemas informáticos y terminales de usuarios fijas y/o móviles. 9.1 Organismos de Estandarización: En las redes de datos, intervienen principalmente los siguientes organismos de estandarización: ISOC - Internal Society (1992) Miembros de la comunidad de Internet. IAB - Internet Activity Board (1993) Diseño, Ingeniería y Administración de Internet. IETF - Internet Engineering Task Force. IRTF - Internet Research Task Force (Grupo de trabajo de investigación para internet. IEEE - Institute of Electrical and Electronics Engineers. ISO - International Organization of Standardization. FNC - Federal Networking Council (Consejo federal de Redes). La IETF es una gran comunidad internacional abierta de diseñadores, operadores, proveedores e investigadores de redes preocupados por la evolución de la arquitectura y el buen funcionamiento de Internet. El trabajo se organiza en grupos por tema y cubre varias áreas (enrutamiento, transporte, seguridad, etc.). La ISO es una organización internacional no gubernamental independiente con 164 organismo nacionales de normalización como miembros. ISO llegó a publicar 22784 normas internacionales y documentos relacionados, que cubren casi todas las industrias, desde la tecnología hasta la seguridad alimentaria, la agricultura y la atención médica. Las normas internacionales ISO impactan a todos, en todas partes. el Sus inicios se dan el 23 de febrero de 1947. La IEEE es una asociación dedicada a promover la innovación y la excelencia tecnológica en beneficio de la humanidad, es la sociedad profesional técnica más grande del mundo. Se diseño para servir a profesionales involucrados en todos los aspectos de los campos eléctricos, electrónicos e informáticos y áreas relacionadas de ciencia y tecnología que subyacen a la civilización moderna. La IEEE es un desarrollador líder de estándares de la industria en una amplia gama de tecnologías que impulsan la funcionalidad, capacidades e interoperabilidad de productos y servicios, por ejemplo: IEEE 802 - Redes LAN/MAN, IEEE 802.3 - Ethernet, IEEE 802.11 - Wi-Fi, IEEE 802.15 - Wireless PAN. 1. Clasificación según área de cobertura: 1.1 WAN - Wide Area Networks: Cubren una extensa área geográfica. Se construyen usando circuitos/servicios provistos por carriers. Dentro de las telecomunicaciones un carrier es un operador de telefonía que proporciona conexión a Internet a alto nivel. Son empresas de telecomunicaciones que ofrecen servicio de conexión para empresas y usuarios particulares. Estas empresas manejan grandes redes y sistemas de comunicación para proveer servicios de alta calidad. Son vínculos o redes de largo alcance. Tradicionalmente son comunicaciones punto a punto. Cubre los requerimientos de unir diversas LANs y MANs. Puede tener limitaciones de velocidad y retardo. Sus tecnologías por lo general son: X.25 Frame relay ATM (Asynchronous Transfer Mode) 1.2 MAN - Metropolitan Area Networks: Cobertura circunscripta a una ciudad o área de la misma. Puede ser pública o privada: Entre LANs y WANs. El formato tradicional de las WANs (punto a punto conmutado) resulta inadecuado para el crecimiento de las organizaciones. Requerimientos de altas velocidades a costos menores, en áreas grandes. Tecnologías: Wireless Networks Metropolitan Ethernet (MetroEthernet) 1.3 LAN - Local Area Networks Geográficamente restringidas a oficinas, edificios, campus o casas. Normalmente los dispositivos conectados, así como su infraestructura pertenecen a una única organización. Altas velocidades. Corto alcance. Típicamente un solo edificio o un grupo de ellos. Apunta a diferentes soluciones técnicas. Usualmente una LAN es de una misma organización. La responsabilidad de la gestión queda en el dueño, Las velocidades de datos de las redes LAN suele ser alto, Tecnologías: Ethernet Token Ring FDDI ATM WIFI 1.4 PAN - Personal Area Network PAN es una red informática para interconectar dispositivos centrados en el espacio de trabajo de una persona. Una PAN proporciona transmisión de datos entre dispositivos como PC, teléfonos, tablets y wearebles, etc. Posicionamiento: No compite con WIFI porque los alcances y velocidades no son comparables. El target son los dispositivos que no requieren grandes volúmenes de datos a transferir. Características: El alcance de la PAN se extiende a 10 metros. WPAN: Red PAN inalámbrica. Se apoya en protocolos definidos en IEEE 802.15. Redes PAN inalámbricas. Protocolos cableados (USB, FireWire, etc.). Bajo costo y bajo consumo. Hasta 8 dispositivos por red. Data rates menores a 1Mbps. Tecnologías: Bluetooth IEEE 802.15.1 2. Tipos de redes: 2.1 Point-to-Point: El canal de datos es usado para la comunicación entre dos nodos. En este escenario ambos dispositivos se consideran iguales en el proceso de comunicación. Puede ser: Simplex, Half duplex y Full duplex. 2.2 Multipoint: Acá varios elementos están conectados en un mismo medio, se pueden ver entre sí, si lo requieren. Cada nodo puede transmitir y recibir. 2.3 Switched Networks: Contiene nodos de conmutación. Estos nodos no tienen injerencia en el contenido de los transmitido. La información atraviesa la red pasando a través de los nodos. Clasificación: conmutación de circuitos, conmutación de paquetes. 3. Clasificación según la forma de transmisión: Conmutación de paquetes: Es no orientado a la conexión. La información (datos) se transfieren a la red divididos en pequeñas unidades que se las llama paquetes, que contienen la información que permite al hardware de la red saber a donde y cómo enviar un paquete de una máquina a otra. La principales ventajas son que pueden procesarse múltiples comunicaciones entre múltiples máquinas, su costo y su desempeño. La conmutación de paquetes es más adecuada para la transmisión de datos comparada con la conmutación de circuitos. 3.1 Tipos de transmisión: Simplex: Es unidireccional, es la transmisión que ocurre en una sola dirección, deshabilitando al receptor de responder al transmisor. Half Duplex: Permite transmitir en ambas direcciones, sin embargo, la transmisión puede ocurrir solamente en una dirección a la vez. Full Duplex: describe a la transmisión y recepción de datos simultáneas a través de un canal. Un dispositivo que opera en modo full duplex es capaz de realizar transmisiones de datos de red bidireccionales al mismo tiempo. Puede enviar y recibir datos al mismo tiempo, lo que mejora el rendimiento al duplicar el uso del ancho de banda. 4. Topologías de la red: Topología física de red: es una representación gráfica o mapa de cómo de unen en red las estaciones de trabajo de la red y sus dispositivos. Tipos: Topología de malla: Todas las estaciones de la red se conectan entre sí. Topología de anillo: Consta de varios nodos unidos formando un círculo lógico. Los mensajes se mueven de nodo en una sola dirección. El cable forma un bucle cerrado formando un anillo. Topología estrella: Todas las estaciones de la red tienen que pasar a través de un dispositivo conocido como concentrador (HUB). Topología bus: Consta de un único cable (BUS) al que se conecta cada dispositivo de la red. 5. Medios de Networking: Para que los dispositivos transmitan entre ellos esta información codificada, tienen que estar conectados físicamente entre sí. Entonces, se usa cableado de distintos tipos: Cable coaxial. Par trenzado. Fibra óptica. A estos materiales se los denomina medios de transmisión. El tipo de medio a utilizar se va a determinar en base a: La velocidad que se desea que los datos se envíen por la red. El costo. La ubicación física y geográfica del cableado. 5.1 Cable Coaxial: El cable coaxial consiste en dos elementos de conducción. 1) Uno está ubicado en el centro del cable y es un conductor de cobre. 2) El conductor de cobre está rodeado por un cable de aislación flexible. 3) Sobre este material aislante hay un blindaje compuesto de un trenzado de cobre tramado o una malla metálica que actúa como segundo cable del circuito. 4) El trenzado exterior actúa como blindaje del conductor interno. 5) De este modo ayuda a reducir la cantidad de interferencia. Existen dos tipos de cable coaxial: THICK (Grueso): Más conocido como cable amarillo. Fue el que más se utilizaba en la mayoría de la redes por su velocidad y distancia mayores, pero son de costo alto y con poca flexibilidad. THIN (Delgado): Se utilizó para reducir costos en el cableado. Limitación en su distancia, esto llevaba a la no regeneración de la señal. 5.2 Cable de par trenzado: Se tiene que tomar en cuenta: El máximo que se puede separar los pares son de ½ pulgadas. El máximo de tensión que se puede aplicar es de 11.34 Kg. Tipos de cable de par trenzado: UTP (Unshielded Twisted Pair): Es un cable de par trenzado normal. No tiene blindaje. Bajo costo y su facilidad de manejo. Su mayor desventaja es su alta tasa de error, limitaciones para trabajar a grandes distancias. Con el tiempo se convirtió en el sistema de cableado más ampliamente usado en el mercado. Los pares trenzados minimizan los efectos electromagnéticos causados por el cable, así como también la interferencia de campos externos. STP (Shielded Twisted Pair): Los pares trenzados están protegidos por una malla metálica, y cada par por una lamina blindada. La malla evita las interferencias (menor tasa de error). Alto costo de fabricación. 6. Atenuación: 6.1 ¿Qué es? La atenuación representa la perdida de potencia de señal a medida que esta se propaga desde el transmisor hacia el receptor. Se mide en decibeles. Atenuación = 20 Log10 (V. Trans/V. Rec.) Se puede medir en una vía (round trip). Una atenuación pequeña es buena y es lo que busca ya que significa que es la correcta combinación entre la atenuación del cable y los conectores adecuados con su longitud correcta y su correcto crimpeamiento. Near End CrossTalk (NEXT); Es la interferencia electromagnética causada por una señal generada por un par sobre otro par resultando en ruido. *NEXT = 20Log10 (V. Trans./V. Acoplado) (V. Acoplado es el "ruido" en el segundo par.) Se mide en el extremo del transmisor (donde la señal es más fuerte). Un NEXT grande es bueno y es lo buscado ya que cuanto mayor es este valor, menor es el ruido que es producido por el segundo par. Cuando un sistema de cableado tiene problemas con el NEXT pueden ocurrir errores en la red. Para evitar el NEXT se usa el cable y los conectores adecuados ponchados de manera correcta. 6.2 ACR (Attenuation-to-crosstal ratio) Tambien conocido como headroom, es la diferencia en decibeles (dB), entre la atenuación de la señal producida por un cable y el NEXT. Para que una señal sea recibida con una tasa de errores de bit aceptable, la atenuación y el NEXT tiene que estar optimizados. En la práctica, la atenuación depende de la longitud y el diámetro del cable y es una cantidad fija. Sin embargo, el NEXT puede reducirse asegurando que el cable esté bien trenzado, no aplastado, y asegurando que los conectores estén instalados correctamente. El NEXT también puede ser reducido cambiando el cable UTP por STP. El ACR tiene que estar de varios dB para que el cable funcione adecuadamente. Si el ACR no es lo suficientemente grande, los errores se presentan con más frecuencia. Una pequeña mejora en el ACR reduce dramáticamente la tasa de errores a nivel de bit. 7. Fibra Óptica: Constituido por uno o más hilos hechos de cuarzo fundido o plástico especialmente tratado. Cada uno de estos consta de: Núcleo central. Cubierta del núcleo. Aislante entre fibras. Tienen un gran anchoo de banda. Baja atenuación de la señal. Integridad. Inmunidad a interferencias. Alta seguridad. Larga duración. Alto costo en fabricación e instalación. ¿Cómo funciona? ¿Por qué no se sale la luz de la fibra óptica? La luz no se escapa del núcleo porque la cubierta y el núcleo están hechos de diferentes tipos de vidrio (y por lo tanto tienen diferentes índices de refracción). Esta diferencia en los índices obliga a que la luz sea reflejada cuando toca la frontera entre el núcleo y la cubierta. El cable de la fibra óptica: Revestimiento: Capa de protección puesta sobre la cubierta. Se hace con un material termoplástico si se requiere rígido o con un material tipo gel si necesita que sea suelto. Material de refuerzo: Sirve para proteger la fibra de esfuerzos a los que sea sometida durante la instalación, de contradicciones y expansiones debidos a cambios de temperatura, etc. Se hacen de varios materiales, desde acero (en algunos cables con varios hilos de fibra) hasta Kevlar. Envoltura: Es el elemento del cable. Es el que protege al cable del ambiente donde esté instalado. De acuerdo a la envoltura que se use el cabe es para interiores, exteriores, aéreo o para ser enterrado. 7.1 Tipos de Cable de fibra óptica: Cable aéreo (de 12 a 96 hilos): Es cable para exteriores, ideal para aplicaciones de CATV. 1. Alambre mensajero. 2. Envoltura de polietileno. 3. Refuerzo, 4. Tubo de protección, 5. Refuerzo central, 6. Gel resistente al agua, 7. Fibras ópticas, 8. Cinta de Mylar. 9. Cordón para romper la envoltura de instalación. Cable de alta densidad de hilos (de 96 a 256 hilos): Cable para exteriores para troncales de redes de telecomunicaciones. 1. Polietileno, 2. Acero corrugado, 3. Cinta impermeable, 4. Polietileno, 5. Refuerzo, 6. Refuerzo central, 7. Tubo de protección, 8. Fibras ópticas, 9. Gel resistente al agua, 10. Cinta de Mylar, 11. Cordón para romper la envoltura. 7.2 Clases de fibras ópticas: Multimodo: Usada generalmente para comunicación de datos. Tiene un núcleo grande (más fácil de acoplar). En este tipo de fibra muchos rayos de luz (o modos) se pueden propagar simultáneamente. Cada modo sigue su propio camino. La máxima longitud recomendada del cable es de 3 Km. I = 850 nm. Monomodo: Tiene un núcleo más pequeño que la fibra multimodo. En este tipo de fibra sólo un rayo de luz (o modo) puede propagarse a la vez. Es utilizada especialmente para telefonía y televisión por cable. Permite transmitir a altas velocidades y a grandes distancias (40 km). I = 1300 nm. 8. Ancho de banda de la fibra óptica: Los fabricantes de fibra multimodo especifican cuánto afecta la dispersión modal a la señal estableciendo un producto ancho de banda-longitud (o ancho de banda). Una fibra de 200Mhz-km puede llevar una señal de 200 MHz un Km de distancia o 100 MHz en 2km. La dispersión modal varía de acuerdo con la frecuencia de la luz utilizada. Se deben revisar las especificaciones del fabricante. Un rango de ancho de banda muy utilizado en fibra multimodo para datos es 62.5/125 con 160 MHz-km en una longitud de onda de 850 nm. La fibra monomodo no tiene dispersión modal, por eso no se especifica el producto ancho banda-longitud. Cuanto más conectores tenés, o más largo sea el cabe de fibra, mayor perdida de potencia va a haber. Si los conectores están mal empatados, o si están sucios, va a haber más perdida de potencia (por eso se tienen que usar protectores en las puntas de fibra no utilizadas). Un certificador con una fuente de a luz incoherente (un LED) muestra un valor de atenuación mayor que uno con luz de LASER (Gigabit usa LASER, por eso la F.A para gigabit debe certificarse con este tipo de fuente de luz). 9. Subcapa MAC y LCC Todos los medios de transmisión y las topologías comprende una capa física del modelo de capas de una red. La capa superior es la capa de enlace de datos, la cual comprende dos subcapas: MAC (Control de accedo al medio): Acceso a la Capa Física, Protocolos MAC asociado a la topología, y considerando la Tecnología. LLC (Control de enlace lógico): Entramado, Control de flujo, Control de Errores, Independiente de la tecnología. La Subcapa LCC maneja la comunicación de enlace de datos y define el uso de puntos de interfaz lógica, llamados SAPs (Service Access Points) o puntos de acceso al servicio. Estos estándar están definidos por Norma IEEE 802.2. Servicios que proporciona la Capa de Red: Entramado de la información: Encapsulado de la información en trama. Delimitación del principio y fin de la trama (conteo de caracteres, entre otros). Control de errores: División del flujo de información. Suma de comprobación de trama (Checksum). Códigos de paridad o redundancia. Recuperación entre Fallos: Detectar y asegurar que todas las tramas sean entregadas, en el orden correcto, a la capa de red del host destino. Control de flujos: que un emisor no sature a un receptor lento (Técnicas de retroalimentación). La Subcapa MAC es la más baja de las dos subcapas, proporciona el acceso compartido para las NIC de los host conectados. Trabaja en medio compartidos (LANs). Esta capa se comunica directamente con la NIC y es responsable de difundir tramas libres de colisiones entre dos o más dispositivos de subred. Métodos de Acceso al Medio: Es el procedimiento que regulo la compartición del medio físico de todos los equipos y maquinas conectadas a la subred: Estático: Métodos de acceso estático: FDM (Multiplexación por división de frecuencia): para X usuarios el ancho de banda se divide en X partes iguales (esto origina en algunos casos bajo rendimiento). TDM (Multiplexación por división de tiempo): cada usuario tiene asignado un slot o intervalo temporal (esto origina en algunos casos perdida de ancho de banda). Dinámico: acá el aprovechamiento del canal es mayor, y se tiene que tener en cuenta lo siguiente: Métodos de enviar tramas. Medio compartido. Colisión. Tiempo. Portadora. Subcapa MAC - Métodos de Acceso Dinámico: Método de enviar tramas: si se tiene X host con un programa de usuarios que genere tramas, no se transmite nada hasta que la trama anterior no se haya transmitido con éxito. Medio compartido: existe un único canal para todos los equipos, todos pueden enviar y recibir. Las prioridades serán determinadas por los protocolos. Colisión: si dos o más tramas se transmiten simultáneamente se superpondrán en el tiempo (dañando la señal) dando lugar a una retransmisión de tramas. Tiempo: Continuo: La transmisión es el cualquier instante. Ranurado: El tiempo se divide en intervalos discretos. Portadora: este método puede seguir dos políticas: Detección de portadora: los equipos pueden ver si el canal esta siendo utilizado antes de intentar usarlo. Sin detección de portadora: los equipos transmiten según el protocolo en cuestión sin comprobar antes el estado del canal. 10. Modelo Jerárquico de tres capas: ![[Pasted image 20240409174339.png]] 1. Protocolos de red: Los protocolos son conjuntos de reglas que gobiernan el intercambio de datos entre dos entidades. Son las normas que se acuerdan para poder producir la unificación de criterios entre los fabricantes de redes de comunicaciones y telemáticas. La unificación o estandarización de criterios tiene como fin la interconexión de dichas redes. 1.1 Definiciones básicas: Sintaxis: es el formato del mensaje, acuerdo o procedimiento que se usa para la transmisión de información (son los procedimientos normalizados). Las acciones que tienen que realizar al transmitir o recibir mensajes por parte de los nodos o equipos terminales de datos. Semántica: es la información de control (coordinación, manejo de errores). Tiempos: ajuste de velocidad, armado de secuencias. 1.2 ¿Por qué se usan protocolos? Las comunicaciones de datos requieren procesos complejos: El que envía identifica el camino de datos y el receptor. Los sistemas negocian estados. Las aplicaciones negocian estados. Se produce traducción de formatos de archivos. Para que todo esto pase, se requiere de altos niveles de cooperación. 2. ¿Cuáles son las tareas de los protocolos? 1. Establecer el canal de comunicaciones en caso de ser conmutado. 2. Establecer la transmisión. 3. Efectuar la Transmisión. 4. Verificar las transmisiones. 5. Fin de la transmisión. 6. Corte del canal. 3. ¿Qué función tienen que cumplir? 1. Segmentación y ensamblado. 2. Encapsulamiento. 3. Control de conexión. 4. Entrega de orden. 5. Control de flujo. 6. Control y detección de errores. 7. Direccionamiento. 4. Búsqueda de estandarización: #Data-and-computer-comunications8thEdition Cuando las computadoras, terminales y otros tipos de dispositivos que procesan información entre ellos, el procedimiento involucrado en el medio puede ser bastante complejo, tiene que existir un camino de datos entre ambos dispositivos. 4.1 ¿Cuáles son las tareas de los protocolos? #Data-and-computer-comunications8thEdition 1. El sistema del dispositivo tiene que activar el procedimiento que usa para crear el camino de datos que se va usar o informar al dispositivo de red el destino al que quiere llegar. 2. El sistema encargado de este proceso tiene que chequear que el destino está preparado para poder recibir datos. 3. El software/hardware/programa que se use para transferir estos datos tiene que certificar que el dispositivo de destino está preparado para aceptar y guardar los archivos en el correcto formato. 4. Si el formato que usan estos dos sistemas que se quieren comunicar son distintos, el emisor o el receptor tiene que ser el encargado de transformar los datos al correcto formato para hacer la transmisión. Claramente entre ambas partes se necesita un nivel alto de cooperación para lograr esta conexión exitosamente. En vez de emplear todo este proceso dentro de un solo módulo, se divide en subtareas que se implementan de manera separadas. Cada capa del proceso trabaja con una única parte del proceso de comunicación entre dos partes. Dentro del Modelo OSI (que se introduce abajo) cada capa depende exactamente de la capa que se encuentra justo abajo para poder llevar a cabo funciones más básicas o primitivas. Por ejemplo, la capa de Transporte depende de la Capa de Red para enviar y recibir paquetes. Además, cada capa del Modelo OSI oculta los detalles de cómo realizar sus funciones a las otras capas. Esto significa que cada capa no necesita saber exactamente cómo exactamente las otras capas están haciendo sus tareas, siempre y cuando cada una realice de manera correcta su parte del proceso. Finamente, cada capa del Modelo OSI proporciona servicios a la capa que está justo encima de ella. Por ejemplo, la Capa de Red proporciona servicios de envío y recepción de paquetes a la capa de transporte. 4.2 Compatibilidad e interoperabilidad: La estandarización posibilitó a los equipos informáticos de diferentes fabricantes poder comunicarse entre sí con éxito en una misma red. O 5. Modelo OSI: #Data-and-computer-comunications8thEdition El Open Systems Interconnections (OSI) hace referencia al modelo desarrollado por la International Organization for Standardization (ISO), modelo para cada arquitectura de una computadora como infraestructura para desarrollar estándares de protocolos. Las capas más bajas están encargadas de la transmisión en la red, las más altas de la transmisión entre los host. El modelo OSI consiste en 7 CAPAS: APLICATION (Capa de aplicación): Es la única capa que interactúa directamente con los datos del usuario. Las aplicaciones de software, como navegadores web y clientes de correo electrónico, dependen de la capa de aplicación para iniciar comunicaciones. Sin embargo, hay que recordar que las aplicaciones de software del cliente no forman parte de la capa de aplicación, más bien, la capa de aplicación es responsable de los protocolos y la manipulación de datos de los que depende el software para presentar datos significativos al usuario. Los protocolos de la capa de aplicación incluyen HTTP, como también SMTP. PRESENTATION (Capa de presentación): Esta es la capa principalmente responsable de preparar los datos para que los pueda usar la capa de aplicación, en otras palabras, la capa 6 hace que lo datos se preparen para su consumo por las aplicaciones. La capa de presentación es responsable de la traducción, el cifrado y la compresión de los datos. Dos dispositivos de comunicación que se conectan entre sí podrían estar usando distintos métodos de codificación, por lo que la capa 6 es la responsable de traducir los datos entrantes en una sintaxis que la capa de aplicación del dispositivo receptor pueda entender. Si los dispositivos se comunican a través de una conexión cifrada, esta misma capa es responsable de añadir el cifrado en el extremo del emisor, así como de codificar el cifrado en el extremo del receptor, para poder presentar a la capa de aplicación de datos descifrados y legibles. Además, la capa de presentación también es la encargada de comprimir los datos que recibe de la capa de aplicación antes de ser enviados a la capa de sesión. SESSION (Capa de sesión): La capa de sesión es la responsable de la apertura y cierre de comunicaciones entre dos dispositivos. Este tiempo que transcurre entre la apertura de la comunicación y el cierre de esta se conoce como sesión. La capa de sesión garantiza que la sesión permanezca abierta el tiempo suficiente para transferir todos los datos que se está intercambiando, después de esto, se cierra sin demora la sesión para evitar desperdicios de recursos. Esta capa también sincroniza la transferencia de datos utilizando puntos de control. Por ejemplo, si un archivo de 100 MB se está transfiriendo, a capa de sesión podría fijar un punto de control cada 5 MB. En caso de desconexión o caída tras haberse transferido, por ejemplo, 52 MB, la sesión podría reiniciarse a partir del último punto de control, con lo cual solo quedarían unos 50 MB pendientes de transmisión. Sin esos puntos de control, la transferencia en u totalidad tendría que reiniciarse desde cero. TRANSPORT (Capa de Transporte): La capa 4 o de transporte es la responsable de la comunciaciones de extremo a extremo ntre dos dispositivos. Esto implica, antes de proceder a ejecutar el envío a la capa 3, tomar datos de la capa de sesión y fragmentarlos seguidamente en trozo más pequeños que se los llama segmentos. La capa de transporte del dispositivo receptor es responsable de rearmar estos segmentos y construir los datos que la capa de sesión pueda o tenga que procesar. La capa de transporte también es responsable del control de flujo y el control de errores. El control de flujo determina una velocidad óptima de transmisión para garantizar que un emisor con una conexión rápida no abrume a un receptor con una conexión lenta. La capa de transporte realiza un control de errores en el extremo receptor al garantizar que los datos recibidos estén completos y solicitar una retransmisión si no lo están. Los protocolos más comunes de esta capa incluyen el TCP y el UDP. NETWORK (Capa de Red): La capa de red es responsable de facilitar la transferencia de datos entre dos redes diferentes. Si los dispositivos que se comunican se encuentran en la misma red, entonces la capa de red no es necesaria. Esta capa divide los segmentos de la capa de transporte en unidades más pequeñas que se llaman paquetes, en los dispositivos del emisor, y se vuelven a juntar estos paquetes en el dispositivo del receptor. La capa de red también busca la mejor ruta física para que los datos lleguen a su destino, esto se conoce como enrutamiento. Los protocolos de la capa de red incluyen IP, ICMP, IGMP y el paquete IPsec. DATA LINK (Capa de enlace): La capa de enlace de dtos es muy similar a la capa de red, a diferencia que la capa de enlace de datos facilita la transferencia de datos entre dos dispositivos dentro la misma red. La capa de enlace de datos toma los paquetes de la capa de red y los divide en partes todavía más pequeñas que se llaman tramas. Al igual que la capa de red, también es responsable del flujo y el control de errores en las comunicaciones dentro de la red (la capa de transporte solo realiza tareas de control de flujo y de control de errores para las comunicaciones dentro de la red). PHYSICAL (Capa Física): Esta capa incluye el equipo físico implicado en la transferencia de datos, tal como los cables y los conmutadores de red. Esta también es la capa donde los datos se convierten en una sencuencia de bits. La capa física de ambos dispositivos tienen que estar de acuerdo en cuanto a una convención de señal para que los 1 puedan distinguirse de los 0 en ambas partes. Ejemplos de algunos protocolos: - Capa Física: (Estándares) DSL, IEEE 802. - Capa de enlace de Datos: ARP, HDCL, IEEE 802.3, PPP, ATM. - Capa de Red: IPv4, IPv6, IPX, Apple Talk, IPsec, ICMP, IGMP. - Capa de Transporte: TCP, UDP, SPX. - Capa de Sesión: NetBIOS. L2TP. SAP. - Capa de Presentación: SSL, TLS. - Capa de Aplicación: HTTP, POP3, STMP, IMAP, FTP. Originalmente los diseñadores del Modelo OSI asumieron que este modelo y los protocolos desarrollados dentro de este modelo llegarían a dominar las comunicaciones informáticas, remplazando eventualmente las implementaciones de protocolos propietarios y modelos multivendedor rivales como TCP/IP. En el momento que se estaba desarrollando el Modelo OSI, los protocolos TCP/IP ya existían. Estos fueron creados en 1974 como un solución práctica par un problema del ejercito: transmitir información de forma segura entre una red de computadoras distribuidas capaces de sobrevivir a un ataque nuclear (ARPANET). A pesar de las expectativas iniciales, el Modelo OSI no logró remplazar a TCP/Ip. Mientras que muchos usuarios estaban esperando que OSU sea la solución al problema de interconexión a nivel global que tenían, creció el uso de TCP/IP para satisfacer las presiones concretas a corto plazo para la interoperabilidad. La burocracia y lentitud en la creación de las normas, junto con las divisiones entre los ingenieros informáticos de OSI y los de telecomunicaciones, terminaron matando a OSI. En cuanto a si TCP/IP respeta el modelo OSI, la respuesta es que sí y no (Se va a desarrollar más a fondo después). Existen varias razones de por qué TCP/IP creció más que OSI. Una podría ser que TCP/IP era un protocolo maduro y bien testeado, mientras que los protocolos que se estaban desarrollando para OSI todavía estaban en esta misma etapa. Cuando los negocios se dieron cuenta de esta necesidad de interoperabilidad, el protocolo más acertado en ese momento para usar era claramente TCP/IP. Otra razón podría ser que el Modelo OSI es según muchos expertos, innecesariamente complejo, con 7 capas para realizar tareas que TCP/IP hace con menos. 5.1 Estandarización con OSI: El objetivo principal de OSI era brindar esta infraestructura para poder estandarizar las comunicaciones entre sistemas informáticos. Con este modelo, uno o más protocolos estándar pueden ser desarrollados en cada capa. El modelo define en términos generales que funciones se tienen que cumplir en cada capa y esto se podía lograr gracias a que: Las funciones que tenían que cumplir cada capa esta bien definidas, los estándares pueden ser desarrollados de manera independiente y simultáneamente para cada capa. Esto facilitaba y aceleraba el proceso. Los límites entre cada capa estaban también bien marcados, cambiar algo en una capa no podría afectar al software que corre sobre otra capa. Esto facilita que se pueden agregar nuevos estándares. La siguiente imagen muestra el uso de OSI como infraestructura. Todo el proceso está dividido en 7 Capas: La siguiente figura muestra específicamente la naturales de por qué se necesita esta estandarización en cada capa. Hay 3 elementos que son clave: La especificación del protocolo: Dos entidades en la misma capa pero de diferentes sistemas cooperan y interactúan entre sí mediante el protocolo. Como dos distintos sistemas abiertos están involucrados, se tiene que especificar exactamente que protocolo se va a usar. Esto incluye el formato de la información que se va a intercambiar, la semántica que se va a usar y la secuencia disponible de PDUs. Las siglas PDU corresponden a "Protocols Data Units" o "Unidades de Datos de Protocolo", un PDU en un bloque de información que se transmite como una unidad única entre nodos de una red. En cada capa de OSI, los PDUs tienen distintos nombres y estructuras. Por ejemplo, en la Capa de Transporte, un PDU se llama "segmento" o "datagrama", mientras que en la Capa de Red, se llama "Paquete". Definición de Servicio: Para que el protocolo/s opere en la capa que le asigne, se necesita estandarizar lo que este vaya a enviar a la capa que le sigue, a la capa de arriba. Direccionamiento: Cada capa brinda servicios a entidades que se encuentran después de ellos, a la que le sigue. Cada capa proporciona servicios a la capa superior, servicios que pueden incluir cosas como el envío de datos, la detección y correción de errores, el control de flujo de datos, etc. Las entidades que usan estos servicios se las denomina Entidades de Servicio y se accede a ellas a través de lo que se conoce como *Service access point (SAP) o Punto de acceso al servicio. Un SAP es esencialmente una dirección o identificador que se usa para acceder a una entidad de servicio en una capa específica. Por lo tanto, un Network Service Access Point (NSAP), es un tipo de de SAP que se utiliza para acceder a una entidad en la capa de Transporte. En otras palabras, un NSAP indica una entidad de transporte que se un usuario del servicio de red. 5.2 Servicios primitivos y parámetros: Los servicios entre las capas dentro de la arquitectura del Modelo OSU son expresados dentro de los términos primitivos y parámetros. Uno primitivo es una operación o función que se realiza en una capa. Por ejemplo, los primitivos pueden incluir acciones como "Conectar", "Desconectar", "Envair datos", etc. Cada primitivo específica la acción a realizar o informa sobre el resultado de una acción previamente solicitada. Los parámetros se usan para pasar datos e información de control cuando se realiza un servicio primitivo. Por ejemplo, un parámetro podría ser el paquete de datos que se va a enviar o recibir, o la dirección del SAP de la capa inferior. Existen 4 tipos básicos de primitivos que se usan para definir la interacción entre dos capas: Request (Solicitud): Un primitivo enviado por la capa (N + 1) a la capa N para solicitar un nuevo servicio. Indication (Indicación): Un primitivo devuelto a la capa (N + 1) desde la capa N para informar la activación de un servicio solicitado o de una acción iniciada por el servicio de la capa N. Response (Respuesta): Un primitivo proporcionado por la capa (N + 1) en respuesta a un primitivo de indicación. Puede reconocer o completar una acción previamente invocada por un primitivo de indicación. Confirm (Confirmación): Un primitivo devuelto a la capa solicitante (N + 1) por la capa N para reconocer o completar una acción previamente invocada por un primitivo de solicitud. Un ejemplo podría ser la transferencia de datos entre dos entidades en la misma capa (N) en diferentes sistemas, usando el modelo OSI: 1. Solicitud de la entidad fuente: La entidad en la capa (N) en el sistema fuente (el que envía los datos) solicita a su entidad en la capa (N + 1) que envíe datos. Esta solicitud se realiza mediante un un "servicio primitivo de solicitud", que es una operación o función que se realiza en una capa. Los parámetros asociados con esta primitiva incluyen los datos que se van a transmitir y dirección del destino. 2. Preparación de la PDU por la entidad fuente: La entidad en la capa (N + 1) en el sistema fuente prepara un PDU para ser enviado a su entidad homóloga en la capa (N + 1) en el sistema de destino. 3. Entrega de los datos por la entidad de destino: La entidad en la capa (N + 1) en el sistema de destino entrega los datos a la entidad apropiada en la capa (N) mediante un "servicio primitivo de indicación", que incluye los datos y la dirección de origen como parámetros. 4. Respuesta de la entidad de destino: Si se requiere un reconocimiento, la entidad en la capa (N) en el sistema de destino emite un "servicio primitivo de respuesta" a su entidad en la capa (N + 1). 5. Trasporte del reconocimiento por la entidad (N + 1): La entidad en la capa (N + 1) en el sistema de destino transmite el reconocimiento en un PDU de la capa (N + 1). 6. Entrega del reconocimiento a la entidad fuente: El reconocimiento se entrega a la entidad en la capa (N) en el sistema fuente como un "servicio primitivo de confirmación". 5.2 Protocolos que funcionen sobre TCP: Existen un gran número de aplicaciones que se configuraron para usarse con TCP y sus protocolos. Lo 3 más comunes son: El Simple Mail Transfer Protocol (SMTP) que brinda una servicio básico para enviar mensajes de correo electrónico a través de Internet o mediante una red informática. Brinda mecanismos para transferir mensajes entre distintas servidores. Algunas de las funcionalidades de SMTP son las listas de correo, entre otras. Este protocolo no específica la forma en que los mensajes tienen que ser creados, se necesita algo en el medio de la comunicación para que se encuentre todo en el mismo formato. Una vez que un mensaje es creado, SMTP acepta el mensaje y hace uso de TCP para enviarlo al módulo SMTP de otro servidor. El File Transfer Protocol (FTP) se usa para enviar archivos de un sistema a otro. Se pueden enviar tanto archivos de teto como binarios, y el protocolo brinda características para controlar el acceso a usuarios. Cuando se quiere enviar un archivo, FTP prepara una conexión TCP al sistema que haga de destino, con el objetivo de controlar mensajes. Esta conexión habilita al usuario un ID y una contraseña para especificar el archivo y las acciones sobre el mismo. Una vez que la transferencia se aprueba, un segunda conexión por TCP se prepara para hacer la transferencia. Cuando esta se completa el "control de conexión" se usa para la espera de nuevas accione a arealizar sobre el archivo enviado. 6. TCP/IP: IP o Internet Protocol es el sistema de direcciones de Internet y tiene la función principal de entregar paquetes de información desde un dispositivo de origen a uno de destino. Es la forma principal en la que se realizan las conexiones de red y establece la base de Internet, pero NO gestiona el orden de los paquetes ni la verificación de errores. Esta funcionalidad requiere de otro protocolo encargado de esto, normalmente el TCP o Transmission Control Protocol. La relación entre los protocolos TCP e IP es similar a enviar alguien un mensaje escrito en un rompecabezas por correo postal. El protocolo IP garantiza que las piezas lleguen a su dirección de destino. Por la otra parte, TCP sería como la persona que ordena las piezas del rompecabezas en el otro lado. Reúnes las piezas en el orden correcto, solicita el reenvío de las piezas que faltan e informa al remitente de que se recibió todo con éxito. Además, mantiene la conexión con el remitente antes del envío de la primera pieza del rompecabezas hasta después del envío de la última pieza. IP es un protocolo sin conexión, lo que significa que cada unidad de datos se aborda individualmente y se enruta desde el dispositivo de origen al dispositivo de destino, que no envía una confirmación de vuelta al origen. Ahí es donde entran en juego protocolos como el TCP. Este último se uso con IP para mantener una conexión entre el remitente y el destino y para garantizar el orden de los paquetes. La versión primaria de IP que se utiliza en Internet hoy en día es versión 4 (IPv4). Las limitaciones de tamaño en el número total de direcciones posibles en IPv4 incentivó el desarrollo de un protocolo más nuevo. Este se llama IPv6, que permite que haya muchas direcciones más disponibles y su adopción es cada vez más frecuente. Características de TCP: Orientado a la conexión, al flujo de datos. Utiliza el three-way handshake para establecer la conexión. Protocolo seguro (asegura la entrega). Usa números de secuencia para controlar el envío y la recepción. Tiene control de errores. Utiliza retransmisiones (ACK, NACK).. Tiene control de flujo (reacción ante redes congestionadas). Tiene 20 bytes de encabezado. 7. User Datagram Protocol (UDP/IP): El User Datagram Protocol (UDP) es un protocolo de comunicación que se usa en Internet para transmisiones sujetas a limitaciones temporales, como la reproducción de video o las busquedas en DNS. Acelera las comunicaciones al no establecer formalmente una conexión antes de transferir los datos. Esto permite que los datos se transfieran muy rápido, pero también puede hacer que los paquetes se pierdan en tránsito y crear oportunidades para vulnerabilidades en forma de ataques DDos. Es un método estandarizado para transferir datos entre dos dispositivos en una red. Comparado con otros protocolos, el UDP realiza este proceso de forma sencilla: envía paquetes directamente a un ordenador destino, sin establecer primero una conexión, ni indicar el orden de los paquetes, ni comprobar si llegaron como estaba previsto. Los paquetes de UDP se llaman Datagramas. UDP es más rápido pero menos seguro que TCP. 7.1 ¿Para qué sirve el UDP? El UDP se suele usar en las comunicaciones sujetas a limitación temporal, en las que ocasionalmente es mejor dejar caer los paquetes que esperar. El tráfico de voz y de video se envía mediante este protocolo, porque ambos están sujetos a limitación temporal y están diseñados para soportar cierto nivel de pérdida. Por ejemplo, VOIP (Voz sobre IP), que usan muchos servicios telefónicos basados en Internet, funciona sobre UDP. Esto es así porque es preferible una conversación telefónica estática a una muy clara, pero con mucho retraso. Esto también hace que el UDP sea el protocolo ideal para los videojuegos en línea. De forma similar, como los servidores DNS tienen que ser rápidos y eficientes, funcionan también mediante UDP. 7.2 ¿Cómo funciona UDP? Los "riesgos" de UDP, como la pérdida de paquetes, no son un problema grave en la mayoría de los casos de uso. Sin embargo, se puede aprovechar el UDP con fines maliciosos. Ya que UDP no necesita un protocolo de enlace, los atacantes pueden "inundar" un servidor objetivo con tráfico UDP sin obtener primero el permiso de este servidor víctima para iniciar la comunicación. Este tipo de ataques envía un gran número de datagramas UDP a puertos aleatorios del dispositivo objetivo. Esto obliga al objetivo a responder con un número igualmente grande de paquetes ICMP, que indican que esos puertos eran inalcanzables. Los recursos informáticos necesarios para responder a cada datagrama fraudulento pueden abrumar al objetivo, provocando una denegación de servicio al tráfico legítimo. Normalmente los métodos que hay en contra de esto son limitar la tasa de respuestas de los paquetes ICMP, como también en recibir y responder el tráfico UDP a través de una red intermediaria de muchos centros de datos distribuidos, evitando que un servidor origen único se va desbordado por solicitudes fraudulentas. 1. LA CAPA DE ENLACE DE DATOS: En este capítulo se ven los algoritmos de la segunda capa que logran una comunicación confiable y eficiente de unidades completas de información llamadas TRAMAS (en vez de bits individuales, como en la capa física) entre dos máquinas adyacentes. Los protocolos que se usan para comunicaciones tienen que considerar todos los factores a la hora de comunicar. 1.1 Cuestiones de diseño de la capa de enlace de datos: La capa de enlace de datos usa los servicios de la capa física para enviar y recibir bits a través de los canales de comunicación. Tiene varias funciones específicas, entre las que se incluyen: Proporcionar a la capa de red una interfaz de servicio bien definida. Manejar los errores de transmisión. Regular el flujo de datos para que los emisores rápidos no puedan saturar a los receptores lentos. Para poder cumplir con esas funciones, la capa de enlace de datos toma los paquetes que obtiene de la capa de red y los divide en partes más chicas que se llaman tramas para poder transmitirlas. Cada TRAMA tiene: un encabezado, un campo de carga útil (payload) para almacenar el paquete y un terminador. El manejo de las tramas es la tarea más importante en la capa de enlace de datos. SI bien la capa de enlace de datos usa distintos métodos para poder controlar el fuljo y los errores, estos mismos se presentan también en la capa de transporte y en otros protocolos, ya que la confiabilidad es una meta general que se logra cuando todas las capa trabajan en conjunto. De hecho, en muchas redes estas funciones se encuentran casi siempre en las capas superiores y la capa de enlace de datos sólo se encarga de la tarea mínima que es "suficiente". 1.1.1 Servicios proporcionados a la capa de red: La función de la capa de enlace de datos es proveer servicios a la capa de red. El servicio principal es la transferencia de datos de la capa de red en la máquina de origen, a la capa de red en la máquina destino. En la capa de red de la máquina origen está una entidad, una entidad llamada proceso, que entrega algunos bits de la capa de enlace de datos para que los transmita al destino. La tarea de la capa de enlace de datos es transmitir los bits a la máquina destino, de modo que se pueden entregar a la capa de red de esa máquina (a). La transmisión real sigue la trayectoria de la figura (b), pero es más fácil pensar en términos de dos procesos de la capa de enlace de datos que se comunican mediante un protocolo de enlace de datos. La capa de enlace de datos puede diseñarse para ofrecer varios servicios. Los servicios reales ofrecidos varían de un protocolo a otro. 3 posibilidades razonables que normalmente proporcionan son: Servicio sin conexión ni confirmación de recepción: consiste en hacer que la máquina de origen envíe tramas independientes a la máquina de destino sin que esté confirmando la recepción. Ethernet es un ejemplo de una capa de enlace de datos que provee esta clase de servicios. No se establece una conexión lógica de antemano ni se librea después. Si se pierde una trama debido al ruido en la línea, en la capa de enlace de datos no se realiza ningún intento por detectar la pérdida o recuperarse de ella. Esta clase de servicios es apropiada cuando la tasa de error es muy baja, de modo que la recuperación se deja a las capas superiores, también es apropiada para el tráfico en tiempo real, como el de voz, en donde es peor tener retraso en los datos que errores en ellos. Servicio sin conexión con confirmación de recepción: El siguiente paso en términos de confiabilidad es este servicio sin con conexión con confirmación de recepción. Cuando se ofrece este servicio tampoco se usan conexiones lógicas, pero se confirma de manera individual la recepción de cada trama enviada. Entonces, el emisor sabe si la trama llegó bien o se perdió. Si no llegó en un intervalo especificado, se puede enviar de nuevo. Este servicio es útil en canales no confiables, como los de los sistemas inalámbricas 802.11 (Wifi) es un bueno ejemplo de esta clase de servicios. -El hecho de proporcionar confirmaciones de recepción en la capa de enlace de datos es más una cuestión de optimización, más que un requerimiento. La capa de red siempre que puede enviar un paquete y esperar a que si igual en la máquina remota confirme u recepción. Si la confirmación no llega antes de que expire e temporizador, el emisor puede volver a enviar el mensaje completo. El problema con esta estrategia es puede llegar a ser ineficiente. Por lo general los enlaces tienen una estricta longitud máxima para la trama, que esta impuesta por el hardware, además de retrasos en el medio. La capa de red no conoce estos parámetros. Servicio orientado a conexión con confirmación de recepción: el servicio más sofisticado que puede proveer la capa de enlace de datos a la capa de red es el servicio oriantado a la conexión. Con este servicio, las máquinas de origen y de destino establecen una conexión antes de transferir datos. Cada trama enviada a través de la conexión está numerada, y la capa de enlace de datos garantiza que cada trama enviado llegue a su destino, garantiza que cada trama se reciba una sola vez y que todas las tramas se reciban en el orden correcto. Así el servicio orientado a conexión ofrece a los procesos de la capa de red el equivalente a un flujo de bits confiable. Es apropiado usarlo en enlaces largos y no confiables, como un canal satélite o un circuito telefónico de larga distancia. Si se usa un servicio no orientado a conexión con confirmación de recepción, es posible que las confirmaciones de recepción perdidas ocasionen que una trama se envíe y se reciba varias veces, desperdiciando ancho de banda. Cuando se usan servicios orientado a conexión, las transferencias pasan por tres fases distintas. 1. la conexión se establece haciendo que ambos lados inicialicen variables y los contadores necesarios para seguir la posta de las tramas que se recibieron y las que no. 2. se transmiten una o más tramas. 3. la conexión se libera al igual que las variables, los búferes y otros recursos utilizados para mantener la conexión. 1.1.2 Entramado o Networking: Para proveer servicios a la capa de red, la capa de enlace de datos tiene que usar el servicio que la capa física le proporciona. Lo que hace la capa física es aceptar un flujo de bits puros y tratar de entregarlo al destino. Si el canal es ruidoso, como en la mayoría de los enlaces inalámbricos y en algunos alámbricos, la capa física agrega cierta redundancia a sus señales para reducir la tasa de error de bits a un nivel tolerable. Sin embargo, no se garantiza que el flujo de bits que se recorra por la capa de enlace de datos esté libre de errores. Algunos bits pueden tener distintos valores y la cantidad de bits recibidos puede ser menor, igual o mayor que la cantidad de bits transmitidos. Es responsabilidad de la capa de enlace de datos detectar y, de ser necesario, corregir los errores. El método más común para hacer esto que la capa de enlace divida el flujo de bits en tramas discretas, calcule un token corto conocido como suma de verificación para cada trama, e incluya a esa suma de verificación en la trama al momento de transmitirla. Cuando una trama llega al destino, se recalcula la suma de verificación. Si la nueva suma de verificación calculada es distinta de la contenida en la trama, la capa de enlace de dato sabe que hubo un problema en el medio y toma las medidas necesarias para manejarlo. Igualmente, es más difícil dividir el flujo de bits en tramas de lo que parece a simple vista. Un buen diseño debe facilitar a un receptor el proceso de encontrar el inicio de las nuevas tramas al tiempo que usa una pequeña parte del ancho de banda del canal. Los 4 métodos de ENTRAMADO más conocidos son: Conteo de bytes: En este método se vale de un campo en el encabezado para especificar el número de bytes en la trama. Cuando la capa de enlace del destino ve el conteo de bytes, sabes cuántos bytes siguen y, por lo tanto, dónde concluye la trama. El problema con este algoritmo es que el conteo se puede alterar por un error de transmisión. Bytes bandera con relleno de bytes: En este método de entramada se evita el problema de volver a sincronizar nuevamente después de un error al hacer que cada trama inicie y termine con bytes especiales. Con frecuencia se usa el mismo byte, denominado bytes bandera, como delimitador inicial y final. Este byte se muestra como FLAG. Dos bytes banderas consecutivos señalan el final de una trama y el inicio de la siguiente. De esta forma, si el receptor pierde alguna vez la sincronización, todo lo que tiene que hacer es buscar los bytes bandera para encontrar el fin de la trama actual y el inicio de la siguiente. Sin embargo, todavía existen problemas sin resolver. Se puede dar el caso de que el byte bandera aparezca en los datos, en especial cuando se transmiten datos binarios como fotografías o canciones. Esta situación interferiría con el entramado. Una forma de resolver este problema es hacer que la capa de enlace de datos del emisor inserte un byte de escape especial (ESC) justo antes de cada byte bandera "accidental" en los datos. De esta forma es posible diferenciar un byte bandera del entramado de uno en los datos mediante la ausencia o presencia de un byte de escape antes del byte bandera. La capa de enlace de datos del lado receptor saca el byte de escape antes de entregar los datos a la capa de red. Esta técnica se llama relleno de bytes. ¿Qué pasa si aparece un byte de escape en medio de los datos? Se rellena también con un byte de escape. En el receptor se saca el primer bytes de escape y se deja el byte de datos que le sigue (el cual podría ser otro byte de escape, o incluso el byte bandera). En la figura (b) se muestran ejemplos. En todos los casos la secuencia de bytes que se entrega después de borrar los bytes de relleno es exactamente la misma que la secuencia de bytes original. Así todavía podemos encontrar un límite de trama si buscamos dos bytes bandera seguidos, sin molestarnos por eliminar los escapes. El esquema de relleno de bytes que se muestra en la figura es una simplificación del esquema que usa el protocolo PPP (Protocolo Punto a Punto), que se usa para transmitir paquetes a través de los enlaces de comunicación. Bits bandera con relleno de bits: el tercer método de eliminar el flujo de bits resuelve una desventaja del relleno de bytes: que está obligado a usar bytes de 8 bits. También se puede realizar el entramado a nivel de bit, de modo que las tramas puede contener un número arbitrario de bits compuestos por unidades de cualquier tamaño. Esto se desarrolló para el protocolo HDLC (High-Level Data Link Control o Control de Enlace de Datos de Alto Nivel), que tuvo un momento en el que era popular. Cada trama empieza y termina con un patrón de bits especial, 01111110 o 0x7E en hexadecimal. Este patrón en un byte bandera. Cada vez que la capa de enlace de datos del emisor encuentra cinco bits 1 consecutivos en los datos, inserta automáticamente un 0 como relleno en el flujo de bits de salida. Este relleno de bits es análogo al relleno de bytes, en el cual se asegura una densidad mínima de transiciones que ayudan a la capa física a mantener la sincronización. La tecnología USB usa relleno ode bits por esta razón. Cuando el receptor ve cinco bits 1 de entrada consecutivos, seguidos de un bit 0, extrae (o sea, borra) de manera automática el bit 0 de relleno. Así como el relleno de bytes es completamente transparente para la capa de red en ambas computadoras, también los es el relleno de bits. Si los datos del usuario contienen el patrón bandera 01111110, éste se transmite como 011111010, pero se almacena en la memoria del receptor como 011111010. La siguiente figura es un ejemplo de relleno de bits. Con el relleno de bits, e límite entre las dos tramas puede ser reconocido sin ambigüedades mediante el patrón bandera. De esta forma, si el receptor pierde la pista de dónde está, lo único que tiene que hacer es explorar la entrada en busca de secuencias de banderas, ya que sólo pueden ocurrir en los limites de las tramas y nunca dentro de los datos. Un efecto secundario del relleno de bits y de bytes es que la longitud de una trama depende ahora del contenido de los datos que lleva. Por ejemplo, su no hay bytes bandera en los datos, se podrían llevar 100 bytes en una trama aproximadamente 100 bytes. Ahora, si los datos consisten sólo de bytes banderas, habría que incluir un byte escape para cada uno de estos bytes y la trama va a ser de 200 byres de longitud más o menos. Con el relleno de bits, el aumento sería cerca del 12,5% ya que se entrega 1 bit a cada byte. Violaciones de codificación de la capa física: Este último método de entramado es usar un atajo desde la capa física. La codificación de bits como señales incluye normalmente redundancia para ayudar al receptor. Por ejemplo, en el código de línea 4B/5B se asignan 4 bits de señal para asegurar suficientes transiciones de bits. Esto significa que no se usan 16 de las 32 posibles señales. Podemos usar algunas señales reservadas para indicar el inicio y el fin de las tramas. Estamos usando "violaciones de código" para delimitar tramas. La ventaja de este esquema es que, como hay señales reservadas, es fácil encontrar el inicio y el final de las tramas y no hay necesidad de rellenar los datos. Muchos protocolos de enlace de datos usan una combinación de estos métodos por seguridad. Un patrón común usado para Ethernet y 802.11 es hacer que una trama inicie con un patrón bien definido, conocido como preámbulo. Este patrón puede llegar a ser bastante largo de forma que el receptor se pueda preparar para un paquete entrante. El preámbulo va seguido de un campo de longitud en el encabezado, que se usa para localizar el final de la trama. 1.1.3 Control de Errores: Ya resuelto el problema de poder marcar el inicio y el fin de cada trama, se presenta un nuevo problema: cómo asegurar que todas las tramas realmente se entregan en el orden apropiado a la capa de red del destino. La manera normal de asegurar la entrega confiable de datos es proporcionar retroalientación al emisor sobre lo que está pasando del otro lado de la línea. Por lo general, el protocolo exige que el receptor devuelva tramas de control especiales que tengan confirmaciones de recepción positivas o negativas de las tramas que van llegando. Si el emisor recibe una confirmación de recepción positiva de una trama, sabe que llegó de forma correcta. Si se presenta el caso contrario, sabe que algo falló y que tiene que volver a transmitir la trama. Una complicación adicional sale de la posibilidad de que los problemas de este hardware causen la desaparición de una trama completa. En este caso, el receptor no reaccionaría en absoluta, porque en ningún momento le llegó nada. Lo mismo ocurriría si se pierde la trama de confirmación de recepción, el emisor no tendría porque responder. Para lidiar con este problema se introducen los temporizadores en la capa de enlaces de datos. Cuando el emisor envía tramas, por lo general también inicia el temporizador. Éste se ajusta de modo que expire cuando haya transcurrido un intervalo suficiente para que la trama llegue a su destino, se procese ahí y la confirmación de recepción llegue devuelta al emisor. En el caso de que la trama de confirmación se pierda, el temporizado expira, alertando al emisor sobre un potencial problema. La solución obvia es simplemente transmitir de nuevo la trama. Sin embargo, aunque éstas se pueden volver a transmitir muchas veces, existe el peligro del otro lado de que al receptor acepta la misma trama en dos o más ocasiones y que la pase a la capa de red más de una vez. 1.1.4 Control de flujo: Otro tema de diseño muy importante que se presenta en la capa de enlace de datos es qué hacer con un emisor que quiere transmitir tramas de manera sistemática y a mayor velocidad que aquella con que puede aceptarlos el receptor. En esa situación puede pasar cuando el emisor opera una computadora más rápida que la del receptor. Por lo general, se usan dos métodos, el control de flujo basado en retroalimentación, que es cuando el receptor regresa información al emisor para autorizarle que envíe más datos o por lo menos indicarle su estado. Y el segundo, el control de flujo basado en tasa, donde el protocolo tiene un mecanismo integrado que limita la tasa en la que el emisor puede transmitir los datos, sin tener que usar la retroalimentación por parte del receptor. Los esquemas basados en la retroalimentación se ven tanto en la capa de enlace como en las capas superiores. En realidad, es más común esto último, en cuyo caso el hardware de la capa de enlace se diseña para operar con rapidez suficiente como para no producir pérdidas. Por ejemplo, se dice alguna veces que las implementaciones de hardware de la capa de enlace como NIC (Tarjetas de Interfaz de Red), operan a "velocidad de alambre", que significa que pueden manejar las tramas con las misma rapidez con la que pueden llegar al enlace. De esta forma, los excesos no son un problema del enlace, por lo que lo esto lo manejan las capas superiores. Dentro de los esquemas de control de flujo basados en retroalimentación, el protocolo tiene reglas bien definidas respecto al momento en que un emisor puede transmitir la siguiente trama. Normalmente estas reglas prohíben el envío de tramas hasta que el receptor lo autorice. 1.2 Detección y corrección de errores: Los canales de comunicación tienen muchas características. Algunos como los que usan la fibra óptica en las redes de telecomunicaciones, tienen tasas de error pequeñas de modo que los errores de transmisión son una muy rara ocurrencia. Por otros canales, en especial los enlaces inalámbricos y los viejos lazos locales, tienen tasas de error más grandes. Para estos enlaces, los errores de transmisión son la norma. No se pueden evitar a un costo razonable en términos de rendimiento. La conclusión es que los errores de transmisión van a existir. Las personas que diseñan redes trabajaron con dos estrategias básicas para mejorar los errores. Ambas añaden información redundante a los que se envían. Una es incluir suficiente información redundante para que el receptor pueda deducir cuáles debieron ser los datos transmitidos. La otra estrategia es incluir sólo suficiente redundancia para permitir que el receptor sepa que hubo un error (pero no cuál) y entonces solicite una retransmisión. La primer estrategia códigos de corrección de errores; la segunda usa códigos de detección de errores.. El uso de códigos de corrección de errores se conoce normalmente como FEC (Forward Error Correction o corrección de errores hacia adelante). En canales confiables (como los de fibra), es más económico usar un código de detección de errores y sólo retransmitir los bloques que llegaron mal. En canales propensos a causar errores (enlaces inalámbricos) la mejor opción es agregar redundancia suficiente a cada bloque para que el receptor pueda descubrir cuál era el bloque original que se transmitió. FEC se usa en canales ruidosos ya que las retransmisiones tienen la misma probabilidad de ser tan erróneas como la primera transmisión. Una consideración clave para estos códigos es el tipo de de errores que pueden llegar a presentarse. Ni los códigos de corrección de errores ni los de detección de errores pueden manejar todos los posibles errores, ya que los bits que son redundantes tienen la misma probabilidad de ser recibidos con errores que los bits de datos. Los más ideal sería que el canal tratara a los bits redundantes de una manera distinta a los bits de datos. 1.2.1 Códigos de corrección de errores: Los códigos de corrección de errores más conocidos son: Códigos de Hamming. Códigos convolucionales binarios. Códigos de Reed-Solomon. Códigos de verificación de paridad de baja densidad. Todos estos códigos agregan redundancia a la información que se envía. Una trama consiste en m bits de datos (mensaje) y r bits redundantes (verificación). En código de bloque, los r bits de verificación se calculan en función de los m bit de datos con los que se asocian, como si los m bits se buscaran en una tabla para encontrar sus correspondientes r bits de verificación, en vez de que se codifiquen por si mismo antes de ser enviados. En un código lineal, los r bits de verificación se calculan como una función lineal de los m bits de datos. La tasa de códigos, es la fracción de tiempo de la palabra codificada que lleva información no redundante. Las tasas que se usan en la práctica puede variar mucho, normalmente depende del ruido que exista en el canal. Para entender la manera en que pueden manejarse los errores, es necesario estudiar lo que es en realidad un error. Dadas dos palabras codificadas que se puedan transmitir o recibir, por ejemplo 10001001 y 10110001, es posible determinar cuántos bits correspondientes difieren. En este caso, difieren solo 3 bits. Para determinar la cantidad de Bits diferentes, es suficiente con un aplicar un XOR a las dos palabras codificadas y la cantidad de bits 1 en el resultado. La cantidad de posiciones de bits en la que difieren dos palabras codificas se llama distancia de Hamming. Su significado es que, si dos palabras codificadas están separadas una distancia de Hamming "d", se va a requerir entonces de "d" errores de UN solo bit para convertir una en la otra. Las propiedades de detección y corrección de errores de un código de bloque dependen de su distancia de Hamming. Para detectar d errores de manera confiable se necesita de un código con distancia d + 1, ya que con ese código no hay forma de que d errores de un bit puedan cambiar una palabra codificada válida a otra. Cuando el receptor ve una palabra codificada inválida, sabe que ocurrió un error en la transmisión. 1.2.1.1 Códigos de Hamming: En los códigos de Hamming, los bits de la palabra codificada se numeran en forma consecutiva, comenzando por el bit 1 de la izquierda, el bit 2 de su derecha inmediata, etc. Los bits que son potencias de 2 son bits de verificación. El resto se rellenan con los bits de datos de la información que se quiere enviar. El patrón se muestra para un código de Hamming con 7 bits de datos y 4 de verificación. Cada bit de verificación obliga a que la suma módulo 2, o paridad de un grupo de bits, incluyendo a este mismo, sea par (o impar). Si no todos los resultados de verificación son cero, entonces se detectó un error. El conjunto de resultados de verificación forma el síndrome de error que se usa para señalarlo y corregirlo el error. Las distancias de Hamming son importantes para entender los códigos de bloque, y los códigos de bloque de Haming se usan en la memoria de corrección de errores. Sin embargo, la mayoría de redes usan códigos más robustos. 1.2.1.2 Código convolucional binario: Este código es el único que no es código de bloque. En un código convolucional, un codificador procesa una secuencia de bits de entrada y genera una secuencia de bits de salida. No hay un tamaño de mensaje natural, o límite de codificación, como en un código de bloque. La salida depende de los bits de entrada actual y previa Es decir, el codificador tiene memoria. El número de bits previos de los que depende la salida se denomina longitud de restricción del código. Los códigos convolucionales se usan much en ls redes implementadas, como el de la telefonía móvil GMS, en la comunicaciones de satélite y en 802.11. Existió un Código convolucional NASA de r = 1/2 y k = 7, ya que se usó por primera vez en las misiones espaciales del Voyager a partir de 1977. Desde entonces se reutilizó libremente, por ejemplo, como parte de las redes 802.11. En la figura cada bit de entrada del lado izquierda produce dos bits de salida al lado derecho, los cuales son las sumas XOR de la entrada y el estado interno. Ya que se trata con bits y se realizan operaciones lineales, es un código convolucional binario lineal. Un bit de entrada produce 2 bits de salida, la tasa de código es de 1/2. No es sistemático, ya que ninguno de los bits de salida es simplemente el bit de entrada. El estado interno se mantiene en seis registros de memoria. Cada vez que se introduce otro bit, los valores de los registros se van desplazando a la derecha. Se requiere siete desplazamientos para vaciar una entrada por completo, de forma que no afecte la salida. Por lo tanto, la longitud de restricción de este código es k = 7. Para decodificar un código convolucional es necesario buscar la secuencia de bits de entrada que tenga la mayor probabilidad de haber producido la secuencia de bits de salida (incluyendo también los errores). El algoritmo recorre la secuencia observada y guarda cada paso y cada posible estado interno la secuencia de entrada que hubiera producido la secuencia observada con la menor cantidad posible de errores. Al final, la secuencia de entrada que requiera la menor cantidad de errores es el mensaje más probable. Los códigos convolucionales fueron populares en la práctica, porque es fácil ignorar el hecho de que un bit sea 0 o 1 en la decodificación. Las extensiones del algoritmo de Viterbi pueden trabajar con esto mismo de un bit que se conoce como decodificació de decisión suave. Por el contrario, decidir si cada bit es un 0 o un 1 antes de la subsiguiente corrección de errores se conoce como decodificación de decisión dura. 1.2.1.3 Código de Reed-Solomon: Al igual que los código de Hamming, los códigos de Reed-Solomon son códigos de bloques lineales y con normalmente también sistemáticos. A diferencia de los códigos de Hamming, que operan sobre bits individuales, los códigos de Reed-Salomon operan sobre símbolos de m bits. Estos códigos se basan en el hecho de que todo polinomio de n grados se determina en forma única mediante n + 1 puntos. Por ejemplo, una línea con la forma ax + b se determina mediante dos puntos. Los puntos extra en la misma línea con redundantes, lo que es útil para la corrección de errores. Imaginemos que dos puntos de datos representan una línea y que enviamos esos dos puntos de datos con dos puntos de verificación seleccionados sobre la misma línea. Si uno de los puntos se recibe con error, de todas formas podemos recuperar los puntos de datos si ajustamos una línea a los puntos recibidos. Tres de los puntos van a estar sobre la línea y el otro punto (el error) no. Una vez que encuentra la línea, se sabe que se corrigió el error. Los códigos de Reed-Salomon se usan mucho más en la práctica por sus propiedades de corrección de errores, en especial para los errores de ráfagas. Se usan para DLS, datos sobre cable, comunicaciones de satélite y en los CD, DVD y discos Blu-ray. Ya que se basan en símbolos de m bits, tanto un error de un solo bit como un error de ráfaga de m bits se tratan simplemente como error de un símbolo. A veces los códigos de Reed-Solomon también se usan en combinación con otros códigos, como el convolucional. El razonamiento es el siguiente: Los códigos convolucionales son efectivos a la hora de manejar errores en bits aislados, pero pueden fallar con una ráfaga de errores, si hay demasiados en el flujo de bits recibidos, se agrega un código Reed-Solomon dentro del código convolucional, la decodificación de ReedSolomon puede limpiar las ráfagas de errores. 1.2.1.4 Código de Verificación de Paridad de Baja Densidad: 1. ¿Qué es la conmutación? La conmutación (switching) se considera como la acción de establecer una vía de extremo a extremo entre dos puntos, donde hay un emisor (Tx) y un receptor (Rx) a través de nodos o equipos de transmisión. Permite la entrega de la señal desde el origen hasta el destino requerido para lograr un camino apropiado de una red de telecomunicaciones. Permite la descongestión entre los usuarios de la red disminuyendo el tráfico y aumentando el ancho de banda. Representa una de las capas de los nuevos modelo de redes. La capa conmutación también conocida como Capa 2, permite a los nodos asignar direcciones y adjuntar datos a una señal. 2. Conmutación de Circuitos: Se denomina conmutación de circuitos (circuit switching) al establecimiento de una vía dedicada exclusiva y temporalmente a la transmisión de extremo a extremo entre dos puntos, un emisor y un receptor. En la conmutación de circuitos se busca y define una vía extremo-a-extremo con un ancho de banda fijo específico durante toda la sesión. La red recibe desde el extremo emisor una dirección que identifica al extremo destinatario y establece un "camino" hacia este destino. Cuando finaliza la sesión, la vía se libera y puede ser usada por un nuevo circuito. Su ventaja principal radica en que una vez establecido el circuito su disponibilidad es muy alta, ya que se garantiza este camino entre ambos extremos independientemente del flujo de información. Su principal inconveniente consiste en que se consumen muchos recursos del sistema mientras dura la comunicación independientemente de lo que en realidad pudiera requerir. La conexión se establece antes de que comience la transmisión de datos. La capacidad del canal debe estar disponible y reservada. Los nodos tienen que tener la capacidad para manejar la conexión. Los conmutadores tienen que tener la inteligencia para reservar recursos y ver la ruta. Camino dedicada entre dos estaciones. Secuencia conectada de enlaces entre nodos. La comunicación comprende 3 fases: Establecimiento del circuito. Transferencia de datos. Desconexión del circuito. Puede ser ineficiente: Capacidad dedicada durante la duración de la conexión, aún así los no están siendo transferidos. Para voz, la utilización es alta, pero igual así no llega al 100%. Para la conexión de terminales, debería estar disponible la mayor parte del tiempo. Retardo previo a las transferencias de datos para el establecimiento de llamadas. Una vez que el circuito esta establecido, la red es transparente a los usuarios. Transmisión de datos a velocidad fija. 2.1 Elementos de la Conmutación por Circuitos: Estaciones: Son los dispositivos finales que se desean comunicar. Puede ser teléfonos, computadoras, etc. Nodos: Son los dispositivos de conmutación que propagan la comunicación. Redes de comunicaciones: Es el conjunto de todos los nodos. 2.2 Establecimiento del circuito: 1. La estación A conectada al nodo 4 pide ser comunicada con la estación E. 2. El circuito desde A a 4 es usualmente una línea dedicada. 3. El nodo 4 busca la próxima pata al nodo 6. 4. Basada en la información de ruteo, disponibilidad, y costo, el nodo 4 selecciona el circuito al nodo 5. 5. Asigna un canal libre. 6. Nodo 4 requiere conexión a E. y así sigue... 7. Se cierra la conexión. Usualmente por un de las estaciones. 8. Se le avisa a los nodos que liberen recursos. 2.3 Enrutamiento de la redes de circuitos: Es una red de conmutación de circuitos muchas conexiones necesitan una ruta que pase a través de más de un conmutador. En una estrategia de enrutamiento hay dos requisitos fundamentales para la arquitectura de la red: eficiencia y flexibilidad: Eficiencia: Se desea minimizar la cantidad de equipos (conmutadores y enlaces) en la red, teniendo en cuenta que debe ser capaz de aceptar toda la carga esperada. Flexibilidad: Aunque se puede dimensionar la red teniendo en cuenta el tráfico en horas pico es posible que la carga supere temporalmente este nivel. La rede tiene que proporcionar un servicio razonable incluso bajo malas condiciones. El punto clave entre la eficiencia y flexibilidad es la estrategia de enrutamiento. 2.4 Señalización de control: En las redes de conmutación de circuitos, las señales de control constituyen el medio por el que se establecen, mantienen y finalizan las llamadas. La señalización puede clasificarse cuatro categorías: Supervisión: Se refiere a funciones de carácter binario. Direccionamiento: Enrutamiento que permite localizar el destino. Información sobre la llamada: Se refiere al estado de la llamada; establecimiento y cierre de la llamada. Gestión de red: Se usa para el mantenimiento, resolución de problemas y el funcionamiento general de la red. 2.5 Packet Switching - Circuit Switching Issues: Diseñados por voz: Los recursos están dedicados a una llamada en particular. Para voz, alta utilización: La mayor parte del tiempo, alguien está hablando. Para datos: Línea sin uso la mayor parte del tiempo. Velocidad de transmisión constante. Limita la interconexión de la variedad de computadoras, hosts y terminales. 3. Conmutación de Paquetes: Se denomina Conmutación de Paquetes o Packet Switching al intercambio de bloques de información (o "paquetes") con una tamaño específico entre dos puntos, un emisor y un receptor. En el origen, extremo emisor, la información se divide en "paquetes" a los cuales se les indica la dirección del destinatario. Cada paquete contiene, no solo los datos, sino que también un encabezado con información de control (prioridad y direcciones de origen y destino). Los paquetes se transmiten a través de la red y, después son reensamblados en el destino obteniendo así el mensaje original. En cada nodo de la red, un paquete puede ser almacenado temporalmente y encaminado dependiendo de la información de la cabecera. De esta forma, pueden existir varias vías o caminos de un punto a otro, siendo gestionado por la red el camino más óptimo. Las redes basadas en la conmutación de paquetes evitan que mensajes de gran longitud signifiquen grandes intervalos de espera ya que estos limitan el tamaño de los mensajes transmitidos. La red puede transmitir mensajes de longitud visible pero con una longitud máxima. La conmutación de paquetes es más adecuada para la transmisión de datos comparada con la conmutación de circuitos. Un paquete es un grupo de información que consta de dos partes, los datos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes. 3.1 Proceso: 1. Los datos se transmiten paquetes. 2. Los mensajes más largos se cortan en series de paquetes. 3. Cada paquete tiene parte o todos los datos, más la información de control. 4. La información de control incluye el ruteo de redes. 5. En cada nodo se reciben paquetes guardados por un tiempo corto y pasados al próximo nodo. 6. Las computadores que transmiten envían un mensaje como una secuencia de paquetes. 7. En el paquete se incluye información de la estación de destino. 8. Los nodos guardan por un instante los paquetes, determinan la próxima parada de la ruta, y encolan paquetes para que salgan por ese enlace. 9. Cuando el enlace (link) está disponible, el paquete es transmitido al próximo nodo. 10. Todos los paquetes siguen su camino por si mismos. Las ventajas podrían ser: Mayor eficiencia de línea: enlace de nodo a nodo compartido dinámicamente por muchos paquetes. Conversión de tasa de datos: Cada estación se conecta a su nodo a su velocidad de datos adecuada. Los nodos actúan como amortiguadores. Paquetes aceptados, incluso bajo tráfico pesado, pero el retraso en la entrega aumenta: las redes de conmutación de circuitos bloquearían directamente nuevos intentos de conexión. Las prioridades puede usadas. Las desventajas podrían ser: El retardo (Delay): el delay de la transmisión es igual al largo de los paquetes dividido por la velocidad del canal. Retardo variable debido al procesamiento y al encolado. Los paquetes pueden variar largo: puede tomar diferentes rutas. Puede estar sujeto a distintos retardos. El retardo de los paquetes varia sustancialmente. No es lo mejor para aplicaciones real-time. El "Overhead" incluye direcciones de destino, información de secuencia, etc: Reduce la capacidad disponible para los datos de usuario. Se requiere más procesamiento en cada nodo. 3.2 Técnicas de Conmutación: Para el uso de la conmutación de paquetes se definieron dos tipos de técnicas: los Datagramas y los Circuitos virtuales: 3.2.1 Datagrama: Los Datagramas son un fragmento de paquete que es enviado con la suficiente información para que la red pueda simplemente encaminarlo hacía el equipo terminal de datos "DTE" (Receptor), de manera independiente a los fragmentos restantes. Este puede provocar una recomposición desordenada o incompleta del paquete en el DTE destino. - No tiene fase de establecimiento de llamada. - El paso de datos es más seguro. - No todos los paquetes siguen una misma ruta. - Los paquetes pueden llegar al destino en desorden ya que se tratan de manera independiente. - Un paquete se puede destruir en el camino y su recuperación es responsabilidad de la estación de destino (esto da a entender que el resto de paquetes llegaron con éxito). Proceso de los Datagramas: Cada paquete es tratada de forma independiente, entonces: No hay referencia a los paquetes que pasaron anteriormente. Cada nodo elije cuál es el próximo en el camino. Paquetes con el mismo destino no necesariamente siguen el mismo camino. Pueden llegar fuera de secuencia. Los nodos finales o el destino rearma la información en orden. Los paquetes pueden perderse en el camino. Los nodos de salida o destino detectan las perdidas y solicitan la recuperación. Se evita el establecimiento de la llamada. Para mensajes cortos, el datagrama es más rápido, más flexible: Se puede evitar la congestión. La entrega es inherentemente más confiable. Si un nodo falla, los subsiguientes paquetes puede ser re-ruteados. 3.2.2 Circuitos virtuales: Un circuito virtual es un sistema de conmutación por el cual los datos de un usuario origen pueden ser transmitidos a otro usuario a través de más de un circuito de comunicaciones real durante un cierto periodo de tiempo, pero en el que la conmutación es transparente para el usuario. Un ejemplo de protocolo que usa circuitos virtuales es el ampliamente usado TCP: Su funcionamiento es similar al de conmutación de circuitos. Antes de la transmisión se establece la ruta por medio de paquetes de petición de llamda (pide conexión lógica al destino) y de llamada aceptada (en cado de que la estación destino esté apta para la transmisión envía este tipo de paquete); establecida la transmisión, se da el intercambio de datos, y una vez terminada, se presenta el paquete de petición de liberación (aviso de que la red está disponible, es decir que la transmisión llegó a su fin). Cada paquete tiene un identificador de circuito virtual en lugar de la dirección del destino. Los paquetes se reciben en el mismo orden en que fueron enviados. Proceso: Una ruta pre-planeada se establece antes de que los paquetes se envíen. Todos los paquetes siguen las misma rutas. Similar a la red de circuitos. Cada paquete tiene su identificador de circuito virtual. Los nodos en la ruta saben a donde direccionar los paquetes. No hay decisión de ruteo. NO es un camino dedicado. Los paquetes almacenan (buffered) en el nodo y se encolan para la salida. La decisión de ruteo se hace una vez para el circuito virtual. Las redes pueden proveer servicios relacionados con el circuito virtual: secuencia y control de error. Los paquetes transitan más rápidamente. Si el nodo falla todos los circuitos virtuales que pasan por el nodo fallan. Fases: En el circuito virtual se pueden diferenciar tres fases: 1. Apertura de la conexión: Se añade una entrada en la tabla de reenvío, se determina la ruta entre el emisor y el receptor, se reservan recursos (ancho de banda). Tenemos que tener en cuenta que esta conexión se hace de varios enlaces y routers por lo que todos los routers tienen que actualizar sus tablas de reenvío. 2. Transferencia de paquetes: en esta fase se transfieren los datos necesarios. 3. Cierre de la conexión: una vez terminada la fase de transferencia, se cierra la conexión avisando al otro nodo y se actualizan las tablas de reenvío de todos los routers. 3.3 Estrategias de enrutamiento: Estático: - Es la especificación para cada par de nodos origen-destino de la identidad del siguiente nodo en la ruta. - No se necesita saber la ruta completa sino sola la del siguiente nodo. - No existe diferenciación entre Datagrama y Circuitos virtuales ya que todos los paquetes van a seguir una misma ruta de manera secuencial. - Ventajas: Simplicidad y buen funcionamiento. - Desventaja: Falta de flexibilidad (no existe reacción a fallos ni congestionamiento). Inundaciones: Para mensajes de alta prioridad. No se precisa información sobre la red. El nodo origen envía una copia del paquete a los nodos vecinos y estos mediante enlaces van a enviar al resto de nodos hasta que una copia llegue al destino. Propiedades: a. Se prueban los posibles caminos entre los nodos y destinos. b. Una copia del paquete va a intentar usar el menor número de saltos. c. Se visitan todos los nodos que están directa o indirectamente conectados con el origen. d. Generación de demasiado tráfico. Aleatorio: Mayor control del congestionamiento. Selección de un único camino de salida para transmitir el paquete entrante. El enlace de salida se elije en forma aleatoria sin tomar en cuenta el enlace anterior. Adaptable: Las decisiones cambian a medida de las condiciones de la red (si la red tiene fallos el nodo o línea ya sabe que no puede ser parte de la ruta y en caso de congestionamiento se rodeo la zona gestionada). Los nodos intercambian información sobre el estado de la red. Esta técnica es más utilizada que la estática por: 1. Mejora en las prestaciones. 2. Retrasa el hecho de que aparezcan situaciones graves de congestionamiento. 3.4 Orientado o no a la conexión: Los protocolos de red y el tipo de tráfico de datos que soportan pueden ser caracterizados como orientados a conexión o sin conexión: 3.4.1 Orientado a la conexión: Implica el uso de un camino específico que se establezca durante una conexión. Los datos pasan a través de una conexión permanente establecida. Este tiene 3 Fases: 3 Fases: 1. Establecimiento de la conexión: Se determina un solo camino entre el origen y los sistemas destinatarios. Los recursos de la red generalmente son reservados en ese momento para asegurar una calidad constante del servicio. 2. Transferencia de datos: los datos se transmiten secuencialmente sobre el camino que se estableció. Llegan siempre el sistema destinatario en el orden en el cual fue enviado. 3. Fin de la conexión: una conexión establecida que no se necesita más se termina. La comunicación adicional entre el origen y los sistemas destinatarios requiere que sea establecida una nueva conexión. Ventajas: Son útiles para trasmitir datos que no toleran delay y el resencuenciamiento de paquetes. Las aplicaciones de voz y de vídeo se basa típicamente en servicios orientados a conexión. Desventajas: Reserva estática del camino: todo tráfico tiene que viajar a lo largo del mismo camino estático y un incidente en cualquier punto de ese camino va a hacer fallar la conexión. Reserva estática de recursos: todos los recursos quedan reservados para esa comunicación y no es posible compartirla con otros usuarios de la red. A menos que se utilice completo el rendimiento de procesamiento, de forma ininterrumpida, el ancho de banda no se usa de manera eficiente. 3.4.2 No orientado a la conexión: No implica la predeterminación del camino a seguir por lo paquetes. No garantiza: - La secuencia de paquetes. - La tasa de transferencia de datos. - Los recursos de la red. Cada paquete es transmitido independientemente por el sistema de origen y manejado independientemente por los dispositivos intermedios de la red. Ventajas: Selección dinámica del camino: permite al tráfico ser encaminado evitando fallas de la red porque los caminos se seleccionan paquete por paquete. Asignación dinámica del ancho de banda: permite hacer un uso más eficiente del ancho de banda, ya que no se afectan los recursos de red que no se utilizan. Son útiles para aplicaciones que toleran un cierto delay y resecuenciamiento de los paquetes. Típicamente usada por aplicaciones de datos (mail, web). Son descritos generalmente con sin estado: los puntos finales no guardan información para recordar una "conversación" de cambios de mensajes. Con los años la fusión de las computadoras y las comunicaciones tuvieron una profunda influencia en cuanto a la manera en que organizan los sistemas informáticos. El concepto que se conocía como "centro de cómputo" o "centro de informática", como un salón con una gran computadora a la que los usuarios llevaban su trabajo para procesarlo es ahora totalmente obsoleto. El viejo modelo de una sola computadora para entender todas las necesidades computacionales de la organización se remplazó por uno en el que un gran número de computadoras separadas pero interconectadas entre sí hacen el trabajo. A estos sistemas se los conoce como redes de computadoras. Una red de computadoras no es lo mismo que un sistema distribuido. La diferencia clave está en que un sistema distribuido, un conjunto de computadoras independientes aparece frente a sus usuarios como un solo sistema coherente. Por lo general, tiene modelo o paradigma único que se presenta a los usuarios. A veces se usa una capa de software encima del sistema operativo, conocido como middleware; esta capa es responsable de implementar este modelo. Un ejemplo muy conocido es la World Wide Web. Este sistema opera sobre Internet y presenta un modelo en el cual todo se ve como un documento (página web). En una red de computadoras no existe esta coherencia, modelo ni software. Los usuarios quedan expuestos a las máquinas real, sin que el sistema haga algún intento por hacer que éstas se vean y actúen de manera coherente. Si las máquinas tienen distinto hardware y distintos sistemas operativo, es algo que está a la vista de los usuarios. Si un usuario quiere ejecutar un programa en un equipo de manera remota, tiene que iniciar sesión en esa máquina y ejecutarlo ahí. Un sistema distribuido es un sistema de software construido sobre una red. El software le ofrece un alto nivel de cohesión y transparencia. Por ende, la distinción entre una red y un sistema distribuido recae en el software (en especial, en el sistema operativo) y no en el hardware. 1. Primer protocolo MAC, ALOHA (ALOHAnet): ALOHA, también llamado ALOHAnet, fue un sistema pionero de redes de computadoras desarrollado en la universidad de Hawái. Se lanzó por primera vez en 1970. Aunque la red ALOHA ya no se usa, uno de los conceptos esenciales de esta red es la base para la casi universal Ethernet. En ese momento en Hawái no podían cruzar el océano con cables de fibra óptica, así que encontraron un solución que implicaba radios de corto rango, en donde cada terminal de usuario compartía la misma frecuencia ascendente para enviar tramar a la computadora central. El sistema ALOHA usaba la radiodifusión basada en tierra, la idea básica es aplicable a cualquier sistema en el que usuarios no coordinados compiten por el uso de un solo canal compartido. Existen dos versiones de ALOHA, ALOHA puro y ranurado. El término ALOHA en la comunicación de datos se refiere a un tipo de protocolo que permite que los dispositivos se comuniquen entre sí sin necesidad de un control o coordinación centralizados. Este tipo de protocolos se usa o se usaba en redes inalámbricas o móviles, donde podría llegar a ser difícil mantener un control centralizado. En ALOHAnet, cada nodo escucha para saber si alguien está usando el canal, y si no escucha a nadie empieza a emitir. Este sistema se conoce como Acceso múltiple por detección de portadora. En resumen, ALOHA fue un sistema pionero que sirvió como la base para el desarrollo de redes Ethernet y Wi-Fi. 1.1 ALOHA PURO: La idea básica de ALOHA es la siguiente: permitir que los usuarios transmitan cuando tengan datos para enviar. Obvio pueden existir colisiones donde las tramas se ven afectadas. Los emisores necesitan alguna forma de saber si éste fue el caso. Después de cada estación envía su trama a la computadora central, ésta vuelve a difundir la trama a todas las estaciones. Así, una estación emisora puede escuchar la difusión de la estación terrena maestra (HUB) para ver si pasó su trama o no. En otros sistemas, como las LAN alámbricas, el emisor podría ser capaz de escucha si hay colisiones mientras transmite. Si la trama fue destruida, el emisor simplemente espera un tiempo aleatorio y la envía de nuevo. El tiempo de espera tiene que ser aleatorio o las misma tramar chocarían una y otra vez, en sincronía. Los sistemas en los cuales varios usuarios comparten un canal común de modo tal que puede dar pie a conflictos se conocen como sistemas de contención. 1.2 ALOHA ranurado (Slotted ALOHA): Es una versión mejorada del protocolo ALOHA. Las diferencias clave entre ALOHA puro y ALOHA ranurado. Roberts (1972) publica un método para duplicarla capacidad de un sistema ALOHA. Su propuesta era dividir el tiempo en intervalos discretos llamados ranuras, cada una de estas ranuras correspondía una trama. Este método requiere que los usuarios acuerden límites de ranuras. Un manera de lograr la sincronización sería tener una estación especial que emitiera una señal al comienzo de cada intervalo, como un reloj. ALOHA ranurado a diferencia del ALOHA puro de Abramson, es que no permite que una estación envíe cada vez que el usuario escribe una línea. En cambio, se le obliga esperar el comienzo de la siguiente ranura. Por lo tanto, el ALOHA de tiempo continuo se convierte en uno de tiempo discreto. Esto reduce el periodo vulnerable a la mitad. El tiempo se organiza en ranuras uniformes de duración igual al tiempo de transmisión de una trama. Necesita un reloj central o otro mecanismo de sincronización. La transmisión se permite en los instantes de tiempo que coincidan con el comienzo de una ranura. Sino las tramas se pierden o se solapan completamente. La utilización máxima del sistema es del 37%. 2. Carrier Sense Multiple Access (CSMA): El protocolo de detección de portadora, también llamado CSMA, es un protocolo de control de acceso al medio (MAC) que se usa en las redes de computadoras para compartir canales de comunicación de manera eficiente. Este protocolos se basa en la detección de portadora, lo que significa que los dispositivos en la red tienen que escuchar y detectar si hay actividad en el canal antes de transmitir datos. La detección de portadora se refiere a la capacidad de un dispositivo de red para determinar si un canal de comunicación está actualmente en uso antes de intentar transmitir datos a través de la él. Si el canal está ocupad, el dispositivo va a esperar hasta que esté libre antes de comenzar a transmitir. El propósito de este protocolo es evitar colisiones de datos, que ocurren cuando dos o más dispositivos intentan transmitir datos al mismo tiempo en el mismo canal. Al evitar colisiones, el protocolo CSMA puede ayudar a mejorar la eficiencia de la red y garantizar una transmisión de datos más fluida y sin interrupciones. Existen varias variantes de CSMA, como CSMA/CD (Carrier Sense Multiple Access with Collision Detection) y CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance), que usan otros tipos de redes y tienen sus propios métodos para manejar y evitar colisiones. Cuando una estación tiene datos por enviar, primero escucha el canal para saber si alguien más está transmitiendo en ese momento. Si el canal está inactivo, la estación envía sus datos. En caso de estar ocupado, la estación espera hasta que se desocupa. Si ocurre una colisión, la estación espera una cantidad aleatoria de tiempo y comienza de nuevo. El protocolo se llama persistente-1 porque la estación transmite con una probabilidad de 1 cuando encuentra que el canal está inactivo. 2.1 CSMA No Persistente o Non-persistent CSMA: El CSMA no persistente es una variante del protocolo de Control de Acceso al Medio (MAC) CSMA. Cuando una estación tiene tramar por enviar, detecta el estado del canal. Si el canal está inactivo, la estación envía la trama inmediatamente. Si está ocupado, espera una cantidad de tiempo aleatoria para volver a detectar el estado del canal. Su propósito era abordar los problemas asociados con CSMA persistente, con las colisiones de datos. Sin embargo este método también tiene sus desventaja. Por ejemplo, puede resultar en un uso ineficiente del canal, ya que las estaciones no siempre transmiten inmediatamente cuando el canal está inactivo. 2.2 CSMA P-Persistente: Es otra variante de CSMA, que cuando una estación tiene tramas para enviar detecta el estado del cana. Si el canal está ocupado, la estación espera hasta el siguiente intervalo. Si el canal está inactivo, la estación transmite la trama con una probabilidad "p", y con una probabilidad "q" (donde q = 1 - p), la estación espera hasta el comienzo del siguiente intervalo de tiempo. Este proceso se repite hasta que la trama se transmite o hasta que otra estación comienza a transmitir. Se creó para abordar los problemas asociados con persistente-1. Si dos estaciones detectan que el canal está inactivo, ambas comenzarían a transmitir y terminaría en una colisión. Al agregar una probabilidad p de transmitir cuando el canal esta inactivo, este protocolo reduce la probabilidad de que dos estaciones intenten transmitir al mismo tiempo. 2,3 CSMA/CD o Carrier Sense Multiple Access with Collition Detection: Funcionamiento de los HUBs, bridge y switches. 1. ¿Cómo podemos extender las redes LAN? Breve historia: Los diseñadores especifican una distancia máxima para la extensión de una red LAN. Éste es el resultado del compromiso entre extensión de la red y la utilización del canal (mientras más abarca la red, los tiempos de propagación son mayores y la utilización de canal baja). También hay razones de tipo tecnológicas como la potencia requerida en los transmisores. Para extender las LAN se usan módems de fibra, repetidores, BRIDGES, SWITCHES, etc. Limitaciones de distancia: cuando el medio es compartido, las tecnologías LAN consideran un largo máximo para obtener retardos "moderados" y protocolos "eficientes". Las señales eléctricas se van debilitando con la distancia lo que limita su llegada a puntos que está lejos. Esta características limita el largo máximo de un segmento. Opciones para extender una red LAN: Extensión de fibra óptica. Repetidores. Bridges. Switches. 1.1 NIC (Network Interface Card): Provista para los host de acceso al medio. Los NICs operan en las capas 1 y 2. Se identifican por una dirección física llamada MAC (Media Access Control). MAC = OUI (24 Bits) + UAA (24 Bits) 1.2 Interconexión de dos PCs: Es la LAN más que chica que se puede hacer: Para conectar dos PCs se necesita: Que cada una tenga un NIC. Usar cables adecuados (cruzado o crossover). 1.3 Extensión vía fibra óptica: Un par de módems y fibra ópticas se usan para conectar una computadora a una LAN remota. El mecanismo es insertado entre la tarjeta de red y el transceiver remoto. 1.4 Repetidor: Los repetidores incrementan la distancia de un segmento: Para segmento de más de 100 metros o 300 pies es necesario el uso de un repetidor de señal. Este amplifica y regenera la señal (están obsoletos hoy en día). 1.5 Repetidores VS Hubs: Los repetidores conectan solo DOS PCs: Para interconectar MÁS de DOS dispositivos entre sí y que se puedan comunicar, es necesario que haya un REPETIDOR MULTI-PUERTO. 1.6 HUBs: Permiten conectar múltiples PCs. El repetidor multi-puerto se llama HUB. 1.6.1 HUBs: problemas: Las conexiones en cascada generan problemas. Los hubs comparten el ancho de banda entre todos los dispositivos conectados. Los hubs son dispositivos "tontos" de capa 1, por lo que no distinguen el tráfico. Constituyen una topología broadcast (difusión), que crea tormentas de tráfico reenviando la información a todos los dispositivos. Constituyen un problema de seguridad. 1.7 Bridges: Los puentes son dispositivos electrónicos que conectan dos segmentos en una LAN. Manejan la trama completa y usan la misma tarjeta interfaz que otras estaciones conectadas a la red. A diferencia del repetidor que trabaja en la capa física, el BRIDGE procesa la trama hasta la capa de enlace de datos. Los BRIDGES no retransmiten las colisiones ni tramas recibidas con error. Son transparentes para las PCs conectadas a la red. Los BRIDGES no retransmiten tramas a menos que sea necesario. Esto lo hacen observando las direcciones destino de las tramas y comparándolas con la información que manejan de la localización de las estaciones. La ubicación de las estaciones la aprenden en forma adaptativa observando la dirección origen en las tramas que se reciben. Si la dirección no está en la tabla, la trama es retransmitida. Las tramas broadcast son retransmitidas. Los BRIDGES permiten paralelismo en el uso de los segmentos. Ventajas: Fiabilidad. Rendimiento. Seguridad. Geografía. 1.7.1 Funciones de un BRIDGE: Lee todas las tramas transmitidas sobre la LAN y acepta las de direcciones de cualquier estación de otra LAN. Usan Protocolo MAC retransmite hacia otra LAN cada una de las tramas. Lo mismo en sentido contrario. 1.7.2 Aspectos de diseño: No se modifica contenido o formato de la trama. No encapsula. Copia exacta bit a bit de la trama. Mínimo almacenamiento en buffer para satisfacer demandas de pico. Capacidad de direccionamiento y enrutamiento: Tiene que ser capaz de decir que tramas pasar. Puede pasar más de un paquete. Poder conectar más de dos LANs. BRIDGING es transparente a las estaciones: estaciones en múltiples LAN parece como única LAN. 1.7.3 Arquitectura de protocolos: IEEE 802.1D. Nivel MAC: dirección de la estación, al mismo nivel. BRIDGE no necesita LLC: retransmisión de tramas MAC. Pueden pasar las tramas de sistemas de comunicación externa: Enlace WAN. Captura de trama. Encapsulamiento. Transmitirla hacia el otro lado del puente. Va a eliminar campos extra y va a transmitir la trama. 1.7.4 Árbol de expansión: LANs grandes requieren rutas alternativas: Balanceo de carga. Tolerancia a fallos. BRIDGE desarrollan automáticamente tablas de routing. Actualiza automáticamente en respuesta a cambios: Retransmisión de tramas. aprendizaje de direcciones. Resolución de bucles (loops). 1.7.4.1 Árbol de expansión - retransmisión de tramas: Mantiene una base de datos de retransmisión para cada puerto. Base indica lista de direcciones para cada puerto. Para cada trama que llega a un puerto X: Búsqueda de BD si dirección MAC asociado a puerto <> X. Si no encuentra dirección, se envía a todos excepto X. Si la dirección está en el puerto Y chequea si el puerto Y está bloqueado o disponible: el bloqueo impide al puerto recibir o transmitir. Si no está bloqueado, transmite. 1.7.4.2 Árbol de expansión - Aprendizaje de direcciones: Puede transmitir la base de datos precarhada. Puede aprenderla. Cuando la trama llega al puerto X, viene desde la dirección de la LAN entrante. Usa la dirección de origen para actualizar la base de datos de retransmisión de puerto X para incluir esa dirección. Temporizador en cada entrada de la base de datos. Cada vez que llega la trama, se comprueba su dirección de origen. Se actualiza. 1.7.4.3 Árbol de expansión - Algoritmo: Mecanismo de aprendizaje de direcciones. No cierra loops. Teoría de grafos. Mantiene conectividad pero no circuito cerrados. Cada bridge tiene asignado único identificador. Intercambio entre los puentes para establecer el árbol de expansión. 1.8 Diferencias entre un BRIDGE y un SWITCH: Los SWITCHES son más rápidos porque conmutan en hardware, los BRIDGES conmutan en software. Los SWITCHED pueden soportar altas densidades de puertos. Algunos SWITCHIES soportan conmutación cut-through que reduce retardos en la red, mientras que los BRIDGES solo soportan conmutación del tráfico store-andfordward. Los SWITCHIES proporcionan ancho de banda dedicado a cada segmento de red (menos colisiones). En el HUB todos los dispositivos comparten el mismo ancho de banda, mientras que el SWITCH el ancho de banda no se comparte. La información en enviada desde un dispositivo a otro, pero el HUB lo transmite a todos. Realizar broadcast de VLANs para la mejora de rendimiento y confidencialidad de información. 1.8 SWITCH: Un SWITCH se puede ver como un puente multipuertos, donde el tráfico se hace por dirección MAC en cada puerto del switch. Cada segmento tiene un ancho de banda dedicada, y se aumenta la seguridad. 1.8.1 SWITCHING (Conmutación): Físicamente un switch (conmutador) se parece a un HUB (concentrador). El HUB simula un único medio compartido mientras que el switch simula una LAN con bridges donde hay solo una PC por segmento. Como resultado, con un HUB solo una máquina puede acceder al medio pero con un SWITCH varias máquinas pueden enviar datos simultáneamente. Estas dos tecnologías se pueden combinar. Cada PC se conecta al HUB y estos se conectan a un SWITCH. Tipos de switches: Cut-through: alta velocidad, puede re-enviar frames malos. Store-and-forward: revisa el frame antes de enviarlo. FramengFree (Cut-through modificado): antes de enviar, espera a que lleguen 64 bytes. ATM (Asynchronous Transfer Mode): transfiere celdas fijas, soportan voz, video y datos. LAN: interconecta múltiples segmentos LAN, separa dominios de colisión. Switches nivel 3. 1.9 ROUTERS: La función del router es comunicar equipos de diferentes redes. Buscan la mejor ruta para enviar los paquetes. Realiza la siguientes tareas: Control de broadcast. Control de multicast. Determinación óptima de rutas. Administración del tráfico. Direccionamiento lógico. Conexiones a servicios WAN. 1.10 FIREWALL: Es un dispositivo de red que brinda principalmente seguridad perimetral. Algunos firewalls ofrecen protección contra negación de servicio. Se basa en: Routers. Equipos dedicados - PIX de Cisco. PC con Software - Linux. También en otros casos se usan para el filtrado de contenido y para la detección de intrusos.