Redes de computadoras Unidad Temas 1 Fundamentos de redes. 1.1 1.2 Subtemas Concepto de red, su origen. Clasificación de redes. 1.2.1 De acuerdo a su Tecnología de interconexión. 1.2.2 De acuerdo a su tipo de conexión. 1.2.2.1 Orientadas. 1.2.2.2 No orientadas. 1.2.3 De acuerdo a su relación. 1.2.3.1 De Igual a Igual. 1.2.3.2 Cliente - Servidor. 1.3 Descripción del Modelo OSI. 1.3.1 Modelo de capas. 1.3.2 Proceso de encapsulado de datos. 1.4 Topologías de redes. 2 Componentes de una red. 2.1 Estaciones de Trabajo. 2.1.1 Plataformas. 2.2 Medios de transmisión. 2.2.1 Medios Guiados. 2.2.2 Medios no Guiados. 2.3 Adaptadores de Red. (NIC). 2.3.1 Ethernet. 2.3.2 Token Ring. 2.3.3 FDDI. 2.4 Dispositivo de conectividad. 2.4.1 Repetidores. 2.4.2 Concentradores (Hub, Mau). 2.4.3 Tranceptores. 2.4.4 Puentes (Bridges). 2.4.5 Conmutadores (Switch). 2.4.6 Gateways. 2.4.7 Routers. 2.5 Servidores. 2.5.1 De archivos e impresión. 2.5.2 Administradores de cuentas de usuarios. 2.5.3 De aplicación. 2.5.4 Servidores de Internet. 2.6 Sistemas Operativos de Red. (NOS). 3 Estándares y protocolos de redes. 3.1 Estándares de Conexión LAN de la IEEE. 3.1.1 Proyecto 802 Conexión. 3.1.2 802.1 Conexión entre Redes. 3.1.3 802.2 Control de Enlace Lógico (LLC). 3.1.4 802.3 Ethernet. 3.1.5 802.4 Token Bus. 3.1.6 802.5 Token Ring. 3.1.7 802.6 FDDI. 3.1.8 802.11 LAN inalámbricas. 3.2 Arquitectura de protocolos. 3.2.1 TCP/IP. 3.2.2 NetBEUI/NetBIOS. 3.2.3 IPX/SPX. 3.2.4 Protocolos emergentes. 3.2.5 Similitudes y diferencias de los modelos OSI y TCP/IP. 4 Estándar cableado estructurado. 4.1. Componentes del cableado estructurado. 4.1.1. Área de trabajo. 4.1.2. Cableado horizontal. 4.1.3. Cableado vertical. 4.1.4. Cableado Backbone. 4.1.5. Centro de telecomunicaciones principal. 4.1.6. Centro de telecomunicaciones Intermedios. 4.1.7. Servicios de ingreso. 4.2. Planificación de la estructura de cableado. 4.2.1. Normatividad de electricidad y conexiones a tierra. 4.2.2. Soluciones para caída y bajada de tensión. 4.2.3. Normatividad de seguridad 4.3. Documentación de una red. 4.3.1. Diario de Ingeniería. 4.3.2. Diagramas. 4.3.3. Cables etiquetados. 4.3.4. Resumen de tomas y cables. 4.3.5. Resumen de dispositivos, direcciones MAC e IP. 4.3.6. Material y presupuestos. 4.4. Presentación del proyecto. 5 Planeación y diseño básico de una LAN. 5.1 Análisis de requerimientos. 5.1.1 Evaluar las necesidades de la red. 5.1.1.1 Requerimientos de las estaciones de trabajo. 5.1.1.1.1. Aplicaciones que corren. 5.1.1.1.2 Ancho de banda. 5.1.1.1.3 Almacenamiento. 5.1.1.2 Requerimientos de servidores. 5.1.1.3 Servicios de red. 5.1.1.4 Seguridad y protección. 5.1.2 Selección de una red Igual a Igual o una Cliente – Servidor. 5.2 Planeación y diseño de una LAN. 5.2.1 Elaboración de un cronograma de actividades. 5.2.2 Diseño conceptual por dispositivos. 5.2.3 Diseño en base a planos con especificaciones. 5.3 Instalación y administración básica de una LAN. 5.3.1 Instalación del cableado bajo las normas TIA/EIA. 5.3.2 Instalación del Sistema Operativo de Red. 5.3.3 Configuración de las estaciones de trabajo. 5.3.4 Administración de cuentas de usuario, grupos de trabajo. 5.3.5 Recursos compartidos. Unidad 1 Fundamentos de redes. 1.5 Concepto de red, su origen. Una red es un sistema de objetos o personas conectados de manera intrincada. Las redes están en todas partes, incluso en nuestros propios cuerpos. Las redes de datos surgieron como resultado de las aplicaciones informáticas creadas para las empresas. Sin embargo, en el momento en que se escribieron estas aplicaciones, las empresas poseían computadores que eran dispositivos independientes que operaban de forma individual, sin comunicarse con los demás computadores. Muy pronto se puso de manifiesto que esta no era una forma eficiente ni rentable para operar en el medio empresarial. Las empresas necesitaban una solución que resolviera con éxito las tres preguntas siguientes: 1. cómo evitar la duplicación de equipos informáticos y de otros recursos 2. cómo comunicarse con eficiencia 3. cómo configurar y administrar una red Las empresas se dieron cuenta de que podrían ahorrar mucho dinero y aumentar la productividad con la tecnología de networking. Empezaron agregando redes y expandiendo las redes existentes casi tan rápidamente como se producía la introducción de nuevas tecnologías y productos de red. Como resultado, a principios de los 80, se produjo una tremenda expansión de networking. Sin embargo, el temprano desarrollo de las redes resultaba caótico en varios aspectos. A mediados de la década del 80, comenzaron a presentarse los primeros problemas emergentes de este crecimiento desordenado. Muchas de las tecnologías de red que habían emergido se habían creado con implementaciones de hardware y software distintas. Por lo tanto, muchas de las nuevas tecnologías no eran compatibles entre sí. Se tornó cada vez más difícil la comunicación entre redes que usaban distintas especificaciones. Una de las primeras soluciones a estos problemas fue la creación de redes de área local (LAN). Como permitían conectar todas las estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos ubicados dentro de un mismo edificio, las LAN permitieron que las empresas utilizaran la tecnología informática para compartir de manera eficiente archivos e impresoras. A medida que el uso de los computadores en las empresas aumentaba, pronto resultó obvio que incluso las LAN no eran suficientes. En un sistema LAN, cada departamento o empresa, era una especie de isla electrónica. Lo que se necesitaba era una forma de que la información se pudiera transferir rápidamente y con eficiencia, no solamente dentro de una misma empresa sino de una empresa a otra. Entonces, la solución fue la creación de redes de área metropolitana (MAN) y redes de área amplia (WAN). Como las WAN podían conectar redes de usuarios dentro de áreas geográficas extensas, permitieron que las empresas se comunicaran entre sí a través de grandes distancias. Para facilitar su estudio, la mayoría de las redes de datos se han clasificado como redes de área local (LAN) o redes de área amplia (WAN). Las LAN generalmente se encuentran en su totalidad dentro del mismo edificio o grupo de edificios y manejan las comunicaciones entre las oficinas. Las WAN cubren un área geográfica más extensa y conectan ciudades y países. Algunos ejemplos útiles de LAN y WAN aparecen en la siguiente figura; se deben consultar estos ejemplos siempre que aparezca una pregunta relativa a la definición de una LAN o una WAN. Las LAN y/o las WAN también se pueden conectar entre sí mediante internetworking. 1.6 Clasificación de redes. Redes de área local Las redes de área local (LAN) eran capaces de conectar todas las estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos ubicados dentro de un mismo edificio, las LAN permitieron que las empresas utilizaran la tecnología informática para compartir de manera eficiente archivos e impresoras. Las redes de área local (LAN) se componen de computadores, tarjetas de interfaz de red, medios de networking, dispositivos de control del tráfico de red y dispositivos periféricos. Las LAN hacen posible que las empresas que utilizan tecnología informática compartan de forma eficiente elementos tales como archivos e impresoras, y permiten la comunicación, por ejemplo, a través del correo electrónico. Unen entre sí: datos, comunicaciones, servidores de computador y de archivo. Las LAN está diseñadas para realizar lo siguiente: Operar dentro de un área geográfica limitada Permitir que varios usuarios accedan a medios de ancho de banda alto Proporcionar conectividad continua con los servicios locales Conectar dispositivos físicamente adyacentes Redes de área metropolitana (MAN) En principio se considera que una MAN abarca una distancia de unas pocas decenas de kilómetros, que es lo que normalmente se entiende como área metropolitana. Existe solamente una red característica de las MANs, la conocida como IEEE 802.6 o DQDB (Distributed Queue Dual Bus), que puede funcionar a diversas velocidades entre 34 y 155 Mb/s con una distancia máxima de unos 160 Km. En realidad la distinción de MANs en base a la distancia es un tanto arbitraria, ya que FDDI puede llegar a 200 Km pero raramente se la clasifica como MAN, al no ser un servicio ofrecido por las compañías telefónicas, cosa que sí ocurre con DQDB en algunos países. La tecnología DQDB ha tenido escasa difusión. Su mayor mérito ha sido servir como predecesora de ATM en algunos aspectos. En el futuro es de esperar que la red DQDB caiga en desuso o desaparezca ya que su espacio ha sido ocupado por completo por las redes basadas en ATM. Un caso de redes especialmente difíciles de clasificar son las formadas por empresas de televisión por cable. Desde el punto de vista técnico estas redes se podrían considerar tipo LAN; sin embargo el hecho de que sean gestionadas por empresas especializadas y ofrecidas como un servicio contratable por los usuarios les da unas características de WAN desde el punto de vista legal. Estas circunstancias unidas a su alcance máximo (entre 160 y 200 Km) hacen que las podamos considerar en cierto modo como redes MAN. El término MAN suele utilizarse también en ocasiones para denominar una interconexión de LANs ubicadas en diferentes recintos geográficos (por ejemplo diferentes campus) cuando se dan las siguientes circunstancias: La interconexión hace uso de enlaces telefónicos de alta o muy alta velocidad (comparable a la de las propias LANs interconectadas). La interconexión se efectúa de forma transparente al usuario, que aprecia el conjunto como una única LAN por lo que se refiere a servicios, protocolos y velocidades de transmisión. Existe una gestión unificada de toda la red Redes de área amplia A medida que el uso de los computadores en las empresas aumentaba, pronto resultó obvio que incluso las LAN no eran suficientes. En un sistema LAN, cada departamento, o empresa, era una especie de isla electrónica. Lo que se necesitaba era una forma de transferir información de manera eficiente y rápida de una empresa a otra. La solución surgió con la creación de las redes de área amplia (WAN). Las WAN interconectaban las LAN, que a su vez proporcionaban acceso a los computadores o a los servidores de archivos ubicados en otros lugares. Como las WAN conectaban redes de usuarios dentro de un área geográfica extensa, permitieron que las empresas se comunicaran entre sí a través de grandes distancias. Como resultado de la interconexión de los computadores, impresoras y otros dispositivos en una WAN, las empresas pudieron comunicarse entre sí, compartir información y recursos, y tener acceso a Internet. Algunas de las tecnologías comunes de las WAN son: módems RDSI (Red digital de servicios integrados) DSL (Digital Subscriber Line) (Línea de suscripción digital) Frame relay ATM (Modo de transferencia asíncrona) Series de portadoras T (EE.UU. y Canadá) y E (Europa y América Latina): T1, E1, T3, E3, etc. SONET (Red óptica síncrona) Redes de Area Local Virtuales (VLAN) Aunque las LAN’s virtuales fueron en un principio comercializadas como una forma de facilitar el manejo de redes, la industria se ha alejado lentamente de sus estatutos iniciales. Hoy, las VLAN’s sirven como agentes para microsegmentación virtual. La microsegmentación crea pequeños dominios, llamados segmentos, o bien enlazando las estaciones terminales directamente a puertos de switch individuales o conectando un pequeño hub de grupo de trabajo a un puerto de switch simple. Las VLAN’s realizan la microsegmentación en software, proporcionando una manera de asignar estaciones individuales o aún segmentos de red a un segmento virtual existente solo en software. Un segmento virtual ofrece más posibilidades para definir los tipos de tráfico que puede fluir a través de cada VLAN. Debido a que una VLAN es un dominio de transmisión grande y llano segmentado en software, sus cuestiones de diseño pueden llegar a ser relativamente complejas. El primer problema con el concepto VLAN es que ningún estándar esta disponible hoy día. El IEEE esta trabajando en el estándar 802.1q para "LAN’s conectadas virtualmente". No obstante, la falta de estándar no aleja a los vendedores de proporcionar sus propios métodos de VLAN’s, incluyendo el Enlace InterSwitch (ISL) de Cisco y SecureFast de Cabletron. En segundo término, la mayoría de los manejadores IS están todavía haciendo bridging. Si se corren VLAN’s a través de un ruteador, sus puertos están involucrados con bridging. Esto le impide aprovechar los beneficios del ruteador, como una supresión de la transmisión y algunas otras decisiones inteligentes. Entonces, ¿qué tan buena es una VLAN? Se puede tomar ventaja de su funcionalidad en varias formas diferentes. Por ejemplo, se puede usar como una benda para una red envolvente. Más probablemente, cuando una red pasa de un ambiente de ancho de banda compartido hacia un ambiente switcheado, la estrategia de subredes IP tomará parte en el camino. Se pueden tener muchas mas estaciones en una subred cuando no se tenga que preocupar por las colisiones. Se pueden posicionar 500-1, estaciones IP 000 sobre una VLAN o 200-300 IPX y estaciones AppleTalk. Eventualmente, las VLAN’s realizarán su propósito original de ayudar con agregaciones, movimientos y cambios. La mayoría de los vendedores han implementado VLAN’s basadas en puerto, en las que se asigna un usuario a un puerto y un puerto a una VLAN. El próximo paso es crear VLAN’s dinámicas, basadas en MAC. Así cuando se mueva un usuario de un lado a otro del edificio, tan pronto como toso los switches compartan la misma base de datos de direcciones MAC, el usuario terminará en la misma VLAN sin configuraciones adicionales. Uno de los más grandes problemas de implementar VLAN’s tiene que ver con empalmarlas en los ruteadores. Si se instruye al ruteador para conectarse con una VLAN, las requisiciones de transmisiones como la del IP ARP (Protocolo de Resolución de Direcciones) serán transmitidas a través de enlaces WAN extensos. Cada vendedor que implemente VLAN’s lo hará entonces de su propio modo. Ambos Foundry como HP usan VLAN’s basadas en puerto para sus equipos, lo que significa que todos los usuarios conectados a través de un puerto dado están en la misma VLAN. 1.6.1 De acuerdo a su Tecnología de interconexión. Redes LAN Token Ring Las redes Token Ring son redes de tipo determinista, al contrario de las redes Ethernet. En ellas, el acceso al medio está controlado, por lo que solamente puede transmitir datos una máquina por vez, implementándose este control por medio de un token de datos, que define qué máquina puede transmitir en cada instante. Token Ring e IEEE 802.5 son los principales ejemplos de redes de transmisión de tokens. Las redes de transmisión de tokens se implementan con una topología física de estrella y lógica de anillo, y se basan en el transporte de una pequeña trama, denominada token, cuya posesión otorga el derecho a transmitir datos. Si un nodo que recibe un token no tiene información para enviar, transfiere el token al siguiente nodo. Cada estación puede mantener al token durante un período de tiempo máximo determinado, según la tecnología específica que se haya implementado. Cuando una máquina recibe un token y tiene información para transmitir, toma el token y le modifica un bit, transformándolo en una secuencia de inicio de trama. A continuación, agrega la información a transmitir a esta trama y la envía al anillo, por el que gira hasta que llega a la estación destino. Mientras la trama de información gira alrededor del anillo no hay ningún otro token en la red, por lo que ninguna otra máquina puede realizar transmisiones. Cuando la trama llega a la máquina destino, ésta copia la información contenida en ella para su procesamiento y elimina la trama, con lo que la estación emisora puede verificar si la trama se recibió y se copió en el destino. Como consecuencia de este método determinista de transmisión, en las redes Token Ring no se producen colisiones, a diferencia de las redes CSMA/CD como Ethernet. Además, en las redes Token Ring se puede calcular el tiempo máximo que transcurrirá antes de que cualquier máquina pueda realizar una transmisión, lo que hace que sean ideales para las aplicaciones en las que cualquier demora deba ser predecible y en las que el funcionamiento sólido de la red sea importante. La primera red Token Ring fue desarrollada por la empresa IBM en los años setenta, todavía sigue usándose y fue la base para la especificación IEEE 802.5 (método de acceso Token Ring), prácticamente idéntica y absolutamente compatible con ella. Actualmente, el término Token Ring se refiere tanto a la red Token Ring de IBM como a la especificación 802.5 del IEEE. Las redes Token Ring soportan entre 72 y 260 estaciones a velocidades de 4 a 16 Mbps, se implementan mediante cableado de par trenzado, con blindaje o sin él, y utilizan una señalización de banda base con codificación diferencial de Manchester. Tokens Los tokens están formados por un byte delimitador de inicio, un byte de control de acceso y un byte delimitador de fin. Por lo tanto, tienen una longitud de 3 bytes. El delimitador de inicio alerta a cada estación ante la llegada de un token o de una trama de datos/comandos. Este campo también incluye señales que distinguen al byte del resto de la trama al violar el esquema de codificación que se usa en otras partes de la trama. El byte de control de acceso contiene los campos de prioridad y de reserva, así como un bit de token y uno de monitor. El bit de token distingue un token de una trama de datos/comandos y un bit de monitor determina si una trama gira continuamente alrededor del anillo. El delimitador de fin señala el fin del token o de una trama de datos/comandos. Contiene bits que indican si hay una trama defectuosa y una trama que es la última de una secuencia lógica. El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de datos transportan información para los protocolos de capa superior, mientras que las tramas de comandos contienen información de control y no poseen datos para los protocolos de capa superior. En las tramas de datos o instrucciones hay un byte de control de trama a continuación del byte de control de acceso. El byte de control de trama indica si la trama contiene datos o información de control. En las tramas de control, este byte especifica el tipo de información de control. A continuación del byte de control de trama hay dos campos de dirección que identifican las estaciones destino y origen. Como en el caso de IEEE 802.5, la longitud de las direcciones es de 6 bytes. El campo de datos está ubicado a continuación del campo de dirección. La longitud de este campo está limitada por el token de anillo que mantiene el tiempo, definiendo de este modo el tiempo máximo durante el cual una estación puede retener al token. Y a continuación del campo de datos se ubica el campo de secuencia de verificación de trama (FCS). La estación origen completa este campo con un valor calculado según el contenido de la trama. La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado mientras estaba en tránsito. Si la trama está dañada se descarta. Como en el caso del token, el delimitador de fin completa la trama de datos/comandos. Sistema de prioridad Las redes Token Ring usan un sistema de prioridad sofisticado que permite que determinadas estaciones de alta prioridad usen la red con mayor frecuencia. Las tramas Token Ring tienen dos campos que controlan la prioridad: el campo de prioridad y el campo de reserva. Sólo las estaciones cuya prioridad es igual o superior al valor de prioridad que posee el token pueden tomar ese token. Una vez que se ha tomado el token y éste se ha convertido en una trama de información, sólo las estaciones cuyo valor de prioridad es superior al de la estación transmisora pueden reservar el token para el siguiente paso en la red. El siguiente token generado incluye la mayor prioridad de la estación que realiza la reserva. Las estaciones que elevan el nivel de prioridad de un token deben restablecer la prioridad anterior una vez que se ha completado la transmisión. Mecanismos de control Las redes Token Ring usan varios mecanismos para detectar y compensar los fallos de la red. Uno de estos mecanismos consiste en seleccionar una estación de la red Token Ring como el monitor activo. Esta estación actúa como una fuente centralizada de información de temporización para otras estaciones del anillo y ejecuta varias funciones de mantenimiento del anillo. Potencialmente cualquier estación de la red puede ser la estación de monitor activo. Una de las funciones de esta estación es la de eliminar del anillo las tramas que circulan continuamente. Cuando un dispositivo transmisor falla, su trama puede seguir circulando en el anillo e impedir que otras estaciones transmitan sus propias tramas; esto puede bloquear la red. El monitor activo puede detectar estas tramas, eliminarlas del anillo y generar un nuevo token. La topología en estrella de la red Token Ring de IBM también contribuye a la confiabilidad general de la red. Las MSAU (unidades de acceso de estación múltiple) activas pueden ver toda la información de una red Token Ring, lo que les permite verificar si existen problemas y, de ser necesario, eliminar estaciones del anillo de forma selectiva. Otro mecanismo de control de fallos de red es el conocido como Beaconing. Cuando una estación detecta la existencia de un problema grave en la red (por ejemplo, un cable roto), envía una trama de beacon. La trama de beacon define un dominio de error. Un dominio de error incluye la estación que informa acerca del error, su vecino corriente arriba activo más cercano (NAUN) y todo lo que se encuentra entre ellos. Entones el beaconing inicia un proceso denominado autoreconfiguración, en el que los nodos situados dentro del dominio de error automáticamente ejecutan diagnósticos. Este es un intento de reconfigurar la red alrededor de las áreas en las que hay errores. Físicamente, las MSAU pueden lograrlo a través de la reconfiguración eléctrica. Redes LAN FDDI Las redes FDDI (Fiber Distributed Data Interface - Interfaz de Datos Distribuida por Fibra ) surgieron a mediados de los años ochenta para dar soporte a las estaciones de trabajo de alta velocidad, que habían llevado las capacidades de las tecnologías Ethernet y Token Ring existentes hasta el límite de sus posibilidades. Están implementadas mediante una física de estrella (lo más normal) y lógica de anillo doble de token, uno transmitiendo en el sentido de las agujas del reloj (anillo principal ) y el otro en dirección contraria (anillo de respaldo o back up), que ofrece una velocidad de 100 Mbps sobre distancias de hasta 200 metros, soportando hasta 1000 estaciones conectadas. Su uso más normal es como una tecnología de backbone para conectar entre sí redes LAN de cobre o computadores de alta velocidad. El tráfico de cada anillo viaja en direcciones opuestas. Físicamente, los anillos están compuestos por dos o más conexiones punto a punto entre estaciones adyacentes. Los dos anillos de la FDDI se conocen con el nombre de primario y secundario. El anillo primario se usa para la transmisión de datos, mientras que el anillo secundario se usa generalmente como respaldo. Se distinguen en una red FDDI dos tipos de estaciones: las estaciones Clase B, o estaciones de una conexión (SAS), se conectan a un anillo, mientras que las de Clase A, o estaciones de doble conexión (DAS), se conectan a ambos anillos. Las SAS se conectan al anillo primario a través de un concentrador que suministra conexiones para varias SAS. El concentrador garantiza que si se produce una falla o interrupción en el suministro de alimentación en algún SAS determinado, el anillo no se interrumpa. Esto es particularmente útil cuando se conectan al anillo PC o dispositivos similares que se encienden y se apagan con frecuencia. Las redes FDDI utilizan un mecanismo de transmisión de tokens similar al de las redes Token Ring, pero además, acepta la asignación en tiempo real del ancho de banda de la red, mediante la definición de dos tipos de tráfico: 1. Tráfico Síncrono: Puede consumir una porción del ancho de banda total de 100 Mbps de una red FDDI, mientras que el tráfico asíncrono puede consumir el resto. 2. Tráfico Asíncrono: Se asigna utilizando un esquema de prioridad de ocho niveles. A cada estación se asigna un nivel de prioridad asíncrono. El ancho de banda síncrono se asigna a las estaciones que requieren una capacidad de transmisión continua. Esto resulta útil para transmitir información de voz y vídeo. El ancho de banda restante se utiliza para las transmisiones asíncronas FDDI también permite diálogos extendidos, en los cuales las estaciones pueden usar temporalmente todo el ancho de banda asíncrono. El mecanismo de prioridad de la FDDI puede bloquear las estaciones que no pueden usar el ancho de banda síncrono y que tienen una prioridad asíncrona demasiado baja. En cuanto a la codificación, FDDI no usa el sistema de Manchester, sino que implementa un esquema de codificación denominado esquema 4B/5B, en el que se usan 5 bits para codificar 4. Por lo tanto, dieciséis combinaciones son datos, mientras que las otras son para control. Debido a la longitud potencial del amillo, una estación puede generar una nueva trama inmediatamente después de transmitir otra, en vez de esperar su vuelta, por lo que puede darse el caso de que en el anillo haya varias tramas a la vez. Las fuentes de señales de los transceptores de la FDDI son LEDs (diodos electroluminiscentes) o lásers. Los primeros se suelen usar para tendidos entre máquinas, mientras que los segundos se usan para tendidos primarios de backbone. Tramas FDDI Las tramas en la tecnología FDDI poseen una estructura particular. Cada trama se compone de los siguientes campos: Preámbulo, que prepara cada estación para recibir la trama entrante. Delimitador de inicio, que indica el comienzo de una trama, y está formado por patrones de señalización que lo distinguen del resto de la trama. Control de trama, que contiene el tamaño de los campos de dirección, si la trama contiene datos asíncronos o síncronos y otra información de control. Dirección destino, que contiene la dirección física (6 bytes) de la máquina destino, pudiendo ser una dirección unicast (singular), multicast (grupal) o broadcast (cada estación). Dirección origen, que contiene la dirección física (6 bytes) de la máquina que envió la trama. Secuencia de verificación de trama (FCS), campo que completa la estación origen con una verificación por redundancia cíclica calculada (CRC), cuyo valor depende del contenido de la trama. La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado durante el tránsito. La trama se descarta si está dañada. Delimitador de fin, que contiene símbolos que indican el fin de la trama. Estado de la trama, que permite que la estación origen determine si se ha producido un error y si la estación receptora reconoció y copió la trama. Medios en las redes FDDI FDDI especifica una LAN de dos anillos de 100 Mbps con transmisión de tokens, que usa un medio de transmisión de fibra óptica. Aunque funciona a velocidades más altas, FDDI es similar a Token Ring. Ambas configuraciones de red comparten ciertas características, tales como su topología (anillo) y su método de acceso al medio (transferencia de tokens). Una de las características de FDDI es el uso de la fibra óptica como medio de transmisión. La fibra óptica ofrece varias ventajas con respecto al cableado de cobre tradicional, por ejemplo: Seguridad: la fibra no emite señales eléctricas que se pueden interceptar. Confiabilidad: la fibra es inmune a la interferencia eléctrica. Velocidad: la fibra óptica tiene un potencial de rendimiento mucho mayor que el del cable de cobre. Existen dos clases de fibra: monomodo (también denominado modo único); y multimodo. La fibra monomodo permite que sólo un modo de luz se propague a través de ella, mientras que la fibra multimodo permite la propagación de múltiples modos de luz. Los modos se pueden representar como haces de rayos luminosos que entran a la fibra en un ángulo determinado. Cuando se propagan múltiples modos de luz a través de la fibra, éstos pueden recorrer diferentes distancias, según su ángulo de entrada. Como resultado, no llegan a su destino simultáneamente; a este fenómeno se le denomina dispersión modal. La fibra monomodo puede acomodar un mayor ancho de banda y permite el tendido de cables de mayor longitud que la fibra multimodo. Debido a estas características, la fibra monomodo se usa a menudo para la conectividad entre edificios mientras que la fibra multimodo se usa con mayor frecuencia para la conectividad dentro de un edificio. La fibra multimodo usa los LED como dispositivos generadores de luz, mientras que la fibra monomodo generalmente usa láser. 1.6.2 De acuerdo a su tipo de conexión. 1.6.2.1 Orientadas. Redes Orientadas a Conexión: En estas redes existe el concepto de multiplexión de canales y puertos conocido como circuito o canal virtual, debido a que el usuario aparenta disponer de un recurso dedicado, cuando en realidad lo comparte con otros pues lo que ocurre es que atienden a ráfagas de tráfico de distintos usuarios. REDES ATM Las redes ATM son redes orientadas a conexión, lo que quiere decir, la conexión se establece con la estación con la que se quiere intercambiar información validando que esta sea exitosa. FUNCIONAMIENTO Las redes ATM consisten en un conjunto de switches (conmutadores) ATM conectados entre sí bajo interfaces o ligas ATM punto a punto. Los Switches soportan dos tipos de interfaz: Interfaz de red del usuario (UNI: User Network Interface) Interfaz de Nodo de Red (NNI: Network Node Interface). UNI conecta los sistemas terminales (End System) como los PC´s, enrutadores y concentradores hacia el switch ATM, mientras que el NNI conecta los switches ATM entre sí. Existen dos tipos de circuitos o conexiones en ATM: El identificador de ruta virtual (VPI: Virtual Path Identifier) y el identificador de circuito virtual (VCI: Virtual Circuit Identifier). Las rutas virtuales (VPI) están compuestas de uno o más circuitos virtuales, los cuales se intercambian en forma transparente a través de la red ATM, en el entendido de una ruta virtual (VPI) común. Todas las rutas y circuitos virtuales solo tienen significado virtual en cada switch ATM y se reasignan cuando salen de uno de ellos y entran a otro. Existen mecanismos externos que se encargan de mantener una tabla de direcciones, la cual es utilizada antes de transmitir cualquier tipo de información switch ATM y su configuración determinan dos tipos fundamentales en las conexiones ATM, así: Conexión Permanente Virtual (PVC: Permanent Virtual Connection). Se configuran manualmente y es la que se establece con un equipo adicional que puede ser el administrador de las conexiones de la red, en el cual se configuran las direcciones fuente y destino y en el momento de transmitir de una estación A a una estación B los valores de VPI/VCI se encuentren seleccionados por lo cual solo hay que leer la tabla para comenzar la transmisión. Conexión de Intercambio Virtual (SVC: Switched Virtual Connection). La cual se establece en cada switch ATM utilizando una conexión dinámica en cada punto de la Red y un protocolo de señalización para obtener la información del siguiente punto a seguir. No requieren de proceso manual para configurar los valores VPI/VCI. En la actualidad se creó el protocolo de señalización interswitch interino (IISP: Interim Interswitch Signaling Protocol), la cual permite conectar entre sí a switches ATM de diferentes compañías y utilizar conexiones o circuitos de intercambio virtual (SVC), el cual facilita el uso de la tecnología ATM. El protocolo IISP fue desarrollado por la compañía Cisco Systems quienes mejoraron la intercomunicación entre Switches de diferentes compañías ya que en la conexión PVC se presentaban las siguientes desventajas: El hecho de configurar cada usuario que necesite conectarse con otro usuario en diferente switch Tener recursos mal utilizados. Una red orientada a conexión envía todos los UDPs de la capa de transporte exactamente por la misma ruta que conecta la terminal origen con la terminal destino; la ruta es decidida por la capa de red y ésta se decide previo a la transmisión. ATM INTRODUCCION: Tres letras - ATM - se repiten cada vez más en estos días en los ambientes Informáticos y de Telecomunicaciones. La tecnología llamada Asynchronous Transfer Mode (ATM) Modo de Transferencia Asíncrona es el corazón de los servicios digitales integrados que ofrecerán las nuevas redes digitales de servicios integrados de Banda Ancha (B-ISDN), para muchos ya no hay cuestionamientos; el llamado tráfico del "Cyber espacio", con su voluminoso y tumultuoso crecimiento, impone a los operadores de redes públicas y privadas una voraz demanda de anchos de banda mayores y flexibles con soluciones robustas. La versatilidad de la conmutación de paquetes de longitud fija, denominadas celdas ATM, son las tablas más calificadas para soportar la cresta de esta "Ciberola" donde los surfeadores de la banda ancha navegan. Algunos críticos establecen una analogía de la tecnología ATM con la red digital de servicios integrados o ISDN por sus siglas en inglés. Al respecto se escuchan respuestas de expertos que desautorizan esta comparación aduciendo que la ISDN es una gran tecnología que llegó en una época equivocada, en términos de que el mercado estaba principalmente en manos de actores con posiciones monopolísticas. Ahora el mercado está cambiando, la ISDN está encontrando una gran cantidad de aplicaciones. De toda forma la tecnología ATM se proyecta para diferentes necesidades, a pesar de su estrecha relación con ISDN, en términos de volúmenes de datos, flexibilidad de conmutación y facilidades para el operador. Los conmutadores ATM aseguran que el tráfico de grandes volúmenes es flexiblemente conmutado al destino correcto. Los usuarios aprecian ambas cosas, ya que se cansan de esperar los datos y las pantallas de llegada a sus terminales. Estas necesidades cuadran de maravilla para los proveedores de servicios públicos de salud, con requerimientos de videoconferencias médicas, redes financieras interconectadas con los entes de intermediación y validación, o con las exigencias que pronto serán familiares como vídeo en demanda para nuestros hogares con alta definición de imágenes y calidad de sonido de un CD, etc. Para el operador, con la flexibilidad del ATM, una llamada telefónica con tráfico de voz será tarifado a una tasa diferente a la que estaría dispuesto a pagar un cirujano asistiendo en tiempo real a una operación al otro lado del mundo. Ese es una de las fortalezas de ATM usted paga solamente por la carga de celdas que es efectivamente transportada y conmutada para usted. Además la demanda por acceso a Internet ha tomado a la industria de telecomunicaciones como una tormenta. Hoy día los accesos conmutados a Internet están creando "Cuellos de Botella" en la infraestructura. Para copar este problema los fabricantes no solo han desarrollado sistemas de acceso sino aplicaciones para soluciones de fin a fin con conmutadores ATM, con solventes sistemas de administración de la red (Network Management). En varios aspectos, ATM es el resultado de una pregunta similar a la de teoría del campo unificada en física ¿Cómo se puede transportar un universo diferente de servicio de voz, vídeo por un lado y datos por otro de manera eficiente usando una simple tecnología de conmutación y multiplexación?. ATM contesta esta pregunta combinando la simplicidad de la multiplexación por división en el tiempo (Time Division Multiplex TDM) encontrado en la conmutación de circuitos, con la eficiencia de las redes de conmutación de paquetes con multiplexación estadística. Por eso es que algunos hacen reminiscencias de perspectivas de conmutación de circuitos mientras que otros lo hacen a redes de paquetes orientados a conexión. MULTIPLEXACION EN ATM: Un examen más cercano del protocolo ATM y cómo opera ayudará a explicar cómo los circuitos virtuales, las rutas virtuales, los conmutadores y los servicios que ellos acarrean se afectan entre sí. La figura No.1 muestra un formato básico y la jerarquía de ATM. Una conexión ATM, consiste de "celdas" de información contenidos en un circuito virtual (VC). Estas celdas provienen de diferentes fuentes representadas como generadores de bits a tasas de transferencia constantes como la voz y a tasas variables tipo ráfagas (bursty traffic) como los datos. Cada celda compuesta por 53 bytes, de los cuales 48 (opcionalmente 44) son para trasiego de información y los restantes para uso de campos de control (cabecera) con información de "quién soy" y "donde voy"; es identificada por un "virtual circuit identifier" VCI y un "virtual path identifier" VPI dentro de esos campos de control, que incluyen tanto el enrutamiento de celdas como el tipo de conexión. La organización de la cabecera (header) variará levemente dependiendo de sí la información relacionada es para interfaces de red a red o de usuario a red. Las celdas son enrutadas individualmente a través de los conmutadores basados en estos identificadores, los cuales tienen significado local - ya que pueden ser cambiados de interface a interface. La técnica ATM multiplexa muchas celdas de circuitos virtuales en una ruta (path) virtual colocándolas en particiones (slots), similar a la técnica TDM. Sin embargo, ATM llena cada slot con celdas de un circuito virtual a la primera oportunidad, similar a la operación de una red conmutada de paquetes. La figura No.2 describe los procesos de conmutación implícitos los VC switches y los VP switches. Los slots de celda no usados son llenados con celdas "idle", identificadas por un patrón específico en la cabecera de la celda. Este sistema no es igual al llamado "bit stuffing"en la multiplexación Asíncrona, ya que aplica a celdas enteras. Diferentes categorías de tráfico son convertidas en celdas ATM vía la capa de adaptación de ATM (AAL ATM Adaptation Layer), de acuerdo con el protocolo usado. (Más adelante se explica este protocolo). La tecnología ATM ha sido definida tanto por el ANSI como por el CCITT a través de sus respectivos comités ANSI T1, UIT SG XVIII, como la tecnología de transporte para la B-ISDN (Broad Band Integrated Services Digital Network), la RDSI de banda ancha. En este contexto "transporte" se refiere al uso de técnicas de conmutación y multiplexación en la capa de enlace (Capa 2 del modelo OSI) para el trasiego del tráfico del usuario final de la fuente al destino, dentro de una red. El ATM Forum, grupo de fabricantes y usuarios dedicado al análisis y avances de ATM, ha aprobado cuatro velocidades UNI (User Network Interfases) para ATM: DS3 (44.736 Mbit/s), SONET STS3c (155.52 Mbit/s) y 100 Mbit/s para UNI privados y 155 Mbit/s para UNI privadas. UNI privadas se refieren a la interconexión de usuarios ATM con un switch ATM privado que es manejado como parte de la misma red corporativa. Aunque la tasa de datos original para ATM fue de 45 Mbit/s especificado para redes de operadores (carriers) con redes T3 existentes, velocidades UNI adicionales se han venido evaluando y están ofreciéndose. También hay un alto interés en interfases, para velocidades EI (2Mbps) y T1 (1,544 Mbps) para accesos ATM de baja velocidad. PROTOCOLO ATM: El protocolo ATM consiste de tres niveles o capas básicas (Ver figura No 3). La primera capa llamada capa física (Physical Layer), define los interfases físicos con los medios de transmisión y el protocolo de trama para la red ATM es responsable de la correcta transmisión y recepción de los bits en el medio físico apropiado. A diferencia de muchas tecnologías LAN como Ethernet, que especifica ciertos medios de transmisión, (10 base T, 10 base 5, etc.) ATM es independiente del transporte físico. Las celdas ATM pueden ser transportadas en redes SONET (Synchronous Optical Network), SDH (Synchronous Digital Hierarchy), T3/E3, TI/EI o aún en modems de 9600 bps. Hay dos subcapas en la capa física que separan el medio físico de transmisión y la extracción de los datos: La subcapa PMD (Physical Medium Depedent) tiene que ver con los detalles que se especifican para velocidades de transmisión, tipos de conectores físicos, extracción de reloj, etc., Por ejemplo, la tasa de datos SONET que se usa, es parte del PMD. La subcapa TC (Transmission Convergence) tiene que ver con la extracción de información contenida desde la misma capa física. Esto incluye la generación y el chequeo del Header Error Corrección (HEC), extrayendo celdas desde el flujo de bits de entrada y el procesamiento de celdas "idles" y el reconocimiento del límite de la celda. Otra función importante es intercambiar información de operación y mantenimiento (OAM) con el plano de administración. (Ver figura No.4) La segunda capa es la capa ATM. Ello define la estructura de la celda y cómo las celdas fluyen sobre las conexiones lógicas en una red ATM, esta capa es independiente del servicio. El formato de una celda ATM es muy simple. Consiste de 5 bytes de cabecera y 48 bytes para información. Las celdas son transmitidas serialmente y se propagan en estricta secuencia numérica a través de la red. El tamaño de la celda ha sido escogido como un compromiso entre una larga celda, que es muy eficiente para transmitir largas tramas de datos y longitudes de celdas cortas que minimizan el retardo de procesamiento de extremo a extremo, que son buenas para voz, vídeo y protocolos sensibles al retardo. A pesar de que no se diseñó específicamente para eso, la longitud de la celda ATM acomoda convenientemente dos Fast Packets IPX de 24 bytes cada uno. Los comités de estándares han definido dos tipos de cabeceras ATM: los User-to-Network Interface (UNI) y la Network to Network Interface (UNI). La UNI es un modo nativo de interfaz ATM que define la interfaz entre el equipo del cliente (Customer Premises Equipment), tal como hubs o routerss ATM y la red de área ancha ATM (ATM WAN). La NNI define la interfase entre los nodos de la redes (los switches o conmutadores) o entre redes. La NNI puede usarse como una interfase entre una red ATM de un usuario privado y la red ATM de un proveedor público (carrier). Específicamente, la función principal de ambos tipos de cabeceras de UNI y la NNI, es identificar las "Virtual paths identifiers" (VPIS) y los "virtual circuits" o virtual channels"(VCIS) como identificadores para el ruteo y la conmutación de las celdas ATM. La capa de adaptación de ATM: La tercer capa es la ATM Adaptation Layer (AAL). La AAL juega un rol clave en el manejo de múltiples tipos de tráfico para usar la red ATM, y es dependiente del servicio. Especificamente, su trabajo es adaptar los servicios dados por la capa ATM a aquellos servicios que son requeridos por las capas más altas, tales como emulación de circuitos, (circuit emulation), vídeo, audio, frame relay, etc. La AAL recibe los datos de varias fuentes o aplicaciones y las convierte en los segmentos de 48 bytes. Cinco tipos de servico AAL están definidos actualmente: La capa de Adaptación de ATM yace entre el ATM layer y las capas más altas que usan el servicio ATM. Su propósito principal es resolver cualquier disparidad entre un servicio requerido por el usuario y atender los servicios disponibles del ATM layer. La capa de adaptación introduce la información en paquetes ATM y controla los errores de la transmisión. La información transportada por la capa de adaptación se divide en cuatro clases según las propiedades siguientes: 1. Que la información que esta siendo transportada dependa o no del tiempo. 2. Tasa de bit constante/variable. 3. Modo de conexión. Estas propiedades definen ocho clases posibles, cuatro se definen como B-ISDN Clases de servicios. La capa de adaptación de ATM define 4 servicios para equiparar las 4 clases definidas por B-ISDN: AAL-1 AAL-2 AAL-3 AAL-4 La capa de adaptación se divide en dos subcapas: 1)Capa de convergencia (convergence sublayer (CS)) : En esta capa se calculan los valores que debe llevar la cabecera y los payloads del mensaje. La información en la cabecera y en el payload depende de la clase de información que va a ser transportada. 2)Capa de Segmentación y reensamblaje (segmentation and reassembly (SAR)) Esta capa recibe los datos de la capa de convergencia y los divide en trozos formando los paquetes de ATM. Agrega la cabecera que llevara la información necesaria para el reensamblaje en el destino. La figura siguiente aporta una mejor comprensión de ellas. La subcapa CS es dependiente del servicio y se encarga de recibir y paquetizar los datos provenientes de varias aplicaciones en tramas o paquete de datos longitud variable. Estos paquetes son conocidos como (CS - PDU) CONVERGENCE SUBLAYER PROTOCOL DATA UNITS. Luego, la sub capa recibe los SAR CS - PDU, los reparte en porciones del tamaño de la celda ATM para su transmisión. También realiza la función inversa (reemsamblado) para las unidades de información de orden superior. Cada porción es ubicada en su propia unidad de protocolo de segmentación y reemsable conocida como (SAR - PDU) SEGMENTATION AND REASSEMBLER PROTOCOL DATA UNIT, de 48 bytes. Finalmente cada SAR - PDU se ubica en el caudal de celdas ATM con su header y trailer respectivos. AAL1: AAL-1 se usa para transferir tasas de bits constantes que dependen del tiempo. Debe enviar por lo tanto información que regule el tiempo con los datos. AAL-1 provee recuperación de errores e indica la información con errores que no podrá ser recuperada. Capa de convergencia: Las funciones provistas a esta capa difieren dependiendo del servicio que se proveyó. Provee la corrección de errores. Capa de segmentación y reensamblaje: En esta capa los datos son segmentados y se les añade una cabecera. La cabecera contiene 3 campos (ver diagrama) Número de secuencia usado para detectar una inserción o perdida de un paquete. Número de secuencia para la protección usado para corregir errores que ocurren en el numero de secuencia. Indicador de capa de convergencia usado para indicar la presencia de la función de la capa de convergencia. ALL 2: AAL-2 se usa para transferir datos con tasa de bits variable que dependen del tiempo. Envía la información del tiempo conjuntamente con los datos para que esta puede recuperarse en el destino. AAL2 provee recuperación de errores e indica la información que no puede recuperarse. Capa de convergencia: Esta capa provee para la corrección de errores y transporta la información del tiempo desde el origen al destino. Capa de segmentación y recuperación: El mensaje es segmentado y se le añade una cabecera a cada paquete. La cabecera contiene dos campos. o o o Numero de secuencia que se usa para detectar paquetes introducidas o perdidas. El tipo de información es: BOM, comenzando de mensaje COM, continuación de mensaje EOM, fin de mensaje o indica que el paquete contiene información de tiempo u otra. El payload también contiene dos de campos : indicador de longitud que indica el numero de bytes validos en un paquete parcialmente lleno. CRC que es para hacer el control de errores. AAL 3: AAL-3 se diseña para transferir los datos con tasa de bits variable que son independientes del tiempo. AAL-3 puede ser dividido en dos modos de operación: 1. Fiable: En caso de perdida o mala recepción de datos estos vuelven a ser enviados. El control de flujo es soportado. 2. No fiable: La recuperación del error es dejado para capas mas altas y el control de flujo es opcional. Capa de convergencia: La capa de convergencia en AAL 3 es parecida al ALL 2. Esta subdividida en dos secciones: 1. Parte común de la capa de convergencia. Esto es provisto también por el AAL-2 CS. Añade una cabecera y un payload a la parte común (ver diagrama) La cabecera contiene 3 campos: Indicador de la parte común que dice que el payload forma parte de la parte común. Etiqueta de comienzo que indica el comienzo de la parte común de la capa de convergencia. Tamaño del buffer que dice al receptor el espacio necesario para acomodar el mensaje. El payload también contiene 3 campos: Alineación es un byte de relleno usado para hacer que la cabecera y el payload tengan la misma longitud. Fin de etiqueta que indica el fin de la parte común de la CS(capa de convergencia). El campo de longitud tiene la longitud de la parte común de la CS. 1. Parte especifica del servicio. Las funciones proveídas en esta que capa dependen de los servicios pedidos. Generalmente se incluyen funciones para la recuperación y detección de errores y puede incluir también funciones especiales. Capa de segmentación y reensamblaje En esta capa los datos son partidos en paquetes de ATM. Una cabecera y el payload que contiene la información necesaria para la recuperación de errores y reensamblaje se añaden al paquete. La cabecera contiene 3 campos: 1) Tipo de segmento que indica que parte de un mensaje contiene en payload. Tiene uno de los siguientes valores: BOM: Comenzando de mensaje COM: Continuación de mensaje EOM: Fin de mensaje SSM: Mensaje único en el segmento 2) Numero de secuencia usado para detectar una inserción o una perdida de un paquete. 3) Identificador de multiplexación. Este campo se usa para distinguir datos de diferentes comunicaciones que ha sido multiplexadas en una única conexión de ATM. El payload contiene dos de campos: 1) Indicado de longitud que indica el número de bytes útiles en un paquete parcialmente lleno. 2) CRC es para el control de errores. ALL 4: AAL-4 se diseña para transportar datos con tasa de bits variable independientes del tiempo. Es similar al AAL3 y también puede operar en transmisión fiable y o fiable. AAL-4 provee la capacidad de transferir datos fuera de una conexión explícita. AAL 2, AAL 3/4 y AAL 5 manejan varios tipos de servicios de datos sobre la base de tasas de bits variables tales como Switched Multimegabit Data Service (SMDS), Frame Relay o tráfico de redes de área local (LAN). AAL 2 y AAL 3 soportan paquetes orientados a conexión. (Ver figura No.5) (El término orientado a conexión describe la transferencia de datos después del establecimiento de un circuito virtual). Introducción: Frame Relay comenzó como un movimiento a partir del mismo grupo de normalización que dio lugar a X.25 y RDSI: El ITU (entonces CCITT). Sus especificaciones fueron definidas por ANSI, fundamentalmente como medida para superar la lentitud de X.25, eliminando la función de los conmutadores, en cada "salto" de la red. X.25 tiene el grave inconveniente de su importante "overhead" producido por los mecanismos de control de errores y de flujo. Hasta hace relativamente poco tiempo, X.25 se ha venido utilizando como medio de comunicación para datos a través de redes telefónicas con infraestructuras analógicas, en las que la norma ha sido la baja calidad de los medios de transmisión, con una alta tasa de errores. Esto justificaba los abundantes controles de errores y sus redundantes mecanismos para el control de flujo, junto al pequeño tamaño de los paquetes. En resumen, se trataba de facilitar las retransmisiones para obtener una comunicación segura. Frame Relay, por el contrario, maximiza la eficacia, aprovechándose para ello de las modernas infraestructuras, de mucha mayor calidad y con muy bajos índices de error, y además permite mayores flujos de información. Frame Relay se define, oficialmente, como un servicio portador RDSI de banda estrecha en modo de paquetes, y ha sido especialmente adaptado para velocidades de hasta 2,048 Mbps., aunque nada le impide superarlas. Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada con circuitos punto a punto. De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red. El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben de llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red. Tecnología: Las redes Frame Relay se construyen partiendo de un equipamiento de usuario que se encarga de empaquetar todas las tramas de los protocolos existentes en una única trama Frame Relay. También incorporan los nodos que conmutan las tramas Frame Relay en función del identificador de conexión, a través de la ruta establecida para la conexión en la red. Estructura OSI de la red Frame Relay Este equipo se denomina FRAD o "Ensamblador/Desensamblador Frame Relay" (Frame Relay Assembler/Disassembler) y el nodo de red se denomina FRND o "Dispositivo de Red Frame Relay" (Frame Relay Network Device). Las tramas y cabeceras de Frame Relay pueden tener diferentes longitudes, ya que hay una gran variedad de opciones disponibles en la implementación, conocidos como anexos a las definiciones del estándar básico. La información transmitida en una trama Frame Relay puede oscilar entre 1 y 8.250 bytes, aunque por defecto es de 1.600 bytes. Lo más increíble de todo, es que, a pesar del gran número de formas y tamaños Frame Relay funciona perfectamente, y ha demostrado un muy alto grado de interoperatibilidad entre diferentes fabricantes de equipos y redes. Ello es debido a que, sean las que sean las opciones empleadas por una determinada implementación de red o equipamiento, siempre existe la posibilidad de "convertir" los formatos de Frame Relay a uno común, intercambiando así las tramas en dicho formato. En Frame Relay, por tanto, los dispositivos del usuario se interrelacionan con la red de comunicaciones, haciendo que sean aquellos mismos los responsables del control de flujo y de errores. La red sólo se encarga de la transmisión y conmutación de los datos, así como de indicar cual es el estado de sus recursos. En el caso de errores o de saturación de los nodos de la red, los equipos del usuario solicitarán el reenvío (al otro extremo) de las tramas incorrectas y si es preciso reducirán la velocidad de transmisión, para evitar la congestión. Las redes Frame Relay son orientadas a conexión, como X.25, SNA e incluso ATM. El identificador de conexión es la concatenación de dos campos HDLC (High-level Data Link Control), en cuyas especificaciones originales de unidad de datos (protocolo de la capa 2), se basa Frame Relay. Entre los dos campos HDLC que forman el "identificador de conexión de enlace de datos" o DLCI (Data Link Connection Identifier) se insertan algunos bits de control (CR y EA). A continuación se añaden otros campos que tienen funciones muy especiales en las redes Frame Relay. Ello se debe a que los nodos conmutadores Frame Relay carecen de una estructura de paquetes en la capa 3, que por lo general es empleada para implementar funciones como el control de flujo y de la congestión de la red, y que estas funciones son imprescindibles para el adecuado funcionamiento de cualquier red. Los tres más esenciales son DE o "elegible para ser rechazada" (Discard Eligibility), FECN o "notificación de congestión explícita de envío" (Forward Explicit Congestion Notification), y BECN o "notificación de congestión explícita de reenvío" (Backward Explicit Congestion Notification). El bit DE es usado para identificar tramas que pueden ser rechazadas en la red en caso de congestión. FECN es usado con protocolos de sistema final que controlan el flujo de datos entre en emisor y el receptor, como el mecanismo "windowing" de TCP/IP; en teoría, el receptor puede ajustar su tamaño de "ventana" en respuesta a las tramas que llegan con el bit FECN activado. BECN, como es lógico, puede ser usado con protocolos que controlan el flujo de los datos extremo a extremo en el propio emisor. Según esto, la red es capaz de detectar errores, pero no de corregirlos (en algunos casos podría llegar tan solo a eliminar tramas). No se ha normalizado la implementación de las acciones de los nodos de la red ni del emisor/receptor, para generar y/o interpretar estos tres bits. Por ejemplo, TCP/IP no tiene ningún mecanismo que le permita ser alertado de que la red Frame Relay esta generando bits FECN ni de como actuar para responder a dicha situación. Las acciones y funcionamiento de las redes empleando estos bits son temas de altísimo interés y actividad en el "Frame Relay Forum" (equivalente en su misión y composición al "ATM Forum"). Frame Relay también ha sido denominado "tecnología de paquetes rápidos" (fast packet technology) o "X.25 para los 90´", y esto es cierto en gran medida. El protocolo X.25 opera en la capa 3 e inferiores del modelo OSI, y mediante la conmutación de paquetes, a través de una red de conmutadores, entre identificadores de conexión. En cada salto de la red X.25 se verifica la integridad de los paquetes y cada conmutador proporciona una función de control de flujo. La función de control de flujo impide que un conmutador X.25 no envíe paquetes a mayor velocidad de la que el receptor de los mismos sea capaz de procesarlos. Para ello, el conmutador X.25 receptor no envía inmediatamente la señal de reconocimiento de los datos remitidos, con lo que el emisor de los mismos no envía más que un determinado número de paquetes a la red en un momento dado. Frame Relay realiza la misma función, pero partiendo de la capa 2 e inferiores. Para ello, descarta todas las funciones de la capa 3 que realizaría un conmutador de paquetes X.25, y las combina con las funciones de trama. La trama contiene así al identificador de conexión, y es transmitida a través de los nodos de la red en lugar de realizar una "conmutación de paquetes". Lógicamente, todo el control de errores en el contenido de la trama, y el control de flujo, debe de ser realizado en los extremos de la comunicación (nodo origen y nodo destino). La conmutación de paquetes en X.25, un proceso de 10 pasos, se convierte en uno de 2 pasos, a través de la transmisión de tramas. Un caso práctico: Si el usuario "A" desea una comunicación con el usuario "B", primero establecerá un Circuito Virtual (VC o Virtual Circuit), que los una. La información a ser enviada se segmenta en tramas a las que se añade el DLCI. Una vez que las tramas son entregadas a la red, son conmutadas según unas tablas de enrutamiento que se encargan de asociar cada DLCI de entrada a un puerto de salida y un nuevo DLCI. En destino, las tramas son reensambladas. En la actualidad las redes públicas sólo ofrecen Circuitos Virtuales Permanentes (PVC o Permanent Virtual Circuit). En el futuro podremos disponer de Circuitos Virtuales Conmutados (SVC o Switched Virtual Circuit), según los cuales el usuario establecerá la conexión mediante protocolos de nivel 3, y el DLCI será asignado dinámicamente. La contratación: A la hora de contratar un enlace Frame Relay, hay que tener en cuenta varios parámetros. Por supuesto, el primero de ellos es la velocidad máxima del acceso (Vt), que dependerá de la calidad o tipo de línea empleada. Pero hay un parámetro más importante: se trata del CIR (velocidad media de transmisión o Committed Information Rate). Es la velocidad que la red se compromete a servir como mínimo. Se contrata un CIR para cada PVC o bien se negocia dinámicamente en el caso de SVC’s. El Committed Burst Size (Bc) es el volumen de tráfico alcanzable transmitiendo a la velocidad media (CIR). Por último la ráfaga máxima o Excess Burst Size (Be) es el volumen de tráfico adicional sobre el volumen alcanzable. Para el control de todos estos parámetros se fija un intervalo de referencia (tc). Así, cuando el usuario transmite tramas, dentro del intervalo tc, a la velocidad máxima (Vt), el volumen de tráfico se acumula y las red lo acepta siempre que este por debajo de Bc. Pero si se continúa transmitiendo hasta superar Bc, las tramas empezarán a ser marcadas mediante el bit DE (serán consideradas como desechables). Por ello, si se continúa transmitiendo superando el nivel marcado por Bc+Be, la red no admitirá ninguna trama más. Por supuesto la tarificación dentro de cada volumen (Bc/Be) no es igual, puesto que en el caso de Be, existe la posibilidad de que las tramas sean descartadas. Situación actual y tendencias: La clave para que Frame Relay sea aceptado con facilidad, al igual que ocurrió con X.25, y también ocurre ahora con RDSI, es su gran facilidad, como tecnología, para ser incorporado a equipos ya existentes: encaminadores (routers), ordenadores, conmutadores, multiplexores, etc., y que estos pueden, con Frame Relay, realizar sus funciones de un modo más eficiente. Por ello, Frame Relay es una solución ampliamente aceptada, especialmente para evitar la necesidad de construir mallas de redes entre encaminadores (routers), y en su lugar multiplexando muchas conexiones a lugares remotos a través de un solo enlace de acceso a la red Frame Relay. Su ventaja, como servicio público es evidente. Sin embargo, el hecho de ser un servicio público también llegar a ser un inconveniente, desde el punto de vista de la percepción que el usuario puede tener de otros servicios como X.25, y que han llevado, en los últimos años, a las grandes compañías, a crear sus propias redes, con sus propios dispositivos (fundamentalmente multiplexores, conmutadores y encaminadores) y circuitos alquilados. El inconveniente de esas grandes redes, además de su alto coste por el número de equipos necesario, es el número de circuitos que pueden llegar a suponer y el intrincado laberinto que ello conlleva; por otro lado, se pueden llegar a generar cuellos de botella en determinados puntos, y grandes congestiones en toda la red. Por el contrario, Frame Relay permite una mayor velocidad y prestaciones, además de permitir que un mismo circuito sirva a varias conexiones, reduciendo, obviamente, el número de puertos y circuitos precisos, y por tanto el coste total. El futuro de Frame Relay aparece como brillante, especialmente si lo comparamos con otras tecnologías no estandarizadas. En Frame Relay todo son ventajas: puede ser implementado en software (por ejemplo en un encaminador), y por tanto puede ser mucho más barato; Frame Relay esta orientado a conexiones, como la mayoría de las WAN’s; Frame Relay puede "empaquetar" tramas de datos de cualquier protocolo de longitud variable; la "carga del protocolo" (overhead) de Frame Relay es menor de un 5%. Como desventaja tendríamos que mencionar que Frame Relay sólo ha sido definido para velocidades de hasta 1,544/2,048 Mbps. (T1/E1), aunque esto sin duda es algo temporal. Además, Frame Relay no soporta aplicaciones sensibles al tiempo, al menos de forma estándar. Pero Frame Relay sigue siendo una tecnología antigua, ya que no inventa nuevos protocolos ni mejora los dispositivos de la red, sino que se limita a eliminar parte de la carga de protocolo y funciones de X.25, logrando mejorar su velocidad. El resultado es una red más rápida, pero no una red integrada. Además, dado que Frame Relay está orientado a conexión, todas las tramas siguen la misma ruta a través de la red, basadas en un identificador de conexión. Pero las redes orientadas a conexión son susceptibles de perderla si el enlace entre el nodo conmutador de dos redes falla. Aún cuando la red intente recuperar la conexión, deberá de ser a través de una ruta diferente, lo que origina un cambia en la demora extremo a extremo y puede no ser lo suficientemente rápido como para ser transparente a las aplicaciones. INTEROPERABILIDAD ENTRE FRAME RELAY Y ATM El objetivo final para todos los servicios descritos anteriormente es una migración suave de Frame Relay y/o SMDS a redes ATM. Por ejemplo la recomendación UIT - T I.555, provee un marco para la interoperabilidad de Frame Relay y ATM. Para alcanzar una máxima eficiencia se trata de brindar este servicio de interoperabilidad en la capa más baja posible mediante conversión de protocolo. PRIMER ESCENARIO: Cuando el servicio de Frame Relay es dado sobre la RDSI en banda ancha y los usuarios se conectan a través de la UNI de Frame Relay. En esta solución, se necesita un equipo que sirva de interfaz tanto para el usuario que recibe, como para el que transmite. Para proveer el servicio del primer escenario existen dos posibilidades: POSIBILIDAD 1: Construir un mallado utilizando conexiones ATM (VC/VP) para enlazar los puntos de acceso Frame Relay. En este esquema se puede explotar la naturaleza de orientación a conexión Frame Relay (F R) siguiendo un comportamiento como: El usuario del enrutador pregunta por una conexión al equipo interfaz de red. El equipo interfaz de la red coloca las conexiones Frame Relay dentro de una conexión ATM con las direcciones destino apropiadas. Por cada trama de equipo interfaz de red traslada de la conexión de Frame Relay a la ATM y viceversa. La conexión ATM esta desocupada cuando no se necesita. Para lograr este último punto, el manejo de la política de conexion del VC, sera un aspecto crucial para el desempeño de este procedimiento. Resulta difícil de terminar el procedimiento para manejar un VC cuando la fuente de tráfico es no orientada a conexión. En este caso se pueden utilizar varios mecanismos: No utilizar manejo alguno, lo que involucra el uso de circuitos ATM permanentes (VPs) en lugar de los conmutadores (VCs) con un costo muy elevado. Abrir y cerrar una conexion ATM con el destino apropiado para cada trama que arribe del lado de Frame Relay en el equipo interfaz de red. Abrir una conexión ATM cuando se necesite y cerrarla de acuerdo a un temporizador de inactividad. El problema debe ser solucionado ya sea por el enrutador del usuario o por el equipo interfaz de red. POSIBILIDAD 2: Utilizar un servicio Frame Relay en todos los lugares en los cuales se establezcan conexiones ATM en estrella. En esta opción se toma ventaja del uso actual del FR, el cual es proveer un mallado virtual entre diferentes sitios para cargar tráfico no orientado a conexión. Cada enrutador esta conectado al servidor de FR. Todos los DLCIs (Data Link Connection Identifier) en cada interfaz FR pueden ser cargados a un servidor FR dentro de un VC ATM. En este escenario la funcionalidad de los equipos interfaz de red se simplifica debido a que solo dialoga con el servidor. La complejidad reside en el servidor que ejecuta funciones de conmutación. Las tramas se conmutan en la base de VCIs y DLCIs entrantes y salientes. El servidor mantiene una tabla con las correspondencias entre los pares VCI / DLCI. SEGUNDO ESCENARIO: La red de Frame Relay y la red RDSI de banda ancha se interconectan a través de sus respectivas interfaces de red (NNIs). Esto permitiría a un proveedor de red, manejar esta heterogénea red como un todo. Frame Relay provee usualmente la interconexión para LAN a pesar de su natural orientación a conexión. En las redes Frame Relay existentes se puede conseguir un mallado de LANs a traves de circuitos virtuales permanentes. Los datagramas de los LANs son cargados dentro de tramas FR y enrutados de acuerdo con la etiqueta contenida en el DLCI. Tratando de hacer un sobresimplificación los dos protocolos (AAL 3 y AAL 5) ofrecen basicamente el mismo servicio CPAAL (Parte Común AAL) a las subcapas superiores. En este caso a la capa de Convergencia de Frame Relay. Existen sin embargo diferencia en las funcionalidades internas, simplicidad de implementación y eficiencia del protocolo que incide en el costo. Las características a tomar en cuenta, cuyo detalle puede ser tema de otro artículo, tienen que ver con Delimitación y Alineamiento de Tramas, Multiplexación, Detección de errores de transmisión, eficiencia en la transmisión. Analizadas estas diferencias se propone seleccionar el AAL5 bajo la subcapa FR-CS para soportar el servicio Frame Relay en RDSI de banda ancha. X.25 (IBERPAC) Se trata de una red de conmutación de paquetes diseñada para transportar datos. El servicio que ofrece es orientado a conexión, fiable, en el sentido de que no duplica, ni pierde ni desordena, y aprovecha las ventajas de la multiplexación estadística. El protocolo X.25 que dicta su funcionamiento se trata de un estándar excesivamente robusto. Tanto el nivel de enlace como el nivel de red incluyen mecanismos de control de flujo y de errores; el protocolo de control de enlace de datos provoca el intercambio de una trama de datos y una de confirmación en cada salto de la red. Adicionalmente, en cada nodo intermedio deben mantenerse tablas de estado para cada circuito virtual al fin de gestionar el mantenimiento de la llamada y aspectos relativos al control de flujo y de errores del protocolo X.25. Debido a esto, X.25 es un estándar que impone una sobrecarga de procesamiento muy grande. Esta complejidad tan elevada impide operar a velocidades de línea altas y hace que los tiempos de conmutación sean lentos. Este coste queda justificado en el caso de que alguno de los enlaces de la red presente una probabilidad de error significativa, pudiendo no ser la técnica más apropiada para comunicaciones digitales modernas. En X.25 hay 2 tipos de CV: Conmutados (CVC) : Hay que realizar un diálogo previo a la transmisión con el nodo local para establecerlos. Permanentes (CVP): Están establecidos de antemano (por contrato), así que no hace falta fase de establecimiento. Son muy útiles si se transmite mucho y con mucha frecuencia hacia un mismo destino. 1.6.2.2 No orientadas. Redes no orientadas a conexión: Llamadas Datagramas, pasan directamente del estado libre al modo de transferencia de datos. Estas redes no ofrecen confirmaciones, control de flujo ni recuperación de errores aplicables a toda la red, aunque estas funciones si existen para cada enlace particular. Un ejemplo de este tipo de red es INTERNET. Redes No orientadas a conexión. En este tipo de redes cada paquete es ruteado por separado hacia la terminal destino, esto indica que pueden llegar en desorden y es tarea de la capa de transporte re ordenarlos para que formen el paquete original. Red de Conmutacion de Paquetes NO ORIENTADAS A LA CONEXIÓN: LA RED IP (INTERNET) En este tipo de redes no es necesario establecer un circuito lógico para poder comunicarse con el usuario remoto. En este modo no hay fase de establecimiento de la conexión; los paquetes reciben el nombre de datagramas, cada uno es tratado de forma independiente por la red y pudieran ser encaminados de forma distinta, pero se ordenan en el nodo destino. La red no entiende de orden en los paquetes, porque no se establece una relación de orden entre ellos por lo que cada paquete tiene que tener información suficiente para alcanzar al destinatario. Simplemente los transmite según le llegan. Los paquetes llevan la dirección de destino y casi siempre el paquete enviado primero será el primero en llegar al destino, pero en algún caso pudiera no ser así. El hecho de ofrecer un servicio no orientado a conexión no quiere decir que el servicio no sea fiable y que vaya a desordenar paquetes, porque normalmente la probabilidad de que se desordenen es suficientemente pequeña. Las características principales de un servicio de este tipo a nivel de red son las siguientes: no hay establecimiento de ninguna conexión, sólo hay transferencia de datos, cada paquete que se transmite se transporta de manera independiente con respecto a los paquetes predecesores, y cada uno tiene que contener la dirección origen y la dirección destino, y a que no se tiene concepto de conexión. RED IP (INTERNET) Internet es un conjunto de redes de ordenadores interconectadas entre sí, que forman una red de cobertura mundial, cuya finalidad es permitir el intercambio libre y la compartición de información y recursos entre todos los usuarios. Internet proporciona una conectividad básica de red y un conjunto de aplicaciones (WWW, Transferencia de ficheros, Conexión como terminal a ordenadores remotos , búsqueda de información ...). Se trata de una red de conmutación de paquetes no orientada a la conexión, cuyo funcionamiento se basa en el envío de información en datagramas, tal y como ha quedado explicado anteriormente Los diferentes servicios a los que podemos tener acceso en Internet son proporcionados por los protocolos que pertenecen al nivel de aplicación. Estos protocolos forman parte del TCP/IP y deben aportar entre otras cosas una forma normalizada para interpretar la información, ya que todas las máquinas no utilizan los mismos juegos de caracteres ni los mismos estándares. Los protocolos de los otros niveles sólo se encargan de la transmisión de información como un bloque de bits, sin definir las normas que indiquen la manera en que tienen que interpretarse esos bits. 1.6.3 De acuerdo a su relación. 1.6.3.1 De Igual a Igual. La red de igual a igual también se denomina red de grupo de trabajo. Está diseñada para una cantidad pequeña de estaciones de trabajo. Microsoft recomienda que no haya más de diez usuarios en una red de igual a igual. Las ventajas de una red de igual a igual el costo inferior de creación y operación, en comparación con las redes cliente-servidor; que permite que los usuarios controlen sus propios recursos; que no requiere un servidor dedicado y que no se requiere ningún software adicional, aparte de un sistema de operación adecuado. Las desventajas incluyen que no se suministra ningún punto central de administración y que cada usuario debe crear identificadores para cada usuario que comparte los recursos de la máquina. Cada vez que un usuario cambia una contraseña, todas las contraseñas en los recursos compartidos se deben cambiar de forma individual. Si una estación de trabajo compartida se desactiva o no está disponible, no se dispone de esos recursos. La última desventaja se mencionó anteriormente, es decir, si hay más de diez usuarios o si la red crece a más de diez usuarios durante el siguiente año, la red de igual a igual no resulta una buena elección. Ejemplos de los sistemas operativos de igual a igual son Windows for Workgroups, Windows 95, Windows 98 y LANtastic. Las redes de punto a punto consisten en muchas conexionesentre pares individuales de máquinas. Para ir del origen al destino un paqueteen este tipo de red puede tener que visitar una ó más máquinas intermedias. Aveces son posibles múltiples rutas de diferentes longitudes, por lo que losalgoritmos de ruteo son muy importantes en estas redes. En una red punto a punto cada computadora puede actuar como cliente y como servidor. Las redes punto a punto hacen que el compartir datos y periféricos sea fácil para un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la administración no está centralizada. Las redes punto a punto se construyen por medio de conexiones entre pares de computadoras, también llamadas líneas, enlaces, circuitos o canales (en inglés los términos equivalentes son ‘lines’, ‘links’, ‘circuits’, ‘channels’ o ‘trunks’). Una vez un paquete es depositado en la línea el destino es conocido de forma inequívoca y no es preciso en principio que lleve la dirección de destino. Los enlaces que constituyen una red punto a punto pueden ser de tres tipos de acuerdo con el sentido de la transmisión: Simplex: la transmisión sólo puede efectuarse en un sentido Semi-dúplex o ‘half-duplex’: la transmisión puede hacerse en ambos sentidos, pero no simultáneamente Dúplex o ‘full-duplex’: la transmisión puede efectuarse en ambos sentidos a la vez. En los enlaces semi-dúplex y dúplex la velocidad de conexión es generalmente la misma en ambos sentidos, en cuyo caso se dice que el enlace es simétrico; en caso contrario se dice que es asimétrico. La gran mayoría de los enlaces en líneas punto a punto son dúplex simétricos. Así, cuando se habla de un enlace de 64 Kb/s sin especificar mas se quiere decir 64 Kb/s en cada sentido, por lo que la capacidad total del enlace es de 128 Kb/s. Al unir múltiples máquinas con líneas punto a punto es posible llegar a formar redes de topologías complejas en las que no sea trivial averiguar cual es la ruta óptima a seguir para ir de un punto a otro, ya que puede haber múltiples caminos posibles con distinto número de computadoras intermedias, con enlaces de diversas velocidades y distintos grados de ocupación. Como contraste, en una red broadcast el camino a seguir de una máquina a otra es único , no existen computadoras intermedios y el grado de ocupación es el mismo para todas ellas. Cada uno de las computadoras que participa en una red de enlaces punto a punto es un nodo de la red. Si el nodo tiene un único enlace se dice que es un nodo terminal o ‘end node’, de lo contrario se dice que es un nodo intermedio, de encaminamiento o ‘routing node’. Cada nodo intermedio ha de tomar una serie de decisiones respecto a por donde debe dirigir los paquetes que reciba, por lo que también se les llama nodos de conmutación de paquetes, nodos de conmutación, conmutadores o ruteadores (los términos equivalentes en inglés son respectivamente packet switching nodes, switching nodes, switches y routers). Dependiendo del tipo de red que se trate nosotros utilizaremos las denominaciones router o conmutador. Cualquier computadora (por ejemplo una estación de trabajo UNIX, o incluso un PC con MS/DOS), puede actuar como un router en una red si dispone del programa apropiado; sin embargo, se prefiere normalmente utilizar para este fin computadoras dedicadas, con sistemas operativos en tiempo real y software específico, dejando los computadoras de propósito general para las aplicaciones del usuario; esto da normalmente mayor rendimiento y fiabilidad. Tradicionalmente la computadora de propósito general que se conecta a la red como nodo terminal mediante un router se le denomina host, palabra inglesa que significa anfitrión (aunque esta denominación no se utiliza nunca en este contexto). El conjunto de líneas de comunicación y routers que interconectan a los hosts forman lo que se conoce como la subred de comunicaciones, o simplemente subred. Obsérvese que los hosts o nodos terminales no forman parte de la subred. Si hacemos la analogía con la red telefónica diríamos que la subred es el conjunto de cables y centrales telefónicas, incluido la roseta de la pared donde conectamos el teléfono, pero no formaría parte de la subred nuestro teléfono, que enchufamos la roseta. Para llegar de un nodo a otro en una red se ha de atravesar uno o varios enlaces; el número de enlaces se denomina en inglés ‘hops’, que significa saltos, y depende de la trayectoria seguida y de la topología de la red. Cuando dos nodos no vecinos (es decir a mas de un ‘hop’ de distancia) desean intercambiar información lo han de hacer a través de uno o varios nodos intermedios. Cuando un paquete se envía de un nodo al siguiente normalmente el paquete es transmitido en su totalidad y almacenado; solo entonces el nodo receptor intenta enviar el paquete al siguiente nodo de la red. Esto es lo que se conoce como una red de almacenamiento - reenvío (‘store-and-forward’) o red de conmutación de paquetes (‘packet - switched’). Esta forma de proceder permite una elevada fiabilidad incluso en entornos hostiles donde el número de errores puede ser elevado. Dado que en una red punto a punto cada enlace puede tener una velocidad distinta, no podemos caracterizar la red con un único dato de forma tan sencilla como en una red broadcast; sería preciso adjuntar un esquema de la topología indicando el tipo de cada enlace (simplex, semi-dúplex o dúplex) y su velocidad (en cada sentido si fuera asimétrico). Red Peer-to-Peer Una red peer-to-peer (entre iguales o cliente-cliente) resulta idónea para conectar 5 ó 6 nodos. En esta configuración, se usa un dispositivo central de control, denominado hub o switch, para conectar entre sí todos los ordenadores. Cada computador es un igual, o par, de los otros y pueden compartir archivos y periféricos conectados a la red. Si bien una red peer-to-peer es una solución sencilla, económica y fácil de instalar, no es tan eficiente a la hora de buscar, recuperar y almacenar archivos. Redes de igual a igual En las redes de igual a igual no hay un servidor central. Por lo general, esta configuración tiene una única serie de ordenadores conectados entre sí mediante cables. Cada ordenador es un igual, o tiene el mismo "rango" de los demás, y puede compartir los archivos y los periféricos de los otros ordenadores conectados a la red. Normalmente, este tipo de red tan simple resulta muy adecuado para menos de cinco usuarios que necesitan compartir ocasionalmente archivos y periféricos. Aunque una red de igual a igual es una solución de bajo coste y fácil de instalar, tiene algunos inconvenientes. Si un usuario apaga su estación de trabajo, su información o periféricos ya no estarán disponibles para el uso compartido por parte de los demás usuarios. Además, el acceso a los datos y las aplicaciones de la estación de trabajo de otro usuario puede provocarle problemas de rendimiento. 1.6.3.2 Cliente - Servidor. El otro tipo de red es una red cliente-servidor. Los sistemas operativos de red son el núcleo de la red cliente-servidor. Estos sistemas controlan los recursos y la administración de la red de área local. Las ventajas de las redes cliente-servidor son que suministran un punto centralizado de administración de usuario, seguridad y recursos. También se pueden utilizar servidores dedicados para suministrar recursos específicos a los clientes de forma más efectiva. También suministran acceso a todos los recursos permitidos con un ID de red y una contraseña. La desventaja es que ahora hay un solo punto de falla en la red. Si el servidor entra en colapso, todos los recursos del servidor son inaccesibles para los clientes. De hecho, es posible que los clientes ni siquiera puedan operar sin el servidor. En la actualidad, la operación y el mantenimiento de la red requieren que haya personal especialmente capacitado para mantener la red. Esto, junto con el software y hardware especiales, hacen que el costo de operación se encarezca. Incluso con sus desventajas, la red cliente-servidor en realidad es la única opción para las organizaciones con más de diez usuarios. Ejemplos de sistemas operativos cliente-servidor son Unix, NetWare de Novell y Windows NT: El sistema operativo Unix tiene muchas variantes, según la implementación de distintas empresas. Las empresas que suministran Unix incluyen Sun Microsystems, IBM, Hewlett-Packard y Santa Cruz Operation (SCO). También hay versiones gratis de Unix denominadas FreeBSD y Linux, la última de las cuales es muy popular en la actualidad. Unix es un sistema operativo de múltiples usuarios que soporta aplicaciones multiprocesamiento, multitarea y multithread. El sistema operativo se basa en un núcleo, que aísla la capa de hardware del computador de las aplicaciones que funcionan incorrectamente y utiliza principalmente el sistema de archivos NFS (Sistema de archivos de red - la implementación de Sun Microsystems). El sistema de archivos NFS suministra acceso de seguridad de directorio y archivo en el servidor. Unix también brinda control centralizado de usuarios y recursos a través del sistema operativo. Dadas las múltiples versiones de Unix, es difícil señalar las diferencias entre todas las variantes y versiones de este software. La descripción anterior indica las características comunes disponibles en todas las versiones de Unix. Los clientes que trabajan mejor con Unix por lo general son específicos del productor del sistema operativo. Para describir NetWare y Windows NT, debemos hablar acerca de las distintas versiones que se han desarrollado a través de los años. En primer lugar, hablaremos acerca de NetWare de Novell. Las versiones de NetWare que se describen son las Ver 3.12, Ver. 4.11 y la Ver. 5.0. Estas versiones se diferencian principalmente en lo que se refiere al manejo de los servicios de Directorio. La Ver. 3.12 de NetWare utiliza un objeto denominado Bindery para administrar múltiples usuarios y recursos. La desventaja es que los servicios de bindery crean una red centrada en el servidor. El enfoque de la red centrada en el servidor se concentra en el servidor individual como el punto de control. Esto crea un problema con una red de servidores múltiples. Cada servidor debe tener un ID individual para cada usuario, incluso si las contraseñas están sincronizadas de tal modo que al cambiar una de las contraseñas se cambie la contraseña en todos los servidores, lo que deja sin efecto el propósito de la administración centralizada. Para ser justos, este es un aspecto de tiempo, ya que la Ver. 3.12 existía antes de que se produjera la gran explosión de redes de servidores múltiples. Esta es una de las mejoras principales en la Ver. 4.11 de NetWare. La Ver. 4.11 y la Ver. 5.0 de NetWare utilizan un objeto denominado NDS (Servicios de Directorio de Novell) para administrar usuarios y recursos. La ventaja sobre la Ver 3.12 es que NDS crea una red centrada en la red. El enfoque de la red centrada en la red se concentra en la totalidad de la red como el punto de control. Este enfoque unifica la administración en un único punto y los servidores se tratan simplemente como objetos dentro del contexto de la red. Esto permite que haya un solo ID y una sola contraseña para autorizar a los usuarios a utilizar todos los recursos a través de la red y facilita la organización y la administración de la red. Todas las versiones de NetWare utilizan una combinación de dos servicios de archivos. El primero es FAT (tabla de asignación de archivos), que es el sistema de archivos que se utiliza para DOS. El segundo es DET (Tabla de entradas del directorio), que es un sistema de archivos propietario de Novell, que suministra seguridad de archivos y directorio en el servidor. Los clientes que trabajan mejor con NetWare son varios; entre ellos se incluyen todas las versiones de Windows, DOS, Macintosh y OS-2. Los puntos fuertes de NetWare son la administración de recursos de usuario y de archivo. El último sistema operativo que se describe es Windows NT. Hay dos versiones de Windows NT que se deben conocer. La versión 4.0 de Windows NT para servidor y estación de trabajo se desarrollaron con la interfaz de usuario Windows 95. Esto hace que la interfaz de todos los productos de Windows tenga un aspecto y un manejo similares. Windows NT maneja la administración de usuarios y recursos a través del uso de Dominios. Un dominio es una agrupación lógica de usuarios y recursos bajo el control de un servidor denominado PDC (Controlador de dominio primario). Los dominios también soportan el uso de servidores secundarios denominados BDC (Controladores de dominio de reserva). Los BDC equilibran la carga de trabajo del PDC y suministran la redundancia de los objetos usuario y recurso. En un dominio, se permite un tercer tipo de servidor, denominado servidor autónomo. Este servidor se configura principalmente para soportar una aplicación en particular y dedicar sus recursos a dicha aplicación. Otra variante del dominio se denomina modelo multidominio. En este modelo, los dominios individuales están conectados por relaciones de confianza, lo que permite que los usuarios puedan utilizar recursos más allá de los límites del Dominio. La estructura de administración de Windows 2000 Server cambia de Dominios a una Estructura de directorio activa. El directorio activo se basa en un modelo centrado en red, como NDS, en lugar de en un modelo centrado en Dominio. Windows NT es, al igual que Unix, un sistema operativo multiusuario que soporta aplicaciones multiprocesamiento, multitarea y multithread. El sistema operativo, al igual que Unix, se basa en un núcleo, que aísla la capa de hardware del computador de las aplicaciones que no funcionan correctamente y utiliza el sistema de archivos FAT16 y el sistema propietario de NT, NTFS (Sistema de archivos de nueva tecnología). Con FAT16, Windows NT suministra simplemente seguridad a nivel de directorio (también denominado carpeta); no se suministra seguridad de archivos individuales. NTFS suministra seguridad y permisos a nivel de archivo y directorio. La razón por la que Windows NT soporta ambos sistemas operativos es que tiene la capacidad de coexistir con otro sistema operativo en la misma máquina. Esto no significa que ambos sistemas se puedan ejecutar al mismo tiempo, sino que el computador puede ejecutar Windows NT o el otro sistema operativo. Para que el otro sistema operativo tenga acceso de archivo, el sistema de archivo debe ser FAT16. Simplemente a título informativo, Windows 95 y 98 soportan FAT32, Windows NT no. De modo que FAT16 debe utilizarse si se desea ejecutar Windows NT y 95 en el mismo computador. Windows NT funciona mejor con su propio cliente, Windows NT Workstation, pero también funciona bien con Windows for Workgroups, Windows 95 y 98 y clientes Macintosh. No importa cuál sea el sistema operativo de red que se utilice, la función principal del sistema operativo de red es controlar la red. Esto se logra al establecer usuarios de red; derechos, cuentas de conexión (ID del usuario), contraseñas y grupos, así como también Perfiles y políticas de sistema. Estos términos se identificarán de forma más completa en los siguientes párrafos. Cliente/servidor En vez de construir sistemas informáticos como elementosmonolíticos, existe el acuerdo general de construirlos como sistemascliente/servidor. El cliente ( un usuario de PC ) solicita un servicio ( comoimprimir ) que un servidor le proporciona ( un procesador conectado a la LAN ).Este enfoque común de la estructura de los sistemas informáticos se traduce enuna separación de las funciones que anteriormente forman un todo. Los detallesde la realización van desde los planteamientos sencillos hasta la posibilidadreal de manejar todos los ordenadores de modo uniforme. Red cliente/servidor: También conocida como client/server, en este caso el servidor es una máquina específica que usa un sistema operativo desarrollado especialmente para este tipo de red. Las estaciones de trabajo comparten recursos disponibles a partir de este servidor. La ejecución de las tareas está dividida entre el cliente (o estación) y el servidor. Debido a que existe una máquina dedicada que utiliza un sistema operativo específico, este tipo de red proporciona un mejor rendimiento y niveles de seguridad más adecuados para el trabajo profesional en red. Actualmente existen sistemas operativos de red pensados para redes par a par, para redes cliente/servidor e incluso, aquellos que pueden funcionar de manera híbrida, es decir, de cualquiera de los dos modos. El sistema operativo del tipo par a par es normalmente de bajo costo, por ser mucho más simple. En general, posibilita la capacidad de red a cualquier sistema operativo preexistente. Como el sistema preexistente no fue desarrollado para trabajar en red solamente terminó recibiendo un agregado para esta rutina-, los recursos de seguridad de los datos y el rendimiento quedan comprometidos. Los sistemas operativos basados en la arquitectura cliente/servidor fueron desarrollados para operar como servidores de red. En consecuencia, se puede prever una serie de funciones de seguridad adicionales que mejoran su rendimiento. Son opciones más caras pero que ofrecen muchos más recursos si se las compara con las redes par a par. Red Cliente-Servidor Cuando hay que conectar seis o más nodos y se necesita actualizar de forma periódica grandes archivos tales como bases de datos o de información, la mejor elección es una red cliente-servidor. La presencia de un computador central o servidor en esta configuración proporciona numerosas ventajas. Como los archivos se almacenan en una única ubicación, se simplifican las tareas de actualización, back up y archivo con resultados garantizados. Generalmente, el servidor es un computador de alto rendimiento que garantiza la rapidez en el acceso y recuperación de datos, y que confiere al negocio la plataforma necesaria para añadir funciones tales como centralización de contabilidad y de libro mayor, producción, entrada de pedidos, envíos, o software de administración de inventario. De nuevo, la solución para esta configuración es un hub o switch centralizado. LAN cliente/servidor En el sentido más estricto, el término cliente/servidor describe un sistema en el que una máquina cliente solicita a una segunda máquina llamada servidor que ejecute una tarea específica. El cliente suele ser una computadora personal común conectada a una LAN, y el servidor es, por lo general, una máquina anfitriona, como un servidor de archivos PC, un servidor de archivos de UNIX o una macrocomputadora o computadora de rango medio. El programa cliente cumple dos funciones distintas: por un lado gestiona la comunicación con el servidor, solicita un servicio y recibe los datos enviados por aquél. Por otro, maneja la interfaz con el usuario: presenta los datos en el formato adecuado y brinda las herramientas y comandos necesarios para que el usuario pueda utilizar las prestaciones del servidor de forma sencilla. El programa servidor en cambio, básicamente sólo tiene que encargarse de transmitir la información de forma eficiente. No tiene que atender al usuario. De esta forma un mismo servidor puede atender a varios clientes al mismo tiempo. Algunas de las principales LAN cliente/servidor con servidores especializados que pueden realizar trabajos para clientes incluyen a Windows NT, NetWare de Novell, VINES de Banyan y LAN Server de IBM entre otros. Todos estos sistemas operativos de red pueden operar y procesar solicitudes de aplicaciones que se ejecutan en clientes, mediante el procesamiento de las solicitudes mismas. Redes cliente-servidor Las redes cliente-servidor proporcionan más flexibilidad que las redes de igual a igual. Un conmutador de red actúa como dispositivo central de comunicaciones para conectar los ordenadores de sobremesa y los portátiles al servidor. De este modo, un servidor dedicado en la red permite que los usuarios accedan a la información y compartan periféricos sin depender de los sistemas de otros usuarios. Además, se puede instalar un sistema de copia de seguridad en cinta en un servidor dedicado, lo que permite realizar copias de seguridad de los datos tanto del servidor como de todas las estaciones de trabajo. Las redes clienteservidor normalmente se utilizan cuando hay una necesidad constante de acceder a archivos y aplicaciones grandes o cuando varios usuarios desean compartir periféricos. Componentes de red La configuración de una red cliente-servidor es más sencilla de lo que parece. Hay nueve componentes básicos, de los cuales algunos son opcionales: Servidor Adquiera un servidor con la potencia de procesamiento adecuada, así como con las características de ampliación y disponibilidad que cubran las necesidades de su empresa y el número de usuarios. Ordenadores de sobremesa Identifique los ordenadores de sobremesa o estaciones de trabajo que desea conectar en red. Conmutadores de red Un conmutador es un dispositivo de hardware que conecta los ordenadores cliente y los servidores entre sí. La mayoría de los conmutadores disponibles actualmente están diseñados para redes Ethernet. Están disponibles en varias configuraciones de puertos, donde el número de puertos indica el número de dispositivos que se pueden conectar. Los conmutadores están reemplazando rápidamente a los concentradores en la infraestructura de redes. Aunque están diseñados para realizar la misma tarea de conectividad básica, los conmutadores son "inteligentes" y aprovechan mejor el ancho de banda de la red. Actualmente, la mayoría de los conmutadores tienen puertos diseñados para gestionar el tráfico Ethernet que se transmite a las velocidades habituales de 10 y 100 Mbps. Los conmutadores más avanzados disponen de puertos que admiten Gigabit1 Ethernet o 1 GB/s. La línea DellTM PowerConnectTM de conmutadores ofrece conmutadores administrados y no administrados. Los conmutadores no administrados son ideales para redes sencillas en las que se desea la simplicidad Plug-and-Play. Los conmutadores administrados proporcionan mayor flexibilidad y control del tráfico a los administradores de la red. Enrutadores Los enrutadores conectan y administran el tráfico de datos entre dos redes. Los módems de cable y DSL son técnicamente enrutadores, ya que conectan un cliente (o clientes) de red de área local (LAN) con una red de área amplia (WAN), denominada Internet. También hay enrutadores que administran el tráfico entre conexiones externas, como líneas T1 y T3. Muchos enrutadores combinan las funciones de un enrutador y un conmutador, lo que proporciona puertos para conectar varios clientes de la LAN. Cables Conecte las estaciones de trabajo entre sí y con el servidor con cables. El cable sirve de conducto a través del cual se envían datos entre dispositivos. Entre los cables se pueden incluir desde cable de par trenzado (RJ-45), que es similar al cable telefónico estándar, hasta cable de fibra óptica, que es más rápido pero suele ser caro. Tarjeta de interfaz de red Una "NIC", o tarjeta de interfaz de red, es un producto de nivel amplio que se instala en un PC, estación de trabajo o servidor y permite que el ordenador se comunique con el resto de la red. Mientras una NIC de sobremesa se instala en un PC de sobremesa o una estación de trabajo y sólo admite un único usuario, una NIC de servidor se utiliza en un servidor para conectar muchos usuarios y admite aplicaciones empresariales críticas. Una NIC de servidor ofrece mayor fiabilidad, menor sobrecarga de la CPU y mejor rendimiento global. Software Es necesario algún tipo de software de red para facilitar las comunicaciones entre las estaciones de trabajo y el servidor. El sistema operativo de red se ejecuta en el servidor y permite que los usuarios compartan información y periféricos conectados a la red. Además, cada estación de trabajo debe ejecutar software cliente con el fin de establecer comunicación con el servidor. Cortafuegos Los cortafuegos de red protegen las redes contra el acceso no autorizado. Los cortafuegos pueden ser dispositivos de hardware, aplicaciones de software o una combinación de ambos. Todos los cortafuegos protegen las redes contra el acceso exterior malintencionado. Algunos se pueden programar para controlar el acceso al exterior de los usuarios locales. Unidades de copia de seguridad en cinta y sistemas de alimentación ininterrumpida Dell recomienda encarecidamente el uso de unidades de copia de seguridad en cinta y fuentes de alimentación universales en la red. Las unidades de copia de seguridad en cinta ayudan a los usuarios a almacenar y proteger la información valiosa sin la cual no podría funcionar su empresa. Los sistemas de alimentación ininterrumpida contribuyen a proteger los archivos contra subidas de tensión y cortes de electricidad. 1.7 Descripción del Modelo OSI. 1.7.1 Modelo de capas. Al principio de su desarrollo, las LAN, MAN y WAN eran en cierto modo caóticas. A principios de la década de los 80 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas se dieron cuenta de que podrían ahorrar mucho dinero y aumentar la productividad con la tecnología de networking, comenzaron a agregar redes y a expandir las redes existentes casi simultáneamente con la aparición de nuevas tecnologías y productos de red. A mediados de los 80, estas empresas debieron enfrentar problemas cada vez más serios debido a su expansión caótica. Resultaba cada vez más difícil que las redes que usaban diferentes especificaciones pudieran comunicarse entre sí. Se dieron cuenta que necesitaban salir de los sistemas de networking propietarios. Los sistemas propietarios se desarrollan, pertenecen y son controlados por organizaciones privadas. En la industria de la informática, "propietario" es lo contrario de "abierto". "Propietario" significa que un pequeño grupo de empresas controla el uso total de la tecnología. Abierto significa que el uso libre de la tecnología está disponible para todos. Para enfrentar el problema de incompatibilidad de las redes y su imposibilidad de comunicarse entre sí, la Organización Internacional para la Normalización (ISO) estudió esquemas de red como DECNET, SNA y TCP/IP a fin de encontrar un conjunto de reglas. Como resultado de esta investigación, la ISO desarrolló un modelo de red que ayudaría a los fabricantes a crear redes que fueran compatibles y que pudieran operar con otras redes. El proceso de dividir comunicaciones complejas en tareas más pequeñas y separadas se podría comparar con el proceso de construcción de un automóvil. Visto globalmente, el diseño, la fabricación y el ensamblaje de un automóvil es un proceso de gran complejidad. Es poco probable que una sola persona sepa cómo realizar todas las tareas requeridas para la construcción de un automóvil desde cero. Es por ello que los ingenieros mecánicos diseñan el automóvil, los ingenieros de fabricación diseñan los moldes para fabricar las partes y los técnicos de ensamblaje ensamblan cada uno una parte del auto. El modelo de referencia OSI (Nota: No debe confundirse con ISO.), lanzado en 1984, fue el esquema descriptivo que crearon. Este modelo proporcionó a los fabricantes un conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red utilizados por las empresas a nivel mundial. El modelo de referencia OSI es el modelo principal para las comunicaciones por red. Aunque existen otros modelos, en la actualidad la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia OSI, especialmente cuando desean enseñar a los usuarios cómo utilizar sus productos. Los fabricantes consideran que es la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. El modelo de referencia OSI permite que los usuarios vean las funciones de red que se producen en cada capa. Más importante aún, el modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. Además, puede usar el modelo de referencia OSI para visualizar cómo la información o los paquetes de datos viajan desde los programas de aplicación (por ej., hojas de cálculo, documentos, etc.), a través de un medio de red (por ej., cables, etc.), hasta otro programa de aplicación ubicado en otro computador de la red, aún cuando el transmisor y el receptor tengan distintos tipos de medios de red. En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. Esta división de las funciones de networking se denomina división en capas. Si la red se divide en estas siete capas, se obtienen las siguientes ventajas: Divide la comunicación de red en partes más pequeñas y sencillas. Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos de diferentes fabricantes. Permite a los distintos tipos de hardware y software de red comunicarse entre sí. Impide que los cambios en una capa puedan afectar las demás capas, para que se puedan desarrollar con más rapidez. Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje. El problema de trasladar información entre computadores se divide en siete problemas más pequeños y de tratamiento más simple en el modelo de referencia OSI. Cada uno de los siete problemas más pequeños está representado por su propia capa en el modelo. Las siete capas del modelo de referencia OSI son: Capa 7: La capa de aplicación Capa 6: La capa de presentación Capa 5: La capa de sesión Capa 4: La capa de transporte Capa 3: La capa de red Capa 2: La capa de enlace de datos Capa 1: La capa física Cada capa individual del modelo OSI tiene un conjunto de funciones que debe realizar para que los paquetes de datos puedan viajar en la red desde el origen hasta el destino. A continuación, presentamos una breve descripción de cada capa del modelo de referencia OSI tal como aparece en la figura. Capa 7: La capa de aplicación La capa de aplicación es la capa del modelo OSI más cercana al usuario; suministra servicios de red a las aplicaciones del usuario. Difiere de las demás capas debido a que no proporciona servicios a ninguna otra capa OSI, sino solamente a aplicaciones que se encuentran fuera del modelo OSI. Algunos ejemplos de aplicaciones son los programas de hojas de cálculo, de procesamiento de texto y los de las terminales bancarias. La capa de aplicación establece la disponibilidad de los potenciales socios de comunicación, sincroniza y establece acuerdos sobre los procedimientos de recuperación de errores y control de la integridad de los datos. Si desea recordar a la Capa 7 en la menor cantidad de palabras posible, piense en los navegadores de Web. Capa 6: La capa de presentación La capa de presentación garantiza que la información que envía la capa de aplicación de un sistema pueda ser leída por la capa de aplicación de otro. De ser necesario, la capa de presentación traduce entre varios formatos de datos utilizando un formato común. Si desea recordar la Capa 6 en la menor cantidad de palabras posible, piense en un formato de datos común. Capa 5: La capa de sesión Como su nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones entre dos hosts que se están comunicando. La capa de sesión proporciona sus servicios a la capa de presentación. También sincroniza el diálogo entre las capas de presentación de los dos hosts y administra su intercambio de datos. Además de regular la sesión, la capa de sesión ofrece disposiciones para una eficiente transferencia de datos, clase de servicio y un registro de excepciones acerca de los problemas de la capa de sesión, presentación y aplicación. Si desea recordar la Capa 5 en la menor cantidad de palabras posible, piense en diálogos y conversaciones. Capa 4: La capa de transporte La capa de transporte segmenta los datos originados en el host emisor y los reensambla en una corriente de datos dentro del sistema del host receptor. El límite entre la capa de transporte y la capa de sesión puede imaginarse como el límite entre los protocolos de aplicación y los protocolos de flujo de datos. Mientras que las capas de aplicación, presentación y sesión están relacionadas con asuntos de aplicaciones, las cuatro capas inferiores se encargan del transporte de datos. La capa de transporte intenta suministrar un servicio de transporte de datos que aísla las capas superiores de los detalles de implementación del transporte. Específicamente, temas como la confiabilidad del transporte entre dos hosts es responsabilidad de la capa de transporte. Al proporcionar un servicio de comunicaciones, la capa de transporte establece, mantiene y termina adecuadamente los circuitos virtuales. Al proporcionar un servicio confiable, se utilizan dispositivos de detección y recuperación de errores de transporte. Si desea recordar a la Capa 4 en la menor cantidad de palabras posible, piense en calidad de servicio y confiabilidad. Capa 3: La capa de red La capa de red es una capa compleja que proporciona conectividad y selección de ruta entre dos sistemas de hosts que pueden estar ubicados en redes geográficamente distintas. Si desea recordar la Capa 3 en la menor cantidad de palabras posible, piense en selección de ruta, direccionamiento y enrutamiento. Capa 2: La capa de enlace de datos La capa de enlace de datos proporciona tránsito de datos confiable a través de un enlace físico. Al hacerlo, la capa de enlace de datos se ocupa del direccionamiento físico (comparado con el lógico) , la topología de red, el acceso a la red, la notificación de errores, entrega ordenada de tramas y control de flujo. Si desea recordar la Capa 2 en la menor cantidad de palabras posible, piense en tramas y control de acceso al medio. Capa 1: La capa física La capa física define las especificaciones eléctricas, mecánicas, de procedimiento y funcionales para activar, mantener y desactivar el enlace físico entre sistemas finales. Las características tales como niveles de voltaje, temporización de cambios de voltaje, velocidad de datos físicos, distancias de transmisión máximas, conectores físicos y otros atributos similares son definidos por las especificaciones de la capa física. Si desea recordar la Capa 1 en la menor cantidad de palabras posible, piense en señales y medios. El modelo de referencia de Interconexión de sistemas abiertos (OSI, Open System Interconnection) El modelo OSI representa los siete niveles de proceso mediante el cual los datos se empaquetan y se transmiten desde una aplicación emisora a través de cables físicos hacia la aplicación receptora. Comunicaciones en red La actividad de una red incluye el envío de datos de un equipo a otro. Este proceso complejo se puede dividir en tareas secuenciales discretas. El equipo emisor debe: 1. 2. 3. datos 4. 5. Reconocer los datos. Dividir los datos en porciones manejables. Añadir información a cada porción de datos para determinar la ubicación de los y para identificar al receptor. Añadir información de temporización y verificación de errores. Colocar los datos en la red y enviarlos por su ruta. El software de cliente de red trabaja a muchos niveles diferentes dentro de los equipos emisores y receptores. Cada uno de estos niveles, o tareas, es gestionado por uno o más protocolos. Estos protocolos, o reglas de comportamiento, son especificaciones estándar para dar formato a los datos y transferirlos. Cuando los equipos emisores y receptores siguen los mismos protocolos se asegura la comunicación. Debido a esta estructura en niveles, a menudo es referido como pila del protocolo. Con el rápido crecimiento del hardware y el software de red, se hizo necesario que los protocolos estándar pudieran permitir la comunicación entre hardware y software de distintos vendedores. Como respuesta, se desarrollaron dos conjuntos primarios de estándares: el modelo OSI y una modificación de ese estándar llamado Project 802. El modelo de referencia OSI En 1978, la International Standards Organization, ISO (Organización internacional de estándares) divulgó un conjunto de especificaciones que describían la arquitectura de red para la conexión de dispositivos diferentes. El documento original se aplicó a sistemas que eran abiertos entre sí, debido a que todos ellos podían utilizar los mismos protocolos y estándares para intercambiar información. En 1984, la ISO presentó una revisión de este modelo y lo llamó modelo de referencia de Interconexión de Sistemas Abiertos (OSI) que se ha convertido en un estándar internacional y se utiliza como guía para las redes. El modelo OSI es la guía mejor conocida y más ampliamente utilizada para la visualización de entornos de red. Los fabricantes se ajustan al modelo OSI cuando diseñan sus productos para red. Éste ofrece una descripción del funcionamiento conjunto de hardware y software de red por niveles para posibilitar las comunicaciones. El modelo también ayuda a localizar problemas proporcionando un marco de referencia que describe el supuesto funcionamiento de los componentes. Una arquitectura por niveles La arquitectura del modelo de referencia OSI divide la comunicación en red en siete niveles. Cada nivel cubre diferentes actividades, equipos o protocolos de red. El modelo OSI define cómo se comunica y trabaja cada nivel con los niveles inmediatamente superior e inferior. Por ejemplo, el nivel de sesión se comunica y trabaja con los niveles de presentación y de transporte. Cada nivel proporciona algún servicio o acción que prepara los datos para entregarlos a través de la red a otro equipo. Los niveles inferiores (1 y 2) definen el medio físico de la red y las tareas relacionadas, como la colocación de los bits de datos sobre las placas de red (NIC, Network Interface Cards) y el cable. Los niveles superiores definen la forma en que las aplicaciones acceden a los servicios de comunicación. Cuanto más alto es el nivel, más compleja es su tarea. Los niveles están separados entre sí por fronteras llamadas interfaces. Todas las demandas se pasan desde un nivel, a través de esta interfaz, hacia el siguiente. Cada nivel se basa en los estándares y actividades del nivel inferior. Relaciones entre los niveles del modelo OSI Cada nivel proporciona servicios al nivel inmediatamente superior y lo protege de los detalles de implementación de los servicios de los niveles inferiores. Al mismo tiempo, cada nivel parece estar en comunicación directa con su nivel asociado del otro equipo. Esto proporciona una comunicación lógica, o virtual, entre niveles análogos. En realidad, la comunicación real entre niveles adyacentes tiene lugar sólo en un equipo. En cada nivel, el software implementa las funciones de red de acuerdo con un conjunto de protocolos. Antes de pasar los datos de un nivel a otro, se dividen en paquetes, o unidades de información, que se transmiten como un todo desde un dispositivo a otro sobre una red. La red pasa un paquete de un nivel software a otro en el mismo orden de los niveles. En cada nivel, el software agrega información de formato o direccionamiento al paquete, que es necesaria para la correcta transmisión del paquete a través de la red. En el extremo receptor, el paquete pasa a través de los niveles en orden inverso. Una utilidad software en cada nivel lee la información del paquete, la elimina y pasa el paquete hacia el siguiente nivel superior. Cuando el paquete alcanza el nivel de aplicación, la información de direccionamiento ha sido eliminada y el paquete se encuentra en su formato original, con lo que es legible por el receptor. Con la excepción del nivel más bajo del modelo de redes OSI, ningún nivel puede pasar información directamente a su homólogo del otro equipo. En su lugar, la información del equipo emisor debe ir descendiendo por todos los niveles hasta alcanzar el nivel físico. En ese momento, la información se desplaza a través del cable de red hacia el equipo receptor y asciende por sus niveles hasta que alcanza el nivel correspondiente. Por ejemplo, cuando el nivel de red envía información desde el equipo A, la información desciende hacia los niveles de enlace de datos y físico de la parte emisora, atraviesa el cable y asciende los niveles físico y de enlace de datos de la parte receptora hasta su destino final en el nivel de red del equipo B. En un entorno cliente/servidor, un ejemplo del tipo de información enviada desde el nivel de red de un equipo A, hacia el nivel de red de un equipo B, debería ser una dirección de red, posiblemente con alguna información de verificación de errores agregada al paquete. La interacción entre niveles adyacentes ocurre a través de una interfaz. La interfaz define los servicios ofrecidos por el nivel inferior para el nivel superior y, lo que es más, define cómo se accede a dichos servicios. Además, cada nivel de un equipo aparenta estar en comunicación directa con el mismo nivel de otro equipo. Nivel o Capa de aplicación La capa de aplicación proporciona los servicios utilizados por las aplicaciones para que los usuarios se comuniquen a través de la red. Algunos ejemplos de servicios, son: Transporte de correo electrónico. Gran variedad de aplicaciones pueden utilizar un protocolo para gestionar el correo electrónico. Los diseñadores de aplicaciones que recurren al correo electrónico no necesitan desarrollar sus propios programas para gestionar el correo. Además, las aplicaciones que comparten una misma interfaz de correo pueden intercambiar mensajes utilizando el gestor de correo electrónico. Acceso a archivos remotos. Las aplicaciones locales pueden acceder a los archivos ubicados en los nodos remotos. Ejecución de tareas remotas. Las aplicaciones locales pueden iniciar y controlar procesos en otros nodos. Directorios. La red puede ofrecer un directorio de recursos, incluyendo nombres de nodos lógicos. El directorio permite que las aplicaciones accedan a los recursos de la red utilizando nombres lógicos en lugar de identificaciones numéricas abstractas. Administración de la red. Los protocolos de administración de la red permiten que varias aplicaciones puedan acceder a la información administrativa de la red. Es frecuente encontrar el término interfaz de programa de aplicación (API) asociado a los servicios de la capa de aplicación. Un API es un conjunto de reglas que permiten que las aplicaciones escritas por los usuarios puedan acceder a los servicios de un sistema de software. Los diseñadores de programas y protocolos suelen proporcionar varias API para que los programadores puedan adaptar fácilmente sus aplicaciones y utilizar los servicios disponibles en sus productos. Un API habitual de UNIX es Berkeley Sockets; Microsoft lo ha implementado denominándolo Windows Sockets. Nivel o Capa de presentación La capa de presentación se responsabiliza de presentar los datos a la capa de aplicación. En ciertos casos, la capa de presentación traduce los datos directamente de un formato a otro. Las grandes computadoras IBM utilizan una codificación de caracteres denominada EBCDIC, mientras que las computadoras restantes utilizan el conjunto de caracteres ASCII. Por ejemplo, si se transmiten datos de una computadora EBCDIC a otra ASCII, la capa de presentación podría encargarse de traducir de un conjunto de caracteres al otro. Además, la representación de los datos numéricos varía entre distintas arquitecturas de computadoras y debe convertirse cuando se transfieren datos de una máquina a otra. Una técnica habitual para mejorar la transferencia de datos consiste en convertir todos los datos a un formato estándar antes de su transmisión. Puede que este formato estándar no sea el formato nativo de cualquier computadora, pero cualquiera de ellas puede configurarse para recibir datos en formato estándar y convertirlos en su formato nativo. Las normas OSI definen la Abstract Syntax Representation, Revision 1 (ASN.1 -Representación de sintaxis abstracta, revisión 1) como sintaxis estándar para los datos a nivel de la capa de presentación. Aunque el conjunto de protocolos TCP/IP no defina formalmente una capa de presentación, el protocolo External Data Representation (XDR -Representación de datos externos), utilizado por el sistema de archivos de red (NFS -Network File System), cumple una función similar. Otras funciones que pueden corresponder a la capa de presentación son la encriptación/desencriptación y compresión/descompresión de datos. La capa de presentación es la que se implementa con menor frecuencia de las capas OSI. Se han definido pocos protocolos para esta capa. En la mayoría de los casos, las aplicaciones de red desempeñan las funciones asociadas con la capa de presentación. Nivel o Capa de sesión El control de los diálogos entre distintos nodos es competencia de la capa de sesión. Un diálogo es una conversación formal en la que dos nodos acuerdan un intercambio de datos. La comunicación puede producirse en tres modos de diálogo Simple (Simplex). Un nodo transmite de manera exclusiva mientras otro recibe de manera exclusiva. Semidúplex (Half-duplex). Un solo nodo puede transmitir en un momento dado, y los nodos se turnan para transmitir. Dúplex total (Full-duplex). Los nodos pueden transmitir y recibir simultáneamente. La comunicación dúplex total suele requerir un control de flujo que asegure que ninguno de los dispositivos envía datos a mayor velocidad de la que el otro dispositivo puede recibir. Las sesiones permiten que los nodos se comuniquen de manera organizada. Cada sesión tiene tres fases: 1. Establecimiento de la conexión. Los nodos establecen contacto. Negocian las reglas de la comunicación incluyendo los protocolos utilizados y los parámetros de comunicación. 2. Transferencia de datos. Los nodos inician un diálogo para intercambiar datos. 3. Liberación de la conexión. Cuando los nodos no necesitan seguir comunicados, inician la liberación ordenada de la sesión. Los pasos 1 y 3 representan una carga de trabajo adicional para el proceso de comunicación. Esta carga puede no ser deseable para comunicaciones breves. Por ejemplo, considere la comunicación necesaria para una tarea administrativa de la red. Cuando una red administra varios dispositivos, éstos envían periódicamente un breve informe de estado que suele constar de una sola trama. Si todos estos mensajes se enviaran como parte de una sesión formal, las fases de establecimiento y liberación de la conexión transmitirían más datos que los del propio mensaje. En estas situaciones, se comunica sin conexión. El nodo emisor se limita a transmitir los datos dando por sentado que el receptor está disponible. Una sesión con conexión es aconsejable cuando la comunicación es compleja. Imagine la transmisión de una gran cantidad de datos de un nodo a otro. Si no se utilizaran controles formales, un solo error durante la transferencia obligaría a enviar de nuevo todo el archivo. Una vez establecida la sesión, los nodos implicados pueden pactar un procedimiento de comprobación. Si se produce un error, el nodo emisor sólo debe retransmitir los datos enviados desde la última comprobación. El proceso de gestión de actividades complejas se denomina administración de actividad. Nivel o Capa de transporte Todas las tecnologías de red establecen un tamaño máximo para las tramas que pueden ser enviadas a través de la red. Por ejemplo, Ethernet limita el tamaño del campo de datos a 1.500 bytes. Este límite es necesario por varias razones: Las tramas de tamaño reducido mejoran el rendimiento de una red compartida por muchos dispositivos. Si el tamaño de las tramas fuera ilimitado, su transmisión podría monopolizar la red durante un tiempo excesivo. Las tramas pequeñas permiten que los dispositivos se turnen a intervalos cortos de tiempo y tengan más opciones de acceder a la red. Al utilizar tramas pequeñas, es necesario volver a transmitir menos datos cuando se produce un error. Si un mensaje de 100 KB contiene un error en un solo byte, es preciso volver a transmitir los 100 KB. Si el mensaje se divide en 100 tramas de 1 KB, basta con retransmitir una sola trama de 1 KB para corregir el error. Una de las responsabilidades de la capa de transporte consiste en dividir los mensajes en fragmentos que coincidan con el límite del tamaño de la red. En el lado receptor, la capa de transporte reensambla los fragmentos para recuperar el mensaje original. Cuando un mensaje se divide en varios fragmentos, aumenta la posibilidad de que los segmentos no se reciban en el orden correcto. Al recibir los paquetes, la capa de transporte debe recomponer el mensaje reensamblando los fragmentos en el orden correcto. Para ello, la capa de transporte incluye un número de secuencia en la cabecera del mensaje. Muchas computadoras son multitarea y ejecutan varios programas simultáneamente. Por ejemplo, la estación de trabajo de un usuario puede estar ejecutando al mismo tiempo un proceso para transferir archivos a otra computadora, recuperando el correo electrónico y accediendo a una base de datos de la red. La capa de transporte debe entregar los mensajes del proceso de una computadora al proceso correspondiente de la computadora de destino. Según el modelo OSI, la capa de transporte asigna una identificación de punto de acceso a servicio (SAP) a cada paquete (puerto es el término TCP/IP correspondiente a un punto de acceso a servicio). La ID de un SAP es una dirección que identifica el proceso que ha originado el mensaje. La ID permite que la capa de transporte del nodo receptor encamine el mensaje al proceso adecuado. La identificación de mensajes de distintos procesos para posibilitar su transmisión a través de un mismo medio de red se denomina multiplexión. El procedimiento de recuperación de mensajes y de su encaminamiento a los procesos adecuados se denomina demultiplexión. Esta práctica es habitual en las redes diseñadas para permitir que varios diálogos compartan un mismo medio de red. Dado que una capa puede admitir distintos protocolos, la multiplexión y demultiplexión puede producirse en distintas capas. Algunos ejemplos: Transporte de distintos tipos de tramas Ethernet a través del mismo medio (capa de enlace de datos). Soporte simultáneo de NWLink y de TCP/IP en computadoras Windows NT (capa de enlace de datos). Mensajes de varios protocolos de transporte como TCP y UDP en un sistema TCP/IP (capa de transporte). Mensajes de distintos protocolos de aplicación (como Telnet, FTP y SMTP) en un host UNIX (capas de sesión y superiores). Aunque las capas de enlace de datos y de red pueden encargarse de detectar errores en los datos transmitidos, además esta responsabilidad suele recaer sobre la capa de transporte. La capa de transporte puede realizar dos tipos de detección de errores: Entrega fiable. Entrega fiable no significa que los errores no puedan ocurrir, sino que los errores se detectan cuando ocurren. La recuperación puede consistir únicamente en notificar el error a los procesos de las capas superiores. Sin embargo, la capa de transporte suele solicitar que el paquete erróneo se transmita nuevamente. Entrega no fiable. No significa que los errores puedan producirse, sino que la capa de transporte no los verifica. Dado que la comprobación requiere cierto tiempo y reduce el rendimiento de la red, es frecuente que se utilice la entrega no fiable cuando se confía en el funcionamiento de la red. Este es el caso de la mayoría de redes de área local. La entrega no fiable es preferible cuando los mensajes constan de un alto número de paquetes. Con frecuencia, se denomina entrega de datagramas y cada paquete transmitido de este modo se denomina datagrama. La idea de que siempre es preferible utilizar la entrega fiable puede constituir un error a la hora de diseñar la red. La entrega no fiable es aconsejable en al menos dos situaciones: cuando la red es altamente fiable y es necesario optimizar su rendimiento o cuando los paquetes contienen mensajes completos y la pérdida de un paquete no plantea un problema crítico. Nivel o Capa de red Las redes más pequeñas normalmente constan de una sola red de área local, pero la mayoría de las redes deben subdividirse. Una red que consta de varios segmentos de red suele denominarse interred (no confundir con Internet). Las subdivisiones de una interred pueden planificarse para reducir el tráfico de los segmentos o para aislar las redes remotas conectadas a través de medios de comunicación más lentos. Cuando las redes se subdividen, no es posible dar por sentado que los mensajes se entregan en la red de área local. Es necesario recurrir a un mecanismo que dirija los mensajes de una red a otra. Para entregar mensajes en una interred, cada red debe estar identificada de manera única por una dirección de red. Al recibir un mensaje de las capas superiores, la capa de red añade una cabecera al mensaje que incluye las direcciones de red de origen y destino. Esta combinación de datos sumada a la capa de red se denomina paquete. La información de la dirección de red se utiliza para entregar el mensaje a la red correcta. A continuación, la capa de enlace de datos puede utilizar la dirección del nodo para realizar la entrega del mensaje. El proceso de hacer llegar los paquetes a la red correcta se denomina encaminamiento, y los dispositivos que encaminan los paquetes se denominan encaminadores. Una interred tiene dos tipos de nodos: Los nodos finales proporcionan servicios a los usuarios. Utilizan una capa de red para añadir las direcciones de red a los paquetes, pero no llevan a cabo el encaminamiento. En ocasiones, los nodos finales se denominan sistemas finales (terminología OSI) o hosts (terminología TCP/IP). Los encaminadores incorporan mecanismos especiales para realizar el encaminamiento. Dado que se trata de una tarea compleja, los encaminadores suelen ser dispositivos dedicados que no proporcionan servicios a los usuarios finales. En ocasiones, los encaminadores se denominan sistemas intermedios (terminología OSI) o gateways (terminología TCP/IP). La capa de red opera con independencia del medio físico, que es competencia de la capa física. Dado que los encaminadores son dispositivos de la capa de red, pueden utilizarse para intercambiar paquetes entre distintas redes físicas. Por ejemplo, un encaminador puede enlazar una red Ethernet a una red Token Ring. Los encaminadores también se utilizan frecuentemente para conectar una red de área local, por ejemplo Ethernet, a un red de área extensa, por ejemplo ATM. Nivel o Capa de enlace de datos Los dispositivos que pueden comunicarse a través de una red suelen denominarse nodos (en ocasiones se denominan estaciones y dispositivos). La capa de enlace de datos es responsable de proporcionar la comunicación nodo a nodo en una misma red de área local. Para ello, la capa de enlace de datos debe realizar dos funciones. Debe proporcionar un mecanismo de direcciones que permita entregar los mensajes en los nodos correctos y debe traducir los mensajes de las capas superiores en bits que puedan ser transmitidos por la capa física. Cuando la capa de enlace de datos recibe un mensaje, le da formato pare transformarlo en una trama de datos (denominada igualmente paquete). Las secciones de una trama de datos se denominan campos. Los campos del ejemplo son los siguientes: Indicador de inicio. Un patrón de bits que indica el inicio de una trama de datos. Dirección de origen. La dirección del nodo que realiza el envío se incluye para poder dirigir las respuestas al mensaje. Dirección de destino. Cada nodo queda identificado por una dirección. La capa de enlace de datos del remitente añade la dirección de destino a la trama. La capa de enlace de datos del destinatario examine la dirección de destino para identificar los mensajes que debe recibir. Control. En muchos casos es necesario incluir información adicional de control. Cada protocolo determine la información específica. Datos. Este campo contiene todos los datos enviados a la capa de enlace de datos por las capas superiores del protocolo. Control de errores. Este campo contiene información que permite que el nodo destinatario determine si se ha producido algún error durante la transmisión. El sistema habitual es la verificación de redundancia cíclica (CRC), que consiste en un valor calculado que resume todos los datos de la trama. El nodo destinatario calcula nuevamente el valor y, si coincide con el de la trama, entiende que la trama se ha transmitido sin errores. La entrega de tramas resulta muy sencilla en una red de área local. Un nodo remitente se limita a transmitir la trama. Cada nodo de la red ve la trama y examina su dirección de destino. Cuando coincide con su dirección, la capa de enlace de datos del nodo recibe la trama y la envía a la siguiente capa de la pile. Nivel o Capa física La capa física comunica directamente con el medio de comunicación y tiene dos responsabilidades: enviar bits y recibir bits. Un dígito binario o bit es la unidad básica de información en comunicación de datos. Un bit sólo puede tener dos valores, 1 ó 0, representados por distintos estados en el medio de comunicación. Otras capas se responsabilizan del agrupamiento de los bits de forma que representen datos de un mensaje. Los bits se representan por cambios en las señales del medio de la red. Algunos cableados representan los unos y los ceros con distintos voltajes, otros utilizan tonos de audio distintos y otros utilizan métodos más sofisticados, por ejemplo transiciones de estado (cambios de alto a bajo voltaje y viceversa). Se utiliza una gran variedad de medios en la comunicación de datos; entre otros, cables eléctricos, fibras ópticas, ondas de luz o de radio y microondas. El medio empleado puede variar: para sustituirlo, basta con utilizar un conjunto distinto de protocolos de capa física. Las capas superiores son totalmente independientes del proceso utilizado para transmitir los bits a través del medio de la red. Una distinción importante es que la capa física OSI no describe los medios, estrictamente hablando. Las especificaciones de la capa física describen el modo datos en que los datos se codifican en señales del medio y las características de la interfaz de conexión con el medio, pero no describen el medio en sí. Sin embargo, en la práctica, la mayoría de las normas de las capas físicas incluyen las características de la capa física OSI y del medio. Paquetes de datos y el modelo OSI El proceso de creación de paquetes se inicia en el nivel de aplicación del modelo OSI, donde se generan los datos. La información a enviar a través de la red comienza en el nivel de aplicación y desciende a lo largo de los siete niveles. En cada nivel, se agrega a los datos información relevante de ese nivel. Esta información es utilizada por el correspondiente nivel del equipo receptor. El nivel de enlace de datos del equipo receptor, por ejemplo, leerá la información agregada en el nivel de enlace de datos del equipo emisor. En el nivel de transporte, el bloque de datos original se divide en los paquetes reales. El protocolo define la estructura de los paquetes utilizados por los dos equipos. Cuando el paquete alcanza el nivel de transporte, se agrega una secuencia de información que guía al equipo receptor en la desagrupación de los datos de los paquetes. Cuando, finalmente, los paquetes pasan a través del nivel físico al cable, contienen información de cada uno de los otros seis niveles. Direccionamiento de paquetes La mayoría de los paquetes de la red se dirigen a un equipo específico y, como resultado, obtienen la atención de un único equipo. Cada tarjeta de red ve todos los paquetes enviados en su segmento de cable, pero interrumpe el equipo sólo si la dirección del paquete coincide con la dirección individual de la tarjeta. De forma alternativa, se puede utilizar una dirección de tipo difusión múltiple. Los paquetes enviados con una dirección de tipo difusión múltiple pueden recibir la atención simultánea de varios equipos de la red. En situaciones que envuelven grandes redes que cubren grandes regiones (o incluso países) y ofrecen varios caminos de comunicación posibles, la conectividad y la conmutación de componentes de la red utilizan la información de direccionamiento del paquete para determinar el mejor camino para los paquetes. Cómo dirigir los paquetes Las componentes de red utilizan la información de direccionamiento de los paquetes para dirigir los paquetes a sus destinos o para mantenerlos alejados de las posiciones de la red a las que no pertenecen. Las dos funciones siguientes juegan un papel principal en la dirección apropiada de paquetes: Reenvío de paquetes. Los equipos envían un paquete al siguiente componente de red apropiado en base a la dirección del encabezado del paquete. Filtrado de paquetes. Los equipos utilizan criterios, como una dirección, para seleccionar los paquetes específicos. Windows NT y el modelo OSI Los fabricantes de redes utilizan el modelo OSI en el diseño de sus productos. Cuando cada uno sigue el modelo, existe una gran probabilidad de que diferentes sistemas puedan comunicarse. Una deficiencia del modelo procede del hecho de que muchos fabricantes crearon sus productos antes de que el modelo fuera aceptado; estos productos prematuros puede que no sigan el modelo exactamente. Niveles OSI y Windows NT Para simplificar el modelo, Windows NT comprime los siete niveles en sólo tres: controladores del sistema de archivos, protocolos de transporte y controladores de la tarjeta de red. Windows NT utiliza controladores para proporcionar comunicación entre el sistema operativo y la red. Un controlador es un programa de control específico del dispositivo que permite a un equipo trabajar con un dispositivo particular, como una impresora o una unidad de disco. Cada vez que se instala un nuevo elemento hardware, como una impresora, tarjeta de sonido o tarjeta de red, se necesitan instalar los controladores software que hacen funcionar la tarjeta. Controladores del sistema de archivos Los controladores del sistema de archivos funcionan en los niveles de aplicación, de presentación y de sesión del modelo OSI. Cuando estos controladores detectan que una aplicación está solicitando recursos de un sistema remoto, redirigen la demanda al sistema apropiado. Ejemplos de estos controladores incluyen el sistema de archivos de Windows NT (NTFS) y la tabla de asignación de archivos (FAT) y las aplicaciones de servicios instaladas en Windows NT Server y Windows NT Workstation. Protocolos de transporte Los protocolos de transporte operan en los niveles de transporte y de red del modelo OSI. Son los responsables de agregar información de la dirección software a los datos y de garantizar la fiabilidad de la transmisión. Los protocolos de transporte se vinculan con la tarjeta de red (NIC) para ofrecer comunicación. Durante la instalación y la configuración de Windows NT, siempre se deben enlazar estos protocolos a una tarjeta de red específica. Controladores de la tarjeta de red (NIC) Los controladores de la tarjeta de red (NIC) funcionan en los niveles de enlace de datos y físico del modelo OSI. Son responsables de agregar información de la dirección hardware al paquete de datos y de dar formato a los datos para la transmisión a través de la tarjeta de red (NIC) y el cable. Los controladores de la tarjeta de red (NIC) son independientes de protocolo, permitiendo que los sistemas basados en Windows NT transporten datos a una variedad de sistemas de red. Interfaces de Windows NT Windows NT soporta muchos redirectores, protocolos de transporte y tarjetas de red diferentes. En vista de las numerosas combinaciones posibles, era necesario desarrollar un método de manejo de interacciones entre ellas. Para resolver este problema, Microsoft desarrolló interfaces comunes (niveles frontera) para que actuaran como traductores entre cada nivel. Así, siempre que se escribiera alguna componente de la red para comunicarse con las interfaces frontera se podría utilizar con el modelo. Interfaces de programación de aplicaciones (API, Application Programming Intefaces) Las interfaces de programación de aplicaciones (API) son rutinas del sistema que ofrecen a los programadores acceso a los servicios proporcionados por el sistema operativo. Las API para redes de Windows NT se encuentran entre las aplicaciones de usuario y los controladores y redirectores del sistema de archivos. Estas API permiten que una aplicación controle o sea controlada por otras aplicaciones. Son responsables de establecer una sesión entre el emisor y el receptor de la red. Windows NT admite varias API para redes. Interfaces de controlador de transporte (TDI, Transport Driver Interfaces) Las interfaces del controlador de transporte (TDI) operan entre los controladores del sistema de archivos y los protocolos de transporte. Éstos permitirán que cualquier protocolo escriba en el TDI para comunicarse con los controladores del sistema de archivos. Especificaciones de interfaz de controlador de red (NDIS, Network Driver Interface Specifications) Las especificaciones de interfaz de controlador de red (NDIS) actúan entre los protocolos de transporte y los controladores de la tarjeta de red (NIC). Siempre que un controlador de tarjeta de red se escriba en los estándares NDIS, se comunicará con los protocolos de transporte. 1.7.2 Proceso de encapsulado de datos. Usted sabe que todas las comunicaciones de una red parten de un origen y se envían a un destino, y que la información que se envía a través de una red se denomina datos o paquete de datos. Si un computador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento. El encapsulamiento rodea los datos con la información de protocolo necesaria antes de que se una al tránsito de la red. Por lo tanto, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información. (Nota: La palabra "encabezado" significa que se ha agregado la información correspondiente a la dirección). Para ver cómo se produce el encapsulamiento, examine la forma en que los datos viajan a través de las capas como lo ilustra la siguiente figura . Una vez que se envían los datos desde el origen, como se describe en la siguiente figura, viajan a través de la capa de aplicación y recorren todas las demás capas en sentido descendiente. Como puede ver, el empaquetamiento y el flujo de los datos que se intercambian experimentan cambios a medida que las redes ofrecen sus servicios a los usuarios finales. Las redes deben realizar los siguientes cinco pasos de conversión a fin de encapsular los datos: 1. Crear los datos. Cuando un usuario envía un mensaje de correo electrónico, sus caracteres alfanuméricos se convierten en datos que pueden recorrer la internetwork. 2. Empaquetar los datos para ser transportados de extremo a extremo. Los datos se empaquetan para ser transportados por la internetwork. Al utilizar segmentos, la función de transporte asegura que los hosts del mensaje en ambos extremos del sistema de correo electrónico se puedan comunicar de forma confiable. 3. Anexar (agregar) la dirección de red al encabezado. Los datos se colocan en un paquete o datagrama que contiene el encabezado de red con las direcciones lógicas de origen y de destino. Estas direcciones ayudan a los dispositivos de red a enviar los paquetes a través de la red por una ruta seleccionada. 4. Anexar (agregar) la dirección local al encabezado de enlace de datos. Cada dispositivo de la red debe poner el paquete dentro de una trama. La trama le permite conectarse al próximo dispositivo de red conectado directamente en el enlace. Cada dispositivo en la ruta de red seleccionada requiere el entramado para poder conectarse al siguiente dispositivo. 5. Realizar la conversión a bits para su transmisión. La trama debe convertirse en un patrón de unos y ceros (bits) para su transmisión a través del medio (por lo general un cable). Una función de temporización permite que los dispositivos distingan estos bits a medida que se trasladan por el medio. El medio en la internetwork física puede variar a lo largo de la ruta utilizada. Por ejemplo, el mensaje de correo electrónico puede originarse en una LAN, cruzar el backbone de un campus y salir por un enlace WAN hasta llegar a su destino en otra LAN remota. Los encabezados y la información final se agregan a medida que los datos se desplazan a través de las capas del modelo OSI. 1.8 Topologías de redes. La topología define la estructura de una red. La definición de topología puede dividirse en dos partes. la topología física, que es la disposición real de los cables (los medios) y la topología lógica, que define la forma en que los hosts acceden a los medios. Las topologías físicas que se utilizan comúnmente son de bus, de anillo, en estrella, en estrella extendida, jerárquica y en malla. Estas topologías se ilustran en el gráfico. La topología de bus utiliza un único segmento backbone (longitud del cable) al que todos los hosts se conectan de forma directa. La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable. La topología en estrella conecta todos los cables con un punto central de concentración. Por lo general, este punto es un hub o un switch, que se describirán más adelante en este capítulo. La topología en estrella extendida se desarrolla a partir de la topología en estrella. Esta topología conecta estrellas individuales conectando los hubs/switches. Esto, como se describe más adelante en este capítulo, permite extender la longitud y el tamaño de la red. La topología jerárquica se desarrolla de forma similar a la topología en estrella extendida pero, en lugar de conectar los hubs/switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología. La topología en malla se utiliza cuando no puede existir absolutamente ninguna interrupción en las comunicaciones, por ejemplo, en los sistemas de control de una central nuclear. De modo que, como puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Esto también se refleja en el diseño de la Internet, que tiene múltiples rutas hacia cualquier ubicación. La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens. La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. Las estaciones no siguen ningún orden para utilizar la red, el orden es el primero que entra, el primero que se sirve. Esta es la forma en que funciona Ethernet y usted aprenderá mucho más al respecto más adelante durante este semestre. El segundo tipo es transmisión de tokens. La transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token, eso significa que el host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir. Topología de red de bus lineal Punto de vista matemático La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos Punto de vista físico Cada host está conectado a un cable común. En esta topología, los dispositivos clave son aquellos que permiten que el host se "una" o se "conecte" al único medio compartido. Una de las ventajas de esta topología es que todos los hosts están conectados entre sí y, de ese modo, se pueden comunicar directamente. Una desventaja de esta topología es que la ruptura del cable hace que los hosts queden desconectados Punto de vista lógico Una topología de bus hace posible que todos los dispositivos de la red vean todas las señales de todos los demás dispositivos.. Esto representa una ventaja si desea que toda la información se dirija a todos los dispositivos. Sin embargo, puede representar una desventaja ya que es común que se produzcan problemas de tráfico y colisiones. Topología de red de anillo Punto de vista matemático Una topología de anillo se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado con sólo dos nodos adyacentes. Punto de vista físico La topología muestra todos los dispositivos interconectados directamente en una configuración conocida como cadena margarita. Esto se parece a la manera en que el mouse de un computador Apple se conecta al teclado y luego al computador. Punto de vista lógico Para que la información pueda circular, cada estación debe transferir la información a la estación adyacente. Topología de red de anillo doble Punto de vista matemático Una topología en anillo doble consta de dos anillos concéntricos, cada uno de los cuales se conecta solamente con el anillo vecino adyacente. Los dos anillos no están conectados. Punto de vista físico La topología de anillo doble es igual a la topología de anillo, con la diferencia de que hay un segundo anillo redundante que conecta los mismos dispositivos. En otras palabras, para incrementar la confiabilidad y flexibilidad de la red, cada dispositivo de networking forma parte de dos topologías de anillo independiente. Punto de vista lógico La topología de anillo doble actúa como si fueran dos anillos independientes, de los cuales se usa solamente uno por vez. Topología de red en estrella Punto de vista matemático La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos y no permite otros enlaces. Punto de vista físico La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces. La ventaja principal es que permite que todos los demás nodos se comuniquen entre sí de manera conveniente. La desventaja principal es que si el nodo central falla, toda la red se desconecta. Según el tipo de dispositivo para networking que se use en el centro de la red en estrella, las colisiones pueden representar un problema. Punto de vista lógico El flujo de toda la información pasaría entonces a través de un solo dispositivo. Esto podría ser aceptable por razones de seguridad o de acceso restringido, pero toda la red estaría expuesta a tener problemas si falla el nodo central de la estrella. Topología de red en estrella extendida Punto de vista matemático La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Punto de vista físico La topología en estrella extendida tiene una topología en estrella central, en la que cada uno de los nodos finales actúa como el centro de su propia topología en estrella. La ventaja de esto es que el cableado es más corto y limita la cantidad de dispositivos que se deben interconectar con cualquier nodo central. Punto de vista lógico La topología en estrella extendida es sumamente jerárquica, y "busca" que la información se mantenga local. Esta es la forma de conexión utilizada actualmente por el sistema telefónico. Topología de red en árbol Punto de vista matemático La topología en árbol es similar a la topología en estrella extendida; la diferencia principal es que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal desde el que se ramifican los demás nodos. Hay dos tipos de topologías en árbol: El árbol binario (cada nodo se divide en dos enlaces); y el árbol backbone (un tronco backbone tiene nodos ramificados con enlaces que salen de ellos). Punto de vista físico El enlace troncal es un cable con varias capas de ramificaciones. Punto de vista lógico El flujo de información es jerárquico. Topología de red irregular Punto de vista matemático En la topología de red irregular no existe un patrón obvio de enlaces y nodos. Punto de vista físico El cableado no sigue un patrón; de los nodos salen cantidades variables de cables. Las redes que se encuentran en las primeras etapas de construcción, o se encuentran mal planificadas, a menudo se conectan de esta manera. Punto de vista lógico Los enlaces y nodos no forman ningún patrón evidente. Topología de red completa (en malla) Punto de vista matemático En una topología de malla completa, cada nodo se enlaza directamente con los demás nodos. Punto de vista físico Este tipo de cableado tiene ventajas y desventajas muy específicas. Una de las ventajas es que cada nodo está físicamente conectado a todos los demás nodos (lo cual crea una conexión redundante). Si fallara cualquier enlace, la información podrá fluir a través de una gran cantidad de enlaces alternativos para llegar a su destino. Además, esta topología permite que la información circule por varias rutas al regresar por la red. La desventaja física principal es que es que sólo funciona con una pequeña cantidad de nodos, ya que de lo contrario la cantidad de medios necesarios para los enlaces y la cantidad de conexiones con los enlaces se torna abrumadora. Punto de vista lógico El comportamiento de una topología de malla completa depende enormemente de los dispositivos utilizados. Topología de red celular Punto de vista matemático La topología celular está compuesta por áreas circulares o hexagonales, cada una de las cuales tiene un nodo individual en el centro. Punto de vista físico La topología celular es un área geográfica dividida en regiones (celdas) para los fines de la tecnología inalámbrica – una tecnología que se torna más importante cada día. En la topología celular, no hay enlaces físicos, sólo ondas electromagnéticas. A veces los nodos receptores se desplazan (por ej., teléfono celular de un automóvil) y a veces se desplazan los nodos emisores (por ej., enlaces de comunicaciones satelitales). La ventaja obvia de una topología celular (inalámbrica) es que no existe ningún medio tangible aparte de la atmósfera terrestre o el del vacío del espacio exterior (y los satélites). Las desventajas son que las señales se encuentran presentes en cualquier lugar de la celda y, de ese modo, pueden sufrir disturbios (provocados por el hombre o por el medio ambiente) y violaciones de seguridad (monitoreo electrónico y robo de servicio). Punto de vista lógico Las tecnologías celulares se pueden comunicar entre sí directamente (aunque los límites de distancia y la interferencia a veces hacen que esto sea sumamente difícil), o se pueden comunicar solamente con las celdas adyacentes (lo que es sumamente ineficiente). Como norma, las topologías basadas en celdas se integran con otras topologías, ya sea que usen la atmósfera o los satélites. Unidad 2 Componentes de una red. 2.7 Estaciones de Trabajo. Las estaciones de trabajo pueden utilizar las tarjetas de red más baratas, si las actividades principales en la red están limitadas a aplicaciones, como procesamiento de texto, que no generan altos volúmenes de tráfico en la red. Aunque recuerde que en una red en bus, una tarjeta de red lenta puede incrementar el tiempo de espera para todos los usuarios. Otras aplicaciones, como las de bases de datos o ingeniería, se vendrán abajo rápidamente con tarjetas de red inadecuadas. Estación de trabajo (workstation): Es una PC que se encuentra conectada físicamente al servidor por medio de algún tipo de cable. En la mayor parte de los casos esta computadora ejecuta su propio sistema operativo y, posteriormente, se añade al ambiente de la red. http://ciberhabitat.gob.mx/museo/cerquita/redes/fundamentos/04.htm 2.7.1 Plataformas. 2.8 Medios de transmisión. Medios de transmisión guiados En medios guiados , el ancho de banda o velocidad de transmisión dependen de la distancia y de si el enlace es punto a punto o multipunto . Medios guiados, que incluyen a los cables metálicos (cobre, aluminio, etc.) y de fibra óptica. El cable se instala normalmente en el interior de los edificios o bien en conductos subterráneos. Los cables metálicos pueden presentar una estructura coaxial o dePar trenzado, y el cobre es el material preferido como núcleo de los elementos de transmisión de las redes. El cable de fibra óptica se encuentra Par trenzado Pares trenzados apantallados y sin apantallar Cable coaxial. Fibra óptica La información que maneja una computadora es de origen digital, encontrándose codificada a partir de un alfabeto de dos símbolos que se corresponden con 1 y 0 o, lo que es lo mismo, presencia o ausencia de una señal eléctrica. Para la transmisión de esta información entre dispositivos distintos a larga o corta distancia debe utilizarse un medio físico que asegure su correcta recepción en el destino. Existen dos tipos de medios de transmisión de datos: Medios guiados, que incluyen a los cables metálicos (cobre, aluminio, etc.) y de fibra óptica. El cable se instala normalmente en el interior de los edificios o bien en conductos subterráneos. Los cables metálicos pueden presentar una estructura coaxial o de par trenzado, y el cobre es el material preferido como núcleo de los elementos de transmisión de las redes. El cable de fibra óptica se encuentra disponible en forma de hebras simples o múltiples de plástico o fibra de vidrio. Medios no guiados, relativos a las técnicas de transmisión de señales a través del aire y del espacio entre transmisor y receptor (radioenlaces). La transmisión por infrarrojos y microondas cae dentro de esta categoría. 2.8.1 Medios Guiados. Par trenzado El cable de par trenzado consiste en un núcleo de hilos de cobre rodeados por un aislante, los cuales se encuentran trenzados por pares, de forma que cada par forma un circuito que puede transmitir datos. Un cable consta de un haz de uno o más pares trenzados rodeados por un aislante. El par trenzado sin apantallar (UTP, Unshielded Twisted Pair) es usual en la red telefónica, y el par trenzado apantallado (STP, Shielded Twisted Pair) proporciona protección frente a la diafonía. Precisamente es el trenzado el que previene los problemas de interferencia. Conforma una tecnología relativamente barata, bien conocida y sencilla de instalar. Es el cable utilizado en la mayoría de las instalaciones de redes de comunicaciones. Sin embargo, presenta una serie de características eléctricas que imponen ciertos límites a la transmisión. Por ejemplo, es resistente al flujo de electrones, lo que limita la distancia de transmisión. Produce radiación de energía en forma de señales que se pueden detectar, además de ser sensible a la radiación externa que puede producir distorsión sobre la transmisión. Sin embargo, los productos en uso admiten una velocidad de transmisión sobre Ethernet de hasta 100 Mbps. Cable de par trenzado En su forma más simple, un cable de par trenzado consta de dos hilos de cobre aislados y entrelazados. Hay dos tipos de cables de par trenzado: cable de par trenzado sin apantallar (UTP) y par trenzado apantallado (STP). A menudo se agrupan una serie de hilos de par trenzado y se encierran en un revestimiento protector para formar un cable. El número total de pares que hay en un cable puede variar. El trenzado elimina el ruido eléctrico de los pares adyacentes y de otras fuentes como motores, relés y transformadores. Cable de par trenzado sin apantallar (UTP) El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par trenzado y ha sido el cableado LAN más utilizado en los últimos años. El segmento máximo de longitud de cable es de 100 metros. El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones UTP dictan el número de entrelazados permitidos por pie de cable; el número de entrelazados depende del objetivo con el que se instale el cable. La especificación 568A Commercial Building Wiring Standard de la Asociación de Industrias Electrónicas e Industrias de la Telecomunicación (EIA/TIA) especifica el tipo de cable UTP que se va a utilizar en una gran variedad de situaciones y construcciones. El objetivo es asegurar la coherencia de los productos para los clientes. Estos estándares definen cinco categorías de UTP: Categoría 1. Hace referencia al cable telefónico UTP tradicional que resulta adecuado para transmitir voz, pero no datos. La mayoría de los cables telefónicos instalados antes de 1983 eran cables de Categoría 1. Categoría 2. Esta categoría certifica el cable UTP para transmisión de datos de hasta 4 megabits por segundo (mbps), Este cable consta de cuatro pares trenzados de hilo de cobre. Categoría 3. Esta categoría certifica el cable UTP para transmisión de datos de hasta 16 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre con tres entrelazados por pie. Categoría 4. Esta categoría certifica el cable UTP para transmisión de datos de hasta 20 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre. Categoría 5. Esta categoría certifica el cable UTP para transmisión de datos de hasta 100 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre. Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece mejores prestaciones que el estándar de Categoría 5. Para ello se deben cumplir especificaciones tales como una atenuación al ratio crosstalk (ARC) de 10 dB a 155 Mhz y 4 pares para la comprobación del Power Sum NEXT. Este estándar todavía no está aprobado Nivel 7. Proporciona al menos el doble de ancho de banda que la Categoría 5 y la capacidad de soportar Gigabit Ethernet a 100 m. El ARC mínimo de 10 dB debe alcanzarse a 200 Mhz y el cableado debe soportar pruebas de Power Sum NEXT, más estrictas que las de los cables de Categoría 5 Avanzada. La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho, una razón por la que UTP es tan conocido es debido a que muchas construcciones están preparadas para sistemas telefónicos de par trenzado. Como parte del proceso previo al cableado, se instala UTP extra para cumplir las necesidades de cableado futuro. Si el cable de par trenzado preinstalado es de un nivel suficiente para soportar la transmisión de datos, se puede utilizar para una red de equipos. Sin embargo, hay que tener mucho cuidado, porque el hilo telefónico común podría no tener entrelazados y otras características eléctricas necesarias para garantizar la seguridad y nítida transmisión de los datos del equipo. La intermodulación es un problema posible que puede darse con todos los tipos de cableado (la intermodulación se define como aquellas señales de una línea que interfieren con las señales de otra línea.) UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el número de entrelazados por pie de cable, mayor será la protección contra las interferencias. Cable de par trenzado apantallado (STP) El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor calidad que la usada en el cable UTP. STP también utiliza una lámina rodeando cada uno de los pares de hilos. Esto ofrece un excelente apantallamiento en los STP para proteger los datos transmitidos de intermodulaciones exteriores, lo que permite soportar mayores tasas de transmisión que los UTP a distancias mayores. Componentes del cable de par trenzado Aunque hayamos definido el cable de par trenzado por el número de hilos y su posibilidad de transmitir datos, son necesarios una serie de componentes adicionales para completar su instalación. Al igual que sucede con el cable telefónico, el cable de red de par trenzado necesita unos conectores y otro hardware para asegurar una correcta instalación. Elementos de conexión El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un equipo. Éstos son similares a los conectores telefónicas RJ11. Aunque los conectores RJ-11 y RJ-45 parezcan iguales a primera vista, hay diferencias importantes entre ellos. El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo contiene cuatro. Existe una serie de componentes que ayudan a organizar las grandes instalaciones UTP y a facilitar su manejo. Armarios y racks de distribución. Los armarios y los racks de distribución pueden crear más sitio para los cables en aquellos lugares donde no hay mucho espacio libre en el suelo. Su uso ayuda a organizar una red que tiene muchas conexiones. Paneles de conexiones ampliables. Existen diferentes versiones que admiten hasta 96 puertos y alcanzan velocidades de transmisión de hasta 100 Mbps. Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de conexiones y placas de pared y alcanzan velocidades de datos de hasta 100 Mbps. Placas de pared. Éstas permiten dos o más enganches. Consideraciones sobre el cableado de par trenzado El cable de par trenzado se utiliza si: La LAN tiene una limitación de presupuesto. Se desea una instalación relativamente sencilla, donde las conexiones de los equipos sean simples. No se utiliza el cable de par trenzado si: La LAN necesita un gran nivel de seguridad y se debe estar absolutamente seguro de la integridad de los datos. Los datos se deben transmitir a largas distancias y a altas velocidades. Diferencia entre las Categorías de cable UTP. El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la transmisión de datos a frecuencias de hasta 100 MHz. El Modo de Transmisión Asíncrona (Asynchronous Transfer Mode ATM), trabaja a 155 MHz. La Gigabit Ethernet a 1 GHz. La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga, más se necesita. Las aplicaciones cada vez se vuelven más complejas, y los ficheros cada vez son más grandes. A medida que su red se vaya congestionando con más datos, la velocidad se va relentizando y no volverá a ser rápida nunca más. Las buenas noticias son que la próxima generación de cableado está en marcha. Sin embargo, tendrá que tener cuidado con el cableado que esté instalado hoy, y asegurarse que cumplirá con sus necesidades futuras. Categoría 5. La TIA/EIA 568A especifica solamente las Categorías para los cables de pares trenzados sin apantallar (UTP). Cada una se basa en la capacidad del cable para soportar prestaciones máximas y mínimas. Hasta hace poco, la Categoría 5 era el grado superior especificado por el estándar TIA/EIA. Se definió para ser capaz de soportar velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a frecuencias de hasta100 MHz. Las designaciones de Categoría están determinadas por las prestaciones UTP. El cable de Categoría 5 a100 MHz, debe tener el NEXT de 32 dB/304,8 mts. y una gama de atenuación de 67dB/304,8 mts, Para cumplir con el estándar, los cables deben cumplir solamente las mínimos estipulados, Con cable de Categoría 5 debidamente instalado, podrá esperar alcanzar las máximas prestaciones, las cuales, de acuerdo con los estándares, alcanzarán la máxima velocidad de traspaso de Mbps, Categoría 5a. La principal diferencia entre la Categoría 5 (568A) y Categoría 5a (568A-5) es que algunas de las especificaciones han sido realizadas de forma más estricta en la versión más avanzada. Ambas trabajan a frecuencias de 100 MHz. Pero la Categoría 5e cumple las siguientes especificaciones: NEXT: 35 dB; PS-NEXT: 32 dB, ELFEXT: 23.8 dB; PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo: 45 ns, Con estas mejoras, podrá tener transmisiones Ethernet con 4 pares, sin problemas, full-duplex, sobre cable UTP. En el futuro, la mayoría de las instalaciones requerirán cableado de Categoría 5e así como sus componentes. Categoría 6 y posteriores. Ahora ya puede obtener un cableado de Categoría 6, aunque el estándar no ha sido todavía creado. Pero los equipos de trabajo que realizan los estándares están trabajando en ello. La Categoría 6 espera soportar frecuencias de 250 MHz, dos veces y media más que la Categoría 5. En un futuro cercano, la TIA/EIA está estudiando el estándar para la Categoría 7, para un ancho de banda de hasta 600 MHz. La Categoría 7, usará un nuevo y aún no determinado tipo de conector. Cable coaxial El cable coaxial consta de un núcleo de cobre sólido rodeado por un aislante, una especie de combinación entre pantalla y cable de tierra y un revestimiento protector exterior. En el pasado, el cable coaxial permitió una transmisión más alta (10 Mbps) que el cable de par trenzado, aunque las recientes técnicas de transmisión sobre par trenzado igualan e incluso superan la velocidad de transmisión por cable coaxial. Sin embargo, los cables coaxiales pueden conectar los dispositivos de la red a distancias más largas que los de par trenzado. A pesar de ser el cable coaxial el medio tradicional de transmisión en redes basadas en Ethernet y ARCNET, la utilización de par trenzado y fibra óptica ya es muy común hoy en día sobre este tipo de redes. Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes razones para la utilización de este cable: era relativamente barato, y era ligero, flexible y sencillo de manejar. Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un apantallamiento de metal trenzado y una cubierta externa. El término apantallamiento hace referencia al trenzado o malla de metal (u otro material) que rodea algunos tipos de cable. El apantallamiento protege los datos transmitidos absorbiendo las señales electrónicas espúreas, llamadas ruido, de forma que no pasan por el cable y no distorsionan los datos. Al cable que contiene una lámina aislante y una capa de apantallamiento de metal trenzado se le denomina cable apantallado doble. Para entornos que están sometidos a grandes interferencias, se encuentra disponible un apantallamiento cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de apantallamiento de metal trenzado, El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre. Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La malla de hilo trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la intermodulación (la intermodulación es la señal que sale de un hilo adyacente). El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que se encuentren perdidas en la malla circularían por el hilo de cobre. Un cortocircuito eléctrico ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en contacto. Este contacto causa un flujo directo de corriente (o datos) en un camino no deseado. En el caso de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de un fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes, el resultado no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente causan un fallo en el dispositivo y lo habitual es que se pierdan los datos. Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico) rodea todo el cable. El cable coaxial es más resistente a interferencias y atenuación que el cable de par trenzado. La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no afecten a los datos que se envían a través del cable de cobre interno. Por esta razón, el cable coaxial es una buena opción para grandes distancias y para soportar de forma fiable grandes cantidades de datos con un equipamiento poco sofisticado. Tipos de cable coaxial Hay dos tipos de cable coaxial: Cable fino (Thinnet). Cable grueso (Thicknet). El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en particular. Cable Thinnet (Ethernet fino). El cable Thinnet es un cable coaxial flexible de unos 0,64 centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de manejar. El cable coaxial Thinnet puede transportar una señal hasta una distancia aproximada de 185 metros (unos 607 pies) antes de que la señal comience a sufrir atenuación. Los fabricantes de cables han acordado denominaciones específicas para los diferentes tipos de cables. El cable Thinnet está incluido en un grupo que se denomina la familia RG-58 y tiene una impedancia de 50 ohm. (La impedancia es la resistencia, medida en ohmios, a la corriente alterna que circula en un hilo.) La característica principal de la familia RG-58 es el núcleo central de cobre y los diferentes tipos de cable de esta familia son: RG-58/U: Núcleo de cobre sólido. RG-58 A/U: Núcleo de hilos trenzados. RG-58 C/U: Especificación militar de RG-58 A/U. RG-59: Transmisión en banda ancha, como el cable de televisión. RG-60: Mayor diámetro y considerado para frecuencias más altas que RG-59, pero también utilizado para transmisiones de banda ancha. RG-62: Redes ARCnet. Cable Thicknet (Ethernet grueso). El cable rígido de aproximadamente 1,27 centímetros de denomina Ethernet estándar debido a que fue el conocida arquitectura de red Ethernet. El núcleo que el del cable Thinnet. Thicknet es un cable coaxial relativamente diámetro. Al cable Thicknet a veces se le primer tipo de cable utilizado con la de cobre del cable Thicknet es más grueso Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las señales. El cable Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la capacidad de Thicknet para poder soportar transferencia de datos a distancias mayores, a veces se utiliza como enlace central o backbone para conectar varias redes más pequeñas basadas en Thinnet. Un transceiver conecta el cable coaxial Thinnet a un cable coaxial Thicknet mayor. Un transceiver diseñado para Ethernet Thicknet incluye un conector conocido como «vampiro» o «perforador» para establecer la conexión física real con el núcleo Thicknet. Este conector se abre paso por la capa aislante y se pone en contacto directo con el núcleo de conducción. La conexión desde el transceiver a la tarjeta de red se realiza utilizando un cable de transceiver para conectar el conector del puerto de la interfaz de conexión de unidad (AUI) a la tarjeta. Un conector de puerto AUI para Thicknet también recibe el nombre de conector Digital Intel Xerox (DIX) (nombre dado por las tres compañías que lo desarrollaron y sus estándares relacionados) o como conector dB-15. Cable Thinnet frente a Thicknet. Como regla general, los cables más gruesos son más difíciles de manejar. El cable fino es flexible, fácil de instalar y relativamente barato. El cable grueso no se dobla fácilmente y, por tanto, es más complicado de instalar. Éste es un factor importante cuando una instalación necesita llevar el cable a través de espacios estrechos, como conductos y canales. El cable grueso es más caro que el cable fino, pero transporta la señal más lejos. Hardware de conexión del cable coaxial Tanto el cable Thinnet como el Thicknet utilizan un componente de conexión llamado conector BNC, para realizar las conexiones entre el cable y los equipos. Existen varios componentes importantes en la familia BNC, incluyendo los siguientes: El conector de cable BNC. El conector de cable BNC está soldado, o incrustado, en el extremo de un cable. El conector BNC T. Este conector conecta la tarjeta de red (NIC) del equipo con el cable de la red. Conector acoplador (barrel) BNC. Este conector se utiliza para unir dos cables Thinnet para obtener uno de mayor longitud. Terminador BNC. El terminador BNC cierra el extremo del cable del bus para absorber las señales perdidas. El origen de las siglas BNC no está claro, y se le han atribuido muchos nombres, desde «British Naval Connector» a «Bayonet Neill-Councelman». Haremos referencia a esta familia hardware simplemente como BNC, debido a que no hay consenso en el nombre apropiado y a que en la industria de la tecnología las referencias se hacen simplemente como conectores del tipo BNC. Tipos de cable coaxial y normas de incendios El tipo de cable que se debe utilizar depende del lugar donde se vayan a colocar los cables en la oficina. Los cables coaxiales pueden ser de dos tipos: Cloruro de polivinilo (PVC). Plenum. El cloruro de polivinilo (PVC) es un tipo de plástico utilizado para construir el aíslante y la clavija del cable en la mayoría de los tipos de cable coaxial. El cable coaxial de PVC es flexible y se puede instalar fácilmente a través de la superficie de una oficina. Sin embargo, cuando se quema, desprende gases tóxicos. Un plenum. Es el espacio muerto que hay en muchas construcciones entre el falso techo y el piso de arriba; se utiliza para que circule aire frío y caliente a través del edificio. Las normas de incendios indican instrucciones muy específicas sobre el tipo de cableado que se puede mandar a través de esta zona, debido a que cualquier humo o gas en el plenum puede mezclarse con el aire que se respira en el edificio. El cableado de tipo plenum contiene materiales especiales en su aislamiento y en 1a clavija del cable. Estos materiales están certificados como resistentes al fuego y producen una mínima cantidad de humo; esto reduce los humos químicos tóxicos. El cable plenum se puede utilizar en espacios plenum y en sitios verticales (en una pared, por ejemplo) sin conductos. Sin embargo, el cableado plenum es más caro y menos flexible que el PVC. Para instalar el cable de red en la oficina sería necesario consultar las normas de la zona sobre electricidad y fuego para la regulación y requerimientos específicos. Consideraciones sobre el cable coaxial En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no obstante, considere las siguientes características del cable coaxial. Utilice el cable coaxial si necesita un medio que pueda: Transmitir voz, vídeo y datos. Transmitir datos a distancias mayores de lo que es posible con un cableado menos caro Ofrecer una tecnología familiar con una seguridad de los datos aceptable. Fibra óptica El cable de fibra óptica transmite señales luminosas (fotones) a través de un núcleo de dióxido de silicio puro tan diáfano que un espesor de más de tres millas del mismo no produce distorsión en una visión a su través. La transmisión fotónica no produce emisiones externas al cable, sin ser afectada por la radiación exterior. El cable de fibra se prefiere cuando existen ciertos requisitos de seguridad. La conversión electrónica de los valores lógicos 1 y 0 en destellos de luz permite la transmisión de las señales a través del cable de fibra óptica. Un diodo emisor de luz, situado en un extremo, emite destellos que se transmiten por el cable hasta el otro extremo, donde se recogen por un simple fotodetector y se convierten en señales eléctricas. Puesto que no existe una resistencia a las señales transmitidas, la velocidad de transmisión por fibra óptica supera en prestaciones ampliamente a la transmisión por cable de cobre. Cable de fibra óptica En el cable de fibra óptica las señales que se transportan son señales digitales de datos en forma de pulsos modulados de luz. Esta es una forma relativamente segura de enviar datos debido a que, a diferencia de los cables de cobre que llevan los datos en forma de señales electrónicas, los cables de fibra óptica transportan impulsos no eléctricos. Esto significa que el cable de fibra óptica no se puede pinchar y sus datos no se pueden robar. El cable de fibra óptica es apropiado para transmitir datos a velocidades muy altas y con grandes capacidades debido a la carencia de atenuación de la señal y a su pureza. Composición del cable de fibra óptica Una fibra óptica consta de un cilindro de vidrio extremadamente delgado, denominado núcleo, recubierto por una capa de vidrio concéntrica, conocida como revestimiento. Las fibras a veces son de plástico. El plástico es más fácil de instalar, pero no puede llevar los pulsos de luz a distancias tan grandes como el vidrio. Debido a que los hilos de vidrio pasan las señales en una sola dirección, un cable consta de dos hilos en envolturas separadas. Un hilo transmite y el otro recibe. Una capa de plástico de refuerzo alrededor de cada hilo de vidrio y las fibras Kevlar ofrecen solidez. En el conector de fibra óptica, las fibras de Kevlar se colocan entre los dos cables. Al igual que sus homólogos (par trenzado y coaxial), los cables de fibra óptica se encierran en un revestimiento de plástico para su protección. Las transmisiones del cable de fibra óptica no están sujetas a intermodulaciones eléctricas y son extremadamente rápidas, comúnmente transmiten a unos 100 Mbps, con velocidades demostradas de hasta 1 gigabit por segundo (Gbps). Pueden transportar una señal (el pulso de luz) varios kilómetros. Consideraciones sobre el cable de fibra óptica El cable de fibra óptica se utiliza si: Necesita transmitir datos a velocidades muy altas y a grandes distancias en un medio muy seguro. El cable de fibra óptica no se utiliza si: Tiene un presupuesto limitado. No tiene el suficiente conocimiento para instalar y conectar los dispositivos de forma apropiada. El precio del cable de fibra óptica es competitivo con el precio del cable de cobre alto de gama. Cada vez se hace más sencilla la utilización del cable de fibra óptica, y las técnicas de pulido y terminación requieren menos conocimientos que hace unos años. Ventajas La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. Acceso ilimitado y continuo las 24 horas del día, sin congestiones. video y sonido en tiempo real. Es inmune al ruido y las interferencias. Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada. Carencia de señales eléctricas en la fibra. Presenta dimensiones más reducidas que los medios preexistentes. El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. La materia prima para fabricarla es abundante en la naturaleza. Compatibilidad con la tecnología digital. Inconvenientes Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica. El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes. El coste de instalación es elevado. Fragilidad de las fibras. Disponibilidad limitada de conectores. Dificultad de reparar un cable de fibras roto en el campo. 2.8.2 Medios no Guiados. Medios de transmisión no guiados SE utilizan medios no guiados , principalmente el aire . Se radia energía electromagnética por medio de una antena y luego se recibe esta energía con otra antena . Hay dos configuraciones para la emisión y recepción de esta energía : direccional y omnidireccional . En la direccional , toda la energía se concentra en un haz que es emitido en una cierta dirección , por lo que tanto el emisor como el receptor deben estar alineados . En el método omnidireccional , la energía es dispersada en múltiples direcciones , por lo que varias antenas pueden captarla . Cuanto mayor es la frecuencia de la señal a transmitir , más factible es la transmisión unidireccional . Por tanto , para enlaces punto a punto se suelen utilizar microondas ( altas frecuencias ) . Para enlaces con varios receptores posibles se utilizan las ondas de radio ( bajas frecuencias ) . Los infrarrojos se utilizan para transmisiones a muy corta distancia ( en una misma habitación ) . Microondas terrestres Suelen utilizarse antenas parabólicas . Para conexionas a larga distancia , se utilizan conexiones intermedias punto a punto entre antenas parabólicas . Se suelen utilizar en sustitución del cable coaxial o las fibras ópticas ya que se necesitan menos repetidores y amplificadores , aunque se necesitan antenas alineadas . Se usan para transmisión de televisión y voz . La principal causa de pérdidas es la atenuación debido a que las pérdidas aumentan con el cuadrado de la distancia ( con cable coaxial y par trenzado son logarítmicas ) . La atenuación aumenta con las lluvias . Las interferencias es otro inconveniente de las microondas ya que al proliferar estos sistemas , pude haber más solapamientos de señales . Las microondas son ondas electromagnéticas cuyas frecuencias se encuentran dentro del espectro de las super altas frecuencias, SHF, utilizándose para las redes inalámbricas la banda de los 18-19 Ghz. Estas redes tienen una propagación muy localizada y un ancho de banda que permite alcanzar los 15 Mbps. La red Rialta de Motorola es una red de este tipo, la cual va a 10 Mbps y tiene un área de cobertura de 500 metros. Microondas por satélite El satélite recibe las señales y las amplifica o retransmite en la dirección adecuada . Para mantener la alineación del satélite con los receptores y emisores de la tierra , el satélite debe ser geoestacionario . Se suele utilizar este sistema para : ð Difusión de televisión . ð Transmisión telefónica a larga distancia . ð Redes privadas . El rango de frecuencias para la recepción del satélite debe ser diferente del rango al que este emite , para que no haya interferencias entre las señales que ascienden y las que descienden . Debido a que la señal tarda un pequeño intervalo de tiempo desde que sale del emisor en la Tierra hasta que es devuelta al receptor o receptores , ha de tenerse cuidado con el control de errores y de flujo de la señal . Las diferencias entre las ondas de radio y las microondas son : ð Las microondas son unidireccionales y las ondas de radio omnidireccionales . ð Las microondas son más sensibles a la atenuación producida por la lluvia . ð En las ondas de radio , al poder reflejarse estas ondas en el mar u otros objetos , pueden aparecer múltiples señales "hermanas" . Infrarrojos Los emisores y receptores de infrarrojos deben estar alineados o bien estar en línea tras la posible reflexión de rayo en superficies como las paredes . En infrarrojos no existen problemas de seguridad ni de interferencias ya que estos rayos no pueden atravesar los objetos ( paredes por ejemplo ) . Tampoco es necesario permiso para su utilización ( en microondas y ondas de radio si es necesario un permiso para asignar una frecuencia de uso ) . Los infrarrojos son ondas electromagnéticas que se propagan en línea recta, siendo susceptibles de ser interrumpidas por cuerpos opacos. Su uso no precisa licencias administrativas y no se ve afectado por interferencias radioeléctricas externas, pudiendo alcanzar distancias de hasta 200 metros entre cada emisor y receptor. InfraLAN es una red basada en infrarrojos compatible con las redes Token Ring a 4Mbps, pudiendo utilizarse independientemente o combinada con una red de área local convencional. Las redes de luz infrarroja están limitadas por el espacio y casi generalmente la utilizan redes en las que las estaciones se encuentran en un solo cuarto o piso, algunas compañías que tienen sus oficinas en varios edificios realizan la comunicación colocando los receptores/emisores en las ventanas de los edificios. Las transmisiones de radio frecuencia tienen una desventaja: que los países están tratando de ponerse de acuerdo en cuanto a las bandas que cada uno puede utilizar, al momento de realizar este trabajo ya se han reunido varios países para tratar de organizarse en cuanto a que frecuencias pueden utilizar cada uno. La transmisión Infrarroja no tiene este inconveniente por lo tanto es actualmente una alternativa para las Redes Inalámbricas. El principio de la comunicación de datos es una tecnología que se ha estudiado desde los 70´s, Hewlett-Packard desarrolló su calculadora HP-41 que utilizaba un transmisor infrarrojo para enviar la información a una impresora térmica portátil, actualmente esta tecnología es la que utilizan los controles remotos de las televisiones o aparatos eléctricos que se usan en el hogar. El mismo principio se usa para la comunicación de Redes, se utiliza un "transreceptor" que envía un haz de Luz Infrarroja, hacia otro que la recibe. La transmisión de luz se codifica y decodifica en el envío y recepción en un protocolo de red existente. Uno de los pioneros en esta área es Richard Allen, que fundó Photonics Corp., en 1985 y desarrolló un "Transreceptor Infrarrojo". Las primeros transreceptores dirigían el haz infrarrojo de luz a una superficie pasiva, generalmente el techo, donde otro transreceptor recibía la señal. Se pueden instalar varias estaciones en una sola habitación utilizando un área pasiva para cada transreceptor. La siguiente figura muestra un transreceptor. En la actualidad Photonics a desarrollado una versión AppleTalk/LocalTalk del transreceptor que opera a 230 Kbps. El sistema tiene un rango de 200 mts. Además la tecnología se ha mejorado utilizando un transreceptor que difunde el haz en todo el cuarto y es recogido mediante otros transreceptores. El grupo de trabajo de Red Inalámbrica IEEE 802.11 está trabajando en una capa estándar MAC para Redes Infrarrojas. Radioenlaces Se basan en la propagación de ondas electromagnéticas a través del aire. Para ello sólo requieren la estación emisora y receptora , además de posibles repetidores intermedios para salvar la orografía del terreno, ya que este tipo de transmisión exige visibilidad entre las dos estaciones emisora y receptora. En la actualidad existen los siguientes tipos de radioenlaces: de onda corta, sistemas terrestres de microondas y sistemas basados en satélites de comunicaciones. La transmisión mediante microondas se lleva a cabo en una gama de frecuencias que va desde 2 a 40 GHz. Cuando las distancias son extremadamente grandes, el número de repetidores sería también grande. Además, si tenemos en cuenta la superficie terrestre recubierta de agua donde la instalación de repetidores sería compleja, se utilizan los satélites de comunicaciones soportados sobre satélites artificiales geoestacionarios, es decir, que no modifican su posición respecto a la tierra. Radio enlaces de VHF y UHF Estas bandas cubren aproximadamente desde 55 a 550 Mhz. Son también omnidireccionales, pero a diferencia de las anteriores la ionosfera es transparente a ellas. Su alcance máximo es de un centenar de kilómetros, y las velocidades que permite del orden de los 9600 bps. Su aplicación suele estar relacionada con los radioaficionados y con equipos de comunicación militares, también la televisión y los aviones. 2.9 Adaptadores de Red. (NIC). Una tarjeta de interfaz de red (NIC) es una placa de circuito impreso que proporciona las capacidades de comunicación de red hacia y desde un computador personal. También se denomina adaptador LAN; se enchufa en la motherboard y proporciona un puerto de conexión a la red. Esta tarjeta se puede diseñar como una tarjeta Ethernet, una tarjeta token ring o una tarjeta de interfaz de datos distribuida por fibra (FDDI). Una tarjeta de red se comunica con la red a través de una conexión serial y con el computador a través de una conexión paralela. Cada tarjeta requiere una IRQ, una dirección de E/S y una dirección de memoria superior para funcionar con DOS o Windows 95/98. Una IRQ o línea de petición de interrupción, es una señal que informa a la CPU que se ha producido un evento al cual se debe prestar atención. Se envía una IRQ a través de una línea de hardware al microprocesador. Un ejemplo de petición de interrupción es cuando se presiona una tecla en el teclado; la CPU debe desplazar el carácter del teclado a la memoria RAM. Una dirección de E/S es una ubicación en la memoria que se utiliza para introducir o retirar datos de un computador mediante un dispositivo auxiliar. En los sistemas basados en DOS, la memoria superior hace referencia al área de memoria situada entre los primeros 640 kilobytes (K) y 1 megabyte (M) de RAM. Al seleccionar una tarjeta de red, debe tener en cuenta los tres factores siguientes: 1. tipo de red (por ejemplo, Ethernet, Token Ring o FDDI) 2. el tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica) 3. tipo de bus del sistema (por ejemplo, PCI o ISA) Una tarjeta de interfaz de red (NIC) se conecta a una motherboard y suministra los puertos para la conexión. Esta tarjeta puede estar diseñada como una tarjeta Ethernet, una tarjeta Token Ring o una tarjeta FDDI. Las tarjetas de red se comunican con la red a través de conexiones seriales y con el computador a través de conexiones en paralelo. Son las conexiones físicas entre las estaciones de trabajo y la red. Las tarjetas de red requieren una IRQ, una dirección E/S y direcciones de memoria superior para DOS y Windows 95/98. Al seleccionar una tarjeta de red, debe tener en cuenta los tres siguientes factores: 1. El tipo de red (por ej., Ethernet, Token Ring, FDDI u otro tipo) 2. El tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica) 3. El tipo de bus del sistema (por ej., PCI e ISA) Operaciones NIC de Capa 2 Las NIC ejecutan funciones importantes de la capa de enlace de datos (Capa 2) como, por ejemplo, las siguientes: Control de enlace lógico: Se comunica con las capas superiores del computador Denominación: Proporciona un identificador exclusivo de dirección MAC Entramado: Parte del proceso de encapsulamiento, empaquetar los bits para transportarlos Control de acceso al medio (MAC): Proporciona un acceso estructurado a los medios de acceso compartido Señalización: Crea señales y realiza interfaz con los medios usando transceivers incorporados 2.9.1 Ethernet. Definición Es la tecnología de red de área local más extendida en la actualidad. Fue diseñado originalmente por Digital, Intel y Xerox por lo cual, la especificación original se conoce como Ethernet DIX. Posteriormente en 1.983, fue formalizada por el IEEE como el estándar Ethernet 802.3. La velocidad de transmisión de datos en Ethernet es de 10Mbits/s en las configuraciones habituales pudiendo llegar a ser de 100Mbits/s en las especificaciones Fast Ethernet. Al principio, sólo se usaba cable coaxial con una topología en BUS, sin embargo esto ha cambiado y ahora se utilizan nuevas tecnologías como el cable de par trenzado (10 Base-T), fibra óptica (10 Base-FL) y las conexiones a 100 Mbits/s (100 Base-X o Fast Ethernet). La especificación actual se llama IEEE 802.3u. Ethernet/IEEE 802.3, está diseñado de manera que no se puede transmitir más de una información a la vez. El objetivo es que no se pierda ninguna información, y se controla con un sistema conocido como CSMA/CD(Carrier Sense Multiple Access with Collision Detection, Detección de Portadora con Acceso Múltiple y Detección de Colisiones), cuyo principio de funcionamiento consiste en que una estación, para transmitir, debe detectar la presencia de una señal portadora y, si existe, comienza a transmitir. Si dos estaciones empiezan a transmitir al mismo tiempo, se produce una colisión y ambas deben repetir la transmisión, para lo cual esperan un tiempo aleatorio antes de repetir, evitando de este modo una nueva colisión, ya que ambas escogerán un tiempo de espera distinto. Este proceso se repite hasta que se reciba confirmación de que la información ha llegado a su destino. Según el tipo de cable, topología y dispositivos utilizados para su implementación podemos distinguir los siguientes tipos de Ethernet: 10 Base-5 También conocida como THICK ETHERNET (Ethernet grueso), es la Ethernet original. Fue desarrollada originalmente a finales de los 70 pero no se estandarizó oficialmente hasta 1983. Utiliza una topología en BUS, con un cable coaxial que conecta todos los nodos entre sí. En cada extremo del cable tiene que llevar un terminador. Cada nodo se conecta al cable con un dispositivo llamado transceptor. El cable usado es relativamente grueso (10mm) y rígido. Sin embargo es muy resistente a interferencias externas y tiene pocas pérdidas. Se le conoce con el nombre de RG8 o RG11 y tiene una impedancia de 50 ohmios. Se puede usar conjuntamente con el 10 Base-2. CARACTERÍSTICAS Tipo de cable usado Tipo de conector usado Velocidad RG8 o RG11 AUI 10 Mbits/s Topología usada BUS Mínima distancia entre transcentores 2.5 m Máxima longitud del cable del transceptor 50 m Máxima longitud de cada segmento 500 m Máxima longitud de la red Máximo de dispositivos conectados por segmento Regla 5-4-3 2.500 m 100 Sí La regla 5-4-3 es una norma que limita el tamaño de las redes y que se estudiará más adelante. VENTAJAS Es posible usarlo para distancias largas. Tiene una inmunidad alta a las interferencias. Conceptualmente es muy simple. INCONVENIENTES Inflexible. Es difícil realizar cambios en la instalación una vez montada. Intolerancia a fallos. Si el cable se corta o falla un conector, toda la red dejará de funcionar. Dificultad para localización de fallos. Si existe un fallo en el cableado, la única forma de localizarlo es ir probando cada uno de los tramos entre nodos para averiguar cual falla. APLICACIONES EN LA ACTUALIDAD Debido a los inconvenientes antes mencionados, en la actualidad 10 Base-5 no es usado para montaje de redes locales. El uso más común que se le da en la actualidad es el de "Backbone". Básicamente un backbone se usa para unir varios HUB de 10 Base-T cuando la distancia entre ellos es grande, por ejemplo entre plantas distintas de un mismo edificio o entre edificios distintos. 10 Base-2 En la mayoría de los casos, el costo de instalación del coaxial y los transceptores de las redes 10 Base-5 las hacía prohibitivas, lo que indujo la utilización de un cable más fino y, por tanto más barato, que además no necesitaba transceptores insertados en él. Se puede decir que 10 Base-2 es la versión barata de 10 Base-5. Por esto, también se le conoce Thin Ethernet (Ethernet fino) o cheaper-net(red barata). Este tipo de red ha sido la mas usada en los últimos años en instalaciones no muy grandes debido a su simplicidad y precio asequible. Se caracteriza por su cable coaxial fino (RG-58) y su topología en BUS. Cada dispositivo de la red se conecta con un adaptador BNC en forma de "T" y al final de cada uno de los extremos del cable hay que colocar un terminador de 50 Ohmios. CARACTERÍSTICAS Tipo de cable usado Tipo de conector Velocidad RG-58 BNC 10 Mbits/s Topología usada BUS Mínima distancia entre estaciones 0.5 m Máxima longitud de cada segmento 185 m Máxima longitud de la red 925 m Máximo de dispositivos conectados por segmento 30 Regla 5-4-3 Sí VENTAJAS Simplicidad. No usa ni concentradores, ni transcentores ni otros dispositivos adicionales. Debido a su simplicidad es una red bastante económica. Tiene una buena inmunidad al ruido debido a que el cable coaxial dispone de un blindaje apropiado para este fin. INCONVENIENTES Inflexible. Es bastante difícil realizar cambios en la disposición de los dispositivos una vez montada. Intolerancia a fallos. Si el cable se corta o falla un conector, toda la red dejará de funcionar. En un lugar como un aula de formación donde el volumen de uso de los ordenadores es elevado, es habitual que cualquier conector falle y por lo tanto la red completa deje de funcionar. Dificultad para localización de fallos. Si existe un fallo en el cableado, la única forma de localizarlo es ir probando cada uno de los tramos entre nodos para averiguar cual falla. El cable RG-58, se usa sólo para este tipo de red local, por lo que no podrá ser usado para cualquier otro propósito como ocurre con otro tipo de cables. APLICACIONES EN LA ACTUALIDAD La tecnología 10 Base-2 se usa para pequeñas redes que no tengan previsto cambiar su disposición física. De igual manera que 10 Base-5, uno de los usos habituales de esta tecnología es como backbone para interconectar varios concentradores en 10 Base-T. Normalmente los concentradores no se mueven de lugar. Si la distancia entre ellos es grande, por ejemplo si están en plantas o incluso en edificios distintos, la longitud máxima que se puede conseguir con este cable (185m) es mucho mayor que la que se consigue usando el cable UTP de la tecnología 10 Base-T (100m). 10 Base-T Ya se ha comentado, que ETHERNET fue diseñado originalmente para ser montado con cable coaxial grueso y que más adelante se introdujo el coaxial fino. Ambos sistemas funcionan excelentemente pero usan una topología en BUS, que complica la realización de cualquier cambio en la red. También deja mucho que desear en cuestión de fiabilidad. Por todo esto, se introdujo un nuevo tipo de tecnología llamada 10 Base-T, que aumenta la movilidad de los dispositivos y la fiabilidad. El cable usado se llama UTP que consiste en cuatro pares trenzados sin apantallamiento. El propio trenzado que llevan los hilos es el que realiza las funciones de asilar la información de interferencias externas. También existen cables similares al UTP pero con apantallamiento que se llaman STP (Par Trenzado Apantallado mediante malla de cobre) y FTP (Par Trenzado apantallado mediante papel de aluminio). 10 Base-T usa una topología en estrella consistente en que desde cada nodo va un cable al un concentrador común que es el encargado de interconectarlos. Cada uno de estos cables no puede tener una longitud superior a 90m. A los concentradores también se les conoce con el nombre de HUBs y son equipos que nos permiten estructurar el cableado de la red. Su función es distribuir y amplificar las señales de la red y detectar e informar de las colisiones que se produzcan. En el caso de que el número de colisiones que se producen en un segmento sea demasiado elevado, el concentrador lo aislará para que el conflicto no se propague al resto de la red. También se puede usar una topología en árbol donde un concentrador principal se interconecta con otros concentradores. La profundidad de este tipo de conexiones viene limitada por la regla 5-4-3. Un ejemplo de este tipo de conexiones podría ser un aula de informática de un centro. El concentrador principal está en otra dependencia distinta. Si se llevará un cable por ordenador hasta esta otra habitación, el gasto de cable sería grande. Aprovechando la topología en árbol lo que haremos es llevar solamente uno al que conectaremos un nuevo concentrador situado en el aula. La distancia desde cada uno de los ordenadores hasta este nuevo concentrador, será infinitamente menor que hasta el principal. 10 Base-T también se puede combinar con otro tipo de tecnologías, como es el caso de usar 10 Base-2 o 10 Base-5 como Backbone entre los distintos concentradores. Cuando la distancia entre concentradores es grande, por ejemplo si están en plantas o incluso en edificios distintos, estamos limitados por la longitud máxima que se puede conseguir con el cable UTP (100m). Si la distancia es mayor se puede usar la tecnología 10 Base-2 que permite hasta 185m o la 10 Base-5 con la que podríamos alcanzar los 500m. Otra solución puede ser usar cable UTP poniendo repetidores cada 100m. De los 8 hilos de que dispone en el cable UTP, sólo se usan cuatro para los datos de la LAN (dos para transmisión y dos para la recepción) por lo que quedan otros cuatro utilizables para otros propósitos (telefonía, sistemas de seguridad, transmisión de vídeo, etc.). El conector usado es similar al utilizado habitualmente en los teléfonos pero con 8 pines. Se le conoce con el nombre de RJ-45. Los pines usados para los datos son el 1 - 2 para un par de hilos y el 3 - 6 para el otro. La especificación que regula la conexión de hilos en los dispositivos Ethernet es la EIA/TIA T568A y T568B. CARACTERÍSTICAS Tipo de cable usado Tipo de conector UTP, STP y FTP RJ-45 Velocidad Topología usada 10 Mbits/s Estrella Máxima longitud entre la estación y el concentrador 90 m Máxima longitud entre concentradores 100 m Máximo de dispositivos conectados por segmento Regla 5-4-3 512 Sí VENTAJAS Aislamiento de fallos. Debido a que cada nodo tiene su propio cable hasta el concentrador, en caso de que falle uno, dejaría de funcionar solamente él y no el resto de la red como pasaba en otros tipos de tecnologías. Fácil localización de averías. Cada nodo tiene un indicador en su concentrador indicando que está funcionando correctamente. Localizar un nodo defectuoso es fácil. Alta movilidad en la red. Desconectar un nodo de la red, no tiene ningún efecto sobre los demás. Por lo tanto, cambiar un dispositivo de lugar es tan fácil como desconectarlo del lugar de origen y volverlo a conectar en el lugar de destino. Aprovechamiento del cable UTP para hacer convivir otros servicios. De los cuatro pares (8 hilos) de que dispone, sólo se usan dos pares (4 hilos) para los datos de la LAN por lo que quedan otros dos utilizables para otros propósitos (telefonía, sistemas de seguridad, transmisión de vídeo, etc.). INCONVENIENTES Distancias. 10 Base-T permite que la distancia máxima entre el nodo y el concentrador sea de 90m. En algunas instalaciones esto puede ser un problema, aunque siempre se puede recurrir a soluciones cómo las comentadas anteriormente consistentes en combinar esta tecnología con 10 Base-2 o 10 Base-5, o el uso de repetidores para alargar la distancia. Sensibilidad a interferencias externas. El cable coaxial usado en otras tecnologías es más inmune a interferencias debido a su apantallamiento. En la mayoría de los casos, el trenzado interno que lleva el cable UTP es suficiente para evitarlas. En instalaciones con posibilidades grandes de interferencias exteriores, se puede usar el cable FTP o el STP que es igual que el UTP pero con protección por malla. APLICACIONES EN LA ACTUALIDAD Es la tecnología más usada en la actualidad por todas las ventajas que aporta y sobre todo por la flexibilidad y escalabilidad que supone tener una instalación de este tipo. 10 Base-FL Es la especificación Ethernet sobre fibra óptica. Los cables de cobre presentan el problema de ser susceptibles tanto de producir como de recibir interferencias. Por ello, en entornos industriales o donde existen equipos sensibles a las interferencias, es muy útil poder utilizar la fibra. Normalmente, las redes Ethernet de fibra suelen tener una topología en estrella. La distancia entre equipos puede llegar a 2 Km. con los repetidores apropiados. Regla 5-4-3 Los repetidores son equipos que actúan a nivel físico. Prolongan la longitud de la red uniendo dos segmentos (incluso con diferentes tipos de cableado). Puede tener dos o más puertos. Estos puertos pueden ser AUI, BNC, RJ-45 o fibra óptica en cualquier combinación. Actúan como parte del cableado de la red ya que transfieren los datos recibidos de un extremo al otro independientemente de su contenido, origen y destino. Su función básica es la de repetir los datos recibidos por un puerto y enviarlos inmediatamente por todos los demás. También los amplifica para eliminar las posibles distorsiones que se hayan podido introducir en la transmisión. Si un repetidor detecta muchas colisiones de datos en uno de sus puertos, asume que el conflicto se ha producido en ese segmento y lo aísla del resto. De esta forma se evita que el incidente se propague al resto de la red. Un repetidor es la expresión mínima de un concentrador, o también se puede decir, que un concentrador es un repetidor multipuerto. Además de ventajas los repetidores también tienen inconvenientes derivados principalmente del hecho de que introducen un pequeño retardo en los datos. Si el número de repetidores usado es elevado, el retardo introducido empieza a ser considerable y puede darse el caso de que el sistema de detección de colisiones (CSMA/CD) no funcione adecuadamente y se produzcan transmisiones erróneas. La regla 5-4-3 limita el uso de repetidores y dice que entre dos equipos de la red no podrá haber más de 4 repetidores y 5 segmentos de cable. Igualmente sólo 3 segmentos pueden tener conectados dispositivos que no sean los propios repetidores, es decir, 2 de los 5 segmentos sólo pueden ser empleados para la interconexión entre repetidores. Es conveniente señalar que para contar el número de repetidores no se cuenta el total de los existentes en la red, sino sólo el número de repetidores entre dos puntos cualquiera de la red. Por ejemplo, la red de la figura tiene más de 4 repetidores pero no excede este número entre dos dispositivos cualquiera. Si observamos la figura, podemos ver que se ha trazado en verde el camino que existe entre los PCs llamados A y D. Cada concentrador (B y C) es un repetidor. Si lo analizamos podemos ver que entre A y D hay un total de 3 segmentos de cable y dos repetidores. Esta red cumple la regla 5-4-3 y debería de funcionar correctamente. La siguiente figura nos muestra una red mal diseñada y que no cumple la regla 5-4-3. En esta red existen 5 repetidores (concentradores en este caso) conectados en topología de árbol. Se puede ver trazada la ruta existente entre el ordenador A y el B que este caso son los puntos más distantes de la red. Si se analiza se puede ver que existen 5 repetidores y 6 segmentos de cable entre ellos. Esta red no funcionaría adecuadamente ya que el retardo introducido por los repetidores sería excesivo. Mas velocidad. En la actualidad han surgido nuevas especificaciones basadas en Ethernet que permiten transmitir datos a mayor velocidad como son: Ethernet de 100 Mbits/s(100 BaseX o Fast Ethernet). Esta especificación permite velocidades de transferencia de 100 Mbits/s sobre cables de pares trenzados, directamente desde cada estación. El sistema 100 BaseX tiene la misma arquitectura que 10 Base-T con la diferencia de usar componentes que son capaces de transferir la información a 100 Mbits/s. Partiendo de una LAN montada con los requerimientos de una 10 Base-T, únicamente se requiere la sustitución de los concentradores y las tarjetas de red de las estaciones. Casi todos los componentes usados en nuestro proyecto, soportan esta especificación. Desde el cable hasta las rosetas y conectores, pasando por las tarjetas de red. La única excepción es el concentrador. Esto en principio limita la velocidad de la LAN a 10 Mbits/s. Para convertirlo en 100 BaseX y por lo tanto aumentar la velocidad de la LAN simplemente habrá que sustituir el concentrador por uno de 100 Mbits/s. Será el uso diario, el que nos demandará o no el aumento de velocidad. Seguro que también influye la previsible bajada de precios que deben de experimentar estos dispositivos. Puentes y conmutadores Son dispositivos que aumentan la flexibilidad para topologías de red y mejoran sus prestaciones. Tanto los puentes como los conmutadores disponen de canales de comunicación de alta velocidad en su interior que conmutan el tráfico entre las estaciones conectados a ellos. Incrementan la capacidad total de tráfico de la red dividiéndola en segmentos más pequeños, y filtrando el tráfico innecesario, bien automáticamente o bien en función de filtros definidos por el administrador de la red, haciéndola, en definitiva, más rápida y eficaz. Esto permite que cada segmento disponga de un canal de 10Mbits/s (o de 100 Mbits/s si el dispositivo está diseñado para esta velocidad), en lugar de un único canal para todos los nodos de la red. PUENTE O BRIDGE Los puentes (bridges) se usan para la conexión de redes diferentes como por ejemplo Ethernet y Fast Ethernet. Igual que los repetidores, son independientes de los protocolos, y retransmiten los paquetes a la dirección adecuada basándose precisamente en esta, en la dirección de destino (indicada en el propio paquete). Su diferencia con los repetidores consiste en que los puentes tienen cierta "inteligencia", que les permite reenviar o no un paquete al otro segmento; cuando un paquete no es retransmitido, decimos que ha sido filtrado. Esos filtros pueden ser automáticos, en función de las direcciones de los nodos de cada segmento que los puentes "aprenden" al observar el tráfico de cada segmento, o pueden ser filtros definidos por el administrador de la red, en función de razones de seguridad, organización de grupos de trabajo en la red, limitación de tráfico innecesario, etc. Otra importante diferencia es que con los repetidores, el ancho de banda de los diferentes segmentos es compartido, mientras que con los puentes, cada segmento dispone del 100% del ancho de banda. Su filosofía impide que las colisiones se propaguen entre diferentes segmentos de la red, algo que los repetidores son incapaces de evitar. Habitualmente, los puentes de una red se enlazan entre sí con topología de bus y a su vez se combinan con concentradores mediante una topología de estrella. En nuestro proyecto no se usarán bridges debido a que la arquitectura necesaria para resolver las necesidades de las redes a implementar en los centros, no los requiere. SWITCH O CONMUTADOR Es un dispositivo similar a un concentrador que dispone de las características antes mencionadas de canales de alta velocidad en su interior y capacidad de filtrado del tráfico. Cuando un paquete es recibido por el conmutador, éste determina la dirección fuente y destinataria del mismo; si ambas pertenecen al mismo segmento, el paquete es descartado; si son direcciones de segmentos diferentes, el paquete es retransmitido sólo al segmento destino (a no ser que los filtros definidos lo impidan). Los conmutadores son, en cierto modo, puentes multipuerto. La diferencia fundamental, teóricamente, entre puentes y conmutadores, es que los puentes reciben el paquete completo antes de proceder a su envío al puerto destinatario, mientras que un conmutador puede iniciar su reenvío antes de haberlo recibido por completo. Ello redunda, evidentemente, en una mejora de prestaciones. Mientras los concentradores comparten el ancho de banda de la red entre todos los nodos que la componen, con el uso de conmutadores, cada uno de los segmentos conectados a uno de sus puertos tiene un ancho de banda completo, compartido por menos usuarios, lo que repercute en mejores prestaciones. La ventaja de esta especificación es que utiliza los mismos cables y tarjetas de red que el 10 Base-T, sustituyéndose sólo los concentradores por conmutadores. En la figura se puede ver como el uso de conmutadores en lugar de concentradores mejora las prestaciones de la red. El primer caso sería una implementación típica de 10 Base-T con concentradores. Aunque no es malo el rendimiento que le saca a este montaje, veremos que es mejorable con muy pocos cambios. El segundo caso tan solo ha cambiado el concentrador principal por un conmutador y ha conseguido disminuir considerablemente tanto el número de colisiones como la utilización de las capacidades de la red. Esto se debe a que cada puerto del conmutador es una red separada a nivel de colisiones y además tiene para sí todo el ancho de banda disponible(10 Mbits/s en este caso). El tercer caso es una combinación entre uso de conmutador y 100 Base-X. Como se puede observar, el switch usado tiene además de los puertos de 10 Mbits/s, dos más de 100 Mbits/s. Si el servidor de la LAN lo conectamos en uno de estos segmentos, conseguiremos una disminución muy considerable tanto del número de colisiones como del grado de utilización de la red. En definitiva mejora sustancialmente el rendimiento de la LAN. En nuestro proyecto usaremos concentradores en lugar de Switch ya que la velocidad que vamos a necesitar en la LAN queda suficientemente cubierta con los primeros. En el caso de que el tráfico por la red fuera muy intenso (por ejemplo con el aumento significativo del número de estaciones), se podría pensar en cambiar los concentradores por Switchs o hacer convivir ambos introduciendo los segundos en los tramos de red donde se necesite mayor ancho de banda, por ejemplo en los servidores. ¿Cómo afectan a la regla 5-4-3? Con el uso de repetidores existe un límite en la cantidad de nodos que pueden conectarse a una red. El uso de conmutadores y puentes permiten a la LAN crecer significativamente. Esto se debe a que ambos poseen la virtud de soportar segmentos completos en cada uno de sus puertos, o sea, que cada puerto de un switch o bridge es una red separada a nivel de colisiones. Son capaces de separar la red en dominios de colisión. Si una red excede la regla 5-4-3 se puede resolver el problema usando un switch o un bridge en el lugar adecuado. Un ejemplo puede ser la red siguiente que no cumple la regla. Se podría respetar esa arquitectura simplemente con sustituir el concentrador raíz o principal por un switch. De esta forma tendríamos dos redes separadas a nivel de colisiones aunque unidas a nivel de datos y en ambas se cumpliría la regla 5-4-3. Con el exterior Una red local bien dimensionada y con los servicios adecuados debidamente instalados, puede darnos mucho rendimiento y facilitar el trabajo diario de manera considerable. Pero también hay que valorar que hoy por hoy tiene cada vez menos sentido, tener nuestra LAN "aislada" del resto del mundo. Las ventajas de interconectarla con redes de ámbito global, no vamos a descubrirlas aquí. Creo que queda debidamente justificada la necesidad de hacerlo simplemente con nombrar el término INTERNET. El sistema de interconexión de nuestra LAN con Internet debe de cumplir una serie de requisitos: Debe de usar una única línea telefónica lo suficientemente rápida como para darle servicio a todos los puestos de nuestra red. Debe de conectarse con una única cuenta de acceso a Internet. La conexión debe de efectuarse bajo demanda, de manera que el sistema no esté gastando línea telefónica constantemente. Igualmente cuando no exista tráfico hacia el exterior, de debe de cortar la llamada telefónica para ahorrar consumo telefónico. Han de poder usar los servicios de Internet todos los puestos de nuestra red local. La solución que hemos adoptado para este proyecto pasa por la utilización de un dispositivo llamado router para unir la red local interna del centro con la "red de redes" a través de una línea telefónica digital de transmisión de datos. Esta línea es una RDSI (Red Digital de Servicios Integrados) y nos va a permitir conectar a velocidades superiores que con una línea RTC (Red Telefónica Conmutada) convencional. Quiere decir que cada vez que desde cualquier PC de la LAN se necesite conectar con algún recurso de Internet, el router provocará una llamada telefónica y conectará ambas redes. . De igual forma cuando pase un tiempo razonable sin que se esté solicitando servicios externos, el propio router desconectará la llamada para gastar sólo el tráfico telefónico necesario. ROUTER Los routers trabajan de forma similar a los conmutadores y puentes ya que filtran el tráfico de la red. La diferencia está en que en lugar de hacerlo según las direcciones de los paquetes de información, lo hacen en función del protocolo de red. Son dispositivos de interconexión de redes incluso de distinta arquitectura. Son capaces de direccionar la información a su destino utilizando para ello el camino apropiado. Su función más habitual es enlazar dos redes que usen el mismo protocolo a través de una línea de datos. RDSI La Red Digital de Servicios Integrados (RDSI) es una red de telefonía que aprovechando las mismas líneas de cobre que usa la Red Telefónica Conmutada (RTC) convencional, consigue velocidades muy superiores. Existen dos tipos de accesos RDSI. El básico y el primario. A nosotros nos interesa el básico ya que el primario se usa en grandes comunicaciones de anchos de banda muy elevados. Decir que un acceso primario son 30 accesos básicos. El acceso básico dispone de 2 canales B de 64 Kbits/s y un canal D de 16 Kbits/s. Los canales B se pueden usar de forma independiente con lo que se podrían considerar dos líneas individuales a todos los efectos, o multiplexando ambas y consiguiendo 128 Kbits/s para una única conexión. La RDSI está integrada en la red telefónica convencional, de forma que se pueden interconectar con abonados que dispongan de RTC. Algunas de las nuevas posibilidades que nos permiten este tipo de líneas: Transmisión de datos a gran velocidad. Aumenta la calidad de la voz transmitida en telefonía. Podemos usar fax de grupo 4, más rápido y de mayor calidad, siempre que en le otro extremo exista otro fax de esta categoría. Podremos hacer videoconferencias con una calidad bastante aceptable. Como se dijo anteriormente el cableado exterior desde la central de Telefónica hasta nuestro edificio, es convencional, el par de hilos de cobre de toda la vida. Es a partir del cajetín de entrada (TR), dentro ya del edificio, donde se distribuyen 4 hilos (2 para recepción y 2 para transmisión) hasta los dispositivos a conectar. Los conectores usados son RJ-45 como los usados en 10 Base-T. La información que viaja por una RDSI es digital en contraste con la analógica que es la usada en las líneas RTC convencionales. Por lo tanto los dispositivos que se conecten a la RDSI deben de ser también digitales como es el caso de un PC (con su tarjeta adaptadora), un router o un teléfono digital. También se pueden conectar teléfonos analógicos convencionales, siempre que se disponga del adaptador adecuado. Se puede contratar con Telefónica que el cajetín de entrada disponga de este adaptador. Es el denominado TR1 + 2 a/b, que nos proporciona 2 salidas RDSI básicas (conectores RJ-45) y dos analógicos (RTC, conectores RJ-11). También se pueden encontrar estos adaptadores en otros dispositivos como es el caso del router que implementamos en este proyecto. En nuestro proyecto vamos a usar la RDSI para conectar con Internet desde el router. Se van a conseguir velocidades muy superiores a las de una línea convencional. El router está preparado para usar un solo canal B (64 Kbits/s) o ambos multiplexados (128 Kbits/s). Es el proveedor de acceso a Internet el que nos habilitará o no esta posibilidad. 2.9.2 Token Ring. La arquitectura Token Ring fue desarrollada a mediados de los ochenta por IBM. Es el método preferido de IBM y es el que se suele encontrar en instalaciones de minis y mainframes. Aunque la popularidad en el mercado ha descendido en favor de Ethernet, sigue jugando un papel importante en el mercado de las redes. Introducción La versión de Token Ring de IBM se introdujo en 1984 en todo el entorno de IBM incluyendo: Equipos personales. Equipos de tamaño medio. Mainframes y en el entorno de Arquitectura de sistemas en red (SNA). SNA es la arquitectura de red de IBM. El objetivo de la versión de Token Ring de IBM era facilitar una estructura de cableado sencilla utilizando cable de par trenzado que conectase un equipo a la red mediante un enchufe de pared, y en el que el cableado principal se encontrase localizado en un lugar centralizado. En 1985, la Token Ring de IBM se convirtió en un estándar del Instituto de estandarización nacional americano (ANSI)/IEEE. (ANSI es una organización que se creó en Estados Unidos en 1918 para el desarrollo y adopción de estándares comerciales y de comunicación; ANSI es el equivalente americano del ISO.) Características de Token Ring Una red Token Ring es una implementación del estándar IEEE 802.5. Sus métodos de acceso de paso de testigo a través del anillo, además de su cableado físico, permite distinguir unas redes Token Ring de otras. Arquitectura La arquitectura de una red Token Ring típica comienza con un anillo físico. Sin embargo, en su implementación de IBM, un anillo cableado en estrella, los equipos de la red se conectan a un hub central. El anillo lógico representa el sentido de circulación para los testigos entre equipos. El anillo de cable físico actual está en el hub. Los usuarios son parte de un anillo, pero se conectan a él a través de un hub. Características básicas de Token Ring Una red Token Ring incluye estas características: Topología del cableado del anillo en estrella. Método de acceso de paso de testigo. Cableado de par trenzado apantallado y sin apantallar (Tipos 1, 2 y 3 de IBM). Velocidades de transferencia entre 4 y 16 Mbps. Transmisión banda base. Especificaciones 802.5. Formatos de trama El formato básico de la trama de datos de Token Ring consta de cabecera, datos y final. El campo de datos suele formar la mayor parte de la trama. Componentes de una trama de datos de Token Ring Delimitador de inicio: Indica el inicio de la trama. Control de acceso: Indica la prioridad de la trama y se trata de un testigo o de una trama de datos. Control de trama: Contiene información sobre el Control de acceso al medio para todos los equipos o información de «estación final» para un solo equipo. Dirección de destino: Indica la dirección del equipo que recibe la trama. Dirección de origen: Indica el equipo que envió la trama. Información o datos: Contiene los datos enviados. Secuencia de control de la trama: Contiene información de comprobación de errores CRC. Delimitador de fin: Indica el final de la trama. Estado de la trama: Indica si la trama fue reconocida, copiada, o si la dirección de destino estaba disponible. Funcionamiento de una red Token Ring Cuando el primer equipo de Token Ring entra en línea, la red genera un testigo. El anillo es una formación de bits predeterminada (una serie de datos) que permite a un equipo colocar datos en los cables. El testigo viaja a través de la red preguntando a cada equipo hasta que un equipo indica que quiere transmitir datos y se apodera del testigo y ningún equipo puede transmitir hasta que no tome el control del testigo. Una vez que una equipo se apodera del token, envía una trama de datos a través de la red. La trama viaja por la red hasta que alcanza el equipo con una dirección que coincida con la dirección de destino de la trama. El equipo de destino copia la trama en su búfer de recepción y marca la trama en el campo de estado de la trama para indicar que se ha recibido la información. La trama continúa por el anillo hasta que llegue al equipo que la envió, de forma que se valida la transmisión. A continuación, el equipo que envía retira la trama del anillo y transmite un testigo nuevo a éste. En la red sólo puede haber un testigo activo y el testigo puede viajar sólo en una dirección del anillo. ¿Circula el testigo en el sentido de las agujas del reloj o en sentido contrario? Realmente, la respuesta no importa. La dirección depende de las conexiones del hardware. Se puede hacer que el testigo viaje en el orden que desee. Los diseñadores de los hubs determinan el orden en que direcciona cada puerto y usted puede determinar el orden en que se conectan los equipos al hub. El estándar IEEE 802.5 dice que es en el sentido de las agujas del reloj, y la sección 3 de la publicación SC30-3374 de IBM dice que es en el sentido contrario de las agujas del reloj. El paso de testigos es determinante, lo que significa que un equipo no puede imponer su turno en la red, tal y como ocurre en un entorno CSMA/CD. Si el testigo está disponible, el equipo puede utilizarlo para enviar datos. Cada equipo actúa como un repetidor unidireccional, regenera el testigo y lo continúa pasando. Control del sistema El primer equipo que se active queda designado por el sistema Token Ring para controlar la actividad de la red. El equipo encargado del control asegura que las tramas se están entregando y recibiendo correctamente. Esto se realiza comprobando las tramas que circulan por el anillo más de una vez y asegura que sólo hay un testigo en la red. El proceso de monitorización se denomina de baliza (beaconing). El equipo encargado del control envía una baliza cada siete segundos. La baliza pasa de equipo en equipo por todo el anillo. Si un equipo no recibe la baliza de su vecino, notifica a la red su falta de conexión. Envía un mensaje que contiene su dirección y la dirección del vecino que no le ha enviado la baliza y el tipo de baliza. A partir de esta información, se intenta diagnosticar el problema y tratar de repararlo sin dividir la red. Si no se puede realizar la reconfiguración de forma automática es necesaria la intervención manual. Reconocimiento de un equipo Cuando un equipo de la red entra en línea, el sistema Token Ring lo inicializa de forma que pueda formar parte del anillo. Esta inicialización incluye: Comprobación de direcciones duplicadas. Notificación a otros equipos de la red de su existencia. Componentes hardware El hardware para redes Token Ring está basado en el hub, que es el que forma el anillo. Una red Token Ring puede tener varios hubs. El cableado que se utiliza para conectar los equipos a los hubs es STP o UTP; para extender las conexiones se pueden utilizar cables adaptadores. El cable de fibra óptica es especialmente apropiado para redes Token Ring. Junto con los repetidores, el cable de fibra óptica puede extender enormemente el rango de las redes Token Ring. El cableado para componentes se realiza con cuatro tipos de conectores. Otro tipo de hardware para Token Ring incluye a los filtros, paneles de conexiones y tarjetas de red. El hub En una red Token Ring, el hub es conocido con varios nombres y todos con el mismo significado. Entre estos están: MAU (Unidad de acceso multiestación). MSAU (Unidad de acceso multiestación). SMAU (Unidad de acceso multiestación inteligente). Los cables conectan los clientes y los servidores a la MSAU, que funciona como otros hubs pasivos. El anillo interno se convierte automáticamente en un anillo externo por cada conexión que se realice. Capacidad del hub Una MSAU IBM tiene 10 puertos de conexión. Puede conectar hasta 8 equipos. En cambio, una red Token Ring no está limitada a un anillo (hub). Cada anillo puede tener hasta 33 hubs. Cada red basada en MSAU puede soportar hasta 72 equipos que utilicen cable sin apantallar o hasta 260 equipos que utilicen cable apantallado. Otros fabricantes ofrecen hubs con más capacidad; la capacidad depende del fabricante y del modelo de hub. Cuando se llena un Token Ring, es decir, cuando cada puerto de la MSAU tiene una equipo conectada, podemos añadir otro anillo (MSAU) para ampliar la red. La única regla que hay que seguir es que cada MSAU tiene que estar conectada de forma que se convierta en parte del anillo. Los puntos de conexión de entrada y de salida utilizan cables adaptadores para conectar varias MSAU de forma que sigan formando un anillo. Tolerancia a fallos incorporada En una red con paso de testigo pura, un equipo que falle detiene la continuación del testigo. De hecho, esto detiene la red. Las MSAU se diseñaron para detectar la ocurrencia de fallos de una NIC. Este procedimiento salta el equipo que falla de forma que el testigo pueda continuar. En las MSAU de IBM, las conexiones o los equipos que no funcionen correctamente se saltan automáticamente y se desconectan del anillo. Así pues, un fallo en un equipo o en una conexión no afectará al resto de la red Token Ring. Cableado El cable STP o UTP conecta los equipos con los hubs en una red Token Ring. El cableado para Token Ring es IBM del Tipo 1, 2 y 3. La mayoría de las redes utilizan cableado UTP de Tipo 3 del sistema de cableado IBM. El cable conexión entre el equipo y la MSAU no puede tener más de 101 metros (330 pies) si es del Tipo 1. Cuando se utiliza cable STP, el equipo puede llegar a estar a una distancia máxima de 100 metros (unos 328 pies) de la MSAU. En cambio esta distancia es de 45 metros (unos 148 pies) cuando se utilice cable UTP. La longitud mínima para cable con o sin apantallar es de 2,5 metros (unos 8 pies). De acuerdo con IBM, la longitud máxima del cable de Tipo 3 desde una MSAU hasta un equipo o un servidor de archivos es de 46 metros (150 pies). Sin embargo, algunos fabricantes afirman que la transmisión de datos entre MSAU y equipo es fiable hasta 152 metros (500 pies). La longitud máxima entre una MSAU y otra está limitada a 152 metros (500 pies). Cada red Token Ring sólo puede acomodar a 260 equipos con cable STP y 72 equipos con UTP. Cables de conexión (patch cables) Los cables de conexión (patch cables) realizan la conexión entre un equipo y una MSAU. También pueden unir dos MSAU. En el sistema de cableado de IBM, estos cables son del Tipo 6, y sólo pueden llegar a medir 46 metros (150 pies). Un cable de conexión sólo permite 46 metros entre un equipo y una MSAU. El sistema de cableado de IBM también recomienda el cable de conexión de Tipo 6 para: Incrementar la longitud de cables de Tipo 3. Conectar directamente los equipos a las MSAU. Conectores Las redes Token Ring suelen utilizar estos tipos de conectores para conectar los cables a los componentes: Conectores de medios (MIC) para conectar cables de Tipo 1 y de Tipo 2. Éstos son los conectores de Tipo A de IBM, conocidos universalmente como conectores de datos universales. No son ni macho ni hembra; para conectar uno a otro basta con girarlo. Conectores de teléfono RJ-45 (8 pines) para cable de Tipo 3. Conectores de teléfono RJ-11 (4 pines) para cable de Tipo 3. Filtros para realizar la conexión entre una NIC Token Ring y un conector de teléfono estándar RJ-11/RJ-45. Filtros Los filtros son necesarios en equipos que utilizan cable telefónico de par trenzado de Tipo 3, ya que tienen que convertir los conectores del cable y reducen el ruido de la línea. Paneles de conexiones (patch panel) Una panel de conexión (patch panel) se utiliza para organizar los cables que hay entre una MSAU y un módulo de conexiones telefónicas. (Un módulo de conexiones es un tipo de hardware que proporciona conexiones terminales para conectar los extremos del cable de red.) Repetidores La utilización de repetidores puede aumentar las distancias de los cables Token Ring. Un repetidor vuelve a generar y a temporizar la señal Token Ring para aumentar las distancias entre MSAU en la red. Si utiliza un par de repetidores, puede llegar a separar las MSAU hasta 365 metros (1.200 pies) si utiliza cable de Tipo 3, o 730 metros (2.400 pies) si utiliza cable de Tipo 1 o de Tipo 2. Tarjetas de red Las tarjetas de red para Token Ring están disponibles en los modelos 4 Mbps y 16 Mbps. Las tarjetas de 16 Mbps permiten una trama de mayor longitud que realiza menos transmisiones para la misma cantidad de datos. La implementación de tarjetas para Token Ring necesita una atención especial, ya que una red Token Ring sólo puede funcionar a dos velocidades: 4 Mbps o 16 Mpbs. Si la red es una red a 4 Mbps, puede utilizar las tarjetas de 16 Mbps ya que pueden trabajar en el modo de 4 Mbps. Sin embargo, una red a 16 Mbps no aceptará las tarjetas de 4 Mbps, ya que no pueden aumentar su velocidad. Aunque hay varios fabricantes que fabrican NIC y componentes para Token Ring, la mayoría son vendidas por IBM. Cable de fibra óptica Debido a la mezcla de las series de datos (las series son un flujo de datos byte a byte), a las altas velocidades y a la transmisión de datos en una única dirección, las redes Token Ring son muy apropiadas para utilizar cable de fibra óptica. Aunque es más caro, el cable de fibra óptica puede aumentar enormemente el rango de una red Token Ring (hasta 10 veces de lo que permite el cable de cobre). El futuro de las redes Token Ring Aunque Ethernet es más popular, la tecnología Token Ring sigue activa y continúa creciendo. Muchas grandes compañías están eligiendo Token Ring para aplicaciones de misión crítica. Estas redes son redes conectadas con bridges que permiten protocolos como la Arquitectura de sistemas en red (SNA), NetBIOS, Protocolo de control de transmisión/Protocolo Internet (TCP/IP) e IPX. Las aplicaciones basadas en redes locales como correo electrónico, distribución de software e imágenes influyen en su crecimiento. Una vez conocidas las necesidades de ampliación de una compañía basta con añadir nuevos anillos unidos con bridges. Normalmente cada anillo permite entre 50 y 80 usuarios. Los usuarios actuales de Token Ring se enfrentan a estos desafíos: Requerimientos de complejidad, manejabilidad, costes y espacio para varios bridges de dos puertos. Congestión de los bridges. Congestión de los segmentos. Actualización a las tecnologías de alta velocidad. Un concepto reciente y relativamente nuevo para las redes Token Ring es el de la utilización de switches para proporcionar alternativas de alto rendimiento y de bajo coste utilizando bridges y routers. La idea de los switches es mover un dispositivo de una Token Ring a otra de forma electrónica. Estos conmutadores funcionan como los de un panel de conexiones. Los vendedores de hubs ofrecen una variedad de estos nuevos conmutadores para Token Ring. Especificaciones para Token Ring Topología: Anillo. Tipo de cable: Cable de par trenzado apantallado o sin apantallar. Resistencia del terminador, Ώ (ohmios): No se aplica. Impedancia (Ώ): 100-120 UTP, 150 STP. Longitud máxima del segmento de cable: Entre 45 y 400 metros, dependiendo del cable. Distancia mínima entre equipos: 2,5 metros. Número máximo de segmentos conectados: 33 unidades de acceso multiestación (MSAU). Número máximo de equipos por segmento: Sin apantallar: 72 equipos por hub; Apantallado: 260 equipos por hub. 2.9.3 FDDI. 2.10 Dispositivo de conectividad. 2.10.1 Repetidores. Hay varios tipos de medios y cada uno de estos medios tiene sus ventajas y desventajas. Una de las desventajas del tipo de cable que utilizamos principalmente (UTP CAT 5) es la longitud del cable. La longitud máxima para el cableado UTP de una red es de 100 metros (aproximadamente 333 pies). Si es necesario extender la red más allá de este límite, se debe agregar un dispositivo a la red. Este dispositivo se denomina repetidor. El término repetidor se ha utilizado desde la primera época de la comunicación visual, cuando una persona situada en una colina repetía la señal que acababa de recibir de la persona ubicada en la colina de la izquierda, para poder comunicar la señal a la persona que estaba ubicada en la colina de la derecha. También proviene de las comunicaciones telegráficas, telefónicas, por microondas y ópticas, cada una de las cuales usan repetidores para reforzar las señales a través de grandes distancias, ya que de otro modo en su debido tiempo las señales se desvanecerían gradualmente o se extinguirían. El propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits para permitir que los bits viajen a mayor distancia a través de los medios. Tenga en cuenta la Norma de cuatro repetidores para Ethernet de 10Mbps, también denominada Norma 5-4-3, al extender los segmentos LAN. Esta norma establece que se pueden conectar cinco segmentos de red de extremo a extremo utilizando cuatro repetidores pero sólo tres segmentos pueden tener hosts (computadores) en ellos. El término repetidor se refiere tradicionalmente a un dispositivo con un solo puerto de "entrada" y un solo puerto de "salida". Sin embargo, en la terminología que se utiliza en la actualidad, el término repetidor multipuerto se utiliza también con frecuencia. En el modelo OSI, los repetidores se clasifican como dispositivos de Capa 1, dado que actúan sólo a nivel de los bits y no tienen en cuenta ningún otro tipo de información. El símbolo para los repetidores no está estandarizado, por lo tanto, se utilizará el símbolo que aparece en la figura: Los repetidores regeneran y retemporizan las señales, lo que permite entonces que los cables se extiendan a mayor distancia. Solamente se encargan de los paquetes a nivel de los bits, por lo tanto, son dispositivos de Capa 1. Los repetidores son dispositivos de internetworking que existen en la capa física (la Capa 1) del modelo OSI. Pueden aumentar la cantidad de nodos que se pueden conectar a una red y, como consecuencia, la distancia a la cual se puede extender una red. Los repetidores modifican la forma, regeneran y retemporizan las señales antes de enviarlas por la red. La desventaja del uso de repetidores es que no pueden filtrar el tráfico de red. Los datos (bits) que llegan a uno de los puertos del repetidor se envían a todos los demás puertos. Los datos se transfieren a todos los demás segmentos de la LAN sin considerar si deben dirigirse hacia allí o no. Repetidores Cuando las señales viajan a través de un cable, se degradan y se distorsionan en un proceso denominado «atenuación». Si un cable es bastante largo, la atenuación provocará finalmente que una señal sea prácticamente irreconocible. La instalación de un repetidor permite a las señales viajar sobre distancias más largas. Un repetidor funciona en el nivel físico del modelo de referencia OSI para regenerar las señales de la red y reenviarla a otros segmentos. El repetidor toma una señal débil de un segmento, la regenera y la pasa al siguiente segmento. Para pasar los datos de un segmento a otro a través del repetidor, deben ser idénticos en cada segmento los paquetes y los protocolos Control lógico de enlace (LLC; Logical Link Control). Un repetidor no activará la comunicación, por ejemplo, entre una LAN (Ethernet) 802.3 y una LAN (Token Ring) 802.5. Los repetidores no traducen o filtran señales. Un repetidor funciona cuando los segmentos que unen el repetidor utilizan el mismo método de acceso. Un repetidor no puede conectar un segmento que utiliza CSMA/CD con un segmento que utiliza el método de acceso por paso de testigo. Es decir, un repetidor no puede traducir un paquete Ethernet en un paquete Token Ring. Los repetidores pueden desplazar paquetes de un tipo de medio físico a otro. Pueden coger un paquete Ethernet que llega de un segmento con cable coaxial fino y pasarlo a un segmento de fibra óptica. Por tanto, el repetidor es capaz de aceptar las conexiones físicas. Los repetidores constituyen la forma más barata de extender una red. Cuando se hace necesario extender la red más allá de su distancia o limitaciones relativas a los nodos, la posibilidad de utilizar un repetidor para enlazar segmentos es la mejor configuración, siempre y cuando los segmentos no generen mucho tráfico ni limiten los costes. Ni aislamiento ni filtrado. Los repetidores envían cada bit de datos de un segmento de cable a otro, incluso cuando los datos forman paquetes mal configurados o paquetes no destinados a utilizarse en la red. Esto significa que la presencia de un problema en un segmento puede romper el resto de los segmentos. Los repetidores no actúan como filtros para restringir el flujo del tráfico problemático. Además, los repetidores pasarán una «tormenta» de difusión de un segmento al siguiente, y así a través de toda la red. Una «tormenta» de difusión se produce cuando el número de mensajes de difusión que aparece en la red es superior al límite del ancho de banda de la red. El rendimiento de la red va a disminuir cuando un dispositivo está respondiendo a un paquete que está continuamente circulando por la red o a un paquete que está continuamente intentando contactar con un sistema que nunca responde. Implementación de un repetidor. Los pasos a considerar cuando se decide implementar repetidores en la red son: Conectar dos segmentos de medio similar o no similar. Regenerar la señal para incrementar la distancia transmitida. Pasar todo el tráfico en ambas direcciones. Conectar dos segmentos de la forma más efectiva en cuanto al coste. Los repetidores mejoran el rendimiento dividiendo la red en segmentos y, por tanto, reduciendo el número de equipos por segmento. Cuando se utilizan repetidores para extender la red, no olvide la regla 5-4-3. No utilice un repetidor cuando: Existe un tráfico de red altísimo. Los segmentos están utilizando diferentes métodos de acceso. Es necesario el filtrado de datos. 2.10.2 Concentradores (Hub, Mau). El propósito de un hub es regenerar y retemporizar las señales de red. Esto se realiza a nivel de los bits para un gran número de hosts (por ej., 4, 8 o incluso 24) utilizando un proceso denominado concentración. Podrá observar que esta definición es muy similar a la del repetidor, es por ello que el hub también se denomina repetidor multipuerto. La diferencia es la cantidad de cables que se conectan al dispositivo. Los hubs se utilizan por dos razones: para crear un punto de conexión central para los medios de cableado y para aumentar la confiabilidad de la red. La confiabilidad de la red se ve aumentada al permitir que cualquier cable falle sin provocar una interrupción en toda la red. Esta es la diferencia con la topología de bus, en la que, si un cable falla, se interrumpe el funcionamiento de toda la red. Los hubs se consideran dispositivos de Capa 1 dado que sólo regeneran la señal y la envían por medio de un broadcast a todos los puertos (conexiones de red). En networking, hay distintas clasificaciones de los hubs. La primera clasificación corresponde a los hubs activos o pasivos. La mayoría de los hubs modernos son activos; toman energía desde un suministro de alimentación para regenerar las señales de red. Algunos hubs se denominan dispositivos pasivos dado que simplemente dividen la señal entre múltiples usuarios, lo que es similar a utilizar un cable "Y" en un reproductor de CD para usar más de un conjunto de auriculares. Los hubs pasivos no regeneran los bits, de modo que no extienden la longitud del cable, sino que simplemente permiten que uno o más hosts se conecten al mismo segmento de cable. Otra clasificación de los hubs corresponde a hubs inteligentes y hubs no inteligentes. Los hubs inteligentes tienen puertos de consola, lo que significa que se pueden programar para administrar el tráfico de red. Los hubs no inteligentes simplemente toman una señal de networking entrante y la repiten hacia cada uno de los puertos sin la capacidad de realizar ninguna administración. La función del hub en una red token ring se ejecuta a través de la Unidad de conexión al medio (MAU). Físicamente, es similar a un hub, pero la tecnología token ring es muy distinta, como se explicará más adelante. En las FDDI, la MAU se denomina concentrador. Las MAU también son dispositivos de Capa 1. El símbolo correspondiente al hub no está estandarizado. Se utilizará el símbolo que se indica aquí. MAU ( Multistation Access Unit) : concentrador que permite insertar en el anillo o eliminar derivándolas, hasta 8 estaciones. El MAU detecta señales procedentes de las estaciones de trabajo, en caso de detectarse un dispositivo defectuoso o un cable deteriorado y elimina, derivándola, la estación en cuestión para evitar perdidas de datos y del TOKEN. Es el componente hardware central de una topología en estrella. Además, los hubs se pueden utilizar para extender el tamaño de una LAN. Aunque la utilización de un hub no implica convertir una LAN en una WAN, la conexión o incorporación de hubs a una LAN puede incrementar, de forma positiva, el número de estaciones. Este método de expansión de una LAN es bastante popular, pero supone muchas limitaciones de diseño. Es importante tener cuidado cuando se conectan los hubs. Los cables de paso se conectan de forma diferente que los cables estándares de enlace. Compruebe con los fabricantes si se necesita un cable de enlace estándar o un cable de paso. 2.10.3 Tranceptores. Un transceiver es una combinación de transmisor y receptor. En las aplicaciones de networking, esto significa que convierten una forma de señal en otra. Por ejemplo, varios dispositivos de networking traen una interfaz de unidad auxiliar y un transceiver para permitir que 10Base2, 10Base5, 10BaseT o 10\100Base-FX se conecten con el puerto. Una aplicación común es la conversión de puertos AUI en puertos RJ-45. Estos son dispositivos de Capa 1. Transmiten de una configuración de pin y/o medio a otra. Los transceivers a menudo se incorporan a las NIC, que se consideran normalmente como dispositivos de Capa 2. Los transceivers de las NIC se denominan componentes de señalización, lo que significa que codifican señales en un medio físico. 2.10.4 Puentes (Bridges). Un puente es un dispositivo de capa 2 diseñado para conectar dos segmentos LAN. El propósito de un puente es filtrar el tráfico de una LAN, para que el tráfico local siga siendo local, pero permitiendo la conectividad a otras partes (segmentos) de la LAN para enviar el tráfico dirigido a esas otras partes. Usted se preguntará, ¿cómo puede detectar el puente cuál es el tráfico local y cuál no lo es? La respuesta es la misma que podría dar el servicio postal cuando se le pregunta cómo sabe cuál es el correo local. Verifica la dirección local. Cada dispositivo de networking tiene una dirección MAC exclusiva en la NIC, el puente rastrea cuáles son las direcciones MAC que están ubicadas a cada lado del puente y toma sus decisiones basándose en esta lista de direcciones MAC. El aspecto de los puentes varía enormemente según el tipo de puente. Aunque los routers y los switches han adoptado muchas de las funciones del puente, estos siguen teniendo importancia en muchas redes. Para comprender la conmutación y el enrutamiento, primero debe comprender cómo funciona un puente. En el gráfico se indica el símbolo correspondiente al puente, que es similar a un puente colgante. Tradicionalmente, el término puente se refiere a un dispositivo con dos puertos. Sin embargo, también verá referencias a puentes con 3 o más puertos. Lo que realmente define un puente es el filtrado de tramas de capa 2 y la manera en que este proceso se lleva a cabo realmente. Como sucede en el caso de la combinación repetidor/hub, hay otro dispositivo que se utiliza para conectar múltiples puentes. Un puente conecta los segmentos de red y debe tomar decisiones inteligentes con respecto a si debe transferir señales al siguiente segmento. Un puente puede mejorar el rendimiento de una red al eliminar el tráfico innecesario y reducir al mínimo las probabilidades de que se produzcan colisiones. El puente divide el tráfico en segmentos y filtra el tráfico basándose en la estación o en la dirección MAC. . Los puentes no son dispositivos complejos. Analizan las tramas entrantes, toman decisiones de envío basándose en la información que contienen las tramas y envían las tramas a su destino. Los puentes sólo se ocupan de pasar los paquetes, o de no pasarlos, basándose en las direcciones MAC destino. Los puentes a menudo pasan paquetes entre redes que operan bajo distintos protocolos de Capa 2. Operaciones de puente de Capa 2 El puenteo se produce en la capa de enlace de datos, que controla el flujo de datos, maneja los errores de transmisión, proporciona direccionamiento físico y administra el acceso hacia el medio físico. Los puentes ofrecen estas funciones mediante diversos protocolos de capa de enlace que imponen control de flujo, manejo de errores, direccionamiento y algoritmos de acceso al medio específicos. Entre los ejemplos de protocolos de capa de enlace de datos de uso generalizado se incluyen Ethernet, Token Ring y FDDI. La transparencia del protocolo de capa superior es una de las ventajas principales del puenteo. No es necesario que los puentes examinen la información de capa superior, ya que operan en la capa de enlace de datos, o sea, en la Capa 2 del modelo OSI. Los puentes filtran el tráfico de red observando sólo la dirección MAC, no los protocolos. Es habitual que un puente transporte protocolos y otro tipo de tráfico entre dos o más redes. Como los puentes sólo verifican las direcciones MAC, pueden enviar rápidamente tráfico que represente cualquier protocolo de capa de red. Para filtrar o enviar de forma selectiva el tráfico de red, un puente genera tablas de todas las direcciones MAC ubicadas en sus segmentos de red directamente conectados. Si los datos se transportan a través del medio de red, el puente compara la dirección MAC destino que contienen los datos con las direcciones MAC de las tablas. Si el puente determina que la dirección MAC destino de los datos pertenece al mismo segmento de red que el origen, no envía los datos hacia los otros segmentos de la red. Si el puente determina que la dirección MAC destino de los datos no está en el mismo segmento de red que la fuente, envía los datos al segmento correspondiente. Al hacer esto, los puentes pueden reducir significativamente la cantidad de tráfico entre segmentos eliminando el tráfico innecesario. Los puentes son dispositivos de internetworking que se pueden usar para reducir los dominios de colisión de gran tamaño. Los dominios de colisión son áreas en las que existe la probabilidad de que los paquetes interfieran entre sí. Logran esto dividiendo la red en segmentos más pequeños y reduciendo la cantidad de tráfico que debe pasar entre los segmentos. Los puentes operan en la Capa 2 o capa de enlace de datos del modelo OSI, ya que sólo se encargan de las direcciones MAC. A medida que los datos se transportan a través de la red hacia su destino, cada dispositivo de la red, incluyendo los puentes, los recogen y los examinan. . Los puentes trabajan mejor cuando no hay demasiado tráfico entre un segmento de la red y los demás segmentos. Cuando el tráfico entre los segmentos de red aumenta, se puede producir un cuello de botella en el puente y la comunicación puede tornarse más lenta. Existe otro problema posible cuando se usa un puente. Los puentes siempre difunden y multiplican una clase especial de paquetes de datos. Estos paquetes de datos aparecen cuando un dispositivo de la red desea comunicarse con otro dispositivo, pero no conoce la dirección destino del dispositivo. Cuando esto ocurre, con frecuencia el origen envía un broadcast a todos los dispositivos de la red. Como todos los dispositivos de la red tienen que prestar atención a estos broadcasts, los puentes siempre los envían. Si se envían demasiados broadcasts a través de la red, se puede provocar una tormenta de broadcast. Una tormenta de broadcast puede retrasar la información más allá de los límites de tiempo, causar demoras en el tráfico y hacer que la red no pueda operar a un nivel óptimo. Bridges Al igual que un repetidor, un bridge puede unir segmentos o grupos de trabajo LAN. Sin embargo, un bridge puede, además, dividir una red para aislar el tráfico o los problemas. Por ejemplo, si el volumen del tráfico de uno o dos equipos o de un departamento está sobrecargando la red con los datos y ralentizan todas las operaciones, el bridge podría aislar a estos equipos o al departamento. Los bridges se pueden utilizar para: Extender la longitud de un segmento. Proporcionar un incremento en el número de equipos de la red. Reducir los cuellos de botella del tráfico resultantes de un número excesivo de equipos conectados. Dividir una red sobrecargada en dos redes separadas, reduciendo la cantidad de tráfico en cada segmento y haciendo que la red sea más eficiente. Enlazar medios físicos diferentes como par trenzado y Ethernet coaxial. Los bridges trabajan a nivel de enlace de datos del modelo de referencia OSI y, por tanto, toda la información de los niveles superiores no está disponible para ellos. Más que distinguir entre un protocolo y otro, los bridges pasan todos los protocolos que aparecen en la red. Todos los protocolos se pasan a través de los bridges, de forma que aparecen en los equipos personales para determinar los protocolos que pueden reconocer. Los bridges trabajan en el nivel MAC y, por ello, algunas veces se conocen como bridges de nivel MAC. Un bridge de nivel MAC: Escucha todo el tráfico. Comprueba la direcciones origen y destino de cada paquete. Construye una tabla de encaminamiento, donde la información está disponible. Reenvían paquetes de la siguiente forma: Si el destino no aparece en la tabla de encaminamiento, el bridge reenvía el paquete a todos los segmentos. Si el destino aparece en la tabla de encaminamiento, el bridge reenvía el paquete al segmento correspondiente (a menos que este segmento sea también el origen). Un bridge funciona considerando que cada nodo de la red tiene su propia dirección. Un bridge reenvía paquetes en función de la dirección del nodo destino. Realmente, los bridges tienen algún grado de inteligencia puesto que aprenden a dónde enviar los datos. Cuando el tráfico pasa a través del bridge, la información sobre las direcciones de los equipos se almacenan en la RAM del bridge. El bridge utiliza esta RAM para generar una tabla de encaminamiento en función de las direcciones de origen. Inicialmente, la tabla de encaminamiento del bridge está vacía. Cuando los nodos transmiten los paquetes, la dirección de origen se copia en la tabla de encaminamiento. Con esta información de la dirección, el bridge identifica qué equipos están en cada segmento de la red. Creación de la tabla de encaminamiento. Los bridges generan sus tablas de encaminamiento en función de las direcciones de los equipos que han transmitido datos en la red. Los bridges utilizan, de forma específica, las direcciones de origen (dirección del dispositivo que inicia la transmisión) para crear una tabla de encaminamiento. Cuando el bridge recibe un paquete, la dirección de origen se compara con la tabla de encaminamiento. Si no aparece la dirección de origen, se añade a la tabla. A continuación, el bridge compara la dirección de destino con la base de datos de la tabla de encaminamiento. Si la dirección de destino está en la tabla de encaminamiento y aparece en el mismo segmento de la dirección de origen, se descarta el paquete. Este filtrado ayuda a reducir el tráfico de la red y aislar segmentos de la red. Si la dirección de destino está en la tabla de encaminamiento y no aparece en el mismo segmento de la dirección de origen, el bridge envía el paquete al puerto apropiado que permite alcanzar la dirección de destino. Si la dirección de destino no está en la tabla de encaminamiento, el bridge envía el paquete a todos sus puertos, excepto al puerto desde donde se originó el envío. Resumiendo, si un bridge conoce la localización del nodo de destino, envía el paquete a dicha localización. Si no conoce el destino, envía el paquete a todos los segmentos. Segmentación del tráfico de red. Un bridge puede segmentar el tráfico mediante su tabla de encaminamiento. Un equipo en el segmento 1 (origen), envía datos a otro equipo (destino) también localizado en el segmento 1. Si la dirección de destino está en la tabla de encaminamiento, el bridge puede determinar que el equipo destino está también en el segmento 1. Dado que los equipos origen y destino están en el mismo segmento 1, se tiene que el paquete no se reenvía a través del bridge al segmento 2. Por tanto, los bridges pueden utilizar las tablas de encaminamiento para reducir el tráfico de la red controlando los paquetes que se envían al resto de los segmentos. Este control (o restricción) del flujo del tráfico de red se conoce como «segmentación del tráfico de red». Una red grande no está limitada a un solo bridge. Se pueden utilizar múltiples bridge para combinar diferentes redes pequeñas en una red más grande. Los bridges tienen todas las características de los repetidores, pero también proporcionan más ventajas. Ofrecen mejor rendimiento de red que los repetidores. Las redes unidas por bridges se han dividido y, por tanto, un número menor de equipos compiten en cada segmento por los recursos disponibles. Visto de otra forma, si una gran red Ethernet se dividió en dos segmentos conectados por un bridge, cada red nueva transportaría un número menor de paquetes, tendríamos menos colisiones y operaría de forma mucho más eficiente. Aunque cada red estaría separada, el bridge pasaría el tráfico apropiado entre ellas. Un bridge puede constituir una pieza de equipamiento autónoma, independiente (un bridge externo) o se puede instalar en un servidor. Si el sistema operativo de red (NOS) lo admite, puede instalar una o más tarjetas de red (NIC) generando un bridge interno. Su popularidad en grandes redes de debe a que: Son sencillos de instalar y transparentes a los usuarios. Son flexibles y adaptables. Son relativamente baratos. Diferencias entre bridge y repetidor Los bridges trabajan a un nivel superior del modelo OSI que los repetidores. Esto significa que los bridges tienen más inteligencia que los repetidores y pueden tener más características relativas a los datos en las cuentas. Mientras que los bridges parecen repetidores en el sentido que pueden regenerar los datos, este proceso se lleva a cabo a nivel de paquete. Esto significa que los bridges pueden enviar paquetes sobre distancias más largas utilizando una variedad de medios de larga distancia. 2.10.5 Conmutadores (Switch). Un switch, al igual que un puente, es un dispositivo de capa 2. De hecho, el switch se denomina puente multipuerto, así como el hub se denomina repetidor multipuerto. La diferencia entre el hub y el switch es que los switches toman decisiones basándose en las direcciones MAC y los hubs no toman ninguna decisión. Como los switches son capaces de tomar decisiones, hacen que la LAN sea mucho más eficiente. Los switches hacen esto conmutando los datos sólo hacia el puerto al que está conectado el host destino apropiado. Por el contrario, el hub envía datos desde todos los puertos, de modo que todos los hosts deban ver y procesar (aceptar o rechazar) todos los datos. A primera vista los switches parecen a menudo similares a los hubs. Tanto los hubs como los switches tienen varios puertos de conexión, dado que una de sus funciones es la concentración de conectividad (permitir que varios dispositivos se conecten a un punto de la red). La diferencia entre un hub y un switch está dada por lo que sucede dentro del dispositivo. El propósito del switch es concentrar la conectividad, haciendo que la transmisión de datos sea más eficiente. Por el momento, piense en el switch como un elemento que puede combinar la conectividad de un hub con la regulación de tráfico de un puente en cada puerto. El switch conmuta paquetes desde los puertos (interfaces) entrantes a los puertos salientes, suministrando a cada puerto el ancho de banda total (la velocidad de transmisión de datos en el backbone de la red). Posteriormente se brindarán más detalles acerca del tema. En el gráfico se indica el símbolo que corresponde al switch. Las flechas de la parte superior representan las rutas individuales que pueden tomar los datos en un switch, a diferencia del hub, donde los datos fluyen por todas las rutas. La conmutación es una tecnología que alivia la congestión en las LAN Ethernet, reduciendo el tráfico y aumentando el ancho de banda. Los switches, también denominados switches LAN, a menudo reemplazan a los hubs compartidos y funcionan con infraestructuras de cable existentes, de manera que su instalación puede realizarse con un mínimo de problemas en las redes existentes. En la actualidad, en las comunicaciones de datos, todos los equipos de conmutación y de enrutamiento ejecutan dos operaciones básicas: 1. conmutación de tramas de datos: E procedimiento mediante el cual una trama se recibe en un medio de entrada y luego se transmite a un medio de salida. 2. mantenimiento de operaciones de conmutación: Los switches crean y mantienen tablas de conmutación y buscan loops. Los routers crean y mantienen tanto tablas de enrutamiento como tablas de servicios. Como en el caso de los puentes, los switches conectan segmentos de la LAN, usan una tabla de direcciones MAC para determinar el segmento en el que es necesario transmitir un datagrama y reducen el tráfico. Los switches operan a velocidades mucho más altas que los puentes y pueden soportar nuevas funcionalidades como, por ejemplo, las LAN virtuales. Un switch Ethernet brinda muchas ventajas como, por ejemplo, permitir que varios usuarios se comuniquen en paralelo a través del uso de circuitos virtuales y segmentos de red dedicados en un entorno libre de colisiones. Esto aumenta al máximo el ancho de banda disponible en el medio compartido. Otra de las ventajas es que desplazarse a un entorno de LAN conmutado es muy económico ya que el hardware y el cableado se pueden volver a utilizar. Por último, los administradores de red tienen mayor flexibilidad para administrar la red a través de la potencia del switch y del software para configurar la LAN. Operaciones de la Capa 2 de los switches Los switches de LAN se consideran puentes multipuerto sin dominio de colisión debido a la microsegmentación. Los datos se intercambian a altas velocidades haciendo la conmutación de paquetes hacia su destino. Al leer la información de Capa 2 de dirección MAC destino, los switches pueden realizar transferencias de datos a altas velocidades de forma similar a los puentes. El paquete se envía al puerto de la estación receptora antes de que la totalidad de la trama ingrese al switch. Esto provoca niveles de latencia bajos y una alta tasa de velocidad para el envío de paquetes. La conmutación Ethernet aumenta el ancho de banda disponible en una red. Esto se hace creando segmentos de red dedicados, o conexiones punto a punto, y conectando estos segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch. Aunque el switch LAN reduce el tamaño de los dominios de colisión, todos los hosts conectados al switch pertenecen al mismo dominio de broadcast. Por lo tanto, un broadcast emitido de un nodo lo percibirán todos los demás nodos conectados a través del switch LAN. Los switches son dispositivos de enlace de datos que, al igual que los puentes, permiten que múltiples segmentos físicos de LAN se interconecten para formar una sola red de mayor tamaño. De forma similar a los puentes, los switches envían e inundan el tráfico basándose en las direcciones MAC. Dado que la conmutación se ejecuta en el hardware en lugar del software, es significativamente más veloz. Se puede pensar en cada puerto de switch como un micropuente; este proceso se denomina microsegmentación. De este modo, cada puerto de switch funciona como un puente individual y otorga el ancho de banda total del medio a cada host. 2.10.6 Gateways. En la comunidad IP, término antiguo que se refiere a un dispositivo de enrutamiento. Actualmente, el término router se utiliza para describir nodos que desempeñan esta función y gateway se refiere a un dispositivo especial que realiza una conversión de capa de aplicación de la información de una pila de protocolo a otro. Gateways Los gateways activan la comunicación entre diferentes arquitecturas y entornos. Se encargan de empaquetar y convertir los datos de un entorno a otro, de forma que cada entorno pueda entender los datos del otro entorno. Un gateway empaqueta información para que coincida con los requerimientos del sistema destino. Los gateways pueden modificar el formato de un mensaje para que se ajuste al programa de aplicación en el destino de la transferencia. Por ejemplo, los gateways de correo electrónico, como el X.400, reciben mensajes en un formato, los formatean y envían en formato X.400 utilizado por el receptor, y viceversa. Un gateway enlaza dos sistemas que no utilizan los mismos: Protocolos de comunicaciones. Estructuras de formateo de datos. Lenguajes. Arquitectura. Los gateways interconectan redes heterogéneas; por ejemplo, pueden conectar un servidor Windows NT de Microsoft a una Arquitectura de red de los sistemas IBM (SNA). Los gateways modifican el formato de los datos y los adaptan al programa de aplicación del destino que recibe estos datos. Los gateways son de tarea específica. Esto significa que están dedicados a un tipo de transferencia. A menudo, se referencian por su nombre de tarea (gateway Windows NT Server a SNA). Un gateway utiliza los datos de un entorno, desmantela su pila de protocolo anterior y empaqueta los datos en la pila del protocolo de la red destino. Para procesar los datos, el gateway: Desactiva los datos de llegada a través de la pila del protocolo de la red. Encapsula los datos de salida en la pila del protocolo de otra red para permitir su transmisión. Algunos gateways utilizan los siete niveles del modelo OSI, pero, normalmente, realizan la conversión de protocolo en el nivel de aplicación. No obstante, el nivel de funcionalidad varía ampliamente entre los distintos tipos de gateways. Una utilización habitual de los gateways es actuar como traductores entre equipos personales y miniequipos o entornos de grandes sistemas. Un gateway en un host que conecta los equipos de una LAN con los sistemas de miniequipo o grandes entornos (mainframe) que no reconocen los equipos conectados a la LAN. En un entorno LAN normalmente se diseña un equipo para realizar el papel de gateway. Los programas de aplicaciones especiales en los equipos personales acceden a los grandes sistemas comunicando con el entorno de dicho sistema a través del equipo gateway. Los usuarios pueden acceder a los recursos de los grandes sistemas sólo cuando estos recursos están en sus propios equipos personales. Normalmente, los gateways se dedican en la red a servidores. Pueden utilizar un porcentaje significativo del ancho de banda disponible para un servidor, puesto que realizan tareas que implican una utilización importante de recursos, tales como las conversiones de protocolos. Si un servidor gateway se utiliza para múltiples tareas, será necesario adecuar las necesidades de ancho de banda y de RAM o se producirá una caída del rendimiento de las funciones del servidor. Los gateways se consideran como opciones para la implementación, puesto que no implican una carga importante en los circuitos de comunicación de la red y realizan, de forma eficiente, tareas muy específicas. 2.10.7 Routers. El router es el primer dispositivo con que trabajaremos que pertenece a la capa de red del modelo OSI, o sea la Capa 3. Al trabajar en la Capa 3 el router puede tomar decisiones basadas en grupos de direcciones de red (Clases) en contraposición con las direcciones MAC de Capa 2 individuales. Los routers también pueden conectar distintas tecnologías de Capa 2, como por ejemplo Ethernet, Token-ring y FDDI. Sin embargo, dada su aptitud para enrutar paquetes basándose en la información de Capa 3, los routers se han transformado en el backbone de Internet, ejecutando el protocolo IP. El propósito de un router es examinar los paquetes entrantes (datos de capa 3), elegir cuál es la mejor ruta para ellos a través de la red y luego conmutarlos hacia el puerto de salida adecuado. Los routers son los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura. Permiten que prácticamente cualquier tipo de computador se pueda comunicar con otro computador en cualquier parte del mundo. Los routers también pueden ejecutar muchas otras tareas mientras ejecutan estas funciones básicas. Estas tareas se describen en los capítulos siguientes. El símbolo correspondiente al router (observe las flechas que apuntan hacia adentro y hacia fuera) sugiere cuáles son sus dos propósitos principales: la selección de ruta y la conmutación de paquetes hacia la mejor ruta. Un router puede tener distintos tipos de puertos de interfaz. La figura muestra un puerto serial que es una conexión WAN. El gráfico también muestra la conexión del puerto de consola que permite realizar una conexión directa al router para poder configurarlo. La figura muestra otro tipo de interfaz de puerto. El tipo de interfaz de puerto que se describe es un puerto Ethernet, que es una conexión LAN. Este router en particular tiene un conector 10BASE-T y un conector AUI para la conexión Ethernet. Routers En un entorno que está formado por diferentes segmentos de red con distintos protocolos y arquitecturas, el bridge podría resultar inadecuado para asegurar una comunicación rápida entre todos los segmentos. Una red de esta complejidad necesita un dispositivo que no sólo conozca la direcciones de cada segmento, sino también, que sea capaz de determinar el camino más rápido para el envío de datos y filtrado del tráfico de difusión en el segmento local. Este dispositivo se conoce como «router». Los routers trabajan en el nivel de red del modelo de referencia OSI. Esto significa que pueden conmutar y encaminar paquetes a través de múltiples redes. Realizan esto intercambiando información específica de protocolos entre las diferentes redes. Los routers leen en el paquete la información de direccionamiento de la redes complejas teniendo acceso a información adicional, puesto que trabajan a un nivel superior del modelo OSI en comparación con los bridges. Los routers pueden proporcionar las siguientes funciones de un bridge: Filtrado y aislamiento del tráfico. Conexión de segmentos de red. Los routers tienen acceso a más información en los paquetes de la que tienen los bridges y utilizan esta información para mejorar la entrega de los paquetes. Los routers se utilizan en redes complejas puesto que proporcionan una mejor gestión del tráfico. Los routers pueden compartir con otro router el estado y la información de encaminamiento y utilizar esta información para evitar conexiones lentas o incorrectas. ¿Cómo funcionan los routers? Los routers mantienen sus propias tablas de encaminamiento, normalmente constituidas por direcciones de red; también se pueden incluir las direcciones de los hosts si la arquitectura de red lo requiere. Para determinar la dirección de destino de los datos de llegada, las tablas de encaminamiento incluyen: Todas las direcciones de red conocidas. Instrucciones para la conexión con otras redes. Los posibles caminos entre los routers. El coste de enviar los datos a través de estos caminos. Un router utiliza sus tablas de encaminamiento de datos para seleccionar la mejor ruta en función de los caminos disponibles y del coste. La tabla de encaminamiento que mantiene un bridge contienen las direcciones del subnivel MAC para cada nodo, mientras que la tabla de encaminamiento que mantiene un router contiene números de red. Aunque los fabricantes de ambos tipos de equipamiento han seleccionado utilizar el término «tabla de encaminamiento», tienen diferente significado para cada uno de los dispositivos. Los routers requieren direcciones específicas. Entienden sólo los números de red que les permiten comunicarse con otros routers y direcciones NIC locales. Los routers no conversan con equipos remotos. Cuando los routers reciben paquetes destinados a una red remota, los envían al router que gestiona la red de destino. En algunas ocasiones esto constituye una ventaja porque significa que los routers pueden: Segmentar grandes redes en otras más pequeñas. Actuar como barrera de seguridad entre los diferentes segmentos. Prohibir las «tormentas» de difusión, puestos que no se envían estos mensajes de difusión. Los routers son más lentos que los bridges, puesto que deben realizar funciones complejas sobre cada paquete. Cuando se pasan los paquetes de router a router, se separan la direcciones de origen y de destino del nivel de enlace de datos y, a continuación, se vuelven a generar. Esto activa a un router para encaminar desde una red Ethernet TCP/IP a un servidor en una red Token Ring TCP/IP. Dado que los routers sólo leen paquetes direccionados de red, no permiten pasar datos corruptos a la red. Por tanto, al no permitir pasar datos corruptos ni tormentas de difusión de datos, los routers implican muy poca tensión en las redes. Los routers no ven la dirección del nodo de destino, sólo tienen control de las direcciones de red. Los routers pasarán información sólo si conocen la dirección de la red. Esta capacidad de controlar el paso de datos a través del router reduce la cantidad de tráfico entre las redes y permite a los routers utilizar estos enlaces de forma más eficiente que los bridges. La utilización de un esquema de direccionamiento basado en router permite a los administradores poder dividir una gran red en muchas redes separadas, y dado que los routers no pasan e incluso controlan cada paquete, actúan como una barrera de seguridad entre los segmentos de la red. Esto permite reducir bastante la cantidad de tráfico en la red y el tiempo de espera por parte de los usuarios. Protocolos que permiten encaminar. No todos los protocolos permiten encaminar. Los protocolos que encaminan son: DECnet. Protocolo de Internet (IP). Intercambio de paquetes entre redes (IPX). OSI. Sistema de red de Xerox (XNS). DDP (Apple Talk). Los protocolos que no pueden encaminar son: Protocolo de transporte de área local (LAT), un protocolo de Digital Equipment Corporation. NetBEUI (Interfaz de usuario extendida NetBIOS). Los routers pueden utilizar en la misma red múltiples protocolos. Selección de los caminos. A diferencia de los bridges, los routers pueden establecer múltiples caminos activos entre los segmentos LAN y seleccionar entre los caminos redundantes. Los routers pueden enlazar segmentos que utilizan paquetes de datos y acceso al medio completamente diferentes, permitiendo utilizar a los routers distintos caminos disponibles. Esto significa que si un router no funciona, los datos todavía se pueden pasar a través de routers alternativos. Un router puede escuchar una red e identificar las partes que están ocupadas. Esta información la utiliza para determinar el camino sobre el que envía los datos. Si un camino está ocupado, el router identifica un camino alternativo para poder enviar los datos. Un router decide el camino que seguirá el paquete de datos determinando el número de saltos que se generan entre los segmentos de red. Al igual que los bridges, los routers generan tablas de encaminamiento y las utilizan en los siguientes algoritmos de encaminamiento: OSPF («Primer camino abierto más corto») es un algoritmo de encaminamiento basado en el estado del enlace. Los algoritmos de estado de enlace controlan el proceso de encaminamiento y permiten a los routers responder rápidamente a modificaciones que se produzcan en la red. RIP (Protocolo de información de encaminamiento) utiliza algoritmos con vectores de distancia para determinar la ruta. El Protocolo de control de transmisión/Protocolo de Internet (TCP/IP) e IPX admite RIP. NLSP (Protocolo de servicios de enlace NetWare) es un algoritmo de estado de enlace a utilizar con IPX. Tipos de routers Los tipos principales de routers son: Estático. Los routers estáticos requieren un administrador para generar y configurar manualmente la tabla de encaminamiento y para especificar cada ruta. Dinámico. Los routers dinámicos se diseñan para localizar, de forma automática, rutas y, por tanto, requieren un esfuerzo mínimo de instalación y configuración. Son más sofisticados que los routers estáticos, examinan la información de otros routers y toman decisiones a nivel de paquete sobre cómo enviar los datos a través de la red. Características de los dos tipos de routers Routers estáticos Instalación y configuración manual de todos los routers Utilizan siempre la misma ruta, Routers dinámicos Configuración manual del primer router. Detectan automáticamente redes y routers adicionales. Pueden seleccionar un ruta en determinada a partir de una entrada en la tabla de encaminamiento función de factores tales como coste y cantidad del tráfico de enlace. Utilizan una ruta codificada Pueden decidir enviar paquetes (designada para manejar sólo una sobre rutas alternativas. situación específica), no necesariamente la ruta más corta. Se consideran más seguros puesto que los administradores especifican cada ruta Pueden mejorar la seguridad configurando manualmente el router para filtrar direcciones específicas de red y evitar el tráfico a través estas direcciones. Diferencias entre bridges y routers Los bridges y los routers se configuran para realizar las mismas cosas: enviar paquetes entre redes y enviar datos a través de los enlaces WAN, lo que plantea una cuestión importante: cuándo utilizar un bridge o y cuando utilizar un router. El bridge, que trabaja en el subnivel MAC del nivel de enlace de datos del modelo OSI, utiliza sólo la dirección del nodo. Para ser más específicos, un bridge trata de localizar una dirección del subnivel MAC en cada paquete. Si el bridge reconoce la dirección, mantiene el paquete o lo reenvía al segmento apropiado. Si el bridge no reconoce la dirección, envía el paquete a todos los segmentos excepto al segmento del cual ha partido el paquete. Primero, el bridge reconoce o no la dirección del subnivel MAC del paquete y, a continuación, envía el paquete. Difusión. El envío de paquetes es la clave para entender las diferencias que plantean los bridges y los routers. Con los bridges, los datos de difusión enviados se dirigen a cada equipo desde todos los puertos del bridge, excepto desde el puerto a través del cual ha llegado el paquete. Es decir, cada equipo de todas las redes (excepto la red local a partir de la cual se ha generado la difusión) recibe un paquete de difusión. En las redes pequeñas esto puede que no tenga mucho impacto, pero en una red grande se puede generar el suficiente tráfico de difusión que provoque una bajada de rendimiento de la red, incluso filtrando las direcciones de la misma. El router, que trabaja a nivel de red y tiene en cuenta más información que el bridge, determinando no sólo qué enviar, sino también dónde enviarlo. El router reconoce no sólo una dirección, al igual que el bridge, sino también un tipo de protocolo. De forma adicional, el router puede identificar las direcciones de otros routers y determinar los paquetes que se envían a otros routers. Múltiples caminos. Un bridge sólo puede reconocer un único camino entre las redes. Un router puede buscar diferentes caminos activos y determinar en un momento determinado cuál resulta más adecuado. Si un router A realiza una transmisión que necesita enviarse al router D, puede enviar el mensaje al router C o al B, y el mensaje será enviado al router D. Los routers tienen la posibilidad de evaluar ambos caminos y decidir la mejor ruta para esta transmisión. Conclusión. Cuatro son los aspectos que ayudan a distinguir las diferencias entre un bridge y un router, y determinar la opción más apropiada en una determinada situación: El bridge reconoce sólo las direcciones locales a subnivel MAC (las direcciones de las NIC en su propio segmento). Los routers reconocen direcciones de red. El bridge difunde (envía) todo lo que no reconoce y lo envía a todas las direcciones que controla, pero sólo desde el puerto apropiado. El router trabaja sólo con protocolos encaminables. El router filtra las direcciones. Envía protocolos particulares a direcciones determinadas (otros routers). B-routers Un brouter combina las cualidades de un bridge y un router. Un brouter puede actuar como un router para un protocolo y como un bridge para el resto. Los b-routers pueden: Encaminar protocolos encaminables seleccionados. Actuar de bridge entre protocolos no encaminables. Proporcionar un mejor coste y gestión de interconexión que el que proporcionan los bridges y routers por separado. 2.11 Servidores. 2.11.1 De archivos e impresión. La mayor parte de las empresas necesitan uno o más servidores de usuarios y archivos. Windows NT incorpora las herramientas necesarias para que la configuración de estos servicios se realice cómodamente. Un servidor de usuarios es aquella máquina que valida a los usuarios de la red cuando escriben su nombre de usuario y contraseña al iniciar sesión. Si el nombre de usuario y contraseña escritos por el usuario no son reconocidos por el servidor de usuarios, no se le permitirá acceder a los recursos en red. En Windows NT esta máquina recibe el nombre de Controlador principal de dominio. Los usuarios de la red se dice que inician sesión en el dominio del servidor (tienen que haber sido dados de alta previamente en el servidor como usuarios del dominio). El administrador de la red se encarga de la gestión de usuarios: altas, bajas, cambios de contraseña, etc. Un servidor de archivos es la máquina que contiene los archivos privados de cada usuario, los de su grupo de trabajo y los archivos públicos de la red. En realidad, se trata de una colección de carpetas compartidas pero con distintos permisos de acceso. El administrador de la red debe preocuparse de establecer los permisos de acceso correctamente y de realizar las pertinentes copias de seguridad. Las tareas de servidor de usuarios y archivos puede realizarlas una misma máquina Windows NT Server o bien, distintas máquinas. Incluso, puede haber varios servidores de usuarios y varios servidores de archivos según las dimensiones de la red. En este apartado nos centraremos en el primer caso: un solo ordenador realiza ambas tareas. Servidor de Archivos : Es aquel equipo que permite compartir los archivos y programas que se encuentren en su(s) disco(s). Ordinariamente funciona también como servidor de impresoras. En el concepto de servidor de archivos, un usuario no puede accesar, indistintamente, discos que se encuentren en otras microcomputadoras. El servidor de archivos es una microcomputadora designada como administrador de los recursos comunes. Al hacer esto, se logra una verdadera eficiencia en el uso de éstos, así como una total integridad de los datos. Los archivos y programas pueden accesarse en modo multiusuario guardando el orden de actualización por el procedimiento de bloqueo de registros. Es decir, cuando algún usuario se encuentra actualizando un registro, se bloquea éste para evitar que algún otro usuario lo extraiga o intente actualizar. El servidor de archivos es la parte del sistema operativo que cubre una de las cuatro clases de funciones que tiene este en su faceta de máquina extendida. Los Objetivos fundamentales del servidor de archivos son los dos siguientes: Facilitar el manejote los dispositivos periféricos. Para ello ofrece una visión lógica simplificada de los mismos en forma de archivos. Proteger a los usuarios, poniendo limitaciones a los archivos que es capaz de manipular cada usuario. Los servicios que se engloban en el servidor de archivos son de dos tipos: Los servicios dirigidos al manejo de datos, o archivos. Dedicated and Non Dedicated File Servers (Servidores de Archivos Dedicados y No Dedicados). Un servidor de archivos dedicado es una computadora con disco duro, usada exclusivamente como servidor de archivos de la red; dedicando toda su memoria y recursos de procesamiento a este fin. Un servidor de archivos no dedicado, es usado como estación de trabajo adicionalmente a sus funciones de servidor; esto significa particionar la RAM para permitir la ejecución de sus programas. Print Server (Servidores de Impresoras). Un servidor de impresoras de red puede habilitar docenas de estaciones de trabajo para compartir varios tipos de impresoras. Las impresoras pueden ser limitadas a ciertos usuarios de la red. El administrador de la red instala un programa que define por default la impresora a utilizar. El software del servidor de impresoras soporta una cola de impresión (print spooler), la cual crea una área de memoria secundaria, donde los archivos pueden ser almacenados hasta que sea su turno de ser impresos. Además de esto, existe la posibilidad de que una estación de trabajo tenga su propia impresora local. Servidor de Archivos de NetWare. NetWare está diseñado para ofrecer un verdadero soporte de servidor de archivos de red. En el modelo OSI, el software de servidor de archivos de Novell reside en la capa de aplicaciones, mientras que el software operat ivo de disco (DOS) reside en la capa de presentación. El software de servidores de archivos forma una cubierta alrededor de los sistemas operativos, como el DOS, y es capaz de interceptar comandos de programas de aplicaciones antes de que lleguen a l procesador de comandos del sistema operativo. El usuario de las estaciones de trabajo no se da cuenta de este fenómeno, simplemente pide un archivo de datos o un programa sin preocuparse acerca de dónde está ubicado. Administración de Archivos en NetWare. Ciertos usuarios quizás deseen ejecutar aplicaciones individuales en un ambiente de usuarios múltiples. El administrador del sistema puede determinar que un programa o archivo sea compartible (Capaz de ser compartid o) o no compartible (Restringido a un usuario a la vez). NetWare también contiene una función predeterminada de bloqueo de archivos, lo cual significa que los programas de un solo usuario pueden ser utilizados por diferentes usuarios, pero uno a la vez. 2.11.2 Administradores de cuentas de usuarios. Gestión de usuarios. Grupos globales y locales Cada usuario de la red necesita un nombre de usuario y contraseña para iniciar sesión en el dominio desde su puesto de trabajo. Estos dos datos se establecen en el servidor de usuarios (Controlador principal de dominio). La gestión de usuarios se realiza desde el programa Administrador de usuarios que se encuentra en Menú Inicio / Programas / Herramientas administrativas. La siguiente ventana muestra los campos que se deben introducir para el alta de un nuevo usuario. Únicamente son obligatorios el nombre de usuario y la contraseña, la cual hay que escribirla dos veces a modo de confirmación. Los puestos de trabajo (Windows 98) se deben configurar para que inicien sesión en el dominio de Windows NT que hemos configurado según se explica en el apartado Contraseña de red Microsoft y contraseña de Windows. El nombre del dominio es el que hemos indicado durante la instalación de Windows NT (se puede consultar en las propiedades de Entorno de red, pestaña Identificación) y es distinto al nombre del servidor. Después de la instalación de Windows NT, hay varios usuarios que aparecen ya creados en el Administrador de usuarios: Administrador. Es el usuario que dispone de los máximos privilegios. Se utiliza para la administración del sistema, aunque no para el trabajo diario. Su contraseña debe ser la más protegida de la red (consultar el apartado Modelos de redes seguras). Invitado. Su finalidad es ofrecer acceso al sistema con unos mínimos privilegios a usuarios esporádicos. Es habitual desactivar esta cuenta ya que no es posible su eliminación. IUSR_nombre-del-servidor. Es la cuenta que utilizan los clientes que acceden al servidor web configurado en Windows NT (Internet Information Server). Sólo se debe tener habilitada si el servidor está ejerciendo tareas de servidor web. Si bien es cierto que a cada usuario se le pueden asignar individualmente permisos distintos, no suele ser lo más práctico. En su lugar, se crean grupos de usuarios que comparten los mismos privilegios (por ejemplo, todos los usuarios de un mismo departamento de la empresa). La gestión de permisos se simplifica considerablemente de esta forma. Un grupo es un conjunto de usuarios con los mismos privilegios. Un grupo puede ser de dos tipos: Grupo global ( ). Puede contener usuarios de un mismo dominio. Por ejemplo, el grupo "Admins. del dominio" (ver imagen superior). Grupo local ( ). Puede contener grupos globales y usuarios de distintos dominios. Por ejemplo, el grupo "Administradores". La norma habitual es crear dos grupos de usuarios (uno global y otro local) para cada agrupación de usuarios que deseemos crear. Procederemos de la siguiente forma: 1. 2. 3. 4. Crear los grupos globales Incluir los usuarios dentro de los grupo globales Crear un grupo local que incluya a cada grupo global Asignar los recursos a los grupos locales Los usuarios nuevos que creemos deben pertenecer siempre al grupo global predeterminado "usuarios del dominio", aunque pueden pertenecer además a otros grupos globales que nosotros creemos. Veamos un ejemplo: Los usuarios de la red María, Pablo e Isabel son alumnos y necesitan tener una carpeta en el servidor que les permita realizar sus prácticas: 1. 2. 3. 4. Creamos el grupo global "alumnos del dominio" Damos de alta a los usuarios "maria", "pablo" e "isabel" y los incluimos en el grupo global "alumnos del dominio" (además de en "usuarios del dominio") Creamos el grupo local "alumnos" y dentro incluimos el grupo global "alumnos del dominio" Creamos la carpeta "practicas" y la compartimos al grupo local "alumnos" Si más adelante necesitamos dar de alta a algún alumno nuevo, bastará con incluirlo en el grupo global "alumnos del dominio" y automáticamente tendrá los mismos permisos de acceso que el resto de alumnos (podrá acceder a la carpeta "practicas"). En el siguiente ejemplo vamos a crear un mayor número de grupos. Supongamos que tenemos dos grupos de alumnos: unos que asisten a clase por la mañana y otros que lo hacen por la tarde. Cada grupo tendrá una carpeta distinta para almacenar sus prácticas. Estará disponible, además, una carpeta común para ambos grupos de alumnos. Finalmente, crearemos una carpeta pública que sea accesible no sólo por los alumnos sino también por el resto de usuarios del dominio. 1. 2. Crear los grupos globales "mañanas global" y "tardes global". Dar de alta al usuario "fulanito" (es un alumno que asiste por las mañanas) e incluirlo dentro de los grupos globales "mañanas global" y "usuarios del dominio" 3. Dar de alta al usuario "menganito" (es un alumno que asiste por las tardes) e incluirlo dentro de los grupos globales "tardes global" y "usuarios del dominio" 4. Dar de alta al usuario "aladino" (es el jefe de estudios) e incluirlo dentro del grupo global "usuarios del dominio" 5. Crear los grupos locales "mañanas", "tardes" y "alumnos". 6. En el grupo local "mañanas" incluir el grupo global "mañanas global" 7. En el grupo local "tardes" incluir el grupo global "tardes global" 8. En el grupo local "alumnos" incluir los grupos globales "mañanas global" y "tardes global" 9. Crear la carpeta "\compartir\practicasmañanas" con control total al grupo local "mañanas" 10. Crear la carpeta "\compartir\practicastardes" con control total al grupo local "tardes" 11. Crear la carpeta "\compartir\todoslosalumnos" con control total al grupo local "alumnos" 12. Crear la carpeta "\compartir\todoslosusuarios" con control total al grupo local "usuarios" Creación de carpetas para usuarios y grupos Una vez que hemos creado los usuarios, grupos globales y locales es el momento de diseñar una estructura de carpetas en el servidor para que los usuarios de la red puedan almacenar sus archivos privados y compartir documentos con otros usuarios. En los ejemplos anteriores ya hemos introducido el concepto de carpetas de grupos; sin embargo, ahora vamos a verlo con más detalle. Las necesidades de almacenamiento de archivos en una red se suelen reducir a tres tipos de carpetas para cada usuario: Carpeta privada del usuario. Únicamente tiene acceso el usuario propietario de esa carpeta (ni siquiera los directores o supervisores de su departamento). El usuario puede almacenar en esa carpeta los archivos que considere oportunos con total privacidad. El administrador de la red puede imponer un límite de espacio para evitar que las carpetas de los usuarios crezcan indefinidamente. Carpetas del grupo. Son una o más carpetas utilizadas por el grupo (departamento de la empresa) para intercambiar datos. Únicamente tienen acceso los miembros de un determinado grupo de usuarios, pero no los miembros de otros grupos. Por ejemplo, el departamento de diseño podría tener una carpeta llamada "diseños" que almacenase los diseños que está creando el departamento; y el departamento de contabilidad, una carpeta llamada "cuentas" que almacenase las cuentas de la empresa. Carpetas públicas. Son una o más carpetas que están a disposición de todos los usuarios de la red. Por ejemplo, una carpeta llamada "circulares" que incluyese documentos de interés para todos los trabajadores de la empresa. ¿Cómo organizar las carpetas en el disco duro del servidor? Es recomendable que se almacenen en una partición NTFS para disponer de seguridad. Las particiones FAT no son las más indicadas puesto que no permiten la configuración de permisos locales de acceso aunque sí permisos a la hora de compartir carpetas en la red. Este punto lo estudiaremos detenidamente más abajo. A continuación se muestra un ejemplo de organización del disco duro del servidor que trata de diferenciar las carpetas de usuarios, grupos y pública. Las únicas carpetas que se comparten son las del último nivel (nunca las carpetas "compartir", "usuarios" o "grupos"); en concreto, las carpetas "alumnos", "mañanas", "tardes", "publico", "aladino", "fulanito" y "menganito". Cada una de estas carpetas tendrá unos permisos de acceso distintos. Lo habitual es dar permiso de control total al propietario de la carpeta (ya sea el usuario o un grupo local) en Compartir y control total a todos en Seguridad. En el caso de la carpeta "publico" daremos control total al grupo "usuarios" en Compartir. Los permisos se asignan accediendo a las propiedades de la carpeta. Obsérvese que las pestañas Compartir y Seguridad pueden tener permisos distintos. Veamos cómo quedarían los permisos de la carpeta "alumnos". Podemos seguir este mismo esquema para el resto de carpetas. 2.5.3 De aplicación. Servidor de aplicación: Todas las aplicaciones informáticas, tales como software de procesamiento de texto y hojas de cálculo, se deben guardar en el servidor central de cada ubicación escolar. Un servidor de Aplicación es un conjunto de programas y tecnologías que permiten: Creación de páginas Web dinámicas(JSP en Java o ASP en Microsoft), Componentes que pueden encapsular la lógica del negocio(COM en Microsoft o EJB en Java), soporte de transacciones, acceso a la aplicación desde clientes HTTP, soporte para invocar métodos remotos, manejo de seguridad y uso de SSL y conexión con Bases de Datos(ODBC en Microsot y JDBC en Java) Los Servidores de Aplicación son la solución ideal cuando es necesario un único (o muy pocos) servicio/s los cuáles deberán permitir altas cargas de lavoro y/o elevado nivel de seguridad. Servidores de Aplicación para Bases de Datos Los Servidores para bases de datos pueden proveer grandes capacidades de almacenamiento de datos junto a la capacidad de soportar grandes cantidades de consultas simultaneas. Podemos instalar, configurar, poner a funcionar y mantener para Usted un servidor de bases de datos para MySQL, PostgreSQL, mSQL2, InterBase, MSSQL y más. Servidores de Aplicación para E-mail. Un servidor de aplicación e-mail puede soportar decenas de miles de usuarios activos de correo electrónico. Nuestra configuración aplicativa para e-mail cumple las siguientes características y requisitos: * Seguridad total, gracias al utilizo de Qmail/Vpopmail * Servicio de Administración. Nuestros técnicos se ocuparán de que su servidor funcione correctamente, las 24 horas, 7 días a la semana. * Amplia variedad de protocolos como POP3, IMAP, IMAP seguro, POP3 seguro, SMTP, SMTP seguro, WebMail y MailingLists EZMLM. * Amplia variedad de servicios adicionales, como servicios de forward del correo, respuestas automáticas para cada usuario, administración de aliases para dominio. * Variedad de scripts a disposición, por ejemplo para ofrecer el clásico servicio de "e-mail gratuito" con sistema de suscripción automática Online. * Completo servicio de estadísticas de todo el sistema de correo. Mensajes enviados, recibidos, con error, retornados. Tamaño de la cola en cada momento, carga media y máxima, espacio utilizado, etc. * Posibilidad de limitar recursos para cada dominio como cantidad de usuarios, listas de correo, aliases, etc. * Posibilidad de definir el tamaño standard o individual de las casillas de correo. Servidores de Aplicación Web. Los servidores de aplicación web permiten destinar todos los recursos del servidor al servicio de páginas web. De este modo un único servidor podrá dar respuesta sin alguna dificultad a millones de visitas diarias en su sitio. Servidores de Aplicación Multimedia (Broadcasting) Este tipo de servidores le permiten la transmisión de contenido multimedia en directa desde su sitio, el uso típico es el de las transmisiones de radio o TV en directa. Póngase en contacto con nosotros para acordar un servicio de estas características. 2.5.4 Servidores de Internet. Los servidores de Internet son también conocidos como servidores de hospedaje o host servers, puesto que hospedan o almacenan las páginas web y otros tipos de archivos, listos para ser enviados a petición de los ordenadores cliente (o usuarios). El servidor de Internet es capaz que 'atender' a muchos usuarios a la vez, pero se entiende con cada uno de ellos independientemente; no hay ninguna dificultad (y, en cierta medida, eso es lo que hace realmente) en que envíe a cada uno de los usuarios mensajes distintos, siempre que los tenga almacenados en su memoria (por ejemplo, una página web distinta para cada uno, o páginas web con variantes específicas en cada caso). Un servidor de Internet es un ordenador que se utiliza para alojamiento web, bases de datos, correo electrónico, etc. Ese equipo ha de estar conectado las 24 horas del día durante todo el año, tiene que soportar fuertes picos de actividad en función de las horas del día, que debe tener un gran rendimiento en ejecución de aplicaciones para que los clientes alojados en él no vean mermada la velocidad con la que se muestran sus páginas incluso aunque éstas sean dinámicas y con acceso a bases de datos. 2.6 Sistemas Operativos de Red. (NOS). Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar estos recursos. Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse con él. NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales. El software del sistema operativo de red se integra en un número importante de sistemas operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows 95/98/ME y Apple Talk. Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red. Coordinación del software y del hardware El sistema operativo de un equipo coordina la interacción entre el equipo y los programas (o aplicaciones) que está ejecutando. Controla la asignación y utilización de los recursos hardware tales como: Memoria. Tiempo de CPU. Espacio de disco. Dispositivos periféricos. En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el software de red del cliente permite que estos recursos estén disponibles para los equipos clientes. La red y el sistema operativo del cliente están coordinados de forma que todos los elementos de la red funcionen correctamente. Multitarea Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias tareas a la vez. Existen dos métodos básicos de multitarea: Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el control del procesador sin la cooperación de la propia tarea. Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar ningún otro programa hasta que el programa sin prioridad haya abandonado el control del procesador. El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a una tarea de red. Componentes software El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000. Un sistema operativo de red: Conecta todos los equipos y periféricos. Coordina las funciones de todos los periféricos y equipos. Proporciona seguridad controlando el acceso a los datos y periféricos. Las dos componentes principales del software de red son: El software de red que se instala en los clientes. El software de red que se instala en los servidores. Software de cliente En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a continuación, muestra el resultado del listado de directorios en una ventana. Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es realizado por el redirector. Redirector Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema Operativo de Red que: Intercepta peticiones en el equipo. Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a través de la red a otro servidor La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una petición a un servidor. El redirector intercepta la petición y la envía a la red. El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente. Designadores Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los designadores de unidades asociados a recursos de red. Periféricos Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente destino. En este caso, el destino es el servidor de impresión para la impresora solicitada. Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red especificada. La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización del recurso y el redirector determina el encaminamiento actual. Software de servidor El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios. Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la petición y se proporciona el listado de directorios. Compartir recursos Compartir es el término utilizado para describir los recursos que públicamente están disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen: Permitir diferentes usuarios con diferentes niveles de acceso a los recursos. Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo recurso en el mismo instante. Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al documento compartiéndolo de forma que: Algunos usuarios sólo podrán leerlo. Algunos usuarios podrán leerlo y realizar modificaciones en él. Gestión de usuarios Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede utilizar el Sistema Operativo de Red para: Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién puede utilizar la red. Asignar o denegar permisos de usuario en la red. Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red. Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo usuario al grupo apropiado, con sus correspondientes permisos y derechos. Gestión de la red Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la decisión correcta antes de que el problema suponga la caída de la red. Selección de un sistema operativo de red El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a ellos. En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo. Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo. Esto implica que la interoperabilidad sea mucho más difícil de gestionar. No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con una aplicación cliente de red en cada equipo personal. Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades. Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris). Sistemas operativos de Novell Introducción a NetWare El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas operativos mezclados. La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN, aplicaciones de red, intranets e Internet en una única red global. Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos, impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos habituales. Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión NetWare. Servicios NetWare Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las ventajas de los recursos proporcionados por un servidor NetWare. Algunos de los servicios más importantes que proporciona, son: Servicios de archivos Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS proporciona un único punto de entrada para los usuarios y permite a los usuarios y administradores ver de la misma forma los recursos de la red. Dependiendo del software de cliente instalado, podrá ver la red completa en un formato conocido para el sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de NetWare, de forma que los recursos de NetWare aparecerán como unidades lógicas en sus equipos. Estas unidades lógicas funcionan igual que cualquier otra unidad en sus equipos. Seguridad NetWare proporciona seguridad de gran alcance, incluyendo: Seguridad de entrada. Proporciona verificación de autenticación basada en el nombre de usuario, contraseña y restricciones de cuentas y de tiempo. Derechos de Trustee. Controla los directorios y archivos a los que puede acceder un usuario y lo que puede realizar el usuario con ellos. Atributos de archivos y directorios. Identifica los tipos de acciones que se pueden llevar a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u ocultarlo o suprimirlo). Servicios de impresión Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente. Cualquier petición de impresión por parte de un cliente es redirigida al servidor de archivos, donde se envía al servidor de impresión y, finalmente, a la impresora. El mismo equipo puede actuar como servidor de archivos y servidor de impresión. Permite compartir dispositivos de impresión que se conectan al servidor, a la estación de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los servicios de impresión de NetWare pueden admitir hasta 256 impresoras. Envío de mensajes a otros Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a otros usuarios de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si todos los receptores pertenecen al mismo grupo, es conveniente enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los usuarios también pueden activar o desactivar este comando para sus estaciones de trabajo. Cuando un usuario desactiva este comando, no recibirá ningún mensaje enviado. Los mensaje también se pueden controlar a través del Servicio de control de mensajes (Message Handling Service – MHS). MHS se puede instalar en cualquier servidor y configurarse como una infraestructura de mensajes completamente interconectada para una distribución de correo electrónico. MHS admite los programas más habituales de correo electrónico. Interoperabilidad No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de Red. Es especialmente cierta cuando se conectan dos redes diferentes, como NetWare y Windows NT. Un entorno NetWare, caracterizado por sus servicios de directorio y Windows NT que trabaja sobre la base de un modelo de dominio, son esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló NWLink y GSNW que le permiten interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar como un enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor Windows NT. A continuación, el servidor actuará como cliente en la red NetWare, pasando las peticiones entre las dos redes. Sistemas operativos de red de Microsoft Introducción a Windows NT A diferencia del sistema operativo NetWare, Windows NT combina el sistema operativo del equipo y de red en un mismo sistema. Windows NT Server configura un equipo para proporcionar funciones y recursos de servidor a una red, y Windows NT Workstation proporciona las funciones de cliente de la red. Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de equipos que comparten una política de seguridad y una base de datos común. Cada dominio tiene un nombre único. Dentro de cada dominio, se debe designar un servidor como Controlador principal de dominio (PDC, Primary Domain Controller). Este servidor mantiene los servicios de directorios y autentifica cualquier usuario que quiera entrar en el sistema. Los servicios de directorios de Windows NT se pueden implementar de varias formas utilizando la base de datos de seguridad y de las cuentas. Existen cuatro modelos de dominio diferentes. Dominio único. Un único servidor mantiene la base de datos de seguridad y de las cuentas. Maestro único. Una red con maestro único puede tener diferentes dominios, pero se designa uno como el maestro y mantiene la base de datos de las cuentas de usuario. Maestro múltiple. Una red con maestro múltiple incluye diferentes dominios, pero la base de datos de las cuentas se mantiene en más de un servidor. Este modelo se diseña para organizaciones muy grandes. Confianza-completa. «Confianza completa» significa que existen varios dominios, pero ninguno está designado como maestro. Todos los dominios confían completamente en el resto. Servicios de Windows NT Los servicios más importantes que Windows NT Server y Workstation proporcionan a una red: Servicios de archivos Existen dos mecanismos que permiten compartir archivos en una red Windows NT. El primero se basa en un proceso sencillo de compartición de archivos, como puede ser una red Trabajo en Grupo. Cualquier estación o servidor puede publicar un directorio compartido en la red y especificar los atributos de los datos (sin acceso, lectura, agregar, cambio, control total). La gran diferencia entra los sistemas operativos Windows NT y Windows 95 /98 es que para compartir un recurso de Windows NT debe tener permisos de administrador. El siguiente nivel de compartición obtiene las ventajas completas de las características de seguridad de Windows NT. Puede asignar permisos a nivel de directorio y a nivel de archivos. Esto le permite restringir el acceso a grupos o usuarios determinados. Para poder obtener las ventajas de un proceso de compartición de archivos más avanzado, es necesario utilizar el sistema de archivos de Windows NT (NTFS). Durante la instalación de Windows NT, puede seleccionar entre un sistema de archivos NTFS o un sistema FAT-16 bits (MSDOS). Puede instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones distintas de un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS, no estarán disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS puede compartir la red, pero está limitado para publicar recursos compartidos y no puede utilizar las ventajas de las utilidades de seguridad de NTFS. Seguridad Al igual que los Sistema Operativo de Red más importantes, Windows NT proporciona seguridad para cualquier recurso de la red. El servidor de dominio en una red Windows NT mantiene todos los registros de las cuentas y gestiona los permisos y derechos de usuario. Para acceder a cualquier recurso de la red, el usuario debe tener los derechos necesarios para realizar la tarea y los permisos adecuados para utilizar el recurso. Impresión En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor de impresión. Compartir una impresora de red implica que esté disponible para cualquier usuario de red (sujeto a las reglas de compartición). Cuando se instala una impresora, primero se pregunta si la impresora está designada como impresora local (Mi PC) o como impresora de red. Si se selecciona como impresora de red, aparece un cuadro de diálogo mostrando todas las impresoras de red disponibles. Todo lo que tiene que hacer es seleccionar aquella que desea utilizar. Recuerde que puede instalar más de una impresora en una máquina. Además, si está instalando una impresora local, se preguntará si quiere compartir la impresora con otros usuarios de la red. Servicios de red Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red de ejecución uniforme. Algunos servicios son: Servicio de mensajería. Monitoriza la red y recibe mensajes emergentes para el usuario. Servicio de alarma. Envía las notificaciones recibidas por el servicio de mensajería. Servicio de exploración. Proporciona una lista de servidores disponibles en los dominios y en los grupos de trabajo. Servicio de estación. Se ejecuta sobre una estación de trabajo y es responsable de las conexiones con el servidor. Además, se conoce como el redirector. Servicio de Servidor. Proporciona acceso de red a los recursos de un equipo. Interoperabilidad El protocolo de red NWLink se diseña para que Windows NT sea compatible con NetWare. Los servicios disponibles son: Servicios de enlace para NetWare (Gateway Services for NetWare GSNW). Todos los clientes de Windows NT, dentro de un dominio, deben conectarse con un servidor NetWare a través de una única fuente. GSNW proporciona la conexión basada en gateway entre un dominio de Windows NT y un servidor NetWare. Esto funciona correctamente en condiciones de bajo volumen, pero provocará una bajada en el rendimiento cuando se incremente el número de peticiones. Servicios de cliente para NetWare (Client Services for NetWare CSNW). Este servicio activa una estación Windows NT para acceder a los servicios de archivo e impresión de un servidor NetWare. Se incluye como parte de GSNW. Servicios de archivos e impresión para NetWare (File and Print Services for NetWare FPNW). Esta utilidad permite a los clientes de NetWare acceder a los servicios de archivo e impresión de Windows NT. No forma parte del paquete de Windows NT y debe adquirirse por separado. Gestor de los servicios de directorio para NetWare (Directory Service Manager for NetWare DSMN). Esta utilidad adicional integra la información de cuentas de los grupos y de usuarios de Windows NT y NetWare. No forma parte del paquete de Windows NT y debe adquirirse por separado. Herramienta de migración para NetWare. Esta herramienta la utilizan los administradores que están convirtiendo NetWare en Windows NT. Envía la información de las cuentas de un servidor NetWare a un controlador de dominio de Windows NT. Otros sistemas operativos de red Aunque Windows NT y NetWare constituyen los sistemas operativos de red más habituales del mercado, no son los únicos disponibles. Incluir también algunos de los sistemas operativos menos conocidos como AppleTalk, Unix y Banyan Vines. Además, veremos la utilización de Windows para Grupos de trabajo, Windows 95 y Windows 98 para configurar redes Trabajo en Grupo, o como clientes en otras redes. Muchas compañías de software han desarrollado software LAN Trabajo en Grupo. Realizar una búsqueda en Internet le ayudará a localizar estas posibles opciones. Sistema operativo de red AppleTalk El sistema operativo de red AppleTalk está completamente integrado en el sistema operativo de cada equipo que ejecuta el Mac OS. Su primera versión, denominada LocalTalk, era lenta en comparación con los estándares de hoy en día, pero trajo consigo la interconexión de los usuarios que rápidamente hicieron uso de ella. Todavía forma parte del Apple Sistema Operativo de Red una forma de interconexión por el puerto de serie de LocalTalk. La implementación actual de AppleTalk permite posibilidades de interconexión Trabajo en Grupo de alta velocidad entre equipos Apple, así como interoperabilidad con otros equipos y sistemas operativos de red. No obstante, esta interoperabilidad no forma parte, obviamente, del sistema operativo de Apple; En su lugar, los usuarios de equipos distintos de Apple pueden conectar más fácilmente sus recursos a un sistema operativo de red de Apple mediante Apple IP, la implementación Apple del protocolo de red TCP/IP. Apple IP permite a usuarios no Apple acceder a los recursos de Apple, como pueden ser archivos de bases de datos. Los equipos que forman parte del sistema operativo en red de Apple pueden conectarse a otras redes utilizando servicios proporcionados por los fabricantes de los Sistema Operativo de Red que se están ejecutando en los correspondientes servidores de red. Toda la comunidad Windows NT Server, Novell NetWare y Linux proporcionan servicios de interoperabilidad Apple para sus respectivas plataformas. Esto permite a los usuarios de Apple, conectados en red, hacer uso de los recursos disponibles en estos servidores de red. El formato de los servicios de directorio de AppleTalk se basa en las características denominadas «zonas». Se trata de grupos lógicos de redes y recursos (una red Apple Talk Fase 1 está formada por no más de una zona, mientras que una red de Fase 2 puede tener hasta 255 zonas. Sin embargo, las dos son incompatibles y no resulta sencillo mantenerlas en la misma estructura de cableado de red). Estas zonas proporcionan un medio de agrupamiento de los recursos de una red en unidades funcionales. En el entorno actual de escritorio, los usuarios de Windows y Apple pueden beneficiarse de un alto grado de interoperabilidad presente en el software de aplicaciones. Las colecciones de productividad (aplicaciones estándar, por ejemplo, hojas de cálculo, bases de datos, tratamiento de textos y correo electrónico) pueden, a menudo, intercambiar información directamente. AppleShare permite a los usuarios de un equipo Apple compartir con otros usuarios Apple aquellos recursos para los que tienen asignados los permisos apropiados para permitir su acceso. Con la interoperabilidad a nivel de sistema operativo y a nivel de aplicación, el Sistema Operativo de Red de Apple puede proporcionar a los clientes, y a otros Sistema Operativo de Red, una gama completa de posibilidades de interconexión. Redes UNIX UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos versiones más conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un sistema UNIX está constituido por un equipo central y múltiples terminales para los usuarios. Este sistema operativo incluye las prestaciones de red, diseñado específicamente para grandes redes, pero también presenta algunas aplicaciones para equipos personales. UNIX trabaja bien sobre un equipo autónomo y, como consecuencia de sus posibilidades de multitarea, también lo hace perfectamente en un entorno de red. UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en un servidor de archivos instalando el correspondiente software del servidor de archivos. A continuación, como host UNIX, puede responder a peticiones realizadas en las estaciones de trabajo. El software del servidor de archivos es, simplemente, una aplicación más que se está ejecutando en el equipo multitarea. Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que ejecute MS-DOS, OS/2, Microsoft Windows o Macintosh (System 7 u 8). Un redirector de archivos activará la estación para almacenar y recuperar archivos UNIX cuando éstos están en su formato original. Servicios virtuales de red integrados Banyan (Vines) Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines). Vines es un Sistema Operativo de Red basado en una arquitectura cliente/servidor derivado de los protocolos Xerox Network System (XNS) de la Corporación Xerox. En la versión actual de Banyan Vines destaca la mensajería mediante la integración con el software Intelligent Messaging (Mensajería inteligente) y BeyondMail de Banyan. La creación y gestión de los servicios de red se realizan a través de la última versión de StreetTalk Explorer de Banyan. Esta interfaz trabaja con los perfiles de usuario de Windows, aceptando las configuraciones de los usuarios en cualquier parte de la red. Algunas características presentes en Vines: Soporte cliente para Windows NT y Windows 95 y 98. Banyan Intranet Connect, que proporciona acceso a cliente remoto con un navegador Web estándar. Software servidor a servidor TCP/IP (Protocolo de control de transmisión/Protocolo de Internet). Banyan Networker, una familia de productos de almacenamiento en red. Soporte multiprocesador de hasta cuatro procesadores. Redes locales Trabajo en Grupo En muchas oficinas y pequeñas empresas existe la necesidad de crear una red Trabajo en Grupo sencilla. Una red Trabajo en Grupo podría ser la opción más económica cuando la seguridad no es importante y el número de equipos dentro de un área relativamente pequeña es 10 o un número menor. En estas redes todas las estaciones son iguales y cada una de ellas actúa como servidor o cliente. En muchos casos, estas redes compartirán sólo los archivos e impresoras. La mayoría de los sistemas operativos de red incluyen el software necesario para configurar una red Trabajo en Grupo. Windows para Grupos de trabajo Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su predecesor, Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en Grupo, una aplicación de correo electrónico y una aplicación de anotaciones. Un grupo de equipos conectados a través de una red pueden compartir impresoras y archivos. Sólo se pueden enviar a otros miembros aquellos elementos que aparezcan designados como compartidos. Todos los archivos e impresoras aparecen ocultos para todos los usuarios, excepto para el equipo local. Cuando se comparte un directorio del disco o una impresora de una estación de trabajo, se le asigna un nombre al recurso compartido que pueden utilizar el resto de usuarios para referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al directorio compartido y el redirector redirige el puerto LPT a través de la LAN a la impresora correcta. Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente imposible que se requieran sus servicios para instalar una nueva red utilizando este sistema operativo. Windows 95/98/ME Los sistemas operativos Windows 95/98/ME incluyen el software necesario para crear una red Trabajo en Grupo y activar la compartición de archivos e impresoras. Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en una LAN Windows NT o NetWare. Tendrá que instalar el software de cliente (generador de peticiones) correspondiente. Los usuarios de Windows 95 y 98 no pueden utilizar las ventajas completas que proporciona Windows NT con respecto a las características de seguridad. Estas características requieren la utilización del formato de archivos NTFS que no es compatible con Windows 95 y 98. Warp Connect Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en Grupo de WIN-OS/2. Proporciona posibilidades de interconexión a nivel de cliente y Trabajo en Grupo similares a las que proporciona Windows para Grupos de trabajo. Con la utilidad predefinida de conexión Trabajo en Grupo incluida en Warp Connect, puede compartir aplicaciones, impresoras, módems y archivos, sin necesidad de instalar hardware especial. Sistemas operativos de red en entornos multiplataforma Normalmente, los Sistema Operativo de Red tienen que integrar los productos hardware y software fabricados por diferentes fabricantes. Las propiedades y problemas a tener en cuenta en una red multiplataforma, son: El entorno multiplataforma Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A pesar de que pueden plantear retos importantes, funcionan correctamente cuando se implementan y se planifican de forma apropiada. El carácter de una red cambia cuando los componentes software de diferentes plataformas deben operar en la misma red. Los problemas pueden aumentar cuando la red está ejecutando más de un tipo de sistema operativo de red. Para que una red funcione de forma apropiada en un entorno de trabajo heterogéneo, deben ser compatibles el redirector, el sistema operativo del servidor y del cliente. En un entorno multiplataforma, es necesario encontrar un lenguaje común que permita a todos los equipos comunicarse. Implementación de soluciones multiplataforma Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a nivel de servidor (también conocido como el «final de regreso») o a nivel de cliente (también conocido como el «final de inicio»). La opción depende de los fabricantes que se estén utilizando. Interoperabilidad de cliente En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector se convierte en la clave de la interoperabilidad. Sólo cuando se utiliza más de un proveedor de servicios telefónicos para comunicarse con diferente gente, se tiene que el equipo puede tener más de un redirector para comunicarse a través de la red con servidores de red distintos. Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que puede entender. Si conoce el destino y el recurso al que se quiere acceder, puede implementar el redirector apropiado y éste reenviará su petición al destino adecuado. Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el administrador de la red carga el redirector de Microsoft, instalado en el cliente, sobre Windows NT para el acceso a los servidores Novel. lnteroperabilidad del servidor La segunda forma de implementar la comunicación entre un cliente y un servidor es instalar los servicios de comunicaciones en el servidor, enfoque utilizado para incluir un Apple Macintosh en un entorno Windows NT. Microsoft suministra los Servicios para Macintosh. Este software permite a un servidor Windows NT Server comunicarse con el cliente Apple. Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el procedimiento estándar de un Macintosh y visualizar los iconos propios del sistema, como puede ser Chooser and Finder, incluso cuando el usuario está accediendo a los recursos de Windows NT Server. Opciones de fabricantes Los tres fabricantes más importantes de productos de redes son: Microsoft. Novell. Apple. Cada una de estas plataformas proporcionan utilidades que: Hacen posible que sus sistemas operativos se puedan comunicar con servidores de las otras dos plataformas. Ayudan a sus servidores a reconocer clientes de las otras dos plataformas. Microsoft Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los siguientes sistemas operativos de Microsoft: Windows NT/2000 Windows 95/98/ME. Windows para Grupos de trabajo. Los redirectorios se implementan, de forma automática, durante la instalación del sistema operativo. Una utilidad de instalación carga los controladores requeridos y, a continuación, edita los archivos de inicio, de forma que el redirector se active la próxima vez que el usuario encienda el equipo. El software redirector de Microsoft no sólo permite a los clientes acceder a los recursos, sino también proporciona cada cliente Windows para Grupos de trabajo y Windows NT con la posibilidad de compartir sus propios recursos. Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar juntos. Para conectar un cliente con Windows NT Workstation a una red Novell NetWare 3.x o 4.x se requiere NWLink y Servicio de Cliente para NetWare (CSNW) o el Cliente NetWare de Novell para Windows NT. Para conectar un servidor Windows NT Server a una red NetWare se requiere NWLink y el Servicio de Enlace para NetWare (GSNW). NWLink es la implementación de Microsoft del protocolo de intercambio de paquetes entre redes/Intercambio de paquetes secuenciados (IPX/SPX). CSNW es la implementación en Microsoft de un generador de peticiones de NetWare (terminología para el redirector en Novell). Para conectar un cliente Windows 95 o 98 a una red NetWare se requiere IPX/SPX y redes CSNW de Microsoft. El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el software de cliente para NetWare que incorpora soporte para Novell Network 4.x y Servicios de Directorios 5.x. Microsoft NDS proporciona a los usuarios con entrada y exploración soporte para servicios de enlace en NetWare 3.x y NetWare 4.x como servidores NDS NetWare 4.x y 5.x. Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de servidor ofrecen utilidades que permiten a los clientes que utilizan MS-DOS, acceder a los servidores de estos tres fabricantes. Todas estas utilidades pueden residir en una máquina, de forma que el cliente con MS-DOS puede acceder a los servidores correspondientes de los tres entornos. Novell Los servidores Novell reconocen los siguientes clientes para los servicios de archivos e impresión. Los clientes NetWare que ejecutan MS-DOS pueden conectarse a: Servidores NetWare de Novell. Equipos con Windows NT Server. Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el redirector de Windows NT pueden conectarse a: Servidores NetWare de Novell. Equipos con Windows NT Server y Windows NT Workstation. Novell proporciona generadores de peticiones para sistemas operativos de clientes incluyendo: MS-DOS. OS/2. Cliente NetWare para Windows NT. Apple En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye con el sistema operativo AppleTalk y proporciona la función de compartir archivos. El software de cliente se incluye con cada copia del sistema operativo de Apple. Además, se incluye un servidor de impresión de AppleShare, que gestiona las colas de impresión. Por tanto, tenemos que los Macintosh están equipados para formar parte de la redes Apple. Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los clientes que utilizan MS-DOS acceso a los servidores de archivos e impresión de AppleShare. Con el software de ordenador personal LocalTalk y una tarjeta de equipo personal LocalTalk instalada en los equipos, los usuarios pueden acceder a los volúmenes (almacenamiento de archivos) del servidor de archivos e impresoras de una red AppleTalk. La tarjeta de equipo personal LocalTalk controla el enlace entre la red AppleTalk y el equipo personal. El software del controlador LocalTalk para el equipo personal implementa muchos de los protocolos de AppleTalk e interactúa con la tarjeta para enviar y recibir paquetes. Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor Windows NT puede estar disponible para los clientes Macintosh. Este producto hace posible que los clientes de MS-DOS y Macintosh puedan compartir archivos e impresoras. Los Servicios para Macintosh incluyen las versiones 2.0 y 2.1 de Apple Talk Protocol, LocalTalk, Ether Talk, Token Talk y FDDITalk. Además, los Servicios para Macintosh admiten la impresora LaserWriter versión 5.2 o posterior. Unidad 3 Estándares y protocolos de redes. 3.3 Estándares de Conexión LAN de la IEEE. 3.3.1 Proyecto 802 Conexión. Casi todas las redes locales han sido estandarizadas por el IEEE, en el comité denominado 802. Los estándares desarrollados por este comité están enfocados a las capas 1 y 2 del modelo de referencia OSI. Este comité se divide en subcomités, cuyo nombre oficial es 'Grupos de Trabajo', que se identifican por un número decimal. El primero (802.1) describe los aspectos generales y las interfaces comunes a todas las LANs 802.x. El 802.2 describe la subcapa LLC (Logical Link Control), también común a todas las redes 802.x. La mayoría de los demás grupos de trabajo tienen que ver con diversas tecnologías de red local. Cada uno de ellos especifica el nivel físico y la subcapa MAC. Por ejemplo el estándar 802.3 describe el nivel físico y el subnivel MAC de la red con protocolo MAC CSMA/CD, mas conocida como Ethernet. Los grupos de trabajo 802 no son algo estático; continuamente se están planteando para su estandarización nuevas técnicas y protocolos, nuevos medios físicos, etc. Cuando surge una nueva propuesta el grupo de trabajo correspondiente nombra un grupo de estudio que la analiza, y si el informe es favorable se crea un 'subgrupo' de trabajo (llamado oficialmente proyecto) que eventualmente propone una adenda al estándar para su aprobación. Los proyectos se identifican por letras añadidas al grupo de trabajo del que provienen, por ejemplo el proyecto que propuso el estándar Gigabit Ethernet era el 802.3z. En total el comité 802 está formado por 13 grupos de trabajo que podemos agrupar de la siguiente manera: 802.1: Panorámica y Arquitectura, Puentes, redes locales virtuales (VLANs). 802.2: LLC, Logical Link Control (actualmente en hibernación e inactivo). 802.3,.4,.5,.6,.9,.11,.12,.14: métodos de acceso y señalización física para tipos concretos de tecnologías LAN y MAN. 802.7 y 802.8: Grupos técnicos asesores en redes de banda ancha y en fibras ópticas, respectivamente.(actualmente en hibernación e inactivo) 802.10: Niveles de seguridad en estándares 802 Los grupos de trabajo especializados en métodos de acceso corresponden a las siguientes tecnologías: 802.3: CSMA/CD (Etherent) 802.4: Token Bus (actualmente en hibernación e inactivo) 802.5 Token Ring 802.6: DQDB, Distributed Queue Dual Bus (actualmente en hibernación e inactivo) 802.9: Servicios Integrados (Iso-Ethernet) 802.11: Redes inalámbricas 802.12: Demand Priority (100VG-AnyLAN) 802.14: Redes de televisión por Cable (actualmente en desarrollo del primer estándar) A título de ejemplo detallamos a continuación algunos de los proyectos más relevantes del comité 802: 802.1D: puentes transparentes 802.1p: Filtrado por clase de tráfico (Calidad de Servicio) 802.1Q: Puentes en redes locales virtuales 802.3u: Fast Ethernet 802.3x. Ethernet Full dúplex y control de flujo 802.3z: Gigabit Ethernet 802.3ab: Gigabit Ethernet en cable UTP-5 (en desarrollo) Todos los estándares IEEE 802 son mas tarde aprobados por ANSI y por la ISO. El estándar IEEE 802.x tiene un estándar equivalente ISO 8802-x Normalmente un estándar Normalmente todos los estándares IEEE son aprobados más tarde por ISO bajo la denominación 8802.x, convirtiéndose así en estándares internacionales; así por ejemplo el estándar ISO 8802.3 es equivalente al IEEE 802.3 Existen algunas tecnologías de red local que siguen fielmente la arquitectura IEEE 802, pero no han sido aprobadas por el IEEE. Los ejemplos más destacados en este sentido son FDDI y Fibre Channel; ambas son estándares aprobados por el ANSI. El estándar IEEE 802.x Los dos niveles inferiores del modelo OSI están relacionados con el hardware: la tarjeta de red y el cableado de la red. Para avanzar más en el refinamiento de los requerimientos de hardware que operan dentro de estos niveles, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, Institute of Electrical and Electronics Engineers) ha desarrollado mejoras específicas para diferentes tarjetas de red y cableado. De forma colectiva, estos refinamientos se conocen como proyecto 802. El modelo del proyecto 802 Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area Networks) como herramientas potenciales de empresa a finales de los setenta, el IEEE observó que era necesario definir ciertos estándares para redes de área local. Para conseguir esta tarea, el IEEE emprendió lo que se conoce como proyecto 802, debido al año y al mes de comienzo (febrero de 1980). Aunque los estándares IEEE 802 publicados realmente son anteriores a los estándares ISO, ambos estaban en desarrollo aproximadamente al mismo tiempo y compartían información que concluyó en la creación de dos modelos compatibles. El proyecto 802 definió estándares de redes para las componentes físicas de una red (la tarjeta de red y el cableado) que se corresponden con los niveles físico y de enlace de datos del modelo OSI. Las especificaciones 802 definen estándares para: Tarjetas de red (NIC). Componentes de redes de área global (WAN, Wide Area Networks). Componentes utilizadas para crear redes de cable coaxial y de par trenzado. Las especificaciones 802 definen la forma en que las tarjetas de red acceden y transfieren datos sobre el medio físico. Éstas incluyen conexión, mantenimiento y desconexión de dispositivos de red. La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión más importante que se debe tomar cuando se diseña una red de área local (LAN). Este protocolo define la velocidad de la red, el método utilizado para acceder a la red física, los tipos de cables que se pueden utilizar y las tarjetas de red y dispositivos que se instalan. Categorías de IEEE 802 Los estándares de redes de área local definidos por los comités 802 se clasifican en 16 categorías que se pueden identificar por su número acompañado del 802: Categorías de las especificaciones 802 Especificació Descripción n 802.1 Establece los estándares de interconexión relacionados con la gestión de redes. 802.2 Define el estándar general para el nivel de enlace de datos. El IEEE divide este nivel en dos subniveles: los niveles LLC y MAC. El nivel MAC varía en función de los diferentes tipos de red y está definido por el estándar IEEE 802.3. 802.3 Define el nivel MAC para redes de bus que utilizan Acceso múltiple por detección de portadora con detección de colisiones (CSMA/CD, Carrier-Sense Multiple Access with Collision Detection). Éste es el estándar Ethernet. 802.4 Define el nivel MAC para redes de bus que utilizan un mecanismo de paso de testigo (red de área local Token Bus). 802.5 Define el nivel MAC para redes Token Ring (red de área local Token Ring). 802.6 Establece estándares para redes de área metropolitana (MAN, Metropolitan Area Networks), que son redes de datos diseñadas para poblaciones o ciudades. En términos de extensión geográfica, las redes de área metropolitana (MAN) son más grandes que las redes de área local (LAN), pero más pequeñas que las redes de área global (WAN). Las redes de área metropolitana (MAN) se caracterizan, normalmente, por conexiones de muy alta velocidad utilizando cables de fibra óptica u otro medio digital. 802.7 Utilizada por el grupo asesor técnico de banda ancha (Broadband Technical Advisory Group). 802.8 Utilizada por el grupo asesor técnico de fibra óptica (Fiber-Optic Technical Advisory Group). 802.9 Define las redes integradas de voz y datos. 802.10 Define la seguridad de las redes. 802.11 Define los estándares de redes sin cable. 802.11b Ratificado el 16 de Septiembre de 1.999, proporciona el espaldarazo definitivo a la normativa estándar inicial, ya que permite operar a velocidades de 11 Mbps y resuelve carencias técnicas relativas a la falta de itinerancia, seguridad, escalabilidad, y gestión existentes hasta ahora. 802.12 Define el acceso con prioridad por demanda (Demand Priority Access) a una LAN, 100BaseVG-AnyLAN. 802.13 No utilizada. 802.14 Define los estándares de módem por cable. 802.15 Define las redes de área personal sin cable (WPAN, Wireless Personal Area Networks). 802.16 Define los estándares sin cable de banda ancha. 3.3.2 802.1 Conexión entre Redes. 802.1 Definición Internacional de Redes. Define la relación entre los estándares 802 del IEEE y el Modelo de Referencia para Interconexión de Sistemas Abiertos (OSI) de la ISO (Organización Internacional de Estándares). Por ejemplo, este Comité definió direcciones para estaciones LAN de 48 bits para todos los estándares 802, de modo que cada adaptador puede tener una dirección única. Los vendedores de tarjetas de interface de red están registrados y los tres primeros bytes de la dirección son asignados por el IEEE. Cada vendedor es entonces responsable de crear una dirección única para cada uno de sus productos. Introducción El estándar IEEE 802.1X define el control de acceso a redes basadas en puertos. Gracias a él se exige autenticación antes de dar acceso a las redes Ethernet. En el control de acceso a redes basadas en puertos se utilizan los elementos físicos que componen una infraestructura de conmutación de la red LAN para autenticar los dispositivos agregados al puerto de conmutación. No se pueden enviar ni recibir tramas en un Puerto de conmutación Ethernet si el proceso de autenticación ha fallado. A pesar de que se diseñó para redes Ethernet fijas, este estándar se ha adaptado para su uso en redes LAN inalámbricas con IEEE 802.11. Windows XP soporta la autentificación IEEE 802.1X para todos los adaptadores de red basados en redes LAN, incluyendo las Ethernet y las inalámbricas. El estándar IEEE 802.1X define los términos siguientes: El El El El PAE autenticador Puerto solicitante servidor de autenticación El PAE El Puerto PAE (Port access entity), también denominado Puerto LAN, es una entidad lógica que soporta el protocolo IEEE 802.1X asociado con un puerto. Un Puerto LAN puede hacer las veces de autenticador, el solicitante o ambos. El autenticador Es un Puerto LAN que exige autenticación antes de permitir el acceso a los Servicios que se suministran a través de él. Para las conexiones inalámbricas, el autenticador es el Puerto lógico de LAN en un punto de acceso(AP) inalámbrico a través del cual los clientes que trabajan con conexiones inalámbricas que operan con infraestructuras acceden a la red fija. El Puerto solicitante El puerto solicitante es un Puerto de la LAN que solicita acceso a los servicios disponibles a través del autenticador. En las conexiones inalámbricas, el demandante es el Puerto lógico de la LAN alojado en el adaptador de red LAN inalámbrica que solicita acceso a una red fija. Para ello se asocia y después se autentifica con un autenticador. Independientemente de que se utilicen para conexiones inalámbricas o en redes Ethernet fijas, los puertos solicitante y de autenticación están conectados a través de un segmento LAN punto a punto lógico y físico. El servidor de autenticación Para corroborar los credenciales del Puerto solicitante, el de autenticación utiliza el servidor de autenticación. Este servidor comprueba los credenciales del solicitante en nombre del Autenticador y después le responde a éste indicándole si el solicitante tiene o no permiso para acceder a los Servicios que proporciona el Autenticador. Hay dos tipos de servidor de autenticación: Un componente del punto de acceso. Debe configurarse utilizando los credenciales de los clientes que intentan conectarse. Normalmente no se implementan utilizando puntos de acceso inalámbricos. Una entidad distinta. El punto de acceso reenvía los credenciales de la conexión que ha intentado establecerse a un servidor de autenticación distinto. Por lo general un punto de acceso inalámbrico utiliza el protocolo de autenticación remota RADIUS (Remote Authentication Dial-In User Service) para enviar los parámetros de las conexiones que han intentado conectarse al servidor RADIUS. Puertos de acceso sin y con autenticación El control de acceso basado en el autenticador define los siguientes tipos de puertos lógicos que acceden a la LAN conectada físicamente a través de un solo puerto LAN fijo: Puerto de acceso sin autenticación. El Puerto de acceso sin autenticación hace posible el intercambio de datos entre el autenticador ( el AP inalámbrico) y otros dispositivos dentro de la red fija, independientemente de que se haya autorizado o no al cliente la utilización de la conexión inalámbrica. Un ejemplo ilustrativo es el intercambio de mensajes RADIUS entre un punto de acceso inalámbrico y un servidor RADIUS alojado en una red fija que ofrece autenticación y autorización a las conexiones inalámbricas. Cuando un usuarios de una conexión envía una trama, el punto de acceso inalámbrico nunca la reenvía a través del puerto de acceso sin autenticación. Puerto de acceso con autenticación. Gracias al Puerto de acceso con autenticación se pueden intercambiarr datos entre un usuario de una red inalámbrica y la red física pero sólo si el usuario de la red inalámbrica ha sido autenticado. Antes de la autenticación, el conmutador se abre y no se produce el reenvío entre el usuario de la conexión inalámbrica y el de la red física. Una vez que la identidad del usuario remoto se ha comprobado a través de IEEE 802.1X, se cierra el conmutador y las tramas son reenviadas entre el usuario de la red inalámbrica y los nodos de la red con conexión física. En el dibujo de abajo se puede ver la relación que se establece entre los Puertos con y sin autenticación en un punto de acceso inalámbrico. En el conmutador Ethernet de autenticación, el usuarios de una red Ethernet puede enviar tramas Ethernet a una red también fija tan pronto como se haya finalizado el proceso de autenticación. El conmutador identifica el tráfico de un usuario de red Ethernet en particular utilizando para ello el Puerto físico al que se conecta a ese usuario. Por lo general sólo se conecta a un usuario de Ethernet a un Puerto físico a través de un conmutador Ethernet. Debido a las reticencias de muchos clientes remotos ante la idea de consultar y enviar datos utilizando un único canal, se ha tenido que ampliar el protocolo básico. IEEE 802.1X. De esta forma un AP inalámbrico puede identificar si el tráfico de un determinado cliente remoto es seguro. Esto es posible gracias al establecimiento por ambas partes , tanto del cliente remoto como del punto de acceso inalámbrico. de una clave única y especifica para cada cliente Sólo aquellos clientes remotos que hayan sido autenticados tienen una clave única y específica para cada sesión. Si la autenticación no viene acompañada de una clave válida, el punto de acceso inalámbrico rechaza las tramas que envía el cliente remoto sin autenticación. El Protocolo de autenticación extensible (EAP) Para poder ofrecer un mecanismo de autenticación estándar para IEEE 802.1X, IEEE escogió el protocolo de autenticación extensible (EAP). EAP es un protocolo basado en la tecnología de autenticación del protocolo punto a punto (PPP)-que previamente se había adaptado para su uso en segmentos de redes LAN punto a punto. En un principio los mensajes EAP se definieron para ser enviados como la carga de las tramas PPP, de ahí que el estándar IEEE 802.1X defina EAP sobre la red LAN (EAPOL). Este método se utiliza para encapsular los mensajes EAP y así poder enviarlos ya sea a través de segmentos de redes Ethernet o de redes LAN inalámbricas. Para la autenticación de conexiones inalámbricas; Windows XP utiliza el protocolo EAP Seguridad del nivel de transporte(EAP-TLS). El protocolo EAP-TLS se define en las peticiones de comentario RFC 2716 y se utiliza en entornos seguros y certificados. El intercambio de mensajes EAP-TLS ofrece una autenticación mutua, unas transferencias cifradas totalmente protegidas y una determinación conjunta para las claves de cifrado y firma entre el cliente remoto y el servidor de autenticación (el servidor RADIUS). Una vez que se ha realizado la autenticación y autorización correspondiente, el servidor RADIUS envía las claves de cifrado y firma al punto de acceso inalámbrico a través de un mensaje de Acceso-aceptado de RADIUS. Windows XP ha elegido EAP-TLS- que trabaja con usuarios registrados y ordenadores certificados- como método de autenticación para sus conexiones inalámbricas por las siguientes razones: EAP-TLS no se necesita la clave de la cuenta del usuario. EAP-TLS la autenticación es automática, sin intervención del usuario. EAP-TLS utiliza certificados por lo que el esquema de automatización es más consistente El soporte de Windows XP para IEEE 802.1X En Windows XP, la autenticación IEEE 802.1X junto al tipo de autentificación EAP-TLS aparece por defecto en todos los adaptadores de red compatibles con redes LAN. Si quiere configurar 802.1X en un ordenador que ejecute Windows XP tiene que utilizar la etiqueta Autenticación en propiedades de una conexión de red LAN en Conexiones de red. En esta etiqueta puede configurar: Enable network access control using IEEE.802.1X (Activar el control de acceso a la red utilizando IEEE 802.1X). En este cuadro puede elegir entre utilizar IEEE 802.1X para autenticar la conexión o no. La opción se activa por defecto. Una conexión LAN en Windows XP envía tres mensajes EAP-Start para hacer que el Autenticador (el conmutador Ethernet o el punto de acceso inalámbrico) empiece el proceso de autenticación basándose en EAP. Si no se recibe un mensaje EAP de Petición/Identidad significa que el Puerto no exige una autenticación IEEE 802.1X y la conexión LAN envía trafico normal para configurar la capacidad de conexión de la red. Si por el contrario se recibe el mensaje esto significa que la autenticación IEEE 802.1X se ha puesto en marcha. Por lo tanto, si dejamos activada esta configuración para una conexión LAN Ethernet cuando el conmutador Ethernet no soporta IEEE 802.1X no perjudicamos la capacidad de conexión de la red. Sin embargo si desactivamos esta configuración cuando el conmutador Ethernet no exige una autenticación IEEE 802.1X perjudicamos la capacidad de conexión de la red. EAP type. Con esta opción selección utilizar la autenticación IEEE 802.1X con el tipo EAP. En la lista de la biblioteca de enlaces dinámicos (DDL) se muestran los EAP instalados en la máquina. Los tipos EAP por defecto son MD-5 Challenge y Smart card and other certificate. Las Tarjetas inteligentes o certificados son para EAP-TLS. Las etiquetas inteligentes y certificados EAP se seleccionan por defecto y son de uso obligado para acceder de forma segura a redes inalámbricas. Propiedades. Haga clic para configurar las propiedades del tipo EAP que haya seleccionado. Las propiedades no están disponibles para el tipo EAP MD-5 Challenge. Autenticate as computer when computer information is available. Aquí se especifica si la máquina se intenta autenticar utilizando los credenciales del ordenado( tales como el certificado) sin que el usuario introduzca sus datos. Esta opción está activada por defecto. Autenticate as guest when user or computer information is unvailble. Aquí se especifica si la máquina se intenta autenticar como invitado. Se utiliza cuando los credenciales del usuario o del ordenador no están disponibles. Esta opción está desactivada por defecto. En la siguiente imagen aparece la etiqueta de los tipos EAP de propiedades de etiquetas inteligentes u otros certificados (corresponden a EAP-TLS). En el cuadro de diálogo Propiedades de las etiquetas inteligentes y otros certificados, podrá ver y configurar las siguientes propiedades: When connecting. Para poder utilizar para la autenticación un certificado de los del almacén de certificado de ordenador local o usuario actual seleccione Use a certificate on this computer (activado por defecto). Cuando hay varios certificados de usuario instalados, el usuario tiene que seleccionar uno en particular para la primera asociación. Ése será el que se utilice en el resto de las asociaciones que tengan lugar hasta que finalice esa sesión de Windows XP. Windows XP no soporta la utilización de etiquetas inteligentes como un medio seguro de autenticación de conexiones remotas. Validate server certificate. Aquí se especifica si quiere validar o no el certificado del ordenador del servidor de autenticación (por lo general un servidor RADIUS). Esta opción está activada por defecto. Connect only if server name end with. Aquí especifica si quiere seleccionar un texto determinado que deba coincidir con el final del nombre del certificado del ordenador donde está el servidor de autenticación. Esta opción está desactivada por defecto. En la mayor parte de las implementaciones, en las que se utiliza más de un servidor RADIUS, puede escribir la parte del Sistema de nombres de dominio (DNS) común a todos los servidores RADIUS. Por ejemplo si tiene dos servidores RADIUS con el nombre rad1.example.microsoft.com y rad2.example.microsoft.com respectivamente y luego escribe "example.microsoft.com". Si activa esta opción y escribe un texto incorrecto, la autenticación remota fallará. Trusted root certificate authority. Gracias a esta opción puede elegir la autoridad de certificación (CA) raíz del certificado del ordenador del servidor de autenticación. La lista enumera los certificados CA raíz que se encuentran almacenados en su Autoridades de certificación raíz de confianza. Por defecto no se selecciona ninguna CA raíz. Si elige una CA incorrecta, durante la autenticación tendrá que aceptar (o rechazar) la CA raíz del servidor de autenticación. Cuando la acepte, la CA raíz de confianza aparece como la CA raíz del certificado del servidor de autenticación. Use a different user name for the connection. Aquí especifica si para su autenticación quiere utilizar un nombre de usuario diferente al que aparece en el certificado. Esta opción está desactivada por defecto. Si se activa aparece un cuadro de diálogo para seleccionar el certificado de usuario incluso si sólo se ha instalado un certificado. El certificado elegido será el que se utilice hasta que finalice esa sesión de Windows XP. 3.3.3 802.2 Control de Enlace Lógico (LLC). 802.2 Control de Enlaces Lógicos. Define el protocolo de control de enlaces lógicos (LLC) del IEEE, el cual asegura que los datos sean transmitidos de forma confiable por medio del enlace de comunicación. La capa de Datos-Enlace en el protocolo OSI esta subdividida en las subcapas de Control de Acceso a Medios (MAC) y de Control de Enlaces Lógicos (LLC). En Puentes, estas dos capas sirven como un mecanismo de switcheo modular, como se muestra en la figura I-5. El protocolo LLC es derivado del protocolo de Alto nivel para Control de Datos-Enlaces (HDLC) y es similar en su operación. Nótese que el LLC provee las direcciones de Puntos de Acceso a Servicios (SAP’s), mientras que la subcapa MAC provee la dirección física de red de un dispositivo. Las SAP’s son específicamente las direcciones de una o más procesos de aplicaciones ejecutándose en una computadora o dispositivo de red. El LLC provee los siguientes servicios: Servicio orientado a la conexión, en el que una sesión es empezada con un Destino, y terminada cuando la transferencia de datos se completa. Cada nodo participa activamente en la transmisión, pero sesiones similares requieren un tiempo de configuración y monitoreo en ambas estaciones. Servicios de reconocimiento orientado a conexiones. Similares al anterior, del que son reconocidos los paquetes de transmisión. Servicio de conexión sin reconocimiento. En el cual no se define una sesión. Los paquetes son puramente enviados a su destino. Los protocolos de alto nivel son responsables de solicitar el reenvío de paquetes que se hayan perdido. Este es el servicio normal en redes de área local (LAN’s), por su alta confiabilidad. IEEE creó la subcapa de enlace lógico para permitir que parte de la capa de enlace de datos funcionara independientemente de las tecnologías existentes. Esta capa proporciona versatilidad en los servicios de los protocolos de la capa de red que está sobre ella, mientras se comunica de forma efectiva con las diversas tecnologías que están por debajo. El LLC, como subcapa, participa en el proceso de encapsulamiento. La PDU del LLC a veces se denomina paquete LLC, pero éste no es un término que se utiliza con frecuencia. El LLC transporta los datos de protocolo de la red, un paquete IP, y agrega más información de control para ayudar a entregar ese paquete IP en el destino. Agrega dos componentes de direccionamiento de la especificación 802.2: el Punto de acceso al servicio destino (DSAP) y el Punto de acceso al servicio fuente (SSAP). Luego este paquete IP reempaquetado viaja hacia la subcapa MAC para que la tecnología específica requerida le adicione datos y lo encapsule. Un ejemplo de esta tecnología específica puede ser una de las variedades de Ethernet, Token Ring o FDDI. La subcapa LLC de la capa de enlace de datos administra la comunicación entre los dispositivos a través de un solo enlace a una red. LLC se define en la especificación IEEE 802.2 y soporta tanto servicios orientados a conexión como servicios no orientados a conexión, utilizados por los protocolos de las capas superiores. IEEE 802.2 define una serie de campos en las tramas de la capa de enlace de datos que permiten que múltiples protocolos de las capas superiores compartan un solo enlace de datos físico. 3.3.4 802.3 Ethernet. 802.3 Redes CSMA/CD. El estándar 802.3 del IEEE (ISO 8802-3), que define cómo opera el método de Acceso Múltiple con Detección de Colisiones (CSMA/CD) sobre varios medios. El estándar define la conexión de redes sobre cable coaxial, cable de par trenzado, y medios de fibra óptica. La tasa de transmisión original es de 10 Mbits/seg, pero nuevas implementaciones transmiten arriba de los 100 Mbits/seg calidad de datos en cables de par trenzado. Ethernet es la tecnología de red de área local (LAN) de uso más generalizado. El diseño original de Ethernet representaba un punto medio entre las redes de larga distancia y baja velocidad y las redes especializadas de las salas de computadores, que transportaban datos a altas velocidades y a distancias muy limitadas. Ethernet se adecua bien a las aplicaciones en las que un medio de comunicación local debe transportar tráfico esporádico y ocasionalmente pesado, a velocidades muy elevadas. La arquitectura de red Ethernet tiene su origen en la década de los '60 en la Universidad de Hawai, donde se desarrolló el método de acceso utilizado por Ethernet, o sea, el CSM/CD (acceso múltiple con detección de portadora y detección de colisiones. El centro de investigaciones PARC (Palo Alto Research Center) de Xerox Corporation desarrolló el primer sistema Ethernet experimental a principios del decenio 1970-80. Este sistema sirvió como base de la especificación 802.3 publicada en 1980 por el Instituto de Ingeniería Eléctrica y Electrónica (Institute of Electrical and Electronic Engineers (IEEE)). Poco después de la publicación de la especificación IEEE 802.3 en 1980, Digital Equipment Corporation, Intel Corporation y Xerox Corporation desarrollaron y publicaron conjuntamente una especificación Ethernet denominada "Versión 2.0" que era sustancialmente compatible con la IEEE 802.3. En la actualidad, Ethernet e IEEE 802.3 retienen en conjunto la mayor parte del mercado de protocolos de LAN. Hoy en día, el término Ethernet a menudo se usa para referirse a todas las LAN de acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD), que generalmente cumplen con las especificaciones Ethernet, incluyendo IEEE 802.3. Ethernet e IEEE 802.3 especifican tecnologías similares; ambas son LAN de tipo CSMA/CD. Las estaciones de una LAN de tipo CSMA/CD pueden acceder a la red en cualquier momento. Antes de enviar datos, las estaciones CSMA/CD escuchan a la red para determinar si se encuentra en uso. Si lo está, entonces esperan. Si la red no se encuentra en uso, las estaciones comienzan a transmitir. Una colisión se produce cuando dos estaciones escuchan para saber si hay tráfico de red, no lo detectan y, acto seguido transmiten de forma simultánea. En este caso, ambas transmisiones se dañan y las estaciones deben volver a transmitir más tarde. Los algoritmos de postergación determinan el momento en que las estaciones que han tenido una colisión pueden volver a transmitir. Las estaciones CSMA/CD pueden detectar colisiones, de modo que saben en qué momento pueden volver a transmitir. Tanto las LAN Ethernet como las LAN IEEE 802.3 son redes de broadcast. Esto significa que cada estación puede ver todas las tramas, aunque una estación determinada no sea el destino propuesto para esos datos. Cada estación debe examinar las tramas que recibe para determinar si corresponden al destino. De ser así, la trama pasa a una capa de protocolo superior dentro de la estación para su adecuado procesamiento. Existen diferencias sutiles entre las LAN Ethernet e IEEE 802.3. Ethernet proporciona servicios que corresponden a las Capas 1 y 2 del modelo de referencia OSI. IEEE 802.3 especifica la capa física, la Capa 1 y la porción de acceso al canal de la capa de enlace de datos, la Capa 2, pero no define un protocolo de Control de Enlace Lógico. Tanto Ethernet como IEEE 802.3 se implementan a través del hardware. Normalmente, el componente físico de estos protocolos es una tarjeta de interfaz en un computador host o son circuitos de una placa de circuito impreso dentro de un host. Formato de trama Ethernet Los campos de trama Ethernet e IEEE 802.3 se describen en los siguientes resúmenes: preámbulo: El patrón de unos y ceros alternados les indica a las estaciones receptoras que una trama es Ethernet o IEEE 802.3. La trama Ethernet incluye un byte adicional que es el equivalente al campo Inicio de trama (SOF) de la trama IEEE 802.3. inicio de trama (SOF): El byte delimitador de IEEE 802.3 finaliza con dos bits 1 consecutivos, que sirven para sincronizar las porciones de recepción de trama de todas las estaciones de la LAN. SOF se especifica explícitamente en Ethernet. direcciones destino y origen: Los primeros 3 bytes de las direcciones son especificados por IEEE según el proveedor o fabricante. El proveedor de Ethernet o IEEE 802.3 especifica los últimos 3 bytes. La dirección origen siempre es una dirección unicast (de nodo único). La dirección destino puede ser unicast, multicast (grupo de nodos) o de broadcast (todos los nodos). tipo (Ethernet): El tipo especifica el protocolo de capa superior que recibe los datos una vez que se ha completado el procesamiento Ethernet. longitud (IEEE 802.3): La longitud indica la cantidad de bytes de datos que sigue este campo. datos (Ethernet): Una vez que se ha completado el procesamiento de la capa física y de la capa de enlace, los datos contenidos en la trama se envían a un protocolo de capa superior, que se identifica en el campo tipo. Aunque la versión 2 de Ethernet no especifica ningún relleno, al contrario de lo que sucede con IEEE 802.3, Ethernet espera por lo menos 46 bytes de datos. datos (IEEE 802.3): Una vez que se ha completado el procesamiento de la capa física y de la capa de enlace, los datos se envían a un protocolo de capa superior, que debe estar definido dentro de la porción de datos de la trama. Si los datos de la trama no son suficientes para llenar la trama hasta una cantidad mínima de 64 bytes, se insertan bytes de relleno para asegurar que por lo menos haya una trama de 64 bytes. secuencia de verificación de trama (FCS): Esta secuencia contiene un valor de verificación CRC de 4 bytes, creado por el dispositivo emisor y recalculado por el dispositivo receptor para verificar la existencia de tramas dañadas. 3.3.5 802.4 Token Bus. 802.4 Redes Token Bus. El estándar token bus define esquemas de red de anchos de banda grandes, usados en la industria de manufactura. Se deriva del Protocolo de Automatización de Manufactura (MAP). La red implementa el método token-passing para una transmisión bus. Un token es pasado de una estación a la siguiente en la red y la estación puede transmitir manteniendo el token. Los tokens son pasados en orden lógico basado en la dirección del nodo, pero este orden puede no relacionar la posición física del nodo como se hace en una red token ring. El estándar no es ampliamente implementado en ambientes LAN. Token Bus. Para el token bus, las estaciones en el bus o árbol forman un anillo lógico; esto es, a las estaciones se les asigna posiciones lógicas en una secuencia ordenada, con el último miembro seguido por el primero. Cada estación conoce la identidad de la estación que lo precede y lo sigue. El orden físico de las estaciones en el bus es irrelevante e independiente del ordenamiento lógico. El token, o estafeta, regula el derecho de acceso. El token contiene una dirección destino. La estación que posee el token tiene control al medio por un tiempo especificado. La estación debe transmitir uno o más paquetes y puede consultar estaciones y recibir respuestas. Cuando la estación termina, o el tiempo ha expirado, pasa el token a la siguiente estación en la secuencia lógica. Esta siguiente estación tiene ahora permiso para transmitir. Entonces, la operación normal consiste en fases alternas de transferencia de datos y de token. Adicionalmente, estaciones que no usan el token y que están autorizadas en el bus, sólo pueden responder a consultas o solicitudes de confirmación. ESTÁNDAR IEEE 802.4: TOKEN BUS Cuando se desarrollaba el estándar ethernet algunas grandes empresas interesadas en la automatización de fábricas tenían serias dudas de la viabilidad de su aplicación a sistemas en tiempo real. La razón principal de este reparo estaba en el comportamiento no determinista de Ethernet, en principio cabía la posibilidad de que dos ordenadores no pudieran comunicarse debido al exceso de tráfico en la red. No había un límite superior al caso más desfavorable. Además, no era posible reservar capacidad o establecer prioridades. Token Ring resolvía muchos de los problemas que se le achacaban a Ethernet, pero seguía presentando dos inconvenientes serios: el papel de la estación monitor resultaba demasiado importante, y muchas cosas podían fallar si el monitor dejaba de funcionar o se volvía loco. Además, una topología en bus era mas adecuada que un anillo para la cadena de montaje de una fábrica. En un intento por resolver estos inconvenientes, General Motors promovió el desarrollo del estándar 802.4, también llamado Token Bus. Esta red se utiliza en algunas fábricas para el control de la maquinaria. Su uso es mucho más restringido que Ethernet o Token Ring, por lo que sólo la describiremos muy brevemente. De una manera muy simplista podemos decir que Token Bus es un híbrido entre Ethernet y Token Ring, si bien guarda mucho más parecido con esta última red. Tiene topología de bus. Las velocidades pueden ser de 1, 5 o 10 Mb/s. La señal se transmite de forma analógica sobre cable coaxial de 75 ohmios. El medio físico es completamente incompatible con Ethernet y mucho más complejo y caro. El protocolo MAC es más parecido a Token Ring. Aunque la topología física es de bus las estaciones constituyen un anillo lógico sobre el que va pasando el token. Existe un mecanismo de prioridades. La trama puede tener un tamaño de hasta 8190 bytes. Aunque hay un mecanismo de mantenimiento del anillo (generación del token, labores limpieza de tramas perdidas, etc.) no existe una estación omnipotente equivalente al monitor de Token Ring. Al igual que Token Ring, Token Bus utiliza un protocolo sin colisiones por lo que puede llegar a tener un rendimiento muy cercano a su límite teórico. 3.3.6 802.5 Token Ring. 802.5 Redes Token Ring. También llamado ANSI 802.1-1985, define los protocolos de acceso, cableado e interface para la LAN token ring. IBM hizo popular este estándar. Usa un método de acceso de paso de tokens y es físicamente conectada en topología estrella, pero lógicamente forma un anillo. Los nodos son conectados a una unidad de acceso central (concentrador) que repite las señales de una estación a la siguiente. Las unidades de acceso son conectadas para expandir la red, que amplía el anillo lógico. La Interface de Datos en Fibra Distribuida (FDDI) fue basada en el protocolo token ring 802.5, pero fue desarrollado por el Comité de Acreditación de Estándares (ASC) X3T9. Es compatible con la capa 802.2 de Control de Enlaces Lógicos y por consiguiente otros estándares de red 802. IBM desarrolló la primera red Token Ring en los años setenta. Todavía sigue siendo la tecnología de LAN principal de IBM, y desde el punto de vista de implementación de LAN ocupa el segundo lugar después de Ethernet (IEEE 802.3). La especificación IEEE 802.5 es prácticamente idéntica a la red Token Ring de IBM, y absolutamente compatible con ella. La especificación IEEE 802.5 se basó en el Token Ring de IBM y se ha venido evolucionando en paralelo con este estándar. El término Token Ring se refiere tanto al Token Ring de IBM como a la especificación 802.5 del IEEE. En el gráfico principal se destacan las similitudes y diferencias principales entre los dos estándares. Formato de trama Token Ring Tokens Los tokens tienen una longitud de 3 bytes y están formados por un delimitador de inicio, un byte de control de acceso y un delimitador de fin. El delimitador de inicio informa a cada estación de la llegada de un token o de una trama de datos/comandos. Este campo también incluye señales que distinguen al byte del resto de la trama al violar el esquema de codificación que se usa en otras partes de la trama. Byte de control de acceso El byte de control de acceso contiene los campos de prioridad y de reserva, así como un bit de token y uno de monitor. El bit de token distingue un token de una trama de datos/comandos y un bit de monitor determina si una trama gira continuamente alrededor del anillo. . El delimitador de fin señala el final del token o de la trama de datos/comandos. Contiene bits que indican si hay una trama defectuosa y una trama que es la última de una secuencia lógica. Tramas de datos/comandos El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de datos transportan información para los protocolos de capa superior; las tramas de instrucciones contienen información de control y no poseen datos para los protocolos de capa superior. En las tramas de datos/comandos, un byte de control de trama sigue al byte de control de acceso. El byte de control de trama indica si la trama contiene datos o información de control. En las tramas de control, este byte especifica el tipo de información de control. A continuación del byte de control de trama hay dos campos de dirección que identifican las estaciones destino y origen. Como en el caso de IEEE 802.5, la longitud de las direcciones es de 6 bytes. El campo de datos está ubicado a continuación del campo de dirección. La longitud de este campo está limitada por el token de anillo que mantiene el tiempo, definiendo de este modo el tiempo máximo durante el cual una estación puede retener al token. A continuación del campo de datos se ubica el campo de secuencia de verificación de trama (FCS). La estación origen completa este campo con un valor calculado según el contenido de la trama. La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado mientras estaba en tránsito. Si la trama está dañada se descarta. Al igual que con el token, el delimitador de fin completa Token Ring. La técnica token ring está basada en el uso de un paquete token (estafeta) que circula en un anillo cuando todas las estaciones están ociosas. Una estación que desee transmitir debe esperar hasta que detecta un token pasando por su nodo. Entonces se apodera del token cambiándole un bit en el token, lo cual lo convierte en una secuencia de inicio de paquete para un paquete de datos. La estación agrega y transmite el resto de los campos (como la dirección destino) necesarios para construir el paquete de datos. Ya no hay token en el anillo, así que otras estaciones que esperen el token para transmitir, tendrán que esperar. El paquete en el anillo hace un viaje redondo y es purgado en la estación transmisora. La estación transmisora inserta un token nuevo en el anillo después de que ha terminado la transmisión de su paquete. Una vez que un nuevo token ha sido insertado en el anillo, la siguiente estación con paquete de datos por enviar captura el token y empieza a transmitir. ESTÁNDAR IEEE 802.5: TOKEN RING Con cierto retraso respecto a los experimentos de Xerox con Ethernet, IBM estaba experimentando con un protocolo MAC denominado Token Ring (anillo con paso de testigo). Este protocolo también fue estandarizado por el IEEE con el número 802.5, si bien su desarrollo comercial fue algo más lento que el de 802.3; los primeros productos comerciales de Token Ring aparecieron en 1986. Existen tres variantes de Token Ring: a 1, 4 y 16 Mb/s; las de 4 y 16 Mb/s son las más utilizadas (la de 1 Mb/s ha sido suprimida del estándar). El cableado utilizado es STP o UTP de categoría 3 o superior para 4 Mb/s, y STP para 16 Mb/s. La señal se representa usando codificación Manchester diferencial, con señales de +3,0 y -4,5voltios. La codificación Manchester diferencial emplea la presencia o ausencia de transición entre dos voltajes para indicar un 0 o un 1, respectivamente. Requiere un equipo mas caro y complejo que la codificación Manchester, pero es mas inmune al ruido y esta mejor adaptada al uso de cable de pares, ya que no tiene problemas de polaridad invertida como ocurre con Manchester (a diferencia de Ethernet el cable de pares fue previsto en Token Ring ya en el diseño original). En las redes tipo bus (como 802.3) la fiabilidad depende de la continuidad del cable, que pasa por todas las estaciones y puede ser motivo de manipulaciones no autorizadas. Este problema se resolvió en 802.3 con el cableado 10BASE-T, que manteniendo la topología lógica de bus utiliza un cableado en estrella. En el caso de topologías en anillo como Token Ring el problema es similar, ya que la rotura del anillo en un punto impide la comunicación. Para evitar este problema en Token Ring lo que se hace es colapsar el anillo en un hub o concentrador, también llamado centro de cableado, al cual se conectan los cables de entrada y salida de cada estación. El cableado sigue siendo lógicamente un anillo, aún cuando físicamente sea una estrella. En el concentrador se instalan relés de derivación (bypass) alimentados por la estación correspondiente, de forma que si la conexión de ésta falla el relé cortocircuita la conexión correspondiente restaurando así el anillo. En la práctica la topología física no es muy diferente a la de una red Ethernet. Una red Token Ring puede estar formada por varios concentradores interconectados, lo cual permite reducir apreciablemente la cantidad de cable necesario. También es posible constituir dobles anillos para tener mayor fiabilidad, pues en caso de corte por un punto el doble anillo puede cerrarse sobre sí mismo superando el problema. Aunque la topología física de cableado pueda estar formada por varios anillos o estrellas interconectadas, desde el punto de vista del protocolo una red Token Ring está formada siempre por un único anillo lógico. 3.3.7 802.6 FDDI. A mediados de los años ochenta, las estaciones de trabajo de alta velocidad para uso en ingeniería habían llevado las capacidades de las tecnologías Ethernet y Token Ring existentes hasta el límite de sus posibilidades. Los ingenieros necesitaban una LAN que pudiera soportar sus estaciones de trabajo y las nuevas aplicaciones. Al mismo tiempo, los administradores de sistemas comenzaron a ocuparse de los problemas de confiabilidad de la red ya que se implementaban aplicaciones críticas de las empresas en las redes de alta velocidad. Para solucionar estos problemas, la comisión normalizadora ANSI X3T9.5 creó el estándar Interfaz de datos distribuida por fibra (FDDI) . Después de completar las especificaciones, el ANSI envió la FDDI a la Organización Internacional de Normalización (ISO), la cual creó entonces una versión internacional de dicha interfaz que es absolutamente compatible con la versión estándar del ANSI. Aunque en la actualidad las implementaciones de la FDDI en la actualidad no son tan comunes como Ethernet o Token Ring, la FDDI tiene muchos seguidores y continúa creciendo a medida que su costo disminuye. La FDDI se usa con frecuencia como una tecnología backbone y para conectar los computadores de alta velocidad en una LAN. FDDI tiene cuatro especificaciones: 1. Control de acceso al medio (MAC): Define la forma en que se accede al medio, incluyendo: formato de trama tratamiento del token direccionamiento algoritmo para calcular una verificación por redundancia cíclica y mecanismos de recuperación de errores 2. Protocolo de capa física (PHY): define los procedimientos de codificación o decodificación, incluyendo: requisitos de reloj entramado otras funciones 3. Medio de capa física (PMD): Define las características del medio de transmisión, incluyendo: enlace de fibra óptica niveles de potencia tasas de error en bits componentes ópticos conectores 4. Administración de estaciones(SMT): define la configuración de la estación FDDI, incluyendo: configuración del anillo características de control del anillo inserción y eliminación de una estación inicialización aislamiento y recuperación de fallas programación recopilación de estadísticas Formato de FDDI Los campos de una trama FDDI son los siguientes: preámbulo: Prepara cada estación para recibir la trama entrante delimitador de inicio: indica el comienzo de una trama, y está formado por patrones de señalización que lo distinguen del resto de la trama control de trama: indica el tamaño de los campos de dirección, si la trama contiene datos asíncronos o síncronos y otra información de control dirección destino: contiene una dirección unicast (singular), multicast (grupal) o broadcast (toda estación); las direcciones destino tienen 6 bytes (por ejemplo, Ethernet y Token Ring) dirección origen: identifica la estación individual que envió la trama. Las direcciones origen tienen 6 bytes (como Ethernet y Token Ring) datos: información de control, o información destinada a un protocolo de capa superior secuencia de verificación de trama (FCS): la estación origen la completa con una verificación por redundancia cíclica (CRC) calculada, cuyo valor depende del contenido de la trama (como en el caso de Token Ring y Ethernet). La estación destino vuelve a calcular el valor para determinar si la trama se ha dañado durante el tránsito. La trama se descarta si está dañada. delimitador de fin: contiene símbolos que no son datos que indican el fin de la trama estado de la trama: permite que la estación origen determine si se ha producido un error y si la estación receptora reconoció y copió la trama FDDI (Fiber Distributed Data Interface) FDDI funciona a 100 Mb/s. El estándar correspondiente fue definido inicialmente por ANSI y más tarde adoptado por ISO como el estándar internacional ISO 9314. No se trata pues de un estándar IEEE, aunque sigue su misma arquitectura. Análogamente a los otros estándares, el documento describe la capa física y la subcapa MAC. Para la parte LLC se utiliza el estándar IEEE 802.2. Las características de velocidad, distancia y fiabilidad de FDDI la convirtieron durante algún tiempo en la red ideal para ser utilizada como columna vertebral (backbone) que concentre las redes locales de una gran organización, como una fábrica o un campus universitario. FDDI tiene muchos elementos comunes con Token Ring, y en cierta medida puede considerarse una evolución de aquella tecnología. La topología es de doble anillo para aumentar la seguridad, no la velocidad. En condiciones normales un token gira por cada anillo en sentido opuesto. Las estaciones pueden ser SAS (Single Attach Station) si están enchufadas a un anillo únicamente, o DAS (Dual Attach Station) si lo están a ambos. Si se produce un corte en los anillos las estaciones DAS más próximas a cada lado del corte unen entre sí ambos anillos, con lo que se crea un anillo de mayor longitud que permite mantener conectados todos los ordenadores. En el caso de producirse un segundo corte en otro punto del anillo se crean dos anillos aislados, cada uno de los cuales puede seguir funcionando. Las interfaces DAS son más caras que las SAS, pero dan una mayor tolerancia a fallos al permitir cerrar el anillo. El medio físico de transmisión es fibra óptica multimodo o cable de cobre UTP Categoría 5. En ocasiones la FDDI de cobre se denomina CDDI (Copper Distributed Data Interface), aunque realmente este nombre corresponde a una implementación antigua, no estándar; el nombre correcto del estándar en cable de cobre es TP-PMD (Twisted PairPhysical Media Dependent). En este caso se utiliza una topología física similar a la de 10Base-T, con los ordenadores conectados a concentradores. La distancia máxima del ordenador al concentrador es de 100 metros. También es posible utilizar concentradores para la conexión de ordenadores por fibra óptica. FDDI puede considerarse una versión evolucionada de Token Ring en muchos de sus aspectos. No se utiliza señalización Manchester ya que esto supondría 200 Mbaudios, lo cual hubiera requerido una electrónica demasiado cara en las tarjetas de red. En su lugar se diseñó una codificación denominada 4B5B, que también se utilizó mas tarde en Iso-Ethernet y Fast Ethernet. De esta forma la interfaz física funciona a 125 Mbaudios. La codificación 4B5B ahorra ancho de banda, pero pierde la característica de autosincronismo que tenía la codificación Manchester. Para compensar este inconveniente se introduce un largo preámbulo de al menos 16 símbolos (90 bits) al principio de la trama o del token. La estructura de una trama y token FDDI es muy similar a los de Token Ring. La longitud máxima del campo datos puede ser de hasta 4500 bytes. El protocolo MAC de FDDI es también muy parecido al de Token Ring. La diferencia más notable es que en FDDI siempre se funciona con el principio de Early Token Release, es decir, la estación emisora no espera a escuchar su propia trama para restaurar el token. Existe también un token-holding timer que establece el tiempo máximo que una estación puede transmitir de una vez. Este parámetro tiene importantes consecuencias en el rendimiento de la red; el valor por defecto de 4 ms es adecuado en la mayoría de las situaciones, excepto en las redes muy grandes (más de 20 Km) en que es conveniente aumentarlo. Existe una versión modificada de FDDI, denominada FDDI-II, que permite manejar tráfico isócrono (voz, vídeo y datos en tiempo real). Para la transmisión de este tipo de tráfico FDDI-II define una trama especial, denominada trama síncrona, que se emite cada 125 s por un ordenador que actúa como maestro; una trama síncrona contiene 96 bytes de información útil, equivalentes a 6,144 Mb/s, que con la información de cabecera ocupan 6,25 Mb/s . Este ancho de banda queda reservado para la estación maestra y no puede ser utilizado para tramas asíncronas (es decir, normales). La estación maestra puede reservar espacio para tramas síncronas adicionales, hasta un máximo de 16, con lo que toda la capacidad de la red quedaría reservado para tráfico síncrono. En resumen, en FDDI-II coexiste TDM con un canal compartido en el mismo medio físico. En cierto modo es algo parecido a Iso-Ethernet, salvo que aquí en vez de usar capacidad adicional se 'roba' parte de la capacidad normal. Para poder utilizar FDDI-II es preciso que todas las estaciones del anillo soporten el funcionamiento en modo híbrido, es decir, la coexistencia de tramas síncronas con tramas asíncronas. El desarrollo de FDDI-II ha quedado prácticamente congelado con la aparición de ATM en redes locales, ya que ATM ofrece el mismo tipo de servicios de forma mas flexible y a un precio inferior. Hasta 1995-1996 FDDI era la principal tecnología de red de alta velocidad; sin embargo su grado de implantación siempre ha sido escaso. La principal razón de esto ha sido su elevado costo comparado con las redes locales más tradicionales, como Ethernet o Token Ring. Hoy en día ha sido completamente superada por Fast Ethernet y Gigabit Ethernet. 3.3.8 802.11 LAN inalámbricas. 802.11 Redes Inalámbricas. Este comité esta definiendo estándares para redes inalámbricas. Esta trabajando en la estandarización de medios como el radio de espectro de expansión, radio de banda angosta, infrarrojo, y transmisión sobre líneas de energía. Dos enfoques para redes inalámbricas se han planeado. En el enfoque distribuido, cada estación de trabajo controla su acceso a la red. En el enfoque de punto de coordinación, un hub central enlazado a una red alámbrica controla la transmisión de estaciones de trabajo inalámbricas. Una red con cable está dotada de una seguridad inherente en cuanto a que un posible ladrón de datos debe obtener acceso a la red a través de una conexión por cable, lo que normalmente significa el acceso físico a la red de cables. Sobre este acceso físico se pueden superponer otros mecanismos de seguridad. Cuando la red ya no se sustenta con cables, la libertad que obtienen los usuarios también se hace extensiva al posible ladrón de datos. Ahora, la red puede estar disponible en vestíbulos, salas de espera inseguras, e incluso fuera del edificio. En un entorno doméstico, la red podría extenderse hasta los hogares vecinos si el dispositivo de red no adopta o no utiliza correctamente los mecanismos de seguridad. Desde sus comienzos, 802.11 ha proporcionado algunos mecanismos de seguridad básicos para impedir que esta libertad mejorada sea una posible amenaza. Por ejemplo, los puntos de acceso (o conjuntos de puntos de acceso) 802.11 se pueden configurar con un identificador del conjunto de servicios (SSID). La tarjeta NIC también debe conocer este SSID para asociarlo al AP y así proceder a la transmisión y recepción de datos en la red. Esta seguridad, si se llegase a considerar como tal, es muy débil debido a estas razones: Todas las tarjetas NIC y todos los AP conocen perfectamente el SSID El SSID se envía por ondas de manera transparente (incluso es señalizado por el AP) La tarjeta NIC o el controlador pueden controlar localmente si se permite la asociación en caso de que el SSID no se conozca No se proporciona ningún tipo de cifrado a través de este esquema Aunque este esquema puede plantear otros problemas, esto es suficiente para detener al intruso más despreocupado. Las especificaciones 802.11 proporcionan seguridad adicional mediante el algoritmo WEP (Wired Equivalent Privacy). WEP proporciona a 802.11 servicios de autenticación y cifrado. El algoritmo WEP define el uso de una clave secreta de 40 bits para la autenticación y el cifrado, y muchas implementaciones de IEEE 802.11 también permiten claves secretas de 104 bits. Este algoritmo proporciona la mayor parte de la protección contra la escucha y atributos de seguridad física que son comparables a una red con cable. Una limitación importante de este mecanismo de seguridad es que el estándar no define un protocolo de administración de claves para la distribución de las mismas. Esto supone que las claves secretas compartidas se entregan a la estación inalámbrica IEEE 802.11 a través de un canal seguro independiente del IEEE 802.11. El reto aumenta cuando están implicadas un gran número de estaciones, como es el caso de un campus corporativo. Para proporcionar un mecanismo mejor para el control de acceso y la seguridad, es necesario incluir un protocolo de administración de claves en la especificación. Para hacer frente a este problema se creó específicamente el estándar 802.1x 3.4 Arquitectura de protocolos. 3.4.1 TCP/IP. Aunque el modelo de referencia OSI sea universalmente reconocido, el estándar abierto de Internet desde el punto de vista histórico y técnico es el Protocolo de control de transmisión/Protocolo Internet (TCP/IP). El modelo de referencia TCP/IP y la pila de protocolo TCP/IP hacen que sea posible la comunicación entre dos computadores, desde cualquier parte del mundo, a casi la velocidad de la luz. El modelo TCP/IP tiene importancia histórica, al igual que las normas que permitieron el desarrollo de la industria telefónica, de energía eléctrica, el ferrocarril, la televisión y las industrias de vídeos. Las capas del modelo de referencia TCP/IP El Departamento de Defensa de EE.UU. (DoD) creó el modelo TCP/IP porque necesitaba una red que pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear. Para brindar un ejemplo más amplio, supongamos que el mundo está en estado de guerra, atravesado en todas direcciones por distintos tipos de conexiones: cables, microondas, fibras ópticas y enlaces satelitales. Imaginemos entonces que se necesita que fluya la información o los datos (organizados en forma de paquetes), independientemente de la condición de cualquier nodo o red en particular de la internetwork (que en este caso podrían haber sido destruidos por la guerra). El DoD desea que sus paquetes lleguen a destino siempre, bajo cualquier condición, desde un punto determinado hasta cualquier otro. Este problema de diseño de difícil solución fue lo que llevó a la creación del modelo TCP/IP, que desde entonces se transformó en el estándar a partir del cual se desarrolló Internet. A medida que obtenga más información acerca de las capas, tenga en cuenta el propósito original de Internet; esto le ayudará a entender por qué motivo ciertas cosas son como son. El modelo TCP/IP tiene cuatro capas: la capa de aplicación, la capa de transporte, la capa de Internety la capa de acceso de red. Es importante observar que algunas de las capas del modelo TCP/IP poseen el mismo nombre que las capas del modelo OSI. No confunda las capas de los dos modelos, porque la capa de aplicación tiene diferentes funciones en cada modelo. Capa de aplicación Los diseñadores de TCP/IP sintieron que los protocolos de nivel superior deberían incluir los detalles de las capas de sesión y presentación. Simplemente crearon una capa de aplicación que maneja protocolos de alto nivel, aspectos de representación, codificación y control de diálogo. El modelo TCP/IP combina todos los aspectos relacionados con las aplicaciones en una sola capa y garantiza que estos datos estén correctamente empaquetados para la siguiente capa. Capa de transporte La capa de transporte se refiere a los aspectos de calidad del servicio con respecto a la confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo. TCP es un protocolo orientado a la conexión. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos. Orientado a la conexión no significa que el circuito exista entre los computadores que se están comunicando (esto sería una conmutación de circuito). Significa que los segmentos de Capa 4 viajan de un lado a otro entre dos hosts para comprobar que la conexión exista lógicamente para un determinado período. Esto se conoce como conmutación de paquetes. Capa de Internet El propósito de la capa de Internet es enviar paquetes origen desde cualquier red en la internetwork y que estos paquetes lleguen a su destino independientemente de la ruta y de las redes que recorrieron para llegar hasta allí. El protocolo específico que rige esta capa se denomina Protocolo Internet (IP). En esta capa se produce la determinación de la mejor ruta y la conmutación de paquetes. Esto se puede comparar con el sistema postal. Cuando envía una carta por correo, usted no sabe cómo llega a destino (existen varias rutas posibles); lo que le interesa es que la carta llegue. Capa de acceso de red El nombre de esta capa es muy amplio y se presta a confusión. También se denomina capa de host a red. Es la capa que se ocupa de todos los aspectos que requiere un paquete IP para realizar realmente un enlace físico y luego realizar otro enlace físico. Esta capa incluye los detalles de tecnología LAN y WAN y todos los detalles de las capas física y de enlace de datos del modelo OSI. Protocolo TCP/IP La suite TCP/IP Internet es un conglomerado muy amplio y extenso en el que se encuentran ordenadores con sistemas operativos incompatibles, redes más pequeñas y distintos servicios con su propio conjunto de protocolos para la comunicación. Ante tanta diversidad resulta necesario establecer un conjunto de reglas comunes para la comunicación entre estos diferentes elementos y que además optimice la utilización de recursos tan distantes. Este papel lo tiene el protocolo TCP/IP. TCP/IP también puede usarse como protocolo de comunicación en las redes privadas intranet y extranet. Las siglas TCP/IP se refieren a dos protocolos de red, que son Transmission Control Protocol (Protocolo de Control de Transmisión) e Internet Protocol (Protocolo de Internet) respectivamente. Estos protocolos pertenecen a un conjunto mayor de protocolos. Dicho conjunto se denomina suite TCP/IP. Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente para proporcionar el transporte de datos dentro de Internet (o Intranet). En otras palabras, hacen posible que accedamos a los distintos servicios de la Red. Estos servicios incluyen, como se comento en el capítulo 1: transmisión de correo electrónico, transferencia de ficheros, grupos de noticias, acceso a la World Wide Web, etc. Hay dos clases de protocolos dentro de la suite TCP/IP que son: protocolos a nivel de red y protocolos a nivel de aplicacion. Protocolos a Nivel de Red Estos protocolos se encargan de controlar los mecanismos de transferencia de datos. Normalmente son invisibles para el usuario y operan por debajo de la superficie del sistema. Dentro de estos protocolos tenemos: TCP. Controla la división de la información en unidades individuales de datos (llamadas paquetes) para que estos paquetes sean encaminados de la forma más eficiente hacia su punto de destino. En dicho punto, TCP se encargará de reensamblar dichos paquetes para reconstruir el fichero o mensaje que se envió. Por ejemplo, cuando se nos envía un fichero HTML desde un servidor Web, el protocolo de control de transmisión en ese servidor divide el fichero en uno o más paquetes, numera dichos paquetes y se los pasa al protocolo IP. Aunque cada paquete tenga la misma dirección IP de destino, puede seguir una ruta diferente a través de la red. Del otro lado (el programa cliente en nuestro ordenador), TCP reconstruye los paquetes individuales y espera hasta que hayan llegado todos para presentárnoslos como un solo fichero. IP. Se encarga de repartir los paquetes de información enviados entre el ordenador local y los ordenadores remotos. Esto lo hace etiquetando los paquetes con una serie de información, entre la que cabe destacar las direcciones IP de los dos ordenadores. Basándose en esta información, IP garantiza que los datos se encaminarán al destino correcto. Los paquetes recorrerán la red hasta su destino (que puede estar en el otro extremo del planeta) por el camino más corto posible gracias a unos dispositivos denominados encaminadores o routers. Protocolos a Nivel de Aplicación Aquí tenemos los protocolos asociados a los distintos servicios de Internet, como FTP, Telnet, Gopher, HTTP, etc. Estos protocolos son visibles para el usuario en alguna medida. Por ejemplo, el protocolo FTP (File Transfer Protocol) es visible para el usuario. El usuario solicita una conexión a otro ordenador para transferir un fichero, la conexión se establece, y comienza la transferencia. Durante dicha transferencia, es visible parte del intercambio entre la máquina del usuario y la máquina remota (mensajes de error y de estado de la transferencia, como por ejemplo cuantos bytes del fichero se han transferido en un momento dado). Breve Historia del Protocolo TCP/IP A principios de los años 60, varios investigadores intentaban encontrar una forma de compartir recursos informáticos de una forma más eficiente. En 1961, Leonard Klienrock introduce el concepto de Conmutación de Paquetes (Packet Switching, en inglés). La idea era que la comunicación entre ordenadores fuese dividida en paquetes. Cada paquete debería contener la dirección de destino y podría encontrar su propio camino a través de la red. Como ya comentamos en el capítulo anterior, en 1969 la Agencia de Proyectos de Investigación Avanzada (Defense Advanced Research Projects Agency o DARPA) del Ejército de los EEUU desarrolla la ARPAnet. La finalidad principal de esta red era la capacidad de resistir un ataque nuclear de la URSS para lo que se pensó en una administración descentralizada. De este modo, si algunos ordenadores eran destruidos, la red seguiría funcionando. Aunque dicha red funcionaba bien, estaba sujeta a algunas caidas periódicas del sistema. De este modo, la expansión a largo plazo de esta red podría resultar difícil y costosa. Se inició entonces una búsqueda de un conjunto de protocolos más fiables para la misma. Dicha búsqueda finalizó, a mediados de los 70, con el desarrollo de TCP/IP. TCP/IP tenia (y tiene) ventajas significativas respecto a otros protocolos. Por ejemplo, consume pocos recusos de red. Además, podía ser implementado a un coste mucho menor que otras opciones disponibles entonces. Gracias a estos aspectos, TCP/IP comenzó a hacerse popular. En 1983, TCP/IP se integró en la versión 4.2 del sistema operativo UNIX de Berkeley y la integración en versiones comerciales de UNIX vino pronto. Así es como TCP/IP se convirtió en el estándar de Internet. En la actualidad, TCP/IP se usa para muchos propósitos, no solo en Internet. Por ejemplo, a menudo se diseñan intranets usando TCP/IP. En tales entornos, TCP/IP ofrece ventajas significativas sobre otros protocolos de red. Una de tales ventajas es que trabaja sobre una gran variedad de hardware y sistemas operativos. De este modo puede crearse fácilmente una red heterogénea usando este protocolo. Dicha red puede contener estaciones Mac, PC compatibles, estaciones Sun, servidores Novell, etc. Todos estos elementos pueden comunicarse usando la misma suite de protocolos TCP/IP. La siguiente tabla muestra una lista de plataformas que soportan TCP/IP: Plataforma Soporte de TCP/IP UNIX Nativo DOS Piper/IP por Ipswitch Windows TCPMAN por Trumpet Software Windows 95 Nativo Windows NT Nativo Macintosh MacTCP u OpenTransport (Sys 7.5+) OS/2 Nativo AS/400 OS/400 Nativo Las plataformas que no soportan TCP/IP nativamente lo implementan usando programas TCP/IP de terceras partes, como puede apreciarse en la tabla anterior. Cómo Trabaja TCP/IP TCP/IP opera a través del uso de una pila. Dicha pila es la suma total de todos los protocolos necesarios para completar una transferencia de datos entre dos máquinas (así como el camino que siguen los datos para dejar una máquina o entrar en la otra). La pila está dividida en capas, como se ilustra en la figura siguiente: EQUIPO SERVIDOR O CLIENTE | Capa de Cuando un usuario inicia una transferencia de datos, Aplicaciones esta capa pasa la solicitud a la Capa de Transporte. | Capa de La Capa de Transporte añade una cabecera y pasa Transporte los datos a la Capa de Red. | Capa de En la Capa de Red, se añaden las direcciones IP de Red origen y destino para el enrrutamiento de datos. | Capa de Ejecuta un control de errores sobre el flujo de datos Enlace de Datos entre los protocolos anteriores y la Capa Física. | Capa Ingresa o engresa los datos a través del medio físico, Física que puede ser Ethernet vía coaxial, PPP vía módem, etc. Después de que los datos han pasado a través del proceso ilustrado en la figura anterior, viajan a su destino en otra máquina de la red. Allí, el proceso se ejecuta al revés (los datos entran por la capa física y recorren la pila hacia arriba). Cada capa de la pila puede enviar y recibir datos desde la capa adyacente. Cada capa está también asociada con múltiples protocolos que trabajan sobre los datos. El Programa Inetd y los Puertos Cada vez que una máquina solicita una conexión a otra, especifica una dirección particular. En general, está dirección será la dirección IP Internet de dicha máquina. Pero hablando con más detalle, la máquina solicitante especificará también la aplicación que está intentando alcanzar dicho destino. Esto involucra a dos elementos: un programa llamado inetd y un sistema basado en puertos. Inetd. Inetd pertenece a un grupo de programas llamados TSR (Terminate and stay resident). Dichos programas siempre están en ejecución, a la espera de que se produzca algún suceso determinado en el sistema. Cuando dicho suceso ocurre, el TSR lleva a cabo la tarea para la que está programado. En el caso de inetd, su finalidad es estar a la espera de que se produzca alguna solicitud de conexión del exterior. Cuando esto ocurre, inetd evalúa dicha solicitud determinando que servicio está solicitando la máquina remota y le pasa el control a dicho servicio. Por ejemplo, si la máquina remota solicita una página web, le pasará la solicitud al proceso del servidor Web. En general, inetd es iniciado al arrancar el sistema y permanece residente (a la escucha) hasta que apagamos el equipo o hasta que el operador del sistema finaliza expresamente dicho proceso. Puertos. La mayoría de las aplicaciones TCP/IP tienen una filosofía de cliente-servidor. Cuando se recibe una solicitud de conexión, inetd inicia un programa servidor que se encargará de comunicarse con la máquina cliente. Para facilitar este proceso, a cada aplicación (FTP o Telnet, por ejemplo) se le asigna una única dirección. Dicha dirección se llama puerto. Cuando se produce una solicitud de conexión a dicho puerto, se ejecutará la aplicación correspondiente. Aunque la asignación de puertos a los diferentes servicios es de libre elección para los administradores de sistema, existe un estándar en este sentido que es conveniente seguir. La tabla que se muestra a continuación presenta un listado de algunas asignaciones estándar: Servicio o Aplicación Puerto File Transfer Protocol (FTP) 21 Telnet 23 Simple Mail Transfer Protocol (SMTP) 25 Gopher 70 Finger 79 Hypertext Transfer Protocol (HTTP) 80 Network News Transfer Protocol (NNTP) 119 Números IP En el capítulo anterior vimos que una dirección IP consistía en cuatro números separados por puntos, estando cada uno de ellos en el rango de 0 a 254. Por ejemplo, una dirección IP válida sería 193.146.85.34. Cada uno de los números decimales representa una cadena de ocho dígitos binarios. De este modo, la dirección anterior sería realmente la cadena de ceros y unos: 11000001.10010010.01010101.00100010 NOTA: Podemos usar la Calculadora de Windows 95 para realizar las conversiones de binario-decimal y viceversa. La versión actual del protocolo IP (la versión 4 o IPv4) define de esta forma direcciones de 32 bits, lo que quiere decir que hay 2^32 (4.294.967.296) direcciones IPv4 disponibles. Esto parece un gran número, pero la apertura de nuevos mercados y el hecho de que un porcentaje significativo de la población mundial sea candidato a tener una dirección IP, hacen que el número finito de direcciones pueda agotarse eventualmente. Este problema se ve agravado por el hecho de que parte del espacio de direccionamiento está mal asignado y no puede usarse a su máximo potencial. Por otra parte, el gran crecimiento de Internet en los últimos años ha creado también dificultades para encaminar el tráfico entre el número cada vez mayor de redes que la componen. Esto ha creado un crecimiento exponencial del tamaño de las tablas de encaminamiento que se hacen cada vez más difíciles de sostener. Los problemas comentados se han solucionado en parte hasta la fecha introduciendo progresivos niveles de jerarquía en el espacio de direcciones IP, que pasamos a comentar en los siguientes apartados. No obstante, la solución a largo plazo de estos problemas pasa por desarrollar la próxima generación del protocolo IP (IPng o IPv6) que puede alterar algunos de nuestros conceptos fundamentales acerca de Internet. Clasificación del Espacio de Direcciones Cuando el protocolo IP se estandarizó en 1981, la especificación requería que a cada sistema conectado a Internet se le asignase una única dirección IP de 32 bits. A algunos sistemas, como los routers, que tienen interfaces a más de una red se les debía asignar una única dirección IP para cada interfaz de red. La primera parte de una dirección IP identifica la red a la que pertenece el host, mientras que la segunda identifica al propio host. Por ejemplo, en la dirección 135.146.91.26 tendríamos: Prefijo de Red Número de Host 135.146 91.26 Esto crea una jerarquía del direccionamiento a dos niveles. Recordemos que la dirección es realmente una cadena de 32 dígitos binarios, en la que en el ejemplo anterior hemos usado los 24 primeros para identificar la red y los 8 últimos para identificar el host. Clases Primarias de Direcciones. Con la finalidad de proveer la flexibilidad necesaria para soportar redes de distinto tamaño, los diseñadores decidieron que el espacio de direcciones debería ser dividido en tres clases diferentes: Clase A, Clase B y Clase C. Cada clase fija el lugar que separa la dirección de red de la de host en la cadena de 32 bits. Una de las características fundamentales de este sistema de clasificación es que cada dirección contiene una clave que identifica el punto de división entre el prefijo de red y el número de host. Por ejemplo, si los dos primeros bits de la dirección son 1-0 el punto estará entre los bits 15 y 16. Redes Clase A (/8). Cada dirección IP en una red de clase A posee un prefijo de red de 8 bits (con el primer bit puesto a 0 y un número de red de 7 bits), seguido por un número de host de 24 bits. El posible definir un máximo de 126 (2^7-2) redes de este tipo y cada red /8 soporta un máximo de 16.777.214 (2^24-2) hosts. Obsérvese que hemos restado dos números de red y dos números de host. Estos números no pueden ser asignados ni a ninguna red ni a ningún host y son usados para propósitos especiales. Por ejemplo, el número de host "todos 0" identifica a la propia red a la que "pertenece". Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para la redes /8 o clase A: 1.xxx.xxx.xxx hasta 126.xxx.xxx.xxx Redes Clase B (/16). Tienen un prefijo de red de 16 bits (con los dos primeros puestos a 1-0 y un número de red de 14 bits), seguidos por un número de host de 16 bits. Esto nos da un máximo de 16.384 (2^14) redes de este tipo, pudiéndose definir en cada una de ellas hasta 65.534 (2^16-2) hosts. Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para la redes /16 o clase B: 128.0.xxx.xxx hasta 191.255.xxx.xxx Redes Clase C (/24). Cada dirección de red clase C tiene un prefijo de red de 24 bits (siendo los tres primeros 1-1-0 con un número de red de 21 bits), seguidos por un número de host de 8 bits. Tenemos así 2.097.152 (2^21) redes posibles con un máximo de 254 (2^8-2) host por red. El rango de direcciones en notación decimal para las redes clase C sería: 192.0.0.xxx hasta 223.255.255.xxx Subredes En 1985 se define el concepto de subred, o división de un número de red Clase A, B o C, en partes más pequeñas. Dicho concepto es introducido para subsanar algunos de los problemas que estaban empezando a producirse con la clasificación del direccionamento de dos niveles jerárquicos. Las tablas de enrutamiento de Internet estaban empezando a crecer. Los administradores locales necesitaban solicitar otro número de red de Internet antes de que una nueva red se pudiese instalar en su empresa. Ambos problemas fueron abordados añadiendo otro nivel de jerarquía, creándose una jerarquía a tres niveles en la estructura del direccionamiento IP. La idea consistió en dividir la parte dedicada al número de host en dos partes: el número de subred y el número de host en esa subred: Jerarquía a dos Niveles Prefijo de Red Número de Host 135.146 91.26 Jerarquía a tres Niveles Prefijo de Red Número de Subred Número de Host 135.146 91 26 Este sistema aborda el problema del crecimiento de las tablas de enrutamiento, asegurando que la división de una red en subredes nunca es visible fuera de la red privada de una organización. Los routers dentro de la organización privada necesitan diferenciar entre las subredes individuales, pero en lo que se refiere a los routers de Internet, todas las subredes de una organización están agrupadas en una sola entrada de la tabla de rutas. Esto permite al administrador local introducir la complejidad que desee en la red privada, sin afectar al tamaño de las tablas de rutas de Internet. Por otra parte, sólo hará falta asignar a la organización un único número de red (de las clases A,B o C) o como mucho unos pocos. La propia organización se encargará entonces de asignar dintintos números de subred para cada una de sus redes internas. Esto evita en la medida de lo posible el agotamiento de los números IP disponibles. Máscara de Subred Prefijo de Red extendido. Los routers de Internet usan solamente el prefijo de red de la dirección de destino para encaminar el tráfico hacia un entorno con subredes. Los routers dentro del entorno con subredes usan el prefijo de red extendido para encaminar el tráfico entre las subredes. El prefijo de red extendido está compuesto por el prefijo de red y el número de subred: Prefijo de Red Extendido Prefijo de Red Número de Subred Número de Host El prefijo de red extendido se identifica a través de la máscara de subred. Por ejemplo, si consideramos la red clase B 135.146.0.0 y queremos usar el tercer octeto completo para representar el número de subred, deberemos especificar la máscara de subred 255.255.255.0 Entre los bits en la máscara de subred y la dirección de Internet existe una correspondencia uno a uno. Los bits de la máscara de subred están a 1 si el sistema que examina la dirección debe tratar los bits correspondientes en la dirección IP como parte del prefijo de red extendido. Los bits de la máscara están a 0 si el sistema debe considerar los bits como parte del número de host. Esto se ilustra en la siguiente figura: prefijo de red nº subred nº host Dirección IP 135.146.91.26 10000111 10010010 01011011 00011010 Máscara de Subred 255.255.255.0 11111111 11111111 11111111 00000000 prefijo de red extendido En lo que sigue nos referiremos a la longitud del prefijo de red extendido más que a la máscara de subred, aunque indican lo mismo. La longitud del prefijo es igual al número de bits a 1 contiguos en la máscara de subred. De este modo, la dirección 135.146.91.26 con una máscara de subred 255.255.255.0 podrá expresarse también de la forma 135.146.91.26/24, lo que resulta más compacto y fácil de entender. Caso práctico Pero veamos un caso práctico para comprender mejor esta clasificación con tres niveles jeráquicos. A una organización se le ha asignado el número de red 193.1.1.0/24 (esto es, una clase C) y dicha organización necesita definir seis subredes. La subred más grande puede contener un máximo de 25 hosts. Primer paso (definir la máscara de subred). Lo primero que debemos hacer es determinar el número de bits necesarios para definir las 6 subredes. Dada la naturaleza del sistema de numeración binario esto sólo puede hacerse tomando múltiplos de 2. Así que cogeremos 2^3=8 y podemos dejar las 2 subredes restantes previendo un eventual crecimiento de nuestra red. Como 8=2^3, se necesitan 3 bits para numerar las 8 subredes. Como estamos hablando de una clase C ( /24), sumamos 3 y nuestro prefijo de red extendido será /27 que en decimal nos daría la máscara 255.255.255.224. Esto se ilustra en la figura siguiente: prefijo de red bits nº subr bits nº host 11000001 00000001 00000001 000 00000 prefijo de red extendido 255.255.255.224= 11111111 11111111 11111111 111 00000 27 bits 193.1.1.0/24= NOTA: Para no desanimarse, podemos coger la calculadora y hacer la conversión de 11100000 a decimal, que dará justamente 224. Segundo paso (definir los números de subred). Las ocho subredes se numerarán de 0 a 7. Lo único que tenemos que hacer es colocar la representación binaria de dichos números en el campo bits nº subred de la primera fila de la figura anterior, y luego traducir las direcciones binarias a decimal. Quedaría lo siguiente: Red Base: 11000001.00000001.00000001.00000000=193.1.1.0/24 Subred 0: 11000001.00000001.00000001.00000000=193.1.1.0/27 Subred 1: 11000001.00000001.00000001.00100000=193.1.1.32/27 Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/27 Subred 3: 11000001.00000001.00000001.01100000=193.1.1.96/27 Subred 4: 11000001.00000001.00000001.10000000=193.1.1.128/27 Subred 5: 11000001.00000001.00000001.10100000=193.1.1.160/27 Subred 6: 11000001.00000001.00000001.11000000=193.1.1.192/27 Subred 7: 11000001.00000001.00000001.11100000=193.1.1.224/27 Tercer paso (definir los números de host). En nuestro ejemplo, disponemos de 5 bits en el campo bits nº host de cada dirección de subred. Esto nos da un bloque de 30 (=2^5-2) direcciones de host posibles, que cubre los 25 que se preveen como máximo. Obsérvese que restamos 2 pues las direcciones de host todos 0 (esta subred) o todos 1 (broadcast) no pueden usarse. Los host de cada subred se numeran del 0 al 30. Para definir la dirección asignada al host n de una subred dada, colocaremos la representación binaria de n en el campo bits nº host y luego traduciremos la dirección completa a notación decimal. Por ejemplo, para la subred 2 quedaría: Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/24 Host 1: 11000001.00000001.00000001.01000001=193.1.1.64/27 Host 2: 11000001.00000001.00000001.01000010=193.1.1.65/27 Host 3: 11000001.00000001.00000001.01000011=193.1.1.66/27 . . . Host 29: 11000001.00000001.00000001.01011101=193.1.1.93/27 Host 30: 11000001.00000001.00000001.01011110=193.1.1.94/27 En el ejemplo anterior, la parte inicial de cada dirección identifica el prefijo de red extendido, mientras que los dígitos en negrita indican el campo de 5 bits número de host. DNS Como ya comentamos en el capítulo dedicado a Internet, el DNS (Domain Name System, o Sistema de Nombres de Dominio) es un sistema hace corresponder a la dirección IP de cada host de Internet un único nombre de dominio, para que podamos acceder a dicho host con mayor facilidad. Además, veíamos que la estructura de dichos nombres es jerárquica, algo similar a Nombre_del_host.Subsubdominio.Subdominio.Dominio. Estudiaremos ahora con más detalle este tema. Comenzamos explicando algunos conceptos previos que nos servirán para comprender mejor el tema. Nombres de equipos NetBIOS y DNS En Windows 95 pueden utilizarse dos tipos de nombres para los equipos: El nombre NetBIOS, que consta de una única parte y que será el que indiquemos en la casilla Identificación dentro del cuadro de diálogo Red en el Panel de control. El nombre DNS, que consta de dos partes: un nombre de host y un nombre de dominio, que juntos forman el nombre completo de dominio (FQDN o Fully Qualified Domain Name). Este nombre se puede indicar en el cuadro de diálogo Propiedades de TCP/IP accesible también a través del cuadro de diálogo Red. Resolución de nombres En las redes TCP/IP, los ordenadores se identifican a través de su dirección IP. Sin embargo, a los usuarios les resulta más fácil usar nombres para los ordenadores en vez de números, por lo que se hace necesario establecer un mecanismo que resuelva nombres en direcciones IP cuando se soliciten conexiones dando los nombres de los ordenadores remotos. Esto se conoce como un sistema de resolución de nombres. En las redes Windows existen diversos sistemas de resolución de nombres disponibles: Resolución de nombres por difusión. Cuando un equipo se conecta a la red, realizará difusiones a nivel IP para registrar su nombre NetBIOS anunciándolo en la red. Cada equipo en el área de difusión es responsable de cancelar cualquier intento de registrar un nombre duplicado. Uno de los problemas existentes en este sistema es que, si la red es grande, se sobrecargará de difusiones. No obstante, resultará el adecuado en nuestra Intranet para las conexiones internas. Servicio de nombres Internet de Windows (WINS, Windows Internet Naming Service). Utiliza una base de datos dinámica que hace corresponder nombres de equipos NetBIOS con direcciones IP. Dicha base de datos reside en un servidor WINS (que será una máquina con Windows NT server). WINS reduce el uso de la resolución por difusión y permite a los usuarios localizar fácilmente sistemas en redes remotas. Resolución de nombres usando el Sistema de nombres de dominio (DNS). DNS permite resolver nombres DNS a direcciones IP cuando un ordenador se conecta a ordenadores remotos fuera de la red local (por ejemplo, a nodos de Internet). Necesita un servidor de nombres DNS. En nuestro caso dicho servidor será el de Red Canaria, al cual accederemos a través de nuestro router que actuará como puerta de enlace o gateway para cada estación de nuestra red local. Para más detalles sobre DNS ver el apartado siguiente. Ficheros LMHOSTS y HOSTS. Ambos ficheros se utilizan en ordenadores locales para enumerar direcciones IP conocidas de ordenadores remotos junto con sus nombres de equipo. El fichero LMHOSTS especifica el nombre NetBIOS del ordenador remoto y su dirección IP. El fichero HOST especifica el nombre DNS y la dirección IP. Pueden considerarse como equivalentes locales a los servicios WINS y DNS y pueden usarse para resolver nombres de ordenadores remotos a direcciones IP cuando los servicios anteriores no están disponibles. En nuestro caso, usaremos un fichero HOSTS en cada una de nuestras estaciones para indicar el nombre y la dirección IP de nuestro servidor web interno (Servweb), ya que al tener el DNS activado en dichas estaciones (para acceder a Internet), cuando no estemos conectados dicho DNS no estará operativo con la consiguiente ralentización en la resolución del nombre del servidor web interno. Sistema de nombres de dominio (DNS o Domain Name System) El DNS es una base de datos distribuida que proporciona un sistema de nomenclatura jerárquico para indentificar hosts en Internet. Espacio de nombres de dominio. La base de datos DNS tiene una estructura en arbol que se llama espacio de nombres de dominio. Cada dominio (o nodo en el arbol) tiene un nombre y puede contener subdominios. El nombre de dominio identifica la posición del dominio en el arbol respecto a su dominio principal, utilizándose puntos para separar los nombres de los nodos. Por ejemplo, el nombre de dominio rcanaria.es se refiere al subdominio rcanaria perteneciente al dominio principal es. Dominios de primer nivel. Los dominios del nivel superior en la base de datos DNS pueden ser genéricos (com, org, edu, etc.) o territoriales (uk, es, etc.). Para obtener un listado completo, consultar el capítulo 1. La administración de dichos dominios se lleva a cabo por un organismo llamado InterNIC. Dominios de niveles inferiores y zonas. Por debajo del primer nivel, InterNIC delega en otras organizaciones la administración del espacio de nombres de dominio. El arbol DNS queda dividido en zonas, donde cada zona es una unidad administrativa independiente. Las zonas pueden ser un único dominio o un dominio dividido en subdominios. Por ejemplo, el dominio rcanaria sería una zona administrativa del arbol DNS. Nombres de dominio completos. Un nombre de dominio completo (FQDN o Fully Qualified Domain Name) se forma siguiendo la ruta desde la parte inferior del arbol DNS (nombre de host) hasta la raíz de dicho arbol. En el FQDN el nombre de cada nodo es separado por un punto. Un ejemplo de FQDN sería www.educa.rcanaria.es. Servidores de nombres y resolvers. Los servidores DNS o servidores de nombre contienen información de una parte de la base de datos DNS (zona) para satisfacer las demandas de los clientes DNS. Cuando un ordenador cliente (resolver) solicita una conexión a un ordenador remoto de Internet a través de su FQDN, el servidor de nombres buscará el FQDN en su porción de la base de datos DNS. Si está ahí, satisfará de inmediato la demanda del resolver. En caso contrario, consultará a otros servidores de nombres para intentar responder a la consulta. 3.4.2 NetBEUI/NetBIOS. NetBIOS NetBIOS (Network Basic Input/Output System) es un programa que permite que se comuniquen aplicaciones en diferentes ordenadores dentro de una LAN. Desarrollado originalmente para las redes de ordenadores personales IBM, fué adoptado posteriormente por Microsoft. NetBIOS se usa en redes con topologías Ethernet y token ring. No permite por si mismo un mecanismo de enrutamiento por lo que no es adecuado para redes de área extensa (MAN), en las que se deberá usar otro protocolo para el transporte de los datos (por ejemplo, el TCP). NetBIOS puede actuar como protocolo orientado a conexión o no (en sus modos respectivos sesión y datagrama). En el modo sesión dos ordenadores establecen una conexión para establecer una conversación entre los mismos, mientras que en el modo datagrama cada mensaje se envía independientemente. Una de las desventajas de NetBIOS es que no proporciona un marco estándar o formato de datos para la transmisión. NetBEUI NetBIOS Extended User Interface o Interfaz de Usuario para NetBIOS es una versión mejorada de NetBIOS que sí permite el formato o arreglo de la información en una transmisión de datos. También desarrollado por IBM y adoptado después por Microsoft, es actualmente el protocolo predominante en las redes Windows NT, LAN Manager y Windows para Trabajo en Grupo. Aunque NetBEUI es la mejor elección como protocolo para la comunicación dentro de una LAN, el problema es que no soporta el enrutamiento de mensajes hacia otras redes, que deberá hacerse a través de otros protocolos (por ejemplo, IPX o TCP/IP). Un método usual es instalar tanto NetBEUI como TCP/IP en cada estación de trabajo y configurar el servidor para usar NetBEUI para la comunicación dentro de la LAN y TCP/IP para la comunicación hacia afuera de la LAN. Protocolos NetWare Introducción a los protocolos NetWare Al igual que TCP/IP, Novell proporciona un conjunto de protocolos desarrollados específicamente para NetWare. Los cinco protocolos principales utilizados por NetWare son: Protocolo de acceso al medio. Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX). Protocolo de información de encaminamiento (RIP). Protocolo de notificación de servicios (SAP). Protocolo básico de NetWare (NCP). Debido a que estos protocolos se definieron antes de la finalización del modelo OSI, no se ajustan exactamente al modelo OSI. Actualmente, no existe una correlación directa entre los límites de los niveles de las dos arquitecturas. Estos protocolos siguen un patrón de recubrimiento. Concretamente, los protocolos de nivel superior (NCP, SAP y RIP) están recubiertos por IPX/SPX. Luego, una cabecera y un final del Protocolo de acceso al medio recubre a IPX/SPX. Protocolos de acceso al medio Los protocolos de acceso al medio definen el direccionamiento que permite diferenciar a los nodos de una red NetWare. El direccionamiento está implementado en el hardware o en la NIC. Las implementaciones más conocidas son: 802.5 Token Ring. 802.3 Ethernet. Ethernet 2.0. El protocolo es responsable de colocar la cabecera al paquete. Cada cabecera incluye el código del origen y del destino. Una vez que se haya transmitido el paquete y que está en el medio, cada tarjeta de red comprueba la dirección; si la dirección coincide con la dirección del destino del paquete, o si el paquete es un mensaje de difusión, la NIC copia el paquete y lo envía a la jerarquía de protocolos. Además del direccionamiento, este protocolo proporciona un control de errores a nivel de bit como una comprobación de redundancia cíclica (CRC). Una vez que se le añade la CRC al paquete, supuestamente los paquetes estaban libres de errores. La comprobación de errores CRC utiliza un cálculo complejo para generar un número basado en los datos transmitidos. El dispositivo que realiza el envío hace el cálculo antes de realizar la transmisión y lo incluye en el paquete que se envía al dispositivo de destino. El dispositivo de destino vuelve a hacer este cálculo después de la transmisión. Si ambos dispositivos obtienen el mismo resultado, se supone que no se han producido errores en la transmisión. A este procedimiento se le conoce como comprobación de redundancia, porque cada transmisión incluye no sólo los datos, sino que además incluye valores de comprobación extras (redundantes). Protocolo básico de NetWare (NCP, NetWare Core Protocol) El Protocolo básico de NetWare (NCP) define el control de la conexión y la codificación de la petición de servicio que hace posible que puedan interactuar los clientes y los servidores. Éste es el protocolo que proporciona los servicios de transporte y de sesión. La seguridad de NetWare también está proporcionada dentro de este protocolo. Sistema básico de Entrada/Salida en red (NetBIOS, Network Basic Input/Output System) La mayoría de los servicios y aplicaciones que se ejecutan en el sistema operativo Windows utilizan la interfaz NetBIOS o la Comunicación entre procesos (IPC). NetBIOS se desarrolló sobre LAN y se ha convertido en una interfaz estándar para que las aplicaciones puedan acceder a los protocolos de red en el nivel de transporte con comunicaciones orientadas y no orientadas a la conexión. Existen interfaces NetBIOS para NetBEUI, NWLink y TCP/IP. Las interfaces NetBIOS necesitan una dirección IP y un nombre NetBIOS para identificar de forma única a un equipo. NetBIOS realiza cuatro funciones importantes: Resolución de nombres NetBIOS. Cada estación de trabajo de una red tienen uno o más nombres. NetBIOS mantiene una tabla con los nombres y algunos sinónimos. El primer nombre en la tabla es el nombre único de la NIC. Se pueden añadir nombres de usuario opcionales para proporcionar un sistema de identificación expresivo. Servicio de datagramas NetBIOS. Esta función permite enviar un mensaje a un nombre, a un grupo de nombres, o a todos los usuarios de la red. Sin embargo, debido a que no utiliza conexiones punto a punto, no se garantiza que el mensaje llegue a su destino. Servicio de sesión NetBIOS. Este servicio abre una conexión punto a punto entre dos estaciones de trabajo de una red. Una estación inicia una llamada a otra y abre la conexión. Debido a que ambas estaciones son iguales, pueden enviar y recibir datos concurrentemente. Estado de la sesión/NIC NetBIOS. Esta función ofrece información sobre la NIC local, otras NIC y las sesiones activas disponibles a cualquier aplicación que utilice NetBIOS. Originalmente, IBM ofrecía NetBIOS como un producto separado, implementado como un programa residente (TSR). Actualmente, este programa TSR es obsoleto; si se encuentra uno de estos sistemas, debería sustituirlo con la interfaz NetBIOS de Windows. NetBEUI NetBEUI es el acrónimo de Interfaz de usuario ampliada NetBIOS. Originalmente, NetBIOS y NetBEUI estaban casi unidos y se les consideraba como un protocolo. Sin embargo, varios fabricantes separaron NetBIOS, el protocolo a nivel de sesión, de forma que pudiera utilizarse con otros protocolos de transporte encaminables. NetBIOS (Sistema básico de entrada/salida de la red) es una interfaz para LAN a nivel de sesión de IBM que actúa como una interfaz de aplicación para la red. NetBIOS proporciona a un programa las herramientas para que establezca en la red una sesión con otro programa, y debido a que muchos programas de aplicación lo soportan, es muy popular. NetBEUI es un protocolo pequeño, rápido y eficiente a nivel de transporte proporcionado con todos los productos de red de Microsoft. Está disponible desde mediados de los ochenta y se suministró con el primer producto de red de Microsoft: MS-NET. Entre las ventajas de NetBEUI se incluyen su pequeño tamaño (importante para los equipos que ejecuten MS-DOS), su velocidad de transferencia de datos en el medio y su compatibilidad con todas las redes Microsoft. El principal inconveniente de NetBEUI es que no soporta el encaminamiento. También está limitado a redes Microsoft. NetBEUI es una buena solución económica para una red Trabajo en Grupo donde todas las estaciones utilizan sistemas operativos Microsoft. 3.4.3 IPX/SPX. IPX/SPX IPX (Internetwork Packet Exchange) es un protocolo de Novell que interconecta redes que usan clientes y servidores Novell Netware. Es un protocolo orientado a paquetes y no orientado a conexión (esto es, no requiere que se establezca una conexión antes de que los paquetes se envíen a su destino). Otro protocolo, el SPX (Sequenced Packet eXchange), actúa sobre IPX para asegurar la entrega de los paquetes. Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX, Internetwork Packet Exchange/Sequenced Packet Exchange) El Intercambio de paquetes entre redes (IPX) define los esquemas de direccionamiento utilizados en una red NetWare, e Intercambio de paquetes en secuencia (SPX) proporciona la seguridad y fiabilidad al protocolo IPX. IPX es un protocolo a nivel de red basado en datagramas, no orientado a la conexión y no fiable, equivalente a IP. No requiere confirmación por cada paquete enviado. Cualquier control de confirmación o control de conexión tiene que ser proporcionado por los protocolos superiores a IPX. SPX proporciona servicios orientados a la conexión y fiables a nivel de transporte. Novell adoptó el protocolo IPX utilizando el Protocolo de datagramas Internet del Sistema de red de Xerox (XNS). IPX define dos tipos de direccionamiento: Direccionamiento a nivel de red. La dirección de un segmento de la red, identificado por el número de red asignado durante la instalación. Direccionamiento a nivel de nodo. La dirección de un proceso en un nodo que está identificado por un número de socket. Los protocolos IPX sólo se utilizan en redes con servidores NetWare y se suelen instalar con otro conjunto de protocolos como TCP/IP. Incluso NetWare está empezando a utilizar TCP/IP como un estándar. 3.4.4 Protocolos emergentes. AppleTalk Es el protocolo de comunicación para ordenadores Apple Macintosh y viene incluido en su sistema operativo, de tal forma que el usuario no necesita configurarlo. Existen tres variantes de este protocolo: LocalTalk. La comunicación se realiza a través de los puertos serie de las estaciones. La velocidad de transmisión es pequeña pero sirve por ejemplo para compartir impresoras. Ethertalk. Es la versión para Ethernet. Esto aumenta la velocidad y facilita aplicaciones como por ejemplo la transferencia de archivos. Tokentalk. Es la versión de Appletalk para redes Tokenring. Protocolo de información de encaminamiento (RIP, Routing Information Protocol) RIP, al igual que IPX, facilita el intercambio de información de encaminamiento en una red NetWare y fue desarrollado desde XNS. Sin embargo, en RIP se ha añadido al paquete un campo de datos extra para mejorar el criterio de decisión para seleccionar la ruta más rápida hasta un destino. El hecho de realizar una difusión de un paquete RIP permite que ocurran ciertas cosas: Las estaciones de trabajo pueden localizar el camino más rápido a un número de red. Los routers pueden solicitar información de encaminamiento a otros routers para actualizar sus propias tablas internas. Los routers pueden responder a peticiones de encaminamiento de otras estaciones de trabajo o de otros routers. Los routers pueden asegurarse de si otros routers conocen la configuración de la red. Los routers pueden detectar un cambio en la configuración de la red. Protocolo de notificación de servicios (SAP, Service Advertising Protocol) El Protocolo de notificación de servicios (SAP) permite a los nodos que proporcionan servicios (incluyen a los servidores de archivos, servidores de impresión, servidores gateway y servidores de aplicación) informar de sus servicios y direcciones. Los clientes de la red son capaces de obtener la dirección de la red de los servidores a los que pueden acceder. Con SAP, la incorporación y la eliminación de servicios en la red se vuelve dinámica. Por omisión, un servidor SAP informa de su presencia cada 60 segundos. Un paquete SAP contiene: Información operativa. Especifica la operación que está realizando el paquete. Tipo de servicio. Especifica el tipo de servicio ofrecido por el servidor. Nombre del servidor. Especifica el nombre del servidor que difunde los servicios. Dirección de red. Especifica el número de red del servidor que difunde los servicios. Dirección de nodo. Especifica el número de nodo del servidor que difunde los servicios. Dirección de socket. Especifica el número de socket del servidor que difunde los servicios. Total de saltos hasta el servidor. Especifica el número de saltos que hay hasta el servidor que difunde los servicios. Campo de operación. Especifica el tipo de petición. Información adicional. Uno o más conjuntos de campos que pueden seguir al campo de operación con más información sobre uno o más servidores. Conmutación de paquetes X.25 X.25 es un conjunto de protocolos WAN para redes de conmutación de paquetes y está formado por servicios de conmutación. Los servicios de conmutación se crearon originalmente para conectar terminales remotos a sistemas mainframe. La red dividía cada transmisión en varios paquetes y los colocaba en la red. El camino entre los nodos era un circuito virtual, que los niveles superiores trataban como si se tratase de una conexión lógica continua. Cada paquete puede tomar distintos caminos entre el origen y el destino. Una vez que llegan los paquetes, se reorganizan como los datos del mensaje original. Un paquete típico está formado por 128 bytes de datos; sin embargo, el origen y el destino, una vez establecida la conexión virtual, pueden negociar tamaños de paquete diferentes. El protocolo X.25 puede soportar en el nivel físico un máximo teórico de 4.095 circuitos virtuales concurrentes entre un nodo y una red X.25. La velocidad típica de transmisión de X.25 es de 64 Kbps. El protocolo X.25 trabaja en los niveles físico, de enlace de datos y de red del modelo OSI. Se conoce desde mediados de los setenta y se ha depurado muy bien, por lo que proporciona un entorno de red muy estable. Sin embargo, tiene dos inconvenientes: El mecanismo de guardar y enviar causa retardos. Normalmente, el retardo es de 6 décimas de segundos y no tiene efecto en bloques de datos grandes. En cambio, en un tipo de transmisión «flip-flop», el retraso puede ser considerable. Un «flip-flop» es un circuito que alterna entre dos estados posibles cuando se recibe un pulso en la entrada. Por ejemplo, si la salida de un flip-flop es un valor alto y se recibe un pulso en la entrada, la salida cambia a un valor bajo; un segundo pulso en la entrada vuelve a colocar en la salida un valor alto, y así sucesivamente. Para soportar la transferencia de guardar y enviar se requiere una gran cantidad de trabajo con el búfer. X.25 y TCP/IP son similares en la medida en que utilizan protocolos de conmutación de paquetes. Sin embargo, existen algunas diferencias entre ellos: TCP/IP sólo tiene comprobación de errores y control de flujo extremo a extremo; X.25 tienen control de errores nodo a nodo. Para compensar el hecho de que una red TCP/IP sea completamente pasiva, TCP/IP tiene un control de flujo y un mecanismo de ventana más complicado que el de X.25. X.25 tiene unos niveles de enlace y eléctricos muy concretos; TCP/IP está diseñado para trabajar con distintos tipos de medios, y con servicios de enlace muy variados. Sistema de red de Xerox (XNS, Xerox Network System) Xerox desarrolló el Sistema de red de Xerox (XNS) para sus LAN Ethernet. XNS se utilizaba mucho en los ochenta, pero ha sido lentamente sustituido por TCP/IP. Es un protocolo de gran tamaño, lento, ya que genera muchos envíos a todos los dispositivos, aumentando el tráfico de la red. Comunicación avanzada entre programas (APPC, Advanced Program-to-Program Communication) La Comunicación avanzada entre programas es un protocolo de transporte de IBM desarrollado como parte de su Arquitectura de sistemas en red (SNA). Se diseñó para permitir que los programas de aplicación que se estuviesen ejecutando en distintos equipos se pudiesen comunicar e intercambiar datos directamente. Apple Talk Apple Talk es la jerarquía de protocolos de Apple Computer para permitir que los equipos Apple Macintosh compartan archivos e impresoras en un entorno de red. Se introdujo en 1984 como una tecnología LAN autoconfigurable. Apple Talk también está disponible en muchos sistemas UNIX que utilizan paquetes comerciales y de libre distribución. El conjunto de protocolos AppleTalk permite compartir archivos a alto nivel utilizando AppleShare, los servicios de impresión y gestores de impresión de LaserWriter, junto con la secuencia de datos de bajo nivel y la entrega de datagramas básicos. Protocolos AppleTalk AppleTalk: Una colección de protocolos que se corresponde con el modelo OSI. Soporta LocalTalk, EtherTalk y TokenTalk. LocalTalk: Describe el cable par trenzado apantallado utilizado para conectar equipos Macintosh con otros Macintosh o impresoras. Un segmento LocalTalk permite hasta un máximo de 32 dispositivos y opera a una velocidad de 230 Kbps. Ether Talk: AppleTalk sobre Ethernet. Opera a una velocidad de 10 Mbps. Fast Ethernet opera a una velocidad de 100 Mbps. Token Talk: AppleTalk sobre Token Ring. Dependiendo de su hardware, TokenTalk opera a 4 o a 16 Mbps. Conjuntos de protocolos OSI El conjunto de protocolos OSI es una jerarquía completa de protocolos. Cada protocolo se corresponde directamente con un único nivel del modelo OSI. El conjunto de protocolos OSI incluye protocolos de encaminamiento y transporte, la serie de protocolos IEEE 802, un protocolo a nivel de sesión, un protocolo a nivel de presentación y varios protocolos a nivel de aplicación diseñados para proporcionar una funcionalidad de red, incluyendo el acceso a archivos, impresión y emulación de terminal. DECnet DECnet es una jerarquía de protocolos de Digital Equipment Corporation. Es un conjunto de productos hardware y software que implementan la Arquitectura de red de Digital (DNA). Define redes de comunicación sobre LAN Ethernet, redes de área metropolitana con Interfaz de datos distribuida de fibra (FDDI MAN) y WAN que utilicen características de transmisión de datos privados o públicos. DECnet también puede utilizar protocolos TCP y OSI, así como sus propios protocolos. Se trata de un protocolo encaminable. 3.4.5 Similitudes y diferencias de los modelos OSI y TCP/IP. Si compara el modelo OSI y el modelo TCP/IP, observará que ambos presentan similitudes y diferencias. Los ejemplos incluyen: Similitudes Ambos se dividen en capas Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos Ambos tienen capas de transporte y de red similares Se supone que la tecnología es de conmutación por paquetes (no de conmutación por circuito) Los profesionales de networking deben conocer ambos Diferencias TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de aplicación TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en una sola capa TCP/IP parece ser más simple porque tiene menos capas Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos. En comparación, las redes típicas no se desarrollan normalmente a partir del protocolo OSI, aunque el modelo OSI se usa como guía. Unidad 4 Estándar cableado estructurado. 4.5. Componentes del cableado estructurado. CONCEPTO DE CABLEADO ESTRUCTURADO Para cada tipo de red generalmente suele asociarse un sistema de cableado especifico que define y establece las características de los cables a utilizar como medio de transmisión. Establece además, las posibles configuraciones para realizar las conexiones físicas, el ruteo y la organización, la utilización de paneles de conexión, etc. Un sistema de cableado debe proporcionar al diseñador de una red la flexibilidad suficiente para implementar ésta de una manera confiable y con capacidad de crecimiento y expansión. Para ello es necesario contemplar los siguientes tres requisitos básicos: Proporcionar los enlaces físicos requeridos por un sistema mayor al que se está diseñando, es decir que se tendrá en cuenta las posibles modificaciones en la estructura de la red debido al crecimiento. Deberá ser capaz de cumplir los requisitos de capacidad y ancho de banda de las redes o sistema en el futuro, considerando la integración de señales no sólo de datos, sino de voz y vídeo. El sistema deberá tener la capacidad de soportar los estándares más comunes de redes. Es importante antes de realizar el cableado de la red, documentar y hacer un plano de toda la instalación. Si se va a instalar una red en varios departamentos de un edificio, se debe tener a la mano los planos de tubería y de telefonía de éste, para conocer la ubicación de los registros telefónicos y de tuberías verticales. Si se cuenta con plafones o piso falso, es conveniente tener en cuenta la posibilidad de realizar el cableado por estas zonas, para evitar extender el cable en pasillos y otras áreas de paso. También es importante localizar las tuberías del cableado eléctrico, y de ser posible mantener una distancia mínima de 0.5 m entre ésta y la tubería de la red, ya que puede afectar la interferencia electromagnética del cable eléctrico, provocando errores en la red. ETHERNET IOBASE-2 (DELGADO) El cable coaxial delgado Ethernet se manipula más fácilmente que el cable grueso y no requiere transceptores en las estaciones. Este cable es más barato, aunque la longitud máxima de la línea troncal es menor. La Figura E.21 ilustra una red Ethernet de cable delgado, y la E.22 los componentes que presenta este sistema de cableado. Los componentes de una red l0Base-2 se describen en las siguientes secciones: TARJETA DE INTERFAZ DE RED. La mayoría de tarjetas Ethernet admiten cable grueso o delgado. La placa debería disponer de un conector tipo BNC acoplado en su parte posterior, además de un conector de cable Ethernet grueso. El cable troncal se conecta a un conector BNC en forma de T, que se acopla a un conector BNC macho en la parte posterior de la placa. Debe utilizarse una memoria programable de sólo lectura PROM (programmable read-only memory) de arranque remoto si la tarjeta se instala en una estación sin disco. REPETIDOR. Un repetidor es un dispositivo opcional utilizado para unir dos líneas troncales Ethernet y reforzar las señales entre éstas. Un mensaje transmitido sobre una red de área local (LAN, local area network) debe atravesar dos repetidores como máximo antes de alcanzar su destino o pasar a través de un puente de LAN. CABLE ETHERNET DELGADO. Se trata de un cable coaxial RG-58 A/U o RG-58 C/U de 0.2 pulgadas de diámetro y 50 ohmios. El cable Ethernet delgado se encuentra disponible a través de numerosos fabricantes, en segmentos de longitud estándar y presenta ya acoplados los conectores. Es posible adquirir el cable a granel, pero entonces habrá que cortarlo y montar los conectores BNC en los extremos. Téngase en cuenta que este cable se suministra en forma de cable plenum a prueba de incendios, interior nonplenum, subterráneo y aéreo. CONECTORES DE CABLE BNC. Los conectores BNC deben acoplarse a los extremos de todos los segmentos de cable. Los equipos de conectores BNC incorporan los accesorios necesarios. Para montar los conectores se necesita una herramienta especial de manipulación del cable coaxial, que puede adquirirse en establecimientos de electrónica. CONECTORES BNC EN FORMA DE T. Un conector en forma de T se acopla al conector BNC situado en la parte posterior de la tarjeta de interfaz a Ethernet. El conector en forma de T proporciona dos conexiones al cable, una de entrada y otra de salida. Se necesitará un conector en forma de 1 en cada estación de trabajo incluso en la última de la línea troncal. En este caso, se conecta un terminador BNC en el extremo abierto del conector en forma de T. CONECTORES BNC EN FORMA DE BARRIL Los conectores en forma de barril se utilizan para unir dos segmentos de cable. TERMINADORES BNC. Cada segmento de cable debe finalizar en ambos extremos con un terminador BNC de 50 ohmios. Cada segmento de cable necesita un terminador con toma de tierra y uno sin ella. Hay que atenerse a las siguientes reglas y limitaciones cuando se construyen redes con cable coaxial RG-58 A/U o RG-58 C/U: La longitud máxina de segmento troncal es de 186 metros (607 pies). Los conectores en forma de T se utilizan para conectar el cable a la tarjeta de interfaz de red. Pueden unirse hasta cinco segmentos troncales mediante cuatro repetidores. Las estaciones de trabajo sólo pueden conectarse en tres de los segmentos. Los otros se utilizan para distanciar. La longitud máxima de la línea troncal es de 910 metros (3.035 pies). En una línea troncal puede haber hasta un máximo de 30 nodos. Los repetidores, puentes, encaminadores y servidores se consideran nodos. El número total de nodos en todos los segmentos no puede exceder de 1.024. Debe situarse un terminador en cada extremo de un segmento troncal, con uno de sus extremos a tierra. Cable delgado y grueso combinado Es posible combinar sistemas de cableado grueso y delgado Ethernet. Por ejemplo, puede utilizarse cable Ethernet grueso para conectar dos segmentos de cable delgado que están fuera del alcance permitido a un cable delgado. Hay que tener en cuenta que también puede utilizarse un repetidor para extender una red Ethernet. El número máximo de segmentos troncales es de cinco. Pueden crearse segmentos que combinan cable grueso y delgado mediante un adaptador especial BNC/serie N, disponible en forma de adaptador serie N macho o hembra en un extremo. Los segmentos combinados resultantes se encuentran normalmente dentro de unos límites de longitud que oscilan entre 607 y 1.640 pies. Se utiliza la siguiente ecuación para encontrar la longitud máxima de cable delgado que puede utilizarse en un segmento troncal: (1640pies L) t 3,28 L es la longitud del segmento troncal que se desea construir, y t es la longitud máxima de cable delgado que puede utilizarse. ETHERNET 10BASE-5 (GRUESO) Ethernet l0Base-5 se considera a menudo el estándar de Ethernet debido a que fue la realización original de Ethernet. La Figura E.23 ilustra un esquema de cableado de cable coaxial Ethernet grueso. Cada estación se conecta a una línea troncal Ethernet gruesa mediante un transceptor. Este dispositivo no es igual al conector en forma de 1 utilizado en instalaciones de cable delgado. Tiene el aspecto de una pequeña caja y proporciona el aislamiento eléctrico entre la estación y el cable. En el transceptor se realiza un examen a través de pulsos eléctricos, para determinar si la estación se encuentra conectada correctamente. lOBase-5 cae en desuso como sistema de cableado de red. Se menciona aquí debido a que existe un gran número de instalaciones realizadas, que puede ser necesario expandir o adaptar. Los componentes de una red Ethernet gruesa se describen en las siguientes secciones: PLACA DE INTERFAZ DE RED. La mayoría de las placas de interfaz de red Ethernet admiten cableado grueso o delgado. La placa debería disponer de un conector hembra tipo DIX o AUI para realizar la conexión al cable grueso procedente del tranceptor. REPETIDOR. Un repetidor es un dispositivo opcional utilizado para unir dos líneas troncales Ethernet y reforzar las señales entre ésttas. Un repetidor se conecta un transceptor situado en una línea troncal mediante un cable especial para transceptor. Un mensaje transmitido sobre una LAN puede atravesar dos repetidores como máximo antes de alcanzar su destino o pasar a través de un puente de LAN. TRANSCEPTOR. Un transceptor sirve de unión entre las estaciones de trabajo y el cable Ethernet grueso. Dispone de tres conectores: dos de ellos son los de entrada y salida de cable grueso, y cl tercero se utiliza para conectarla estación de trabajo al transceptor mediante un cable especial para transceptor. Los transceptores se conectan a la línea troncal de la red de dos formas posibles. Un sistema de abrazaderas atraviesa el cable, eliminando la necesidad de cortarlo y montar los conectores. De forma alternativa, una versión BNC del transceptor dispone de un conector T al que se conectan los extremos del cable. El corte del cable y el acoplamiento de los conectores debe realizarse mediante herramientas especiales. CABLE PARA EL TRANSCEPTOR. Este cable se suministra normalmente con cada unidad de transceptor. En cada extremo del cable se monta un conector tipo DIX (en un extremo macho y en el otro hembra),junto con cierres deslizantes que sirven para bloquear el cable con la placa de red. El cable para el transceptor normalmente es más flexible que el cable troncal. CONECTORES MACHO SERIE N. Estos conectores se instalan en ambos extremos del cable, cuando se utilizan transceptores que utilizan conectores en forma de T. Los cables ya ensamblados tienen montados los conectores. CONECTORES EN FORMA DE BARRIL SERIE N. Estos conectores se utilizan para unir dos segmentos de cable. TERMINADORES SERIE N. Cada segmento de cable debe finalizar en ambos extremos con un terminador serie N de 50 ohmios. En cada segmento de cable es necesario un terminador con una toma de tierra y otro sin ella. Las especificaciones y limitaciones de la norma 10Base-5 se relacionan a continuación. La longitud máxima de un segmento troncal es de 500 metros (1.640 pies). Los transceptores se conectan al segmento troncal. La distancia máxima entre una estación de trabajo y cl transceptor es de 50 metros (164 pies). La distancia mínima al siguiente transceptor es de 2,5 metros (8 pies). Pueden unirse hasta cinco segmentos troncales mediante cuatro repetidores. Las estaciones de trabajo pueden conectarse únicamente a tres de los segmentos. La longitud máxima principal resultante de la unión de los segmentos es de 2.460 metros (8.200 pies). En una línea troncal puede existir un máximo de loo estaciones de trabajo. Los repetidores se consideran estaciones de trabajo. Debe situarse un terminador en cada extremo de un segmento principal, con uno de sus extremos conectado a tierra. Para evitar problemas, no conectar a tierra un segmento por ambos extremos. ETHERNET 10 BASE-T (PAR TRENZADO) l0Base-T ofrece la mayoría de las ventajas de Ethernet sin las restricciones y el coste que impone el cable coaxial. Además, la topología en estrella o distribuida permite la conexión de grupos de estaciones de trabajo departamentales o situadas en otras zonas. Parte de la especificación l0Base-T es compatible con otras normas 802.3 del IEEE, de modo que es sencillo realizar una transición de un medio a otro. Es posible mantener las mismas tarjetas Ethernet al pasar de cable coaxial a cable de par trenzado. Además, pueden añadirse líneas troncales de par trenzado a las ya existentes, gracias a repetidores que admiten la conexión de líneas troncales de cable coaxial, libra óptica y par trenzado. Muchos fabricantes presentan este tipo de dispositivos en sus líneas de productos Ethernet. La especificación l0Base-T incluye una utilidad de verificación de cableado denominada verificación de integridad del enlace. Gracias a esta utilidad el sistema puede realizar controles constantes del cable de par trenzado, en busca de hilos abiertos o cortes del cable. Se realiza la supervisión desde un punto central. En la Figura E.24 se muestra una red básica Ethernet l0Base-T. las estaciones de trabajo se conectan a un concentrador central que actúa como repetidor. Cuando llega la señal procedente de una estación de trabajo, cl concentrador la difunde hacia todas las líneas de salida. Es posible realizar conexiones entre distintos concentradores para obtener una configuración jerárquica. Las estaciones de trabajo están conectadas a través de un cable de par trenzado que no puede exceder l00 metros de longitud (328 pies). Los cables se conectan a un transceptor en un punto próximo a la estación de trabajo, que a su vez se conecta a ésta con un cable de 15 hilos de longitud no superior a 50 metros (164 pies). Las conexiones 10Base-T utilizan cable de Categoría 3, aunque categorías superiores de cable (como la Categoría 5) permiten un crecimiento futuro que acepta tecnologías de transmisión más rápidas, como l00Mbits/seg. Véase «Cableado» para obtener una discusión sobre tipos y técnicas de cableado Un concentrador 10Base-T se conecta a esta red soporte en el armario de cableado. Un cable telefónico de 50 hilos conecta el concentrador a un bloque de conexión. Un cable de par trenzado proporciona una conexión entre este último y la placa existente junto a la estación de trabajo. Un cable discurre desde la placa hasta cl transceptor, que se conecta a la estación de trabajo. La mayoría de las tarjetas l0Base-T tienen actualmente incorporado el transceptor, conectándose directamente al cable RJ-45. Los componentes que se describen en las siguientes secciones forman parte típicamente de las redes 10Base-T. Manténgase en mente la idea de que un sistema no siempre necesita todos estos componentes. TARJETA DE INTERFAZ DE RED. Es necesaria una tarjeta Ethernet con un conector tipo DIX de 15 patillas o RJ-45 l0Base-T. Hay que añadir una PROM de arranque remoto si se instala la tarjeta en una estación de trabajo sin disco. CONCENTRADOR (HUB). El concentrador dispone a menudo de hasta 12 puertos. Normalmente dispone de un puerto de conexión a redes soporte de cable coaxial o de fibra óptica. CABLE DE PAR TRENZADO. l0Base-T utiliza cable de par trenzado con conectores RJ45 de hasta loo metros de longitud. Puede adquirirse cable a granel y conectores aparte para construir segmentos de distintas longitudes según las necesidades. Para ello se necesita una herramienta especial para RJ. TRANSCEPTOR. El transceptor dispone de un conector RJ-45 en un lado y uno DB-15 en el otro. Por otra parte, la mayoría de las tarjetas actuales presentan un transceptor ya incorporado. CABLE PARA EL TRANSCEPTOR. Este cable se conecta al transceptor en la parte posterior de la tarjeta de interfaz de red. CABLE CONECTOR AL BLOQUE DE CONEXIÓN. Si va a utilizarse el cable telefónico preexistente, un cable de 50 patillas Telco (que conecta el concentrador directamente a un bloque de conexión) simplifica la instalación. Esto hay que consultarlo con el fabricante del concentrador. ENCHUFE DE PARED. Se trata de un conector con una clavija RJ. Si también se necesita una conexión telefónica, pueden adquirirse placas dobles. Especificaciones del cable l0Base-T Las especificaciones l0Base-T se relacionan a continuación. Hay que darse cuenta de que algunas de estas especificaciones son flexibles, dependiendo del fabricante. Utilícese cable de par trenzado sin apantallar de categoría 3, 4 o 5. Utilícense clavijas RJ-45 en el extremo de los cables. Las patillas 1 y 2 son «transmisoras» y las 3 y 6 «receptoras». Cada par está cruzado de modo que el transmisor en un extremo se conecta con el receptor en el otro. Un transceptor y un cable de transceptor de 15 patillas puede conectarse a cada una de las estaciones de trabajo. Algunas tarjetas disponen de transceptores incorporados. La distancia que hay desde un transceptor a un concentrador no puede excederlos 100 metros (328 pies). Un concentrador normalmente conecta 12 estaciones de trabajo. Pueden conectarse hasta 12 concentradores a un concentrador central para aumentar el número de estaciones en la red. Los concentradores pueden conertarse a redes soporte de cable coaxial o de fibra óptica con objeto de formar parte de redes Ethernet extensas. Pueden existir hasta 1024 estaciones en una red sin necesidad de utilizar puentes. Cableado estructurado Definición Hasta hace unos años para cablear un edificio se usaban distintos sistemas independientes unos de otros. Esto llevaba a situaciones como el tener una red bifilar para voz (telefonía normalmente), otra distinta para megafonía, otra de conexión entre ordenadores, etc. Con esta situación se dificulta mucho el mantenimiento y las posibles ampliaciones del sistema. Un sistema de cableado estructurado es una red de cables y conectores en número, calidad y flexibilidad de disposición suficientes que nos permita unir dos puntos cualesquiera dentro del edificio para cualquier tipo de red (voz, datos o imágenes). Consiste en usar un solo tipo de cable para todos los servicios que se quieran prestar y centralizarlo para facilitar su administración y mantenimiento. El cableado estructurado recibe nombres distintos para cada tipo de aplicación, aunque popularmente se generaliza y se le conoce con el nombre de P.D.S. Los nombres reales son: P.D.S. Sistemas de Distribución de Locales I.D.S. Sistemas de Distribución de Industria I.B.S.Control de Seguridad y Servicios Al hablar de sistemas de cableado implícitamente se entiende cableados de baja corriente (telefonía, vídeo e informáticas), aunque la actitud sistemática que observamos ante este tipo de cableado, también se debería de aplicarse al conocido como cableado de alta corriente (sistema de 220v). Como se verá más adelante, es importante integrar en el diseño de un edificio ambos cableados para evitar interferencias entre ellos. Beneficios El sistema de cableado estructurado nos va permitir hacer convivir muchos servicios en nuestra red (voz, datos, vídeo, etc.) con la misma instalación, independientemente de los equipos y productos que se utilicen. Se facilita y agiliza mucho las labores de mantenimiento. Es fácilmente ampliable. El sistema es seguro tanto a nivel de datos como a nivel de seguridad personal. Una de las ventajas básicas de estos sistemas es que se encuentran regulados mediante estándares, lo que garantiza a los usuarios su disposición para las aplicaciones existentes, independientemente del fabricante de las mismas, siendo soluciones abiertas, fiables y muy seguras. Fundamentalmente la norma TIA/EIA-568A define entre otras cosas las normas de diseño de los sistemas de cableado, su topología, las distancias, tipo de cables, los conectores, etc. Al tratarse de un mismo tipo de cable, se instala todo sobre el mismo trazado. El tipo de cable usado es de tal calidad que permite la transmisión de altas velocidades para redes. No hace falta una nueva instalación para efectuar un traslado de equipo. Elementos que intervienen Ya que el sistema de cableado recibe el nombre de estructurado, sería conveniente conocer su estructura. Al conjunto de todo el cableado de un edificio se le conoce con el nombre de SISTEMA y cada parte en la que se divide se da el nombre de SUBSISTEMA: Área de trabajo Horizontal Vertical Campus. Entre edificios diferentes. Estándares Todo el cableado estructurado está regulado por estándares internacionales que se encargan de establecer las normas comunes que deben cumplir todos las instalaciones de este tipo. Las reglas y normas comentadas en secciones anteriores están sujetas a estas normas internacionales. Existen tres estándares, ISO/IEC-IS11801 que es el estándar internacional, EN-50173 que es la norma europea y ANSI/EIA/TIA-568A que es la norma de EE.UU. Éste último es el más extendido aunque entre todas ellas no existen diferencias demasiado significativas. Todas ellas se han diseñado con el objeto de proporcionar las siguientes utilidades y funciones: Un sistema de cableado genérico de comunicaciones para edificios comerciales. Medios, topología, puntos de terminación y conexión, así como administración, bien definidos. Un soporte para entornos multiproveedor multiprotocolo. Instrucciones para el diseño de productos de comunicaciones para empresas comerciales. Capacidad de planificación e instalación del cableado de comunicaciones para un edificio sin otro conocimiento previo que los productos que van a conectarse. 4.5.1. Área de trabajo. ÁREA DE TRABAJO. Este subsistema consta de los elementos externos de comunicación (armarios y placas frontales), cableado y conectores necesarios para conectar el equipo de trabajo de área (computadoras, impresoras y demás) al subsistema de cableado horizontal. Los zócalos o placas frontales típicas, como la representada en la Figura N.13, acomodan los conectores, como por ejemplo mediante clavijas modulares para teléfonos o datos, y clavijas modulares modificadas para transmisión de datos a baja velocidad. También pueden acomodar conectares BNC para cable coaxial y de fibra óptica. Se define como la zona donde están los distintos puestos de trabajo de la red. En cada uno de ellos habrá una roseta de conexión que permita conectar el dispositivo o dispositivos que se quieran integrar en la red. El área de trabajo comprende todo lo que se conecta a partir de la roseta de conexión hasta los propios dispositivos a conectar (ordenadores e impresoras fundamentalmente). Están también incluidos cualquier filtro, adaptador, etc. , que se necesite. Éstos irán siempre conectados en el exterior de la roseta. Si el cable se utiliza para compartir voz, datos u otros servicios, cada uno de ellos deberá de tener un conector diferente en la propia roseta de conexión. Al cable que va desde la roseta hasta el dispositivo a conectar se le llama latiguillo y no puede superar los 3 metros de longitud. 4.5.2. Cableado horizontal. CABLEADO HORIZONTAL. El sistema de cableado horizontal discurre entre cada toma de las estaciones de trabajo finales y el armario de comunicaciones.;. La distancia máxima horizontal desde éste hasta las tomas de comunicaciones es de 90 metros (295 pies), independientemente del tipo de medio. Existen cuatro tipos de cable reconocidos en este sistema: Cables de par trenzado sin apantallar (UTP, unshielded twisted pair) de cuatro pares y de l00 ohm. Cables de par trenzado apantallado (STP, shielded twisted pair) de dos pares y de 150 ohm. Cables coaxiales de 50 ohm. Cable de fibra óptica con diámetro de núcleo de 62.5 micras. Desde la roseta de cada uno de las áreas de trabajo irá un cable a un lugar común de centralización llamado panel de parcheo. El panel de parcheo es donde se centraliza todo el cableado del edificio. Es el lugar al que llegan los cables procedentes de cada una de las dependencias donde se ha instalado un punto de la red. Cada roseta colocada en el edificio tendrá al otro extremo de su cable una conexión al panel de parcheo. De esta forma se le podrá dar o quitar servicio a una determinada dependencia simplemente con proporcionarle o no señal en este panel. Se conoce con el nombre de cableado horizontal a los cables usados para unir cada área de trabajo con el panel de parcheo. Todos el cableado horizontal deberá ir canalizado por conducciones adecuadas. En la mayoría de los casos, y en el nuestro también, se eligen para esta función las llamadas canaletas que nos permiten de una forma flexible trazar los recorridos adecuados desde el área de trabajo hasta el panel de parcheo. Las canaletas van desde el panel de parcheo hasta las rosetas de cada uno de los puestos de la red. Se podría dividir en dos tipos dependiendo del uso que se le dé: Las de distribución. Recorren las distintas zonas del edificio y por ellas van los cables de todas las rosetas. Las finales. Llevan tan solo los cables de cada una de las rosetas. Es muy conveniente que el panel de parcheo junto con los dispositivos de interconexión centralizada (concentradores, latiguillos, router, fuentes de alimentación, etc.) estén encerrados un armario de comunicaciones. De esta forma se aíslan del exterior y por lo tanto de su manipulación "accidental". También facilita el mantenimiento al tenerlo todo en un mismo lugar. Como se puede observar la topología usada es en estrella teniendo en cuenta que cada mecanismo de conexión en la roseta está conectado a su propio mecanismo de conexión en el panel de parcheo del armario de comunicaciones. El subsistema horizontal incluye los siguiente elementos: El cable propiamente dicho La roseta de conexión del área de trabajo El mecanismo de conexión en el panel de parcheo del armario de comunicaciones. Los cables de parcheo o latiguillos en el armario de comunicaciones. Las canaletas. Cada cable horizontal no podrá superar los 90 metros. Además los cables para el parcheo en el armario de comunicaciones no podrán tener más de 6 metros y no podrá superar los 3 metros el cable de conexión del puesto de trabajo a la roseta. 4.5.3. Cableado vertical. El cableado vertical (o de "backbone") es el que interconecta los distintos armarios de comunicaciones. Éstos pueden estar situados en plantas o habitaciones distintas de un mismo edificio o incluso en edificios colindantes. En el cableado vertical es usual utilizar fibra óptica o cable UTP, aunque el algunos casos se puede usar cable coaxial. La topología que se usa es en estrella existiendo un panel de distribución central al que se conectan los paneles de distribución horizontal. Entre ellos puede existir un panel intermedio, pero sólo uno. En el cableado vertical están incluidos los cables del "backbone", los mecanismos en los paneles principales e intermedios, los latiguillos usados para el parcheo, los mecanismos que terminan el cableado vertical en los armarios de distribución horizontal. 4.5.4. Cableado Backbone. La función del cableado vertical es la interconexión de los diferentes cuartos de comunicaciones. • El cableado vertical es típicamente menos costoso de instalar y debe poder ser modificado con mas flexibilidad. Topología • La topología del cableado vertical debe ser típicamente una estrella. • En circunstancias donde los equipos y sistemas solicitados exijan un anillo, este debe ser lógico y no físico. Cables Reconocidos • • • • • Cable UTP de 100 ?. Multipar Cable STP de 150 ?. Multipar Cable de múltiples Fibras Opticas 62.5/125 ?m. Cable de múltiples Fibras Opticas Monomodo (9/125 ?m). Combinaciones Distancias • Dentro del Edificio o Cobre 90mts o Fibra Optica 500 mts • Entre Edificios o Cobre 800 mts o Fibra Optica Multimodo 2Km o Fibra Optica Monomodo 3Km. 4.5.5. Centro de telecomunicaciones principal. 4.5.6. Centro de telecomunicaciones Intermedios. 4.5.7. Servicios de ingreso. 4.6. Planificación de la estructura de cableado. 4.6.1. Normatividad de electricidad y conexiones a tierra. Diferencias entre CA y CC La electricidad es un hecho de la vida moderna. La usamos para realizar una amplia gama de tareas. Entra en nuestros hogares, escuelas y oficinas a través de líneas de alimentación eléctrica que la transportan bajo la forma de corriente alterna (CA). Otro tipo de corriente, denominada corriente continua (CC), es la que encontramos en las linternas, baterías de automóvil y en la motherboard de un computador. Es importante comprender la diferencia entre estos dos tipos de flujo de corriente. La CC fluye a un valor constante cuando los circuitos están activados. La batería suministra corriente durante un período de tiempo determinado a un nivel constante de flujo de corriente. Los valores de la corriente alterna suben y bajan a medida que ésta es generada por las compañías de energía eléctrica. Esta variación de los valores se puede explicar a través de una serie de gráficos que presentamos a continuación: La figura muestra cómo el flujo de corriente alcanza su valor pico cuando el polo sur atraviesa el núcleo de la bobina. La figura muestra como el flujo de corriente baja a 0 cuando ambos polos abarcan el núcleo y equilibran el flujo de corriente hasta alcanzar el valor 0. La figura muestra la subida al pico de la polaridad opuesta (un valor negativo) cuando el polo norte se desplaza a través del núcleo de la bobina. La figura muestra la bajada a 0 del flujo de corriente cuando el imán sale del área de la bobina. La energía de CA que se produce para el uso cotidiano en los hogares aplica este concepto. Ruido de línea de CA Después de entrar en nuestros hogares, escuelas y oficinas, la electricidad se transporta a los artefactos y la máquinas a través de cables ocultos en paredes, pisos y techos. Como consecuencia, dentro de estos edificios, el ruido de la línea de alimentación de CA se encuentra en todo el entorno. Si no es tratado correctamente, el ruido de la línea de alimentación puede representar un gran problema para una red. En efecto, como lo descubrirá a medida que trabaje con redes, el ruido de la línea de CA proveniente de un monitor de vídeo cercano o de una unidad de disco duro puede ser suficiente para provocar errores en un computador. El ruido hace esto agregando voltajes no deseados a las señales deseadas e impidiendo que las compuertas lógicas del computador puedan detectar los bordes anterior y posterior de las ondas rectangulares de la señal. Este problema se puede complicar además cuando un computador tiene una mala conexión a tierra. Descarga electrostática La descarga electrostática (ESD), conocida comúnmente como electricidad estática, es la forma más perjudicial y descontrolada de la electricidad. Los equipos electrónicos sensibles deben protegerse contra este tipo de electricidad. Seguramente alguna vez habrá experimentado lo que ocurre al caminar sobre una alfombra. Si el aire está fresco y seco, al tocar un objeto una chispa salta desde la punta de sus dedos y le provoca un pequeño choque eléctrico. Se sabe por experiencia que ese tipo de ESD puede provocar una breve "cosquilleo", pero en el caso de un computador, este tipo de choques eléctricos pueden ser desastrosos. La ESD puede destruir semiconductores y datos al azar, a medida que el computador recibe los impactos. Una solución que ayuda a resolver este problema provocado por la descarga electrostática es una buena conexión a tierra. Alimentación de conexión a tierra en equipo informático Para los sistemas eléctricos de CA y CC, el flujo de electrones se produce siempre desde una fuente cuya carga es negativa hacia una fuente cuya carga es positiva. Sin embargo, para que se produzca un flujo controlado de electrones, es necesario que haya un circuito completo. Por lo general, una corriente eléctrica sigue la ruta de menor resistencia. Debido a que los metales como, por ejemplo, el cobre, ofrecen poca resistencia, se utilizan con frecuencia como conductores de la corriente eléctrica. A la inversa, los materiales como, por ejemplo, el vidrio, el caucho y el plástico proporcionan mayor resistencia. Por lo tanto, no son buenos conductores de energía eléctrica. De hecho, estos materiales se utilizan frecuentemente como aisladores. Se usan en conductores para evitar descargas, incendios, y cortocircuitos. Normalmente, la energía eléctrica se envía a un transformador montado en un poste. El transformador reduce las altas tensiones que se usan en la transmisión a los 120 V o 240 V que utilizan los aparatos eléctricos comunes. La figura muestra un objeto familiar, la electricidad suministrada a través de los tomas de pared en los EE.UU. (otras naciones poseen configuraciones de toma de pared diferentes). Los dos conectores superiores suministran energía eléctrica. El conector redondo, que aparece en la parte inferior, protege a las personas y a los equipos de las descargas y los cortocircuitos. Este conector se denomina conexión a tierra de seguridad. En los equipos eléctricos en los cuales se utiliza, el conector a tierra de seguridad se conecta con cualquier parte metálica expuesta del equipo. Las motherboards y los circuitos de los equipos de computación están eléctricamente conectados con el chasis. Este también los conecta con el conector a tierra de seguridad, que se utiliza para disipar la electricidad estática. El objeto de conectar la tierra de seguridad con las partes metálicas expuestas del equipamiento informático es impedir que esas partes metálicas se carguen con voltaje peligroso resultante de una falla del cableado dentro del dispositivo. Una conexión accidental entre el cable electrificado y el chasis es un ejemplo de una falla de cableado que se puede producir en un dispositivo de red. Si ocurriera una falla de este tipo, el hilo de conexión a tierra de seguridad conectado con el dispositivo serviría como una vía de baja resistencia para la conexión a tierra. El conector a tierra de seguridad ofrece una vía de resistencia menor que el cuerpo humano. Cuando está instalada correctamente, la vía de baja resistencia provista por el conductor a tierra de seguridad ofrece una resistencia lo suficientemente baja, y una capacidad suficiente de transmisión de corriente, para impedir que se acumulen voltajes peligrosamente altos. El circuito conecta directamente el punto con corriente a tierra. Siempre que una corriente eléctrica atraviesa esta vía hacia la tierra, hace que se activen los dispositivos de protección como, por ejemplo, los disyuntores y los interruptores de circuito accionados por corriente de pérdida a tierra (GFCI) Al interrumpir el circuito, los disyuntores y los GFCI detienen el flujo de electrones y reducen el peligro de una descarga eléctrica. Los disyuntores lo protegen a usted y protegen el alambrado de su casa. Para proteger los equipos de computación y de networking se requiere protección adicional, típicamente en la forma de supresores de sobrevoltaje y Fuentes de alimentación ininterrumpidas (UPS-uninterrupted power supplies). Propósito de la conexión a tierra del equipo informático El propósito de conectar el conector a tierra de seguridad con las partes metálicas expuestas del equipamiento informático es impedir que esas partes metálicas se carguen con voltaje peligroso resultante de una falla del cableado dentro del dispositivo. Conexiones a tierra de seguridad Un ejemplo de falla del cableado que se podría producir en un dispositivo de red es una conexión accidental entre el alambre con corriente y el chasis. Si ocurriera una falla de este tipo, el hilo de conexión a tierra de seguridad conectado con el dispositivo serviría como una vía de baja resistencia para la conexión a tierra. Cuando está instalada correctamente, la vía de baja resistencia suministrada por el hilo de conexión a tierra de seguridad ofrece una resistencia lo suficientemente baja, y una capacidad suficiente de transmisión de corriente como para impedir que se acumulen voltajes peligrosamente altos. Además, teniendo en cuenta que el circuito conectaría entonces directamente la conexión con corriente con la conexión a tierra, cada vez que la corriente eléctrica pasa a través de esa vía a la tierra, activaría los dispositivos de protección, como, por ejemplo, los disyuntores. Al interrumpir el circuito hacia el transformador, los interruptores de circuito detienen el flujo de electrones, reduciendo así el riesgo de electrocución. Problemas de conexión a tierra de seguridad Los edificios grandes generalmente necesitan más de una conexión a tierra. Se requieren conexiones a tierra separadas para cada edificio en los campus compuestos por varios edificios. Infelizmente, la conexión a tierra entre varios edificios casi nunca es igual. Las conexiones a tierra separadas dentro de un mismo edificio también pueden variar. Cuando varía ligeramente el potencial (voltaje) de los diversos conductores a tierra, se pueden provocar serios problemas. Para comprender mejor este tema, supongamos que la conexión a tierra del edificio A tiene un potencial ligeramente distinto con respecto a los cables comunes y con corriente, que la conexión a tierra del edificio B. Por esta razón, los gabinetes externos de los dispositivos informáticos del edificio A tendrán un voltaje (potencial) distinto que los gabinetes externos de los computadores ubicados en el edificio B. Si se estableciera un circuito para conectar los computadores del edificio A con los del edificio B, entonces la corriente eléctrica fluiría desde la fuente negativa hacia la fuente positiva. Cualquier persona que entrara en contacto con cualquier dispositivo en ese circuito recibiría una descarga bien desagradable. Además, este voltaje potencial errático podría dañar severamente los delicados chips de memoria de los computadores. 4.6.2. Soluciones para caída y bajada de tensión. 4.6.3. Normatividad de seguridad NORMAS DE SEGURIDAD 1. Siempre que trabaje en paredes, techos o áticos, lo primero que debe hacer es desconectar la alimentación eléctrica de todos los circuitos que pueden pasar a través de esas áreas de trabajo. Si no está seguro de si hay cables, o cuáles son los cables que pasan por el sector del edificio en cuestión, lo que debe hacer es desconectar toda la alimentación eléctrica. ¡Nunca, jamás, toque los cables de alimentación eléctrica! Incluso si piensa que ha desconectado toda la alimentación eléctrica del área en la que realizará el trabajo. No hay ninguna forma de saber si tienen corriente. 2. Antes de comenzar a trabajar, aprenda dónde están ubicados los extintores de incendios correspondientes a esa área. 3. Use ropa adecuada. Los pantalones largos y las mangas largas ayudan a proteger sus brazos y piernas. Evite usar ropa demasiado floja o suelta. Si la ropa se engancha en alguna parte, puede resultar lastimado. 4. Si piensa trabajar en un techo falso, inspeccione el área. Esto se puede hacer levantando algunas tejas del techo y echando una mirada. Esto lo ayudará a ubicar los conductos eléctricos, los conductos de aire, el equipo mecánico y cualquier otro elemento que pueda provocar problemas posteriormente. 5. Si debe cortar o serruchar, proteja sus ojos usando anteojos de seguridad. Es buena idea usar anteojos de seguridad cuando trabaja en un espacio reducido o debajo de un techo falso. Si algo le cae encima, o si se apoya sobre algo en la oscuridad, sus ojos estarán protegidos. 6. Consulte al ingeniero de mantenimiento del edificio para saber si hay asbesto, plomo o PCB en la zona donde usted debe trabajar. De ser así, siga todas las ordenanzas gubernamentales que se refieren a ese material. 7. Mantenga el área de trabajo ordenada y prolija. No deje herramientas en el piso en lugares donde se pueda tropezar con ellas. Tenga cuidado con las herramientas que tienen cables de extensión largos. Al igual que con las herramientas, es muy fácil tropezar con estos cables. 4.7. Documentación de una red. Documentación de una red existente La cuestión principal en la implementación de un cambio sobre una red es definir la red existente y las limitaciones impuestas por sus configuraciones hardware y software. Una documentación comprensiva es la clave para la realización de una actualización efectiva y económica sobre una red cualquiera. Esta lección se centra en la forma de establecer una base para la realización de cambios posteriores en la red mediante su documentación y en observar algunas herramientas útiles que pueden ayudar a facilitar el proceso. Documentación La preparación y mantenimiento de los registros de una red son tareas esenciales que dan resultado cuando se necesitan implementar cambios en una red. La documentación actualizada proporciona información sobre el aspecto y el rendimiento que debe tener la red, así como dónde buscar ayuda si existen problemas. La documentación desarrollada para mantenimiento, actualización y resolución de problemas debería contener: Un mapa completo de la red, incluyendo la ubicación de todo el hardware y detalles sobre el cableado. Información de los servidores, incluyendo los datos de cada servidor y el programa y ubicaciones de los sustitutos. Información sobre el software, como los detalles de licencias y soporte. Nombres y números de teléfono esenciales para los contactos de asistencia de vendedores, proveedores, contratistas y otros. Copias de todos los contratos de servicio. Un registro de todos los problemas, sus síntomas y soluciones, incluyendo fechas, contactos, procedimientos y resultados. Una documentación debería ser completa, bien organizada y almacenada donde esté disponible fácilmente. Aunque esto podría parecer obvio, es fácil que la documentación se pierda o que el responsable individual del mantenimiento de estos registros abandone la organización sin la preparación del sucesor. Definición de una línea de base En cuanto la red esté operativa, es el momento de establecer una línea de base, que es, simplemente, una documentación de los valores de funcionamiento normal de la red. La línea de base se debe actualizar siempre que nuevos usuarios, hardware o software se incorporen al sistema o lo abandonen. La creación de un buen inventario y el establecimiento de los valores de rendimiento de la línea de base constituyen la referencia sobre la cual se pueden identificar futuras necesidades para la modificación de la red. La siguiente lista incluye los pasos que se necesitan tomar para documentar la red: Registrar el modelo, número de serie y ubicación de los servidores, estaciones y routers. Registrar la información de garantía para cada dispositivo. Tomar nota del lugar donde se ha almacenado toda la información de garantía. Esto será útil cuando un producto necesite una revisión o reemplazamiento. Hacer una copia de los archivos importantes del equipo como Autoexec.bat y Config.sys. Hacer un conjunto completo de copias de seguridad en cinta del sistema. Las cintas de las copias importantes se deberían guardar en una caja fuerte o en un servicio de almacenamiento de datos externo. Crear un mapa de la red, anotando la distancia aproximada entre las estaciones y el servidor. Tomar nota de las áreas donde el cable atraviesa una pared o se coloca en el espacio intermedio entre el techo y el suelo. Esto será útil para los arquitectos de la red y de la construcción en la planificación de las futuras modificaciones de la red. La documentación de los recorridos de los cables puede facilitar las inspecciones de construcción y ayudar a demostrar el cumplimiento de las regulaciones como las normas contra incendios que prescriben las reglas de los cables colocados en el espacio intermedio de un edificio. La comprensión del funcionamiento correcto de una red es tan importante como el conocimiento de la forma de resolver los problemas cuando la red haya fallado. La monitorización y la documentación de la red cuando está funcionando correctamente proporciona medidas de la línea de base frente a las que se puede comparar un rendimiento no usual. La línea de base debe ser establecida antes de que algo falle. Una vez que existe la línea de base, todos los comportamientos de la red se pueden comparar con ella como parte de un proceso de monitorización subsiguiente. La línea de base es especialmente útil en el establecimiento e identificación de: Patrones diarios de utilización de la red. Cuellos de botella. Patrones de utilización con carga pesada. Diferentes patrones de tráfico de los protocolos. Documentación del rendimiento de la red Una vez que el hardware ha sido documentado y la red está en funcionamiento, es casi el momento de registrar la línea de base de rendimiento de la red. Sin embargo, es mejor esperar a hacerlo cuando se haya verificado que todas las conexiones de la red son correctas, todo el hardware esté operativo y se hayan realizado todos los ajustes necesarios en el sistema. Cuando se haya determinado que el rendimiento de la red es aceptable, es momento de registrar la línea de base. El concepto de rendimiento de red es tan amplio que abarca la red entera, incluyendo: Servidores. Tarjetas de red (NIC). Conexiones mediante cable a las tarjetas de red. Hubs. Tendido de cable. Routers. Bases RJ-45. Tarjetas de red para estaciones. Existe una serie de herramientas que ayudan al administrador a documentar el rendimiento de la red, incluyendo monitores de red, analizadores de protocolos y otras utilidades. Monitores de red Un monitor de red es una herramienta útil que captura y filtra los paquetes de datos y analiza la actividad de la red. Es fácil documentar los indicadores de rendimiento de la red con un monitor de red, pero requiere mucha práctica para analizar rápidamente las estadísticas de rendimiento de la red. Algunos sistemas operativos de red incluyen software de monitorización de red entre sus recursos y otros fabricantes de software también ofrecen monitores de red. Analizadores de protocolos Un analizador de protocolos es una herramienta que hace un seguimiento a las estadísticas de la red. Puede capturar tramas erróneas y aislar su fuente (las tramas de datos son paquetes de información transmitidos como una unidad sobre una red. Son definidas por el nivel de enlace de datos de la red y sólo existen en los cables que conectan los nodos de la red). Un analizador de protocolos puede ser útil para una compañía que dispone de una red grande con una plantilla altamente cualificada. Existen varios analizadores de protocolos. Los analizadores de protocolos pueden ser programas software baratos que se ejecutan en equipos conectados en red existentes. Los analizadores de protocolos más avanzados y más caros son equipos portátiles de propósito especial que se pueden conectar a cualquier porción física de la red para facilitar el aislamiento de los problemas de transmisión de datos. Packet Internet Groper (Ping) Para comprobar si la conexión de la red es completa desde el servidor hacia la estación, se puede utilizar una utilidad simple, el Packet Internet Groper, mejor conocido como «ping». La utilidad ping funciona enviando un mensaje a un equipo remoto. Si el equipo remoto recibe el mensaje, responde con un mensaje de contestación. La respuesta consta de la dirección IP de la estación remota, el número de bytes del mensaje, el tiempo que se tardó en responder (en milisegundos, ms) y el tiempo de espera (TTL, Time-To-Live) en segundos. Si se recibe el mensaje «Request timed out» («Superado el tiempo de respuesta»), significa que la estación remota no respondió antes de la expiración de tiempo TTL. Esto podría ser consecuencia de un tráfico pesado en la red o podría indicar una desconexión física en la ruta hacia la estación remota. Tracert Otra utilidad que documenta el rendimiento de la red se llama «tracert». La equivalente en UNIX se llama «traceroute». Mientras la utilidad ping, simplemente, permite conocer si la conexión desde A hacia B es completa, tracert informa sobre el camino y el número de saltos que da el paquete de datos hasta llegar a su destino. Un ejemplo simplificado de una respuesta de tracert: Seguimiento del camino hacia 100.50.200.10 sobre un máximo de 30 saltos desde Widgets en Ozona Fl hasta Widgets en Seattle WA». 1 125 ms 150 ms 155 ms Widgets.Ozona.F1 .gte.net 2 160 ms 165 ms 170 ms BZNet.Memphis. TN 3 175 ms 180 ms 185 ms Mtnnet Denver. CO 4 190 ms 200 ms 210 ms Widgets, Seattle.WA mci.net Otras herramientas software Existe una variedad de utilidades disponibles que funcionan con el protocolo TCP/IP para documentar el rendimiento de la red. Ipco nfig Es te com and o de diag nóst ico mue stra todo s los valo res actu ales de la conf igur ació n de la red TCP/IP. Este comando es de uso en sistemas que ejecutan DHCP, permitiendo que los usuarios determinen los valores de configuración de TCP/IP que han sido establecidos por DHCP. Winipcfg Utilidad para la resolución de problemas en Windows 95 y 98 que permite a los usuarios acceder a la información sobre la configuración de TCP/IP y las tarjetas de red. Winipcfg muestra la dirección física, la dirección IP, la máscara de subred y los parámetros por omisión del gateway de la tarjeta de red TCP/IP primaria (o los parámetros de múltiples tarjetas de red si hay más de una instalada). Netstat Este comando está disponible sólo si se ha instalado el protocolo TCP/IP. Netstat muestra todas las conexiones y los puertos de escucha, las estadísticas, direcciones y número de puertos de Ethernet, las conexiones y estadísticas de los protocolos y los contenidos de la tabla de encaminamiento. Nbtstat Nbtstat está disponible sólo si se ha instalado el protocolo TCP/IP. Éste muestra las estadísticas de los protocolos y las conexiones TCP/IP actuales utilizando NetBIOS sobre TCP/IP. Esta utilidad puede mostrar: La tabla de nombres de un equipo remoto. La tabla de nombres de un equipo remoto utilizando su dirección IP. Los contenidos de la caché de nombres NetBIOS, proporcionando la dirección IP de cada nombre. Nombres NetBIOS locales. Estadísticas de resolución de nombres para la resolución de nombres en redes de Windows. Nbtstat también puede: Mostrar las sesiones tanto de clientes como de servidores, mostrando los equipos remotos sólo mediante la dirección IP. Mostrar las sesiones tanto de clientes como de servidores. Intenta convertir la dirección IP del equipo remoto en un nombre utilizando el archivo HOSTS. Cuellos de botella La mayoría de las actividades de la red involucran las acciones coordinadas de varios dispositivos. Cada dispositivo toma una cierta cantidad de tiempo para realizar su parte de la transacción. Se obtiene un rendimiento pobre cuando uno de estos dispositivos utiliza notablemente más tiempo de CPU que los otros. Al dispositivo problemático se le referencia como cuello de botella. La monitorización del rendimiento puede ayudar a identificar y eliminar cuellos de botella. La localización de cuellos de botella suele ser una indicación de que es necesaria la actualización de una porción de la red. Para resolver los problemas de los cuellos de botella, un administrador debe estar capacitado para identificar los dispositivos que están dedicando más tiempo del que deberían a realizar sus tareas. Los administradores pueden utilizar los monitores de rendimiento, incorporados por la mayoría de los sistemas operativos de red, para identificar cuellos de botella. Estos dispositivos tienden a convertirse en cuellos de botella: CPU. Memoria. Tarjetas de red. Controladores de disco. Medio de la red. Un dispositivo se convierte en un cuello de botella por una de las siguientes razones: No se está utilizando eficientemente. Está utilizando otros recursos o más tiempo de CPU del que debería. Es demasiado lento. No tiene la capacidad de manejar la carga colocada en él. Una monitorización apropiada descubrirá estas situaciones y proporcionará información para ayudar a identificar el/los componente(s) del problema. Documentación del rendimiento del servidor El rendimiento del servidor suele verse afectado por un incremento en el número de usuarios que se encuentran en el sistema. La comparación de las estadísticas actuales de rendimiento del servidor con la información de la línea de base inicial puede ayudar a confirmar una sospecha de que el servidor no se está utilizando tan bien como antes. Sin embargo, el primer indicio de que el servidor no está rindiendo bien es probable que proceda de los usuarios finales. Su uso diario y la familiaridad con la respuesta del sistema es un buen indicador del rendimiento del servidor. Los monitores de rendimiento (software que se incluye en la mayoría de los sistemas operativos) hacen un seguimiento al rendimiento del servidor de una red y pueden monitorizar varias funciones del sistema mostrando los resultados en formato gráfico o tabular. Ciertos indicadores pueden ayudar a localizar y aislar problemas con el rendimiento del servidor, incluyendo: Demanda de recursos del servidor. Áreas de congestión de datos. La actividad de un proceso individual. Un monitor de rendimiento puede observar el rendimiento de un sistema remoto y alertar al administrador del sistema sobre las condiciones del servidor que necesita atención. También puede transferir datos desde el monitor de rendimiento hacia otras herramientas de rendimiento. Gestión integral del sistema Conforme las redes han crecido en tamaño y complejidad, el seguimiento de un sistema completo se ha hecho mucho más difícil. Debido a esto, los vendedores han desarrollado utilidades que hacen para la gestión de sistemas lo que los monitores de rendimiento hacen para la monitorización del sistema. Estas aplicaciones de gestión de grandes sistemas proporcionan gestión centralizada para programas de sistemas distribuidos. El software de gestión de sistemas proporciona administración centralizada de los equipos de una WAN. Este servicio incluye: Colección de información del inventario de hardware y software. Distribución e instalación de software. Compartición de aplicaciones de red. Resolución de problemas hardware y software. El software de gestión de sistemas complementa a otras utilidades de gestión de sistemas encontradas en los sistemas operativos de red. Los ejemplos que siguen utilizan el Servidor de gestión de sistemas (SMS; Systems Management Server) de Microsoft para mostrar estas utilidades. Gestión de inventario. Este software recoge y mantiene un inventario de hardware y software para cada equipo y almacena el inventario en una base de datos. Los elementos del inventario típico incluyen el tipo de CPU, la cantidad de memoria RAM, el tamaño del disco duro, el sistema operativo y las aplicaciones software para cada componente instalado. Distribución de software. Una vez que el inventario de un equipo consigue parte de la base de datos, una utilidad de distribución de software puede instalar y configurar nuevo software o actualizar el software instalado previamente de forma directa sobre un cliente. Este mecanismo de distribución también se puede utilizar para ejecutar comandos, como detectores de virus, sobre los clientes. Gestión de las aplicaciones compartidas. Las aplicaciones compartidas también pueden ser distribuidas a un servidor para que accedan los clientes. Cuando un usuario se registra en la red, el software de gestión construye una carpeta de programas sobre cada cliente. Estas carpetas de programas contienen a su vez más carpetas que incluyen los iconos de programas que representan las aplicaciones compartidas disponibles para el usuario. Para iniciar la aplicación compartida, el usuario selecciona un icono de la carpeta de programas mostrada en la estación local (la aplicación está almacenada realmente en el disco duro del servidor). Control remoto y monitor de red. El Servidor de gestión de sistemas proporciona las utilidades Help Desk y de diagnóstico que permiten controlar y monitorizar directamente a los clientes remotos. Las utilidades de diagnóstico permiten visualizar la configuración actual de los clientes. La utilidad Help Desk proporciona acceso directo al cliente remoto. La siguiente tabla muestra los entornos soportados por el Servidor de gestión de sistemas. Entorno Soportado Sistemas operativos de red Windows NT Server 3.51 y superiores; Windows 2000 Server; LAN Manager 2.1 y superiores; Novell NetWare 3.1x y 4.x; IBM LAN Server 3.0 y 4.0; cualquier protocolo soportado por Windows NT Server, incluyendo TCP/IP e IPX Equipos clientes Windows 3.1 y Windows para trabajo en grupo 3.11; Windows 95 y 98; Windows NT Workstation 3.5 y superiores; Windows 2000 profesional; MS-DOS 5.0 y superiores; IBM OS/2 2.x y OS/2 Warp; Apple Macintosh (System 7 y superiores) Mantenimiento de un historial de la red La documentación de un historial de la red es tan importante como la monitorización de su rendimiento en tiempo real. Un registro escrito de la red puede: Indicar los aspectos de rendimiento o equipamiento significativos que podrían fallar en la monitorización en tiempo real. Proporcionar un historial contra el que se pueda comparar la información actual. Si existe más de un administrador es importante que todos ellos realicen sus anotaciones en una única documentación de registro compartida. Este registro puede convertirse en una guía de gran valor para los futuros administradores que podrían necesitar la realización de un seguimiento a un problema de rendimiento, o resolver los aspectos de red relacionados con el crecimiento del sistema, así como los cambios de equipamiento, mantenimiento y configuración del sistema. Este documento debería registrar: Los datos y descripciones de adquisición e instalación. Información descriptiva completa sobre los individuos clave, como los contratistas responsables de la instalación. Información del vendedor, modelo y garantía, incluyendo los números de serie. El proceso de instalación y sus resultados. Las configuraciones de la red inicial y subsiguiente. Las políticas y procedimientos de uso de la red. Las asignaciones de recursos y unidades de red. Copias de los archivos cruciales de configuración de la red, como Config.sys y los archivos .BAT. Cualquier configuración inusual de los programas de aplicación. Cualquier configuración particular del equipo, placa madre o periféricos. Cualquier problema y sus soluciones. Cambios hardware y software. Cualquier actividad que afecte a la topología o la arquitectura. Es importante que toda la documentación histórica de la red sea fácil de acceder y fácil de leer. Los gráficos o incluso los bocetos dibujados a mano pueden ser muy útiles. Un historial de una red puede ser registrado en línea o en un libro de notas. El mantenimiento del registro en un archivo de equipo puede plantear dificultades, sin embargo, especialmente si el archivo se almacena en un disco duro y se rompe el equipo o el disco. El tipo de comportamiento de este registro es exactamente registrar los eventos que ocurran. 4.7.1. Diario de Ingeniería. 4.7.2. Diagramas. 4.7.3. Cables etiquetados. 4.7.4. Resumen de tomas y cables. 4.7.5. Resumen de dispositivos, direcciones MAC e IP. Direcciones IP Para que dos ordenadores, situados en cualquier parte del mundo, puedan comunicarse entre sí, es necesario que estén identificados de forma conveniente a través de una dirección. Cada ordenador conectado a Internet tiene una dirección exclusiva y que lo distingue de cualquier otro ordenador del mundo, llamada dirección IP o número IP. Dos ordenadores no pueden tener el mismo número IP, pero un ordenador sí puede tener varios números IP(dot quad notation). Las direcciones IP están formadas por cuatro números separados por puntos, cada uno de los cuales puede tomar valores entre 0 y 255. Por ejemplo: 125.64.250.6 Cada vez que se ejecuta una aplicación para utilizar un servicio en Internet, el software de comunicaciones del ordenador local necesita conocer la dirección IP del ordenador remoto con el que se quiere entrar en contacto. Como memorizar números resulta complicado existe un sistema de identificación por nombres. http://www.unav.es/cti/manuales/Redes_Internet/#121 4.7.6. Material y presupuestos. 4.8. Presentación del proyecto. Análisis Preliminar de Proyecto Cuando se pretende montar un negocio y en nuestro caso un cibernegocio, es necesario tomar algunas consideraciones antes de comenzar, y como parte inicial del proyecto se realizó un análisis de las condiciones que debe tener un cibernegocio para su óptimo funcionamiento técnico y administrativo. He aquí alguno de los requisitos más importantes que debe cubrir todo cibernegocio: Ubicación Geográfica. Acondicionamiento del lugar. Selección de los equipos. Servicios. 3.1.1 Ubicación geográfica Como todo negocio muchas veces la ubicación geográfica ayuda a la prosperidad del mismo, en el caso de los cibernegocio una ubicación cercana a una Escuela, Instituto o a un lugar donde haya una gran concentración de personas y en su mayoría jóvenes es la ubicación ideal para el cibernegocio ya que son estos los que más utilizan el acceso a los procesos informáticos. Una vez que se ha ubicado el lugar donde estará el negocio, es conveniente que el área que ocupe sea de por lo menos 36 metros cuadrados siendo esta el área mínima que nos dará el espacio suficiente para acondicionarla adecuadamente y tener por lo menos 8 equipos de cómputo para ofrecer servicios. 3.1.2 Acondicionamiento del lugar Una vez que se tiene el local para el cibernegocio es necesario realizar las tareas de acondicionamiento del lugar, y éstas tareas consisten en: Pintar, construir o instalar estructuras y/o equipos, instalar la iluminación adecuada, realizar la instalación eléctrica y realizar un cableado estructurado. Pintar: Es importante detallar en la decoración de un cibernegocio ya que ésta será nuestra primera carta de presentación ante la llegada de nuestros clientes, se debe tomar en cuenta también que los colores obscuros pueden llegar a afectar nuestra iluminación, se debe procurar dar un ambiente modernista y vanguardista al momento de realizar la decoración, plasmar detalles que sean agradables a la vista. Construir o instalar estructuras y/o equipos: Es necesario que el local cuenta con un baño, ya sea para uso del personal o para ofrecerlo como “un servicio más”, uno de los atractivos de un cibernegocio en nuestra región es el aire acondicionado, por esa razón es necesario instalar un equipo de aire condicionado que nos permita ofrecer un ambiente fresco a nuestros clientes, y aunque en la actualidad los equipos de aire acondicionado denominados “MultiSplit” son algo costosos, el beneficio económico que se obtiene se ve reflejado en el recibo de energía eléctrica. Sin embargo al adquirir una aire acondicionado es indispensable que tomemos en cuenta el área y/o la capacidad que puede cubrir dicho equipo. Una elección equivocada de Aire Acondicionado aumentara el costo a pagar por la energía eléctrica consumida. Cabe mencionar que si nuestro local es “alto” será necesaria la colocación de un techo falso mediante plafón el cual reducirá el área a climatizar permitiendo un mayor ahorro de energía eléctrica. Actualmente se venden en el mercado escritorios y/o estructuras que nos permiten colocar nuestros equipos de cómputo, sin embargo podemos construir nuestras propias estructuras metálicas, de madera o de concreto. Las estructuras que se vende en el mercado están hechas mediante ciertas consideraciones o parámetros que hacen que los usuarios tengan una mayor comodidad y confort y así mismo reducen riesgos potenciales de sufrir algún tipo de lesión oseoesqueléticas. Es importante que se tomen en cuenta dichas consideraciones al momento de realizar una estructura propia. Al momento de diseñar el nuestra estructura debemos tomar en cuenta que el monitor es el elemento con el que el usuario interactuara de manera directa con la vista, cabeza y cuello razón por la cual este elemento se debe encontrar a una altura adecuada que permita ofrecerle comodidad, por lo regular la altura de la base en donde debe colocarse el monitor va desde 68 a 75 cm. La posición del monitor debería permitir que su cabeza pueda acomodarse sin problema en relación con los hombros. No deberá tener que doblar el cuello hacia adelante de manera incómoda o hacia atrás. Por lo general, la pantalla del monitor y la cara del usuario deberán estar en paralelo. Ajuste del brillo y del contraste: Reduzca la probabilidad de que los clientes sufran molestias oculares al usar controles de brillo y contraste en su monitor para mejorar la calidad de texto y de gráficos. Eliminación del Brillo y Reflejos del Monitor: Es necesario eliminar el brillo y los reflejos. Para controlar la luz del día, deberá usar cortinas o tratar de seguir otras medidas para reducir el brillo que afecta la pantalla. Use iluminación indirecta o reducida para evitar el reflejo sobre la pantalla del monitor. Si el brillo es un problema, considere estas medidas: Traslade el monitor a un lugar donde no haya brillo ni reflejos. Apague o reduzca la iluminación del techo y use iluminación para trabajos específicos (una o más lámparas ajustables) para iluminar el monitor. Si no puede controlar la iluminación del techo, trate de colocar el monitor entre las hileras de luces, en vez de colocarlo directamente debajo de una hilera de luces. Acople un filtro para reducir el brillo al monitor. Coloque un visor sobre el monitor. Este dispositivo puede llegar a ser tan simple como un trozo de cartón encima del borde superior frontal del monitor. Evite inclinar o hacer que gire la pantalla de manera que invite a una postura incómoda de la cabeza o de la espalda. Elimine el brillo: Trate de colocar el monitor de manera que la parte lateral mire hacia las ventanas. Trate de evitar las fuentes de iluminación destellantes en su campo visual. Por ejemplo, no frente a una ventana que no esté cubierta durante las horas del día. El teclado deberá estar ubicado a un máximo de 15 centímetros por debajo del monitor y debe permitir que sus hombros queden relajados y sus codos se apoyen de manera cómoda a los lados. Ajuste la inclinación del teclado para que sus muñecas queden en línea recta. Una manera práctica de comprobar si esta ubicado de adecuadamente es realizar lo siguiente: Voltee su silla hacia el costado para poder determinar si la altura de su codo es cercana a la altura de la hilera de la tecla de inicio. Figura 13. Posición correcta del Teclado Coloque el teclado y mouse, de modo que se puedan usar en una posición relajada y cómoda. De esta manera el usuario, no tendrá que estirar o encoger sus hombros mientras trabaja. ¡CORRECTO! ¡INCORRECTO! Figura 14. Posición correcta del Mouse Es importante ofrecer a los usuarios sillas, que tienen sectores tipo almohadilla para descansar los brazos. Los cuales permiten apoyar la parte media de sus antebrazos para estar más cómodo mientras se escribe, o se hace uso del mouse o se descansa. Los descansabrazos están ajustados de manera adecuada cuando sus hombros están en una posición cómoda y sus muñecas quedan derechas. También se pueden añadir otro tipo de comodidades para el usuario tales como el apoyo para las palmas de las manos como los mouse pad de gel. Los descansabrazos no deberían: Hacer que encoja o deje caer los hombros. Poner demasiada presión sobre sus codos. Hacer que sus brazos se extiendan demasiado (con los codos hacia los costados). Es importante que la silla permita apoyar el cuerpo completamente. Distribuya su peso de forma pareja y use todo el asiento y respaldo para soportar su cuerpo. Si su silla tiene un respaldo inferior ajustable, alinee los contornos del respaldo de la silla con la curva natural de la parte inferior de la columna vertebral. La silla debe permitir que la parte inferior de la espalda descanse bien. ¡CORRECTO! ¡INCORRECTO! Figura 15. Postura correcta al sentarse. Es importante que la silla permita que los pies puedan descansar firme y cómodamente sobre el piso cuando esté sentado. Utilice una silla y superficie ajustable que permita que sus pies descansen firmemente sobre el piso. Asegúrese de dejar suficiente espacio debajo de la superficie de trabajo para sus rodillas y piernas. Es espacio debe permitir estirar las piernas sin que exista algún obstáculo. Evite colocar cajas u otros elementos debajo de su escritorio, lo que puede limitar el espacio para las piernas. ¡CORRECTO! ¡INCORRECTO! Figura 16. Posiciones de los pies al sentarse. Se pueden ofrecer portadocumentos, deberán ser colocados cerca del monitor a la misma distancia, altura y ángulo del monitor. Al colocar el portadocumentos se contribuye a que su cuello se mueva cómodamente entre el área de los documentos y el área de la pantalla, ayudándolo a mantener la posición balanceada de la cabeza en relación con los hombros. Y el cliente estará cómodo. Es posible que el mobiliario ajustable diseñado para la computadora no esté siempre disponible. Sin embargo, puede usar toallas, almohadas, mantas y libros en distintas maneras, para: Elevar la altura de la silla. Crear un descanso para los pies. Soportar la espalda. Elevar el teclado o pantalla. Proveer almohadillas de protección cuando sea necesario. Instalar iluminación adecuada. Existen en el mercado de la iluminación una gran diversidad de equipo, gabinetes y formas que ayudan a que nuestro cibernegocio adquiera una imagen, sin embargo al momento de tomar la decisión debes pensar no solo en lo atractivo de las luces, sino lo adecuada que debe ser para el usuario que está frente a una computadora, la mejor forma de iluminación nos la proporcionan las luces fluorescente tubulares, las cuales se deben poner sobre gabinetes especiales que nos permiten reducir el brillo que pudieran emitir éstas lámparas y evitar que afecte a la vista. Figura 17. Gabinetes de Iluminación Instalación de Eléctrica y Cableado Estructurado Debido a que dentro de un cibernegocio se tendrán instalados varios equipos de cómputo y en algunos casos se tendrán dos o más equipos de aire acondicionado será necesario contar por lo menos con una línea de energía eléctrica de 220 Volts, y que se realice la instalación adecuada y sobre todo el balanceo de cargas adecuado, para que no tengamos problemas de sobrecalentamientos en los cables de conducción y podamos optimizar el uso de la energía eléctrica. Una vez que se tiene el local es necesario también que se realice un pequeño mapa de distribución de equipos y/o áreas, esto ayudará a la planificación tanto de las instalaciones eléctricas como las de cableado de la red LAN. Éste mapa ayudará a situar la mejor ubicación para el cuarto o closet de equipos de comunicación, lugar donde se instalarán los “Switches”, “Routers”, “ Módems” , y demás dispositivos que permitan comunicar a nuestros equipos, también será necesario que se consulte con el proveedor de Internet para saber qué tipo de conexión brindará y qué tipo de equipos proporcionará, esta información nos ayudará a conocer si es necesario comprar otros equipos además del Switch que se utiliza como componente mínimo para la instalación de una red LAN. Es importante que al momento de realizar el cableado de la Red LAN se tomen en cuenta algunos de los puntos que establecen las normas de cableado estructurado ya que siguiendo éstas observaciones estaremos garantizando la calidad del servicio y economizando en cierta medida los gastos que posteriormente se pudieran tener por el concepto de mantenimiento de la Red. 3.1.3. Selección de los equipos Tal vez al momento de elegir el o los equipos de cómputo y en especial las Computadoras surja la duda de comprar equipos de Marca (Compaq, GateWay IBM, etc) o comprar equipos ensamblados, esta elección dependerá de la cantidad de capital que se tenga, es decir si al momento de adquirir equipos de cómputo la inversión inicial no representa ningún problema , entonces podemos optar por adquirir equipos de cómputo de la marca que deseemos y utilizar el nombre de la marca del equipo de cómputo o el logo de la misma para incluirlo como parte de la decoración de nuestro negocio, pero si no se cuenta con demasiado capital nuestra opción de compra de equipo de cómputo deberá ser el de computadoras ensambladas ya que estos equipos por lo regular son hasta en un 40 % mas económicos que los equipos de marca. Otra duda común que surge es la siguiente ¿El equipo ensamblado contiene el mismo software legal que el equipo de marca? ¿Puedo pedir que mi equipo ensamblado contenga todo el software que yo quiera?. Así es, los equipos ensamblado también cuentan con licencias especiales denominadas OEM (Original Equipment Manufacturer, Fabricantes de equipo original) la cuales garantizan que el equipo ensamblado contiene software legal, es importante que cuando compremos equipo ensamblado estos cuenten con los hologramas propios de los programas que se instalaron para certificar que esta adquiriendo software original y con licencia. Antes de adquirir un equipo de cómputo, entendamos algunos conceptos que nos ayudarán a realizar la mejor elección de las computadoras que utilizaremos dentro de un cibernegocio. Microprocesador Es la pieza clave de una computadora, ya que es el encargado de organizar el funcionamiento de la misma, así como de procesar la información, realizar cálculos y todas aquellas funciones que un programa requiera. En la actualidad un microprocesador con una velocidad de por arriba de 1.7 GHz provee un buen rendimiento. En la industria de los microprocesadores existen dos grandes Titanes: AMD Advanced Micro Devices (Microprocesadores ATHLON XP, SEMPROM, ATHLON 64 Bits) e INTEL (Microprocesadores INTEL ® CELERON D , PENTIUM 4, PENTIUM 4 HT, PENTIUM 4 HT EXTREME EDITION), que compiten día con día por ofrecer microprocesadores de alta velocidad y rendimiento, por lo que, cualquiera de los equipos ofrecidos por estas compañías actualmente ofrecen un buen rendimiento. Los factores que determinan el buen rendimiento de los microprocesadores son: Frecuencia del Bus de Sistema. Velocidad a la que se comunica el microprocesador con la tarjeta madre. Existen velocidades que van desde los 330 MHz a los 800 MHz. Memoria Cache. Memoria de alta velocidad que emplea el microprocesador para almacenar de manera temporal datos que se utilizarán en próximas operaciones. Actualmente existen capacidades que van desde los 128 Kb a los 2 Mb. Velocidad de Microprocesador. Velocidad de funcionamiento o de procesamiento. En la actualidad todavía existen máquinas funcionando con microprocesadores cuya velocidad es de 400 MHZ, sin embargo las velocidades que se pueden encontrar en lo microprocesadores actuales van desde 1.7 GHz a 3.4 GHz. Además de éstas características cada fabricante de microprocesadores agrega alguna otra característica especial que aumenta el rendimiento del microprocesador ejemplo de estas características adicionales son las tecnologías HT (Hyper Thread) o HTT (AMD) Tarjeta Madre Componente principal de una computadora sobre la cual se instalarán los demás componentes. Escoger la correcta puede ser difícil ya que existen diferentes características que debemos contemplar: Frecuencia de bus Frontal de Sistema. Velocidad a la que se comunica la tarjeta madre con el microprocesador, algunas tarjetas soporta diferentes velocidades o frecuencias. Tipo de microprocesador. Actualmente las tarjetas madres que soportan microprocesadores AMD no soportan microprocesadores INTEL. Cada tarjeta madre contiene las especificaciones y las características del tipo de microprocesador que acepta así como las características especiales de cada microprocesador. Cantidad de memoria RAM que Soporta. En la actualidad las tarjetas madres para equipos de escritorio o de uso doméstico, soportan cantidades de memoria que van desde 128 Mb a 4 GB. Frecuencia de Tipo de Memoria RAM. Dependiendo de la tarjeta madre que se elija esta podrá o no, soportar los diferentes tipos de velocidades existentes para las memorias RAM. Cantidad de Ranuras de Expansión. Actualmente tan solo ranuras PCI. De acuerdo a la tarjeta madre que se elija esta permitirá o no agregar nuevos dispositivos, como Tarjetas de Video, Tarjetas de Sonido, Tarjetas Capturadoras de Video, etc. Ranura para video AGP. Algunas tarjetas pueden o no tener esta ranura que permite agregar una tarjeta de video proporcionando mayor rendimiento al equipo, debido a que se libera parte de la memoria RAM que se utiliza cuando la tarjeta madre integra una memoria de video. Capacidad para Tecnologías de Almacenamiento. En nuestros días el uso de dispositivos de almacenamiento de gran capacidad y velocidad de transferencia de datos ha hecho posible el uso e integración de nuevas tecnologías de transferencia de datos y de formas de almacenamiento tales como SATA y RAID a equipos de escritorio o domésticos. Memoria RAM En cuestión de memorias existen muchas marcas y muchos tipos sin embargo en primera instancia la característica que nos va a importar al momento de elegir una memoria es la capacidad de almacenamiento que tenga; y actualmente la capacidad mínima que podemos pedir en un equipo ensamblado y que nos proporcionará el rendimiento adecuado es de 256 MB; aunque existen módulos de memorias que van desde 128 MB hasta 1 GB de capacidad con las que se pueden realizar combinaciones e incrementar la cantidad de memoria que puede tener el equipo. Existen una restricción al momento de combinar módulos de memorias y ésta es que los módulos de memoria posean la misma frecuencia o velocidad de transferencia de datos. Una ultima observación que deberá hacer con respecto a la utilización de las memorias es saber si éstas le permiten aprovechar las características propias del microprocesador, un ejemplo de esto es utilizar memorias de tipo DUAL CHANNEL que permiten aprovechar la tecnología HyperThread que proporcionan algunos de los microprocesadores INTEL. La velocidad o frecuencia a la que trasmiten los datos la memoria van desde 266 Mhz a 800 Mhz y a mayor velocidad de transferencia mayor rendimiento. Almacenamiento Conforme crece el uso de la información se va haciendo más necesario almacenar grandes volúmenes, por lo que al elegir la capacidad de almacenamiento debemos analizar que tipo de información se almacenará en nuestra computadora (videos, música, fotos, archivos, programas, etc) aunque en la actualidad la capacidad mínima de 40 GB que ofrecen los equipos ensamblados basta para poder tener instalados los programas más usuales y algunos archivos de música y video. Sin embargo actualmente también se están integrando tecnologías de almacenamiento tales como: SATA (Serial Advanced Technology Attachment) proporcionara mayores velocidades de transferencia de datos para discos duros, mejor aprovechamiento cuando hay varios discos, mayor longitud de cable, y capacidad para conectarlos sin necesidad de apagar la computadora. Se diferencia de su antecesor P-ATA en que los conectores de datos y alimentación son diferentes y el cable es un cable no una cinta, con lo que se mejora la ventilación. Los discos duros se conectan punto a punto, un disco duro a cada conector de la placa, a diferencia de PATA en el que se conectan dos discos a cada conector IDE. El hecho de que el cable sea tipo serie, es debido a que tiene menos cables y produce menos interferencias que si se utilizase el sistema paralelo. Su relación rendimiento/precio le convierte en un competidor de SCSI, ya están apareciendo discos como WD Raptor de 10000rpm, que sólo existían en SCSI de gama alta. Esta relación rendimiento/precio le hace muy apropiado en sistemas de almacenamiento masivos, como RAID. Este nuevo estándar es completamente compatible con el actual sistema IDE, como su nombre indica [Serial ATA] es una conexión tipo serie como USB, o FireWire. Ofrece velocidades de hasta 150MB/seg y no tardará en llegar SATA-1500 con unos 1.5Gbps. SATA no supone un cambio únicamente de velocidad sino de cableado, se ha conseguido un cable mas fino, con menos hilos, que funciona a un voltaje menor, más longitud de cable. RAID (Redundant Array Of Independent Disks): Arreglo de discos redundantes independientes. El objetivo de un Conjunto de discos redundantes independientes (RAID), (que originalmente fue conocido como Conjunto de discos redundantes económicos) es proveer discos virtuales de un tamaño mucho mayor al de los discos comúnmente disponibles. Oficialmente existen 7 niveles: RAID 0 a RAID 6. También existen combinaciones de niveles de RAID, las combinaciones más comunes son RAID 1+0 y RAID 0+1. Los sistemas RAID son comúnmente implementados con discos de la misma capacidad para todo el conjunto. Finalmente una recomendación antes de adquirir equipos de cómputo, compare precios en diferentes lugares y siempre tome en cuenta los puntos antes mencionados y no se deje llevar tan solo por el precio ya en buena medida los precios están relacionados con respecto al rendimiento. Impresora Habiendo tantas impresoras de donde escoger, puede resultar confuso encontrar la impresora que se adapte mejor para sus necesidades. Entender los conceptos siguientes le ayudará a elegir la mejor opción para un cibernegocio. Cuando se inicia un negocio se debe de tener por lo menos dos impresoras una de Inyección de tinta (impresiones en color) y una impresora láser (Impresiones en negro a un bajo costo por impresión) Impresora de Inyección de Tinta: Las impresoras de inyección de tinta, tienen boquillas diminutas que esparcen tinta especialmente formulada sobre una página. Un método emplea tinta calentada (como la que usa la línea Bubblejet de Canon) y otro método utiliza cabezas de impresión piezoeléctrica (como en las líneas Stylus Color de Epson). Impresora Láser: Las impresoras láser funcionan creando una imagen electrostática de una página completa sobre un tambor fotosensible con un haz de luz láser. Cuando se aplica al tambor el polvo ultrafino de color denominado tóner, éste se adhiere sólo a las áreas sensibilizadas correspondientes a las letras o imágenes sobre la página. El tambor gira y se presiona contra una hoja de papel, transfiriendo el tóner a la página y creando la imagen. Esta tecnología es similar a la que utilizan las fotocopiadoras, aunque hay diferencias en los detalles de la transferencia de la imagen y en la temperatura interna de las unidades. La impresora LED, creada originalmente por Okidata y producida también por Lexmark, constituye una tecnología similar. Estas impresoras reemplazan el haz de luz láser con una disposición fija de diodos emisores de luz (LED5) para crear la imagen; por lo demás, son similares en desempeño. Las impresoras láser ofrecen mejor calidad de resultados que las impresoras de inyección de tinta. Sin embargo, las impresoras de inyección de tinta se han vuelto parte importante de la impresión de oficinas pequeñas y caseras debido a su alta calidad de impresión (que en texto compite con las impresoras láser), su calidad de color, su versatilidad y en la integración "todo en uno" de impresora-escáner-fax. Las impresoras láser siguen siendo la mejor opción para aplicaciones basadas en texto, debido a su velocidad, calidad de impresión y bajo costo por página. El término resolución se emplea para describir la agudeza y claridad de la salida impresa. La resolución de impresión se mide por lo regular en puntos por pulgada (ppp o dpi). Esto se refiere al número de puntos separados que puede producir la impresora en una línea recta de una pulgada de longitud. La mayoría de las impresoras funcionan a la misma resolución tanto en forma horizontal como vertical, de modo que una especificación como 300 ppp implica un cuadrado de una pulgada de 300 x 300 puntos. No obstante, hay algunas impresoras que especifican resoluciones distintas en cada dirección, como por ejemplo, 600 x 1.200 ppp, lo que significa que la impresora puede producir 720.000 puntos en una pulgada cuadrada. Actualmente las impresoras láser operan por lo regular a un mínimo de 600 ppp Un beneficio de las resoluciones más altas es el efecto que tienen en la reproducción fotográfica, pues permiten crear impresiones de fotos más detalladas y con un grado más fino. Las nuevas impresoras fotorrealistas de inyección de tinta combinan altas resoluciones (600 ppp y superiores) con gotas de tinta más pequeñas y técnicas especiales de impresión a color, para crear impresiones que rivalizan con la calidad de las instantáneas cuando son observadas a corta distancia. Las impresoras láser de 600 ppp y superiores también logran una mejor reproducción fotográfica, aunque a través de medios diferentes Cuando se trata de imprimir, la calidad de impresión es en realidad el aspecto principal. Sin embargo, es importante verificar diferentes modelos y comparar precios, disponibilidad de suministros o cartuchos, el costo por página, vida útil del equipo, rendimiento de los suministros, tiempo en el que se deberá dar mantenimiento, todo esto con el único fin de obtener el mejor modelo de acuerdo a las necesidades del cibernegocio. Recomendaciones para las impresoras de inyección de tinta: Por lo menos dos cartuchos de tinta (uno para negro y otro para color). Una resolución de impresión de 720 x 1440, 1200 ppp o superior. Una velocidad de por lo menos 8 ppm para negro y 4 ppm para color. Un puerto paralelo. Que pueda ser operable en red. Que sea compatible con el sistema operativo que se este utilizando. Características optimas o deseables: Cartuchos de tinta por separado para cada color Características de Calidad Fotográfica Cartuchos de tinta negra de alta velocidad para velocidad adicional Puerto USB Operable en un entorno de Red Compatibilidad con el Sistema Operativo. Recomendaciones para impresoras láser: Una resolución de impresión de 600 ppp auténticos o superior Velocidades de impresión de 8 ppm o superiores PCL 5 o superior Por lo menos 4 MB de RAM o más (instalada en fábrica o actualizable en campo) Un puerto paralelo Características optimas o deseables Bandejas de papel de alta capacidad Puerto USB (para un fácil movimiento entre PCs) Puerto RJ45. 16 MB en memoria RAM Cabe mencionar que en lugar de una impresora de inyección de tinta, puede adquirir una impresora láser a color y aunque el costo de la impresora es elevado, el costo por impresión resulta muy económico. Es importante tomar precauciones al almacenar el papel de impresión. El papel húmedo es una de las causas principales de que éste se atore, se amontone y dé una mala cobertura del tóner. Siempre deberá almacenar el papel en un lugar fresco y seco, y no abra un paquete hasta que esté listo para usarlo. Al cargar el papel dentro de su impresora, siempre es una buena idea airearlo primero. Esto ayuda a separar las páginas individuales cuando la impresora las extrae de la charola de papel. Escáner El escáner1, junto con la impresora es uno de los periféricos más utilizados, tanto en ámbito doméstico como profesional, es un instrumento que mediante una aparente sencilla tecnología, nos permite convertir cualquier documento de papel en formato digital para poderlo utilizar en una computadora, por lo regular se conectan al mismo puerto paralelo o USB que emplea la impresora. Los escáneres ofrecen una forma de convertir documentos y fotografías de muy diferentes tipos a una forma legible para la computadora. Al igual que con las impresoras un escáner entre mayor resolución tenga, mejor será la calidad del documento digitalizado. Un escáner nos ahorrará tiempo al momento de querer copiar un texto de algún libro o revista, ya que solo tendremos que poner la hoja o el texto que deseemos escribir en el escáner, y éste reconocerá el texto y podrá ser enviado a cualquier programa que edite texto dentro de la computadora. 1 Palabra Aceptada y publicada por la Real Academia de la Lengua Española en su Vigésima Tercera Edición Sin importar el uso final del documento digitalizado, la computadora recibe todas las digitalizaciones como una imagen digital, por eso es importante tomar en cuenta que existen ciertos documentos que no deben ser digitalizados, por que se pudiera estar cometiendo algún tipo de delito. 3.1.4 Servicios Cuando finalmente se tiene ubicado y acondicionado un cibernegocio con la ayuda de profesionales en la materia (instalación eléctrica, cableado estructurado), es necesario que cuente por lo menos con dos personas al frente del negocio y que por lo menos una de ellas tenga el grado de técnico en informática o que cuente con estudios y/o diplomados afines a la carrera de sistemas computacionales. En primera instancia el servicio que proporciona un cibernegocio es el de renta de equipos de cómputo con acceso a Internet, impresión, digitalización y elaboración de documentos, sin embargo con el personal adecuado se podrían ofrecer los siguientes servicios: Elaboración de paginas Web y hospedaje de las misma Mantenimiento preventivo y correctivo a equipos de cómputo Asesoría en procesos informáticos (Declaración de impuestos ante la Secretaria de Hacienda, IMSS, pagos por Internet, trámites electrónicos, correo electrónico.) Cursos Presenciales Cursos a través de Internet Asesoría para Adquisición de Equipos de Cómputo Desarrollo de Software Capacitación de personal Venta de equipos de Cómputo Reparación e instalación de equipos de Cómputo y Redes Envió y Recepción de Fax Servicio de Caseta Telefónica Renta de sala y/o equipos de cómputo para Conferencias Unidad 5 Planeación y diseño básico de una LAN. 5.4 Análisis de requerimientos. 5.4.1 Evaluar las necesidades de la red. ANALISIS DE SISTEMAS La primera tarea para construir una red productiva, es el balancear requerimientos técnicos, demandas de usuarios, y costos. Esto es duro, pero tiene sus recompensas, El análisis de sistemas se realiza en 4 pasos importantes: 1. Una investigación preliminar. 2. Recolección de datos. 3. Análisis de los datos. 4. Reporte de requerimientos. El primer interés del análisis de datos es saber si debemos preocuparnos por instalar una red. No hay nada peor que saber que perdiste tu tiempo. Por eso es que se debe realizar una INVESTIGACIÓN PRELIMINAR antes de empezar a involucrarte en la LAN. Durante este proceso puedes determinar si necesitas una red. Si decides construir una LAN entonces, el siguiente paso es la obtención de datos. La RECOLECCION DE DATOS es el proceso de determinar quien este haciendo que a quienes. La objetividad es crucial en este proceso porque si los datos no son puros pueden llevarte a conclusiones equivocadas. Una vez que tengas los datos, estos deben ser analizados. Durante el ANALISIS DE LOS DATOS organizas todos las datos en 10 categorias cruciales. Cada una de estas categorias te servira en el reporte de requerimientos, para formar objetivos, necesidades, requerimientos y recomendaciones. Estas categorías te ayudan a diferenciar los datos que recolectaste y organizarlos de una manera significativa. Finalmente, pones todo en papel. El paso 4 es el REPORTE DE REQUERIMIENTOS Este reporte es el producto final de la fase de análisis de sistema. Esta dirigido al diseño de la red y será utilizado como un plano para la fase de instalación. La meta del diseño de red es crear un PLAN PARA LA LAN. Empezemos: 1.- INVESTIGACIÓN PRELIMINAR El resultado o producto de la investigación preliminar es el reporte de Fiabilidad. La administración utiliza este reporte para seleccionar una de tres acciones: Hacer nada Construir la LAN inmediatamente Continuar con la recolección de datos y análisis La investigación preliminar consiste de cuatro partes : Definición del problema, campo de acción, objetivos y el reporte de fiabilidad. La fase de DEFINICIÓN DEL PROBLEMA es donde el analista de la red se hace la siguiente pregunta "¿Porqué una LAN?" Puede que contestes con "No se porque" o "¿,Porqué, preguntar porque?" La razón es, alguien te llamo; alguien tenia una razón; alguien desea una LAN. Tu tarea inicial es averiguar porque te llamaron y que es lo que esperan los usuarios de la LAN. Antes de empezar a concebir una solución adecuada, debes entender el/los problema(s) completamente. Una vez que la pregunta a sido contestada adecuadamente, el alcance del proyecto debe ser determinado ¿Qué tan grande será el sistema? ¿Será una LAN, WAN o MAN (Red de Area Metropolitana)?. Establecer el ALCANCE de un proyecto es critico para poder mantener la LAN bajo control. El alcance provee limitantes fisicos para cualquier Red, asi como limitantes financieros y personales. En muchos casos el alcance actúa para restringir y evitar que las soluciones se expandan demasiado y se hagan intrabajables. Si el alcance es demasiado grande la Red nunca se terminará. Si el alcance es demasiado equeño, de seguro la Red no cumplira con las expectativas o necesidades de los usuarios. Como puedes ver, el alcance es un aspecto vital de la investigación preliminar. Es muy importante establecer un alcance de la LAN temprano durante el proceso de análisis, esto tendra una gran influencia en costo, expectativas, ambiente y tiempo. Durante la tercera parte -Objetivos- es importante empezar a tratar de encontrar algunas soluciones. Esto no significa que debes tener soluciones viables sino simplemente formular algunas ideas. Para empezar, puedes expresar el sistema como una lista de OBJETIVOS. Los objetivos de la LAN son la piedra angular de la investigación preliminar. Deben listar clara y concisamente la capacidad del nuevo sistema. Otra vez, la meta aquí no es una solución comprensiva; solo ideas sencillas. A continuación se muestra una lista breve de objetivos de una LAN. Compartir optimamente los archivos Distribución de las impresoras de la oficina Mejor comunicación entre empleados Acceso remoto desde los hogares de los empleados En la culminación de la investigación preliminar, se presenta un reporte de Fiabilidad a la administración. Esta presentación es tipicamente corta e informal, generalmente consiste de un reporte de dos páginas y media hora para preguntas y respuestas. La meta del reporte es decidir si se seguira el objetivo. En muchos de los casos, la administración decide seguir estudiando el proyecto. El reporte de fiabilidad debe contener un breve enunciado sobre la definición del problema, alcance, objetivos y solución preliminar, costos estimados y beneficios. Este reporte se utiliza como modelo para la fase de análisis del sistema. 2.- RECOLECCION DE DATOS Asumiendo que la investigación preliminar es todo un éxito, el siguiente paso es la recolección de datos. La RECOLECCION DE DATOS es el proceso para determinar cuales son los datos de la LAN. La objetividad es crucial durante la recolección de datos porque existen todo tipo de distorsiones que pueden alterar los datos que recolectes. El EFECTO HOWTHORNE por ejemplo, dice que los individuos que saben que son parte de un estudio se comportan diferente a aquellos que no lo saben. Otro factor es la CURVA DE APENDIZAJE que dice que los datos recolectados al inicio de un experimentos no son siempre tan precisos como los recolectados después. Por lo tanto, es importante compensar estos dos efectos. Durante la recolección de datos, se analiza el sistema existente, hablas con usuarios, investigas operaciones del negocio y observas el ambiente que te rodea. Varios metodos pueden ayudar: OBSERVACIÓN. La observación es la herramienta mas poderosa para recolectar datos e información. Debes tener cuidado con el efecto Hawthorne. Los usuarios usualmente se sienten amenazados cuando saben que son parte de un estudio. Mientras observas, examina procedimientos, tecnologia existente y lo más importante -Personas. Observa a los usuarios trabajando. ENTREVISTAS. Las entrevistas pueden proveer mas detalle que la observación, Algunos usuarios revelarán mas información durante entrevistas. Debes filtrar las quejas y la ansiedad de los datos objetivos y cuidate de opiniones. Las opiniones generalmente tienden a convertisrse en verdades a medias. Finalmente, pon atención al lenguaje corporal y los tonos de voz del usuario. DOCUMENTOS. Los documentos pueden darnos una mejor idea de cómo trabaja un sistema. Debes examinar formas, manuales, cartas, memos, gráficas, organigramas, diagramas y todo lo que puedas, para poder entender como trabaja el negocio. Trata de determinar temprano cuales documentos tiene la mayor información. Algunos documentos de interés incluyen recibos, cobros, comunicaciones entre la oficina, reportes financieros y manuales de entrenamiento. CUESTIONARIOS. Los cuestionarios son grandes herramientas para recolectar una gran cantidad de datos rápida y fácilmente. También hacen que los usuarios hagan todo en trabajo. Los cuestionarios ideales son los que piden respuestas cortas, tiene preguntas bien escritas que nos dan como resultado respuestas claras y concisas. El cuestionario debe pedir respuestas cuantitativas cuando sea posible. Esto hace el análisis de datos más significativo. Los usuarios prefieren un cuestionario que sea rápido y sencillo de contestar. Recuerda, los cuestionarios son efectivos solo si son utilizados en combinación con entrevistas y otros metodos de obtención de datos. MUESTREO. Por medio de muestreos obtenemos datos cuantitativos. Puedes utilizar el muestreo como una altemativa a recolectar TODOS los datos de un sistema. Durante el muestreo recolectas un subjuego de los datos totales y extrapolamos los datos a través de la población total. Durante la recolección de datos, ten en mente que tarde o temprano debes analizar todo lo que obtuviste; por eso, trata de mantener las cosas sencillas. 3.- ANALISIS DE DATOS Aqui, organizas los cuestionarios, documentos, notas y los datos en 10 categorías, Cada una de estas categorias te ayudará a diferenciar los datos que recolectaste y a organizarlos de una manera signifícativa. Al organizar tus datos en categorias, empezaras a notar que la Red comienza a tomar forma. Esto es lo que debes tomar en cuenta: FACTOR DE CARGA.El factor de carga afecta la topologia de la red. Ejemplo: Un factor de carga alto, nos dice que la LAN necesita el poder de una configuración Estrella con cable Par Trenzado. Una carga ligera favorece una topología Bus con cable Coaxial el cual es menos costoso. DISTANCIA ENTRE ARTICULOS DE HARDWARE.La distancia entre los componentes de la red es también crítica para determinar la arquitectura de la Red. Mucho cuidado al determinar distancias de cable. La mayoría de las veces la distancia entre dos estaciones de trabajo no es la distancia recorrida por el cable. Algunas corridas de cable estan tan enrrolladas o complicadas que la distancia actual recorrida puede exceder la distancia entre estaciones por mucho mas de lo planteado. AMBIENTE. Considera el tipo de edificio donde se encuentra la LAN. La estructura y composición de las paredes pueden afectar el cableado de la red. También pon atención a los negocios de alrededor y el equipo que utilizan. Maquinaria eléctrica cercana puede causar interferencias electromagnéticas con tu topología, Finalmente, pon atención a la ergonomia. La ERGONOMIA es el concepto de “acomodar la herramienta a la mano que lo utiliza”. Asegurate que los usuarios tenga la iluminación adecuada. Si van a estar muchas horas sentados enfrente de la PC que la silla sea comoda, una temperatura comfortable y el equipo colocado para que pueda ser utilizado con facilidad y comodidad. SEGURIDAD. La importancia de la seguridad depende de la función principal de la LAN. Debe empezar con un modelo de seguridad o estrategias basadas en políticas internas. Ademas de las funciones de seguridad del Sistema Operativo de Red, considere las fugas de información, intervenciones, identificación de usuarios, pistas de auditorías y encriptación de datos. EXPANSION FUTURA. Probablemente la pregunta que menos se hace uno durante el análisis de datos es "¿Dónde estara esta LAN dentro de 3 años?. Muchos administradores de red se envuelven tanto en el proyecto en mano que se olvidan de ver a futuro. No importa cual vaya a ser la función de la red, EXPANSIONES FUTURAS NO PUEDEN SER IGNORADAS, La LAN debe ser fácilmente expandible para prevenir futuros dolores de cabeza o perdida de empleo. COSTO. El enemigo numero uno del ANALISIS DE SISTEMA es el dinero. El Dinero ha roto mas sueño que cualquier pieza de hardware, Software, o limitaciones de espacio. No importa que tan bien analices los datos, nunca puedes escapar a esta realidad. Evalua la LAN dentro de un costo razonable. Recuerda: No es tu trabajo averiguar si la administración puede con el gasto de la LAN, pero asegurate que la administración entiende todos los costos –especialmente- los escondidos: como entrenamientos, Software nuevo, Upgrades de Hardware y Mantenimiento. PROTECCION. Tolerancia a fallas del sistema ( SFT: System Fault Tolerance ) es un aspecto crítico en el diseño de la LAN. La mayoria de los administradores de LAN desempleados olvidaron SFT. Esto es, el evitar o erradicar las posibles causas de caidas del sistema, terminales, servidores, enlaces y todo aquello que se requiere para mantener activa y funcional a nuestra LAN. Existen distintos metodos y equipos para soportar apagones, incendios, inundaciones, terremotos, atentados fisicos y a traves del sistema que se pueden implementar para realmente asegurar un contínuo servicio óptimo de la Red. CAMBIOS EN TECNOLOFIA. Problemas que no pueden tener solución hoy puede que sean resueltos dentro de algunos meses con la salida al mercado de un nuevo producto. Mantente al día de los rápidos cambio en el área tecnológica. Hecha un vistazo hacia donde se dirige la industria y después hechale un vistazo largo hacia donde se dirige TU RED. Explora tecnología nueva que pueda hacer más productiva y eficiente a tu LAN. Existen una cantidad enorme de revistas semanales, mensuales, etc. que te pueden ayudar. EQUIPO EXISTENTE. Creelo o no, la mayoría de las instalaciones de LAN utilizan equipo ya existente. Esto significa que debes integrar componentes nuevos de red con equipo viejo. Asegurate de categorizar las diferentes estaciones y aplicaciones de software que tus usuarios utilizan. No pierdas de vista la compatibilidad y capacidad de hardware pora tu software y/o viceversa. INTANGIBLE. Nunca podrás pensar en todo. Cuando aparezca algún dato que no quede en ninguna de Ias categorías anteriores, ponla en intangibles. Una vez que has terminado de recolectar los datos y analizarlos, es tiempo de ponerlo en papel. El reporte de requerimientos es el producto final de tus esfuerzos de análisis de datos. 4.- REPORTE DE REQUERIMIENTOS. El reporte de requerimientos no es necesariamente para los Gerentes. Este reporte esta dirigido al diseñador de la red. En las siguientes dos fases, el diseñador utilizará el reporte de requerimientos como un plano para el diseño final. El reporte consiste de: 1. Estadísticas vitales 2. Investigación preliminar 3. Requerimientos 4. Recomendaciones La primera sección, ESTADISTICAS VITALES trata con los antecedentes del diseño de la red. Después la ,INVESTIGACIÓN PRELIMINAR simplemente resume el reporte de fiabilidad. La tercera sección, REQUERIMIENTOS, es la médula del reporte de requerimientos. Aqui describes las fases de recolección de datos y de análisis. La sección de requerimientos lista los requerimientos de diseño necesarios para completar cada una de las 10 categorías de análisis. Y la ultima sección, RECOMENDACIONES INICIALES, sirve como transición del análisis de sistemas a diseño de redes. 5.4.1.1 Requerimientos de las estaciones de trabajo. El SISTEMA OPERATIVO DE LAS ESTACIONES DE TRABAJO (WOS) reside en estaciones distribuidas y se encargan de procesamiento local y colocación de recursos. La conexión clave entre las estaciones y el sistema operativo de la red es_proveída por el SOFTWARE DE CONECTIVIDAD que son los drivers, y en general todo aquel software que le dan posibilidad de comunicación y enlace a nuestra estación de trabajo. SISTEMA OPERATIVO DE LAS ESTACIONES DE TRABAJO (WOS) Si el “caballo de trabajo” de la LAN es el Sistema Operativo, las riendas las lleva el WOS (Workstation Operating System). El WOS administra el procesamiento local y los recursos de la estación mientras mantiene una conexión estable a la LAN. La belleza de algunos sistemas operativos de red es que soportan varios sistemas: DOS, OS/2, Windows NT, UNIX y Macintosh System 7 por ejemplo. El WOS reside en la estación y maneja los requerimientos de procesamiento para comunicaciones de las Máquinas, funciones locales de la computadora y aplicaciones distribuidas de la red. Además, el_WOS define la interfase del usuario. Esta es la función mas importante junto con la interoperabilidad. 5.1.1.1.1. Aplicaciones que corren. 5.1.1.1.2 Ancho de banda. Capacidad del medio: Ancho de banda El método de transmisión hace relación a la capacidad del medio para transmitir información. El ancho de banda nos indica la capacidad máxima del medio. Ancho de banda: es la diferencia entre la frecuencia más alta y más baja de una determinada onda. El término ancho de banda hace referencia a la capacidad del medio de transmisión, cuanto mayor es el ancho de banda, más rápida es la transferencia de datos. Por encima del ancho de banda las señales crean una perturbación en el medio que interfiere con las señales sucesivas. En función de la capacidad del medio, se habla de transmisión en banda base o transmisión en banda ancha. Banda base Las redes en banda base generalmente trabajan con mayor velocidad de transmisión que las redes de banda ancha, aunque la capacidad de estas últimas de transmitir por varios canales simultáneamente pueden hacer que el flujo total de datos sea prácticamente el mismo en ambos sistemas. La transmisión de banda base utiliza señales digitales sobre una frecuencia. Utiliza toda la capacidad del canal de comunicaciones para transmitir una única señal de datos. http://www.unav.es/cti/manuales/Redes_Internet/#5 5.1.1.1.3 Almacenamiento. 5.4.1.2 Requerimientos de servidores. 5.4.1.3 Servicios de red. 5.4.1.4 Seguridad y protección. La seguridad, protección de los equipos conectados en red y de los datos que almacenan y comparten, es un hecho muy importante en la interconexión de equipos. Cuanto más grande sea una empresa, más importante será la necesidad de seguridad en la red. Nuestro interés va más allá del hecho de los procedimientos para compartir. En realidad vemos la compartición desde la perspectiva de establecer y mantener la seguridad en la red y en los datos. La seguridad es bastante más que evitar accesos no autorizados a los equipos y a sus datos. Incluye el mantenimiento del entorno físico apropiado que permita un funcionamiento correcto de la red. Implantación de la seguridad en redes La planificación de la seguridad es un elemento importante en el diseño de una red. Es mucho más sencillo implementar una red segura a partir de un plan, que recuperar los datos perdidos. Planificación de la seguridad de la red En un entorno de red debe asegurarse la privacidad de los datos sensibles. No sólo es importante asegurar la información sensible, sino también, proteger las operaciones de la red de daños no intencionados o deliberados. El mantenimiento de la seguridad de la red requiere un equilibrio entre facilitar un acceso fácil a los datos por parte de los usuarios autorizados y restringir el acceso a los datos por parte de los no autorizados. Es responsabilidad del administrador crear este equilibrio. Incluso en redes que controlan datos sensibles y financieros, la seguridad a veces se considera medida tardía. Las cuatro amenazas principales que afectan a la seguridad de los datos en una red son: Acceso no autorizado. Soborno electrónico Robo. Daño intencionado o no intencionado. La seguridad de los datos no siempre se implementa de forma apropiada, precisamente por la seriedad de estas amenazas. La tarea del administrador es asegurar que la red se mantenga fiable y segura. En definitiva, libre de estas amenazas. Nivel de seguridad La magnitud y nivel requerido de seguridad en un sistema de red depende del tipo de entorno en el que trabaja la red. Una red que almacena datos para un banco importante, requiere una mayor seguridad que una LAN que enlaza equipos en una pequeña organización de voluntarios. Configuración de las políticas o normativas Generar la seguridad en una red requiere establecer un conjunto de reglas, regulaciones y políticas que no dejan nada al azar. El primer paso para garantizar la seguridad de los datos es implementar las políticas que establecen los matices de la seguridad y ayudan al administrador y a los usuarios a actuar cuando se producen modificaciones, esperadas como no planificadas, en el desarrollo de la red. Prevención La mejor forma de diseñar las políticas de seguridad de los datos es optar por una perspectiva preventiva. Los datos se mantienen seguros cuando se evita el acceso no autorizado. Un sistema basado en la prevención requiere que el administrador conozca todas las herramientas y métodos disponibles que permiten mantener la seguridad de los datos. Autenticación Para acceder a la red, un usuario debe introducir un nombre de usuario y una contraseña válida. Dado que las contraseñas se vinculan a las cuentas de usuario, un sistema de autenticación de contraseñas constituye la primera línea de defensa frente a usuarios no autorizados. Es importante no permitir un exceso de confianza en este proceso de autenticación engañándonos con una falsa idea de seguridad. Por ejemplo, en una red de peer-to-peer, casi todos los usuarios pueden entrar en el sistema con un nombre y contraseña única. Esto sólo puede proporcionar a un usuario acceso completo a la red, de forma que cualquier cosa que se comparta está disponible para este usuario. La autenticación funciona sólo en una red basada en servidor, donde el nombre y contraseña de usuario debe ser autenticada utilizando para ello la base de datos de seguridad. Entrenamiento Los errores no intencionados pueden implicar fallos en la seguridad. Un usuario de red perfectamente entrenado probablemente va a causar, de forma accidental, un número menor de errores que un principiante sin ningún tipo de experiencia, que puede provocar la pérdida de un recurso dañando o eliminando datos de forma definitiva. El administrador debería asegurar que alguien que utiliza la red esté familiarizado con sus procedimientos operativos y con las tareas relativas a la seguridad. Para lograr esto, el administrador puede desarrollar una guía breve y clara que especifique lo que necesitan conocer los usuarios y obligar a que los nuevos usuarios asistan a las clases de entrenamiento apropiadas. Equipamiento de seguridad El primer paso en el mantenimiento de la seguridad de los datos es proporcionar seguridad física para el hardware de la red. La magnitud de la seguridad requerida depende de: El tamaño de la empresa. La importancia de los datos. Los recursos disponibles. En una red peer-to-peer, algunas veces existen políticas de seguridad hardware no organizadas y los usuarios son los responsables de garantizar la seguridad de sus propios componentes y datos. En una red basada en servidor, la seguridad es responsabilidad del administrador de la red. Seguridad de los servidores En un gran sistema centralizado, donde existe una gran cantidad de datos críticos y usuarios, es importante garantizar la seguridad en los servidores de amenazas accidentales o deliberadas. No resulta muy habitual que algunos individuos quieran demostrar sus capacidades técnicas cuando los servidores presentan problemas. Ellos pueden o no saber qué se está realizando. Resulta mucho más apropiado mantener cierto tacto con esta gente y evitar los posibles arreglos del servidor. La solución más sencilla pasa por encerrar los servidores en una habitación de equipos con acceso restringido. Esto puede no resultar viable dependiendo del tamaño de la empresa. No obstante, encerrar los servidores en una oficina incluso en un armario de almacén es, a menudo, viable y nos proporciona una forma de intentar garantizar la seguridad de los servidores. Seguridad del cableado El medio de cobre, como puede ser el cable coaxial, al igual que una radio emite señales electrónicas que simulan la información que transporta. La información transportada en estas señales se puede monitorizar con dispositivos electrónicos de escucha. Además, se puede intervenir el cable de cobre pudiendo robar la información que transmite en el cable original. Sólo el personal autorizado debería tener acceso al cable que transporta datos sensibles. Una planificación apropiada puede garantizar que el cable sea inaccesible al personal no autorizado. Por ejemplo, el cable puede instalarse dentro de la estructura del edificio a través del techo, paredes y falsos techos. Modelos de seguridad Después de implementar la seguridad en los componentes físicos de la red, el administrador necesita garantizar la seguridad en los recursos de la red, evitando accesos no autorizados y daños accidentales o deliberados. Las políticas para la asignación de permisos y derechos a los recursos de la red constituyen el corazón de la seguridad de la red. Se han desarrollado dos modelos de seguridad para garantizar la seguridad de los datos y recursos hardware: Compartición protegida por contraseña o seguridad a nivel de compartición Permisos de acceso o seguridad a nivel de usuario. Compartición protegida por contraseña La implementación de un esquema para compartir recursos protegidos por contraseñas requiere la asignación de una contraseña a cada recurso compartido. Se garantiza el acceso a un recurso compartido cuando el usuario introduce la contraseña correcta. En muchos sistemas, se pueden compartir los recursos con diferentes tipos de permisos. Para ilustrar esto, utilizamos Windows 95 y 98 como ejemplos. Para estos sistemas operativos se pueden compartir los directorios como sólo lectura, total o depende de la contraseña. Sólo lectura. Si un recurso compartido se configura de sólo lectura, los usuarios que conocen la contraseña tienen acceso de lectura a los archivos de este directorio. Pueden visualizar los documentos, copiar a sus máquinas e imprimirlos, pero no pueden modificar los documentos originales. Total. Con el acceso total, los usuarios que conocen la contraseña tienen acceso completo a los archivos de este directorio. En otras palabras, pueden visualizar, modificar, añadir y borrar los archivos del directorio compartido. Depende de la contraseña. Depende de la contraseña implica configurar una compartición que utiliza dos niveles de contraseñas: Contraseña de sólo lectura y Contraseña de acceso total. Los usuarios que conocen la contraseña de sólo lectura tienen acceso de lectura y los usuarios que conocen la contraseña de acceso total tienen acceso completo. El esquema de compartir utilizando contraseña es un método de seguridad sencillo que permite a alguien que conozca la contraseña obtener el acceso a un recurso determinado. Permisos de acceso La seguridad basada en los permisos de acceso implica la asignación de ciertos derechos usuario por usuario. Un usuario escribe una contraseña cuando entra en la red. El servidor valida esta combinación de contraseña y nombre de usuario y la utiliza para asignar o denegar el acceso a los recursos compartidos, comprobando el acceso al recurso en una base de datos de accesos de usuarios en el servidor. La seguridad de los permisos de acceso proporciona un alto nivel de control sobre los derechos de acceso. Es mucho más sencillo para una persona asignar a otra persona una contraseña para utilizar una impresora, como ocurre en la seguridad a nivel de compartición. Para esta persona es menos adecuado asignar una contraseña personal. La seguridad a nivel de usuario es el modelo preferido en las grandes organizaciones, puesto que se trata de la seguridad más completa y permite determinar varios niveles de seguridad. Seguridad de los recursos Después de autenticar a un usuario y permitir su acceso a la red, el sistema de seguridad proporciona al usuario el acceso a los recursos apropiados. Los usuarios tienen contraseñas, pero los recursos tienen permisos. En este sentido, cada recurso tiene una barrera de seguridad. La barrera tiene diferentes puertas mediante las cuales los usuarios pueden acceder al recurso. Determinadas puertas permiten a los usuarios realizar más operaciones sobre los recursos que otras puertas. En otras palabras, ciertas puertas permiten a los usuarios obtener más privilegios sobre el recurso. El administrador determina qué usuarios tienen acceso a qué puertas. Una puerta asigna al usuario un acceso completo o control total sobre el recurso. Otra puerta asigna al usuario el acceso de sólo lectura. Algunos de los permisos de acceso habituales asignados a los directorios o archivos compartidos son: Lectura: Leer y copiar los archivos de un directorio compartido. Ejecución: Ejecutar los archivos del directorio. Escritura: Crear nuevos archivos en el directorio. Borrado: Borrar archivos del directorio. Sin acceso: Evita al usuario obtener el acceso a los directorios, archivos o recursos. Diferentes sistemas operativos asignan distintos nombres a estos permisos. Permisos de grupo El trabajo del administrador incluye la asignación a cada usuario de los permisos apropiados para cada recurso. La forma más eficiente de realizarlo es mediante la utilización de grupos, especialmente en una organización grande con muchos usuarios y recursos. Windows NT Server permite a los usuarios seleccionar el archivo o carpeta sobre la que se establecen los permisos de grupo. Los permisos para los grupos funcionan de la misma forma que los permisos individuales. El administrador revisa los permisos que se requieren para cada cuenta y asigna las cuentas a los grupos apropiados. Éste es el método preferido de asignación de permisos, antes que asignar los permisos de cada cuenta de forma individual. La asignación de usuarios a los grupos apropiados es más conveniente que asignar permisos, de forma separada, a cada usuario individualmente. Por ejemplo, puede que no sea conveniente la asignación al grupo Todos del control total sobre el directorio public. El acceso total permitiría a cualquiera borrar y modificar los contenidos de los archivos del directorio public. El administrador podría crear un grupo denominado Revisores, asignar a este grupo permisos de control total sobre los archivos de los estudiantes e incorporar empleados al grupo Revisores. Otro grupo, denominado Facultad, tendría sólo permisos de lectura sobre los archivos de los estudiantes. Los miembros de la facultad asignados al grupo Facultad, podrían leer los archivos de los estudiantes, pero no modificarlos. Medidas de seguridad adicionales El administrador de la red puede incrementar el nivel de seguridad de una red de diversas formas. Cortafuegos (Firewalls) Un cortafuegos (firewalls) es un sistema de seguridad, normalmente una combinación de hardware y software, que está destinado a proteger la red de una organización frente a amenazas externas que proceden de otra red, incluyendo Internet. Los cortafuegos evitan que los equipos de red de una organización se comuniquen directamente con equipos externos a la red, y viceversa. En su lugar, todos las comunicaciones de entrada y salida se encaminan a través de un servidor proxy que se encuentra fuera de la red de la organización. Además, los cortafuegos auditan la actividad de la red, registrando el volumen de tráfico y proporcionando información sobre los intentos no autorizados de acceder al sistema. Un servidor proxy es un cortafuegos que gestiona el tráfico de Internet que se dirige y genera una red de área local (LAN). El servidor proxy decide si es seguro permitir que un determinado mensaje pase a la red de la organización. Proporciona control de acceso a la red, filtrado y descarte de peticiones que el propietario no considera apropiadas, incluyendo peticiones de accesos no autorizados sobre datos de propiedad. Auditoria La revisión de los registros de eventos en el registro de seguridad de un servidor se denomina auditoria. Este proceso realiza un seguimiento de las actividades de la red por parte de las cuentas de usuario. La auditoria debería constituir un elemento de rutina de la seguridad de la red. Los registros de auditoria muestran los accesos por parte de los usuarios (o intentos de acceso) a recursos específicos. La auditoria ayuda a las administradores a identificar la actividad no autorizada. Además, puede proporcionar información muy útil para departamentos que facturan una cuota por determinados recursos de red disponibles y necesitan, de alguna forma, determinar el coste de estos recursos. La auditoria permite realizar un seguimiento de las siguientes funciones: Intentos de entrada. Conexiones y desconexiones de los recursos designados. Terminación de la conexión. Desactivación de cuentas. Apertura y cierre de archivos. Modificaciones realizadas en los archivos. Creación o borrado de directorios. Modificación de directorios. Eventos y modificaciones del servidor. Modificaciones de las contraseñas. Modificaciones de los parámetros de entrada. Los registros de auditoria pueden indicar cómo se está utilizando la red. El administrador puede utilizar los registros de auditoria para generar informes que muestren las actividades con sus correspondientes fechas y rangos horarios. Por ejemplo, los intentos o esfuerzos de entrada fallidos durante horas extrañas pueden identificar que un usuario no autorizado está intentando acceder a la red. Equipos sin disco Los equipos sin disco, como su nombre implica, no tienen unidades de disco o discos duros. Pueden realizar todo lo que hacen los equipos con unidades de disco, excepto almacenar datos en una unidad de disco local o en un disco duro. Los equipos sin disco constituyen una opción ideal para el mantenimiento de la seguridad puesto que los usuarios no pueden descargar datos y obtenerlos. Los equipos sin disco no requieren discos de arranque. Se comunican y se conectan al servidor por medio de un chip de arranque ROM especial instalado en la tarjeta de red (NIC) del equipo. Cuando se enciende un equipo sin disco, el chip de arranque ROM indica al servidor que está preparado para iniciarse. El servidor responde descargando el software de arranque en la RAM del equipo sin disco y, automáticamente, se le presenta al usuario una pantalla de entrada como parte de este proceso de arranque. Una vez que entra el usuario, se tiene que el equipo está conectado a la red. Aunque los equipos sin disco pueden proporcionar un alto nivel de seguridad, no tienen mucha aceptación. Toda la actividad del equipo debe realizarse a través de la red cuando no se dispone de un disco local donde almacenar los datos y aplicaciones. Tenemos, por tanto, que el tráfico de la red se incrementará y la red deberá controlar el incremento de demandas. Cifrado de datos Una utilidad de cifrado de datos cifra los datos antes de enviarlos a la red. Esto hace que los datos sean ilegibles, incluso para alguien que escucha el cable e intenta leer los datos cuando pasan a través de la red. Cuando los datos llegan al equipo adecuado, el código para descifrar los datos cifrados decodifica los bits, trasladándolos a información entendible. Los esquemas más avanzados de cifrado y descifrado automatizan ambos procesos. Los mejores sistemas de cifrado se basan en hardware y pueden resultar muy caros. El estándar tradicional para el cifrado es el Estándar de cifrado de datos (DES; Data Encryption Standard). Desarrollado por IBM y aprobado por el Gobierno de Estados Unidos en 1975 cómo una especificación de cifrado, describe cómo se deberían cifrar los datos y proporciona las especificaciones de la clave de descifrado. Tanto el emisor como el receptor necesitan tener acceso a la clave de descifrado. Sin embargo, la única forma de obtener la clave de una localización a otra es transmitirla física o electrónicamente, lo que convierte a DES en vulnerable por parte de intercepciones no autorizadas. Hoy en día, el Gobierno de Estados Unidos está utilizando un nuevo estándar, denominado Commercial COMSEC Endorsement Program (CCEP), que puede reemplazar eventualmente a DES. La Agencia de seguridad nacional (NSA; National Security Agency) introdujo CCEP y permite a los fabricantes que poseen los certificados de seguridad apropiados unirse a CCEP. Los fabricantes aceptados son autorizados a incorporar algoritmos clasificados en sus sistemas de comunicaciones. Virus informáticos Los virus informáticos se han convertido en algo demasiado familiar en la vida diaria. Es habitual ver en los informes de un canal de noticias local la descripción y los últimos virus y las advertencias sobre su impacto destructivo. Los virus son bits de programación de equipos o código, que se ocultan en los programas de equipos o en el sector de arranque de los dispositivos de almacenamiento, como unidades de disco duro o unidades de disco. El principal propósito de un virus es reproducirse, así mismo, con tanta asiduidad como sea posible y, finalmente, destruir el funcionamiento del equipo o programa infectado. Una vez activado, un virus puede ser un simple anuncio o completamente catastrófico en su efecto. Los virus son desarrollados por gente que tiene la intención de hacer daño. Los virus se clasifican en dos categorías, en función de su manera de propagarse. El primer tipo, denominado «virus del sector de arranque», reside en el primer sector de una unidad de disco o disco duro. El virus se ejecuta cuando arranca el equipo. Se trata de un método habitual de transmisión de virus de un disquete a otro. Cada vez que se inserta y se accede a un nuevo disco, el virus se reproduce en la nueva unidad. El segundo tipo de virus se conoce como un «contaminador de archivos». Estos virus se unen a un archivo o programa y se activan en el momento en que se utiliza el archivo. Existen muchas subcategorías de contaminadores de archivos. Algunos de los contaminadores de archivos más habituales, son: Virus acompañante. Se denomina de esta forma debido a que utiliza el nombre de un programa real, su compañero. Un virus acompañante se activa utilizando una extensión de archivo diferente de su compañero. Por ejemplo, supongamos que decidimos ejecutar un programa denominado «procesadortextos.exe». Cuando se utiliza el comando para ejecutar la aplicación se ejecutará en su lugar, un virus denominado «procesadortextos.com». Esto es posible porque el archivo .com tiene prioridad sobre un archivo .exe. Virus de macro. Un virus de macro es difícil de detectar y se han hecho muy populares. Se denominan de esta forma porque se escriben como una macro para una aplicación específica. Los objetivos de estos virus son las aplicaciones más utilizadas, como Microsoft Word. Cuando el usuario abre un archivo que contiene el virus, éste se une a la aplicación y, a continuación, infecta cualquier otro archivo que utilice la aplicación. Virus polimórficos. Un virus polimórfico se denomina de esta forma debido a que modifica su apariencia cada vez que se reproduce. Esto hace que sea más difícil de detectar puesto que no tenemos dos virus exactamente iguales. Virus camuflable. Un virus camuflable se denomina así debido a que intenta por todos los medios evitar que lo detecten. Cuando el programa antivirus intenta localizarlo, el virus camuflable intenta interceptar el análisis y devuelve información falsa indicando que no existe el citado virus. Propagación de virus Los virus por sí solos ni se crean a sí mismos ni se extienden por el aire sin ninguna ayuda. Debe existir algún tipo de intercambio entre dos equipos para que tenga lugar la transmisión. En los primeros días de la informática y los virus, la principal fuente de infección era a través del intercambio de datos por medio de disquetes. Una vez infectado un equipo en una empresa, resultaba muy fácil infectar al resto de los ordenadores, simplemente un usuario que pasaba en disquete una copia del último protector de pantallas. La proliferación de las LAN y el crecimiento de Internet ha abierto muchas vías de infección rápida de virus. Hoy en día, cualquier equipo en el mundo puede estar conectado a cualquier otro equipo. Como consecuencia, también se ha producido un aumento importante en el proceso de creación de virus. De hecho, algunos creadores de virus proporcionan software de fácil uso que contiene direcciones de cómo crear un virus. Un método reciente de propagación de virus es a través de los servicios de correo electrónico. Después de abrir un mensaje de correo electrónico que contiene un virus, éste infecta el equipo y puede, incluso, enviarse a los destinatarios del libro de direcciones del correo electrónico. Normalmente, el virus se localiza es un archivo adjunto a un mensaje de correo electrónico. El objetivo de los creadores de virus es el convencimiento de las victimas para no sospechar de la presencia del virus y, por tanto, poder abrirlo. Esto se consigue, a menudo, empaquetando el virus con algún tipo de «envoltura» sugerente. Estos virus se conocen como «caballos de Troya» o «Troyanos». Para llamar la atención de los usuarios se presentan como algo familiar, seguro o interesante. Recuerde que cualquier medio de intercambio de información entre equipos constituye una vía potencial de propagación de virus. Los métodos más habituales incluyen: CD-ROM. Cableado que conecta directamente dos equipos. Unidades de disquete. Unidades de disco duro. Conexiones a Internet. Conexiones LAN. Conexiones vía módem. Unidades portables o portátiles. Unidades de cinta. Consecuencias de un virus Un virus puede causar muchos tipos de daños a un equipo. Su única limitación es la creatividad de su creador. La siguiente lista describe los síntomas más habituales de infección de virus en un equipo: El equipo no arrancará. Se modifican o se dañan los datos. El equipo funciona de forma errónea. La partición se ha perdido. La unidad de disco duro se vuelve a formatear. El síntoma más habitual de infección de un virus en una red se refleja en un mal funcionamiento de una o más estaciones de trabajo. Una red peer-to-peer es más vulnerable. En una red peer-to-peer todas las cosas se comparten de la misma forma; por tanto, cualquier equipo infectado tiene acceso directo a cualquier equipo o recurso compartido en la red. Las redes basadas en servidor tienen algunos mecanismos de protección predefinidos, puesto que se requieren permisos para acceder a algunas partes del servidor y, por tanto, a la red. En estas redes, es más probable que se infecten las estaciones antes que un servidor, aunque los servidores no están inmunes. El servidor, como canal de comunicación de un equipo a otro, participa en la transmisión del virus, pero incluso podría no verse afectado por el virus. Prevención de virus Los virus destructivos se están convirtiendo en virus muy habituales y deben tenerse en cuenta cuando se desarrollan los procedimientos de la seguridad de la red. Una estrategia efectiva de antivirus constituye una parte esencial de una planificación de red. Resulta esencial un buen software antivirus. Aunque la protección de virus no puede prevenir antes todos los posibles virus, sí puede realizar lo siguiente: Avisar de un virus potencial. Evitar la activación de un virus. Eliminar un virus. Reparar algunos de los daños ocasionados por el virus. Detectar un virus después de activarse. Prevenir el acceso no autorizado a la red constituye una de las mejores formas de evitar un virus. Por ejemplo, la mejor forma de evitar la infección de un virus a través de un disquete es utilizar la protección de escritura. Si no puede escribir en un disquete, no puede infectarlo. Dado que la prevención es clave, el administrador de la red necesita asegurarse de que se realizan todas las medidas de prevención propuestas. Éstas incluyen: Contraseñas para reducir la posibilidad de acceso no autorizado. Accesos y asignaciones de privilegios bien planificados para todos los usuarios Perfiles de usuario para estructurar el entorno de red del usuario, incluyendo las conexiones de red y los elementos de programa que aparecen cuando el usuario entra en el sistema. Una política o normativa que especifique el software a cargar. Una política que especifique reglas para la implementación de la protección de virus en las estaciones de los clientes y servidores de red. Asegurar que todos los usuarios están bien informados de todos los virus informáticos y de cómo evitar la activación de dichos virus. Mantenimiento de un entorno de red operativo El entorno físico donde reside una red es un factor importante a considerar en el mantenimiento de una red de equipos físicamente segura. Aquí presentamos este aspecto de la gestión de la red, frecuentemente pasado por alto y que pretende garantizar un entorno operativo para los equipos, periféricos y red asociada así como comprobar qué se puede realizar para mantener operativo el entorno de red. Los equipos y el entorno La mayor parte de los tipos de equipamiento electrónico, tales como equipos, son rígidos y fiables, funcionando durante años con un pequeño mantenimiento. Los equipos incluso han estado en la Luna y han regresado. Sin embargo, existen impactos ambientales muy negativos que inciden en el equipamiento electrónico, a pesar de no ser siempre dramáticos. Un proceso de deterioro lento, pero continuo puede generar problemas intermitentes, cada vez más frecuentes, hasta provocar un fallo catastrófico en el sistema. Detectar estos problemas antes de que ocurran y llevar a cabo los pasos apropiados, permite prevenir o minimizar estos fallos. Al igual que los humanos, los equipos y equipamiento electrónico se ven afectados por las condiciones ambientales. Aunque más tolerantes y probablemente menos predispuestos a la queja, los equipos y equipamiento de la red necesitan entornos específicos para funcionar de forma apropiada. La mayoría de los equipos se instalan en áreas controladas desde un punto de vista medioambiental, pero incluso con estos controles, se tiene que los equipos no son inmunes a los efectos que los rodean. Cuando se identifica el efecto negativo que ejercen las condiciones ambientales sobre la red de equipos, el primer paso es considerar las condiciones climáticas de la región. La instalación de una red en el Ártico o Antártico estará sujeta a condiciones muy diferentes de las presentes en una red localizada en una jungla tropical. Una red instalada en una zona con clima ártico sufrirá cambios extremos de temperatura, mientras que una red instalada en un entorno tropical experimentará una gran humedad. Diferentes circunstancias climáticas requieren llevar a cabo un conjunto de pasos que permitan asegurar que el entorno no afecta, de forma negativa, a la red. Se asumen las mismas condiciones ambientales para los equipos que las que prevalecen en las oficinas. Esta suposición es bastante precisa para un equipo personal o estación de trabajo. Sin embargo, una estación de trabajo individual constituye sólo una parte de la red. Recuerde que el cableado de la red se instala en paredes y techos, sótanos e incluso algunas veces fuera de los edificios. Por tanto, muchos factores ambientales pueden afectar a estos componentes y generar como situación extrema un deterioro o ruptura de la red. Cuando se planifica o mantiene una red, es importante pensar en términos de red global (completa), visible o no, y no sólo en los componentes locales que se ven cada día. Los desastres provocados por el entorno ambiental son normalmente el resultado de un largo período de deterioro lento, más que una consecuencia de una catástrofe repentina. Como muestra un ejemplo, considere un cortaúñas. Déjelo expuesto a los elementos ambientales y comprobará que gradualmente se oxida, no se puede utilizar e incluso llega a desintegrarse. De forma similar, las redes implementadas en entornos de riesgo podrían funcionar correctamente durante algunos años. Sin embargo, comenzarán a aparecer problemas intermitentes e incrementando el número y frecuencia de estos problemas hasta que se provoque una caída de la red. Creación del entorno adecuado En la mayoría de las grandes organizaciones, el departamento de gestión y de personal es responsable de proporcionar un entorno seguro y confortable para los empleados. Las organizaciones gubernamentales regulan el entorno de trabajo para las personas. Esta regulación o guía no existe para el caso de las redes. Es responsabilidad del administrador de la red crear las políticas que gobiernen prácticas seguras alrededor del equipamiento de la red e implementar y gestionar el entorno de trabajo apropiado para la red. Un entorno operativo para el equipamiento de red es bastante parecido al entorno humano saludable; el equipamiento electrónico se diseña para trabajar con el mismo rango de temperatura y humedad que identifican las personas como entorno confortable. Temperatura El parámetro básico ambiental que controlamos es la temperatura. Los hogares, oficinas y lugares de trabajo presentan diferentes medios para controlar la temperatura. El equipamiento electrónico, normalmente, tiene diseñado un ventilador que permite mantener la temperatura dentro de unos límites específicos, puesto que genera calor durante su funcionamiento. No obstante, si la temperatura de la habitación donde se ubica el equipamiento es demasiado alta, tanto las ranuras de ventilación como el propio ventilador no serán suficientes para mantener la temperatura de funcionamiento adecuada y los componentes comenzarán a calentarse provocando el fallo. De forma alternativa, si la temperatura externa es demasiado fría, los componentes podrían dejar de funcionar. Un entorno donde está continuamente cambiando la temperatura de calor a frío presenta el peor escenario para el equipamiento electrónico. Estos cambios extremos provocan la dilatación y contracción de los componentes de metal que, eventualmente, pueden generar situaciones de fallo del equipamiento. Humedad La factores relacionados con la equipamiento electrónico. Las altas corrosión tiene lugar primero en los las conexiones de los cables, así humedad pueden tener dos efectos negativos en el humedades provocan la corrosión. Normalmente, esta contactos eléctricos y estos contactos con corrosión en como la dilatación de la tarjeta, provocarán fallos intermitentes. Además, la corrosión puede incrementar la resistencia de los componentes eléctricos, provocando un incremento de temperatura que puede generar un fallo en los componentes o, incluso, un incendio. En los edificios con presencia de calor, es habitual tener un entorno de baja humedad. Las descargas eléctricas estáticas son más habituales en entornos de baja humedad y pueden dañar seriamente los componentes electrónicos. Dado que tenemos un menor control sobre la humedad, los administradores de la red necesitan conocer las consecuencias que provocan una humedad alta o baja e -implementar resguardos apropiados donde prevalezcan estas condiciones. La mayoría del equipamiento funcionará correctamente en entornos con un porcentaje de humedad relativa de entre 50 y 70 por 100. Cuando se implementa una red grande que incluya una habitación dedicada al servidor, debería considerar en esta habitación el control de la temperatura y humedad. Polvo y humo El equipamiento electrónico y los equipos no funcionan correctamente con polvo y humo. El equipamiento electrónico atrae electrostáticamente al polvo. Una acumulación de polvo provoca dos efectos negativos: el polvo actúa como un aislante que afecta al sistema de ventilación de los componentes, causando un calentamiento, y, por otro lado, el polvo puede contener cargas eléctricas, haciéndose conductor de la corriente. El polvo excesivo en el equipamiento electrónico puede provocar cortocircuitos y fallos catastróficos en el equipamiento. El humo provoca un tipo de combinación similar a los efectos del polvo. Cubre las superficies de los componentes eléctricos, actuando como un aislante y conductor. El humo también supone la acumulación de polvo. Factores humanos En el diseño de una red, podemos controlar muchos factores ambientales, como temperatura, humedad y ventilación. Aunque es posible, desde un punto de vista teórico, la creación de un entorno físico adecuado para los equipos, la entrada en escena de las personas traerá consigo modificaciones ligadas a provocar impactos en la red. Dibuje una nueva oficina, ambientalmente correcta, con equipamiento amigable, que disponga de los equipos, impresoras y escritorios más novedosos. En este espacio maravilloso, los empleados traen plantas, cuadros, radios, tazas de café, libros, papeles y estufas para los días de frío. Pronto, la oficina se llenará de empleados, muebles, armarios y material de oficina. También se producen otros cambios; la parte superior de los equipos y monitores se convierten en tableros y las cajas vacías se almacenan debajo de los escritorios muy próximas a los equipos. Debido a que muy pocos empleados conocen los requerimientos de ventilación en el equipamiento de los equipos, se tiene que impedirán el flujo natural de aire sobre y alrededor de los equipos informáticos. Una vez que esto ocurra, es imposible el mantenimiento de la temperatura apropiada y comenzarán los fallos. El vertido de líquido de refresco sobre los equipos y teclados supone también un peligro. Además, cuando se tiene una temperatura exterior fría, se utilizan las estufas en la oficinas y, normalmente, se colocan debajo de la mesa de escritorio, a menudo muy próximas a los equipos. Esto puede provocar dos problemas: que el equipo se caliente en exceso y que la estufa puede sobrecargar la salida de corriente, disparando los diferenciales de corriente, o incluso, provocando un incendio. Factores ocultos Como se ha visto anteriormente, muchos aspectos de la red no están visibles y, por tanto, fuera de nuestro pensamiento. Dado que diariamente no vemos estos elementos ocultos, suponemos que todos están correctos hasta que comienzan a generar problemas. El cableado es uno de los componentes de red que puede provocar problemas, especialmente cables que se encuentran en el suelo. Los cables de un ático se pueden dañar fácilmente debido a un accidente durante las reparaciones de otros objetos del ático. Los roedores y bichos de todo tipo son otros factores ocultos. Estos invitados no deseados salen a cenar probablemente los materiales de red o los utilizan con propósitos de construcción. Factores industriales Los equipos no están limitados al entorno ofimático, constituyen también una parte vital en el sector industrial. Al principio, los equipos se utilizaban para gestionar el flujo de trabajo a través de las operaciones de fabricación. En las plantas modernas, los equipos también desarrollan el equipamiento. El proceso de fabricación completo se puede monitorizar y controlar desde una ubicación central, mediante la integración de la tecnología de red en este entorno. Incluso, el equipamiento puede telefonear a los hogares del personal de mantenimiento cuando se produce un problema. Estas mejoras en el proceso de fabricación han provocado un incremento en la productividad, a pesar de presentar características únicas para el administrador de la red. El trabajo del equipamiento de red en un entorno de producción presenta muchos desafíos. Las propiedades necesarias a controlar cuando se implementan las redes en un entorno de fabricación incluyen la presencia de: Ruido. Interferencia electromagnéticas (EMI). Vibraciones. Entornos explosivos y corrosivos. Trabajadores no especializados y sin entrenamiento adecuado. A menudo, los entornos de fabricación ejercen un pequeño, incluso, ningún control sobre la temperatura y humedad, y la atmósfera se puede contaminar con productos químicos corrosivos. Una atmósfera corrosiva con una alta humedad puede destruir los equipos y el equipamiento de la red en cuestión de meses, e incluso, en algunos casos, en días. Los entornos de fabricación que utilizan equipamiento pesado con grandes motores eléctricos hacen estragos en la estabilidad de los sistemas operativos y la red. Para minimizar los problemas que se derivan del funcionamiento de una red en un entorno industrial, debemos: Instalar el equipamiento de red en habitaciones separadas con ventilación externa. Utilizar cableado de fibra óptica. Esto reducirá los problemas de interferencias eléctricas y corrosión del cable. Asegurar que todo el equipamiento está conectado a tierra de forma adecuada. Proporcionar el entrenamiento adecuado a todos los empleados que necesitan utilizar el equipamiento. Esto nos ayudará a garantizar la integridad del sistema. Evitar la pérdida de datos Un desastre en un sitio se define como cualquier cosa que provoca la pérdida de los datos. Muchas organizaciones grandes tienen planes de recuperación de catástrofes que permiten mantener la operatividad y realizar un proceso de reconstrucción después de ocurrir una catástrofe natural como puede ser un terremoto o un huracán. Muchas, pero desgraciadamente no todas, incluyen un plan para recuperar la red. Sin embargo, una red puede provocar un fallo desastroso a partir de muchas fuentes distintas que no tienen por qué ser catástrofes naturales. La recuperación frente a las catástrofes en una red va más allá del reemplazamiento de los dispositivos hardware. También se deben proteger los datos. Las causas de las catástrofes que se pueden provocar en una red, desde actos humanos hasta causas naturales, incluyen: Fallos de los componentes. Virus informáticos. Eliminación y corrupción de datos. Fuego causado por un incendio o desgracias eléctricas. Catástrofes naturales, incluyendo rayos, inundaciones, tornados y terremotos. Fallos en los sistemas de alimentación y sobrecarga de tensión. Robo y vandalismo. Cuando tiene lugar una catástrofe, el tiempo que se consume en la recuperación de los datos a partir de una copia de seguridad (si se dispone de ella), puede resultar una pérdida seria de productividad. No digamos si no se dispone de las correspondientes copias de seguridad. En este caso, las consecuencias son aún más severas, provocando posiblemente unas pérdidas económicas significativas. Algunas formas de evitar o recuperar datos a partir de la pérdida de los mismos, son: Sistemas de copia de seguridad de cintas. Un sistema de alimentación ininterrumpida (SAI). Sistemas tolerantes a fallos. Discos y unidades ópticas. Se pueden utilizar algunas de estas posibilidades, incluso todas, en función del valor que tienen los datos para la organización y de las restricciones presupuestarias de la propia organización. Copias de seguridad en cinta La forma más sencilla y barata de evitar la pérdida de los datos es implementar una planificación periódica de copias de seguridad. La utilización de un sistema de copias de seguridad en cintas constituye todavía una de las formas más sencillas y económicas de garantizar la seguridad y utilización de los datos. La ingenieros de red experimentados aconsejan que el sistema de copias de seguridad debe constituir la primera defensa frente a la pérdida de los datos. Una estrategia adecuada de copias de seguridad minimiza el riesgo de pérdida de datos manteniendo una copia de seguridad actualizada (copias de archivos existentes) y permitiendo la recuperación de los archivos si se produce un daño en los datos originales. Para realizar la copia de seguridad de los datos se requiere: Equipamiento apropiado. Una planificación adecuada para los períodos de realización de las copias de seguridad. Garantizar la actualización de los archivos de copias de seguridad. Personal asignado para garantizar que se lleva a cabo esta planificación. Normalmente, el equipamiento está constituido por una o más unidades de cinta y las correspondientes cintas u otros medios de almacenamiento masivo. Cualquier inversión que se realiza en esta área será, probablemente, mínima en comparación con el valor que supone la pérdida de los datos. Implementación de un sistema de copias de seguridad La regla es sencilla: si no puedes pasar sin él, realiza una copia de seguridad. La realización de copias de seguridad de discos completos, directorios seleccionados o archivos dependerá de la rapidez que se necesita para ser operativo después de una pérdida importante de datos. Las copias de seguridad completas hacen mucho más sencilla la restauración de las configuraciones de los discos, pero pueden requerir múltiples cintas si se dispone de grandes cantidades de datos. La realización de copias de seguridad de archivos o directorios individuales podría requerir un número menor de cintas, pero implica que el administrador restaure manualmente las configuraciones de los discos. Las copias de seguridad de los datos críticos deben realizarse diariamente, semanalmente o mensualmente dependiendo del nivel crítico de los datos y de la frecuencia de actualización de los mismos. Es mejor planificar las operaciones de copias de seguridad durante los períodos de baja utilización del sistema. Los usuarios deberían recibir notificación de la realización de la copia de seguridad para que no utilicen los servidores durante el proceso de copia del servidor. Selección de una unidad de cinta Dado que la mayoría de las copias de seguridad se realiza en unidades de cinta, el primer paso es seleccionar una unidad de cinta, teniendo en cuenta la importancia de diferentes factores como: La cantidad de datos necesarios a copiar en las copias de seguridad. Los requerimientos de la red para garantizar la velocidad, capacidad y fiabilidad de las copias de seguridad. El coste de la unidad de cinta y los medios relacionados. La compatibilidad de la unidad de cinta con el sistema operativo. Lo ideal sería que una unidad de cinta tuviera una capacidad suficiente para realizar la copia de seguridad del servidor más grande de una red. Además, debería proporcionar detección y corrección de errores durante las operaciones de copia y restauración. Métodos de copias de seguridad Una política o normativa de copias de seguridad eficiente utiliza una combinación de los siguientes métodos: Copia de seguridad completa: Se copian y se marcan los archivos seleccionados, tanto si han sido modificados como si no desde la última copia de seguridad. Copia: Se copian todos los archivos seleccionados sin marcarlos cuando se realiza la copia de seguridad. Copia incremental: Se copian y se marcan los archivos seleccionados que han sido modificados desde la última copia de seguridad realizada. Copia diaria: Se copian sólo aquellos archivos que se modifican diariamente, sin marcarlos cuando se realiza la copia de seguridad. Copia de seguridad diferencial: Se copian sólo los archivos seleccionados si han sido modificados desde la última copia de seguridad, sin marcarlos cuando se realiza la copia de seguridad. Las copias se pueden realizar en cintas siguiendo un ciclo semanal múltiple, dependiendo del número de cintas disponibles. Ninguna regla rígida gobierna la longitud del ciclo. En el primer día del ciclo, el administrador realiza una copia de seguridad completa y sigue con una copia incremental los día sucesivos. El proceso comienza de nuevo cuando finaliza el ciclo completo. Otro método es planificar flujos de copias de seguridad a lo largo del día. Prueba y almacenamiento Los administradores con experiencia comprueban el sistema de copias de seguridad antes de llevarlo a cabo. Realizan una copia de seguridad, borran la información, restauran los datos e intentan utilizar estos datos. El administrador debería comprobar regularmente los procedimientos de copia para verificar que aquello que esperamos incluir en la copia de seguridad es realmente lo que se está copiando. De igual forma, el procedimiento de restauración debería comprobarse para garantizar que los archivos importantes se pueden restaurar rápidamente. Lo ideal sería que un administrador realizara dos copias de cada cinta: una para tenerla dentro del sitio y la otra almacenada fuera de la oficina en un lugar seguro. Recuerde que, aunque el almacenamiento de las cintas en un lugar seguro a prueba de incendios puede mantener la integridad de las cintas, es conveniente destacar que el calor procedente de un incendio arruinará los datos almacenados en dichas cintas. Además, después de un uso repetido, las cintas pierden la capacidad de almacenar datos. Reemplace las cintas, de forma habitual, para asegurar un buen procedimiento de copias de seguridad. Mantenimiento de un registro de copia de seguridad El mantenimiento de un registro de todas las copias de seguridad es crítico para una recuperación posterior de los archivos. Se debe mantener una copia de este registro junto a las cintas de copias de seguridad, así como en el sitio donde se ubican los equipos. El registro debería registrar la siguiente información: Fecha de la copia de seguridad. Número de cinta. Tipo de copia de seguridad realizada. Equipo que ha sido copiado. Archivos de los que se ha realizado copia de seguridad. Quién ha realizado la copia de seguridad. Ubicación de las cintas de copia de seguridad. Instalación del sistema de copias de seguridad Las unidades de cinta se pueden conectar a un servidor o a un equipo y estas copias se pueden iniciar a partir del equipo que tiene conectada la unidad de cinta. Si se realizan copias de seguridad desde un servidor, las operaciones de copia y restauración pueden realizarse rápidamente puesto que los datos no tienen que viajar a través de la red. La realización de las copias de seguridad a través de la red es la forma más eficiente de generar la copia de seguridad de múltiples sistemas. Sin embargo, se produce un incremento en el tráfico de red retardándola, de forma considerable. Además, el tráfico de la red puede provocar una caída importante en el rendimiento. Ésta es una de las razones que justifican la realización de las copias de seguridad durante períodos de baja utilización del servidor. Si una ubicación incluye múltiples servidores, la colocación de un equipo encargado de realizar las copias de seguridad en un segmento aislado puede reducir el tráfico derivado del proceso de copia. El equipo encargado de la copia se conecta a una NIC diferente en cada servidor. Sistemas de alimentación ininterrumpida (SAI) Un sistema de alimentación ininterrumpida (SAI) es un generador de corriente externo y automatizado diseñado para mantener operativo un servidor u otro dispositivo en el momento de producirse un fallo de suministro eléctrico. El sistema SAI tiene la ventaja de proporcionar alimentación de corriente ininterrumpida que puede actuar de enlace a un sistema operativo, como puede ser Windows NT. Los SAI estándares ofrecen dos componentes importantísimos: Una fuente de corriente que permite mantener operativo un servidor durante un corto período de tiempo. Un servicio de gestión de apagado seguro. La fuente de corriente es normalmente una batería, pero el SAI también puede ser un motor de gasolina que hace funcionar un generador de corriente AC. Si la corriente falla, el SAI notifica y advierte a los usuarios del fallo para finalizar todas las tareas. A continuación, el SAI se mantiene durante un tiempo predeterminado y comienza a realizar una operación apropiada de apagado del sistema. Un buen SAI permitirá: Evitar que muchos usuarios accedan al servidor. Enviar un mensaje de advertencia al administrador de la red a través del servidor. Normalmente el SAI se ubica entre el servidor y la toma de corriente. Si la corriente se restablece aun estando activo el SAI, éste notificará a los usuarios que la corriente se ha restablecido. Tipos de SAI El mejor SAI es aquel que está siempre activo o en línea. Cuando se produce un fallo en el suministro de corriente, automáticamente se activa la batería del SAI. El proceso es invisible al usuario. También existen otros sistemas SAI de espera que se inician cuando falla el suministro de corriente. Se trata de sistemas más baratos que los sistemas en línea, pero que resultan menos fiables. Implementación de un SAI Responder a las siguientes cuestiones ayudará al administrador de la red a determinar el tipo de SAI que mejor se ajusta a las necesidades de la red: ¿Va a reunir el SAI los requerimientos básicos de suministro de la red? ¿Cuántos componentes puede admitir? ¿Comunica el SAI al servidor cuando se produce un fallo de suministro de corriente y el servidor se mantiene operativo con la utilización de la baterías? Incluye el SAI en sus características la protección de la sobretensión para evitar los picos y subidas de tensión? ¿Cual es la duración de la batería del SAI? Cuánto tiempo puede permanecer activo antes de comenzar su proceso de no suministro? ¿Avisará el SAI al administrador y a los usuarios de la falta de suministro eléctrico? Sistemas tolerantes a fallos Los sistemas tolerantes a fallos protegen los datos duplicando los datos o colocando los datos en fuentes físicas diferentes, como distintas particiones o diferentes discos. La redundancia de los datos permite acceder a los datos incluso cuando falla parte del sistema de datos. La redundancia es una utilidad emergente y habitual en la mayoría de los sistemas tolerantes a fallos. Los sistemas tolerantes a fallos no se deben utilizar nunca como mecanismos que reemplazan las copias de seguridad de servidores y discos duros locales. Una estrategia de copias de seguridad planificada de forma cuidadosa es la mejor póliza de seguro para la recuperación de los datos perdidos o dañados. Los sistemas tolerantes a fallos ofrecen las siguientes alternativas para la redundancia de los datos: Distribución de discos. Duplicación de discos. Sustitución de sectores. Arrays de discos duplicados. Agrupamiento (clustering). Array redundante de discos independientes (RAID) Las opciones de la tolerancia a fallos se estandarizan y se dividen en diferentes niveles. Estos niveles se conocen como Array Redundante de Discos Independientes (RAID), anteriormente conocido como Array Redundante de Discos Baratos. Los niveles ofrecen varias combinaciones de rendimiento, fiabilidad y coste. Raid 0 - Distribución de discos La distribución de discos distribuye los datos en bloques de 64K y se propaga esta distribución entre todos los discos del array. Se necesitan dos discos como mínimo para implementarlo. No obstante, la distribución de discos no proporciona tolerancia a fallos, puesto que no existe la redundancia de los datos. Si falla cualquier partición o alguno de los discos se pierden todos los datos. Un conjunto de distribución combina múltiples áreas de espacio libre no formateado de una gran unidad lógica, distribuyendo el almacenamiento de los datos entre todas las unidades simultáneamente. En Windows NT, un conjunto de distribución requiere, al menos, dos unidades físicas y puede utilizar hasta 32 unidades físicas. Los conjuntos de distribución pueden combinar áreas en diferentes tipos de unidades, tales como unidades de interfaces de pequeños sistemas de equipos (SCSI), unidades de interfaces de pequeños dispositivos mejorados (ESDI) y unidades de dispositivos electrónicos integrados (IDE). En el caso de que tuviéramos sólo tres discos, los datos están constituidos por 192K. Los primeros 64K de datos se escriben en un conjunto de distribución del disco 1, los segundos 64K aparecen en un conjunto de distribución del disco 2 y los terceros 64K se escriben en el conjunto de distribución del disco 3. La distribución de discos tiene diferentes ventajas: hace que una partición grande se divida en diferentes pequeñas particiones ofreciendo un mejor uso del espacio de disco y, por otro lado, los múltiples controladores de disco provocarán un mejor rendimiento. Está recomendado para edición de video, edición de imágenes, aplicaciones pre-impresión y para cualquier aplicación que requiera un alto nivel de transferencia de datos. Raid 1 - Duplicación de discos o discos Espejo La duplicación de discos realmente duplica una partición y desplaza la partición duplicada a otro disco físico. Siempre existen dos copias de los datos, con cada copia en un disco distinto. Se puede duplicar cualquier partición. Esta estrategia es la forma más sencilla de proteger de fallos un único disco. La duplicación de discos se puede considerar como un mecanismo de copia de seguridad continua, puesto que mantiene una copia completa redundante de una partición en otro disco. La duplicación de discos consta de un par de discos duplicados con un controlador de disco adicional en la segunda unidad. Esto reduce el tráfico en el canal y mejora potencialmente el rendimiento. La duplicación se diseñó para proteger los fallos de los controladores de disco y los fallos del medio. Es un sistema de RAID que se implementa normalmente por software, lo que requiere más ciclos de CPU, con lo que puede degradar el sistema, aparte de no poder realizar el cambio en caliente del disco que se averíe, por lo que sería recomendable implementarlo sobre hardware. El nivel de transacciones que se alcanza es el mismo que si se tuviese un sólo disco, y está recomendado para sistemas de contabilidad, nóminas, financiero o cualquier aplicación que requiera una alta disponibilidad. RAID 0+1: Altas prestaciones en la Transferencia de Datos RAID 0+1 requiere un mínimo de 4 discos para poder implementarlo y combina un sistema de discos espejo junto con dos sistemas de discos con distribución de bandas RAID 0, con lo consigue niveles de tolerancia a fallos similares a RAID 5. RAID 0+1 tiene el mismo sistema de escritura que un sistema de discos espejo independiente y las altas tasas de transferencia de datos se consiguen gracias a la implementación del Conjunto de Bandas. Es una excelente solución para los sitios que necesitan una alta tasa de transferencia de datos y no se preocupan por lograr la máxima fiabilidad del sistema. RAID 0+1 no hay que confundirlo con RAID 10. Un simple fallo en la escritura en el disco convierte al sistema en un Conjunto de Bandas RAID 0. Es un sistema muy caro de implementar, con una escalabilidad muy pequeña. Está recomendado para servidor de aplicaciones y de ficheros en general. Raid 2 - Distribución de discos con ECC Cuando se escribe un bloque de datos, el bloque se divide y se distribuye (intercalado) entre todas las unidades de datos. El código de corrección de errores (ECC; Error Correction Code) requiere una gran cantidad de espacio de disco superior a la que requieren los métodos de comprobación de paridad. Aunque este método ofrece una mejora en la utilización de disco, es peor en comparación con el nivel 5. El coste es el más elevado de todos los sistemas RAID que existen y el nivel de transferencia de datos es similar a la de un sólo disco. No existen implementaciones por hardware, por lo que hay que implementarlo a través de software, con lo que conlleva de costo adicional para la CPU. Raid 3 - Bandas de discos con ECC almacenado como paridad La distribución de discos con ECC almacenado como paridad es similar al nivel 2. El término paridad se refiere a un procedimiento de comprobación de errores donde el número de unos debe ser siempre el mismo (par o impar) para cada grupo de bits transmitidos sin presencia de errores. En esta estrategia, el método ECC se reemplaza por un esquema de comprobación de paridad que requiere sólo un disco para almacenar los datos relativos a la paridad. Es un sistema recomendado para aplicaciones de produción de video, edición de imágenes, edición de video, aplicaciones pre-impresión y cualquier aplicación que requiera un elevado transvase de datos. Raid 4 - Bandas de discos a grandes bloques con la paridad almacenada en una unidad Esta estrategia pasa del intercalado de datos a la escritura de bloques completos en cada disco del array. Este proceso se conoce todavía como distribución de discos, pero se lleva a cabo con bloques grandes. Se utiliza un disco de comprobación distinto para almacenar la información de la paridad. Cada vez que se realiza una operación de escritura, debe leerse y modificarse la información de paridad asociada en el disco de comprobación. Debido a esta sobrecarga, el método de bloques intercalados funciona mejor para operaciones de grandes bloques que para procesamiento basado en transacciones. Es un sistema que ofrece dificultades y es ineficiente a la hora de recuperar los datos de un disco que se haya averiado y el nivel de transferencia de datos es similar al de un disco solo. Raid 5 - Bandas de discos con paridad distribuida por varias unidades La distribución con paridad es actualmente el método más popular para el diseño de la tolerancia a fallos. Admite desde tres unidades hasta un máximo de 32 y escribe la información de paridad en todos los discos del array (el conjunto de distribución completo). La información de paridad y los datos se ordenan, de forma que siempre se almacenan en discos diferentes. Aparece un bloque de distribución de paridad para cada distribución (fila) presente a través del disco. El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Si falla una sola unidad, se propaga la suficiente información a través del resto de disco permitiendo que los datos se reconstruyan completamente. El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico que falla. Existe un bloque de distribución de paridad para cada distribución (fila) a través del disco. RAID 4 almacena el bloque de distribución de paridad en un disco físico y RAID 5 distribuye la paridad, de igual forma, entre todos los discos. Es un sistema recomendado para servidores de aplicaciones y fichero, servidor de Bases de Datos, servidores Web, de Correo y de noticias, servidores intranet y sistemas que necesiten una alta escalabilidad. RAID 6: Discos de datos independientes con dos esquemas de paridad distribuidos independientemente. Es en esencia un a extensión del sistema de RAID 5, con un nivel más e tolerancia a fallos ya que usa un segundo esquema de paridad independiente del primero. Los datos se distribuyen en bloques a través de los discos como en el sistema RAID 5 y la segunda paridad es calculada y escrita en todos los discos. Provee un sistea extremadamente alto de tolerancia a fallos y puede solventar muy bien los posibles problemas de escrituras en disco. Es una solución perfecta para soluciones críticas. Las desventajas son que necesita un complejo sistema de diseño y tiene una muy pobre prestación en escritura, ya que tiene que calcular dos esquemas de paridad a la hora de escribir en disco. Requiere dos disco más que los que necesitemos para datos para manejar los dos esquemas de paridad. RAID 7: Asincronía optimizada para altas prestaciones de Entrada y Salida (I/O) y elevadas necesidades de Transferencias de Datos Todas las transferencias de I/O son asíncronas, independientemente de la controladora y de la caché de la interfaz de transferencia. Todos los discos leen y escriben centralizadamente a través de un bus de alta velocidad y el disco dedicado a la paridad se encuentra en otro canal independiente. Todo el proceso se lleva acabo, en tiempo real, por el Sistema Operativo instalado y el microprocesador. El sistema operativo controla en tiempo real el canal de comunicaciones. Un sistema abierto usa normalmente controladoras SCSI, buses de PC normales, motherboards y memoria SIMMs. La paridad se genera íntegramente en la caché. En conjunto los procesos de escritura superan entre un 25% y un 90% a los sistemas de un solo disco y 1.5 a 6 veces a cualquier otro sistema RAID Las interfaces de controladoras son escalables tanto para la conectividad como para el aumento de transferencia de datos. Para ambientes multiusuario y lecturas pequeñas utiliza un sistema de elevada caché que produce accesos a los datos en tiempos cercanos a cero. El tiempo de escritura mejora con el aumento de unidades de discos en la serie y los tiempos de acceso disminuyen a medida que se trabaja con el sistema RAID. Ninguna transferencia de datos en el RAID requiere un cambio en la paridad. RAID 7 es una marca registrada de Storage Computer Corporation. Presenta varias desventajas, una de ellas es que es un sistema propietario de un fabricante y el costo por Mb es muy alto, con una garantía muy corta. Debido a estas desventajas no es un sistema que pueda utilizar el usuario corriente y siempre se debe proveer de un Sistema de Alimentación Ininterrumpida para prevenir la posible pérdida de datos: Raid 10 - Arrays de unidades duplicadas RAID nivel 10 duplica los datos en dos arrays idénticos de unidades RAID 0 y tiene la misma tolerancia a fallos que un RAID 1. Los altos niveles de transferencia de I/O de datos se alcanzan gracias al sistema de Bandas RAID 1 Es un sistema muy caro de implementar con una escalabilidad muy limitada y está recomendado para sistema que necesiten un grado muy alto de tolerancia a fallos o para servidor de Bases de Datos. Raid 53 - High I/O capacidad de Lectura y escritura (I/O) y prestaciones de transferencias de datos RAID 53 se debería llamar realmente RAID 03, ya que realmente implementa un conjunto distribución de discos (RAID 0) junto al sistema de bandas de disco con paridad (RAID 3). RAID 53 tiene la misma tolerancia a fallos que RAID 3 y requiere un mínimo de 5 discos para implementarlo. La alta tasa de transferencia de datos se logran gracias al uso de RAID 3 y los altos ratios de I/O para pequeñas solicitudes se consiguen gracias a la implementación del sistema de distribución de discos RAID 0. Quizá una solución buena para sitios que hubiesen funcionado correctamente con RAID 3 pero necesitasen un complemento para lograr grandes prestaciones de lectura y escritura (I/O). Las desventajas que presenta este sistema RAID es que se necesita mucha experiencia para poder implementarlo. Todos los discos deben sincronizarse y con la distribución de discos se consigue un pobre aprovechamiento de la capacidad de los discos. Sustitución de sectores El sistema operativo Windows NT Server ofrece una utilidad adicional de tolerancia a fallos denominada «sustitución de sectores», también conocida como «hot fixing». Esta utilidad incorpora automáticamente en el sistema de archivos posibilidades de recuperación de sectores mientras esté funcionando el equipo. Si se localizan los sectores malos durante la E/S (entrada/salida) del disco, el controlador de la tolerancia a fallos intenta mover los datos a un sector no dañado y marcar el sector erróneo. Si la asignación es correcta, no se alerta al sistema de archivos. Los dispositivos SCSI pueden realizar la sustitución de sectores, mientras que los dispositivos ESDI e IDE no pueden llevar a cabo este proceso. Algunos sistemas operativos de red, tales como Windows NT Server, tienen una utilidad que notifica al administrador de todos los sectores dañados y la pérdida potencial de datos si falla la copia redundante. Microsoft Clustering (agrupamiento) Microsoft Clustering es una implementación de agrupamiento de servidores de Microsoft. El término «clustering» se refiere a un grupo de sistemas independientes que funcionan juntos como un único sistema. La tolerancia a fallos se ha desarrollado dentro de la tecnología de agrupamiento o clustering. Si un sistema dentro del grupo o cluster falla, el software de agrupamiento distribuirá el trabajo del sistema que falla entre los sistemas restantes del grupo. El agrupamiento no se desarrolló para reemplazar las implementaciones actuales de los sistemas tolerantes a fallos, aunque proporciona una mejora excelente. Implementación de la tolerancia a fallos La mayoría de los sistemas operativos de red más avanzados ofrecen una utilidad para la implementación de la tolerancia a fallos. En Windows NT Server, por ejemplo, el programa Administrador de discos se utiliza para configurar la tolerancia a fallos en Windows NT Server. La interfaz gráfica del Administrador de discos realiza, de forma sencilla, el proceso de configurar y gestionar el particionamiento de discos y las opciones de la tolerancia a fallos. Si mueve un disco a un controlador diferente o modifica su ID, Windows NT lo reconocerá como disco original. El Administrador de discos se utiliza para crear varias configuraciones de disco, incluyendo: Conjuntos de distribución con paridad, que acumulan múltiples áreas de disco en una gran partición, distribuyendo el almacenamiento de los datos en todas las unidades simultáneamente, agregando la información de paridad relativa a la tolerancia a fallos. Conjuntos de duplicación, que generan un duplicado de una partición y la colocan en un disco físico distinto. Conjuntos de volúmenes, que acumulan múltiples áreas de disco en una gran partición, completando las áreas en serie. Conjuntos de distribución, que acumulan múltiples áreas de disco en una gran partición, distribuyendo, de forma simultánea, el almacenamiento de los datos en todas las unidades. Unidades y discos ópticos El término «unidad óptica» es un término genérico que se aplica a diferentes dispositivos. En la tecnología óptica, los datos se almacenan en un disco rígido alternando la superficie del disco con la emisión de un láser. La utilización de unidades y discos ópticos se ha hecho muy popular. A medida que evoluciona la tecnología de los CD-ROM originales de sólo lectura y lectura-escritura a las nuevas tecnologías DVD, se están utilizando muchísimo estos dispositivos para almacenar grandes cantidades de datos recuperables. Los fabricantes de unidades ópticas proporcionan un gran array de configuraciones de almacenamiento que están preparadas para las redes o se pueden utilizar con un servidor de red. Constituyen una opción excelente para las copias de seguridad permanentes. Existen diferentes posibilidades en esta tecnología. Tecnología de CD-ROM Los discos compactos (CD-ROM) constituyen el formato más habitual de almacenamiento óptico de datos. La mayoría de los CD-ROM sólo permiten leer la información. El almacenamiento en CD ofrece muchas ventajas. La especificación ISO 9660 define un formato internacional estándar para el CD-ROM. Tienen una alta capacidad de almacenamiento, hasta 650 Mb de datos en un disco de 4,72 pulgadas. Son portables y reemplazables y debido a que no se pueden modificar los datos de un CD-ROM (si es de sólo lectura), tenemos que los archivos no se pueden eliminar de forma accidental. Los formatos de grabación estándares y los lectores, cada vez, más económicos hacen que los CD sean ideales para el almacenamiento de datos. Puede utilizar ahora este medio para actualizaciones incrementales y duplicaciones económicas. Además, los CD-ROM se ofrecen en un formato de reescritura denominado CD de reescritura. Tecnología de disco de vídeo digital (DVD) La familia de formatos de los discos de vídeo digital (DVD) están reemplazando a la familia de formatos de los CD-ROM. La tecnología de disco de vídeo digital (DVD), también conocida como «disco digital universal», es muy reciente y, por tanto, relativamente inmadura. DVD tiene cinco formatos: DVD-ROM, DVD-Vídeo, DVD-Audio, DVD-R («R» para especificar «gravable») y DVD-RAM. DVD-R es el formato de una sola escritura (actualizaciones incrementales). Especifica 3,95 GB para disco de una sola cara y 7,9 GB para los discos de doble cara. DVD-RAM es el formato para los discos de múltiples escrituras. Especifica 2,6 GB para discos de una sola cara y 5,2 GB para los discos de doble cara, con un cartucho de discos como opción. DVDROM (discos de sólo lectura) son similares a los CD-ROM y tienen una capacidad de almacenamiento de 4,7 GB (una cara, un nivel), 9,4 GB (doble cara, un nivel), 8,5 GB (doble nivel, una cara), 17 GB (doble nivel, doble cara). Son formatos compatibles con CD-audio y CD-ROM. Las unidades de DVD-ROM pueden utilizar DVD-R y todos los formatos de DVD. UDF es el sistema de archivos para DVD-R. Tecnología WORM (una escritura, múltiples lecturas) La tecnología WORM (una escritura, múltiples lecturas) ha ayudado a iniciar la revolución del proceso de generación de imágenes documentales. WORM utiliza la tecnología láser para modificar, de forma permanente, los sectores del disco y, por tanto, escribir permanentemente archivos en el medio. Dado que esta alteración es permanente, el dispositivo puede escribir sólo una vez en cada disco. Normalmente, WORM se emplea en los sistemas de generación de imágenes donde las imágenes son estáticas y permanentes. Tecnología óptica reescribible Se están empleando dos nuevas tecnologías que utilizan tecnología óptica reescribible. Estas tecnologías incluyen los discos magneto-ópticos (MO) y los discos rescribibles de cambio de fase (PCR; Phase Change Rewritable). Se están utilizando más las unidades MO, puesto que los fabricantes del medio y unidades utilizan los mismos estándares y, por tanto, sus productos son compatibles. Los dispositivos PCR, proceden de un fabricante (Matsushita/Panasonic) y el medio procede de dos fabricantes (Panasonic y Plasmon). Unidades de múltiples funciones Existen dos versiones de unidades ópticas de múltiples funciones. Una utiliza firmware en la unidad que, primero, determina si se ha formateado un disco para una sola escritura o para múltiples escrituras y, a continuación, actúa sobre el disco de la forma apropiada. En la otra versión de MO, se utilizan dos medios completos diferentes. Los discos de múltiples escrituras son discos MO convencionales, pero el medio de una sola escritura es el medio WORM tradicional. Recuperación frente a catástrofes El intento de recuperación frente a una catástrofe, independientemente de la causa, puede constituir una experiencia terrible. El éxito de la recuperación depende de la implementación frente a catástrofes y del estado de preparación desarrollado por el administrador de la red. Prevención de catástrofes La mejor forma de recuperarse frente a un desastre es, en primer lugar, evitarlo antes de que ocurra. Cuando se implementa la prevención de catástrofes se debe: Enfocar los factores sobre los que se tienen control. Determinar el mejor método de prevención. Implementar y forzar la medidas preventivas que se seleccionen. Comprobar continuamente nuevos y mejores métodos de prevención. Realizar un mantenimiento habitual y periódico de todas las componentes hardware y software de la red. Recordar que el entrenamiento es la clave de la prevención de las catástrofes de tipo humano que pueden afectar a la red. Preparación frente a las catástrofes No todas las catástrofes se pueden evitar. Cada jurisdicción tienen un plan de contingencia frente a catástrofes y se gastan muchas horas cada año en la preparación de este plan. Dado que cada comunidad es diferente, los planes de recuperación tendrán en cuenta distintos factores. Si, por ejemplo, vive en una zona de inundaciones, debería tener un plan para proteger la red frente a niveles muy altos de concentración de agua. Cuando se considera la protección frente a las catástrofes, necesitará un plan para el hardware, software y datos. Se pueden reemplazar las aplicaciones software y hardware y los sistemas operativos. Pero para realizar esto, es necesario, primero, conocer exactamente los recursos que se disponen. Realice un inventario de todo el hardware y software, incluyendo fecha de compra, modelo y número de serie. Los componentes físicos de una red se pueden reemplazar fácilmente y, normalmente, están cubiertos por algún tipo de seguro, pero el problema se plantea con los datos que son altamente vulnerables a las catástrofes. En caso de incendio, puede reemplazar todos los equipos y hardware, pero no los archivos, diseños y especificaciones para un proyecto multimillonario que ha preparado la organización durante el último año. La única protección frente a las catástrofes que implican la pérdida de datos es implementar un método de copias de seguridad o más de uno de los descritos anteriormente. Almacene las copias de seguridad en un lugar seguro, como puede ser una caja de seguridad de un banco, lejos del sitio donde se ubica la red. Para conseguir una recuperación total frente a cualquier catástrofe, necesitará: Realizar un plan de recuperación. Implementar el plan. Comprobar el plan. 5.4.2 Selección de una red Igual a Igual o una Cliente – Servidor. Establecimiento de un entorno cliente/servidor Las grandes redes están basadas en el modelo cliente/servidor. Computación centralizada frente al modelo cliente/servidor Las primeras redes estaban basadas en el modelo de computación centralizada. Generalmente, en estas redes un gran servidor (un equipo mainframe o gran equipo) manejaba todos los aspectos de la red, mientras que cada usuario accedía al servidor principal desde un terminal. Como el equipo centralizado gestionaba todas las tareas de cálculo de alto nivel, generalmente los terminales eran económicos, equipos de bajo rendimiento. Actualmente, gracias a las mejoras obtenidas por la rápida evolución del equipo personal, el antiguo modelo centralizado está siendo sustituido por el modelo cliente/servidor. Hoy en día los usuarios tienen toda la potencia de un equipo mainframe al alcance de sus dedos, con la ventaja añadida de disponer de una red interconectada. Computación centralizada En el entorno tradicional de grandes equipos, una aplicación tal como una base de datos se ejecuta en un gran equipo mainframe central y potente al que se accede mediante terminales. El terminal envía una petición de información al equipo mainframe; el mainframe recupera la información y la muestra en el terminal. La respuesta completa viaja desde el servidor a través de la red, y es descargada en el cliente que hace la petición. El acceso a los archivos tiene lugar a través del sistema operativo de red (NOS; Network Operating System) y el cable. Hay muy poca coordinación entre el terminal y el mainframe. Los datos son procesados en el mainframe y luego entregados al terminal. La transferencia de datos entre el terminal y el mainframe incrementa el tráfico de la red y disminuye la velocidad de procesamiento de las peticiones de otros terminales. Computación cliente/servidor El término «computación cliente/servidor» se refiere a un modelo en el que el procesamiento de datos es compartido entre el equipo cliente y el equipo servidor, más potente. El enfoque cliente/servidor puede beneficiar a cualquier organización en la que muchas personas necesiten acceder continuamente a grandes cantidades de datos. La red cliente/servidor es la forma más eficaz de ofrecer: Acceso y gestión de bases de datos para aplicaciones tales como hojas de cálculo, contabilidad, comunicaciones y gestión de documentos. Gestión de la red. Almacenamiento centralizado de archivos. Introducción al modelo cliente/servidor La mayoría de las redes trabajan bajo el modelo cliente/servidor, también conocido como «redes basadas en servidor». Una estación cliente realiza una petición de datos que están almacenados en un servidor. La estación cliente procesa los datos usando su propia CPU. Los resultados del procesamiento pueden ser almacenados entonces en el servidor para su uso futuro. Los datos también pueden ser almacenados en la estación cliente, a los que pueden acceder otras estaciones cliente de la red. En las redes Trabajo en Grupo, en las que no hay un servidor centralizado, cada estación cliente actúa a la vez como cliente y servidor. Para ver un ejemplo de cómo funciona el modelo cliente/servidor vamos a observar una aplicación de gestión de bases de datos. En el modelo cliente/servidor, el software cliente utiliza el lenguaje de consulta estructurado (SQL, Structured Query Language), para traducir lo que ve el usuario en una petición que pueda comprender la base de datos. SQL es un lenguaje de consulta de bases de datos similar al inglés desarrollado originalmente por IBM para ofrecer un método relativamente simple de manipular datos (la manipulación de datos incluye su introducción, su recuperación o su edición). Otros fabricantes de bases de datos se dieron cuenta de que sería más fácil desarrollar aplicaciones de bases de datos utilizando un lenguaje común de bases de datos. Por tanto, éstos dieron soporte a SQL, y se convirtió en un estándar de la industria. En la actualidad, la mayoría de los sistemas de gestión de bases de datos utilizan SQL. El proceso cliente/servidor La consulta a la base de datos es enviada por el cliente, pero procesada en el servidor. A través de la red, sólo se devuelven los resultados hacia el cliente. El proceso de solicitar y recibir información consta de seis pasos: 1. 2. 3. 4. datos. 5. 6. El cliente solicita datos. La petición es traducida a SQL. La petición SQL es enviada por la red al servidor. El servidor de bases de datos busca en el equipo donde se encuentran los Los registros seleccionados son devueltos al cliente. Los datos son presentados al usuario. El entorno cliente/servidor tiene dos componentes principales: end. La aplicación, a menudo denominada como «cliente» o front-end. El servidor de bases de datos, a menudo denominado como «servidor» o back- El cliente El usuario genera una petición en el front-end. El cliente ejecuta una aplicación que: Presenta una interfaz al usuario. Formatea las peticiones de datos. Muestra los datos recibidos del servidor. En un entorno cliente/servidor, el servidor no contiene el software de interfaz de usuario. El cliente es responsable de presentar los datos en un formato que resulte útil. El usuario introduce las instrucciones desde el equipo cliente. El equipo cliente prepara la información para el servidor. El equipo cliente envía una petición de información específica al servidor a través de la red. El servidor procesa la petición, localiza la información adecuada y la devuelve al cliente a través de la red. El equipo cliente envía entonces la información a la interfaz, que presenta la información al usuario. El equipo cliente también puede procesar adicionalmente la información, utilizando su propia CPU y software. Uso del front-end Los front-end pueden presentar a los usuarios la misma información de formas distintas, dependiendo de la petición. Por ejemplo, los datos que indican que Colón cruzó por primera vez el océano Atlántico en 1492, pueden ser organizados y presentados en varios contextos, incluyendo: Viajes oceánicos. Descubrimientos de Colón. Conquistas de 1492. Mares cruzados por Colón. Como otro ejemplo, vamos a considerar a nuestro fabricante de bicicletas personalizadas. La compañía guarda toda la información sobre clientes y productos en una base de datos. Pero esta información puede ser recuperada, organizada y presentada a través del front-end de varias formas: El departamento de publicidad puede enviar correos publicitarios a los clientes que tienen un cierto código postal. Los distribuidores pueden saber cuáles son los artículos en stock. Los departamentos de servicios pueden identificar cuáles son los clientes a los que hay que dar servicio. Los departamentos de pedidos pueden ver el historial de compras de cada cliente. Los departamentos de contabilidad pueden evitar que un cliente moroso pida nuevos productos. Cada departamento necesita un front-end diseñado para acceder a la base de datos común y recuperar información para una necesidad determinada. Herramientas front-end Existen diversas herramientas, aplicaciones y utilidades disponibles para el front-end para hacer que el proceso cliente/servidor sea más eficiente. Estas herramientas incluyen: Herramientas de consulta. Estas herramientas utilizan consultas predefinidas y capacidades propias de generación de informes para ayudar a que los usuarios accedan a datos del servidor. Aplicaciones de usuario. Muchos programas habituales de aplicación, como Microsoft Excel, pueden ofrecer acceso front-end a bases de datos situadas en servidores. Otras, como Microsoft Access, incluyen su propio SQL para ofrecer una interfaz para sistemas de gestión de bases de datos de diversos fabricantes. Herramientas de desarrollo de programas. Muchas instalaciones cliente/servidor necesitan aplicaciones especiales front-end personalizadas para sus trabajos de recuperación de datos. Para ello, se dispone de herramientas de desarrollo de programas, como Microsoft Visual Basic, para ayudar a los programadores a desarrollar herramientas front-end para acceder a datos de servidores. El servidor Generalmente, en un entorno cliente/servidor el servidor se dedica a almacenar y gestionar datos. Éste es el lugar en el que se lleva a cabo la mayor parte de actividad relacionada con bases de datos. El servidor también es denominado como el back-end del modelo cliente/servidor porque responde a las peticiones del cliente. El servidor recibe las peticiones estructuradas de los clientes, las procesa y envía la información solicitada al cliente de nuevo a través de la red. El software de base de datos del servidor de archivos responde a las peticiones de los clientes ejecutando búsquedas. Como parte de un sistema cliente/servidor, sólo devuelve el resultado de las búsquedas. El procesamiento back-end incluye la ordenación de datos, la extracción de los datos solicitados y la devolución de los datos al usuario. Adicionalmente, el software servidor para bases de datos gestiona los datos de una base de datos, incluyendo operaciones de: Actualización. Borrado. Inserción. Seguridad. Procedimientos almacenados Los procedimientos almacenados son pequeñas rutinas de procesamiento de datos preescritas, que ayudan a los detalles del procesamiento de datos. Los procedimientos son almacenados en el servidor, y pueden ser usados por el cliente. Los procedimientos almacenados ayudan a procesar los datos. Un procedimiento almacenado puede ser usado por cualquier número de clientes, evitando la necesidad de incorporar la misma rutina en el código de cada programa. Estos procedimientos almacenados: Realizan parte del procesamiento llevado a cabo generalmente en el cliente. Reducen el tráfico de la red, ya que una simple llamada del cliente al servidor puede iniciar una serie de procedimientos almacenados, que en caso contrario requerirían varias peticiones. Pueden incluir controles de seguridad para evitar que usuarios no autorizados ejecuten algunos de los procedimientos. Hardware del servidor Generalmente, los equipos servidor de un entorno cliente/servidor deben ser más potentes y rápidos que los equipos cliente. Además de un procesador de alta velocidad, estos equipos necesitan gran cantidad de RAM y de espacio en unidades de disco. Estos equipos también deben ser capaces de gestionar: Múltiples peticiones. Seguridad. Tareas de gestión de la red Cualquier organización que implemente una red cliente/servidor debe usar servidores dedicados para gestionar las funciones back-end. Arquitectura cliente/servidor Hay varias posibles organizaciones cliente/servidor: Los datos pueden ser introducidos en un único servidor. Los datos pueden estar distribuidos entre varios servidores de bases de datos. Las posiciones de los servidores dependerán de la ubicación de los usuarios y la naturaleza de los datos. Los servidores de una WAN sincronizan periódicamente sus bases de datos para asegurarse de que todos tienen los mismos datos. Un data warehouse almacena grandes volúmenes de datos y envía los datos más solicitados a un sistema intermedio que es capaz de formatear los datos en su forma más requerida. A menudo, esto descarga parte del procesamiento de datos del servidor principal a otros servidores. Ventajas del uso de un entorno cliente/servidor La tecnología cliente/servidor crea un potente entorno que ofrece muchas ventajas reales a las organizaciones. Un sistema cliente/servidor bien planificado proporciona redes relativamente económicas. Estos sistemas ofrecen una capacidad de procesamiento del nivel de un mainframe, permitiendo en cambio una fácil personalización para aplicaciones específicas. Como el modelo cliente/servidor sólo envía los resultados de una consulta a través de la red, reduce el tráfico de la red. El modelo cliente/servidor utiliza un potente servidor para almacenar los datos. La estación cliente puede procesar parte o todos los datos solicitados. En una red cargada, esto implica que el procesamiento será distribuido con más eficiencia que en un sistema tradicional basado en mainframe. Como los servicios de archivos y los datos están en el servidor back-end, resulta más fácil administrar los servidores y mantenerlos en un lugar seguro en una única ubicación. Los datos están más seguros en un entorno cliente/servidor, ya que pueden ser guardados en un área segura, lejos de los usuarios. Los datos también están más seguros cuando se utiliza la seguridad basada en Windows NT Server para evitar el acceso no autorizado a los archivos. Cuando los datos están almacenados en un número limitado de ubicaciones y son gestionados por una única autoridad, las copias de seguridad se simplifican. 5.5 Planeación y diseño de una LAN. El diseño de red puede tener en cuenta varias tecnologías, como, por ejemplo, Token Ring, FDDI y Ethernet. Este diseño se centra en la tecnología Ethernet, dado que ésta es la tecnología que aparecerá más a menudo cuando realice la planificación de diseños futuros. Ethernet tiene una topología de bus lógica, que tiene como resultado la existencia de dominios de colisión. Sin embargo, se deberá intentar que estos dominios sean pequeños mediante el proceso llamado segmentación. Una vez que se ha decidido utilizar la tecnología Ethernet, deberá desarrollar una topología de LAN de Capa 1. Deberá determinar el tipo de cable y la topología física (cableado) a utilizar. La elección más común es UTP CAT 5 como medio y una topología en estrella extendida como topología física (cableado). A continuación, deberá decidir cuál de las distintas topologías Ethernet deberá utilizar. Dos tipos comunes de topologías Ethernet son 10BASE-T y 100BASE-TX (Fast Ethernet). Si dispone de los recursos necesarios, puede utilizar 100BASE-TX en toda la red. De no ser así, podrá utilizar Fast Ethernet para conectar el servicio de distribución principal (punto de control central de la red) con otros servicios de distribución intermedios. Podrá usar hubs, repetidores y transceivers en su diseño, junto con otros componentes de Capa 1 tales como conectores, cables, jacks y paneles de conexión. Para terminar el diseño de Capa 1, deberá generar una topología lógica y una física. (Nota: Como siempre, una parte importante del diseño incluye la documentación del trabajo). El siguiente paso consiste en desarrollar una topología de LAN de Capa 2, es decir, agregar dispositivos de Capa 2 a la topología a fin de mejorar sus capacidades. Puede agregar switches para reducir la congestión y el tamaño de los dominios de colisión. En un futuro, es posible que tenga la posibilidad de reemplazar hubs por switches y otros dispositivos menos inteligentes de Capa 1 por dispositivos más inteligentes de Capa 2. El siguiente paso consiste entonces en desarrollar una topología de Capa 3, es decir, agregar dispositivos de Capa 3, que también aumentan las capacidades de la topología. En la Capa 3 es donde se implementa el enrutamiento. Puede utilizar routers para crear internetworks escalables como, por ejemplo, LAN, WAN o redes de redes. Los routers imponen una estructura lógica en la red que está diseñando. También se pueden utilizar para la segmentación. Los routers, a diferencia de los puentes, switches y hubs, dividen los dominios de colisión y de broadcast. También se debe tener en cuenta el enlace de LAN a las WAN e Internet. Como siempre, debe documentar las topologías física y lógica del diseño de red. La documentación debe incluir ideas, matrices de resolución de problemas y cualquier otra nota que haya realizado mientras tomaba sus decisiones. Para que una LAN sea efectiva y pueda satisfacer las necesidades de los usuarios, se debe implementar siguiendo una serie sistemática de pasos planificados. Mientras aprende acerca del proceso de diseño, y a crear sus propios diseños, debe hacer uso frecuente de su diario de ingeniería. El primer paso en el proceso es reunir información acerca de la organización. Esta información debe incluir: 1. 2. 3. 4. 5. Historia de la organización y situación actual Crecimiento proyectado Políticas de operación y procedimientos administrativos Sistemas y procedimientos de oficinas Opiniones del personal que utilizará la LAN Es de esperarse que este paso también lo ayude a identificar y definir cualquier cuestión o problema que deba tratarse (por ej., puede encontrar alguna sala alejada en el edificio que no tenga acceso a la red). El segundo paso es realizar un análisis y evaluación detallados de los requisitos actuales y proyectados de las personas que usarán la red. El tercer paso es identificar los recursos y limitaciones de la organización. Los recursos de organización que pueden afectar a la implementación de un nuevo sistema LAN se dividen en dos categorías principales: hardware informático/recursos de software, y recursos humanos. Es necesario documentar cuál es el hardware y software existentes de la organización, y definir las necesidades proyectadas de hardware y software. Las respuestas a algunas de estas preguntas también le ayudarán a determinar cuánta capacitación se necesita y cuántas personas se necesitarán para soportar la LAN. Entre las preguntas que realice deberán figurar las siguientes: 1. 2. 3. 4. 5. ¿Cuáles son los recursos financieros disponibles de la organización? ¿De qué manera se relacionan y comparten actualmente estos recursos? ¿Cuántas personas usarán la red? ¿Cuáles son los niveles de conocimiento sobre informática de los usuarios de red? ¿Cuáles son sus actitudes con respecto a los computadores y las aplicaciones informáticas? Si sigue estos pasos y documenta la información en el marco de un informe formal, esto lo ayudará a estimar costos y desarrollar un presupuesto para la implementación de una LAN. En los campos técnicos, como la ingeniería, el proceso de diseño incluye: Diseñador: Persona que realiza el diseño Cliente: Persona que ha solicitado, y se supone que paga para que se realice el diseño Usuario(s): Persona(s) que usará(n) el producto "Brainstorming": Generación de ideas creativas para el diseño Desarrollo de especificaciones: Normalmente los números que medirán el funcionamiento del diseño Construcción y prueba: Para satisfacer los objetivos del cliente y para cumplir determinados estándares Uno de los métodos que se pueden usar en el proceso de creación de un diseño es el ciclo de resolución de problemas. Este es un proceso que se usa repetidamente hasta terminar un problema de diseño. Uno de los métodos que usan los ingenieros para organizar sus ideas y planos al realizar un diseño es utilizar la matriz de solución de problemas. Esta matriz enumera alternativas, y diversas opciones, entre las cuales se puede elegir. 5.5.1 Elaboración de un cronograma de actividades. Una buena manera de empezar a buscar una ubicación para el centro de cableado consiste en identificar ubicaciones seguras situadas cerca del POP. La ubicación seleccionada puede servir como centro de cableado único o como MDF, en caso de que se requieran IDF. El POP es donde los servicios de telecomunicaciones, proporcionados por la compañía telefónica, se conectan con las instalaciones de comunicación del edificio. Resulta esencial que el hub se encuentre ubicado a corta distancia, a fin de facilitar una networking de área amplia y la conexión a Internet. En el gráfico del plano de piso, se han seleccionado cinco ubicaciones para los centros de cableado. Se encuentran marcadas en el gráfico como "A", "B", "C", "D" y "E". La topología que se utiliza cuando se requiere más de un centro de cableado, es la topología en estrella extendida. Como el equipamiento más complejo se encuentra ubicado en el punto más central de la topología en estrella extendida, a veces se conoce como topología en estrella jerárquica. En la topología en estrella extendida existen dos formas mediante las cuales un IDF se puede conectar al MDF. En primer lugar, cada IDF se puede conectar directamente a la instalación de distribución principal. En ese caso, como el IDF se encuentra en el lugar donde el cableado horizontal se conecta con un panel de conexión en el centro de cableado, cuyo cableado backbone luego se conecta al hub en el MDF, el IDF se conoce a veces como conexión cruzada horizontal (HCC). El MDF se conoce a veces como la conexión cruzada principal (MCC) debido a que conecta el cableado backbone de la LAN a Internet. El segundo método de conexión de un IDF al hub central utiliza un "primer" IDF interconectado a un "segundo" IDF. El "segundo" IDF se conecta entonces al MDF. El IDF que se conecta con las áreas de trabajo se conoce como conexión cruzada horizontal. Al IDF que conecta la conexión cruzada horizontal con el MDF se le conoce como conexión cruzada intermedia (ICC). Observe que ninguna área de trabajo o cableado horizontal se conecta con la conexión cruzada intermedia cuando se usa este tipo de topología en estrella jerárquica. Cuando se produce el segundo tipo de conexión, TIA/EIA-568-A especifica que no más de un ICC se puede atravesar para alcanzar el MCC. 5.5.2 Diseño conceptual por dispositivos. 5.5.3 Diseño en base a planos con especificaciones. 5.6 Instalación y administración básica de una LAN. 5.6.1 Instalación del cableado bajo las normas TIA/EIA. El estándar TIA/EIA-568-A especifica que en una LAN Ethernet, el tendido del cableado horizontal debe estar conectado a un punto central en una topología en estrella. El punto central es el centro de cableado y es allí donde se deben instalar el panel de conexión y el hub. El centro de cableado debe ser lo suficientemente espacioso como para alojar todo el equipo y el cableado que allí se colocará, y se debe incluir espacio adicional para adaptarse al futuro crecimiento. Naturalmente, el tamaño del centro va a variar según el tamaño de la LAN y el tipo de equipo necesario para su operación. Una LAN pequeña necesita solamente un espacio del tamaño de un archivador grande, mientras que una LAN de gran tamaño necesita una habitación completa. El estándar TIA/EIA-569 especifica que cada piso deberá tener por lo menos un centro de cableado y que por cada 1000 m 2 se deberá agregar un centro de cableado adicional, cuando el área del piso cubierto por la red supere los 1000 m 2 o cuando la distancia del cableado horizontal supere los 90 m. El cableado estructurado está diseñado para usarse en cualquier cosa, en cualquier lugar, y en cualquier momento. Elimina la necesidad de seguir las reglas de un proveedor en particular, concernientes a tipos de cable, conectores, distancias, o topologías. Permite instalar una sola vez el cableado, y después adaptarlo a cualquier aplicación, desde telefonía, hasta redes locales Ethernet o Token Ring, o para tecnologías emergentes como ATM (Modo de Transferencia Asíncrona). Mediante la adopción bilateral de normas por parte de fabricantes de cable básico y de equipo electrónico, se hace posible la implantación de un cableado flexible. Si además el usuario final sigue esas mismas normas, entonces cualquier aplicación, cable, conector, o dispositivo electrónico construido bajo estas normas, trabajará en el mismo sistema. La norma central que especifica un género de sistema de cableado para telecomunicaciones que soporte un ambiente multi producto y multi proveedor, es la norma ANSI/TIA/EIA-568-A, "Norma para construcción comercial de cableado de telecomunicaciones". Esta norma fue desarrollada y aprobada por comités del Instituto Nacional Americano de Normas (ANSI), la Asociación de la Industria de Telecomunicaciones (TIA), y la Asociación de la Industria Electrónica, (EIA), todos de los E.U.A. Estos comités están compuestos por representantes de varios fabricantes, distribuidores, y consumidores de la industria de redes. La norma establece criterios técnicos y de rendimiento para diversos componentes y configuraciones de sistemas. Además, hay un número de normas relacionadas que deben seguirse con apego para asegurar el máximo beneficio posible del sistema de cableado estructurado. Dichas normas incluyen la ANSI/EIA/TIA-569, "Norma de construcción comercial para vías y espacios de telecomunicaciones", que proporciona directrices para conformar ubicaciones, áreas, y vías a través de las cuales se instalan los equipos y medios de telecomunicaciones. También detalla algunas consideraciones a seguir cuando se diseñan y construyen edificios que incluyan sistemas de telecomunicaciones. Otra norma relacionada es la ANSI/TIA/EIA-606, "Norma de administración para la infraestructura de telecomunicaciones en edificios comerciales". Proporciona normas para la codificación de colores, etiquetado, y documentación de un sistema de cableado instalado. Seguir esta norma, permite una mejor administración de una red, creando un método de seguimiento de los traslados, cambios y adiciones. Facilita además la localización de fallas, detallando cada cable tendido por características tales como tipo, función, aplicación, usuario, y disposición. ANSI/TIA/EIA-607, "Requisitos de aterrizado y protección para telecomunicaciones en edificios comerciales", que dicta prácticas para instalar sistemas de aterrizado que aseguren un nivel confiable de referencia a tierra telecomunicaciones subsecuentemente instalados. eléctrica, para todos los equipos de Cada uno de estas normas funciona en conjunto con la 568-A. Cuando se diseña e instala cualquier sistema de telecomunicaciones, se deben revisar las normas adicionales como el código eléctrico nacional (NEC) de los E.U.A., o las leyes y previsiones locales como las especificaciones NOM (Norma Oficial Mexicana). Subsistemas de la norma ANSI/TIA/EIA-568-A La norma ANSI/TIA/EIA-568-A especifica los requisitos mínimos para cableado de telecomunicaciones dentro de edificios comerciales, incluyendo salidas y conectores, así como entre edificios de conjuntos arquitectónicos. De acuerdo a la norma, un sistema de cableado estructurado consiste de 6 subsistemas funcionales: 1. Instalación de entrada, es el punto donde la instalación exterior y dispositivos asociados entran al edificio. Este punto puede estar utilizado por servicios de redes públicas, redes privadas del cliente, o ambas. Este es el punto de demarcación entre el portador y el cliente, y en donde están ubicados los dispositivos de protección para sobrecargas de voltaje 2. El cuarto, local, o sala de máquinas o equipos es un espacio centralizado para el equipo de telecomunicaciones (v.g., PBX, equipos de cómputo, conmutadores de imagen, etc.) que da servicio a los usuarios de la oficina, negocio o edificio. 3. El eje de cableado central proporciona interconexión entre los gabinetes de telecomunicaciones, locales de equipo, e instalaciones de entrada. Consiste de cables centrales, interconexiones principales e intermedias, terminaciones mecánicas, y puentes de interconexión. Los cables centrales conectan gabinetes dentro de un edificio o entre edificios. 4. Gabinete de telecomunicaciones es donde terminan los cables de distribución horizontal y el eje de cableado central, conectado con puentes o cables de puenteo, a fin de proporcionar conectividad flexible para extender los diversos servicios a los usuarios en las tomas o salidas de telecomunicaciones. 5. El cableado horizontal consiste en el medio físico usado para conectar cada toma o salida a un gabinete. Se pueden usar varios tipos de cable para la distribución horizontal. Cada tipo tiene sus propias limitaciones de desempeño, tamaño, costo, y facilidad de uso. (Véase, más adelante.) 6. El área de trabajo, sus componentes llevan las telecomunicaciones desde la unión de la toma o salida y su conector donde termina el sistema de cableado horizontal, al equipo o estación de trabajo del usuario. Todos los adaptadores, filtros, o acopladores usados para adaptar equipo electrónico diverso al sistema de cableado estructurado, deben ser ajenos a la toma o salida de telecomunicaciones, y están fuera del alcance de la norma 568-A Topología de conexión en estrella Figura 2. Topología de Estrella La norma 568-A especifica que un sistema de cableado estructurado utiliza una topología de estrella. Cada área de trabajo a la salida o toma de telecomunicaciones debe estar conectada a un panel dentro del gabinete de telecomunicaciones. Todos los cables en el piso o área de trabajo, se tienden por consiguiente, hacia un punto central para administración. Cada gabinete a su vez debe estar cableado en estrella hacia el local o sala de equipos del edificio. En el caso de conjuntos arquitectónicos, cada edificio debe conectarse en estrella hacia un área central de administración. El uso de topología de estrella elimina muchos de los contratiempos de los sistemas privados. Primero, se puede hacer funcionar la estrella física como si fuera una topología de anillo, o una lineal, de modo que en caso de falla en una estación, la electrónica de la red puede saltar o ignorar dicha estación en particular. Esto mantiene los problemas de cada estación en carácter estrictamente local, evitando así las caídas del sistema global. El cableado en estrella permite cambios a nivel aplicativo tales como ir de aplicaciones basadas en anillos o cadenas, a otras de orientación lineal, sin cambio alguno al cableado físico, ahorrando por consiguiente, tiempo, dinero, y esfuerzo. Con buena planeación, se logra facilidad de conversión de una misma toma, en salida telefónica o para estación de trabajo, con solo cambiar de enchufe los conectores dentro de los gabinetes y obviamente el equipo que va conectado a la toma, sin necesidad de agregar cable adicional. Código de colores El cable UTP contiene cables de colores y aunque en el mercado se puede comprar los Patch Cord, tal vez tengamos que armar nuestros propios cables para unir al closet de comunicaciones con el área de trabajo. La norma TIA/IEA 568-A nos proporciona un código de colores para poder realizar nuestro cables, cabe mencionar que podemos elegir cualquier configuraciones de colores que nosotros queramos, pero siempre es mejor escuchar la voz de un experto (TIA/EIA). Figura 12. Código de Colores 5.6.2 Instalación del Sistema Operativo de Red. Para poder hacer una selección adecuada del NOS, es importante tener una opinión objetiva de personas que han experimentado, o están de alguna manera involucradas en el funcionamiento de estos sistemas, ya que al haberse enfrentado personalmente con uno o más de ellos, tienen una perspectiva un poco más amplia de sus pros y contras. A continuación, se presentan una serie de listas que proporcionan las ventajas y desventajas de los tres NOS cliente/servidor y punto a punto más populares, basadas en una ardua recopilación de opiniones, comentarios y sugerencias, de profesionales tanto del área comercial y empresarial, como del entorno académico. Ventajas y desventajas de los NOS NOVELL NETWARE Ventajas: - NDS (Servicio de Directorios de Red) ofrece un directorio global y escalable, que puede diseñarse para gestión centralizada o descentralizada. - Excelente administración de redes en gran escala. - Es un sistema operativo de red independiente del hardware. - Ofrece el mejor sistema de impresión y archivos. - Excelente nivel de seguridad. - Soporta aplicaciones a través de Módulos cargables de NetWare (NLM). - La gran infraestructura de Novell es capaz de dar soporte técnico y asistencia por mucho tiempo. - Cuando se descubre un error en la versión reciente de NetWare, Novell hace públicas las posibles soluciones para usuarios nuevos y antiguos. - Mientras más grande sea la red se reduce el costo. Desventajas: - NDS es bastante complejo de instalar y administrar. - NetWare está perdiendo mercado por la complejidad de NetWare 4.1 y NDS. - La plataforma de NetWare está un tanto limitada al proveer otros servicios fuera de servidor de archivos e impresión. - Servicios como FTP o HTTP requieren comprar software adicional de Novell. - La actualización de una versión a otra es lenta y compleja. - Puede ser caro para redes pequeñas. WINDOWS NT SERVER Ventajas: - Proporciona una plataforma de propósito general superior. - Soporta múltiples procesadores. - Excelente seguridad. - Existe una gran variedad de aplicaciones diseñadas exclusivamente para NT, incluyendo freeware y shareware. - Es fácil de instalar y manejar. - Tiene una interfaz de usuario muy amigable. - NT es GUI (Interfaz Gráfica de Usuario) y OS (Sistema Operativo) a la vez. - NT tiene el respaldo de Microsoft, la compañía más poderosa en software del mundo. - NT está a punto de incorporar soporte completo para UNIX. - Tiene buen soporte técnico. - NT es económico para entornos medianos. Desventajas: - Es un poco lento como servidor de archivos e impresión. - No soporta cotas de disco. - Cuando se descubre un error en la versión reciente del sistema, Microsoft se espera al lanzamiento de la siguiente versión para solucionarlo. - Presenta serias dificultades en entornos muy grandes. - Mientras crece la infraestructura, el costo de NT sube. - Necesita muchos recursos de cómputo para funcionar correctamente. UNIX Ventajas: - Sistema multiusuario real, puede correr cualquier aplicación en el servidor. - Es escalable, con soporte para arquitectura de 64 bits. - El costo de las diferentes variantes de Unix es muy reducido y algunas son gratis, como FreeBSD y Linux. - Se pueden activar y desactivar drivers o dispositivos sin necesidad de reiniciar el sistema. - UNIX puede trabajar con CLI (Command Line Interface). - Los kernels de Unix se confeccionan según las necesidades. - Los estándares son diferentes de los proveedores (POSIX). - Ofrece la capacidad de realizar cómputo remotamente. - Es la mejor solución para enormes bases de datos. Desventajas: - La interfaz de usuario no es muy amistosa en algunas versiones. - Requiere capacitación, ya que debido a su complejidad, no cualquiera puede usarlo. - Padece de la falta de aplicaciones comerciales con nombres importantes. - La efectividad como servidor de archivos e impresión no es tan eficiente como en otros NOS. - Hay discrepancias entre los distintos diseñadores y vendedores de UNIX. MACINTOSH Ventajas: - Utiliza el microprocesador Power PC, que por su velocidad y eficiencia tiene un futuro promisorio. - Ambiente de usuario amigable. Es el NOS más sencillo de usar. - Capacidades poderosas en el manejo y diseño de gráficos. - Compatibilidad consigo mismo. Al comprar nuevo hardware o software, es mucho menos propenso a fallas de instalación. - Seguridad para servidor de Internet. - Características de Plug and Play. - Longevidad. En Macintosh los cambios drásticos de arquitecturas que descontinúan aplicaciones, no se dan. - Fácil manejo de red. Desventajas: - Participación de mercado muy reducida. - No es compatible con PC's y otras arquitecturas. - No existen clones. - Algunas veces hay problemas con la multitarea. Una aplicación puede impedir que otras funcionen. WINDOWS 95 Ventajas: - Corre en microprocesadores Intel y compatibles. Es el más común. - Interfaz de usuario muy amigable. - Dominio del mercado. - Características de Plug and Play. - Soporte técnico por dondequiera. - Compatible con NT hasta cierto punto. - Muchas aplicaciones disponibles. - Facilidad de conexión en red. Desventajas: - El viejo MS-DOS todavía se encuentra detrás de Windows 95. - Contiene algunos errores de fábrica. - Limitaciones en nombres de archivo. - Incompatibilidades en nombres de archivo con Windows 3.1 - Es más lento en ambientes multitarea que otros NOS (Macintosh). - Incompatible con versiones escalables de software de aplicación. LANTASTIC Ventajas: - Maneja niveles de seguridad muy buenos. (Mejor que cualquier otro NOS de punto a punto). - Es económico. - Soporta más de 500 usuarios. - Fácil instalación y operación. - Fácil interfaz con Microsoft y Novell. Desventajas: - Se tiene que hacer un gasto extra para adquirirlo. (Windows 95 y Macintosh incluyen gratis software de red punto a punto). - No existe soporte para LANtastic en todos lados. - Participación de mercado reducida. Costos de los NOS A la hora de iniciar un proyecto, el factor económico juega una pieza clave en la decisión a tomar, y la selección de un NOS no es la excepción. El costo varía entre cada NOS, partiendo desde precios bastante altos, hasta sistemas de distribución gratuita. El pagar más por un NOS no significa que éste vaya a resultar más productivo para la organización que uno de bajo costo, por lo que se debe buscar aquél que cumpla con las expectativas de la empresa, tratando, claro, que el desembolso sea siempre el menor posible. Enseguida se presenta información reciente sobre los costos de varios NOS analizados en este trabajo. Windows 5 10 50 NT 4.0 (Microsoft) usuarios = $ 809 usuarios = $ 1,129 usuarios = $ 4,799 USD USD USD NetWare 5 10 50 4.11 (Novell) usuarios = $ 1,095 usuarios = $ 2,095 usuarios = $ 4,995 USD USD USD NetWare 5 (Novell) 5 usuarios = $ 1,195 10 usuarios = $ 2,190 USD USD 50 usuarios = $ 5,320 USD Linux Gratis ó $ 49.95 USD (CD-ROM). Sin restricción de licencias. Macintosh (Apple) Actualización al sistema 8.5, $ 99 USD UnixWare (Santa Cruz Operation, SCO) $ 69 USD por unidad LANtastic (Artisoft) 1 usuario = $ 119 USD 10 usuarios = $ 499 USD X usuarios = $ 999 USD LAN Server (IBM) 1er servidor = $ 795 USD Cada licencia adicional = $ 715 USD Cada sistema operativo de red tiene diferentes requerimientos de hardware para funcionar correctamente, si éstos no son satisfechos, el sistema puede no operar o trabajar en un nivel muy por debajo del esperado, ocasionando serios problemas en la red. Es conveniente entonces, conocer los requerimientos de cada NOS para ver si el equipo actual los satisface o si es necesario invertir en nuevo hardware. Windows NT 4.0 - Procesador 486 a 33 MHz o superior, Pentium o Pentium PRO, para sistemas Intel y compatibles; procesador RISC compatible con Windows NT Server 4.0 para sistemas basados en RISC. - 16 MB de memoria. - Mínimo 125 MB de espacio en disco duro para sistemas Intel y compatibles; 160 MB para sistemas basados en RISC. - Unidad de CD-ROM. - Adaptador gráfico VGA, SVGA o compatible con Windows NT Server 4.0. NetWare 4.11 Servidor: - PC con procesador 386 o superior. - 16 MB de RAM (Se requiere más memoria dependiendo del número de usuarios, lo que se haya cargado en el servidor, el número de aplicaciones abiertas y el tamaño de los discos duros de la red). - Un disco duro con suficiente espacio libre para el tamaño de la red. (NetWare 4.11 utiliza al menos 55 MB de disco duro). - Al menos un adaptador de red. - Cable de red. - Una unidad de CD-ROM para instalación. Estaciones de trabajo: - Para cada estación de trabajo se debe tener un adaptador de red y una computadora corriendo el sistema operativo cliente requerido. NetWare 5 Servidor: - PC con procesador Pentium o superior. - 64 MB de RAM. - 1 GB en disco duro. - Al menos un adaptador de red. - Cable de red. - Una unidad de CD-ROM para instalación. Estaciones de trabajo: - Para cada estación de trabajo se debe tener un adaptador de red y una computadora corriendo el sistema operativo cliente requerido. Solaris 7 - Plataforma SPARC o Intel 486 (100 MHz) al Pentium. - De 600 MB a 1 GB en disco duro. - Mínimo 32 MB. UnixWare - Soporta sistemas PCI, I2O, EISA, ISA, MCA con procesadores Intel Pentium, Pentium Pro, Pentium II y 80486DX. - Requiere unidades de disquete 3.5" y CD-ROM. - Necesita de 500 MB a 1GB de espacio en disco duro. - Mínimo 32 MB de memoria. Se recomiendan 64 MB. - Adaptador SuperVGA y monitor con al menos 800x600. Linux - Procesador Intel 386 y posteriores, SPARC, Alpha, PowerPC, etc. - Mínimo 4 MB de memoria. - De 150 a 200 MB en disco duro. VINES - PC o SMP (Super-Minicomputer Program) basada en Intel. - 16 MB de memoria. - Adaptador Ethernet, Token Ring o FDDI. LANtastic Para Windows 95/98 - Procesador 486 o superior. - 8 MB de RAM (16 MB recomendados). - 12 MB de espacio en disco duro. Para Windows 3.x - Procesador 386SX o superior. - 4 MB de RAM. - 10 MB de espacio en disco duro. Para DOS - PC XT o superior. - 640 KB de RAM. - 7 MB de espacio en disco duro. Windows 95 - PC con procesador 486 a 25 MHz o superior. - Mínimo 8 MB de memoria. - 40 a 45 MB de espacio en disco duro. - Pantalla VGA o de resolución superior. 5.6.3 Configuración de las estaciones de trabajo. Configuración de las estaciones de trabajo. Si las estaciones de trabajo trabajan con Linux configure en el Panel de Control, Información Básica del Equipo, Adaptador 1, (en Windows, configure en el Panel de Control, configuración de la Red): Dirección ip: 192.168.1.n Máscara: 255.255.255.0 Puerta de enlace o gateway: 192.168.1.1 DNS: Activar DNS y especificar el DNS de su proveedor de Internet. Reemplace la letra n de la dirección ip por el número que corresponda a su estación a partir del número 2. La puerta de enlace o gateway corresponde a la dirección del servidor Linux. El DNS debe ser activado para que funcionen todos los servicios de Internet desde las estaciones (p.e. Telnet, FTP, etc). Reinicie sus estaciones después de realizar esta configuración para activar los cambios. PREPARACION DE LA ESTACION DE TRABAJO Una computadora que pueda arrancar por si misma con un disco flexible o uno fijo puede ser una estación de trabajo. También puede ser una estación de trabajo un equipo sin disco con un PROMPT de inicialización remoto instalado en la tarjeta de interfaz antes de conectarse a la red, la estación de trabajo debe cargar el sistema operativo. Las estaciones de trabajo sin disco utilizan el disco fijo del servidor como dispositivo de arranque, de forma que la versión del sistema operativo que necesite la estación de trabajo habra de copiarse en el disco fijo, para que lo pueda utilizar la estación de trabajo durante la sesión de trabajo. Para estaciones de trabajo, se puede elegir cualquier computadora con tal que disponga de 640 KB de memoria base, ya que la memoria que consume el Shell de Netware puede impedir que funcionen satisfactoriamente algunas aplicaciones que lo hacían perfectamente en computadoras aisladas. Podríamos desear iniciar la tarea de instalar la tarjeta de red a la estación de trabajo y generar los archivos de arranque mientras otra persona está preparando o verificando la superficie del disco del servidor. Se tiene que resolver los conflictos de direciones e interrupciones al instalar la tarjeta de red en la computadora, pero este problema es menor en las estaciones de trabajo, ya que generalmente sólo se instalará una tarjeta de red. Después de haber instalado la tarjeta de red a la estación de trabajo podemos realizar la conexión del cableado de la red. Este procedimiento es opcional, ya que primero se puede instalar Netware correctamente en el servidor, y posteriormente hacer el cableado en cada una de las estaciones. 5.6.4 Administración de cuentas de usuario, grupos de trabajo. Definición y gestión de cuentas de red A medida que aumenta el tamaño de la red, el hecho de compartir recursos en ésta puede comenzar a presentar problemas. Por ejemplo, en las redes Trabajo en Grupo, se sacrifica un grado de seguridad para ofrecer sencillez. Pero imagine las consecuencias de compartir un directorio de su departamento de contabilidad (o del departamento de personal) en toda la red y quizá en todo el mundo a través de una conexión Internet. Por estas razones, entre otras, las redes de gran tamaño utilizan redes basadas en servidor. En un entorno cliente/servidor, los recursos compartidos se gestionan mediante cuentas. La creación de cuentas y la agrupación de cuentas, son una herramienta necesaria para que el administrador proporcione un mayor nivel de seguridad. Cuentas de red Las cuentas son la forma con la que los usuarios tienen acceso a impresoras, archivos y directorios compartidos. Estas cuentas son creadas y gestionadas por el administrador de la red. Una cuenta está compuesta de un nombre de usuario y de unos parámetros de inicio de sesión establecidos para ese usuario. Estos parámetros pueden incluir desde qué equipos se puede acceder, durante qué días y qué horas está permitido el acceso, contraseñas y demás. Esta información es introducida por el administrador y se guarda en la red por el sistema operativo. La red utiliza este nombre de cuenta para comprobar la cuenta cuando un usuario intente iniciar una sesión. Planificación de grupos Las cuentas de grupo no tienen privilegios de forma predeterminada. Todas las cuentas de usuario obtienen sus derechos a través de la pertenencia a un grupo Todas las cuentas de usuario de un grupo podrán tener ciertos privilegios de acceso y actividades en común, de acuerdo con el grupo en el que estén. Si el administrador asigna derechos y permisos a un grupo, puede tratar al grupo como una cuenta. Los derechos de acceso que se aplican a todo el sistema autorizan a un usuario a req lizar ciertas acciones sobre el sistema. Por ejemplo, un usuario, como miembro de up grupo, puede tener el derecho de realizar una copia de seguridad del sistema. Los grupos se utilizan para: Dar acceso a los recursos como archivos, directorios e impresoras. Los permisos que se asignan a un grupo, se asignan automáticamente a sus miembros. Dar derechos para realizar tareas del sistema, como realizar y restablecer copias de seguridad o cambiar la hora del sistema. Reducir la comunicación reduciendo el número de mensajes que se necesitan crear y enviar. Creación de cuentas de grupo Las redes pueden soportar cientos de cuentas. Hay ocasiones en las que el administrador tiene que realizar operaciones sobre algunas o todas las cuentas. Por ejemplo, a veces el administrador necesita enviar mensajes a un número elevado de usuarios para avisarles de algún evento o de una directiva de red. El administrador podría necesitar identificar cada cuenta que realiza un acceso determinado. Si hay que cambiar el acceso a 100 usuarios, el administrador tendrá que cambiar 100 cuentas. En cambio, si las 100 cuentas estuviesen colocadas en un grupo, bastaría con que el administrador enviase un mensaje a la cuenta del grupo, y cada miembro del grupo recibiría automáticamente el mensaje. Se podrían definir permisos para el grupo, y todos los miembros del grupo recibirían automáticamente los permisos. Las redes ofrecen una forma de reunir varias cuentas de usuario separadas en un tipo de cuenta denominada un grupo. Un grupo no es más que una cuenta que contiene otras cuentas. La principal razón para implementar los grupos es la de facilitar la administración. Los grupos son la forma apropiada para ayudar al administrador a gestionar un número elevado de usuarios como una única cuenta. La forma más sencilla de conceder permisos similares a un número elevado de usuarios es asignar los permisos a un grupo. Luego se añaden los usuarios al grupo. Se sigue el mismo proceso para añadir usuarios a un grupo existente. Por ejemplo, si el administrador necesita que cierto usuario tenga capacidades administrativas en la red, el administrador hará a ese usuario miembro del grupo Administradores. Creación de cuentas de usuario Todas las redes tienen una utilidad que puede ser utilizada por el administrador de forma que pueda introducir nuevos nombres de cuenta en la base de datos de seguridad de la red. A este proceso se le suele denominar como «creación de un usuario». Hay algunos convenios para la denominación de usuarios y grupos. A no ser que se diga lo contrario, en el equipo que se está administrando (y en el caso de Windows NT, en el dominio), un nombre de usuario no puede ser igual que otro nombre de usuario o de grupo. Cada sistema operativo de red tiene su propio conjunto de caracteres que pueden ser utilizados, pero normalmente, el nombre de usuario puede contener cualquier carácter alfanumérico en mayúscula o minúscula. Hay algunas excepciones estándar « / \ : ; I =, + *? < > que no se pueden utilizar en nombres de usuario. Los sistemas operativos de red también pueden contener información como el nombre completo del usuario, una descripción de la cuenta o del usuario, y la contraseña de la cuenta. Introducción de la información del usuario: La nueva cuenta de usuario contiene información que define a un usuario en el sistema de seguridad de la red. Ésta incluye: El nombre de usuario y contraseña. Privilegios del usuario para acceder al sistema y a sus recursos. Los grupos a los que pertenece la cuenta. Configuración de los parámetros del usuario: Los administradores pueden configurar una serie de parámetros de los usuarios. Entre ellos están: Tiempos de conexión. Para restringir las horas a las que se pueden conectar los usuarios. El directorio inicial. Para dar al usuario un lugar en el que pueda guardar sus archivos. La fecha de caducidad. Para limitar el acceso temporal de un usuario a la red. Cuentas de usuario clave: Los sistemas operativos de red están diseñados con ciertos tipos de cuentas de usuario creadas y que se activan automáticamente durante la instalación. La cuenta inicial: cuando se instala un sistema operativo de red, el programa de instalación crea automáticamente una cuenta con autoridad plena sobre la red. Entre otras tareas puede: Iniciar la red. Configurar los parámetros de seguridad iniciales. Crear otras cuentas de usuario. En el entorno de red Microsoft, esta cuenta se denomina administrador. En el entorno de Novell, esta cuenta se conoce como supervisor. Y en el entorno de Linux esta cuenta se conoce como root. La primera persona que suele conectarse a la red suele ser la persona que instala el sistema operativo de red. Una vez que inicia la sesión como administrador, esa persona tiene control pleno sobre todas las funciones de la red. La cuenta Invitado: esta cuenta predeterminada está dirigida a aquellas personas que no tienen una cuenta de usuario, pero necesitan acceder a la red de forma temporal. Contraseñas Las contraseñas no son necesariamente requeridas por un sistema operativo de red. En situaciones en las que la seguridad no es un problema, es posible modificar una cuenta de forma que no vuelva a necesitar una contraseña. Sin embargo, en la mayoría de las circunstancias, son necesarias las contraseñas para ayudarle a mantener la seguridad de un entorno de red. Lo primero que debería hacer un administrador al crear una cuenta es introducir una contraseña inicial. Esto previene que usuarios no autorizados se puedan conectar como administradores y crear cuentas. Los usuarios podrían crear su propia contraseña y cambiarla periódicamente. El administrador de la cuenta puede requerir esto a los usuarios automáticamente configurando una propiedad para el cambio de contraseña en un intervalo de tiempo. Hay algunas pautas que se suelen seguir para la utilización de contraseñas. Todos los usuarios, incluyendo al administrador deberían: Evitar contraseñas obvias como las fechas de nacimiento, números de seguridad social o los nombres de las parejas, hijos, mascotas y demás. Recuerde la contraseña en lugar de escribirla en un papel y pegarla en el monitor. Recuerde la fecha de caducidad de la contraseña, si es que la hay, de forma que cambie la contraseña antes de que caduque y así evitar el bloqueo de la cuenta por parte del sistema. El administrador debe quedar informado sobre los cambios de empresa de los empleados o si por algún otro motivo ya no van a ser miembros del grupo. En este caso, el administrador debería desactivar la cuenta. Desactivación y eliminación de cuentas En algunas ocasiones un administrador necesitará prevenir que se acceda a una cuenta de la red. Para esto podrá desactivar la cuenta o eliminarla. Desactivación de una cuenta: si una cuenta sólo se desactiva, sigue existiendo en la base de datos de las cuentas del sistema, pero nadie puede utilizarla para iniciar una sesión en la red. Una cuenta desactivada es como si no existiese. Es mejor que el administrador desactive una cuenta una vez que se haya enterado que el usuario ya no la va a utilizar. En el caso de que la cuenta no vaya a ser utilizada nunca más, habrá que borrarla. Eliminación de una cuenta: la eliminación de una cuenta elimina de la red la información del usuario de la base de datos de las cuentas; el usuario ya no tendrá acceso a la red. Se podrá borrar una cuenta de usuario cuando: El usuario haya abandonado la organización y ya no tenga ninguna razón ocupacional para utilizar la red. Haya acabado el contrato de trabajo del usuario. El usuario haya cambiado de puesto de trabajo en la empresa y ya no necesite utilizar la red. Administración de cuentas en un entorno Windows NT Cuentas de grupo en Windows NT Microsoft Windows NT utiliza cuatro tipos de cuentas, como se describe en la sección siguiente. Tipos de grupos En un entorno de red se utilizar los grupos locales, globales, de sistema e incorporados. Grupos locales. Están implementados en la base de datos local de cada equipo. Los grupos locales contienen cuentas de usuario y otros grupos globales que se necesitan para tener acceso, y poder definir derechos y permisos sobre un recurso en un equipo local. Los grupos locales no pueden contener a otros grupos locales. Grupos globales. Se utilizan en todo el dominio, y se crean en un controlador principal de dominio (PDC) en el dominio en el que existen las cuentas de usuario. Los grupos globales pueden contener sólo cuentas de usuario del dominio en el que se ha creado el grupo global. Aunque se pueden asignar permisos a los recursos para un grupo global, los grupos globales sólo se deberían utilizar para agrupar cuentas de usuario del dominio. Los miembros de un grupo global obtienen permisos para un recurso cuando se añade un grupo global a un grupo local. Grupos de sistema. Estos grupos organizan automáticamente los usuarios para la utilización del sistema. Los administradores no deberían incluir a los usuarios en estos grupos; los usuarios son miembros predeterminados o se convierten en miembros durante la actividad de la red. No se puede cambiar la pertenencia. Grupos incorporados. Los grupos incorporados son ofrecidos como una característica por muchas marcas de productos de red, y como su nombre indica, se incluyen con el sistema operativo de red. Los administradores pueden crear cuentas y grupos con los permisos correspondientes para realizar tareas típicas de las redes, como son las tareas de administración y mantenimiento; sin embargo, los fabricantes se han ahorrado el problema de estos grupos y cuentas proporcionando la creación de grupos locales o globales durante la instalación inicial. Los grupos incorporados se dividen en tres categorías: Miembros del grupo de administradores, que tienen posibilidades para realizar cualquier tipo de tarea en un equipo. Miembros del grupo de operadores, que tienen posibilidades limitadas para realizar ciertas tareas. Miembros de otros grupos, que tienen posibilidades para realizar tareas limitadas. Microsoft Windows NT Server ofrece los siguientes grupos incorporados. El grupo Administradores inicialmente contiene administradores locales y de dominio. Los miembros de este grupo pueden crear, eliminar y gestionar cuentas de usuarios, grupos globales y grupos locales. Pueden compartir directorios e impresoras, definir permisos y derechos sobre los recursos, e instalar archivos y programas del sistema operativo. Los grupos Usuarios e Invitados, que son globales, contienen usuarios de dominio que pueden realizar tareas para las que se les haya dado permiso. También pueden acceder a los recursos a los que se les haya dado permiso. Los grupos de usuarios pueden ser modificados por los administradores. El grupo Operadores de servidor, que sólo puede ser modificado por los administradores, puede compartir y hacer que un recurso deje de estar compartido, bloquear o retirar el bloqueo del servidor, formatear discos del servidor, iniciar sesiones en los servidores, hacer copias de los servidores y restaurarlas, y apagar los servidores. El grupo Operadores de impresión, que sólo puede ser modificado por los administradores, puede compartir, hacer que una impresora deje de esta compartida y gestionar impresoras. Este grupo también se puede conectar localmente a los servidores y apagar los servidores. Los Operadores de copia se pueden conectar localmente, hacer copias de seguridad y restaurar copias de seguridad del servidor, y apagar servidores. Los Operadores de cuentas pueden crear, eliminar y modificar usuarios, grupos globales y grupos locales, pero no pueden modificar los grupos Administradores y Operadores de servidor. El grupo Duplicadores, que puede ser modificado por los administradores, Operadores de cuentas y Operadores de servidor, se utiliza junto con el Servicio duplicador de directorios. Creación de grupos en Windows NT La interfaz de gestión de grupos en Microsoft Windows NT, se denomina Administrador de usuarios para dominios y la puede encontrar en el menú Inicio. Haga clic en Programas y seleccione Herramientas administrativas (común). En el Administrador de usuarios, haga clic en Grupo local nuevo en el menú Usuario. Esta selección le presenta un cuadro de diálogo para introducir la información para crear un nuevo grupo local. El campo Nombre de grupo identifica al grupo local. Un nombre de grupo no puede ser igual que otro nombre de grupo o de usuario en el dominio o equipo que se está administrando. Puede contener cualquier carácter en mayúscula o minúscula, y no se admiten « / \ : ; I =+ *? < >. El campo Descripción contiene texto que describe al grupo o a los usuarios del grupo. El campo Miembros muestra los nombres de usuario de los miembros del grupo. Una cuenta de grupo recién creada no tendrá miembros hasta que el administrador le asigne uno o más usuarios existentes. El administrador hace esto haciendo clic en Agregar en el cuadro de diálogo y seleccionando la cuenta de usuario que desea añadir. Cuentas de usuario en Windows NT Todas las herramientas de administración de la red se encuentran en el menú Inicio, Programas, Herramientas administrativas (Común). La utilidad de red para la creación de cuentas en Microsoft Windows NT Server se denomina Administrador de usuarios para dominios. Para administrar cuentas de usuario, haga clic en Inicio, seleccione Programas y haga clic en Herramientas administrativas (Común). Una vez que abra el Administrador de usuarios, en el menú Usuario, seleccione la opción Usuario nuevo. Aparecerá una ventana para que introduzca la información para crear un nuevo usuario. Windows NT Server ofrece una característica para la copia de cuentas. Un administrador puede crear una plantilla que tenga características y parámetros comunes a varios usuarios. Para crear una cuenta nueva con las características de la plantilla, señale la cuenta plantilla, seleccione Usuario, Copiar (F8), e introduzca el nombre del nuevo usuario y otra información de identificación (nombre completo, descripción y demás). Perfiles Puede ser útil para un administrador estructurar un entorno de red para ciertos usuarios. Por ejemplo, esto podría ser necesario para mantener niveles de seguridad, o para evitar que los usuarios que no estén lo suficientemente familiarizados con los equipos y las redes puedan tener acceso pleno al sistema. Entre los perfiles que se suelen utilizar para configurar y mantener los inicios de sesión de los usuarios, se incluyen: Conexión de impresoras. Configuración regional. Configuración de sonido. Configuración de ratón. Configuración de la pantalla. Otras configuraciones definidas por el usuario. Los parámetros de los perfiles pueden incluir condiciones especiales para las sesiones e información sobre dónde puede el usuario guardar archivos personales. Después de la instalación, Microsoft Windows NT Server desactiva de forma predeterminada la cuenta Invitado. Si se quiere utilizar, el administrador de la red tendrá que activar la cuenta. Windows NT Server utiliza la ventana Propiedades de usuario en el Administrador de usuarios para desactivar usuarios. Para desactivar un usuario, haga doble clic sobre el nombre de la cuenta, seleccione la casilla de verificación Cuenta desactivada y a continuación haga clic en Aceptar. Ahora la cuenta está desactivada. Para eliminar una cuenta, seleccione la cuenta que desee eliminar en el Administrador de usuarios y presione la tecla SUPRIMIR. Aparece un cuadro diálogo. Si hace clic sobre Aceptar, aparecerá otro cuadro de diálogo para pedirle confirmación sobre la eliminación de la cuenta especificada. Si hace clic sobre Sí eliminará la cuenta; si hace clic sobre No cancelará la operación. Nota: La eliminación de una cuenta elimina permanentemente la cuenta, junto con sus permisos y derechos asociados. Si vuelve a crear la cuenta de usuario con el mismo nombre no volverá a restaurar los derechos o permisos del usuario. Cada cuenta de un usuario tiene un identificador de seguridad único (SID) ; la eliminación y posterior creación de un usuario generará un SID nuevo sin reutilizar el anterior. Los procesos internos de Windows NT hacen referencia a SID de la cuenta en lugar de al nombre de la cuenta de usuario o del grupo. Administración de cuentas en un entorno Apple El entorno de red predeterminado incluye dos usuarios: la persona que ha instalado el sistema operativo y un invitado. La administración de una red se convierte en una tarea sencilla mediante la creación de usuarios y grupos. Creación de usuarios y grupos En el Apple Chooser seleccione Users & Groups para abrir el Panel de control de Users A Groups. Este cuadro de diálogo lista todos los usuarios y grupos de la computadora, y le permite crear, editar, duplicar y eliminar usuarios y grupos a medida que sea necesario. En AppleShare hay tres categorías de usuarios: Owner. User/Group. Everyone. Para crear un usuario nuevo, haga clic en el botón New User e introduzca la información correspondiente de este usuario. Podrá definir un nombre de usuario, una contraseña, los grupos a los que pertenece el usuario y si se le permite o no al usuario cambiar la contraseña. Para crear un grupo nuevo, haga clic en el botón New Group e introduzca la información correspondiente de este grupo. Podrá definir un nombre de grupo y el nombre de los usuarios que son miembros del grupo. Administración de cuentas en un entorno NetWare La base de la seguridad y las cuentas de NetWare son los Servicios de directorio de NetWare (NDS, NetWare Directory Services). Los NDS son una base de datos organizada jerárquicamente. La seguridad se establece a tres niveles. Cuentas. Este nivel incluye nombres de usuario, contraseñas, tiempo de estación y otras restricciones. Derechos de Trustee. Este nivel controla los directorios y archivos a los que puede acceder un usuario. Entre estos derechos se incluyen la creación, lectura, eliminación o escritura de archivos. Atributos de directorio y archivos. Este nivel determina qué acciones pueden realizar los usuarios sobre el archivo o sobre el directorio. Entre estas acciones se incluyen compartir, eliminar, copiar, veo o editar. NetWare utiliza varios convenios para los nombres. Los nombres tienen que ser únicos, no pueden incluir espacios y pueden tener hasta 64 caracteres alfanuméricos sin distinguir entre mayúsculas y minúsculas. Configuración y administración de usuarios y grupos Antes de crear, eliminar o administrar usuarios o grupos, tiene que estar conectado a la red desde una estación de trabajo o desde el servidor con privilegios de administrador. Una vez que se haya conectado, puede ejecutar la herramienta de administración fácil de Novell (NEAT; Novell Easy Administration Tool) para comenzar a administrar los usuarios y los grupos. Para hacer esto, haga doble clic en el icono NEAT. En la parte izquierda de la interfaz de usuario aparecerá el árbol que muestra todos los objetos de la red y sus relaciones. En la parte derecha aparecen las propiedades del objeto seleccionado. Para crear una cuenta de usuario para un usuario nuevo, seleccione User en el menú New de NEAT o haga clic en el botón Add a New User de la barra de herramientas. Esto abrirá un cuadro de diálogo en el que podrá introducir la información requerida, incluyendo el nombre completo del usuario, el nombre de conexión y el directorio inicial. Pulse el botón Siguiente para pasar a la página siguiente y añada este usuario a un grupo. Una vez que haya añadido el usuario a un grupo, haga clic en el botón Siguiente para pasar a la página siguiente e introducir la información de la contraseña. Si se deja en blanco, el usuario no necesitará contraseña para iniciar una sesión. Para crear otros usuarios, active la casilla de verificación Create another user antes de seleccionar el botón Finish. Para eliminar un usuario, seleccione el objeto User del directorio en el menú NEAT. A continuación, en el menú Edit, seleccione Delete selected item y haga clic en Yes. Aviso: Puede tener problemas si elimina un usuario que tenga relaciones con otro objeto, y dicho objeto está basado en el usuario que quiere eliminar. La administración de grupos es similar a la administración de usuarios. En el menú NEAT, seleccione Add a New Group. Esto ejecutará el asistente para nuevos grupos. Asegúrese de seguir los convenios para los nombres a la hora de asignar un nombre para el grupo. Una vez que haya creado el grupo, puede seleccionar el grupo y añadirle usuarios. Nota: Sólo puede añadir los usuarios que aparezcan en el directorio. Edición de propiedades de usuario o de grupo Ver o modificar las propiedades de un objeto es sencillo. Abra la herramienta de administración NEAT y seleccione el icono del objeto del directorio de la parte izquierda. En la parte derecha están las hojas de propiedades del objeto. Las propiedades del objeto están organizadas en fichas. Las propiedades de los usuarios están organizadas en cinco fichas (General, Groups, Applications, Security y Login Script). Las propiedades de los grupos están organizadas en tres fichas (Users, Security y Applications). Administración de cuentas en un entorno UNIX La mayor parte de la información de configuración de UNIX está guardada en archivos de texto que se pueden ver cuando sea necesario. Estos archivos de texto se pueden editar manualmente para añadirles usuarios y grupos y configurar sus permisos. Debido a que cada versión de UNIX varía en los detalles de la forma de modificar estos archivos, los nombres y localizaciones de estos archivos varían de un fabricante a otro. Lo mismo ocurre con las distribuciones de Linux, en las que las localizaciones de los archivos y de los directorios pueden ser diferentes. Una interfaz gráfica suele facilitar al administrador tratar con estas diferencias, ya que los parámetros de usuario y de grupo se pueden configurar mediante cuadros de diálogo interactivos. Usuarios y grupos en UNIX La cuenta inicial, el usuario administrador, suele denominarse root. El otro nombre a recordar es nobody. Grupos predeterminados de UNIX pueden ser root, bin, daemon, tty, disk, lp, mail, news, dialout, trusted, modem, users y demás. La versión de libre distribución de UNIX conocida como Linux crea una serie de cuentas. Las cuentas que se crean dependen del sistema operativo base y del software instalado. El usuario administrador, root, siempre se crea. Se crean otras cuentas predeterminadas, pero no el sentido que tenemos de las cuentas. Incluyen procesos como el protocolo de transferencia de archivos (ftp) e impresoras (lp). 5.6.5 Recursos compartidos. En una red Trabajo en Grupo podemos compartir, o hacemos disponibles a través de la red, cualquier directorio o impresora que deseemos de forma que puedan ser accedidos por otros usuarios. En redes con configuraciones de cliente/servidor, utilizaremos cuentas para establecer quién puede acceder a qué archivos, directorios e impresoras. Creación de recursos compartidos en una red Para empezar definiremos los recursos compartidos, examinaremos los recursos que se pueden compartir en una red y veremos quién puede definir los recursos compartidos. Cómo compartir recursos en una red Antes de que pueda compartir recursos con otro equipo, su equipo tiene que tener instalado un software cliente y tiene que estar configurado como cliente de una red. Tendrá que configurar la identidad del equipo en la red, permitir la compartición y definir privilegios de acceso para los recursos que quiera compartir en un equipo. El procedimiento para instalar y configurar el software del cliente depende del sistema operativo que esté utilizando y del sistema operativo de red con el que esté tratando de compartir los recursos. Cómo compartir ficheros y archivos En su forma más sencilla, compartir recursos entre equipos no es más que el paso de archivos de un equipo a otro mediante disquetes. Este método impone restricciones severas en el volumen de los datos, en la velocidad y en la distancia entre los puntos que comparten los datos, pero no obstante, este método suele ser útil. Otra técnica para compartir recursos es conectar directamente dos equipos a través del puerto de comunicaciones serie (COM) de cada equipo. Para conectar los equipos de esta forma se requiere un cable de conexión directa y software de comunicaciones serie. (Un cable de conexión directa conecta los pines de salida del puerto serie de un equipo con los pines de entrada del puerto serie del otro.) Para que se pueda utilizar la conexión física entre los dos equipos, es necesario que en cada equipo esté instalado un software de comunicaciones. Tiene que configurar un equipo como host, o servidor, y otro como cliente. De esta forma, el equipo cliente tendrá acceso a los datos del host. Aunque esto no es realmente una red de área local (LAN), es una forma práctica de proporcionar una conexión temporal entre equipos para la transferencia de archivos. Las conexiones directas por cable se suelen utilizar para compartir archivos entre un equipo de sobremesa y un ordenador portátil. Compartir información de una forma eficiente no es tan sencillo como conectar con cables los equipos. En un entorno de red, con muchos usuarios y requerimientos de trabajo, hay que definir privilegios de acceso, o permisos. Esto permite a los usuarios de la red acceder a la información correspondiente a las necesidades de su trabajo, mientras que se bloquea el acceso a accesos no autorizados a datos confidenciales o de valor. Compartir en un entorno Trabajo en Grupo La forma más sencilla y conveniente de trabajar en red es Trabajo en Grupo. En este entorno de red, los datos se comparten a nivel de unidad de disco o de carpeta. Se puede compartir cualquier unidad de disco o cualquier carpeta de una unidad de disco. Cada equipo comparte su unidad o sus carpetas en la red y cada usuario es responsable de configurar su forma de compartir. Software Para compartir en una red Trabajo en Grupo, independientemente del sistema operativo que se esté utilizando, primero hay que habilitar en el equipo el compartir archivos e impresoras. Cada sistema operativo tiene sus propios métodos para definir los recursos compartidos. Cómo compartir impresoras, unidades de disco y carpetas Una vez que se ha habilitado la compartición de recursos, puede decidir qué unidades de disco, carpetas e impresoras están disponibles en la red. Las opciones de compartir incluyen discos duros, unidades de CD-ROM, unidades de disquete y carpetas. Para definir una impresora o una de estas unidades de disco como un recurso compartido, tiene que definir cada uno como un recurso compartido y asignarle un nivel de acceso. (No se pueden compartir dispositivos como escáneres o módems.) Recuerde que una vez que un recurso está compartido en una red Trabajo en Grupo, estará disponible en toda la red. Redes Microsoft Windows 95 y 98 Software Microsoft Windows 95 y 98 incluyen varias opciones de software de cliente. El más habitual es Cliente para redes Microsoft de Microsoft. Para instalar el Cliente para redes Microsoft, abra el Panel de control y haga doble clic en el icono Red. Haga clic en Agregar para que aparezca el cuadro de diálogo Seleccione Cliente de red. Como está añadiendo un cliente de red Microsoft, seleccione Cliente y, a continuación, haga clic en Agregar. Seleccione Microsoft en la lista Fabricantes y seleccione Clientes para redes Microsoft en la lista Clientes de red. Para añadir al sistema el servicio de cliente seleccione Aceptar. En este momento, necesitará añadir un protocolo de red. El cliente para redes Microsoft se puede utilizar con los protocolos IPX/SPX, NetBEUI y TCP/IP. Seleccione el protocolo apropiado para su entorno de red. Una vez que haya instalado el software del Cliente para redes Microsoft podrá compartir recursos que utilice el protocolo SMB (Bloque de mensajes del servidor) para compartir archivos. Esto incluye a cualquier equipo que utilice Windows 95 o 98, Windows NT Workstation, Windows para trabajo en grupo o LAN Manager. Cómo compartir impresoras, unidades de disco y carpetas Una vez que ha definido la red en su equipo, puede compartir en la red directorios, carpetas e impresoras. Para compartir estos recursos tiene que activar Compartir impresoras y archivos. Haga clic con el botón derecho sobre el icono Entorno de red y seleccione Propiedades del menú para abrir el cuadro de diálogo Red. A continuación, haga clic en el botón Compartir impresoras y archivos. El cuadro de diálogo Compartir impresoras y archivos contiene dos casillas de verificación: Permitir que otros usuarios tengan acceso a mis archivos. Permitir que otros usuarios impriman en mis impresoras. Puede seleccionar cualquiera de las dos casillas de verificación, o incluso las dos. Una vez que haya activado las casillas de verificación deseadas, puede comenzar a compartir los recursos de su equipo. Aunque haya activado la compartición de recursos en su equipo, sus recursos no estarán disponibles en la red hasta que no haya indicado qué recursos desea compartir. Para compartir una unidad de disco o una carpeta, abra el Explorador de Windows, haga clic con el botón derecho sobre el icono de la unidad de disco o sobre el de la carpeta y seleccione Compartir en el menú. Esto muestra la ficha Compartir en el cuadro de diálogo Propiedades correspondiente a la unidad de disco o a la carpeta. Si selecciona el botón de opción Compartido como puede definir el nombre y añadir una breve descripción al recurso compartido. (El botón de opción es un pequeño círculo que aparece en el cuadro de diálogo al lado de cada opción; cuando se seleccionan, aparece dentro de ellos un pequeño círculo negro.) En el área Tipo de acceso del cuadro de diálogo puede seleccionar el botón de opción correspondiente a cualquiera de los tres tipos de acceso. La selección de Sólo de lectura restringe el acceso a una carpeta de forma que su contenido pueda ser leído y copiado, pero nunca puede ser modificado. Si selecciona Total se permite el acceso completo al contenido de la carpeta; y si selecciona Depende de la contraseña obliga a que el usuario tenga que introducir una contraseña para acceder al recurso. Nota: Cuando se comparte un dispositivo o un recurso, verá que en Mi PC o en el Explorador de Windows aparece una mano como parte del icono. En el entorno de Windows NT, puede incorporar las características de seguridad que proporciona el sistema de archivos NTFS. Este sistema de archivos es una base de datos relacional en que todo es considerado como un archivo. Software Para instalar el software de red, hay disponibles varios protocolos: Cliente para redes NetWare. Cliente para redes Microsoft. NWLink NetBIOS. Protocolo compatible con NWLink IPX/SPX/NetBIOS. Protocolo Internet (TCP/IP). Para poder definir recursos compartidos en Windows NT Server, tiene que tener derechos de administrador. Cómo compartir directorios y archivos Para compartir una carpeta localmente (tiene una sesión en una estación de trabajo), haga clic con el botón derecho en el icono de la carpeta y seleccione la opción Compartir. Esto abrirá el cuadro de diálogo Propiedades. Aparecerá seleccionada la ficha Compartir. El número máximo de conexiones que se pueden definir en Windows NT Workstation es 10. La configuración de este valor es opcional. Asigne permisos a la carpeta compartida. A través de los cuadros de diálogo, puede limitar el número de personas que pueden acceder a su carpeta o dar permiso a todos. Si hace clic en el botón Nuevo recurso puede configurar varios recursos compartidos utilizando distintos nombres y asignando diferentes niveles de permisos. Para compartir las carpetas y las unidades de disco en Windows 2000, tiene que estar conectado como un miembro del grupo Administradores, Operadores de servidor o Usuarios avanzados. Para compartir una carpeta o una unidad de disco en Windows 2000, abra el Explorador de Windows y localice la carpeta o unidad de disco que desee compartir. (Para abrir el Explorador de Windows, haga clic en Inicio, señale Programas, señale Accesorios y, a continuación, haga clic en el Explorador de Windows.) Haga clic con el botón derecho y luego haga clic en Compartir. Haga clic en Compartir esta carpeta de la ficha Compartir. Para cambiar el nombre de la unidad de disco o de la carpeta compartida, introduzca un nombre nuevo en Nombre del recurso compartido. El nombre nuevo es el que verán los usuarios cuando se conecten a esta carpeta o unidad de disco compartida. El nombre actual de la carpeta o de la unidad de disco no cambia. Para añadir un comentario a la carpeta o unidad de disco compartida, introduzca el texto deseado en Comentario. Para limitar el número de usuarios que pueden conectarse a la vez a una carpeta o a una unidad de disco compartida, haga clic en Permitir debajo de Límite de usuarios, e introduzca a continuación el número de usuarios. Cómo compartir impresoras Para compartir una impresora Windows NT/Windows 2000 en una red Windows NT, haga clic en Inicio, seleccione Configuración y haga clic en Impresoras. Haga clic con el botón derecho en la impresora que va a compartir y seleccione Compartir en el menú. Haga clic en el botón Compartir como e introduzca un nombre que pueda identificar claramente a la impresora en la red. Una vez que haya compartido e identificado la impresora, puede configurar la seguridad de la impresora. Redes AppleShare Software El software de servidor de archivos de Apple se denomina AppleTalk. Para compartir recursos con AppleTalk hay que seguir estos pasos: Para seleccionar un puerto de red. Seleccione el submenú AppleTalk del Panel de control y poder abrir el cuadro de diálogo AppleTalk. Ahí puede seleccionar el puerto de conexión de red apropiado. Para activar AppleTalk. Para activar AppleTalk en un equipo, el equipo tiene que estar conectado a una red AppleTalk. Para hacer eso, abra Apple Chooser y active el botón de opción Apple Talk. Para compartir recursos. Defina su identidad en la red asignando un nombre al equipo. Luego active el modo de compartir en el cuadro de diálogo File Sharing del Panel de control de Apple. Cómo compartir unidades de disco y carpetas Al igual que en las redes Trabajo en Grupo, AppleShare proporciona una forma de compartir a nivel de carpeta, pero no a nivel de archivo. Si el propietario del equipo que comparte un recurso ha definido algún archivo o carpeta para que se pueda compartir, estarán disponibles a cualquiera que se conecte. El propietario de una carpeta configura el modo de compartir una carpeta abriendo la ventana de compartir carpeta. Desde el menú Choose File, seleccione Get Info y haga clic en Sharing. Para cada usuario o grupo listado, el propietario establece uno de los privilegios siguientes para trabajar con la carpeta: Lectura y escritura. Sólo lectura. Sólo escritura (cuadro desplegable). Ninguno. Las restricciones también se pueden definir para las carpetas compartidas de forma que no puedan ser modificadas por otras personas distintas al propietario. Para establecer esta restricción, abra el cuadro de diálogo Sharing Info y active la casilla de verificación Can’t move, rename, or delete this item (locked). Cómo compartir impresoras Para compartir una impresora que esté conectada directamente a un equipo Apple, abra el cuadro de diálogo Apple Chooser y seleccione la impresora que desea compartir. A continuación, haga clic en el botón Setup para abrir el cuadro de diálogo Sharing Setup. En este cuadro de diálogo, puede activar la casilla de-verificación Share this Printer e introducir un nombre y una contraseña (opcional) para la impresora. También puede activar la casilla de verificación Keep Log of Printer Usage si desea guardar información sobre la utilización de la impresora. UNIX El sistema operativo UNIX existe en un gran número de configuraciones y está disponible a través de varios fabricantes, o en el caso de Linux, desde una entidad que no se corresponde de ninguna manera con una compañía. El soporte de UNIX para la interoperabilidad con otros sistemas operativos de red depende del fabricante. Por ejemplo, Solaris Easy Access Server de Sun, incluye un soporte nativo para muchos servicios de red Windows NT, como la autenticación, servicios de archivos e impresoras y servicios de directorio. Las distribuciones de Linux incluyen módulos de acceso Apple para el acceso AppleTalk, software de terceros como Samba, que hace que los sistemas de archivos UNIX estén disponibles para cualquier equipo de la red que utilice el protocolo para compartir archivos SMB y módulos para acceder a los sistemas de archivos NTFS y MS-DOS. Compartir en una red cliente/servidor Compartir carpetas en una red basada en un servidor es similar a compartir en una red Trabajo en Grupo. La principal diferencia está en el nivel de seguridad disponible, que se consigue con los servicios de directorio del servidor. Microsoft Windows NT Server y Novell NetWare proporcionan permisos a nivel de archivo, además de permisos a nivel de impresora, unidad de disco y directorio. Novell A diferencia de otros sistemas operativos de red, NetWare no necesita activar el modo de compartición para hacer que estén disponibles los recursos del servidor. Esta activación automática es un parámetro predeterminado de una red NetWare. Una segunda diferencia es que el acceso a los recursos compartidos se realiza a través de los privilegios de cuenta de usuario y de grupo. En otras palabras, las impresoras, directorios y archivos no están propiamente restringidos. Bibliografía: Curso de Cisco http://html.rincondelvago.com/redes-wan_1.html http://nti.educa.rcanaria.es/conocernos_mejor/paginas/indice.htm http://fmc.axarnet.es/redes/indice.htm http://www.angelfire.com/ks3/lilima/medios.htm#C http://lat.3com.com/lat/solutions/es_LA/small_business/scenarios/basicwired_rel3.html http://www.geocities.com/SiliconValley/8195/noscs.html http://fmc.axarnet.es/redes/tema_07_m.htm http://personales.com/elsalvador/sansalvador/altainformacion/ http://www1.euro.dell.com/content/topics/topic.aspx/emea/topics/products/guides/netwk?c=es&l=es&s=gen&~ section=003 http://fmc.axarnet.es/redes/tema_02_m.htm http://html.rincondelvago.com/medios-de-transmision_1.html http://nti.educa.rcanaria.es/conocernos_mejor/paginas/ethernet.htm http://fmc.axarnet.es/redes/tema_03_m.htm http://es.futurahost.com/webs.new/main/serv/ded/app_servers.php?select_language=es http://fmc.axarnet.es/redes/tema_04_m.htm http://fmc.axarnet.es/redes/tema_05_m.htm http://www.microsoft.com/spain/serviceproviders/articulos/cable_guy.asp http://www.microsoft.com/latam/windowsxp/pro/biblioteca/planning/wirelesslan/challenges.asp http://nti.educa.rcanaria.es/conocernos_mejor/paginas/ip.htm http://nti.educa.rcanaria.es/conocernos_mejor/paginas/protocol1.htm http://fmc.axarnet.es/redes/tema_06_m.htm http://nti.educa.rcanaria.es/conocernos_mejor/paginas/cableado.htm http://nti.educa.rcanaria.es/conocernos_mejor/paginas/areade.htm http://nti.educa.rcanaria.es/conocernos_mejor/paginas/subs.htm http://nti.educa.rcanaria.es/conocernos_mejor/paginas/subs1.htm http://fmc.axarnet.es/redes/tema_10_m.htm http://fmc.axarnet.es/redes/tema_09_m.htm http://www.monografias.com/trabajos5/sisop/sisop2.shtml#servi http://www.saulo.net/pub/redes/c.htm http://www.qualitrain.com.mx/objeIndirecto/serviaplica.htm http://eduadis.itlapiedad.edu.mx/~hocegueras/redes/unidad1_1.html http://www.itcerroazul.edu.mx/redes2/INDEXREDES2.htm