Redes de computadoras_ISC - Servidor de Apoyo al Sistema

Anuncio
Redes de computadoras
Unidad
Temas
1
Fundamentos de redes. 1.1
1.2
Subtemas
Concepto de red, su origen.
Clasificación de redes.
1.2.1 De acuerdo a su Tecnología de
interconexión.
1.2.2 De acuerdo a su tipo de
conexión.
1.2.2.1 Orientadas.
1.2.2.2 No orientadas.
1.2.3 De acuerdo a su relación.
1.2.3.1 De Igual a Igual.
1.2.3.2 Cliente - Servidor.
1.3 Descripción del Modelo OSI.
1.3.1 Modelo de capas.
1.3.2 Proceso de encapsulado de
datos.
1.4 Topologías de redes.
2
Componentes de una
red.
2.1 Estaciones de Trabajo.
2.1.1 Plataformas.
2.2 Medios de transmisión.
2.2.1 Medios Guiados.
2.2.2 Medios no Guiados.
2.3 Adaptadores de Red. (NIC).
2.3.1 Ethernet.
2.3.2 Token Ring.
2.3.3 FDDI.
2.4 Dispositivo de conectividad.
2.4.1 Repetidores.
2.4.2 Concentradores (Hub, Mau).
2.4.3 Tranceptores.
2.4.4 Puentes (Bridges).
2.4.5 Conmutadores (Switch).
2.4.6 Gateways.
2.4.7 Routers.
2.5 Servidores.
2.5.1 De archivos e impresión.
2.5.2 Administradores de cuentas de
usuarios.
2.5.3 De aplicación.
2.5.4 Servidores de Internet.
2.6
Sistemas Operativos de Red.
(NOS).
3
Estándares y
protocolos de redes.
3.1 Estándares de Conexión LAN de la IEEE.
3.1.1 Proyecto 802 Conexión.
3.1.2 802.1 Conexión entre Redes.
3.1.3 802.2 Control de Enlace Lógico
(LLC).
3.1.4 802.3 Ethernet.
3.1.5 802.4 Token Bus.
3.1.6 802.5 Token Ring.
3.1.7 802.6 FDDI.
3.1.8 802.11 LAN inalámbricas.
3.2 Arquitectura de protocolos.
3.2.1 TCP/IP.
3.2.2 NetBEUI/NetBIOS.
3.2.3 IPX/SPX.
3.2.4 Protocolos emergentes.
3.2.5 Similitudes y diferencias de los
modelos OSI y TCP/IP.
4
Estándar cableado
estructurado.
4.1. Componentes del cableado estructurado.
4.1.1. Área de trabajo.
4.1.2. Cableado horizontal.
4.1.3. Cableado vertical.
4.1.4. Cableado Backbone.
4.1.5. Centro de telecomunicaciones
principal.
4.1.6. Centro de telecomunicaciones
Intermedios.
4.1.7. Servicios de ingreso.
4.2. Planificación de la estructura de
cableado.
4.2.1. Normatividad de electricidad y
conexiones a tierra.
4.2.2. Soluciones para caída y bajada de
tensión.
4.2.3. Normatividad de seguridad
4.3. Documentación de una red.
4.3.1. Diario de Ingeniería.
4.3.2. Diagramas.
4.3.3. Cables etiquetados.
4.3.4. Resumen de tomas y cables.
4.3.5. Resumen
de
dispositivos,
direcciones MAC e IP.
4.3.6. Material y presupuestos.
4.4. Presentación del proyecto.
5
Planeación y diseño
básico de una LAN.
5.1
Análisis de requerimientos.
5.1.1 Evaluar las necesidades de la red.
5.1.1.1 Requerimientos de las
estaciones de trabajo.
5.1.1.1.1. Aplicaciones que corren.
5.1.1.1.2 Ancho de banda.
5.1.1.1.3 Almacenamiento.
5.1.1.2 Requerimientos de
servidores.
5.1.1.3 Servicios de red.
5.1.1.4 Seguridad y protección.
5.1.2 Selección de una red Igual a Igual
o una Cliente – Servidor.
5.2 Planeación y diseño de una LAN.
5.2.1 Elaboración de un cronograma de
actividades.
5.2.2 Diseño conceptual por dispositivos.
5.2.3 Diseño en base a planos con
especificaciones.
5.3 Instalación y administración básica de
una LAN.
5.3.1 Instalación del cableado bajo las
normas TIA/EIA.
5.3.2 Instalación del Sistema Operativo
de Red.
5.3.3 Configuración de las estaciones
de trabajo.
5.3.4 Administración de cuentas de
usuario, grupos de trabajo.
5.3.5 Recursos compartidos.
Unidad 1
Fundamentos de redes.
1.5 Concepto de red, su origen.
Una red es un sistema de objetos o personas conectados de manera intrincada. Las redes están en todas
partes, incluso en nuestros propios cuerpos.
Las redes de datos surgieron como resultado de las aplicaciones informáticas creadas para las
empresas. Sin embargo, en el momento en que se escribieron estas aplicaciones, las empresas poseían
computadores que eran dispositivos independientes que operaban de forma individual, sin comunicarse
con los demás computadores. Muy pronto se puso de manifiesto que esta no era una forma eficiente ni
rentable para operar en el medio empresarial. Las empresas necesitaban una solución que resolviera con
éxito las tres preguntas siguientes:
1. cómo evitar la duplicación de equipos informáticos y de otros recursos
2. cómo comunicarse con eficiencia
3. cómo configurar y administrar una red
Las empresas se dieron cuenta de que podrían ahorrar mucho dinero y aumentar la productividad con la
tecnología de networking. Empezaron agregando redes y expandiendo las redes existentes casi tan
rápidamente como se producía la introducción de nuevas tecnologías y productos de red. Como
resultado, a principios de los 80, se produjo una tremenda expansión de networking. Sin embargo, el
temprano desarrollo de las redes resultaba caótico en varios aspectos.
A mediados de la década del 80, comenzaron a presentarse los primeros problemas emergentes de este
crecimiento desordenado. Muchas de las tecnologías de red que habían emergido se habían creado con
implementaciones de hardware y software distintas. Por lo tanto, muchas de las nuevas tecnologías no
eran compatibles entre sí. Se tornó cada vez más difícil la comunicación entre redes que usaban distintas
especificaciones.
Una de las primeras soluciones a estos problemas fue la creación de redes de área local (LAN). Como
permitían conectar todas las estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos
ubicados dentro de un mismo edificio, las LAN permitieron que las empresas utilizaran la tecnología
informática para compartir de manera eficiente archivos e impresoras.
A medida que el uso de los computadores en las empresas aumentaba, pronto resultó obvio que incluso
las LAN no eran suficientes. En un sistema LAN, cada departamento o empresa, era una especie de isla
electrónica.
Lo que se necesitaba era una forma de que la información se pudiera transferir rápidamente y con
eficiencia, no solamente dentro de una misma empresa sino de una empresa a otra. Entonces, la solución
fue la creación de redes de área metropolitana (MAN) y redes de área amplia (WAN). Como las WAN
podían conectar redes de usuarios dentro de áreas geográficas extensas, permitieron que las empresas
se comunicaran entre sí a través de grandes distancias.
Para facilitar su estudio, la mayoría de las redes de datos se han clasificado como redes de área local
(LAN) o redes de área amplia (WAN). Las LAN generalmente se encuentran en su totalidad dentro del
mismo edificio o grupo de edificios y manejan las comunicaciones entre las oficinas. Las WAN cubren un
área geográfica más extensa y conectan ciudades y países. Algunos ejemplos útiles de LAN y WAN
aparecen en la siguiente figura; se deben consultar estos ejemplos siempre que aparezca una pregunta
relativa a la definición de una LAN o una WAN. Las LAN y/o las WAN también se pueden conectar entre
sí mediante internetworking.
1.6 Clasificación de redes.
Redes de área local
Las redes de área local (LAN) eran capaces de conectar todas las estaciones de trabajo, dispositivos
periféricos, terminales y otros dispositivos ubicados dentro de un mismo edificio, las LAN permitieron que
las empresas utilizaran la tecnología informática para compartir de manera eficiente archivos e
impresoras.
Las redes de área local (LAN) se componen de computadores, tarjetas de interfaz de red, medios de
networking, dispositivos de control del tráfico de red y dispositivos periféricos. Las LAN hacen posible que
las empresas que utilizan tecnología informática compartan de forma eficiente elementos tales como
archivos e impresoras, y permiten la comunicación, por ejemplo, a través del correo electrónico. Unen
entre sí: datos, comunicaciones, servidores de computador y de archivo.
Las LAN está diseñadas para realizar lo siguiente:




Operar dentro de un área geográfica limitada
Permitir que varios usuarios accedan a medios de ancho de banda alto
Proporcionar conectividad continua con los servicios locales
Conectar dispositivos físicamente adyacentes
Redes de área metropolitana (MAN)
En principio se considera que una MAN abarca una distancia de unas pocas decenas de kilómetros, que es lo que normalmente
se entiende como área metropolitana. Existe solamente una red característica de las MANs, la conocida como IEEE 802.6 o
DQDB (Distributed Queue Dual Bus), que puede funcionar a diversas velocidades entre 34 y 155 Mb/s con una distancia máxima
de unos 160 Km. En realidad la distinción de MANs en base a la distancia es un tanto arbitraria, ya que FDDI puede llegar a 200
Km pero raramente se la clasifica como MAN, al no ser un servicio ofrecido por las compañías telefónicas, cosa que sí ocurre
con DQDB en algunos países.
La tecnología DQDB ha tenido escasa difusión. Su mayor mérito ha sido servir como predecesora de ATM en algunos aspectos.
En el futuro es de esperar que la red DQDB caiga en desuso o desaparezca ya que su espacio ha sido ocupado por completo
por las redes basadas en ATM.
Un caso de redes especialmente difíciles de clasificar son las formadas por empresas de televisión por cable. Desde el punto de
vista técnico estas redes se podrían considerar tipo LAN; sin embargo el hecho de que sean gestionadas por empresas
especializadas y ofrecidas como un servicio contratable por los usuarios les da unas características de WAN desde el punto de
vista legal. Estas circunstancias unidas a su alcance máximo (entre 160 y 200 Km) hacen que las podamos considerar en cierto
modo como redes MAN.
El término MAN suele utilizarse también en ocasiones para denominar una interconexión de LANs ubicadas en diferentes
recintos geográficos (por ejemplo diferentes campus) cuando se dan las siguientes circunstancias:

La interconexión hace uso de enlaces telefónicos de alta o muy alta velocidad (comparable a la de las propias LANs
interconectadas).

La interconexión se efectúa de forma transparente al usuario, que aprecia el conjunto como una única LAN por lo que se
refiere a servicios, protocolos y velocidades de transmisión.

Existe una gestión unificada de toda la red
Redes de área amplia
A medida que el uso de los computadores en las empresas aumentaba, pronto resultó obvio que incluso
las LAN no eran suficientes. En un sistema LAN, cada departamento, o empresa, era una especie de isla
electrónica. Lo que se necesitaba era una forma de transferir información de manera eficiente y rápida de
una empresa a otra.
La solución surgió con la creación de las redes de área amplia (WAN). Las WAN interconectaban las
LAN, que a su vez proporcionaban acceso a los computadores o a los servidores de archivos ubicados en
otros lugares. Como las WAN conectaban redes de usuarios dentro de un área geográfica extensa,
permitieron que las empresas se comunicaran entre sí a través de grandes distancias. Como resultado de
la interconexión de los computadores, impresoras y otros dispositivos en una WAN, las empresas
pudieron comunicarse entre sí, compartir información y recursos, y tener acceso a Internet.
Algunas de las tecnologías comunes de las WAN son:







módems
RDSI (Red digital de servicios integrados)
DSL (Digital Subscriber Line) (Línea de suscripción digital)
Frame relay
ATM (Modo de transferencia asíncrona)
Series de portadoras T (EE.UU. y Canadá) y E (Europa y América Latina): T1, E1, T3, E3, etc.
SONET (Red óptica síncrona)
Redes de Area Local Virtuales (VLAN)
Aunque las LAN’s virtuales fueron en un principio comercializadas como una forma de
facilitar el manejo de redes, la industria se ha alejado lentamente de sus estatutos iniciales.
Hoy, las VLAN’s sirven como agentes para microsegmentación virtual. La microsegmentación
crea pequeños dominios, llamados segmentos, o bien enlazando las estaciones terminales
directamente a puertos de switch individuales o conectando un pequeño hub de grupo de
trabajo a un puerto de switch simple.
Las VLAN’s realizan la microsegmentación en software, proporcionando una manera de
asignar estaciones individuales o aún segmentos de red a un segmento virtual existente solo
en software. Un segmento virtual ofrece más posibilidades para definir los tipos de tráfico
que puede fluir a través de cada VLAN.
Debido a que una VLAN es un dominio de transmisión grande y llano segmentado en
software, sus cuestiones de diseño pueden llegar a ser relativamente complejas. El primer
problema con el concepto VLAN es que ningún estándar esta disponible hoy día. El IEEE esta
trabajando en el estándar 802.1q para "LAN’s conectadas virtualmente". No obstante, la
falta de estándar no aleja a los vendedores de proporcionar sus propios métodos de VLAN’s,
incluyendo el Enlace InterSwitch (ISL) de Cisco y SecureFast de Cabletron.
En segundo término, la mayoría de los manejadores IS están todavía haciendo bridging. Si
se corren VLAN’s a través de un ruteador, sus puertos están involucrados con bridging. Esto
le impide aprovechar los beneficios del ruteador, como una supresión de la transmisión y
algunas otras decisiones inteligentes.
Entonces, ¿qué tan buena es una VLAN? Se puede tomar ventaja de su funcionalidad en
varias formas diferentes. Por ejemplo, se puede usar como una benda para una red
envolvente. Más probablemente, cuando una red pasa de un ambiente de ancho de banda
compartido hacia un ambiente switcheado, la estrategia de subredes IP tomará parte en el
camino. Se pueden tener muchas mas estaciones en una subred cuando no se tenga que
preocupar por las colisiones. Se pueden posicionar 500-1, estaciones IP 000 sobre una VLAN
o 200-300 IPX y estaciones AppleTalk.
Eventualmente, las VLAN’s realizarán su propósito original de ayudar con agregaciones,
movimientos y cambios. La mayoría de los vendedores han implementado VLAN’s basadas
en puerto, en las que se asigna un usuario a un puerto y un puerto a una VLAN. El próximo
paso es crear VLAN’s dinámicas, basadas en MAC. Así cuando se mueva un usuario de un
lado a otro del edificio, tan pronto como toso los switches compartan la misma base de
datos de direcciones MAC, el usuario terminará en la misma VLAN sin configuraciones
adicionales.
Uno de los más grandes problemas de implementar VLAN’s tiene que ver con empalmarlas
en los ruteadores. Si se instruye al ruteador para conectarse con una VLAN, las requisiciones
de transmisiones como la del IP ARP (Protocolo de Resolución de Direcciones) serán
transmitidas a través de enlaces WAN extensos.
Cada vendedor que implemente VLAN’s lo hará entonces de su propio modo. Ambos Foundry
como HP usan VLAN’s basadas en puerto para sus equipos, lo que significa que todos los
usuarios conectados a través de un puerto dado están en la misma VLAN.
1.6.1 De acuerdo a su Tecnología de interconexión.
Redes LAN Token Ring
Las redes Token Ring son redes de tipo determinista, al contrario de las redes Ethernet. En ellas, el acceso al
medio está controlado, por lo que solamente puede transmitir datos una máquina por vez, implementándose
este control por medio de un token de datos, que define qué máquina puede transmitir en cada instante.
Token Ring e IEEE 802.5 son los principales ejemplos de redes de transmisión de tokens.
Las redes de transmisión de tokens se implementan con una topología física de estrella y lógica de anillo, y
se basan en el transporte de una pequeña trama, denominada token, cuya posesión otorga el derecho a
transmitir datos. Si un nodo que recibe un token no tiene información para enviar, transfiere el token al
siguiente nodo. Cada estación puede mantener al token durante un período de tiempo máximo determinado,
según la tecnología específica que se haya implementado.
Cuando una máquina recibe un token y tiene información para transmitir, toma el token y le modifica un bit,
transformándolo en una secuencia de inicio de trama. A continuación, agrega la información a transmitir a
esta trama y la envía al anillo, por el que gira hasta que llega a la estación destino.
Mientras la trama de información gira alrededor del anillo no hay ningún otro token en la red, por lo que
ninguna otra máquina puede realizar transmisiones.
Cuando la trama llega a la máquina destino, ésta copia la información contenida en ella para su
procesamiento y elimina la trama, con lo que la estación emisora puede verificar si la trama se recibió y se
copió en el destino.
Como consecuencia de este método determinista de transmisión, en las redes Token Ring no se producen
colisiones, a diferencia de las redes CSMA/CD como Ethernet. Además, en las redes Token Ring se puede
calcular el tiempo máximo que transcurrirá antes de que cualquier máquina pueda realizar una transmisión,
lo que hace que sean ideales para las aplicaciones en las que cualquier demora deba ser predecible y en las
que el funcionamiento sólido de la red sea importante.
La primera red Token Ring fue desarrollada por la empresa IBM en los años setenta, todavía sigue usándose
y fue la base para la especificación IEEE 802.5 (método de acceso Token Ring), prácticamente idéntica y
absolutamente compatible con ella. Actualmente, el término Token Ring se refiere tanto a la red Token Ring
de IBM como a la especificación 802.5 del IEEE.
Las redes Token Ring soportan entre 72 y 260 estaciones a velocidades de 4 a 16 Mbps, se implementan
mediante cableado de par trenzado, con blindaje o sin él, y utilizan una señalización de banda base con
codificación diferencial de Manchester.
Tokens
Los tokens están formados por un byte delimitador de inicio, un byte de control de acceso y un byte
delimitador de fin. Por lo tanto, tienen una longitud de 3 bytes.



El delimitador de inicio alerta a cada estación ante la llegada de un token o de una trama
de datos/comandos. Este campo también incluye señales que distinguen al byte del resto
de la trama al violar el esquema de codificación que se usa en otras partes de la trama.
El byte de control de acceso contiene los campos de prioridad y de reserva, así como un
bit de token y uno de monitor. El bit de token distingue un token de una trama de
datos/comandos y un bit de monitor determina si una trama gira continuamente
alrededor del anillo.
El delimitador de fin señala el fin del token o de una trama de datos/comandos. Contiene
bits que indican si hay una trama defectuosa y una trama que es la última de una
secuencia lógica.
El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de
datos transportan información para los protocolos de capa superior, mientras que las tramas de comandos
contienen información de control y no poseen datos para los protocolos de capa superior.
En las tramas de datos o instrucciones hay un byte de control de trama a continuación del byte de control de
acceso. El byte de control de trama indica si la trama contiene datos o información de control. En las tramas
de control, este byte especifica el tipo de información de control.
A continuación del byte de control de trama hay dos campos de dirección que identifican las estaciones
destino y origen. Como en el caso de IEEE 802.5, la longitud de las direcciones es de 6 bytes. El campo de
datos está ubicado a continuación del campo de dirección. La longitud de este campo está limitada por el
token de anillo que mantiene el tiempo, definiendo de este modo el tiempo máximo durante el cual una
estación puede retener al token.
Y a continuación del campo de datos se ubica el campo de secuencia de verificación de trama (FCS). La
estación origen completa este campo con un valor calculado según el contenido de la trama. La estación
destino vuelve a calcular el valor para determinar si la trama se ha dañado mientras estaba en tránsito. Si la
trama está dañada se descarta. Como en el caso del token, el delimitador de fin completa la trama de
datos/comandos.
Sistema de prioridad
Las redes Token Ring usan un sistema de prioridad sofisticado que permite que determinadas estaciones de
alta prioridad usen la red con mayor frecuencia. Las tramas Token Ring tienen dos campos que controlan la
prioridad: el campo de prioridad y el campo de reserva.
Sólo las estaciones cuya prioridad es igual o superior al valor de prioridad que posee el token pueden tomar
ese token. Una vez que se ha tomado el token y éste se ha convertido en una trama de información, sólo las
estaciones cuyo valor de prioridad es superior al de la estación transmisora pueden reservar el token para el
siguiente paso en la red. El siguiente token generado incluye la mayor prioridad de la estación que realiza la
reserva. Las estaciones que elevan el nivel de prioridad de un token deben restablecer la prioridad anterior
una vez que se ha completado la transmisión.
Mecanismos de control
Las redes Token Ring usan varios mecanismos para detectar y compensar los fallos de la red. Uno de estos
mecanismos consiste en seleccionar una estación de la red Token Ring como el monitor activo. Esta estación
actúa como una fuente centralizada de información de temporización para otras estaciones del anillo y
ejecuta varias funciones de mantenimiento del anillo. Potencialmente cualquier estación de la red puede ser
la estación de monitor activo.
Una de las funciones de esta estación es la de eliminar del anillo las tramas que circulan continuamente.
Cuando un dispositivo transmisor falla, su trama puede seguir circulando en el anillo e impedir que otras
estaciones transmitan sus propias tramas; esto puede bloquear la red. El monitor activo puede detectar
estas tramas, eliminarlas del anillo y generar un nuevo token.
La topología en estrella de la red Token Ring de IBM también contribuye a la confiabilidad general de la red.
Las MSAU (unidades de acceso de estación múltiple) activas pueden ver toda la información de una red
Token Ring, lo que les permite verificar si existen problemas y, de ser necesario, eliminar estaciones del
anillo de forma selectiva.
Otro mecanismo de control de fallos de red es el conocido como Beaconing. Cuando una estación detecta la
existencia de un problema grave en la red (por ejemplo, un cable roto), envía una trama de beacon. La
trama de beacon define un dominio de error. Un dominio de error incluye la estación que informa acerca del
error, su vecino corriente arriba activo más cercano (NAUN) y todo lo que se encuentra entre ellos.
Entones el beaconing inicia un proceso denominado autoreconfiguración, en el que los nodos situados
dentro del dominio de error automáticamente ejecutan diagnósticos. Este es un intento de reconfigurar la red
alrededor de las áreas en las que hay errores. Físicamente, las MSAU pueden lograrlo a través de la
reconfiguración eléctrica.
Redes LAN FDDI
Las redes FDDI (Fiber Distributed Data Interface - Interfaz de Datos Distribuida por Fibra ) surgieron a
mediados de los años ochenta para dar soporte a las estaciones de trabajo de alta velocidad, que habían
llevado las capacidades de las tecnologías Ethernet y Token Ring existentes hasta el límite de sus
posibilidades.
Están implementadas mediante una física de estrella (lo más normal) y lógica de anillo doble de token, uno
transmitiendo en el sentido de las agujas del reloj (anillo principal ) y el otro en dirección contraria (anillo de
respaldo o back up), que ofrece una velocidad de 100 Mbps sobre distancias de hasta 200 metros,
soportando hasta 1000 estaciones conectadas. Su uso más normal es como una tecnología de backbone para
conectar entre sí redes LAN de cobre o computadores de alta velocidad.
El tráfico de cada anillo viaja en direcciones opuestas. Físicamente, los anillos están compuestos por dos o
más conexiones punto a punto entre estaciones adyacentes. Los dos anillos de la FDDI se conocen con el
nombre de primario y secundario. El anillo primario se usa para la transmisión de datos, mientras que el
anillo secundario se usa generalmente como respaldo.
Se distinguen en una red FDDI dos tipos de estaciones: las estaciones Clase B, o estaciones de una
conexión (SAS), se conectan a un anillo, mientras que las de Clase A, o estaciones de doble conexión
(DAS), se conectan a ambos anillos.
Las SAS se conectan al anillo primario a través de un concentrador que suministra conexiones para varias
SAS. El concentrador garantiza que si se produce una falla o interrupción en el suministro de alimentación en
algún SAS determinado, el anillo no se interrumpa. Esto es particularmente útil cuando se conectan al anillo
PC o dispositivos similares que se encienden y se apagan con frecuencia.
Las redes FDDI utilizan un mecanismo de transmisión de tokens similar al de las redes Token Ring, pero
además, acepta la asignación en tiempo real del ancho de banda de la red, mediante la definición de dos
tipos de tráfico:
1. Tráfico Síncrono: Puede consumir una porción del ancho de banda total de 100 Mbps de
una red FDDI, mientras que el tráfico asíncrono puede consumir el resto.
2. Tráfico Asíncrono: Se asigna utilizando un esquema de prioridad de ocho niveles. A
cada estación se asigna un nivel de prioridad asíncrono.
El ancho de banda síncrono se asigna a las estaciones que requieren una capacidad de transmisión continua.
Esto resulta útil para transmitir información de voz y vídeo. El ancho de banda restante se utiliza para las
transmisiones asíncronas
FDDI también permite diálogos extendidos, en los cuales las estaciones pueden usar temporalmente todo el
ancho de banda asíncrono.
El mecanismo de prioridad de la FDDI puede bloquear las estaciones que no pueden usar el ancho de banda
síncrono y que tienen una prioridad asíncrona demasiado baja.
En cuanto a la codificación, FDDI no usa el sistema de Manchester, sino que implementa un esquema de
codificación denominado esquema 4B/5B, en el que se usan 5 bits para codificar 4. Por lo tanto, dieciséis
combinaciones son datos, mientras que las otras son para control.
Debido a la longitud potencial del amillo, una estación puede generar una nueva trama inmediatamente
después de transmitir otra, en vez de esperar su vuelta, por lo que puede darse el caso de que en el anillo
haya varias tramas a la vez.
Las fuentes de señales de los transceptores de la FDDI son LEDs (diodos electroluminiscentes) o lásers. Los
primeros se suelen usar para tendidos entre máquinas, mientras que los segundos se usan para tendidos
primarios de backbone.
Tramas FDDI
Las tramas en la tecnología FDDI poseen una estructura particular. Cada trama se compone de los siguientes
campos:





Preámbulo, que prepara cada estación para recibir la trama entrante.
Delimitador de inicio, que indica el comienzo de una trama, y está formado por patrones
de señalización que lo distinguen del resto de la trama.
Control de trama, que contiene el tamaño de los campos de dirección, si la trama
contiene datos asíncronos o síncronos y otra información de control.
Dirección destino, que contiene la dirección física (6 bytes) de la máquina destino,
pudiendo ser una dirección unicast (singular), multicast (grupal) o broadcast (cada
estación).
Dirección origen, que contiene la dirección física (6 bytes) de la máquina que envió la
trama.



Secuencia de verificación de trama (FCS), campo que completa la estación origen con una
verificación por redundancia cíclica calculada (CRC), cuyo valor depende del contenido de
la trama. La estación destino vuelve a calcular el valor para determinar si la trama se ha
dañado durante el tránsito. La trama se descarta si está dañada.
Delimitador de fin, que contiene símbolos que indican el fin de la trama.
Estado de la trama, que permite que la estación origen determine si se ha producido un
error y si la estación receptora reconoció y copió la trama.
Medios en las redes FDDI
FDDI especifica una LAN de dos anillos de 100 Mbps con transmisión de tokens, que usa un medio de
transmisión de fibra óptica.
Aunque funciona a velocidades más altas, FDDI es similar a Token Ring. Ambas configuraciones de red
comparten ciertas características, tales como su topología (anillo) y su método de acceso al medio
(transferencia de tokens).
Una de las características de FDDI es el uso de la fibra óptica como medio de transmisión. La fibra óptica
ofrece varias ventajas con respecto al cableado de cobre tradicional, por ejemplo:



Seguridad: la fibra no emite señales eléctricas que se pueden interceptar.
Confiabilidad: la fibra es inmune a la interferencia eléctrica.
Velocidad: la fibra óptica tiene un potencial de rendimiento mucho mayor que el del cable
de cobre.
Existen dos clases de fibra: monomodo (también denominado modo único); y multimodo. La fibra
monomodo permite que sólo un modo de luz se propague a través de ella, mientras que la fibra multimodo
permite la propagación de múltiples modos de luz. Los modos se pueden representar como haces de rayos
luminosos que entran a la fibra en un ángulo determinado.
Cuando se propagan múltiples modos de luz a través de la fibra, éstos pueden recorrer diferentes distancias,
según su ángulo de entrada. Como resultado, no llegan a su destino simultáneamente; a este fenómeno se
le denomina dispersión modal.
La fibra monomodo puede acomodar un mayor ancho de banda y permite el tendido de cables de mayor
longitud que la fibra multimodo. Debido a estas características, la fibra monomodo se usa a menudo para la
conectividad entre edificios mientras que la fibra multimodo se usa con mayor frecuencia para la
conectividad dentro de un edificio. La fibra multimodo usa los LED como dispositivos generadores de luz,
mientras que la fibra monomodo generalmente usa láser.
1.6.2 De acuerdo a su tipo de conexión.
1.6.2.1
Orientadas.
Redes Orientadas a Conexión: En estas redes existe el concepto de multiplexión de canales y puertos
conocido como circuito o canal virtual, debido a que el usuario aparenta disponer de un recurso dedicado,
cuando en realidad lo comparte con otros pues lo que ocurre es que atienden a ráfagas de tráfico de
distintos usuarios.
REDES ATM
Las redes ATM son redes orientadas a conexión, lo que quiere decir, la conexión se establece con la estación con la
que se quiere intercambiar información validando que esta sea exitosa.
FUNCIONAMIENTO
Las redes ATM consisten en un conjunto de switches (conmutadores) ATM conectados entre sí bajo interfaces o
ligas ATM punto a punto. Los Switches soportan dos tipos de interfaz:


Interfaz de red del usuario (UNI: User Network Interface)
Interfaz de Nodo de Red (NNI: Network Node Interface).
UNI conecta los sistemas terminales (End System) como los PC´s, enrutadores y concentradores hacia el switch
ATM, mientras que el NNI conecta los switches ATM entre sí.
Existen dos tipos de circuitos o conexiones en ATM: El identificador de ruta virtual (VPI: Virtual Path Identifier) y
el identificador de circuito virtual (VCI: Virtual Circuit Identifier). Las rutas virtuales (VPI) están compuestas de uno
o más circuitos virtuales, los cuales se intercambian en forma transparente a través de la red ATM, en el entendido de
una ruta virtual (VPI) común.
Todas las rutas y circuitos virtuales solo tienen significado virtual en cada switch ATM y se reasignan cuando salen
de uno de ellos y entran a otro.
Existen mecanismos externos que se encargan de mantener una tabla de direcciones, la cual es utilizada antes de
transmitir cualquier tipo de información switch ATM y su configuración determinan dos tipos fundamentales en las
conexiones ATM, así:
Conexión Permanente Virtual (PVC: Permanent Virtual Connection).
Se configuran manualmente y es la que se establece con un equipo adicional que puede ser el administrador de las
conexiones de la red, en el cual se configuran las direcciones fuente y destino y en el momento de transmitir de una
estación A a una estación B los valores de VPI/VCI se encuentren seleccionados por lo cual solo hay que leer la tabla
para comenzar la transmisión.
Conexión de Intercambio Virtual (SVC: Switched Virtual Connection).
La cual se establece en cada switch ATM utilizando una conexión dinámica en cada punto de la Red y un protocolo
de señalización para obtener la información del siguiente punto a seguir. No requieren de proceso manual para
configurar los valores VPI/VCI.
En la actualidad se creó el protocolo de señalización interswitch interino (IISP: Interim Interswitch Signaling
Protocol), la cual permite conectar entre sí a switches ATM de diferentes compañías y utilizar conexiones o circuitos
de intercambio virtual (SVC), el cual facilita el uso de la tecnología ATM.
El protocolo IISP fue desarrollado por la compañía Cisco Systems quienes mejoraron la intercomunicación entre
Switches de diferentes compañías ya que en la conexión PVC se presentaban las siguientes desventajas:


El hecho de configurar cada usuario que necesite conectarse con otro usuario en diferente switch
Tener recursos mal utilizados.
Una red orientada a conexión envía todos los UDPs de la capa de transporte exactamente por la misma
ruta que conecta la terminal origen con la terminal destino; la ruta es decidida por la capa de red y ésta se
decide previo a la transmisión.
ATM
INTRODUCCION:
Tres letras - ATM - se repiten cada vez más en estos días en los ambientes Informáticos y de
Telecomunicaciones. La tecnología llamada Asynchronous Transfer Mode (ATM) Modo de Transferencia
Asíncrona es el corazón de los servicios digitales integrados que ofrecerán las nuevas redes digitales de
servicios integrados de Banda Ancha (B-ISDN), para muchos ya no hay cuestionamientos; el llamado
tráfico del "Cyber espacio", con su voluminoso y tumultuoso crecimiento, impone a los operadores de
redes públicas y privadas una voraz demanda de anchos de banda mayores y flexibles con soluciones
robustas. La versatilidad de la conmutación de paquetes de longitud fija, denominadas celdas ATM, son
las tablas más calificadas para soportar la cresta de esta "Ciberola" donde los surfeadores de la banda
ancha navegan.
Algunos críticos establecen una analogía de la tecnología ATM con la red digital de servicios integrados o
ISDN por sus siglas en inglés. Al respecto se escuchan respuestas de expertos que desautorizan esta
comparación aduciendo que la ISDN es una gran tecnología que llegó en una época equivocada, en
términos de que el mercado estaba principalmente en manos de actores con posiciones monopolísticas.
Ahora el mercado está cambiando, la ISDN está encontrando una gran cantidad de aplicaciones. De toda
forma la tecnología ATM se proyecta para diferentes necesidades, a pesar de su estrecha relación con
ISDN, en términos de volúmenes de datos, flexibilidad de conmutación y facilidades para el operador.
Los conmutadores ATM aseguran que el tráfico de grandes volúmenes es flexiblemente conmutado al
destino correcto. Los usuarios aprecian ambas cosas, ya que se cansan de esperar los datos y las
pantallas de llegada a sus terminales. Estas necesidades cuadran de maravilla para los proveedores de
servicios públicos de salud, con requerimientos de videoconferencias médicas, redes financieras
interconectadas con los entes de intermediación y validación, o con las exigencias que pronto serán
familiares como vídeo en demanda para nuestros hogares con alta definición de imágenes y calidad de
sonido de un CD, etc.
Para el operador, con la flexibilidad del ATM, una llamada telefónica con tráfico de voz será tarifado a una
tasa diferente a la que estaría dispuesto a pagar un cirujano asistiendo en tiempo real a una operación al
otro lado del mundo. Ese es una de las fortalezas de ATM usted paga solamente por la carga de celdas
que es efectivamente transportada y conmutada para usted. Además la demanda por acceso a Internet
ha tomado a la industria de telecomunicaciones como una tormenta. Hoy día los accesos conmutados a
Internet están creando "Cuellos de Botella" en la infraestructura. Para copar este problema los fabricantes
no solo han desarrollado sistemas de acceso sino aplicaciones para soluciones de fin a fin con
conmutadores ATM, con solventes sistemas de administración de la red (Network Management).
En varios aspectos, ATM es el resultado de una pregunta similar a la de teoría del campo unificada en
física ¿Cómo se puede transportar un universo diferente de servicio de voz, vídeo por un lado y datos por
otro de manera eficiente usando una simple tecnología de conmutación y multiplexación?.
ATM contesta esta pregunta combinando la simplicidad de la multiplexación por división en el tiempo
(Time Division Multiplex TDM) encontrado en la conmutación de circuitos, con la eficiencia de las redes
de conmutación de paquetes con multiplexación estadística. Por eso es que algunos hacen
reminiscencias de perspectivas de conmutación de circuitos mientras que otros lo hacen a redes de
paquetes orientados a conexión.
MULTIPLEXACION EN ATM:
Un examen más cercano del protocolo ATM y cómo opera ayudará a explicar cómo los circuitos virtuales,
las rutas virtuales, los conmutadores y los servicios que ellos acarrean se afectan entre sí.
La figura No.1 muestra un formato básico y la jerarquía de ATM. Una conexión ATM, consiste de "celdas"
de información contenidos en un circuito virtual (VC). Estas celdas provienen de diferentes fuentes
representadas como generadores de bits a tasas de transferencia constantes como la voz y a tasas
variables tipo ráfagas (bursty traffic) como los datos. Cada celda compuesta por 53 bytes, de los cuales
48 (opcionalmente 44) son para trasiego de información y los restantes para uso de campos de control
(cabecera) con información de "quién soy" y "donde voy"; es identificada por un "virtual circuit identifier"
VCI y un "virtual path identifier" VPI dentro de esos campos de control, que incluyen tanto el enrutamiento
de celdas como el tipo de conexión. La organización de la cabecera (header) variará levemente
dependiendo de sí la información relacionada es para interfaces de red a red o de usuario a red. Las
celdas son enrutadas individualmente a través de los conmutadores basados en estos identificadores, los
cuales tienen significado local - ya que pueden ser cambiados de interface a interface.
La técnica ATM multiplexa muchas celdas de circuitos virtuales en una ruta (path) virtual colocándolas en
particiones (slots), similar a la técnica TDM. Sin embargo, ATM llena cada slot con celdas de un circuito
virtual a la primera oportunidad, similar a la operación de una red conmutada de paquetes. La figura No.2
describe los procesos de conmutación implícitos los VC switches y los VP switches.
Los slots de celda no usados son llenados con celdas "idle", identificadas por un patrón específico en la
cabecera de la celda. Este sistema no es igual al llamado "bit stuffing"en la multiplexación Asíncrona, ya
que aplica a celdas enteras.
Diferentes categorías de tráfico son convertidas en celdas ATM vía la capa de adaptación de ATM (AAL ATM Adaptation Layer), de acuerdo con el protocolo usado. (Más adelante se explica este protocolo).
La tecnología ATM ha sido definida tanto por el ANSI como por el CCITT a través de sus respectivos
comités ANSI T1, UIT SG XVIII, como la tecnología de transporte para la B-ISDN (Broad Band Integrated
Services Digital Network), la RDSI de banda ancha. En este contexto "transporte" se refiere al uso de
técnicas de conmutación y multiplexación en la capa de enlace (Capa 2 del modelo OSI) para el trasiego
del tráfico del usuario final de la fuente al destino, dentro de una red. El ATM Forum, grupo de fabricantes
y usuarios dedicado al análisis y avances de ATM, ha aprobado cuatro velocidades UNI (User Network
Interfases) para ATM: DS3 (44.736 Mbit/s), SONET STS3c (155.52 Mbit/s) y 100 Mbit/s para UNI
privados y 155 Mbit/s para UNI privadas. UNI privadas se refieren a la interconexión de usuarios ATM con
un switch ATM privado que es manejado como parte de la misma red corporativa. Aunque la tasa de
datos original para ATM fue de 45 Mbit/s especificado para redes de operadores (carriers) con redes T3
existentes, velocidades UNI adicionales se han venido evaluando y están ofreciéndose. También hay un
alto interés en interfases, para velocidades EI (2Mbps) y T1 (1,544 Mbps) para accesos ATM de baja
velocidad.
PROTOCOLO ATM:
El protocolo ATM consiste de tres niveles o capas básicas (Ver figura No 3).
La primera capa llamada capa física (Physical Layer), define los interfases físicos con los medios de
transmisión y el protocolo de trama para la red ATM es responsable de la correcta transmisión y
recepción de los bits en el medio físico apropiado. A diferencia de muchas tecnologías LAN como
Ethernet, que especifica ciertos medios de transmisión, (10 base T, 10 base 5, etc.) ATM es
independiente del transporte físico. Las celdas ATM pueden ser transportadas en redes SONET
(Synchronous Optical Network), SDH (Synchronous Digital Hierarchy), T3/E3, TI/EI o aún en modems de
9600 bps. Hay dos subcapas en la capa física que separan el medio físico de transmisión y la extracción
de los datos:
La subcapa PMD (Physical Medium Depedent) tiene que ver con los detalles que se especifican para
velocidades de transmisión, tipos de conectores físicos, extracción de reloj, etc., Por ejemplo, la tasa de
datos SONET que se usa, es parte del PMD. La subcapa TC (Transmission Convergence) tiene que ver
con la extracción de información contenida desde la misma capa física. Esto incluye la generación y el
chequeo del Header Error Corrección (HEC), extrayendo celdas desde el flujo de bits de entrada y el
procesamiento de celdas "idles" y el reconocimiento del límite de la celda. Otra función importante es
intercambiar información de operación y mantenimiento (OAM) con el plano de administración.
(Ver figura No.4)
La segunda capa es la capa ATM. Ello define la estructura de la celda y cómo las celdas fluyen sobre las
conexiones lógicas en una red ATM, esta capa es independiente del servicio. El formato de una celda
ATM es muy simple. Consiste de 5 bytes de cabecera y 48 bytes para información.
Las celdas son transmitidas serialmente y se propagan en estricta secuencia numérica a través de la red.
El tamaño de la celda ha sido escogido como un compromiso entre una larga celda, que es muy eficiente
para transmitir largas tramas de datos y longitudes de celdas cortas que minimizan el retardo de
procesamiento de extremo a extremo, que son buenas para voz, vídeo y protocolos sensibles al retardo.
A pesar de que no se diseñó específicamente para eso, la longitud de la celda ATM acomoda
convenientemente dos Fast Packets IPX de 24 bytes cada uno.
Los comités de estándares han definido dos tipos de cabeceras ATM: los User-to-Network Interface (UNI)
y la Network to Network Interface (UNI). La UNI es un modo nativo de interfaz ATM que define la interfaz
entre el equipo del cliente (Customer Premises Equipment), tal como hubs o routerss ATM y la red de
área ancha ATM (ATM WAN). La NNI define la interfase entre los nodos de la redes (los switches o
conmutadores) o entre redes. La NNI puede usarse como una interfase entre una red ATM de un usuario
privado y la red ATM de un proveedor público (carrier). Específicamente, la función principal de ambos
tipos de cabeceras de UNI y la NNI, es identificar las "Virtual paths identifiers" (VPIS) y los "virtual
circuits" o virtual channels"(VCIS) como identificadores para el ruteo y la conmutación de las celdas ATM.
La capa de adaptación de ATM:
La tercer capa es la ATM Adaptation Layer (AAL). La AAL juega un rol clave en el manejo de múltiples
tipos de tráfico para usar la red ATM, y es dependiente del servicio. Especificamente, su trabajo es
adaptar los servicios dados por la capa ATM a aquellos servicios que son requeridos por las capas más
altas, tales como emulación de circuitos, (circuit emulation), vídeo, audio, frame relay, etc. La AAL recibe
los datos de varias fuentes o aplicaciones y las convierte en los segmentos de 48 bytes. Cinco tipos de
servico AAL están definidos actualmente:
La capa de Adaptación de ATM yace entre el ATM layer y las capas más altas que usan el servicio ATM.
Su propósito principal es resolver cualquier disparidad entre un servicio requerido por el usuario y atender
los servicios disponibles del ATM layer. La capa de adaptación introduce la información en paquetes ATM
y controla los errores de la transmisión. La información transportada por la capa de adaptación se divide
en cuatro clases según las propiedades siguientes:
1. Que la información que esta siendo transportada dependa o no del tiempo.
2. Tasa de bit constante/variable.
3. Modo de conexión.
Estas propiedades definen ocho clases posibles, cuatro se definen como B-ISDN Clases de servicios. La
capa de adaptación de ATM define 4 servicios para equiparar las 4 clases definidas por B-ISDN:




AAL-1
AAL-2
AAL-3
AAL-4
La capa de adaptación se divide en dos subcapas:
1)Capa de convergencia (convergence sublayer (CS)) :
En esta capa se calculan los valores que debe llevar la cabecera y los payloads del mensaje. La
información en la cabecera y en el payload depende de la clase de información que va a ser transportada.
2)Capa de Segmentación y reensamblaje (segmentation and reassembly (SAR))
Esta capa recibe los datos de la capa de convergencia y los divide en trozos formando los paquetes de
ATM. Agrega la cabecera que llevara la información necesaria para el reensamblaje en el destino.
La figura siguiente aporta una mejor comprensión de ellas. La subcapa CS es dependiente del servicio y
se encarga de recibir y paquetizar los datos provenientes de varias aplicaciones en tramas o paquete de
datos longitud variable.
Estos paquetes son conocidos como (CS - PDU) CONVERGENCE SUBLAYER PROTOCOL DATA
UNITS.
Luego, la sub capa recibe los SAR CS - PDU, los reparte en porciones del tamaño de la celda ATM para
su transmisión. También realiza la función inversa (reemsamblado) para las unidades de información de
orden superior. Cada porción es ubicada en su propia unidad de protocolo de segmentación y reemsable
conocida como (SAR - PDU) SEGMENTATION AND REASSEMBLER PROTOCOL DATA UNIT, de 48
bytes.
Finalmente cada SAR - PDU se ubica en el caudal de celdas ATM con su header y trailer respectivos.
AAL1:
AAL-1 se usa para transferir tasas de bits constantes que dependen del tiempo. Debe enviar por lo tanto
información que regule el tiempo con los datos. AAL-1 provee recuperación de errores e indica la
información con errores que no podrá ser recuperada.
Capa de convergencia:
Las funciones provistas a esta capa difieren dependiendo del servicio que se proveyó. Provee la
corrección de errores.
Capa de segmentación y reensamblaje:
En esta capa los datos son segmentados y se les añade una cabecera. La cabecera contiene 3 campos
(ver diagrama)



Número de secuencia usado para detectar una inserción o perdida de un paquete.
Número de secuencia para la protección usado para corregir errores que ocurren en el numero
de secuencia.
Indicador de capa de convergencia usado para indicar la presencia de la función de la capa de
convergencia.
ALL 2:
AAL-2 se usa para transferir datos con tasa de bits variable que dependen del tiempo. Envía la
información del tiempo conjuntamente con los datos para que esta puede recuperarse en el destino. AAL2 provee recuperación de errores e indica la información que no puede recuperarse.
Capa de convergencia:
Esta capa provee para la corrección de errores y transporta la información del tiempo desde el origen al
destino.
Capa de segmentación y recuperación:
El mensaje es segmentado y se le añade una cabecera a cada paquete. La cabecera contiene dos
campos.


o
o
o
Numero de secuencia que se usa para detectar paquetes introducidas o perdidas.
El tipo de información es:
BOM, comenzando de mensaje
COM, continuación de mensaje
EOM, fin de mensaje o indica que el paquete contiene información de tiempo u otra.
El payload también contiene dos de campos :


indicador de longitud que indica el numero de bytes validos en un paquete parcialmente lleno.
CRC que es para hacer el control de errores.
AAL 3:
AAL-3 se diseña para transferir los datos con tasa de bits variable que son independientes del tiempo.
AAL-3 puede ser dividido en dos modos de operación:
1. Fiable: En caso de perdida o mala recepción de datos estos vuelven a ser
enviados. El control de flujo es soportado.
2. No fiable: La recuperación del error es dejado para capas mas altas y el control
de flujo es opcional.
Capa de convergencia:
La capa de convergencia en AAL 3 es parecida al ALL 2. Esta subdividida en dos secciones:
1. Parte común de la capa de convergencia. Esto es provisto también por el AAL-2
CS. Añade una cabecera y un payload a la parte común (ver diagrama)
La cabecera contiene 3 campos:



Indicador de la parte común que dice que el payload forma parte de la parte común.
Etiqueta de comienzo que indica el comienzo de la parte común de la capa de convergencia.
Tamaño del buffer que dice al receptor el espacio necesario para acomodar el mensaje.
El payload también contiene 3 campos:

Alineación es un byte de relleno usado para hacer que la cabecera y el payload tengan la misma
longitud.

Fin de etiqueta que indica el fin de la parte común de la CS(capa de convergencia).

El campo de longitud tiene la longitud de la parte común de la CS.
1. Parte especifica del servicio. Las funciones proveídas en esta que capa
dependen de los servicios pedidos. Generalmente se incluyen funciones para la
recuperación y detección de errores y puede incluir también funciones
especiales.
Capa de segmentación y reensamblaje
En esta capa los datos son partidos en paquetes de ATM. Una cabecera y el payload que contiene la
información necesaria para la recuperación de errores y reensamblaje se añaden al paquete. La cabecera
contiene 3 campos:
1) Tipo de segmento que indica que parte de un mensaje contiene en payload. Tiene uno de los
siguientes valores:




BOM: Comenzando de mensaje
COM: Continuación de mensaje
EOM: Fin de mensaje
SSM: Mensaje único en el segmento
2) Numero de secuencia usado para detectar una inserción o una perdida de un paquete.
3) Identificador de multiplexación. Este campo se usa para distinguir datos de diferentes comunicaciones
que ha sido multiplexadas en una única conexión de ATM.
El payload contiene dos de campos:
1) Indicado de longitud que indica el número de bytes útiles en un paquete parcialmente lleno.
2) CRC es para el control de errores.
ALL 4:
AAL-4 se diseña para transportar datos con tasa de bits variable independientes del tiempo. Es similar al
AAL3 y también puede operar en transmisión fiable y o fiable. AAL-4 provee la capacidad de transferir
datos fuera de una conexión explícita.
AAL 2, AAL 3/4 y AAL 5 manejan varios tipos de servicios de datos sobre la base de tasas de bits
variables tales como Switched Multimegabit Data Service (SMDS), Frame Relay o tráfico de redes de
área local (LAN). AAL 2 y AAL 3 soportan paquetes orientados a conexión. (Ver figura No.5)
(El término orientado a conexión describe la transferencia de datos después del establecimiento de un
circuito virtual).
Introducción:
Frame Relay comenzó como un movimiento a partir del mismo grupo de normalización que dio lugar a
X.25 y RDSI: El ITU (entonces CCITT). Sus especificaciones fueron definidas por ANSI, fundamentalmente
como medida para superar la lentitud de X.25, eliminando la función de los conmutadores, en cada
"salto" de la red. X.25 tiene el grave inconveniente de su importante "overhead" producido por los
mecanismos de control de errores y de flujo.
Hasta hace relativamente poco tiempo, X.25 se ha venido utilizando como medio de comunicación para
datos a través de redes telefónicas con infraestructuras analógicas, en las que la norma ha sido la baja
calidad de los medios de transmisión, con una alta tasa de errores. Esto justificaba los abundantes
controles de errores y sus redundantes mecanismos para el control de flujo, junto al pequeño tamaño
de los paquetes. En resumen, se trataba de facilitar las retransmisiones para obtener una comunicación
segura.
Frame Relay, por el contrario, maximiza la eficacia, aprovechándose para ello de las modernas
infraestructuras, de mucha mayor calidad y con muy bajos índices de error, y además permite mayores
flujos de información.
Frame Relay se define, oficialmente, como un servicio portador RDSI de banda estrecha en modo de
paquetes, y ha sido especialmente adaptado para velocidades de hasta 2,048 Mbps., aunque nada le
impide superarlas.
Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo
haría una red privada con circuitos punto a punto. De hecho, su gran ventaja es la de reemplazar las
líneas privadas por un sólo enlace a la red. El uso de conexiones implica que los nodos de la red son
conmutadores, y las tramas deben de llegar ordenadas al destinatario, ya que todas siguen el mismo
camino a través de la red.
Tecnología:
Las redes Frame Relay se construyen partiendo de un equipamiento de usuario que se encarga de
empaquetar todas las tramas de los protocolos existentes en una única trama Frame Relay. También
incorporan los nodos que conmutan las tramas Frame Relay en función del identificador de conexión, a
través de la ruta establecida para la conexión en la red.
Estructura OSI de la red Frame Relay
Este equipo se denomina FRAD o "Ensamblador/Desensamblador Frame Relay" (Frame Relay
Assembler/Disassembler) y el nodo de red se denomina FRND o "Dispositivo de Red Frame Relay" (Frame
Relay Network Device).
Las tramas y cabeceras de Frame Relay pueden tener diferentes longitudes, ya que hay una gran
variedad de opciones disponibles en la implementación, conocidos como anexos a las definiciones del
estándar básico.
La información transmitida en una trama Frame Relay puede oscilar entre 1 y 8.250 bytes, aunque por
defecto es de 1.600 bytes.
Lo más increíble de todo, es que, a pesar del gran número de formas y tamaños Frame Relay funciona
perfectamente, y ha demostrado un muy alto grado de interoperatibilidad entre diferentes fabricantes
de equipos y redes. Ello es debido a que, sean las que sean las opciones empleadas por una
determinada implementación de red o equipamiento, siempre existe la posibilidad de "convertir" los
formatos de Frame Relay a uno común, intercambiando así las tramas en dicho formato.
En Frame Relay, por tanto, los dispositivos del usuario se interrelacionan con la red de comunicaciones,
haciendo que sean aquellos mismos los responsables del control de flujo y de errores. La red sólo se
encarga de la transmisión y conmutación de los datos, así como de indicar cual es el estado de sus
recursos. En el caso de errores o de saturación de los nodos de la red, los equipos del usuario solicitarán
el reenvío (al otro extremo) de las tramas incorrectas y si es preciso reducirán la velocidad de
transmisión, para evitar la congestión.
Las redes Frame Relay son orientadas a conexión, como X.25, SNA e incluso ATM. El identificador de
conexión es la concatenación de dos campos HDLC (High-level Data Link Control), en cuyas
especificaciones originales de unidad de datos (protocolo de la capa 2), se basa Frame Relay. Entre los
dos campos HDLC que forman el "identificador de conexión de enlace de datos" o DLCI (Data Link
Connection Identifier) se insertan algunos bits de control (CR y EA).
A continuación se añaden otros campos que tienen funciones muy especiales en las redes Frame Relay.
Ello se debe a que los nodos conmutadores Frame Relay carecen de una estructura de paquetes en la
capa 3, que por lo general es empleada para implementar funciones como el control de flujo y de la
congestión de la red, y que estas funciones son imprescindibles para el adecuado funcionamiento de
cualquier red.
Los tres más esenciales son DE o "elegible para ser rechazada" (Discard Eligibility), FECN o "notificación
de congestión explícita de envío" (Forward Explicit Congestion Notification), y BECN o "notificación de
congestión explícita de reenvío" (Backward Explicit Congestion Notification). El bit DE es usado para
identificar tramas que pueden ser rechazadas en la red en caso de congestión. FECN es usado con
protocolos de sistema final que controlan el flujo de datos entre en emisor y el receptor, como el
mecanismo "windowing" de TCP/IP; en teoría, el receptor puede ajustar su tamaño de "ventana" en
respuesta a las tramas que llegan con el bit FECN activado. BECN, como es lógico, puede ser usado con
protocolos que controlan el flujo de los datos extremo a extremo en el propio emisor.
Según esto, la red es capaz de detectar errores, pero no de corregirlos (en algunos casos podría llegar
tan solo a eliminar tramas).
No se ha normalizado la implementación de las acciones de los nodos de la red ni del emisor/receptor,
para generar y/o interpretar estos tres bits. Por ejemplo, TCP/IP no tiene ningún mecanismo que le
permita ser alertado de que la red Frame Relay esta generando bits FECN ni de como actuar para
responder a dicha situación. Las acciones y funcionamiento de las redes empleando estos bits son temas
de altísimo interés y actividad en el "Frame Relay Forum" (equivalente en su misión y composición al
"ATM Forum").
Frame Relay también ha sido denominado "tecnología de paquetes rápidos" (fast packet technology) o
"X.25 para los 90´", y esto es cierto en gran medida.
El protocolo X.25 opera en la capa 3 e inferiores del modelo OSI, y mediante la conmutación de
paquetes, a través de una red de conmutadores, entre identificadores de conexión. En cada salto de la
red X.25 se verifica la integridad de los paquetes y cada conmutador proporciona una función de control
de flujo. La función de control de flujo impide que un conmutador X.25 no envíe paquetes a mayor
velocidad de la que el receptor de los mismos sea capaz de procesarlos. Para ello, el conmutador X.25
receptor no envía inmediatamente la señal de reconocimiento de los datos remitidos, con lo que el
emisor de los mismos no envía más que un determinado número de paquetes a la red en un momento
dado.
Frame Relay realiza la misma función, pero partiendo de la capa 2 e inferiores. Para ello, descarta
todas las funciones de la capa 3 que realizaría un conmutador de paquetes X.25, y las combina con las
funciones de trama. La trama contiene así al identificador de conexión, y es transmitida a través de los
nodos de la red en lugar de realizar una "conmutación de paquetes".
Lógicamente, todo el control de errores en el contenido de la trama, y el control de flujo, debe de ser
realizado en los extremos de la comunicación (nodo origen y nodo destino). La conmutación de
paquetes en X.25, un proceso de 10 pasos, se convierte en uno de 2 pasos, a través de la transmisión de
tramas.
Un caso práctico:
Si el usuario "A" desea una comunicación con el usuario "B", primero establecerá un Circuito Virtual (VC
o Virtual Circuit), que los una. La información a ser enviada se segmenta en tramas a las que se añade
el DLCI.
Una vez que las tramas son entregadas a la red, son conmutadas según unas tablas de enrutamiento que
se encargan de asociar cada DLCI de entrada a un puerto de salida y un nuevo DLCI.
En destino, las tramas son reensambladas.
En la actualidad las redes públicas sólo ofrecen Circuitos Virtuales Permanentes (PVC o Permanent
Virtual Circuit). En el futuro podremos disponer de Circuitos Virtuales Conmutados (SVC o Switched
Virtual Circuit), según los cuales el usuario establecerá la conexión mediante protocolos de nivel 3, y el
DLCI será asignado dinámicamente.
La contratación:
A la hora de contratar un enlace Frame Relay, hay que tener en cuenta varios parámetros. Por
supuesto, el primero de ellos es la velocidad máxima del acceso (Vt), que dependerá de la calidad o
tipo de línea empleada.
Pero hay un parámetro más importante: se trata del CIR (velocidad media de transmisión o Committed
Information Rate). Es la velocidad que la red se compromete a servir como mínimo. Se contrata un CIR
para cada PVC o bien se negocia dinámicamente en el caso de SVC’s.
El Committed Burst Size (Bc) es el volumen de tráfico alcanzable transmitiendo a la velocidad media
(CIR).
Por último la ráfaga máxima o Excess Burst Size (Be) es el volumen de tráfico adicional sobre el
volumen alcanzable.
Para el control de todos estos parámetros se fija un intervalo de referencia (tc). Así, cuando el usuario
transmite tramas, dentro del intervalo tc, a la velocidad máxima (Vt), el volumen de tráfico se acumula
y las red lo acepta siempre que este por debajo de Bc. Pero si se continúa transmitiendo hasta superar
Bc, las tramas empezarán a ser marcadas mediante el bit DE (serán consideradas como desechables).
Por ello, si se continúa transmitiendo superando el nivel marcado por Bc+Be, la red no admitirá ninguna
trama más.
Por supuesto la tarificación dentro de cada volumen (Bc/Be) no es igual, puesto que en el caso de Be,
existe la posibilidad de que las tramas sean descartadas.
Situación actual y tendencias:
La clave para que Frame Relay sea aceptado con facilidad, al igual que ocurrió con X.25, y también
ocurre ahora con RDSI, es su gran facilidad, como tecnología, para ser incorporado a equipos ya
existentes: encaminadores (routers), ordenadores, conmutadores, multiplexores, etc., y que estos
pueden, con Frame Relay, realizar sus funciones de un modo más eficiente.
Por ello, Frame Relay es una solución ampliamente aceptada, especialmente para evitar la necesidad
de construir mallas de redes entre encaminadores (routers), y en su lugar multiplexando muchas
conexiones a lugares remotos a través de un solo enlace de acceso a la red Frame Relay.
Su ventaja, como servicio público es evidente. Sin embargo, el hecho de ser un servicio público también
llegar a ser un inconveniente, desde el punto de vista de la percepción que el usuario puede tener de
otros servicios como X.25, y que han llevado, en los últimos años, a las grandes compañías, a crear sus
propias redes, con sus propios dispositivos (fundamentalmente multiplexores, conmutadores y
encaminadores) y circuitos alquilados.
El inconveniente de esas grandes redes, además de su alto coste por el número de equipos necesario, es
el número de circuitos que pueden llegar a suponer y el intrincado laberinto que ello conlleva; por otro
lado, se pueden llegar a generar cuellos de botella en determinados puntos, y grandes congestiones en
toda la red. Por el contrario, Frame Relay permite una mayor velocidad y prestaciones, además de
permitir que un mismo circuito sirva a varias conexiones, reduciendo, obviamente, el número de
puertos y circuitos precisos, y por tanto el coste total.
El futuro de Frame Relay aparece como brillante, especialmente si lo comparamos con otras tecnologías
no estandarizadas. En Frame Relay todo son ventajas: puede ser implementado en software (por
ejemplo en un encaminador), y por tanto puede ser mucho más barato; Frame Relay esta orientado a
conexiones, como la mayoría de las WAN’s; Frame Relay puede "empaquetar" tramas de datos de
cualquier protocolo de longitud variable; la "carga del protocolo" (overhead) de Frame Relay es menor
de un 5%. Como desventaja tendríamos que mencionar que Frame Relay sólo ha sido definido para
velocidades de hasta 1,544/2,048 Mbps. (T1/E1), aunque esto sin duda es algo temporal. Además,
Frame Relay no soporta aplicaciones sensibles al tiempo, al menos de forma estándar.
Pero Frame Relay sigue siendo una tecnología antigua, ya que no inventa nuevos protocolos ni mejora
los dispositivos de la red, sino que se limita a eliminar parte de la carga de protocolo y funciones de
X.25, logrando mejorar su velocidad. El resultado es una red más rápida, pero no una red integrada.
Además, dado que Frame Relay está orientado a conexión, todas las tramas siguen la misma ruta a
través de la red, basadas en un identificador de conexión. Pero las redes orientadas a conexión son
susceptibles de perderla si el enlace entre el nodo conmutador de dos redes falla. Aún cuando la red
intente recuperar la conexión, deberá de ser a través de una ruta diferente, lo que origina un cambia
en la demora extremo a extremo y puede no ser lo suficientemente rápido como para ser transparente
a las aplicaciones.
INTEROPERABILIDAD ENTRE FRAME RELAY Y ATM
El objetivo final para todos los servicios descritos anteriormente es una migración suave de Frame Relay
y/o SMDS a redes ATM. Por ejemplo la recomendación UIT - T I.555, provee un marco para la
interoperabilidad de Frame Relay y ATM.
Para alcanzar una máxima eficiencia se trata de brindar este servicio de interoperabilidad en la capa más
baja posible mediante conversión de protocolo.
PRIMER ESCENARIO:
Cuando el servicio de Frame Relay es dado sobre la RDSI en banda ancha y los usuarios se conectan a
través de la UNI de Frame Relay.
En esta solución, se necesita un equipo que sirva de interfaz tanto para el usuario que recibe, como para
el que transmite. Para proveer el servicio del primer escenario existen dos posibilidades:
POSIBILIDAD 1:
Construir un mallado utilizando conexiones ATM (VC/VP) para enlazar los puntos de acceso Frame
Relay.
En este esquema se puede explotar la naturaleza de orientación a conexión Frame Relay (F R) siguiendo
un comportamiento como:
El usuario del enrutador pregunta por una conexión al equipo interfaz de red.
El equipo interfaz de la red coloca las conexiones Frame Relay dentro de una conexión ATM con las
direcciones destino apropiadas.
Por cada trama de equipo interfaz de red traslada de la conexión de Frame Relay a la ATM y viceversa.
La conexión ATM esta desocupada cuando no se necesita.
Para lograr este último punto, el manejo de la política de conexion del VC, sera
un aspecto crucial para el desempeño de este procedimiento. Resulta difícil de terminar el procedimiento
para manejar un VC cuando la fuente de tráfico es no orientada a conexión. En este caso se pueden
utilizar varios mecanismos:
No utilizar manejo alguno, lo que involucra el uso de circuitos ATM permanentes (VPs) en lugar de los
conmutadores (VCs) con un costo muy elevado.
Abrir y cerrar una conexion ATM con el destino apropiado para cada trama que arribe del lado de Frame
Relay en el equipo interfaz de red.
Abrir una conexión ATM cuando se necesite y cerrarla de acuerdo a un temporizador de inactividad.
El problema debe ser solucionado ya sea por el enrutador del usuario o por el equipo interfaz de red.
POSIBILIDAD 2:
Utilizar un servicio Frame Relay en todos los lugares en los cuales se establezcan conexiones ATM en
estrella. En esta opción se toma ventaja del uso actual del FR, el cual es proveer un mallado virtual entre
diferentes sitios para cargar tráfico no orientado a conexión.
Cada enrutador esta conectado al servidor de FR.
Todos los DLCIs (Data Link Connection Identifier) en cada interfaz FR pueden ser cargados a un servidor
FR dentro de un VC ATM.
En este escenario la funcionalidad de los equipos interfaz de red se simplifica debido a que solo dialoga
con el servidor.
La complejidad reside en el servidor que ejecuta funciones de conmutación. Las tramas se conmutan en
la base de VCIs y DLCIs entrantes y salientes.
El servidor mantiene una tabla con las correspondencias entre los pares VCI / DLCI.
SEGUNDO ESCENARIO:
La red de Frame Relay y la red RDSI de banda ancha se interconectan a través de sus respectivas
interfaces de red (NNIs).
Esto permitiría a un proveedor de red, manejar esta heterogénea red como un todo. Frame Relay provee
usualmente la interconexión para LAN a pesar de su natural orientación a conexión.
En las redes Frame Relay existentes se puede conseguir un mallado de LANs a traves de circuitos
virtuales permanentes. Los datagramas de los LANs son cargados dentro de tramas FR y enrutados de
acuerdo con la etiqueta contenida en el DLCI.
Tratando de hacer un sobresimplificación los dos protocolos (AAL 3 y AAL 5) ofrecen basicamente el
mismo servicio CPAAL (Parte Común AAL) a las subcapas superiores. En este caso a la capa de
Convergencia de Frame Relay.
Existen sin embargo diferencia en las funcionalidades internas, simplicidad de implementación y
eficiencia del protocolo que incide en el costo. Las características a tomar en cuenta, cuyo detalle puede
ser tema de otro artículo, tienen que ver con Delimitación y Alineamiento de Tramas, Multiplexación,
Detección de errores de transmisión, eficiencia en la transmisión. Analizadas estas diferencias se
propone seleccionar el AAL5 bajo la subcapa FR-CS para soportar el servicio Frame Relay en RDSI de
banda ancha.
X.25 (IBERPAC)
Se trata de una red de conmutación de paquetes diseñada para transportar datos.
El servicio que ofrece es orientado a conexión, fiable, en el sentido de que no duplica, ni pierde ni
desordena, y aprovecha las ventajas de la multiplexación estadística.
El protocolo X.25 que dicta su funcionamiento se trata de un estándar excesivamente robusto. Tanto
el nivel de enlace como el nivel de red incluyen mecanismos de control de flujo y de errores; el
protocolo de control de enlace de datos provoca el intercambio de una trama de datos y una de
confirmación en cada salto de la red. Adicionalmente, en cada nodo intermedio deben mantenerse
tablas de estado para cada circuito virtual al fin de gestionar el mantenimiento de la llamada y
aspectos relativos al control de flujo y de errores del protocolo X.25. Debido a esto, X.25 es un
estándar que impone una sobrecarga de procesamiento muy grande. Esta complejidad tan elevada
impide operar a velocidades de línea altas y hace que los tiempos de conmutación sean lentos.
Este coste queda justificado en el caso de que alguno de los enlaces de la red presente una
probabilidad de error significativa, pudiendo no ser la técnica más apropiada para comunicaciones
digitales modernas.
En X.25 hay 2 tipos de CV:
Conmutados (CVC) : Hay que realizar un diálogo previo a la transmisión con el nodo local para
establecerlos.
Permanentes (CVP): Están establecidos de antemano (por contrato), así que no hace falta fase de
establecimiento. Son muy útiles si se transmite mucho y con mucha frecuencia hacia un mismo
destino.
1.6.2.2
No orientadas.
Redes no orientadas a conexión: Llamadas Datagramas, pasan directamente del estado libre al modo de
transferencia de datos. Estas redes no ofrecen confirmaciones, control de flujo ni recuperación de errores
aplicables a toda la red, aunque estas funciones si existen para cada enlace particular. Un ejemplo de este
tipo de red es INTERNET.
Redes No orientadas a conexión. En este tipo de redes cada paquete es ruteado por separado hacia la
terminal destino, esto indica que pueden llegar en desorden y es tarea de la capa de transporte re
ordenarlos para que formen el paquete original.
Red de Conmutacion de Paquetes NO ORIENTADAS A LA
CONEXIÓN: LA RED IP (INTERNET)
En este tipo de redes no es necesario establecer un circuito lógico para poder comunicarse con el
usuario remoto. En este modo no hay fase de establecimiento de la conexión; los paquetes reciben el
nombre de datagramas, cada uno es tratado de forma independiente por la red y pudieran ser
encaminados de forma distinta, pero se ordenan en el nodo destino. La red no entiende de orden en
los paquetes, porque no se establece una relación de orden entre ellos por lo que cada paquete tiene
que tener información suficiente para alcanzar al destinatario. Simplemente los transmite según le
llegan. Los paquetes llevan la dirección de destino y casi siempre el paquete enviado primero será el
primero en llegar al destino, pero en algún caso pudiera no ser así. El hecho de ofrecer un servicio no
orientado a conexión no quiere decir que el servicio no sea fiable y que vaya a desordenar paquetes,
porque normalmente la probabilidad de que se desordenen es suficientemente pequeña.
Las características principales de un servicio de este tipo a nivel de red son las siguientes: no hay
establecimiento de ninguna conexión, sólo hay transferencia de datos, cada paquete que se transmite
se transporta de manera independiente con respecto a los paquetes predecesores, y cada uno tiene que
contener la dirección origen y la dirección destino, y a que no se tiene concepto de conexión.
RED IP (INTERNET)
Internet es un conjunto de redes de ordenadores interconectadas entre sí, que forman una red de
cobertura mundial, cuya finalidad es permitir el intercambio libre y la compartición de información y
recursos entre todos los usuarios. Internet proporciona una conectividad básica de red y un conjunto
de aplicaciones (WWW, Transferencia de ficheros, Conexión como terminal a ordenadores remotos ,
búsqueda de información ...).
Se trata de una red de conmutación de paquetes no orientada a la conexión, cuyo funcionamiento
se basa en el envío de información en datagramas, tal y como ha quedado explicado anteriormente
Los diferentes servicios a los que podemos tener acceso en Internet son proporcionados por los
protocolos que pertenecen al nivel de aplicación. Estos protocolos forman parte del TCP/IP y deben
aportar entre otras cosas una forma normalizada para interpretar la información, ya que todas las
máquinas no utilizan los mismos juegos de caracteres ni los mismos estándares. Los protocolos de los
otros niveles sólo se encargan de la transmisión de información como un bloque de bits, sin definir las
normas que indiquen la manera en que tienen que interpretarse esos bits.
1.6.3 De acuerdo a su relación.
1.6.3.1
De Igual a Igual.
La red de igual a igual también se denomina red de grupo de trabajo. Está diseñada para una cantidad
pequeña de estaciones de trabajo. Microsoft recomienda que no haya más de diez usuarios en una red
de igual a igual. Las ventajas de una red de igual a igual el costo inferior de creación y operación, en
comparación con las redes cliente-servidor; que permite que los usuarios controlen sus propios recursos;
que no requiere un servidor dedicado y que no se requiere ningún software adicional, aparte de un
sistema de operación adecuado.
Las desventajas incluyen que no se suministra ningún punto central de administración y que cada usuario
debe crear identificadores para cada usuario que comparte los recursos de la máquina. Cada vez que un
usuario cambia una contraseña, todas las contraseñas en los recursos compartidos se deben cambiar de
forma individual. Si una estación de trabajo compartida se desactiva o no está disponible, no se dispone
de esos recursos. La última desventaja se mencionó anteriormente, es decir, si hay más de diez usuarios
o si la red crece a más de diez usuarios durante el siguiente año, la red de igual a igual no resulta una
buena elección.
Ejemplos de los sistemas operativos de igual a igual son Windows for Workgroups, Windows 95,
Windows 98 y LANtastic.
Las redes de punto a punto consisten en muchas conexionesentre pares individuales de máquinas. Para
ir del origen al destino un paqueteen este tipo de red puede tener que visitar una ó más máquinas
intermedias. Aveces son posibles múltiples rutas de diferentes longitudes, por lo que losalgoritmos de
ruteo son muy importantes en estas redes.
En una red punto a punto cada computadora puede actuar como cliente y como servidor. Las redes punto
a punto hacen que el compartir datos y periféricos sea fácil para un pequeño grupo de gente. En una
ambiente punto a punto, la seguridad es difícil, porque la administración no está centralizada.
Las redes punto a punto se construyen por medio de conexiones entre pares de computadoras, también
llamadas líneas, enlaces, circuitos o canales (en inglés los términos equivalentes son ‘lines’, ‘links’,
‘circuits’, ‘channels’ o ‘trunks’). Una vez un paquete es depositado en la línea el destino es conocido de
forma inequívoca y no es preciso en principio que lleve la dirección de destino.
Los enlaces que constituyen una red punto a punto pueden ser de tres tipos de acuerdo con el sentido de
la transmisión:

Simplex: la transmisión sólo puede efectuarse en un sentido

Semi-dúplex o ‘half-duplex’: la transmisión puede hacerse en ambos sentidos, pero no
simultáneamente

Dúplex o ‘full-duplex’: la transmisión puede efectuarse en ambos sentidos a la vez.
En los enlaces semi-dúplex y dúplex la velocidad de conexión es generalmente la misma en ambos
sentidos, en cuyo caso se dice que el enlace es simétrico; en caso contrario se dice que es asimétrico.
La gran mayoría de los enlaces en líneas punto a punto son dúplex simétricos. Así, cuando se habla de un
enlace de 64 Kb/s sin especificar mas se quiere decir 64 Kb/s en cada sentido, por lo que la capacidad total
del enlace es de 128 Kb/s.
Al unir múltiples máquinas con líneas punto a punto es posible llegar a formar redes de topologías
complejas en las que no sea trivial averiguar cual es la ruta óptima a seguir para ir de un punto a otro, ya
que puede haber múltiples caminos posibles con distinto número de computadoras intermedias, con
enlaces de diversas velocidades y distintos grados de ocupación. Como contraste, en una red broadcast el
camino a seguir de una máquina a otra es único , no existen computadoras intermedios y el grado de
ocupación es el mismo para todas ellas.
Cada uno de las computadoras que participa en una red de enlaces punto a punto es un nodo de la red. Si
el nodo tiene un único enlace se dice que es un nodo terminal o ‘end node’, de lo contrario se dice que es
un nodo intermedio, de encaminamiento o ‘routing node’. Cada nodo intermedio ha de tomar una serie de
decisiones respecto a por donde debe dirigir los paquetes que reciba, por lo que también se les llama
nodos de conmutación de paquetes, nodos de conmutación, conmutadores o ruteadores (los términos
equivalentes en inglés son respectivamente packet switching nodes, switching nodes, switches y routers).
Dependiendo del tipo de red que se trate nosotros utilizaremos las denominaciones router o conmutador.
Cualquier computadora (por ejemplo una estación de trabajo UNIX, o incluso un PC con MS/DOS), puede
actuar como un router en una red si dispone del programa apropiado; sin embargo, se prefiere
normalmente utilizar para este fin computadoras dedicadas, con sistemas operativos en tiempo real y
software específico, dejando los computadoras de propósito general para las aplicaciones del usuario; esto
da normalmente mayor rendimiento y fiabilidad. Tradicionalmente la computadora de propósito general que
se conecta a la red como nodo terminal mediante un router se le denomina host, palabra inglesa que
significa anfitrión (aunque esta denominación no se utiliza nunca en este contexto). El conjunto de líneas
de comunicación y routers que interconectan a los hosts forman lo que se conoce como la subred de
comunicaciones, o simplemente subred. Obsérvese que los hosts o nodos terminales no forman parte de la
subred. Si hacemos la analogía con la red telefónica diríamos que la subred es el conjunto de cables y
centrales telefónicas, incluido la roseta de la pared donde conectamos el teléfono, pero no formaría parte
de la subred nuestro teléfono, que enchufamos la roseta.
Para llegar de un nodo a otro en una red se ha de atravesar uno o varios enlaces; el número de enlaces se
denomina en inglés ‘hops’, que significa saltos, y depende de la trayectoria seguida y de la topología de la
red. Cuando dos nodos no vecinos (es decir a mas de un ‘hop’ de distancia) desean intercambiar
información lo han de hacer a través de uno o varios nodos intermedios. Cuando un paquete se envía de
un nodo al siguiente normalmente el paquete es transmitido en su totalidad y almacenado; solo entonces el
nodo receptor intenta enviar el paquete al siguiente nodo de la red. Esto es lo que se conoce como una red
de almacenamiento - reenvío (‘store-and-forward’) o red de conmutación de paquetes (‘packet - switched’).
Esta forma de proceder permite una elevada fiabilidad incluso en entornos hostiles donde el número de
errores puede ser elevado.
Dado que en una red punto a punto cada enlace puede tener una velocidad distinta, no podemos
caracterizar la red con un único dato de forma tan sencilla como en una red broadcast; sería preciso
adjuntar un esquema de la topología indicando el tipo de cada enlace (simplex, semi-dúplex o dúplex) y su
velocidad (en cada sentido si fuera asimétrico).
Red Peer-to-Peer
Una red peer-to-peer (entre iguales o cliente-cliente) resulta idónea para conectar 5 ó 6 nodos. En esta
configuración, se usa un dispositivo central de control, denominado hub o switch, para conectar entre sí
todos los ordenadores. Cada computador es un igual, o par, de los otros y pueden compartir archivos y
periféricos conectados a la red. Si bien una red peer-to-peer es una solución sencilla, económica y fácil
de instalar, no es tan eficiente a la hora de buscar, recuperar y almacenar archivos.
Redes de igual a igual
En las redes de igual a igual no hay un servidor central. Por lo general, esta configuración tiene una única
serie de ordenadores conectados entre sí mediante cables. Cada ordenador es un igual, o tiene el mismo
"rango" de los demás, y puede compartir los archivos y los periféricos de los otros ordenadores
conectados a la red. Normalmente, este tipo de red tan simple resulta muy adecuado para menos de
cinco usuarios que necesitan compartir ocasionalmente archivos y periféricos.
Aunque una red de igual a igual es una solución de bajo coste y fácil de instalar, tiene algunos
inconvenientes. Si un usuario apaga su estación de trabajo, su información o periféricos ya no estarán
disponibles para el uso compartido por parte de los demás usuarios. Además, el acceso a los datos y las
aplicaciones de la estación de trabajo de otro usuario puede provocarle problemas de rendimiento.
1.6.3.2
Cliente - Servidor.
El otro tipo de red es una red cliente-servidor. Los sistemas operativos de red son el núcleo de la red
cliente-servidor. Estos sistemas controlan los recursos y la administración de la red de área local. Las
ventajas de las redes cliente-servidor son que suministran un punto centralizado de administración de
usuario, seguridad y recursos. También se pueden utilizar servidores dedicados para suministrar recursos
específicos a los clientes de forma más efectiva. También suministran acceso a todos los recursos
permitidos con un ID de red y una contraseña. La desventaja es que ahora hay un solo punto de falla en
la red. Si el servidor entra en colapso, todos los recursos del servidor son inaccesibles para los clientes.
De hecho, es posible que los clientes ni siquiera puedan operar sin el servidor. En la actualidad, la
operación y el mantenimiento de la red requieren que haya personal especialmente capacitado para
mantener la red. Esto, junto con el software y hardware especiales, hacen que el costo de operación se
encarezca. Incluso con sus desventajas, la red cliente-servidor en realidad es la única opción para las
organizaciones con más de diez usuarios. Ejemplos de sistemas operativos cliente-servidor son Unix,
NetWare de Novell y Windows NT:
El sistema operativo Unix tiene muchas variantes, según la implementación de distintas empresas. Las
empresas que suministran Unix incluyen Sun Microsystems, IBM, Hewlett-Packard y Santa Cruz
Operation (SCO). También hay versiones gratis de Unix denominadas FreeBSD y Linux, la última de las
cuales es muy popular en la actualidad. Unix es un sistema operativo de múltiples usuarios que soporta
aplicaciones multiprocesamiento, multitarea y multithread. El sistema operativo se basa en un núcleo, que
aísla la capa de hardware del computador de las aplicaciones que funcionan incorrectamente y utiliza
principalmente el sistema de archivos NFS (Sistema de archivos de red - la implementación de Sun
Microsystems). El sistema de archivos NFS suministra acceso de seguridad de directorio y archivo en el
servidor. Unix también brinda control centralizado de usuarios y recursos a través del sistema operativo.
Dadas las múltiples versiones de Unix, es difícil señalar las diferencias entre todas las variantes y
versiones de este software. La descripción anterior indica las características comunes disponibles en
todas las versiones de Unix. Los clientes que trabajan mejor con Unix por lo general son específicos del
productor del sistema operativo.
Para describir NetWare y Windows NT, debemos hablar acerca de las distintas versiones que se han
desarrollado a través de los años. En primer lugar, hablaremos acerca de NetWare de Novell. Las
versiones de NetWare que se describen son las Ver 3.12, Ver. 4.11 y la Ver. 5.0. Estas versiones se
diferencian principalmente en lo que se refiere al manejo de los servicios de Directorio.
La Ver. 3.12 de NetWare utiliza un objeto denominado Bindery para administrar múltiples usuarios y
recursos. La desventaja es que los servicios de bindery crean una red centrada en el servidor. El enfoque
de la red centrada en el servidor se concentra en el servidor individual como el punto de control. Esto
crea un problema con una red de servidores múltiples. Cada servidor debe tener un ID individual para
cada usuario, incluso si las contraseñas están sincronizadas de tal modo que al cambiar una de las
contraseñas se cambie la contraseña en todos los servidores, lo que deja sin efecto el propósito de la
administración centralizada. Para ser justos, este es un aspecto de tiempo, ya que la Ver. 3.12 existía
antes de que se produjera la gran explosión de redes de servidores múltiples. Esta es una de las mejoras
principales en la Ver. 4.11 de NetWare.
La Ver. 4.11 y la Ver. 5.0 de NetWare utilizan un objeto denominado NDS (Servicios de Directorio de
Novell) para administrar usuarios y recursos. La ventaja sobre la Ver 3.12 es que NDS crea una red
centrada en la red. El enfoque de la red centrada en la red se concentra en la totalidad de la red como el
punto de control. Este enfoque unifica la administración en un único punto y los servidores se tratan
simplemente como objetos dentro del contexto de la red. Esto permite que haya un solo ID y una sola
contraseña para autorizar a los usuarios a utilizar todos los recursos a través de la red y facilita la
organización y la administración de la red.
Todas las versiones de NetWare utilizan una combinación de dos servicios de archivos. El primero es
FAT (tabla de asignación de archivos), que es el sistema de archivos que se utiliza para DOS. El segundo
es DET (Tabla de entradas del directorio), que es un sistema de archivos propietario de Novell, que
suministra seguridad de archivos y directorio en el servidor. Los clientes que trabajan mejor con NetWare
son varios; entre ellos se incluyen todas las versiones de Windows, DOS, Macintosh y OS-2. Los puntos
fuertes de NetWare son la administración de recursos de usuario y de archivo.
El último sistema operativo que se describe es Windows NT. Hay dos versiones de Windows NT que se
deben conocer. La versión 4.0 de Windows NT para servidor y estación de trabajo se desarrollaron con la
interfaz de usuario Windows 95. Esto hace que la interfaz de todos los productos de Windows tenga un
aspecto y un manejo similares. Windows NT maneja la administración de usuarios y recursos a través del
uso de Dominios. Un dominio es una agrupación lógica de usuarios y recursos bajo el control de un
servidor denominado PDC (Controlador de dominio primario). Los dominios también soportan el uso de
servidores secundarios denominados BDC (Controladores de dominio de reserva). Los BDC equilibran la
carga de trabajo del PDC y suministran la redundancia de los objetos usuario y recurso. En un dominio,
se permite un tercer tipo de servidor, denominado servidor autónomo. Este servidor se configura
principalmente para soportar una aplicación en particular y dedicar sus recursos a dicha aplicación. Otra
variante del dominio se denomina modelo multidominio. En este modelo, los dominios individuales están
conectados por relaciones de confianza, lo que permite que los usuarios puedan utilizar recursos más allá
de los límites del Dominio.
La estructura de administración de Windows 2000 Server cambia de Dominios a una Estructura de
directorio activa. El directorio activo se basa en un modelo centrado en red, como NDS, en lugar de en un
modelo centrado en Dominio.
Windows NT es, al igual que Unix, un sistema operativo multiusuario que soporta aplicaciones
multiprocesamiento, multitarea y multithread. El sistema operativo, al igual que Unix, se basa en un
núcleo, que aísla la capa de hardware del computador de las aplicaciones que no funcionan
correctamente y utiliza el sistema de archivos FAT16 y el sistema propietario de NT, NTFS (Sistema de
archivos de nueva tecnología). Con FAT16, Windows NT suministra simplemente seguridad a nivel de
directorio (también denominado carpeta); no se suministra seguridad de archivos individuales. NTFS
suministra seguridad y permisos a nivel de archivo y directorio. La razón por la que Windows NT soporta
ambos sistemas operativos es que tiene la capacidad de coexistir con otro sistema operativo en la misma
máquina. Esto no significa que ambos sistemas se puedan ejecutar al mismo tiempo, sino que el
computador puede ejecutar Windows NT o el otro sistema operativo. Para que el otro sistema operativo
tenga acceso de archivo, el sistema de archivo debe ser FAT16. Simplemente a título informativo,
Windows 95 y 98 soportan FAT32, Windows NT no. De modo que FAT16 debe utilizarse si se desea
ejecutar Windows NT y 95 en el mismo computador. Windows NT funciona mejor con su propio cliente,
Windows NT Workstation, pero también funciona bien con Windows for Workgroups, Windows 95 y 98 y
clientes Macintosh.
No importa cuál sea el sistema operativo de red que se utilice, la función principal del sistema operativo
de red es controlar la red. Esto se logra al establecer usuarios de red; derechos, cuentas de conexión (ID
del usuario), contraseñas y grupos, así como también Perfiles y políticas de sistema. Estos términos se
identificarán de forma más completa en los siguientes párrafos.
Cliente/servidor
En vez de construir sistemas informáticos como elementosmonolíticos, existe el acuerdo general de
construirlos como sistemascliente/servidor. El cliente ( un usuario de PC ) solicita un servicio (
comoimprimir ) que un servidor le proporciona ( un procesador conectado a la LAN ).Este enfoque común
de la estructura de los sistemas informáticos se traduce enuna separación de las funciones que
anteriormente forman un todo. Los detallesde la realización van desde los planteamientos sencillos hasta
la posibilidadreal de manejar todos los ordenadores de modo uniforme.
Red cliente/servidor: También conocida como client/server, en este caso el servidor es
una máquina específica que usa un sistema operativo desarrollado especialmente para este
tipo de red. Las estaciones de trabajo comparten recursos disponibles a partir de este
servidor. La ejecución de las tareas está dividida entre el cliente (o estación) y el servidor.
Debido a que existe una máquina dedicada que utiliza un sistema operativo específico, este
tipo de red proporciona un mejor rendimiento y niveles de seguridad más adecuados para
el trabajo profesional en red.
Actualmente existen sistemas operativos de red pensados para redes par a par, para redes
cliente/servidor e incluso, aquellos que pueden funcionar de manera híbrida, es decir, de
cualquiera de los dos modos.
El sistema operativo del tipo par a par es normalmente de bajo costo, por ser mucho más
simple. En general, posibilita la capacidad de red a cualquier sistema operativo
preexistente. Como el sistema preexistente no fue desarrollado para trabajar en red solamente terminó recibiendo un agregado para esta rutina-, los recursos de seguridad de
los datos y el rendimiento quedan comprometidos.
Los sistemas operativos basados en la arquitectura cliente/servidor fueron desarrollados
para operar como servidores de red. En consecuencia, se puede prever una serie de
funciones de seguridad adicionales que mejoran su rendimiento. Son opciones más caras
pero que ofrecen muchos más recursos si se las compara con las redes par a par.
Red Cliente-Servidor
Cuando hay que conectar seis o más nodos y se necesita actualizar de forma periódica grandes archivos
tales como bases de datos o de información, la mejor elección es una red cliente-servidor. La presencia
de un computador central o servidor en esta configuración proporciona numerosas ventajas. Como los
archivos se almacenan en una única ubicación, se simplifican las tareas de actualización, back up y
archivo con resultados garantizados. Generalmente, el servidor es un computador de alto rendimiento
que garantiza la rapidez en el acceso y recuperación de datos, y que confiere al negocio la plataforma
necesaria para añadir funciones tales como centralización de contabilidad y de libro mayor, producción,
entrada de pedidos, envíos, o software de administración de inventario. De nuevo, la solución para esta
configuración es un hub o switch centralizado.
LAN cliente/servidor
En el sentido más estricto, el término cliente/servidor describe un sistema en el que una máquina cliente solicita a
una segunda máquina llamada servidor que ejecute una tarea específica. El cliente suele ser una computadora
personal común conectada a una LAN, y el servidor es, por lo general, una máquina anfitriona, como un servidor de
archivos PC, un servidor de archivos de UNIX o una macrocomputadora o computadora de rango medio. El
programa cliente cumple dos funciones distintas: por un lado gestiona la comunicación con el servidor, solicita un
servicio y recibe los datos enviados por aquél. Por otro, maneja la interfaz con el usuario: presenta los datos en el
formato adecuado y brinda las herramientas y comandos necesarios para que el usuario pueda utilizar las
prestaciones del servidor de forma sencilla. El programa servidor en cambio, básicamente sólo tiene que encargarse
de transmitir la información de forma eficiente. No tiene que atender al usuario. De esta forma un mismo servidor
puede atender a varios clientes al mismo tiempo. Algunas de las principales LAN cliente/servidor con servidores
especializados que pueden realizar trabajos para clientes incluyen a Windows NT, NetWare de Novell, VINES de
Banyan y LAN Server de IBM entre otros. Todos estos sistemas operativos de red pueden operar y procesar
solicitudes de aplicaciones que se ejecutan en clientes, mediante el procesamiento de las solicitudes mismas.
Redes cliente-servidor
Las redes cliente-servidor proporcionan más flexibilidad que las redes de igual a igual. Un conmutador de
red actúa como dispositivo central de comunicaciones para conectar los ordenadores de sobremesa y los
portátiles al servidor. De este modo, un servidor dedicado en la red permite que los usuarios accedan a la
información y compartan periféricos sin depender de los sistemas de otros usuarios. Además, se puede
instalar un sistema de copia de seguridad en cinta en un servidor dedicado, lo que permite realizar copias
de seguridad de los datos tanto del servidor como de todas las estaciones de trabajo. Las redes clienteservidor normalmente se utilizan cuando hay una necesidad constante de acceder a archivos y
aplicaciones grandes o cuando varios usuarios desean compartir periféricos.
Componentes de red
La configuración de una red cliente-servidor es más sencilla de lo que parece. Hay nueve componentes
básicos, de los cuales algunos son opcionales:
Servidor
Adquiera un servidor con la potencia de procesamiento adecuada, así como con las características de
ampliación y disponibilidad que cubran las necesidades de su empresa y el número de usuarios.
Ordenadores de sobremesa
Identifique los ordenadores de sobremesa o estaciones de trabajo que desea conectar en red.
Conmutadores de red
Un conmutador es un dispositivo de hardware que conecta los ordenadores cliente y los servidores entre
sí. La mayoría de los conmutadores disponibles actualmente están diseñados para redes Ethernet.
Están disponibles en varias configuraciones de puertos, donde el número de puertos indica el número de
dispositivos que se pueden conectar.
Los conmutadores están reemplazando rápidamente a los concentradores en la infraestructura de redes.
Aunque están diseñados para realizar la misma tarea de conectividad básica, los conmutadores son
"inteligentes" y aprovechan mejor el ancho de banda de la red.
Actualmente, la mayoría de los conmutadores tienen puertos diseñados para gestionar el tráfico Ethernet
que se transmite a las velocidades habituales de 10 y 100 Mbps. Los conmutadores más avanzados
disponen de puertos que admiten Gigabit1 Ethernet o 1 GB/s.
La línea DellTM PowerConnectTM de conmutadores ofrece conmutadores administrados y no
administrados. Los conmutadores no administrados son ideales para redes sencillas en las que se desea
la simplicidad Plug-and-Play. Los conmutadores administrados proporcionan mayor flexibilidad y control
del tráfico a los administradores de la red.
Enrutadores
Los enrutadores conectan y administran el tráfico de datos entre dos redes. Los módems de cable y DSL
son técnicamente enrutadores, ya que conectan un cliente (o clientes) de red de área local (LAN) con una
red de área amplia (WAN), denominada Internet. También hay enrutadores que administran el tráfico
entre conexiones externas, como líneas T1 y T3.
Muchos enrutadores combinan las funciones de un enrutador y un conmutador, lo que proporciona
puertos para conectar varios clientes de la LAN.
Cables
Conecte las estaciones de trabajo entre sí y con el servidor con cables. El cable sirve de conducto a
través del cual se envían datos entre dispositivos. Entre los cables se pueden incluir desde cable de par
trenzado (RJ-45), que es similar al cable telefónico estándar, hasta cable de fibra óptica, que es más
rápido pero suele ser caro.
Tarjeta de interfaz de red
Una "NIC", o tarjeta de interfaz de red, es un producto de nivel amplio que se instala en un PC, estación
de trabajo o servidor y permite que el ordenador se comunique con el resto de la red. Mientras una NIC
de sobremesa se instala en un PC de sobremesa o una estación de trabajo y sólo admite un único
usuario, una NIC de servidor se utiliza en un servidor para conectar muchos usuarios y admite
aplicaciones empresariales críticas. Una NIC de servidor ofrece mayor fiabilidad, menor sobrecarga de la
CPU y mejor rendimiento global.
Software
Es necesario algún tipo de software de red para facilitar las comunicaciones entre las estaciones de
trabajo y el servidor. El sistema operativo de red se ejecuta en el servidor y permite que los usuarios
compartan información y periféricos conectados a la red. Además, cada estación de trabajo debe ejecutar
software cliente con el fin de establecer comunicación con el servidor.
Cortafuegos
Los cortafuegos de red protegen las redes contra el acceso no autorizado. Los cortafuegos pueden ser
dispositivos de hardware, aplicaciones de software o una combinación de ambos. Todos los cortafuegos
protegen las redes contra el acceso exterior malintencionado. Algunos se pueden programar para
controlar el acceso al exterior de los usuarios locales.
Unidades de copia de seguridad en cinta y sistemas de alimentación ininterrumpida
Dell recomienda encarecidamente el uso de unidades de copia de seguridad en cinta y fuentes de
alimentación universales en la red. Las unidades de copia de seguridad en cinta ayudan a los usuarios a
almacenar y proteger la información valiosa sin la cual no podría funcionar su empresa. Los sistemas de
alimentación ininterrumpida contribuyen a proteger los archivos contra subidas de tensión y cortes de
electricidad.
1.7 Descripción del Modelo OSI.
1.7.1 Modelo de capas.
Al principio de su desarrollo, las LAN, MAN y WAN eran en cierto modo caóticas. A principios de la
década de los 80 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida
que las empresas se dieron cuenta de que podrían ahorrar mucho dinero y aumentar la productividad con
la tecnología de networking, comenzaron a agregar redes y a expandir las redes existentes casi
simultáneamente con la aparición de nuevas tecnologías y productos de red.
A mediados de los 80, estas empresas debieron enfrentar problemas cada vez más serios debido a su
expansión caótica. Resultaba cada vez más difícil que las redes que usaban diferentes especificaciones
pudieran comunicarse entre sí. Se dieron cuenta que necesitaban salir de los sistemas de networking
propietarios.
Los sistemas propietarios se desarrollan, pertenecen y son controlados por organizaciones privadas. En
la industria de la informática, "propietario" es lo contrario de "abierto". "Propietario" significa que un
pequeño grupo de empresas controla el uso total de la tecnología. Abierto significa que el uso libre de la
tecnología está disponible para todos.
Para enfrentar el problema de incompatibilidad de las redes y su imposibilidad de comunicarse entre sí,
la Organización Internacional para la Normalización (ISO) estudió esquemas de red como DECNET, SNA
y TCP/IP a fin de encontrar un conjunto de reglas. Como resultado de esta investigación, la ISO
desarrolló un modelo de red que ayudaría a los fabricantes a crear redes que fueran compatibles y que
pudieran operar con otras redes.
El proceso de dividir comunicaciones complejas en tareas más pequeñas y separadas se podría
comparar con el proceso de construcción de un automóvil. Visto globalmente, el diseño, la fabricación y
el ensamblaje de un automóvil es un proceso de gran complejidad. Es poco probable que una sola
persona sepa cómo realizar todas las tareas requeridas para la construcción de un automóvil desde cero.
Es por ello que los ingenieros mecánicos diseñan el automóvil, los ingenieros de fabricación diseñan los
moldes para fabricar las partes y los técnicos de ensamblaje ensamblan cada uno una parte del auto.
El modelo de referencia OSI (Nota: No debe confundirse con ISO.), lanzado en 1984, fue el esquema
descriptivo que crearon. Este modelo proporcionó a los fabricantes un conjunto de estándares que
aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red
utilizados por las empresas a nivel mundial.
El modelo de referencia OSI es el modelo principal para las comunicaciones por red. Aunque existen
otros modelos, en la actualidad la mayoría de los fabricantes de redes relacionan sus productos con el
modelo de referencia OSI, especialmente cuando desean enseñar a los usuarios cómo utilizar sus
productos. Los fabricantes consideran que es la mejor herramienta disponible para enseñar cómo enviar
y recibir datos a través de una red.
El modelo de referencia OSI permite que los usuarios vean las funciones de red que se producen en cada
capa. Más importante aún, el modelo de referencia OSI es un marco que se puede utilizar para
comprender cómo viaja la información a través de una red. Además, puede usar el modelo de referencia
OSI para visualizar cómo la información o los paquetes de datos viajan desde los programas de
aplicación (por ej., hojas de cálculo, documentos, etc.), a través de un medio de red (por ej., cables, etc.),
hasta otro programa de aplicación ubicado en otro computador de la red, aún cuando el transmisor y el
receptor tengan distintos tipos de medios de red.
En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función
de red específica. Esta división de las funciones de networking se denomina división en capas. Si la red
se divide en estas siete capas, se obtienen las siguientes ventajas:



Divide la comunicación de red en partes más pequeñas y sencillas.
Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos de
diferentes fabricantes.
Permite a los distintos tipos de hardware y software de red comunicarse entre sí.


Impide que los cambios en una capa puedan afectar las demás capas, para que se puedan
desarrollar con más rapidez.
Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje.
El problema de trasladar información entre computadores se divide en siete problemas más pequeños y
de tratamiento más simple en el modelo de referencia OSI. Cada uno de los siete problemas más
pequeños está representado por su propia capa en el modelo. Las siete capas del modelo de referencia
OSI son:
Capa 7: La capa de aplicación
Capa 6: La capa de presentación
Capa 5: La capa de sesión
Capa 4: La capa de transporte
Capa 3: La capa de red
Capa 2: La capa de enlace de datos
Capa 1: La capa física
Cada capa individual del modelo OSI tiene un conjunto de funciones que debe realizar para que los
paquetes de datos puedan viajar en la red desde el origen hasta el destino. A continuación, presentamos
una breve descripción de cada capa del modelo de referencia OSI tal como aparece en la figura.
Capa 7: La capa de aplicación
La capa de aplicación es la capa del modelo OSI más cercana al usuario; suministra servicios de red a
las aplicaciones del usuario. Difiere de las demás capas debido a que no proporciona servicios a ninguna
otra capa OSI, sino solamente a aplicaciones que se encuentran fuera del modelo OSI. Algunos ejemplos
de aplicaciones son los programas de hojas de cálculo, de procesamiento de texto y los de las terminales
bancarias. La capa de aplicación establece la disponibilidad de los potenciales socios de comunicación,
sincroniza y establece acuerdos sobre los procedimientos de recuperación de errores y control de la
integridad de los datos. Si desea recordar a la Capa 7 en la menor cantidad de palabras posible, piense
en los navegadores de Web.
Capa 6: La capa de presentación
La capa de presentación garantiza que la información que envía la capa de aplicación de un sistema
pueda ser leída por la capa de aplicación de otro. De ser necesario, la capa de presentación traduce
entre varios formatos de datos utilizando un formato común. Si desea recordar la Capa 6 en la menor
cantidad de palabras posible, piense en un formato de datos común.
Capa 5: La capa de sesión
Como su nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones entre dos
hosts que se están comunicando. La capa de sesión proporciona sus servicios a la capa de presentación.
También sincroniza el diálogo entre las capas de presentación de los dos hosts y administra su
intercambio de datos. Además de regular la sesión, la capa de sesión ofrece disposiciones para una
eficiente transferencia de datos, clase de servicio y un registro de excepciones acerca de los problemas
de la capa de sesión, presentación y aplicación. Si desea recordar la Capa 5 en la menor cantidad de
palabras posible, piense en diálogos y conversaciones.
Capa 4: La capa de transporte
La capa de transporte segmenta los datos originados en el host emisor y los reensambla en una corriente
de datos dentro del sistema del host receptor. El límite entre la capa de transporte y la capa de sesión
puede imaginarse como el límite entre los protocolos de aplicación y los protocolos de flujo de datos.
Mientras que las capas de aplicación, presentación y sesión están relacionadas con asuntos de
aplicaciones, las cuatro capas inferiores se encargan del transporte de datos.
La capa de transporte intenta suministrar un servicio de transporte de datos que aísla las capas
superiores de los detalles de implementación del transporte. Específicamente, temas como la
confiabilidad del transporte entre dos hosts es responsabilidad de la capa de transporte. Al proporcionar
un servicio de comunicaciones, la capa de transporte establece, mantiene y termina adecuadamente los
circuitos virtuales. Al proporcionar un servicio confiable, se utilizan dispositivos de detección y
recuperación de errores de transporte. Si desea recordar a la Capa 4 en la menor cantidad de palabras
posible, piense en calidad de servicio y confiabilidad.
Capa 3: La capa de red
La capa de red es una capa compleja que proporciona conectividad y selección de ruta entre dos
sistemas de hosts que pueden estar ubicados en redes geográficamente distintas. Si desea recordar la
Capa 3 en la menor cantidad de palabras posible, piense en selección de ruta, direccionamiento y
enrutamiento.
Capa 2: La capa de enlace de datos
La capa de enlace de datos proporciona tránsito de datos confiable a través de un enlace físico. Al
hacerlo, la capa de enlace de datos se ocupa del direccionamiento físico (comparado con el lógico) , la
topología de red, el acceso a la red, la notificación de errores, entrega ordenada de tramas y control de
flujo. Si desea recordar la Capa 2 en la menor cantidad de palabras posible, piense en tramas y control
de acceso al medio.
Capa 1: La capa física
La capa física define las especificaciones eléctricas, mecánicas, de procedimiento y funcionales para
activar, mantener y desactivar el enlace físico entre sistemas finales. Las características tales como
niveles de voltaje, temporización de cambios de voltaje, velocidad de datos físicos, distancias de
transmisión máximas, conectores físicos y otros atributos similares son definidos por las especificaciones
de la capa física. Si desea recordar la Capa 1 en la menor cantidad de palabras posible, piense en
señales y medios.
El modelo de referencia de Interconexión de sistemas abiertos (OSI, Open System Interconnection)
El modelo OSI representa los siete niveles de proceso mediante el cual los datos se
empaquetan y se transmiten desde una aplicación emisora a través de cables físicos hacia la
aplicación receptora.
Comunicaciones en red
La actividad de una red incluye el envío de datos de un equipo a otro. Este proceso
complejo se puede dividir en tareas secuenciales discretas. El equipo emisor debe:
1.
2.
3.
datos
4.
5.
Reconocer los datos.
Dividir los datos en porciones manejables.
Añadir información a cada porción de datos para determinar la ubicación de los
y para identificar al receptor.
Añadir información de temporización y verificación de errores.
Colocar los datos en la red y enviarlos por su ruta.
El software de cliente de red trabaja a muchos niveles diferentes dentro de los equipos
emisores y receptores. Cada uno de estos niveles, o tareas, es gestionado por uno o más
protocolos. Estos protocolos, o reglas de comportamiento, son especificaciones estándar
para dar formato a los datos y transferirlos. Cuando los equipos emisores y receptores
siguen los mismos protocolos se asegura la comunicación. Debido a esta estructura en
niveles, a menudo es referido como pila del protocolo.
Con el rápido crecimiento del hardware y el software de red, se hizo necesario que los
protocolos estándar pudieran permitir la comunicación entre hardware y software de
distintos vendedores. Como respuesta, se desarrollaron dos conjuntos primarios de
estándares: el modelo OSI y una modificación de ese estándar llamado Project 802.
El modelo de referencia OSI
En 1978, la International Standards Organization, ISO (Organización internacional de
estándares) divulgó un conjunto de especificaciones que describían la arquitectura de red
para la conexión de dispositivos diferentes. El documento original se aplicó a sistemas que
eran abiertos entre sí, debido a que todos ellos podían utilizar los mismos protocolos y
estándares para intercambiar información.
En 1984, la ISO presentó una revisión de este modelo y lo llamó modelo de referencia de
Interconexión de Sistemas Abiertos (OSI) que se ha convertido en un estándar internacional
y se utiliza como guía para las redes.
El modelo OSI es la guía mejor conocida y más ampliamente utilizada para la visualización
de entornos de red. Los fabricantes se ajustan al modelo OSI cuando diseñan sus productos
para red. Éste ofrece una descripción del funcionamiento conjunto de hardware y software
de red por niveles para posibilitar las comunicaciones. El modelo también ayuda a localizar
problemas proporcionando un marco de referencia que describe el supuesto funcionamiento
de los componentes.
Una arquitectura por niveles
La arquitectura del modelo de referencia OSI divide la comunicación en red en siete
niveles.
Cada nivel cubre diferentes actividades, equipos o protocolos de red. El modelo
OSI define cómo se comunica y trabaja cada nivel con los niveles inmediatamente superior e
inferior. Por ejemplo, el nivel de sesión se comunica y trabaja con los niveles de
presentación y de transporte.
Cada nivel proporciona algún servicio o acción que prepara los datos para entregarlos a
través de la red a otro equipo. Los niveles inferiores (1 y 2) definen el medio físico de la red
y las tareas relacionadas, como la colocación de los bits de datos sobre las placas de red
(NIC, Network Interface Cards) y el cable. Los niveles superiores definen la forma en que las
aplicaciones acceden a los servicios de comunicación. Cuanto más alto es el nivel, más
compleja es su tarea.
Los niveles están separados entre sí por fronteras llamadas interfaces. Todas las
demandas se pasan desde un nivel, a través de esta interfaz, hacia el siguiente. Cada nivel
se basa en los estándares y actividades del nivel inferior.
Relaciones entre los niveles del modelo OSI
Cada nivel proporciona servicios al nivel inmediatamente superior y lo protege de los
detalles de implementación de los servicios de los niveles inferiores. Al mismo tiempo, cada
nivel parece estar en comunicación directa con su nivel asociado del otro equipo. Esto
proporciona una comunicación lógica, o virtual, entre niveles análogos. En realidad, la
comunicación real entre niveles adyacentes tiene lugar sólo en un equipo. En cada nivel, el
software implementa las funciones de red de acuerdo con un conjunto de protocolos.
Antes de pasar los datos de un nivel a otro, se dividen en paquetes, o unidades de
información, que se transmiten como un todo desde un dispositivo a otro sobre una red. La
red pasa un paquete de un nivel software a otro en el mismo orden de los niveles. En cada
nivel, el software agrega información de formato o direccionamiento al paquete, que es
necesaria para la correcta transmisión del paquete a través de la red.
En el extremo receptor, el paquete pasa a través de los niveles en orden inverso. Una
utilidad software en cada nivel lee la información del paquete, la elimina y pasa el paquete
hacia el siguiente nivel superior. Cuando el paquete alcanza el nivel de aplicación, la
información de direccionamiento ha sido eliminada y el paquete se encuentra en su formato
original, con lo que es legible por el receptor.
Con la excepción del nivel más bajo del modelo de redes OSI, ningún nivel puede pasar
información directamente a su homólogo del otro equipo. En su lugar, la información del
equipo emisor debe ir descendiendo por todos los niveles hasta alcanzar el nivel físico. En
ese momento, la información se desplaza a través del cable de red hacia el equipo receptor
y asciende por sus niveles hasta que alcanza el nivel correspondiente. Por ejemplo, cuando
el nivel de red envía información desde el equipo A, la información desciende hacia los
niveles de enlace de datos y físico de la parte emisora, atraviesa el cable y asciende los
niveles físico y de enlace de datos de la parte receptora hasta su destino final en el nivel de
red del equipo B.
En un entorno cliente/servidor, un ejemplo del tipo de información enviada desde el nivel
de red de un equipo A, hacia el nivel de red de un equipo B, debería ser una dirección de
red, posiblemente con alguna información de verificación de errores agregada al paquete.
La interacción entre niveles adyacentes ocurre a través de una interfaz. La interfaz define
los servicios ofrecidos por el nivel inferior para el nivel superior y, lo que es más, define
cómo se accede a dichos servicios. Además, cada nivel de un equipo aparenta estar en
comunicación directa con el mismo nivel de otro equipo.
Nivel o Capa de aplicación
La capa de aplicación proporciona los servicios utilizados por las aplicaciones para que los
usuarios se comuniquen a través de la red. Algunos ejemplos de servicios, son:
Transporte de correo electrónico. Gran variedad de aplicaciones pueden
utilizar un protocolo para gestionar el correo electrónico. Los diseñadores de
aplicaciones que recurren al correo electrónico no necesitan desarrollar sus propios
programas para gestionar el correo. Además, las aplicaciones que comparten una
misma interfaz de correo pueden intercambiar mensajes utilizando el gestor de
correo electrónico.
Acceso a archivos remotos. Las aplicaciones locales pueden acceder a los
archivos ubicados en los nodos remotos.
Ejecución de tareas remotas. Las aplicaciones locales pueden iniciar y
controlar procesos en otros nodos.
Directorios. La red puede ofrecer un directorio de recursos, incluyendo
nombres de nodos lógicos. El directorio permite que las aplicaciones accedan a los
recursos de la red utilizando nombres lógicos en lugar de identificaciones numéricas
abstractas.
Administración de la red. Los protocolos de administración de la red
permiten que varias aplicaciones puedan acceder a la información administrativa de
la red.
Es frecuente encontrar el término interfaz de programa de aplicación (API) asociado a los
servicios de la capa de aplicación. Un API es un conjunto de reglas que permiten que las
aplicaciones escritas por los usuarios puedan acceder a los servicios de un sistema de
software. Los diseñadores de programas y protocolos suelen proporcionar varias API para
que los programadores puedan adaptar fácilmente sus aplicaciones y utilizar los servicios
disponibles en sus productos. Un API habitual de UNIX es Berkeley Sockets; Microsoft lo ha
implementado denominándolo Windows Sockets.
Nivel o Capa de presentación
La capa de presentación se responsabiliza de presentar los datos a la capa de aplicación.
En ciertos casos, la capa de presentación traduce los datos directamente de un formato a
otro. Las grandes computadoras IBM utilizan una codificación de caracteres denominada
EBCDIC, mientras que las computadoras restantes utilizan el conjunto de caracteres ASCII.
Por ejemplo, si se transmiten datos de una computadora EBCDIC a otra ASCII, la capa de
presentación podría encargarse de traducir de un conjunto de caracteres al otro. Además, la
representación de los datos numéricos varía entre distintas arquitecturas de computadoras y
debe convertirse cuando se transfieren datos de una máquina a otra.
Una técnica habitual para mejorar la transferencia de datos consiste en convertir todos los
datos a un formato estándar antes de su transmisión. Puede que este formato estándar no
sea el formato nativo de cualquier computadora, pero cualquiera de ellas puede configurarse
para recibir datos en formato estándar y convertirlos en su formato nativo. Las normas OSI
definen la Abstract Syntax Representation, Revision 1 (ASN.1 -Representación de sintaxis
abstracta, revisión 1) como sintaxis estándar para los datos a nivel de la capa de
presentación. Aunque el conjunto de protocolos TCP/IP no defina formalmente una capa de
presentación, el protocolo External Data Representation (XDR -Representación de datos
externos), utilizado por el sistema de archivos de red (NFS -Network File System), cumple
una función similar.
Otras funciones que pueden corresponder a la capa de presentación son la
encriptación/desencriptación y compresión/descompresión de datos.
La capa de presentación es la que se implementa con menor frecuencia de las capas OSI.
Se han definido pocos protocolos para esta capa. En la mayoría de los casos, las aplicaciones
de red desempeñan las funciones asociadas con la capa de presentación.
Nivel o Capa de sesión
El control de los diálogos entre distintos nodos es competencia de la capa de sesión. Un
diálogo es una conversación formal en la que dos nodos acuerdan un intercambio de datos.
La comunicación puede producirse en tres modos de diálogo
Simple (Simplex). Un nodo transmite de manera exclusiva mientras otro
recibe de manera exclusiva.
Semidúplex (Half-duplex). Un solo nodo puede transmitir en un momento
dado, y los nodos se turnan para transmitir.
Dúplex total (Full-duplex). Los nodos pueden transmitir y recibir
simultáneamente. La comunicación dúplex total suele requerir un control de flujo que
asegure que ninguno de los dispositivos envía datos a mayor velocidad de la que el
otro dispositivo puede recibir.
Las sesiones permiten que los nodos se comuniquen de manera organizada. Cada sesión
tiene tres fases:
1.
Establecimiento de la conexión. Los nodos establecen contacto. Negocian
las reglas de la comunicación incluyendo los protocolos utilizados y los parámetros de
comunicación.
2.
Transferencia de datos. Los nodos inician un diálogo para intercambiar
datos.
3.
Liberación de la conexión. Cuando los nodos no necesitan seguir
comunicados, inician la liberación ordenada de la sesión.
Los pasos 1 y 3 representan una carga de trabajo adicional para el proceso de
comunicación. Esta carga puede no ser deseable para comunicaciones breves. Por ejemplo,
considere la comunicación necesaria para una tarea administrativa de la red. Cuando una
red administra varios dispositivos, éstos envían periódicamente un breve informe de estado
que suele constar de una sola trama. Si todos estos mensajes se enviaran como parte de
una sesión formal, las fases de establecimiento y liberación de la conexión transmitirían más
datos que los del propio mensaje.
En estas situaciones, se comunica sin conexión. El nodo emisor se limita a transmitir los
datos dando por sentado que el receptor está disponible.
Una sesión con conexión es aconsejable cuando la comunicación es compleja. Imagine la
transmisión de una gran cantidad de datos de un nodo a otro. Si no se utilizaran controles
formales, un solo error durante la transferencia obligaría a enviar de nuevo todo el archivo.
Una vez establecida la sesión, los nodos implicados pueden pactar un procedimiento de
comprobación. Si se produce un error, el nodo emisor sólo debe retransmitir los datos
enviados desde la última comprobación. El proceso de gestión de actividades complejas se
denomina administración de actividad.
Nivel o Capa de transporte
Todas las tecnologías de red establecen un tamaño máximo para las tramas que pueden
ser enviadas a través de la red. Por ejemplo, Ethernet limita el tamaño del campo de datos a
1.500 bytes. Este límite es necesario por varias razones:
Las tramas de tamaño reducido mejoran el rendimiento de una red compartida
por muchos dispositivos. Si el tamaño de las tramas fuera ilimitado, su transmisión
podría monopolizar la red durante un tiempo excesivo. Las tramas pequeñas
permiten que los dispositivos se turnen a intervalos cortos de tiempo y tengan más
opciones de acceder a la red.
Al utilizar tramas pequeñas, es necesario volver a transmitir menos datos
cuando se produce un error. Si un mensaje de 100 KB contiene un error en un solo
byte, es preciso volver a transmitir los 100 KB. Si el mensaje se divide en 100 tramas
de 1 KB, basta con retransmitir una sola trama de 1 KB para corregir el error.
Una de las responsabilidades de la capa de transporte consiste en dividir los mensajes en
fragmentos que coincidan con el límite del tamaño de la red. En el lado receptor, la capa de
transporte reensambla los fragmentos para recuperar el mensaje original.
Cuando un mensaje se divide en varios fragmentos, aumenta la posibilidad de que los
segmentos no se reciban en el orden correcto. Al recibir los paquetes, la capa de transporte
debe recomponer el mensaje reensamblando los fragmentos en el orden correcto. Para ello,
la capa de transporte incluye un número de secuencia en la cabecera del mensaje.
Muchas computadoras son multitarea y ejecutan varios programas simultáneamente. Por
ejemplo, la estación de trabajo de un usuario puede estar ejecutando al mismo tiempo un
proceso para transferir archivos a otra computadora, recuperando el correo electrónico y
accediendo a una base de datos de la red. La capa de transporte debe entregar los mensajes
del proceso de una computadora al proceso correspondiente de la computadora de destino.
Según el modelo OSI, la capa de transporte asigna una identificación de punto de acceso a
servicio (SAP) a cada paquete (puerto es el término TCP/IP correspondiente a un punto de
acceso a servicio). La ID de un SAP es una dirección que identifica el proceso que ha
originado el mensaje. La ID permite que la capa de transporte del nodo receptor encamine
el mensaje al proceso adecuado.
La identificación de mensajes de distintos procesos para posibilitar su transmisión a través
de un mismo medio de red se denomina multiplexión. El procedimiento de recuperación de
mensajes y de su encaminamiento a los procesos adecuados se denomina demultiplexión.
Esta práctica es habitual en las redes diseñadas para permitir que varios diálogos compartan
un mismo medio de red.
Dado que una capa puede admitir distintos protocolos, la multiplexión y demultiplexión
puede producirse en distintas capas. Algunos ejemplos:
Transporte de distintos tipos de tramas Ethernet a través del mismo medio
(capa de enlace de datos).
Soporte simultáneo de NWLink y de TCP/IP en computadoras Windows NT
(capa de enlace de datos).
Mensajes de varios protocolos de transporte como TCP y UDP en un sistema
TCP/IP (capa de transporte).
Mensajes de distintos protocolos de aplicación (como Telnet, FTP y SMTP) en
un host UNIX (capas de sesión y superiores).
Aunque las capas de enlace de datos y de red pueden encargarse de detectar errores en
los datos transmitidos, además esta responsabilidad suele recaer sobre la capa de
transporte. La capa de transporte puede realizar dos tipos de detección de errores:
Entrega fiable. Entrega
fiable no significa que los errores no
puedan ocurrir, sino que los errores
se detectan cuando ocurren. La
recuperación puede consistir
únicamente en notificar el error a los procesos de las capas superiores. Sin embargo,
la capa de transporte suele solicitar que el paquete erróneo se transmita
nuevamente.
Entrega no fiable. No significa que los errores puedan producirse, sino que la
capa de transporte no los verifica. Dado que la comprobación requiere cierto tiempo y
reduce el rendimiento de la red, es frecuente que se utilice la entrega no fiable
cuando se confía en el funcionamiento de la red. Este es el caso de la mayoría de
redes de área local. La entrega no fiable es preferible cuando los mensajes constan
de un alto número de paquetes. Con frecuencia, se denomina entrega de datagramas
y cada paquete transmitido de este modo se denomina datagrama.
La idea de que siempre es preferible utilizar la entrega fiable puede constituir un error a la
hora de diseñar la red. La entrega no fiable es aconsejable en al menos dos situaciones:
cuando la red es altamente fiable y es necesario optimizar su rendimiento o cuando los
paquetes contienen mensajes completos y la pérdida de un paquete no plantea un problema
crítico.
Nivel o Capa de red
Las redes más pequeñas normalmente constan de una sola red de área local, pero la
mayoría de las redes deben subdividirse. Una red que consta de varios segmentos de red
suele denominarse interred (no confundir con Internet).
Las subdivisiones de una interred pueden planificarse para reducir el tráfico de los
segmentos o para aislar las redes remotas conectadas a través de medios de comunicación
más lentos. Cuando las redes se subdividen, no es posible dar por sentado que los mensajes
se entregan en la red de área local. Es necesario recurrir a un mecanismo que dirija los
mensajes de una red a otra.
Para entregar mensajes en una interred, cada red debe estar identificada de manera única
por una dirección de red. Al recibir un mensaje de las capas superiores, la capa de red
añade una cabecera al mensaje que incluye las direcciones de red de origen y destino. Esta
combinación de datos sumada a la capa de red se denomina paquete. La información de la
dirección de red se utiliza para entregar el mensaje a la red correcta. A continuación, la capa
de enlace de datos puede utilizar la dirección del nodo para realizar la entrega del mensaje.
El proceso de hacer llegar los paquetes a la red correcta se denomina encaminamiento, y
los dispositivos que encaminan los paquetes se denominan encaminadores. Una interred
tiene dos tipos de nodos:
Los nodos finales proporcionan servicios a los usuarios. Utilizan una
capa de red para añadir las direcciones de red a los paquetes, pero no llevan a cabo
el encaminamiento. En ocasiones, los nodos finales se denominan sistemas finales
(terminología OSI) o hosts (terminología TCP/IP).
Los encaminadores incorporan mecanismos especiales para realizar el
encaminamiento. Dado que se trata de una tarea compleja, los encaminadores
suelen ser dispositivos dedicados que no proporcionan servicios a los usuarios finales.
En ocasiones, los encaminadores se denominan sistemas intermedios (terminología
OSI) o gateways (terminología TCP/IP).
La capa de red opera con independencia del medio físico, que es competencia de la capa
física. Dado que los encaminadores son dispositivos de la capa de red, pueden utilizarse para
intercambiar paquetes entre distintas redes físicas. Por ejemplo, un encaminador puede
enlazar una red Ethernet a una red Token Ring. Los encaminadores también se utilizan
frecuentemente para conectar una red de área local, por ejemplo Ethernet, a un red de área
extensa, por ejemplo ATM.
Nivel o Capa de enlace de datos
Los dispositivos que pueden comunicarse a través de una red suelen denominarse nodos
(en ocasiones se denominan estaciones y dispositivos). La capa de enlace de datos es
responsable de proporcionar la comunicación nodo a nodo en una misma red de área local.
Para ello, la capa de enlace de datos debe realizar dos funciones. Debe proporcionar un
mecanismo de direcciones que permita entregar los mensajes en los nodos correctos y debe
traducir los mensajes de las capas superiores en bits que puedan ser transmitidos por la
capa física.
Cuando la capa de enlace de datos recibe un mensaje, le da formato pare transformarlo en
una trama de datos (denominada igualmente paquete). Las secciones de una trama de datos
se denominan campos. Los campos del ejemplo son los siguientes:
Indicador de inicio. Un patrón de bits que indica el inicio de una trama de
datos.
Dirección de origen. La dirección del nodo que realiza el envío se incluye
para poder dirigir las respuestas al mensaje.
Dirección de destino. Cada nodo queda identificado por una dirección. La
capa de enlace de datos del remitente añade la dirección de destino a la trama. La
capa de enlace de datos del destinatario examine la dirección de destino para
identificar los mensajes que debe recibir.
Control. En muchos casos es necesario incluir información adicional de
control. Cada protocolo determine la información específica.
Datos. Este campo contiene todos los datos enviados a la capa de enlace de
datos por las capas superiores del protocolo.
Control de errores. Este campo contiene información que permite que el
nodo destinatario determine si se ha producido algún error durante la transmisión. El
sistema habitual es la verificación de redundancia cíclica (CRC), que consiste en un
valor calculado que resume todos los datos de la trama. El nodo destinatario calcula
nuevamente el valor y, si coincide con el de la trama, entiende que la trama se ha
transmitido sin errores.
La entrega de tramas resulta muy sencilla en una red de área local. Un nodo remitente se
limita a transmitir la trama. Cada nodo de la red
ve la trama y examina su dirección de destino.
Cuando coincide con su dirección, la capa de
enlace de datos del nodo recibe la trama y la
envía a la siguiente capa de la pile.
Nivel o Capa física
La capa física comunica directamente con el medio de comunicación y tiene dos
responsabilidades: enviar bits y recibir bits. Un dígito binario o bit es la unidad básica de
información en comunicación de datos. Un bit sólo puede tener dos valores, 1 ó 0,
representados por distintos estados en el medio de comunicación. Otras capas se
responsabilizan del agrupamiento de los bits de forma que representen datos de un
mensaje.
Los bits se representan por cambios en las señales del medio de la red. Algunos cableados
representan los unos y los ceros con distintos voltajes, otros utilizan tonos de audio distintos
y otros utilizan métodos más sofisticados, por ejemplo transiciones de estado (cambios de
alto a bajo voltaje y viceversa).
Se utiliza una gran variedad de medios en la comunicación de datos; entre otros, cables
eléctricos, fibras ópticas, ondas de luz o de radio y microondas. El medio empleado puede
variar: para sustituirlo, basta con utilizar un conjunto distinto de protocolos de capa física.
Las capas superiores son totalmente independientes del proceso utilizado para transmitir los
bits a través del medio de la red.
Una distinción importante es que la capa física OSI no describe los medios, estrictamente
hablando. Las especificaciones de la capa física describen el modo datos en que los datos se
codifican en señales del medio y las características de la interfaz de conexión con el medio,
pero no describen el medio en sí. Sin embargo, en la práctica, la mayoría de las normas de
las capas físicas incluyen las características de la capa física OSI y del medio.
Paquetes de datos y el modelo OSI
El proceso de creación de paquetes se inicia en el nivel de aplicación del modelo OSI,
donde se generan los datos. La información a enviar a través de la red comienza en el nivel
de aplicación y desciende a lo largo de los siete niveles.
En cada nivel, se agrega a los datos información relevante de ese nivel. Esta información
es utilizada por el correspondiente nivel del equipo receptor. El nivel de enlace de datos del
equipo receptor, por ejemplo, leerá la información agregada en el nivel de enlace de datos
del equipo emisor.
En el nivel de transporte, el bloque de datos original se divide en los paquetes reales. El
protocolo define la estructura de los paquetes utilizados por los dos equipos.
Cuando el paquete alcanza el nivel de transporte, se agrega una secuencia de información
que guía al equipo receptor en la desagrupación de los datos de los paquetes.
Cuando, finalmente, los paquetes pasan a través del nivel físico al cable, contienen
información de cada uno de los otros seis niveles.
Direccionamiento de paquetes
La mayoría de los paquetes de la red se dirigen a un equipo específico y, como resultado,
obtienen la atención de un único equipo. Cada tarjeta de red ve todos los paquetes enviados
en su segmento de cable, pero interrumpe el equipo sólo si la dirección del paquete coincide
con la dirección individual de la tarjeta. De forma alternativa, se puede utilizar una dirección
de tipo difusión múltiple. Los paquetes enviados con una dirección de tipo difusión múltiple
pueden recibir la atención simultánea de varios
equipos de la red.
En situaciones que envuelven grandes redes que
cubren grandes regiones (o incluso países) y
ofrecen varios caminos de comunicación posibles,
la conectividad y la conmutación de componentes
de la red utilizan la información de
direccionamiento del paquete para determinar el
mejor camino para los paquetes.
Cómo dirigir los paquetes
Las componentes de red utilizan la información
de direccionamiento de los paquetes para dirigir los paquetes a sus destinos o para
mantenerlos alejados de las posiciones de la red a las que no pertenecen. Las dos funciones
siguientes juegan un papel principal en la dirección apropiada de paquetes:
Reenvío de paquetes. Los equipos envían un paquete al siguiente
componente de red apropiado en base a la dirección del encabezado del paquete.
Filtrado de paquetes. Los equipos utilizan criterios, como una dirección, para
seleccionar los paquetes específicos.
Windows NT y el modelo OSI
Los fabricantes de redes utilizan el modelo OSI en el diseño de sus productos. Cuando
cada uno sigue el modelo, existe una gran probabilidad de que diferentes sistemas puedan
comunicarse. Una deficiencia del modelo procede del hecho de que muchos fabricantes
crearon sus productos antes de que el modelo fuera aceptado; estos productos prematuros
puede que no sigan el modelo exactamente.
Niveles OSI y Windows NT
Para simplificar el modelo, Windows NT comprime los siete niveles en sólo tres:
controladores del sistema de archivos, protocolos de transporte y controladores de la tarjeta
de red.
Windows NT utiliza controladores para proporcionar comunicación entre el sistema
operativo y la red. Un controlador es un programa de control específico del dispositivo que
permite a un equipo trabajar con un dispositivo particular, como una impresora o una unidad
de disco. Cada vez que se instala un nuevo elemento hardware, como una impresora, tarjeta
de sonido o tarjeta de red, se necesitan instalar los controladores software que hacen
funcionar la tarjeta.
Controladores del sistema de archivos
Los controladores del sistema de archivos funcionan en los niveles de aplicación, de
presentación y de sesión del modelo OSI. Cuando estos controladores detectan que una
aplicación está solicitando recursos de un sistema remoto, redirigen la demanda al sistema
apropiado. Ejemplos de estos controladores incluyen el sistema de archivos de Windows NT
(NTFS) y la tabla de asignación de archivos (FAT) y las aplicaciones de servicios instaladas
en Windows NT Server y Windows NT Workstation.
Protocolos de transporte
Los protocolos de transporte operan en los niveles de transporte y de red del modelo OSI.
Son los responsables de agregar información de la dirección software a los datos y de
garantizar la fiabilidad de la transmisión. Los protocolos de transporte se vinculan con la
tarjeta de red (NIC) para ofrecer comunicación. Durante la instalación y la configuración de
Windows NT, siempre se deben enlazar estos protocolos a una tarjeta de red específica.
Controladores de la tarjeta de red (NIC)
Los controladores de la tarjeta de red (NIC) funcionan en los niveles de enlace de datos y
físico del modelo OSI. Son responsables de agregar información de la dirección hardware al
paquete de datos y de dar formato a los datos para la transmisión a través de la tarjeta de
red (NIC) y el cable. Los controladores de la tarjeta de red (NIC) son independientes de
protocolo, permitiendo que los sistemas basados en Windows NT transporten datos a una
variedad de sistemas de red.
Interfaces de Windows NT
Windows NT soporta muchos redirectores, protocolos de transporte y tarjetas de red
diferentes. En vista de las numerosas combinaciones posibles, era necesario desarrollar un
método de manejo de interacciones entre ellas. Para resolver este problema, Microsoft
desarrolló interfaces comunes (niveles frontera) para que actuaran como traductores entre
cada nivel. Así, siempre que se escribiera alguna componente de la red para comunicarse
con las interfaces frontera se podría utilizar con el modelo.
Interfaces de programación de aplicaciones (API, Application Programming Intefaces)
Las interfaces de programación de aplicaciones (API) son rutinas del sistema que ofrecen a
los programadores acceso a los servicios proporcionados por el sistema operativo. Las API
para redes de Windows NT se encuentran entre las aplicaciones de usuario y los
controladores y redirectores del sistema de archivos. Estas API permiten que una aplicación
controle o sea controlada por otras aplicaciones. Son responsables de establecer una sesión
entre el emisor y el receptor de la red. Windows NT admite varias API para redes.
Interfaces de controlador de transporte (TDI, Transport Driver Interfaces)
Las interfaces del controlador de transporte (TDI) operan entre los controladores del
sistema de archivos y los protocolos de transporte. Éstos permitirán que cualquier protocolo
escriba en el TDI para comunicarse con los controladores del sistema de archivos.
Especificaciones de interfaz de controlador de red (NDIS, Network Driver Interface Specifications)
Las especificaciones de interfaz de controlador de red (NDIS) actúan entre los protocolos
de transporte y los controladores de la tarjeta de red (NIC). Siempre que un controlador de
tarjeta de red se escriba en los estándares NDIS, se comunicará con los protocolos de
transporte.
1.7.2 Proceso de encapsulado de datos.
Usted sabe que todas las comunicaciones de una red parten de un origen y se envían a un destino, y que
la información que se envía a través de una red se denomina datos o paquete de datos. Si un
computador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse
a través de un proceso denominado encapsulamiento.
El encapsulamiento rodea los datos con la información de protocolo necesaria antes de que se una al
tránsito de la red. Por lo tanto, a medida que los datos se desplazan a través de las capas del modelo
OSI, reciben encabezados, información final y otros tipos de información. (Nota: La palabra "encabezado"
significa que se ha agregado la información correspondiente a la dirección).
Para ver cómo se produce el encapsulamiento, examine la forma en que los datos viajan a través de las
capas como lo ilustra la siguiente figura . Una vez que se envían los datos desde el origen, como se
describe en la siguiente figura, viajan a través de la capa de aplicación y recorren todas las demás capas
en sentido descendiente. Como puede ver, el empaquetamiento y el flujo de los datos que se
intercambian experimentan cambios a medida que las redes ofrecen sus servicios a los usuarios finales.
Las redes deben realizar los siguientes cinco pasos de conversión a fin de encapsular los datos:
1. Crear los datos.
Cuando un usuario envía un mensaje de correo electrónico, sus caracteres alfanuméricos se
convierten en datos que pueden recorrer la internetwork.
2. Empaquetar los datos para ser transportados de extremo a extremo.
Los datos se empaquetan para ser transportados por la internetwork. Al utilizar segmentos, la
función de transporte asegura que los hosts del mensaje en ambos extremos del sistema de
correo electrónico se puedan comunicar de forma confiable.
3. Anexar (agregar) la dirección de red al encabezado.
Los datos se colocan en un paquete o datagrama que contiene el encabezado de red con las
direcciones lógicas de origen y de destino. Estas direcciones ayudan a los dispositivos de red a
enviar los paquetes a través de la red por una ruta seleccionada.
4. Anexar (agregar) la dirección local al encabezado de enlace de datos.
Cada dispositivo de la red debe poner el paquete dentro de una trama. La trama le permite
conectarse al próximo dispositivo de red conectado directamente en el enlace. Cada dispositivo
en la ruta de red seleccionada requiere el entramado para poder conectarse al siguiente
dispositivo.
5. Realizar la conversión a bits para su transmisión.
La trama debe convertirse en un patrón de unos y ceros (bits) para su transmisión a través del
medio (por lo general un cable). Una función de temporización permite que los dispositivos
distingan estos bits a medida que se trasladan por el medio. El medio en la internetwork física
puede variar a lo largo de la ruta utilizada. Por ejemplo, el mensaje de correo electrónico puede
originarse en una LAN, cruzar el backbone de un campus y salir por un enlace WAN hasta llegar
a su destino en otra LAN remota. Los encabezados y la información final se agregan a medida
que los datos se desplazan a través de las capas del modelo OSI.
1.8 Topologías de redes.
La topología define la estructura de una red. La definición de topología puede dividirse en dos partes. la
topología física, que es la disposición real de los cables (los medios) y la topología lógica, que define la
forma en que los hosts acceden a los medios. Las topologías físicas que se utilizan comúnmente son de
bus, de anillo, en estrella, en estrella extendida, jerárquica y en malla. Estas topologías se ilustran en el
gráfico.





La topología de bus utiliza un único segmento backbone (longitud del cable) al que todos los
hosts se conectan de forma directa.
La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea
un anillo físico de cable.
La topología en estrella conecta todos los cables con un punto central de concentración. Por lo
general, este punto es un hub o un switch, que se describirán más adelante en este capítulo.
La topología en estrella extendida se desarrolla a partir de la topología en estrella. Esta topología
conecta estrellas individuales conectando los hubs/switches. Esto, como se describe más
adelante en este capítulo, permite extender la longitud y el tamaño de la red.
La topología jerárquica se desarrolla de forma similar a la topología en estrella extendida pero, en
lugar de conectar los hubs/switches entre sí, el sistema se conecta con un computador que
controla el tráfico de la topología.

La topología en malla se utiliza cuando no puede existir absolutamente ninguna interrupción en
las comunicaciones, por ejemplo, en los sistemas de control de una central nuclear. De modo
que, como puede observar en el gráfico, cada host tiene sus propias conexiones con los demás
hosts. Esto también se refleja en el diseño de la
Internet, que tiene múltiples rutas hacia cualquier ubicación.
La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos
tipos más comunes de topologías lógicas son broadcast y transmisión de tokens.
La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts
del medio de red. Las estaciones no siguen ningún orden para utilizar la red, el orden es el primero que
entra, el primero que se sirve. Esta es la forma en que funciona Ethernet y usted aprenderá mucho más al
respecto más adelante durante este semestre.
El segundo tipo es transmisión de tokens. La transmisión de tokens controla el acceso a la red mediante
la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token,
eso significa que el host puede enviar datos a través de la red. Si el host no tiene ningún dato para
enviar, transmite el token al siguiente host y el proceso se vuelve a repetir.
Topología de red de bus lineal
Punto de vista matemático
La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra
conexión entre nodos
Punto de vista físico
Cada host está conectado a un cable común. En esta topología, los dispositivos clave son aquellos que
permiten que el host se "una" o se "conecte" al único medio compartido. Una de las ventajas de esta
topología es que todos los hosts están conectados entre sí y, de ese modo, se pueden comunicar
directamente. Una desventaja de esta topología es que la ruptura del cable hace que los hosts queden
desconectados
Punto de vista lógico
Una topología de bus hace posible que todos los dispositivos de la red vean todas las señales de todos
los demás dispositivos.. Esto representa una ventaja si desea que toda la información se dirija a todos los
dispositivos. Sin embargo, puede representar una desventaja ya que es común que se produzcan
problemas de tráfico y colisiones.
Topología de red de anillo
Punto de vista matemático
Una topología de anillo se compone de un solo anillo cerrado formado por nodos y enlaces, en el que
cada nodo está conectado con sólo dos nodos adyacentes.
Punto de vista físico
La topología muestra todos los dispositivos interconectados directamente en una configuración conocida
como cadena margarita. Esto se parece a la manera en que el mouse de un computador Apple se
conecta al teclado y luego al computador.
Punto de vista lógico
Para que la información pueda circular, cada estación debe transferir la información a la estación
adyacente.
Topología de red de anillo doble
Punto de vista matemático
Una topología en anillo doble consta de dos anillos concéntricos, cada uno de los cuales se conecta
solamente con el anillo vecino adyacente. Los dos anillos no están conectados.
Punto de vista físico
La topología de anillo doble es igual a la topología de anillo, con la diferencia de que hay un segundo
anillo redundante que conecta los mismos dispositivos. En otras palabras, para incrementar la
confiabilidad y flexibilidad de la red, cada dispositivo de networking forma parte de dos topologías de
anillo independiente.
Punto de vista lógico
La topología de anillo doble actúa como si fueran dos anillos independientes, de los cuales se usa
solamente uno por vez.
Topología de red en estrella
Punto de vista matemático
La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces hacia los demás
nodos y no permite otros enlaces.
Punto de vista físico
La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces. La ventaja
principal es que permite que todos los demás nodos se comuniquen entre sí de manera conveniente. La
desventaja principal es que si el nodo central falla, toda la red se desconecta. Según el tipo de dispositivo
para networking que se use en el centro de la red en estrella, las colisiones pueden representar un
problema.
Punto de vista lógico
El flujo de toda la información pasaría entonces a través de un solo dispositivo. Esto podría ser aceptable
por razones de seguridad o de acceso restringido, pero toda la red estaría expuesta a tener problemas si
falla el nodo central de la estrella.
Topología de red en estrella extendida
Punto de vista matemático
La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo
que se conecta con el nodo central también es el centro de otra estrella.
Punto de vista físico
La topología en estrella extendida tiene una topología en estrella central, en la que cada uno de los nodos
finales actúa como el centro de su propia topología en estrella. La ventaja de esto es que el cableado es
más corto y limita la cantidad de dispositivos que se deben interconectar con cualquier nodo central.
Punto de vista lógico
La topología en estrella extendida es sumamente jerárquica, y "busca" que la información se mantenga
local. Esta es la forma de conexión utilizada actualmente por el sistema telefónico.
Topología de red en árbol
Punto de vista matemático
La topología en árbol es similar a la topología en estrella extendida; la diferencia principal es que no tiene
un nodo central. En cambio, tiene un nodo de enlace troncal desde el que se ramifican los demás nodos.
Hay dos tipos de topologías en árbol: El árbol binario (cada nodo se divide en dos enlaces); y el árbol
backbone (un tronco backbone tiene nodos ramificados con enlaces que salen de ellos).
Punto de vista físico
El enlace troncal es un cable con varias capas de ramificaciones.
Punto de vista lógico
El flujo de información es jerárquico.
Topología de red irregular
Punto de vista matemático
En la topología de red irregular no existe un patrón obvio de enlaces y nodos.
Punto de vista físico
El cableado no sigue un patrón; de los nodos salen cantidades variables de cables. Las redes que se
encuentran en las primeras etapas de construcción, o se encuentran mal planificadas, a menudo se
conectan de esta manera.
Punto de vista lógico
Los enlaces y nodos no forman ningún patrón evidente.
Topología de red completa (en malla)
Punto de vista matemático
En una topología de malla completa, cada nodo se enlaza directamente con los demás nodos.
Punto de vista físico
Este tipo de cableado tiene ventajas y desventajas muy específicas. Una de las ventajas es que cada
nodo está físicamente conectado a todos los demás nodos (lo cual crea una conexión redundante). Si
fallara cualquier enlace, la información podrá fluir a través de una gran cantidad de enlaces alternativos
para llegar a su destino. Además, esta topología permite que la información circule por varias rutas al
regresar por la red. La desventaja física principal es que es que sólo funciona con una pequeña cantidad
de nodos, ya que de lo contrario la cantidad de medios necesarios para los enlaces y la cantidad de
conexiones con los enlaces se torna abrumadora.
Punto de vista lógico
El comportamiento de una topología de malla completa depende enormemente de los dispositivos
utilizados.
Topología de red celular
Punto de vista matemático
La topología celular está compuesta por áreas circulares o hexagonales, cada una de las cuales tiene un
nodo individual en el centro.
Punto de vista físico
La topología celular es un área geográfica dividida en regiones (celdas) para los fines de la tecnología
inalámbrica – una tecnología que se torna más importante cada día. En la topología celular, no hay
enlaces físicos, sólo ondas electromagnéticas. A veces los nodos receptores se desplazan (por ej.,
teléfono celular de un automóvil) y a veces se desplazan los nodos emisores (por ej., enlaces de
comunicaciones satelitales).
La ventaja obvia de una topología celular (inalámbrica) es que no existe ningún medio tangible aparte de
la atmósfera terrestre o el del vacío del espacio exterior (y los satélites). Las desventajas son que las
señales se encuentran presentes en cualquier lugar de la celda y, de ese modo, pueden sufrir disturbios
(provocados por el hombre o por el medio ambiente) y violaciones de seguridad (monitoreo electrónico y
robo de servicio).
Punto de vista lógico
Las tecnologías celulares se pueden comunicar entre sí directamente (aunque los límites de distancia y la
interferencia a veces hacen que esto sea sumamente difícil), o se pueden comunicar solamente con las
celdas adyacentes (lo que es sumamente ineficiente). Como norma, las topologías basadas en celdas se
integran con otras topologías, ya sea que usen la atmósfera o los satélites.
Unidad 2
Componentes de una red.
2.7 Estaciones de Trabajo.
Las estaciones de trabajo pueden utilizar las tarjetas de red más baratas, si las actividades
principales en la red están limitadas a aplicaciones, como procesamiento de texto, que no
generan altos volúmenes de tráfico en la red. Aunque recuerde que en una red en bus, una
tarjeta de red lenta puede incrementar el tiempo de espera para todos los usuarios. Otras
aplicaciones, como las de bases de datos o ingeniería, se vendrán abajo rápidamente con
tarjetas de red inadecuadas.
Estación de trabajo (workstation):
Es una PC que se encuentra conectada físicamente al servidor por medio de algún tipo de
cable. En la mayor parte de los casos esta computadora ejecuta su propio sistema operativo
y, posteriormente, se añade al ambiente de la red.
http://ciberhabitat.gob.mx/museo/cerquita/redes/fundamentos/04.htm
2.7.1 Plataformas.
2.8 Medios de transmisión.
Medios de transmisión guiados
En medios guiados , el ancho de banda o velocidad de transmisión dependen de la distancia y de si el
enlace es punto a punto o multipunto . Medios guiados, que incluyen a los cables metálicos (cobre,
aluminio, etc.) y de fibra óptica. El cable se instala normalmente en el interior de los edificios o bien
en conductos subterráneos. Los cables metálicos pueden presentar una estructura coaxial o dePar
trenzado, y el cobre es el material preferido como núcleo de los elementos de transmisión de las
redes. El cable de fibra óptica se encuentra

Par trenzado

Pares trenzados apantallados y
sin apantallar

Cable coaxial.

Fibra óptica
La información que maneja una computadora es de origen digital, encontrándose codificada a partir de un alfabeto de
dos símbolos que se corresponden con 1 y 0 o, lo que es lo mismo, presencia o ausencia de una señal eléctrica. Para
la transmisión de esta información entre dispositivos distintos a larga o corta distancia debe utilizarse un medio físico
que asegure su correcta recepción en el destino.
Existen dos tipos de medios de transmisión de datos:


Medios guiados, que incluyen a los cables metálicos (cobre, aluminio, etc.) y de fibra óptica. El cable se
instala normalmente en el interior de los edificios o bien en conductos subterráneos. Los cables metálicos
pueden presentar una estructura coaxial o de par trenzado, y el cobre es el material preferido como núcleo
de los elementos de transmisión de las redes. El cable de fibra óptica se encuentra disponible en forma de
hebras simples o múltiples de plástico o fibra de vidrio.
Medios no guiados, relativos a las técnicas de transmisión de señales a través del aire y del espacio entre
transmisor y receptor (radioenlaces). La transmisión por infrarrojos y microondas cae dentro de esta
categoría.
2.8.1 Medios Guiados.
Par trenzado
El cable de par trenzado consiste en un núcleo de hilos de cobre rodeados por un aislante, los cuales se encuentran
trenzados por pares, de forma que cada par forma un circuito que puede transmitir datos. Un cable consta de un haz
de uno o más pares trenzados rodeados por un aislante. El par trenzado sin apantallar (UTP, Unshielded Twisted
Pair) es usual en la red telefónica, y el par trenzado apantallado (STP, Shielded Twisted Pair) proporciona protección
frente a la diafonía. Precisamente es el trenzado el que previene los problemas de interferencia. Conforma una
tecnología relativamente barata, bien conocida y sencilla de instalar. Es el cable utilizado en la mayoría de las
instalaciones de redes de comunicaciones. Sin embargo, presenta una serie de características eléctricas que imponen
ciertos límites a la transmisión. Por ejemplo, es resistente al flujo de electrones, lo que limita la distancia de
transmisión. Produce radiación de energía en forma de señales que se pueden detectar, además de ser sensible a la
radiación externa que puede producir distorsión sobre la transmisión. Sin embargo, los productos en uso admiten una
velocidad de transmisión sobre Ethernet de hasta 100 Mbps.
Cable de par trenzado
En su forma más simple, un cable de par trenzado consta de dos hilos de cobre aislados y
entrelazados. Hay dos tipos de cables de par trenzado: cable de par trenzado sin apantallar
(UTP) y par trenzado apantallado (STP).
A menudo se agrupan una serie de hilos de par trenzado y se encierran en un
revestimiento protector para formar un cable. El número total de pares que hay en un cable
puede variar. El trenzado elimina el ruido eléctrico de los pares adyacentes y de otras
fuentes como motores, relés y transformadores.
Cable de par trenzado sin apantallar (UTP)
El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par trenzado y
ha sido el cableado LAN más utilizado en los últimos años. El segmento máximo de longitud
de cable es de 100 metros.
El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones UTP
dictan el número de entrelazados permitidos por pie de cable; el número de entrelazados
depende del objetivo con el que se instale el cable.
La especificación 568A Commercial Building Wiring Standard de la Asociación de Industrias
Electrónicas e Industrias de la Telecomunicación (EIA/TIA) especifica el tipo de cable UTP
que se va a utilizar en una gran variedad de situaciones y construcciones. El objetivo es
asegurar la coherencia de los productos para los clientes. Estos estándares definen cinco
categorías de UTP:
Categoría 1. Hace referencia al cable telefónico UTP tradicional que resulta
adecuado para transmitir voz, pero no datos. La mayoría de los cables telefónicos
instalados antes de 1983 eran cables de Categoría 1.
Categoría 2. Esta categoría certifica el cable UTP para transmisión de datos
de hasta 4 megabits por segundo (mbps), Este cable consta de cuatro pares
trenzados de hilo de cobre.
Categoría 3. Esta categoría certifica el cable UTP para transmisión de datos
de hasta 16 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre con
tres entrelazados por pie.
Categoría 4. Esta categoría certifica el cable UTP para transmisión de datos
de hasta 20 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
Categoría 5. Esta categoría certifica el cable UTP para transmisión de datos
de hasta 100 mbps. Este cable consta de cuatro pares trenzados de hilo de cobre.
Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece mejores
prestaciones que el estándar de Categoría 5. Para ello se deben cumplir
especificaciones tales como una atenuación al ratio crosstalk (ARC) de 10 dB a 155
Mhz y 4 pares para la comprobación del Power Sum NEXT. Este estándar todavía no
está aprobado
Nivel 7. Proporciona al menos el doble de ancho de banda que la Categoría 5
y la capacidad de soportar Gigabit Ethernet a 100 m. El ARC mínimo de 10 dB debe
alcanzarse a 200 Mhz y el cableado debe soportar pruebas de Power Sum NEXT, más
estrictas que las de los cables de Categoría 5 Avanzada.
La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho, una
razón por la que UTP es tan conocido es debido a que muchas construcciones están
preparadas para sistemas telefónicos de par trenzado. Como parte del proceso previo al
cableado, se instala UTP extra para cumplir las necesidades de cableado futuro. Si el cable
de par trenzado preinstalado es de un nivel suficiente para soportar la transmisión de datos,
se puede utilizar para una red de equipos. Sin embargo, hay que tener mucho cuidado,
porque el hilo telefónico común podría no tener entrelazados y otras características
eléctricas necesarias para garantizar la seguridad y nítida transmisión de los datos del
equipo.
La intermodulación es un problema posible que puede darse con todos los tipos de
cableado (la intermodulación se define como aquellas señales de una línea que interfieren
con las señales de otra línea.)
UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el número
de entrelazados por pie de cable, mayor será la protección contra las interferencias.
Cable de par trenzado apantallado (STP)
El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor calidad
que la usada en el cable UTP. STP también utiliza una lámina rodeando cada uno de los
pares de hilos. Esto ofrece un excelente apantallamiento en los STP para proteger los datos
transmitidos de intermodulaciones exteriores, lo que permite soportar mayores tasas de
transmisión que los UTP a distancias mayores.
Componentes del cable de par trenzado
Aunque hayamos definido el cable de par trenzado por el número de hilos y su posibilidad
de transmitir datos, son necesarios una serie de componentes adicionales para completar su
instalación. Al igual que sucede con el cable telefónico, el cable de red de par trenzado
necesita unos conectores y otro hardware para asegurar una correcta instalación.
Elementos de conexión
El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un equipo.
Éstos son similares a los conectores telefónicas RJ11. Aunque los conectores RJ-11 y RJ-45
parezcan iguales a primera vista, hay diferencias importantes entre ellos.
El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo contiene
cuatro.
Existe una serie de componentes que ayudan a organizar las grandes instalaciones UTP y a
facilitar su manejo.
Armarios y racks de distribución. Los armarios y los racks de distribución pueden crear
más sitio para los cables en aquellos lugares donde no hay mucho espacio libre en el suelo.
Su uso ayuda a organizar una red que tiene muchas conexiones.
Paneles de conexiones ampliables. Existen diferentes versiones que admiten hasta 96
puertos y alcanzan velocidades de transmisión de hasta 100 Mbps.
Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de conexiones y
placas de pared y alcanzan velocidades de datos de hasta 100 Mbps.
Placas de pared. Éstas permiten dos o más enganches.
Consideraciones sobre el cableado de par trenzado
El cable de par trenzado se utiliza si:
La LAN tiene una limitación de presupuesto.
Se desea una instalación relativamente sencilla, donde las conexiones de los
equipos sean simples.
No se utiliza el cable de par trenzado si:
La LAN necesita un gran nivel de seguridad y se debe estar absolutamente
seguro de la integridad de los datos.
Los datos se deben transmitir a largas distancias y a altas velocidades.
Diferencia entre las Categorías de cable UTP.
El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la
transmisión de datos a frecuencias de hasta 100 MHz. El Modo de Transmisión Asíncrona
(Asynchronous Transfer Mode ATM), trabaja a 155 MHz. La Gigabit Ethernet a 1 GHz.
La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga, más se
necesita. Las aplicaciones cada vez se vuelven más complejas, y los ficheros cada vez son
más grandes. A medida que su red se vaya congestionando con más datos, la velocidad se
va relentizando y no volverá a ser rápida nunca más. Las buenas noticias son que la próxima
generación de cableado está en marcha. Sin embargo, tendrá que tener cuidado con el
cableado que esté instalado hoy, y asegurarse que cumplirá con sus necesidades futuras.
Categoría 5. La TIA/EIA 568A especifica solamente las Categorías para los cables de
pares trenzados sin apantallar (UTP). Cada una se basa en la capacidad del cable para
soportar prestaciones máximas y mínimas. Hasta hace poco, la Categoría 5 era el grado
superior especificado por el estándar TIA/EIA. Se definió para ser capaz de soportar
velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a frecuencias de
hasta100 MHz. Las designaciones de Categoría están determinadas por las prestaciones
UTP. El cable de Categoría 5 a100 MHz, debe tener el NEXT de 32 dB/304,8 mts. y una
gama de atenuación de 67dB/304,8 mts, Para cumplir con el estándar, los cables deben
cumplir solamente las mínimos estipulados, Con cable de Categoría 5 debidamente
instalado, podrá esperar alcanzar las máximas prestaciones, las cuales, de acuerdo con los
estándares, alcanzarán la máxima velocidad de traspaso de Mbps,
Categoría 5a. La principal diferencia entre la Categoría 5 (568A) y Categoría 5a (568A-5)
es que algunas de las especificaciones han sido realizadas de forma más estricta en la
versión más avanzada. Ambas trabajan a frecuencias de 100 MHz. Pero la Categoría 5e
cumple las siguientes especificaciones: NEXT: 35 dB; PS-NEXT: 32 dB, ELFEXT: 23.8 dB;
PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo: 45 ns, Con estas mejoras,
podrá tener transmisiones Ethernet con 4 pares, sin problemas, full-duplex, sobre cable UTP.
En el futuro, la mayoría de las instalaciones requerirán cableado de Categoría 5e así como
sus componentes.
Categoría 6 y posteriores. Ahora ya puede obtener un cableado de Categoría 6, aunque
el estándar no ha sido todavía creado. Pero los equipos de trabajo que realizan los
estándares están trabajando en ello. La Categoría 6 espera soportar frecuencias de 250
MHz, dos veces y media más que la Categoría 5. En un futuro cercano, la TIA/EIA está
estudiando el estándar para la Categoría 7, para un ancho de banda de hasta 600 MHz. La
Categoría 7, usará un nuevo y aún no determinado tipo de conector.
Cable coaxial
El cable coaxial consta de un núcleo de cobre sólido rodeado por un aislante, una especie de combinación entre
pantalla y cable de tierra y un revestimiento protector exterior. En el pasado, el cable coaxial permitió una
transmisión más alta (10 Mbps) que el cable de par trenzado, aunque las recientes técnicas de transmisión sobre par
trenzado igualan e incluso superan la velocidad de transmisión por cable coaxial. Sin embargo, los cables coaxiales
pueden conectar los dispositivos de la red a distancias más largas que los de par trenzado. A pesar de ser el cable
coaxial el medio tradicional de transmisión en redes basadas en Ethernet y ARCNET, la utilización de par trenzado y
fibra óptica ya es muy común hoy en día sobre este tipo de redes.
Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes
razones para la utilización de este cable: era relativamente barato, y era ligero, flexible y
sencillo de manejar.
Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un
apantallamiento de metal trenzado y una cubierta externa.
El término apantallamiento hace referencia al trenzado o malla de metal (u otro material)
que rodea algunos tipos de cable. El apantallamiento protege los datos transmitidos
absorbiendo las señales electrónicas espúreas, llamadas ruido, de forma que no pasan por el
cable y no distorsionan los datos. Al cable que contiene una lámina aislante y una capa de
apantallamiento de metal trenzado se le denomina cable apantallado doble. Para entornos
que están sometidos a grandes interferencias, se encuentra disponible un apantallamiento
cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de
apantallamiento de metal trenzado,
El núcleo de un cable coaxial transporta señales electrónicas que forman los datos. Este
núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de cobre.
Rodeando al núcleo hay una capa aislante dieléctrica que la separa de la malla de hilo. La
malla de hilo trenzada actúa como masa, y protege al núcleo del ruido eléctrico y de la
intermodulación (la intermodulación es la señal que sale de un hilo adyacente).
El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si llegaran
a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que se
encuentren perdidas en la malla circularían por el hilo de cobre. Un cortocircuito eléctrico
ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en contacto. Este
contacto causa un flujo directo de corriente (o datos) en un camino no deseado. En el caso
de una instalación eléctrica común, un cortocircuito causará el chispazo y el fundido de un
fusible o del interruptor automático. Con dispositivos electrónicos que utilizan bajos voltajes,
el resultado no es tan dramático, y a menudo casi no se detecta. Estos cortocircuitos de bajo
voltaje generalmente causan un fallo en el dispositivo y lo habitual es que se pierdan los
datos.
Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o plástico)
rodea todo el cable.
El cable coaxial es más resistente a interferencias y atenuación que el cable de par
trenzado.
La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma que no
afecten a los datos que se envían a través del cable de cobre interno. Por esta razón, el
cable coaxial es una buena opción para grandes distancias y para soportar de forma fiable
grandes cantidades de datos con un equipamiento poco sofisticado.
Tipos de cable coaxial
Hay dos tipos de cable coaxial:
Cable fino (Thinnet).
Cable grueso (Thicknet).
El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en particular.
Cable Thinnet (Ethernet fino). El cable Thinnet es un cable coaxial flexible de unos 0,64
centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para la mayoría
de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de manejar.
El cable coaxial Thinnet puede transportar una señal hasta una distancia aproximada de
185 metros (unos 607 pies) antes de que la señal comience a sufrir atenuación.
Los fabricantes de cables han acordado denominaciones específicas para los diferentes
tipos de cables. El cable Thinnet está incluido en un grupo que se denomina la familia RG-58
y tiene una impedancia de 50 ohm. (La impedancia es la resistencia, medida en ohmios, a la
corriente alterna que circula en un hilo.)
La característica principal de la familia RG-58 es el núcleo central de cobre y los diferentes
tipos de cable de esta familia son:
RG-58/U: Núcleo de cobre sólido.
RG-58 A/U: Núcleo de hilos trenzados.
RG-58 C/U: Especificación militar de RG-58 A/U.
RG-59: Transmisión en banda ancha, como el cable de televisión.
RG-60: Mayor diámetro y considerado para frecuencias más altas que RG-59,
pero también utilizado para transmisiones de banda ancha.
RG-62: Redes ARCnet.
Cable Thicknet (Ethernet grueso). El cable
rígido de aproximadamente 1,27 centímetros de
denomina Ethernet estándar debido a que fue el
conocida arquitectura de red Ethernet. El núcleo
que el del cable Thinnet.
Thicknet es un cable coaxial relativamente
diámetro. Al cable Thicknet a veces se le
primer tipo de cable utilizado con la
de cobre del cable Thicknet es más grueso
Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las señales.
El cable Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la capacidad de
Thicknet para poder soportar transferencia de datos a distancias mayores, a veces se utiliza
como enlace central o backbone para conectar varias redes más pequeñas basadas en
Thinnet.
Un transceiver conecta el cable coaxial Thinnet a un cable coaxial Thicknet mayor. Un
transceiver diseñado para Ethernet Thicknet incluye un conector conocido como «vampiro» o
«perforador» para establecer la conexión física real con el núcleo Thicknet. Este conector se
abre paso por la capa aislante y se pone en contacto directo con el núcleo de conducción. La
conexión desde el transceiver a la tarjeta de red se realiza utilizando un cable de transceiver
para conectar el conector del puerto de la interfaz de conexión de unidad (AUI) a la tarjeta.
Un conector de puerto AUI para Thicknet también recibe el nombre de conector Digital Intel
Xerox (DIX) (nombre dado por las tres compañías que lo desarrollaron y sus estándares
relacionados) o como conector dB-15.
Cable Thinnet frente a Thicknet. Como regla general, los cables más gruesos son más
difíciles de manejar. El cable fino es flexible, fácil de instalar y relativamente barato. El cable
grueso no se dobla fácilmente y, por tanto, es más complicado de instalar. Éste es un factor
importante cuando una instalación necesita llevar el cable a través de espacios estrechos,
como conductos y canales. El cable grueso es más caro que el cable fino, pero transporta la
señal más lejos.
Hardware de conexión del cable coaxial
Tanto el cable Thinnet como el Thicknet utilizan un componente de conexión llamado
conector BNC, para realizar las conexiones entre el cable y los equipos. Existen varios
componentes importantes en la familia BNC, incluyendo los siguientes:
El conector de cable BNC. El conector de cable BNC está soldado, o
incrustado, en el extremo de un cable.
El conector BNC T. Este conector conecta la tarjeta de red (NIC) del equipo
con el cable de la red.
Conector acoplador (barrel) BNC. Este conector se utiliza para unir dos
cables Thinnet para obtener uno de mayor longitud.
Terminador BNC. El terminador BNC cierra el extremo del cable del bus para
absorber las señales perdidas.
El origen de las siglas BNC no está claro, y se le han atribuido muchos nombres, desde
«British Naval Connector» a «Bayonet Neill-Councelman». Haremos referencia a esta familia
hardware simplemente como BNC, debido a que no hay consenso en el nombre apropiado y
a que en la industria de la tecnología las referencias se hacen simplemente como conectores
del tipo BNC.
Tipos de cable coaxial y normas de incendios
El tipo de cable que se debe utilizar depende del lugar donde se vayan a colocar los cables
en la oficina. Los cables coaxiales pueden ser de dos tipos:
Cloruro de polivinilo (PVC).
Plenum.
El cloruro de polivinilo (PVC) es un tipo de plástico utilizado para construir el aíslante y
la clavija del cable en la mayoría de los tipos de cable coaxial. El cable coaxial de PVC es
flexible y se puede instalar fácilmente a través de la superficie de una oficina. Sin embargo,
cuando se quema, desprende gases tóxicos.
Un plenum. Es el espacio muerto que hay en muchas construcciones entre el falso techo
y el piso de arriba; se utiliza para que circule aire frío y caliente a través del edificio. Las
normas de incendios indican instrucciones muy específicas sobre el tipo de cableado que se
puede mandar a través de esta zona, debido a que cualquier humo o gas en el plenum
puede mezclarse con el aire que se respira en el edificio.
El cableado de tipo plenum contiene materiales especiales en su aislamiento y en 1a
clavija del cable. Estos materiales están certificados como resistentes al fuego y producen
una mínima cantidad de humo; esto reduce los humos químicos tóxicos. El cable plenum se
puede utilizar en espacios plenum y en sitios verticales (en una pared, por ejemplo) sin
conductos. Sin embargo, el cableado plenum es más caro y menos flexible que el PVC.
Para instalar el cable de red en la oficina sería necesario consultar las normas de la zona
sobre electricidad y fuego para la regulación y requerimientos específicos.
Consideraciones sobre el cable coaxial
En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no
obstante, considere las siguientes características del cable coaxial.
Utilice el cable coaxial si necesita un medio que pueda:
Transmitir voz, vídeo y datos.
Transmitir datos a distancias mayores de lo que es posible con un cableado
menos caro
Ofrecer una tecnología familiar con una seguridad de los datos aceptable.
Fibra óptica
El cable de fibra óptica transmite señales luminosas (fotones) a través de un núcleo de dióxido de silicio puro tan
diáfano que un espesor de más de tres millas del mismo no produce distorsión en una visión a su través. La
transmisión fotónica no produce emisiones externas al cable, sin ser afectada por la radiación exterior. El cable de
fibra se prefiere cuando existen ciertos requisitos de seguridad. La conversión electrónica de los valores lógicos 1 y 0
en destellos de luz permite la transmisión de las señales a través del cable de fibra óptica. Un diodo emisor de luz,
situado en un extremo, emite destellos que se transmiten por el cable hasta el otro extremo, donde se recogen por un
simple fotodetector y se convierten en señales eléctricas. Puesto que no existe una resistencia a las señales
transmitidas, la velocidad de transmisión por fibra óptica supera en prestaciones ampliamente a la transmisión por
cable de cobre.
Cable de fibra óptica
En el cable de fibra óptica las
señales que se transportan son
señales digitales de datos en forma
de pulsos modulados de luz. Esta
es una forma relativamente segura de enviar datos debido a que, a diferencia de los cables
de cobre que llevan los datos en forma de señales electrónicas, los cables de fibra óptica
transportan impulsos no eléctricos. Esto significa que el cable de fibra óptica no se puede
pinchar y sus datos no se pueden robar.
El cable de fibra óptica es apropiado para transmitir datos a velocidades muy altas y con
grandes capacidades debido a la carencia de atenuación de la señal y a su pureza.
Composición del cable de fibra óptica
Una fibra óptica consta de un cilindro de vidrio extremadamente delgado, denominado
núcleo, recubierto por una capa de vidrio concéntrica, conocida como revestimiento. Las
fibras a veces son de plástico. El plástico es más fácil de instalar, pero no puede llevar los
pulsos de luz a distancias tan grandes como el vidrio.
Debido a que los hilos de vidrio
pasan las señales en una sola
dirección, un cable consta de dos
hilos en envolturas separadas. Un
hilo transmite y el otro recibe. Una
capa de plástico de refuerzo
alrededor de cada hilo de vidrio y las fibras Kevlar ofrecen solidez. En el conector de fibra
óptica, las fibras de Kevlar se colocan entre los dos cables. Al igual que sus homólogos (par
trenzado y coaxial), los cables de fibra óptica se encierran en un revestimiento de plástico
para su protección.
Las transmisiones del cable de fibra óptica no están sujetas a intermodulaciones eléctricas
y son extremadamente rápidas, comúnmente transmiten a unos 100 Mbps, con velocidades
demostradas de hasta 1 gigabit por segundo (Gbps). Pueden transportar una señal (el pulso
de luz) varios kilómetros.
Consideraciones sobre el cable de fibra óptica
El cable de fibra óptica se utiliza si:
Necesita transmitir datos a velocidades muy altas y a grandes distancias en un
medio muy seguro.
El cable de fibra óptica no se utiliza si:
Tiene un presupuesto limitado.
No tiene el suficiente conocimiento para instalar y conectar los dispositivos de
forma apropiada.
El precio del cable de fibra óptica es competitivo con el precio del cable de cobre alto de
gama. Cada vez se hace más sencilla la utilización del cable de fibra óptica, y las técnicas de
pulido y terminación requieren menos conocimientos que hace unos años.
Ventajas
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.
Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
video y sonido en tiempo real.
Es inmune al ruido y las interferencias.
Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser
perturbada.
Carencia de señales eléctricas en la fibra.
Presenta dimensiones más reducidas que los medios preexistentes.
El peso del cable de fibras ópticas es muy inferior al de los cables metálicos.
La materia prima para fabricarla es abundante en la naturaleza.
Compatibilidad con la tecnología digital.
Inconvenientes
Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya
esté instalada la red de fibra óptica.
El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de
utilización sino por cantidad de información transferida al computador, que se mide en
megabytes.
El coste de instalación es elevado.
Fragilidad de las fibras.
Disponibilidad limitada de conectores.
Dificultad de reparar un cable de fibras roto en el campo.
2.8.2 Medios no Guiados.
Medios de transmisión no guiados
SE utilizan medios no guiados , principalmente el aire . Se radia energía electromagnética por medio
de una antena y luego se recibe esta energía con otra antena .
Hay dos configuraciones para la emisión y recepción de esta energía : direccional y omnidireccional .
En la direccional , toda la energía se concentra en un haz que es emitido en una cierta dirección , por
lo que tanto el emisor como el receptor deben estar alineados . En el método omnidireccional , la
energía es dispersada en múltiples direcciones , por lo que varias antenas pueden captarla . Cuanto
mayor es la frecuencia de la señal a transmitir , más factible es la transmisión unidireccional .
Por tanto , para enlaces punto a punto se suelen utilizar microondas ( altas frecuencias ) . Para
enlaces con varios receptores posibles se utilizan las ondas de radio ( bajas frecuencias ) . Los
infrarrojos se utilizan para transmisiones a muy corta distancia ( en una misma habitación ) .
Microondas terrestres
Suelen utilizarse antenas parabólicas . Para conexionas a larga distancia , se utilizan conexiones
intermedias punto a punto entre antenas parabólicas .
Se suelen utilizar en sustitución del cable coaxial o las fibras ópticas ya que se necesitan menos
repetidores y amplificadores , aunque se necesitan antenas alineadas . Se usan para transmisión de
televisión y voz .
La principal causa de pérdidas es la atenuación debido a que las pérdidas aumentan con el cuadrado de la
distancia ( con cable coaxial y par trenzado son logarítmicas ) . La atenuación aumenta con las lluvias .
Las interferencias es otro inconveniente de las microondas ya que al proliferar estos sistemas , pude
haber más solapamientos de señales .
Las microondas son ondas electromagnéticas cuyas frecuencias se encuentran dentro del espectro de las super altas frecuencias, SHF,
utilizándose para las redes inalámbricas la banda de los 18-19 Ghz. Estas redes tienen una propagación muy localizada y un ancho de banda que
permite alcanzar los 15 Mbps.
La red Rialta de Motorola es una red de este tipo, la cual va a 10 Mbps y tiene un área de cobertura de 500 metros.
Microondas por satélite
El satélite recibe las señales y las amplifica o retransmite en la dirección adecuada .
Para mantener la alineación del satélite con los receptores y emisores de la tierra , el satélite debe ser
geoestacionario .
Se suele utilizar este sistema para :
ð
Difusión de televisión .
ð
Transmisión telefónica a larga distancia .
ð
Redes privadas .
El rango de frecuencias para la recepción del satélite debe ser diferente del rango al que este emite , para
que no haya interferencias entre las señales que ascienden y las que descienden .
Debido a que la señal tarda un pequeño intervalo de tiempo desde que sale del emisor en la Tierra hasta
que es devuelta al receptor o receptores , ha de tenerse cuidado con el control de errores y de flujo de la
señal .
Las diferencias entre las ondas de radio y las microondas son :
ð
Las microondas son unidireccionales y las ondas de radio omnidireccionales .
ð
Las microondas son más sensibles a la atenuación producida por la lluvia .
ð
En las ondas de radio , al poder reflejarse estas ondas en el mar u otros objetos , pueden aparecer
múltiples señales "hermanas" .
Infrarrojos
Los emisores y receptores de infrarrojos deben estar alineados o bien estar en línea tras la posible
reflexión de rayo en superficies como las paredes . En infrarrojos no existen problemas de seguridad ni de
interferencias ya que estos rayos no pueden atravesar los objetos ( paredes por ejemplo ) . Tampoco es
necesario permiso para su utilización ( en microondas y ondas de radio si es necesario un permiso para
asignar una frecuencia de uso ) .
Los infrarrojos son ondas electromagnéticas que se propagan en línea recta, siendo
susceptibles de ser interrumpidas por cuerpos opacos. Su uso no precisa licencias administrativas y no
se ve afectado por interferencias radioeléctricas externas, pudiendo alcanzar distancias de hasta 200
metros entre cada emisor y receptor.
InfraLAN es una red basada en infrarrojos compatible con las redes Token Ring a 4Mbps,
pudiendo utilizarse independientemente o combinada con una red de área local convencional.
Las redes de luz infrarroja están limitadas por el espacio y casi generalmente la utilizan redes en
las que las estaciones se encuentran en un solo cuarto o piso, algunas compañías que tienen sus
oficinas en varios edificios realizan la comunicación colocando los receptores/emisores en las ventanas
de los edificios. Las transmisiones de radio frecuencia tienen una desventaja: que los países están
tratando de ponerse de acuerdo en cuanto a las bandas que cada uno puede utilizar, al momento de
realizar este trabajo ya se han reunido varios países para tratar de organizarse en cuanto a que
frecuencias pueden utilizar cada uno.
La transmisión Infrarroja no tiene este inconveniente por lo tanto es actualmente una alternativa
para las Redes Inalámbricas. El principio de la comunicación de datos es una tecnología que se ha
estudiado desde los 70´s, Hewlett-Packard desarrolló su calculadora HP-41 que utilizaba un transmisor
infrarrojo para enviar la información a una impresora térmica portátil, actualmente esta tecnología es la
que utilizan los controles remotos de las televisiones o aparatos eléctricos que se usan en el hogar.
El mismo principio se usa para la comunicación de Redes, se utiliza un "transreceptor" que envía
un haz de Luz Infrarroja, hacia otro que la recibe. La transmisión de luz se codifica y decodifica en el
envío y recepción en un protocolo de red existente. Uno de los pioneros en esta área es Richard Allen,
que fundó Photonics Corp., en 1985 y desarrolló un "Transreceptor Infrarrojo". Las primeros
transreceptores dirigían el haz infrarrojo de luz a una superficie pasiva, generalmente el techo, donde otro
transreceptor recibía la señal. Se pueden instalar varias estaciones en una sola habitación utilizando un
área pasiva para cada transreceptor. La siguiente figura muestra un transreceptor. En la actualidad
Photonics a desarrollado una versión AppleTalk/LocalTalk del transreceptor que opera a 230 Kbps. El
sistema tiene un rango de 200 mts. Además la tecnología se ha mejorado utilizando un transreceptor que
difunde el haz en todo el cuarto y es recogido mediante otros transreceptores. El grupo de trabajo de Red
Inalámbrica IEEE 802.11 está trabajando en una capa estándar MAC para Redes Infrarrojas.
Radioenlaces
Se basan en la propagación de ondas electromagnéticas a través del aire. Para ello sólo requieren la estación emisora
y receptora , además de posibles repetidores intermedios para salvar la orografía del terreno, ya que este tipo de
transmisión exige visibilidad entre las dos estaciones emisora y receptora. En la actualidad existen los siguientes
tipos de radioenlaces: de onda corta, sistemas terrestres de microondas y sistemas basados en satélites de
comunicaciones. La transmisión mediante microondas se lleva a cabo en una gama de frecuencias que va desde 2 a
40 GHz. Cuando las distancias son extremadamente grandes, el número de repetidores sería también grande.
Además, si tenemos en cuenta la superficie terrestre recubierta de agua donde la instalación de repetidores sería
compleja, se utilizan los satélites de comunicaciones soportados sobre satélites artificiales geoestacionarios, es decir,
que no modifican su posición respecto a la tierra.
Radio enlaces de VHF y UHF
Estas bandas cubren aproximadamente desde 55 a 550 Mhz. Son también
omnidireccionales, pero a diferencia de las anteriores la ionosfera es transparente a ellas. Su
alcance máximo es de un centenar de kilómetros, y las velocidades que permite del orden
de los 9600 bps. Su aplicación suele estar relacionada con los radioaficionados y con equipos
de comunicación militares, también la televisión y los aviones.
2.9 Adaptadores de Red. (NIC).
Una tarjeta de interfaz de red (NIC) es una placa de circuito impreso que proporciona las capacidades de
comunicación de red hacia y desde un computador personal. También se denomina adaptador LAN; se
enchufa en la motherboard y proporciona un puerto de conexión a la red. Esta tarjeta se puede diseñar
como una tarjeta Ethernet, una tarjeta token ring o una tarjeta de interfaz de datos distribuida por fibra
(FDDI).
Una tarjeta de red se comunica con la red a través de una conexión serial y con el computador a través
de una conexión paralela. Cada tarjeta requiere una IRQ, una dirección de E/S y una dirección de
memoria superior para funcionar con DOS o Windows 95/98. Una IRQ o línea de petición de interrupción,
es una señal que informa a la CPU que se ha producido un evento al cual se debe prestar atención. Se
envía una IRQ a través de una línea de hardware al microprocesador. Un ejemplo de petición de
interrupción es cuando se presiona una tecla en el teclado; la CPU debe desplazar el carácter del teclado
a la memoria RAM. Una dirección de E/S es una ubicación en la memoria que se utiliza para introducir o
retirar datos de un computador mediante un dispositivo auxiliar. En los sistemas basados en DOS, la
memoria superior hace referencia al área de memoria situada entre los primeros 640 kilobytes (K) y 1
megabyte (M) de RAM.
Al seleccionar una tarjeta de red, debe tener en cuenta los tres factores siguientes:
1. tipo de red (por ejemplo, Ethernet, Token Ring o FDDI)
2. el tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica)
3. tipo de bus del sistema (por ejemplo, PCI o ISA)
Una tarjeta de interfaz de red (NIC) se conecta a una motherboard y suministra los puertos para la
conexión. Esta tarjeta puede estar diseñada como una tarjeta Ethernet, una tarjeta Token Ring o una
tarjeta FDDI. Las tarjetas de red se comunican con la red a través de conexiones seriales y con el
computador a través de conexiones en paralelo. Son las conexiones físicas entre las estaciones de
trabajo y la red. Las tarjetas de red requieren una IRQ, una dirección E/S y direcciones de memoria
superior para DOS y Windows 95/98. Al seleccionar una tarjeta de red, debe tener en cuenta los tres
siguientes factores:
1.
El tipo de red (por ej., Ethernet, Token Ring, FDDI u otro tipo)
2.
El tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica)
3.
El tipo de bus del sistema (por ej., PCI e ISA)
Operaciones NIC de Capa 2
Las NIC ejecutan funciones importantes de la capa de enlace de datos (Capa 2) como, por ejemplo, las
siguientes:

Control de enlace lógico: Se comunica con las capas superiores del computador

Denominación: Proporciona un identificador exclusivo de dirección MAC

Entramado: Parte del proceso de encapsulamiento, empaquetar los bits para transportarlos

Control de acceso al medio (MAC): Proporciona un acceso estructurado a los medios de acceso
compartido

Señalización: Crea señales y realiza interfaz con los medios usando transceivers incorporados
2.9.1 Ethernet.
Definición
Es la tecnología de red de área local más extendida en la actualidad.
Fue diseñado originalmente por Digital, Intel y Xerox por lo cual, la especificación original se conoce
como Ethernet DIX. Posteriormente en 1.983, fue formalizada por el IEEE como el estándar Ethernet
802.3.
La velocidad de transmisión de datos en Ethernet es de 10Mbits/s en las configuraciones habituales
pudiendo llegar a ser de 100Mbits/s en las especificaciones Fast Ethernet.
Al principio, sólo se usaba cable coaxial con una topología en BUS, sin embargo esto ha cambiado y
ahora se utilizan nuevas tecnologías como el cable de par trenzado (10 Base-T), fibra óptica (10 Base-FL)
y las conexiones a 100 Mbits/s (100 Base-X o Fast Ethernet). La especificación actual se llama IEEE
802.3u.
Ethernet/IEEE 802.3, está diseñado de manera que no se puede transmitir más de una información a la
vez. El objetivo es que no se pierda ninguna información, y se controla con un sistema conocido como
CSMA/CD(Carrier Sense Multiple Access with Collision Detection, Detección de Portadora con Acceso
Múltiple y Detección de Colisiones), cuyo principio de funcionamiento consiste en que una estación, para
transmitir, debe detectar la presencia de una señal portadora y, si existe, comienza a transmitir. Si dos
estaciones empiezan a transmitir al mismo tiempo, se produce una colisión y ambas deben repetir la
transmisión, para lo cual esperan un tiempo aleatorio antes de repetir, evitando de este modo una nueva
colisión, ya que ambas escogerán un tiempo de espera distinto. Este proceso se repite hasta que se
reciba confirmación de que la información ha llegado a su destino.
Según el tipo de cable, topología y dispositivos utilizados para su implementación podemos distinguir los
siguientes tipos de Ethernet:
10 Base-5
También conocida como THICK ETHERNET (Ethernet grueso), es la Ethernet original. Fue desarrollada
originalmente a finales de los 70 pero no se estandarizó oficialmente hasta 1983.
Utiliza una topología en BUS, con un cable coaxial que conecta todos los nodos entre sí. En cada
extremo del cable tiene que llevar un terminador. Cada nodo se conecta al cable con un dispositivo
llamado transceptor.
El cable usado es relativamente grueso (10mm) y rígido. Sin embargo es muy resistente a interferencias
externas y tiene pocas pérdidas. Se le conoce con el nombre de RG8 o RG11 y tiene una impedancia de
50 ohmios. Se puede usar conjuntamente con el 10 Base-2.
CARACTERÍSTICAS
Tipo de cable usado
Tipo de conector usado
Velocidad
RG8 o RG11
AUI
10 Mbits/s
Topología usada
BUS
Mínima distancia entre transcentores
2.5 m
Máxima longitud del cable del transceptor
50 m
Máxima longitud de cada segmento
500 m
Máxima longitud de la red
Máximo de dispositivos conectados por segmento
Regla 5-4-3
2.500 m
100
Sí
La regla 5-4-3 es una norma que limita el tamaño de las redes y que se estudiará más adelante.
VENTAJAS
Es posible usarlo para distancias largas.
Tiene una inmunidad alta a las interferencias.
Conceptualmente es muy simple.
INCONVENIENTES
Inflexible. Es difícil realizar cambios en la instalación una vez montada.
Intolerancia a fallos. Si el cable se corta o falla un conector, toda la red dejará de funcionar.
Dificultad para localización de fallos. Si existe un fallo en el cableado, la única forma de localizarlo es ir
probando cada uno de los tramos entre nodos para averiguar cual falla.
APLICACIONES EN LA ACTUALIDAD
Debido a los inconvenientes antes mencionados, en la actualidad 10 Base-5 no es usado para montaje
de redes locales. El uso más común que se le da en la actualidad es el de "Backbone". Básicamente un
backbone se usa para unir varios HUB de 10 Base-T cuando la distancia entre ellos es grande, por
ejemplo entre plantas distintas de un mismo edificio o entre edificios distintos.
10 Base-2
En la mayoría de los casos, el costo de instalación del coaxial y los transceptores de las redes 10 Base-5
las hacía prohibitivas, lo que indujo la utilización de un cable más fino y, por tanto más barato, que
además no necesitaba transceptores insertados en él. Se puede decir que 10 Base-2 es la versión barata
de 10 Base-5. Por esto, también se le conoce Thin Ethernet (Ethernet fino) o cheaper-net(red barata).
Este tipo de red ha sido la mas usada en los últimos años en instalaciones no muy grandes debido a su
simplicidad y precio asequible. Se caracteriza por su cable coaxial fino (RG-58) y su topología en BUS.
Cada dispositivo de la red se conecta con un adaptador BNC en forma de "T" y al final de cada uno de los
extremos del cable hay que colocar un terminador de 50 Ohmios.
CARACTERÍSTICAS
Tipo de cable usado
Tipo de conector
Velocidad
RG-58
BNC
10 Mbits/s
Topología usada
BUS
Mínima distancia entre estaciones
0.5 m
Máxima longitud de cada segmento
185 m
Máxima longitud de la red
925 m
Máximo de dispositivos conectados por segmento
30
Regla 5-4-3
Sí
VENTAJAS
Simplicidad. No usa ni concentradores, ni transcentores ni otros dispositivos adicionales.
Debido a su simplicidad es una red bastante económica.
Tiene una buena inmunidad al ruido debido a que el cable coaxial dispone de un blindaje apropiado
para este fin.
INCONVENIENTES
Inflexible. Es bastante difícil realizar cambios en la disposición de los dispositivos una vez montada.
Intolerancia a fallos. Si el cable se corta o falla un conector, toda la red dejará de funcionar. En un lugar
como un aula de formación donde el volumen de uso de los ordenadores es elevado, es habitual que
cualquier conector falle y por lo tanto la red completa deje de funcionar.
Dificultad para localización de fallos. Si existe un fallo en el cableado, la única forma de localizarlo es ir
probando cada uno de los tramos entre nodos para averiguar cual falla.
El cable RG-58, se usa sólo para este tipo de red local, por lo que no podrá ser usado para cualquier
otro propósito como ocurre con otro tipo de cables.
APLICACIONES EN LA ACTUALIDAD
La tecnología 10 Base-2 se usa para pequeñas redes que no tengan previsto cambiar su disposición
física.
De igual manera que 10 Base-5, uno de los usos habituales de esta tecnología es como backbone para
interconectar varios concentradores en 10 Base-T. Normalmente los concentradores no se mueven de
lugar. Si la distancia entre ellos es grande, por ejemplo si están en plantas o incluso en edificios distintos,
la longitud máxima que se puede conseguir con este cable (185m) es mucho mayor que la que se
consigue usando el cable UTP de la tecnología 10 Base-T (100m).
10 Base-T
Ya se ha comentado, que ETHERNET fue diseñado originalmente para ser montado con cable coaxial
grueso y que más adelante se introdujo el coaxial fino. Ambos sistemas funcionan excelentemente pero
usan una topología en BUS, que complica la realización de cualquier cambio en la red. También deja
mucho que desear en cuestión de fiabilidad. Por todo esto, se introdujo un nuevo tipo de tecnología
llamada 10 Base-T, que aumenta la movilidad de los dispositivos y la fiabilidad.
El cable usado se llama UTP que consiste en cuatro pares trenzados sin apantallamiento. El propio
trenzado que llevan los hilos es el que realiza las funciones de asilar la información de interferencias
externas. También existen cables similares al UTP pero con apantallamiento que se llaman STP (Par
Trenzado Apantallado mediante malla de cobre) y FTP (Par Trenzado apantallado mediante papel de
aluminio).
10 Base-T usa una topología en estrella consistente en
que desde cada nodo va un cable al un concentrador
común que es el encargado de interconectarlos. Cada
uno de estos cables no puede tener una longitud
superior a 90m.
A los concentradores también se les conoce con el
nombre de HUBs y son equipos que nos permiten
estructurar el cableado de la red. Su función es distribuir
y amplificar las señales de la red y detectar e informar de las colisiones que se produzcan. En el caso de
que el número de colisiones que se producen en un segmento sea demasiado elevado, el concentrador lo
aislará para que el conflicto no se propague al resto de la red.
También se puede usar una topología en árbol donde un concentrador principal se interconecta con otros
concentradores. La profundidad de este tipo de conexiones viene limitada por la regla 5-4-3.
Un ejemplo de este tipo de conexiones podría ser un aula de informática de un centro. El concentrador
principal está en otra dependencia distinta. Si se llevará un cable por ordenador hasta esta otra
habitación, el gasto de cable sería grande. Aprovechando la topología en árbol lo que haremos es llevar
solamente uno al que conectaremos un nuevo concentrador situado en el aula. La distancia desde cada
uno de los ordenadores hasta este nuevo concentrador, será infinitamente menor que hasta el principal.
10 Base-T también se puede combinar con otro tipo de tecnologías, como es el caso de usar 10 Base-2 o
10 Base-5 como Backbone entre los distintos concentradores.
Cuando la distancia entre concentradores es grande, por ejemplo si están en plantas o incluso en
edificios distintos, estamos limitados por la longitud máxima que se puede conseguir con el cable UTP
(100m). Si la distancia es mayor se puede usar la tecnología 10 Base-2 que permite hasta 185m o la 10
Base-5 con la que podríamos alcanzar los 500m. Otra solución puede ser usar cable UTP poniendo
repetidores cada 100m.
De los 8 hilos de que dispone en el cable UTP, sólo se usan cuatro para los datos de la LAN (dos para
transmisión y dos para la recepción) por lo que quedan otros cuatro utilizables para otros propósitos
(telefonía, sistemas de seguridad, transmisión de vídeo, etc.).
El conector usado es similar al utilizado habitualmente en los teléfonos pero con 8 pines. Se le conoce
con el nombre de RJ-45. Los pines usados para los datos son el 1 - 2 para un par de hilos y el 3 - 6 para
el otro. La especificación que regula la conexión de hilos en los dispositivos Ethernet es la EIA/TIA T568A
y T568B.
CARACTERÍSTICAS
Tipo de cable usado
Tipo de conector
UTP, STP y FTP
RJ-45
Velocidad
Topología usada
10 Mbits/s
Estrella
Máxima longitud entre la estación y el concentrador
90 m
Máxima longitud entre concentradores
100 m
Máximo de dispositivos conectados por segmento
Regla 5-4-3
512
Sí
VENTAJAS
Aislamiento de fallos. Debido a que cada nodo tiene su propio cable hasta el concentrador, en caso de
que falle uno, dejaría de funcionar solamente él y no el resto de la red como pasaba en otros tipos de
tecnologías.
Fácil localización de averías. Cada nodo tiene un indicador en su concentrador indicando que está
funcionando correctamente. Localizar un nodo defectuoso es fácil.
Alta movilidad en la red. Desconectar un nodo de la red, no tiene ningún efecto sobre los demás. Por lo
tanto, cambiar un dispositivo de lugar es tan fácil como desconectarlo del lugar de origen y volverlo a
conectar en el lugar de destino.
Aprovechamiento del cable UTP para hacer convivir otros servicios. De los cuatro pares (8 hilos) de
que dispone, sólo se usan dos pares (4 hilos) para los datos de la LAN por lo que quedan otros dos
utilizables para otros propósitos (telefonía, sistemas de seguridad, transmisión de vídeo, etc.).
INCONVENIENTES
Distancias. 10 Base-T permite que la distancia máxima entre el nodo y el concentrador sea de 90m. En
algunas instalaciones esto puede ser un problema, aunque siempre se puede recurrir a soluciones
cómo las comentadas anteriormente consistentes en combinar esta tecnología con 10 Base-2 o 10
Base-5, o el uso de repetidores para alargar la distancia.
Sensibilidad a interferencias externas. El cable coaxial usado en otras tecnologías es más inmune a
interferencias debido a su apantallamiento. En la mayoría de los casos, el trenzado interno que lleva el
cable UTP es suficiente para evitarlas. En instalaciones con posibilidades grandes de interferencias
exteriores, se puede usar el cable FTP o el STP que es igual que el UTP pero con protección por malla.
APLICACIONES EN LA ACTUALIDAD
Es la tecnología más usada en la actualidad por todas las ventajas que aporta y sobre todo por la
flexibilidad y escalabilidad que supone tener una instalación de este tipo.
10 Base-FL
Es la especificación Ethernet sobre fibra óptica. Los cables de cobre presentan el problema de
ser susceptibles tanto de producir como de recibir interferencias. Por ello, en entornos
industriales o donde existen equipos sensibles a las interferencias, es muy útil poder utilizar la
fibra. Normalmente, las redes Ethernet de fibra suelen tener una topología en estrella.
La distancia entre equipos puede llegar a 2 Km. con los repetidores apropiados.
Regla 5-4-3
Los repetidores son equipos que actúan a nivel físico. Prolongan la longitud de la red uniendo dos
segmentos (incluso con diferentes tipos de cableado).
Puede tener dos o más puertos. Estos puertos pueden ser AUI, BNC, RJ-45 o fibra óptica en cualquier
combinación. Actúan como parte del cableado de la red ya que transfieren los datos recibidos de un
extremo al otro independientemente de su contenido, origen y destino.
Su función básica es la de repetir los datos recibidos por un puerto y enviarlos inmediatamente por todos
los demás. También los amplifica para eliminar las posibles distorsiones que se hayan podido introducir
en la transmisión.
Si un repetidor detecta muchas colisiones de datos en uno de sus puertos, asume que el conflicto se ha
producido en ese segmento y lo aísla del resto. De esta forma se evita que el incidente se propague al
resto de la red.
Un repetidor es la expresión mínima de un concentrador, o también se puede decir, que un concentrador
es un repetidor multipuerto.
Además de ventajas los repetidores también tienen inconvenientes derivados principalmente del hecho
de que introducen un pequeño retardo en los datos. Si el número de repetidores usado es elevado, el
retardo introducido empieza a ser considerable y puede darse el caso de que el sistema de detección de
colisiones (CSMA/CD) no funcione adecuadamente y se produzcan transmisiones erróneas.
La regla 5-4-3 limita el uso de repetidores y dice que entre dos equipos de la red no podrá haber más
de 4 repetidores y 5 segmentos de cable. Igualmente sólo 3 segmentos pueden tener conectados
dispositivos que no sean los propios repetidores, es decir, 2 de los 5 segmentos sólo pueden ser
empleados para la interconexión entre repetidores.
Es conveniente señalar que para contar el número de repetidores no se cuenta el total de los existentes
en la red, sino sólo el número de repetidores entre dos puntos cualquiera de la red. Por ejemplo, la red de
la figura tiene más de 4 repetidores pero no excede este número entre dos dispositivos cualquiera.
Si observamos la figura, podemos ver que se ha trazado en verde el camino que existe entre los PCs
llamados A y D. Cada concentrador (B y C) es un repetidor. Si lo analizamos podemos ver que entre A y
D hay un total de 3 segmentos de cable y dos repetidores. Esta red cumple la regla 5-4-3 y debería de
funcionar correctamente.
La siguiente figura nos muestra una red mal diseñada y que no cumple la regla 5-4-3.
En esta red existen 5 repetidores (concentradores en este caso) conectados en topología de árbol. Se
puede ver trazada la ruta existente entre el ordenador A y el B que este caso son los puntos más
distantes de la red. Si se analiza se puede ver que existen 5 repetidores y 6 segmentos de cable entre
ellos. Esta red no funcionaría adecuadamente ya que el retardo introducido por los repetidores sería
excesivo.
Mas velocidad.
En la actualidad han surgido nuevas especificaciones basadas en Ethernet que permiten transmitir datos
a mayor velocidad como son:
Ethernet de 100 Mbits/s(100 BaseX o Fast Ethernet).
Esta especificación permite velocidades de transferencia de 100 Mbits/s sobre cables de pares trenzados,
directamente desde cada estación. El sistema 100 BaseX tiene la misma arquitectura que 10 Base-T con
la diferencia de usar componentes que son capaces de transferir la información a 100 Mbits/s.
Partiendo de una LAN montada con los requerimientos de una 10 Base-T, únicamente se requiere la
sustitución de los concentradores y las tarjetas de red de las estaciones.
Casi todos los componentes usados en nuestro proyecto, soportan esta especificación. Desde el cable
hasta las rosetas y conectores, pasando por las tarjetas de red. La única excepción es el concentrador.
Esto en principio limita la velocidad de la LAN a 10 Mbits/s.
Para convertirlo en 100 BaseX y por lo tanto aumentar la velocidad de la LAN simplemente habrá que
sustituir el concentrador por uno de 100 Mbits/s. Será el uso diario, el que nos demandará o no el
aumento de velocidad. Seguro que también influye la previsible bajada de precios que deben de
experimentar estos dispositivos.
Puentes y conmutadores
Son dispositivos que aumentan la flexibilidad para topologías de red y mejoran sus prestaciones.
Tanto los puentes como los conmutadores disponen de canales de comunicación de alta velocidad en su
interior que conmutan el tráfico entre las estaciones conectados a ellos. Incrementan la capacidad total de
tráfico de la red dividiéndola en segmentos más pequeños, y filtrando el tráfico innecesario, bien
automáticamente o bien en función de filtros definidos por el administrador de la red, haciéndola, en
definitiva, más rápida y eficaz.
Esto permite que cada segmento disponga de un canal de 10Mbits/s (o de 100 Mbits/s si el dispositivo
está diseñado para esta velocidad), en lugar de un único canal para todos los nodos de la red.
PUENTE O BRIDGE
Los puentes (bridges) se usan para la conexión de redes diferentes como
por ejemplo Ethernet y Fast Ethernet. Igual que los repetidores, son
independientes de los protocolos, y retransmiten los paquetes a la
dirección adecuada basándose precisamente en esta, en la dirección de
destino (indicada en el propio paquete). Su diferencia con los repetidores
consiste en que los puentes tienen cierta "inteligencia", que les permite
reenviar o no un paquete al otro segmento; cuando un paquete no es
retransmitido, decimos que ha sido filtrado. Esos filtros pueden ser
automáticos, en función de las direcciones de los nodos de cada segmento
que los puentes "aprenden" al observar el tráfico de cada segmento, o
pueden ser filtros definidos por el administrador de la red, en función de
razones de seguridad, organización de grupos de trabajo en la red,
limitación de tráfico innecesario, etc.
Otra importante diferencia es que con los repetidores, el ancho de banda
de los diferentes segmentos es compartido, mientras que con los puentes,
cada segmento dispone del 100% del ancho de banda.
Su filosofía impide que las colisiones se propaguen entre diferentes segmentos de la red, algo que los
repetidores son incapaces de evitar. Habitualmente, los puentes de una red se enlazan entre sí con
topología de bus y a su vez se combinan con concentradores mediante una topología de estrella.
En nuestro proyecto no se usarán bridges debido a que la arquitectura necesaria para resolver las
necesidades de las redes a implementar en los centros, no los requiere.
SWITCH O CONMUTADOR
Es un dispositivo similar a un concentrador que dispone de las características antes mencionadas de
canales de alta velocidad en su interior y capacidad de filtrado del tráfico.
Cuando un paquete es recibido por el conmutador, éste determina la dirección fuente y destinataria del
mismo; si ambas pertenecen al mismo segmento, el paquete es descartado; si son direcciones de
segmentos diferentes, el paquete es retransmitido sólo al segmento destino (a no ser que los filtros
definidos lo impidan).
Los conmutadores son, en cierto modo, puentes multipuerto. La diferencia fundamental, teóricamente,
entre puentes y conmutadores, es que los puentes reciben el paquete completo antes de proceder a su
envío al puerto destinatario, mientras que un conmutador puede iniciar su reenvío antes de haberlo
recibido por completo. Ello redunda, evidentemente, en una mejora de prestaciones.
Mientras los concentradores comparten el ancho de banda de la red entre todos los nodos que la
componen, con el uso de conmutadores, cada uno de los segmentos conectados a uno de sus
puertos tiene un ancho de banda completo, compartido por menos usuarios, lo que repercute en
mejores prestaciones.
La ventaja de esta especificación es que utiliza los mismos cables y tarjetas de red que el 10 Base-T,
sustituyéndose sólo los concentradores por conmutadores.
En la figura se puede ver como el uso de conmutadores en lugar de concentradores mejora las
prestaciones de la red.
El primer caso sería una implementación típica de 10 Base-T con concentradores. Aunque no es malo el
rendimiento que le saca a este montaje, veremos que es mejorable con muy pocos cambios.
El segundo caso tan solo ha cambiado el concentrador principal por un conmutador y ha conseguido
disminuir considerablemente tanto el número de colisiones como la utilización de las capacidades de la
red. Esto se debe a que cada puerto del conmutador es una red separada a nivel de colisiones y además
tiene para sí todo el ancho de banda disponible(10 Mbits/s en este caso).
El tercer caso es una combinación entre uso de conmutador y 100 Base-X. Como se puede observar, el
switch usado tiene además de los puertos de 10 Mbits/s, dos más de 100 Mbits/s. Si el servidor de la LAN
lo conectamos en uno de estos segmentos, conseguiremos una disminución muy considerable tanto del
número de colisiones como del grado de utilización de la red. En definitiva mejora sustancialmente el
rendimiento de la LAN.
En nuestro proyecto usaremos concentradores en lugar de Switch ya que la velocidad que vamos a
necesitar en la LAN queda suficientemente cubierta con los primeros. En el caso de que el tráfico por la
red fuera muy intenso (por ejemplo con el aumento significativo del número de estaciones), se podría
pensar en cambiar los concentradores por Switchs o hacer convivir ambos introduciendo los segundos en
los tramos de red donde se necesite mayor ancho de banda, por ejemplo en los servidores.
¿Cómo afectan a la regla 5-4-3?
Con el uso de repetidores existe un límite en la cantidad de nodos que pueden conectarse a una red. El
uso de conmutadores y puentes permiten a la LAN crecer significativamente. Esto se debe a que ambos
poseen la virtud de soportar segmentos completos en cada uno de sus puertos, o sea, que cada puerto
de un switch o bridge es una red separada a nivel de colisiones. Son capaces de separar la red en
dominios de colisión.
Si una red excede la regla 5-4-3 se puede resolver el problema usando un switch o un bridge en el lugar
adecuado. Un ejemplo puede ser la red siguiente que no cumple la regla.
Se podría respetar esa arquitectura simplemente con sustituir el concentrador raíz o principal por un
switch. De esta forma tendríamos dos redes separadas a nivel de colisiones aunque unidas a nivel de
datos y en ambas se cumpliría la regla 5-4-3.
Con el exterior
Una red local bien dimensionada y con los servicios adecuados debidamente instalados, puede darnos
mucho rendimiento y facilitar el trabajo diario de manera considerable. Pero también hay que valorar que
hoy por hoy tiene cada vez menos sentido, tener nuestra LAN "aislada" del resto del mundo. Las ventajas
de interconectarla con redes de ámbito global, no vamos a descubrirlas aquí. Creo que queda
debidamente justificada la necesidad de hacerlo simplemente con nombrar el término INTERNET.
El sistema de interconexión de nuestra LAN con Internet debe de cumplir una serie de requisitos:
Debe de usar una única línea telefónica lo suficientemente rápida como para darle servicio a todos los
puestos de nuestra red.
Debe de conectarse con una única cuenta de acceso a Internet.
La conexión debe de efectuarse bajo demanda, de manera que el sistema no esté gastando línea
telefónica constantemente.
Igualmente cuando no exista tráfico hacia el exterior, de debe de cortar la llamada telefónica para
ahorrar consumo telefónico.
Han de poder usar los servicios de Internet todos los puestos de nuestra red local.
La solución que hemos adoptado para este proyecto pasa por la utilización de un dispositivo llamado
router para unir la red local interna del centro con la "red de redes" a través de una línea telefónica digital
de transmisión de datos. Esta línea es una RDSI (Red Digital de Servicios Integrados) y nos va a permitir
conectar a velocidades superiores que con una línea RTC (Red Telefónica Conmutada) convencional.
Quiere decir que cada vez que desde cualquier PC de la LAN se necesite conectar con algún recurso de
Internet, el router provocará una llamada telefónica y conectará ambas redes. . De igual forma cuando
pase un tiempo razonable sin que se esté solicitando servicios externos, el propio router desconectará la
llamada para gastar sólo el tráfico telefónico necesario.
ROUTER
Los routers trabajan de forma similar a los conmutadores y puentes ya que filtran el tráfico de la red. La
diferencia está en que en lugar de hacerlo según las direcciones de los paquetes de información, lo
hacen en función del protocolo de red.
Son dispositivos de interconexión de redes incluso de distinta arquitectura. Son capaces de direccionar la
información a su destino utilizando para ello el camino apropiado.
Su función más habitual es enlazar dos redes que usen el mismo protocolo a través de una línea de
datos.
RDSI
La Red Digital de Servicios Integrados (RDSI) es una red de telefonía que aprovechando las mismas
líneas de cobre que usa la Red Telefónica Conmutada (RTC) convencional, consigue velocidades muy
superiores.
Existen dos tipos de accesos RDSI. El básico y el primario. A nosotros nos interesa el básico ya que el
primario se usa en grandes comunicaciones de anchos de banda muy elevados. Decir que un acceso
primario son 30 accesos básicos.
El acceso básico dispone de 2 canales B de 64 Kbits/s y un canal D de 16 Kbits/s. Los canales B se
pueden usar de forma independiente con lo que se podrían considerar dos líneas individuales a todos los
efectos, o multiplexando ambas y consiguiendo 128 Kbits/s para una única conexión.
La RDSI está integrada en la red telefónica convencional, de forma que se pueden interconectar con
abonados que dispongan de RTC.
Algunas de las nuevas posibilidades que nos permiten este tipo de líneas:
Transmisión de datos a gran velocidad.
Aumenta la calidad de la voz transmitida en telefonía.
Podemos usar fax de grupo 4, más rápido y de mayor calidad, siempre que en le otro extremo exista
otro fax de esta categoría.
Podremos hacer videoconferencias con una calidad bastante aceptable.
Como se dijo anteriormente el cableado exterior desde la central de Telefónica hasta nuestro edificio, es
convencional, el par de hilos de cobre de toda la vida. Es a partir del cajetín de entrada (TR), dentro ya
del edificio, donde se distribuyen 4 hilos (2 para recepción y 2 para transmisión) hasta los dispositivos a
conectar.
Los conectores usados son RJ-45 como los usados en 10 Base-T.
La información que viaja por una RDSI es digital en contraste con la analógica que es la usada en las
líneas RTC convencionales. Por lo tanto los dispositivos que se conecten a la RDSI deben de ser también
digitales como es el caso de un PC (con su tarjeta adaptadora), un router o un teléfono digital. También
se pueden conectar teléfonos analógicos convencionales, siempre que se disponga del adaptador
adecuado.
Se puede contratar con Telefónica que el cajetín de entrada disponga de este adaptador. Es el
denominado TR1 + 2 a/b, que nos proporciona 2 salidas RDSI básicas (conectores RJ-45) y dos
analógicos (RTC, conectores RJ-11).
También se pueden encontrar estos adaptadores en otros dispositivos como es el caso del router que
implementamos en este proyecto.
En nuestro proyecto vamos a usar la RDSI para conectar con Internet desde el router. Se van a conseguir
velocidades muy superiores a las de una línea convencional. El router está preparado para usar un solo
canal B (64 Kbits/s) o ambos multiplexados (128 Kbits/s). Es el proveedor de acceso a Internet el que nos
habilitará o no esta posibilidad.
2.9.2 Token Ring.
La arquitectura Token Ring fue desarrollada a mediados de los ochenta por IBM. Es el
método preferido de IBM y es el que se suele encontrar en instalaciones de minis y
mainframes. Aunque la popularidad en el mercado ha descendido en favor de Ethernet,
sigue jugando un papel importante en el mercado de las redes.
Introducción
La versión de Token Ring de IBM se introdujo en 1984 en todo el entorno de IBM
incluyendo:
Equipos personales.
Equipos de tamaño medio.
Mainframes y en el entorno
de Arquitectura de sistemas en red
(SNA). SNA es la arquitectura de
red de IBM.
El objetivo de la versión de Token Ring
de IBM era facilitar una estructura de
cableado sencilla utilizando cable de par
trenzado que conectase un equipo a la
red mediante un enchufe de pared, y en
el que el cableado principal se encontrase localizado en un lugar centralizado.
En 1985, la Token Ring de IBM se convirtió en un estándar del Instituto de estandarización
nacional americano (ANSI)/IEEE. (ANSI es una organización que se creó en Estados Unidos
en 1918 para el desarrollo y adopción de estándares comerciales y de comunicación; ANSI
es el equivalente americano del ISO.)
Características de Token Ring
Una red Token Ring es una implementación del estándar IEEE 802.5. Sus métodos de
acceso de paso de testigo a través del anillo, además de su cableado físico, permite
distinguir unas redes Token Ring de otras.
Arquitectura
La arquitectura de una red Token Ring típica comienza con un anillo físico. Sin embargo,
en su implementación de IBM, un anillo cableado en estrella, los equipos de la red se
conectan a un hub central. El anillo lógico representa el sentido de circulación para los
testigos entre equipos. El anillo de cable físico actual está en el hub. Los usuarios son parte
de un anillo, pero se conectan a él a través de un hub.
Características básicas de Token Ring
Una red Token Ring incluye estas características:
Topología del cableado del anillo en estrella.
Método de acceso de paso de testigo.
Cableado de par trenzado apantallado y sin apantallar (Tipos 1, 2 y 3 de IBM).
Velocidades de transferencia entre 4 y 16 Mbps.
Transmisión banda base.
Especificaciones 802.5.
Formatos de trama
El formato básico de la trama de datos de Token Ring consta de cabecera, datos y final. El
campo de datos suele formar la mayor parte de la trama.
Componentes de una trama de datos de Token Ring
Delimitador de inicio: Indica el inicio de la trama.
Control de acceso: Indica la prioridad de la trama y se trata de un testigo o
de una trama de datos.
Control de trama: Contiene información sobre el Control de acceso al medio
para todos los equipos o información de «estación final» para un solo equipo.
Dirección de destino: Indica la dirección del equipo que recibe la trama.
Dirección de origen: Indica el equipo que envió la trama.
Información o datos: Contiene los datos enviados.
Secuencia de control de la trama: Contiene información de comprobación
de errores CRC.
Delimitador de fin: Indica el final de la trama.
Estado de la trama: Indica si la trama fue reconocida, copiada, o si la
dirección de destino estaba disponible.
Funcionamiento de una red Token Ring
Cuando el primer equipo de Token Ring entra en
línea, la red genera un testigo. El anillo es una
formación de bits predeterminada (una serie de datos)
que permite a un equipo colocar datos en los cables. El
testigo viaja a través de la red preguntando a cada
equipo hasta que un equipo indica que quiere transmitir
datos y se apodera del testigo y ningún equipo puede
transmitir hasta que no tome el control del testigo.
Una vez que una equipo se apodera del token, envía
una trama de datos a través de la red. La trama viaja
por la red hasta que alcanza el equipo con una dirección
que coincida con la dirección de destino de la trama. El
equipo de destino copia la trama en su búfer de recepción y marca la trama en el campo de
estado de la trama para indicar que se ha recibido la información.
La trama continúa por el anillo hasta que llegue al equipo que la envió, de forma que se
valida la transmisión. A continuación, el equipo que envía retira la trama del anillo y
transmite un testigo nuevo a éste.
En la red sólo puede haber un testigo activo y el testigo puede viajar sólo en una dirección
del anillo.
¿Circula el testigo en el sentido de las agujas del reloj o en sentido contrario? Realmente,
la respuesta no importa. La dirección depende de las conexiones del hardware. Se puede
hacer que el testigo viaje en el orden que desee. Los diseñadores de los hubs determinan el
orden en que direcciona cada puerto y usted puede determinar el orden en que se conectan
los equipos al hub. El estándar IEEE 802.5 dice que es en el sentido de las agujas del reloj, y
la sección 3 de la publicación SC30-3374 de IBM dice que es en el sentido contrario de las
agujas del reloj.
El paso de testigos es determinante, lo que significa que un equipo no puede imponer su
turno en la red, tal y como ocurre en un entorno CSMA/CD. Si el testigo está disponible, el
equipo puede utilizarlo para enviar datos. Cada equipo actúa como un repetidor
unidireccional, regenera el testigo y lo continúa pasando.
Control del sistema
El primer equipo que se active queda designado por el sistema Token Ring para controlar
la actividad de la red. El equipo encargado del control asegura que las tramas se están
entregando y recibiendo correctamente. Esto se realiza comprobando las tramas que
circulan por el anillo más de una vez y asegura que sólo hay un testigo en la red.
El proceso de monitorización se denomina de baliza (beaconing). El equipo encargado del
control envía una baliza cada siete segundos. La baliza pasa de equipo en equipo por todo el
anillo. Si un equipo no recibe la baliza de su vecino, notifica a la red su falta de conexión.
Envía un mensaje que contiene su dirección y la dirección del vecino que no le ha enviado la
baliza y el tipo de baliza. A partir de esta información, se intenta diagnosticar el problema y
tratar de repararlo sin dividir la red. Si no se puede realizar la reconfiguración de forma
automática es necesaria la intervención manual.
Reconocimiento de un equipo
Cuando un equipo de la red entra en línea, el sistema Token Ring lo inicializa de forma que
pueda formar parte del anillo. Esta inicialización incluye:
Comprobación de direcciones duplicadas.
Notificación a otros equipos de la red de su existencia.
Componentes hardware
El hardware para redes Token Ring está basado en el hub, que es el que forma el anillo.
Una red Token Ring puede tener varios hubs. El cableado que se utiliza para conectar los
equipos a los hubs es STP o UTP; para extender las conexiones se pueden utilizar cables
adaptadores. El cable de fibra óptica es especialmente apropiado para redes Token Ring.
Junto con los repetidores, el cable de fibra óptica puede extender enormemente el rango de
las redes Token Ring. El cableado para componentes se realiza con cuatro tipos de
conectores. Otro tipo de hardware para Token Ring incluye a los filtros, paneles de
conexiones y tarjetas de red.
El hub
En una red Token Ring, el hub es conocido con varios nombres y todos con el mismo
significado. Entre estos están:
MAU (Unidad de acceso multiestación).
MSAU (Unidad de acceso multiestación).
SMAU (Unidad de acceso multiestación inteligente).
Los cables conectan los clientes y los servidores a la MSAU, que funciona como otros hubs
pasivos. El anillo interno se convierte automáticamente en un anillo externo por cada
conexión que se realice.
Capacidad del hub
Una MSAU IBM tiene 10 puertos de conexión. Puede conectar hasta 8 equipos. En cambio,
una red Token Ring no está limitada a un anillo (hub). Cada anillo puede tener hasta 33
hubs.
Cada red basada en MSAU puede soportar hasta 72 equipos que utilicen cable sin
apantallar o hasta 260 equipos que utilicen cable apantallado.
Otros fabricantes ofrecen hubs con más capacidad; la capacidad depende del fabricante y
del modelo de hub.
Cuando se llena un Token Ring, es decir, cuando cada puerto de la MSAU tiene una equipo
conectada, podemos añadir otro anillo (MSAU) para ampliar la red.
La única regla que hay que seguir es que cada MSAU tiene que estar conectada de forma
que se convierta en parte del anillo. Los puntos de conexión de entrada y de salida utilizan
cables adaptadores para conectar varias MSAU de forma que sigan formando un anillo.
Tolerancia a fallos incorporada
En una red con paso de testigo pura, un equipo que falle detiene la continuación del
testigo. De hecho, esto detiene la red. Las MSAU se diseñaron para detectar la ocurrencia de
fallos de una NIC. Este procedimiento salta el equipo que falla de forma que el testigo pueda
continuar.
En las MSAU de IBM, las conexiones o los equipos que no funcionen correctamente se
saltan automáticamente y se desconectan del anillo. Así pues, un fallo en un equipo o en
una conexión no afectará al resto de la red Token Ring.
Cableado
El cable STP o UTP conecta los equipos con los hubs en una red Token Ring. El cableado
para Token Ring es IBM del Tipo 1, 2 y 3. La mayoría de las redes utilizan cableado UTP de
Tipo 3 del sistema de cableado IBM.
El cable conexión entre el equipo y la MSAU no puede tener más de 101 metros (330 pies)
si es del Tipo 1. Cuando se utiliza cable STP, el equipo puede llegar a estar a una distancia
máxima de 100 metros (unos 328 pies) de la MSAU. En cambio esta distancia es de 45
metros (unos 148 pies) cuando se utilice cable UTP. La longitud mínima para cable con o sin
apantallar es de 2,5 metros (unos 8 pies).
De acuerdo con IBM, la longitud máxima del cable de Tipo 3 desde una MSAU hasta un
equipo o un servidor de archivos es de 46 metros (150 pies). Sin embargo, algunos
fabricantes afirman que la transmisión de datos entre MSAU y equipo es fiable hasta 152
metros (500 pies).
La longitud máxima entre una MSAU y otra está limitada a 152 metros (500 pies). Cada
red Token Ring sólo puede acomodar a 260 equipos con cable STP y 72 equipos con UTP.
Cables de conexión (patch cables)
Los cables de conexión (patch cables) realizan la conexión entre un equipo y una MSAU.
También pueden unir dos MSAU. En el sistema de cableado de IBM, estos cables son del Tipo
6, y sólo pueden llegar a medir 46 metros (150 pies). Un cable de conexión sólo permite 46
metros entre un equipo y una MSAU.
El sistema de cableado de IBM también recomienda el cable de conexión de Tipo 6 para:
Incrementar la longitud de cables de Tipo 3.
Conectar directamente los equipos a las MSAU.
Conectores
Las redes Token Ring suelen utilizar estos tipos de conectores para conectar los cables a
los componentes:
Conectores de medios (MIC) para conectar cables de Tipo 1 y de Tipo 2. Éstos
son los conectores de Tipo A de IBM, conocidos universalmente como conectores de
datos universales. No son ni macho ni hembra; para conectar uno a otro basta con
girarlo.
Conectores de teléfono RJ-45 (8 pines) para cable de Tipo 3.
Conectores de teléfono RJ-11 (4 pines) para cable de Tipo 3.
Filtros para realizar la conexión entre una NIC Token Ring y un conector de
teléfono estándar RJ-11/RJ-45.
Filtros
Los filtros son necesarios en equipos que utilizan cable telefónico de par trenzado de Tipo
3, ya que tienen que convertir los conectores del cable y reducen el ruido de la línea.
Paneles de conexiones (patch panel)
Una panel de conexión (patch panel) se utiliza para organizar los cables que hay entre una
MSAU y un módulo de conexiones telefónicas. (Un módulo de conexiones es un tipo de
hardware que proporciona conexiones terminales para conectar los extremos del cable de
red.)
Repetidores
La utilización de repetidores puede aumentar las distancias de los cables Token Ring. Un
repetidor vuelve a generar y a temporizar la señal Token Ring para aumentar las distancias
entre MSAU en la red. Si utiliza un par de repetidores, puede llegar a separar las MSAU
hasta 365 metros (1.200 pies) si utiliza cable de Tipo 3, o 730 metros (2.400 pies) si utiliza
cable de Tipo 1 o de Tipo 2.
Tarjetas de red
Las tarjetas de red para Token Ring están disponibles en los modelos 4 Mbps y 16 Mbps.
Las tarjetas de 16 Mbps permiten una trama de mayor longitud que realiza menos
transmisiones para la misma cantidad de datos.
La implementación de tarjetas para Token Ring necesita una atención especial, ya que una
red Token Ring sólo puede funcionar a dos velocidades: 4 Mbps o 16 Mpbs. Si la red es una
red a 4 Mbps, puede utilizar las tarjetas de 16 Mbps ya que pueden trabajar en el modo de 4
Mbps. Sin embargo, una red a 16 Mbps no aceptará las tarjetas de 4 Mbps, ya que no
pueden aumentar su velocidad.
Aunque hay varios fabricantes que fabrican NIC y componentes para Token Ring, la
mayoría son vendidas por IBM.
Cable de fibra óptica
Debido a la mezcla de las series de datos (las series son un flujo de datos byte a byte), a
las altas velocidades y a la transmisión de datos en una única dirección, las redes Token
Ring son muy apropiadas para utilizar cable de fibra óptica. Aunque es más caro, el cable de
fibra óptica puede aumentar enormemente el rango de una red Token Ring (hasta 10 veces
de lo que permite el cable de cobre).
El futuro de las redes Token Ring
Aunque Ethernet es más popular, la tecnología Token Ring sigue activa y continúa
creciendo. Muchas grandes compañías están eligiendo Token Ring para aplicaciones de
misión crítica. Estas redes son redes conectadas con bridges que permiten protocolos como
la Arquitectura de sistemas en red (SNA), NetBIOS, Protocolo de control de
transmisión/Protocolo Internet (TCP/IP) e IPX. Las aplicaciones basadas en redes locales
como correo electrónico, distribución de software e imágenes influyen en su crecimiento.
Una vez conocidas las necesidades de ampliación de una compañía basta con añadir nuevos
anillos unidos con bridges. Normalmente cada anillo permite entre 50 y 80 usuarios. Los
usuarios actuales de Token Ring se enfrentan a estos desafíos:
Requerimientos de complejidad, manejabilidad, costes y espacio para varios
bridges de dos puertos.
Congestión de los bridges.
Congestión de los segmentos.
Actualización a las tecnologías de alta velocidad.
Un concepto reciente y relativamente nuevo para las redes Token Ring es el de la
utilización de switches para proporcionar alternativas de alto rendimiento y de bajo coste
utilizando bridges y routers. La idea de los switches es mover un dispositivo de una Token
Ring a otra de forma electrónica. Estos conmutadores funcionan como los de un panel de
conexiones. Los vendedores de hubs ofrecen una variedad de estos nuevos conmutadores
para Token Ring.
Especificaciones para Token Ring
Topología: Anillo.
Tipo de cable: Cable de par trenzado apantallado o sin apantallar.
Resistencia del terminador, Ώ (ohmios): No se aplica.
Impedancia (Ώ): 100-120 UTP, 150 STP.
Longitud máxima del segmento de cable: Entre 45 y 400 metros,
dependiendo del cable.
Distancia mínima entre equipos: 2,5 metros.
Número máximo de segmentos conectados: 33 unidades de acceso
multiestación (MSAU).
Número máximo de equipos por segmento:
Sin apantallar: 72 equipos por hub;
Apantallado: 260 equipos por hub.
2.9.3 FDDI.
2.10 Dispositivo de conectividad.
2.10.1
Repetidores.
Hay varios tipos de medios y cada uno de estos medios tiene sus ventajas y desventajas. Una de las
desventajas del tipo de cable que utilizamos principalmente (UTP CAT 5) es la longitud del cable. La
longitud máxima para el cableado UTP de una red es de 100 metros (aproximadamente 333 pies). Si es
necesario extender la red más allá de este límite, se debe agregar un dispositivo a la red. Este dispositivo
se denomina repetidor.
El término repetidor se ha utilizado desde la primera época de la comunicación visual, cuando una
persona situada en una colina repetía la señal que acababa de recibir de la persona ubicada en la colina
de la izquierda, para poder comunicar la señal a la persona que estaba ubicada en la colina de la
derecha. También proviene de las comunicaciones telegráficas, telefónicas, por microondas y ópticas,
cada una de las cuales usan repetidores para reforzar las señales a través de grandes distancias, ya que
de otro modo en su debido tiempo las señales se desvanecerían gradualmente o se extinguirían.
El propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits para
permitir que los bits viajen a mayor distancia a través de los medios. Tenga en cuenta la Norma de cuatro
repetidores para Ethernet de 10Mbps, también denominada Norma 5-4-3, al extender los segmentos
LAN. Esta norma establece que se pueden conectar cinco segmentos de red de extremo a extremo
utilizando cuatro repetidores pero sólo tres segmentos pueden tener hosts (computadores) en ellos.
El término repetidor se refiere tradicionalmente a un dispositivo con un solo puerto de "entrada" y un solo
puerto de "salida". Sin embargo, en la terminología que se utiliza en la actualidad, el término repetidor
multipuerto se utiliza también con frecuencia. En el modelo OSI, los repetidores se clasifican como
dispositivos de Capa 1, dado que actúan sólo a nivel de los bits y no tienen en cuenta ningún otro tipo de
información. El símbolo para los repetidores no está estandarizado, por lo tanto, se utilizará el símbolo
que aparece en la figura:
Los repetidores regeneran y retemporizan las señales, lo que permite entonces que los cables se
extiendan a mayor distancia. Solamente se encargan de los paquetes a nivel de los bits, por lo tanto, son
dispositivos de Capa 1.
Los repetidores son dispositivos de internetworking que existen en la capa física (la Capa 1) del modelo
OSI. Pueden aumentar la cantidad de nodos que se pueden conectar a una red y, como consecuencia, la
distancia a la cual se puede extender una red. Los repetidores modifican la forma, regeneran y
retemporizan las señales antes de enviarlas por la red.
La desventaja del uso de repetidores es que no pueden filtrar el tráfico de red. Los datos (bits) que llegan
a uno de los puertos del repetidor se envían a todos los demás puertos. Los datos se transfieren a todos
los demás segmentos de la LAN sin considerar si deben dirigirse hacia allí o no.
Repetidores
Cuando las señales viajan a través de un cable, se degradan y se distorsionan en un
proceso denominado «atenuación». Si un cable es bastante largo, la atenuación provocará
finalmente que una señal sea prácticamente irreconocible. La instalación de un repetidor
permite a las señales viajar sobre distancias más largas.
Un repetidor funciona en el nivel físico del modelo de referencia OSI para regenerar las
señales de la red y reenviarla a otros segmentos.
El repetidor toma una señal débil de un segmento, la regenera y la pasa al siguiente
segmento. Para pasar los datos de un segmento a otro a través del repetidor, deben ser
idénticos en cada segmento los paquetes y los protocolos Control lógico de enlace (LLC;
Logical Link Control). Un repetidor no activará la comunicación, por ejemplo, entre una LAN
(Ethernet) 802.3 y una LAN (Token Ring) 802.5.
Los repetidores no traducen o filtran señales. Un repetidor funciona cuando los segmentos
que unen el repetidor utilizan el mismo método de acceso. Un repetidor no puede conectar
un segmento que utiliza CSMA/CD con un segmento que utiliza el método de acceso por
paso de testigo. Es decir, un repetidor no puede traducir un paquete Ethernet en un paquete
Token Ring.
Los repetidores pueden desplazar paquetes de un tipo de medio físico a otro. Pueden
coger un paquete Ethernet que llega de un segmento con cable coaxial fino y pasarlo a un
segmento de fibra óptica. Por tanto, el repetidor es capaz de aceptar las conexiones físicas.
Los repetidores constituyen la forma más barata de extender una red. Cuando se hace
necesario extender la red más allá de su distancia o limitaciones relativas a los nodos, la
posibilidad de utilizar un repetidor para enlazar segmentos es la mejor configuración,
siempre y cuando los segmentos no generen mucho tráfico ni limiten los costes.
Ni aislamiento ni filtrado. Los repetidores envían cada bit de datos de un segmento de
cable a otro, incluso cuando los datos forman paquetes mal configurados o paquetes no
destinados a utilizarse en la red. Esto significa que la presencia de un problema en un
segmento puede romper el resto de los segmentos. Los repetidores no actúan como filtros
para restringir el flujo del tráfico problemático.
Además, los repetidores pasarán una «tormenta» de difusión de un segmento al siguiente,
y así a través de toda la red. Una «tormenta» de difusión se produce cuando el número de
mensajes de difusión que aparece en la red es superior al límite del ancho de banda de la
red. El rendimiento de la red va a disminuir cuando un dispositivo está respondiendo a un
paquete que está continuamente circulando por la red o a un paquete que está
continuamente intentando contactar con un sistema que nunca responde.
Implementación de un repetidor. Los pasos a considerar cuando se decide implementar
repetidores en la red son:
Conectar dos segmentos de medio similar o no similar.
Regenerar la señal para incrementar la distancia transmitida.
Pasar todo el tráfico en ambas direcciones.
Conectar dos segmentos de la forma más efectiva en cuanto al coste.
Los repetidores mejoran el rendimiento dividiendo la red en segmentos y, por tanto,
reduciendo el número de equipos por segmento. Cuando se utilizan repetidores para
extender la red, no olvide la regla 5-4-3.
No utilice un repetidor cuando:
Existe un tráfico de red altísimo.
Los segmentos están utilizando diferentes métodos de acceso.
Es necesario el filtrado de datos.
2.10.2
Concentradores (Hub, Mau).
El propósito de un hub es regenerar y retemporizar las señales de red. Esto se realiza a nivel de los bits
para un gran número de hosts (por ej., 4, 8 o incluso 24) utilizando un proceso denominado
concentración. Podrá observar que esta definición es muy similar a la del repetidor, es por ello que el hub
también se denomina repetidor multipuerto. La diferencia es la cantidad de cables que se conectan al
dispositivo. Los hubs se utilizan por dos razones: para crear un punto de conexión central para los medios
de cableado y para aumentar la confiabilidad de la red. La confiabilidad de la red se ve aumentada al
permitir que cualquier cable falle sin provocar una interrupción en toda la red. Esta es la diferencia con la
topología de bus, en la que, si un cable falla, se interrumpe el funcionamiento de toda la red. Los hubs se
consideran dispositivos de Capa 1 dado que sólo regeneran la señal y la envían por medio de un
broadcast a todos los puertos (conexiones de red).
En networking, hay distintas clasificaciones de los hubs. La primera clasificación corresponde a los hubs
activos o pasivos. La mayoría de los hubs modernos son activos; toman energía desde un suministro de
alimentación para regenerar las señales de red. Algunos hubs se denominan dispositivos pasivos dado
que simplemente dividen la señal entre múltiples usuarios, lo que es similar a utilizar un cable "Y" en un
reproductor de CD para usar más de un conjunto de auriculares. Los hubs pasivos no regeneran los bits,
de modo que no extienden la longitud del cable, sino que simplemente permiten que uno o más hosts se
conecten al mismo segmento de cable.
Otra clasificación de los hubs corresponde a hubs inteligentes y hubs no inteligentes. Los hubs
inteligentes tienen puertos de consola, lo que significa que se pueden programar para administrar el
tráfico de red. Los hubs no inteligentes simplemente toman una señal de networking entrante y la repiten
hacia cada uno de los puertos sin la capacidad de realizar ninguna administración.
La función del hub en una red token ring se ejecuta a través de la Unidad de conexión al medio (MAU).
Físicamente, es similar a un hub, pero la tecnología token ring es muy distinta, como se explicará más
adelante. En las FDDI, la MAU se denomina concentrador. Las MAU también son dispositivos de Capa 1.
El símbolo correspondiente al hub no está estandarizado. Se utilizará el símbolo que se indica aquí.
MAU ( Multistation Access Unit) : concentrador que permite insertar en el anillo o eliminar derivándolas,
hasta 8 estaciones. El MAU detecta señales procedentes de las estaciones de trabajo, en caso de
detectarse un dispositivo defectuoso o un cable deteriorado y elimina, derivándola, la estación en
cuestión para evitar perdidas de datos y
del TOKEN.
Es el componente hardware
central de una topología en
estrella. Además, los hubs se
pueden utilizar para extender el
tamaño de una LAN. Aunque la
utilización de un hub no implica
convertir una LAN en una WAN, la
conexión o incorporación de hubs
a una LAN puede incrementar, de
forma positiva, el número de
estaciones. Este método de expansión de una LAN es bastante popular, pero supone muchas
limitaciones de diseño.
Es importante tener cuidado cuando se conectan los hubs. Los cables de paso se conectan
de forma diferente que los cables estándares de enlace. Compruebe con los fabricantes si se
necesita un cable de enlace estándar o un cable de paso.
2.10.3
Tranceptores.
Un transceiver es una combinación de transmisor y receptor. En las aplicaciones de networking, esto
significa que convierten una forma de señal en otra. Por ejemplo, varios dispositivos de networking traen
una interfaz de unidad auxiliar y un transceiver para permitir que 10Base2, 10Base5, 10BaseT o
10\100Base-FX se conecten con el puerto. Una aplicación común es la conversión de puertos AUI en
puertos RJ-45. Estos son dispositivos de Capa 1. Transmiten de una configuración de pin y/o medio a
otra. Los transceivers a menudo se incorporan a las NIC, que se consideran normalmente como
dispositivos de Capa 2. Los transceivers de las NIC se denominan componentes de señalización, lo que
significa que codifican señales en un medio físico.
2.10.4 Puentes (Bridges).
Un puente es un dispositivo de capa 2 diseñado para conectar dos segmentos LAN. El propósito de un
puente es filtrar el tráfico de una LAN, para que el tráfico local siga siendo local, pero permitiendo la
conectividad a otras partes (segmentos) de la LAN para enviar el tráfico dirigido a esas otras partes.
Usted se preguntará, ¿cómo puede detectar el puente cuál es el tráfico local y cuál no lo es? La
respuesta es la misma que podría dar el servicio postal cuando se le pregunta cómo sabe cuál es el
correo local. Verifica la dirección local. Cada dispositivo de networking tiene una dirección MAC exclusiva
en la NIC, el puente rastrea cuáles son las direcciones MAC que están ubicadas a cada lado del puente y
toma sus decisiones basándose en esta lista de direcciones MAC.
El aspecto de los puentes varía enormemente según el tipo de puente. Aunque los routers y los switches
han adoptado muchas de las funciones del puente, estos siguen teniendo importancia en muchas redes.
Para comprender la conmutación y el enrutamiento, primero debe comprender cómo funciona un puente.
En el gráfico se indica el símbolo correspondiente al puente, que es similar a un puente colgante.
Tradicionalmente, el término puente se refiere a un dispositivo con dos puertos. Sin embargo, también
verá referencias a puentes con 3 o más puertos. Lo que realmente define un puente es el filtrado de
tramas de capa 2 y la manera en que este proceso se lleva a cabo realmente. Como sucede en el caso
de la combinación repetidor/hub, hay otro dispositivo que se utiliza para conectar múltiples puentes.
Un puente conecta los segmentos de red y debe tomar decisiones inteligentes con respecto a si debe transferir señales al
siguiente segmento. Un puente puede mejorar el rendimiento de una red al eliminar el tráfico innecesario y reducir al mínimo las
probabilidades de que se produzcan colisiones. El puente divide el tráfico en segmentos y filtra el tráfico basándose en la
estación o en la dirección MAC. .
Los puentes no son dispositivos complejos. Analizan las tramas entrantes, toman decisiones de envío basándose en la
información que contienen las tramas y envían las tramas a su destino. Los puentes sólo se ocupan de pasar los paquetes, o de
no pasarlos, basándose en las direcciones MAC destino. Los puentes a menudo pasan paquetes entre redes que operan bajo
distintos protocolos de Capa 2.
Operaciones de puente de Capa 2
El puenteo se produce en la capa de enlace de datos, que controla el flujo de datos, maneja los errores de transmisión,
proporciona direccionamiento físico y administra el acceso hacia el medio físico. Los puentes ofrecen estas funciones mediante
diversos protocolos de capa de enlace que imponen control de flujo, manejo de errores, direccionamiento y algoritmos de acceso
al medio específicos. Entre los ejemplos de protocolos de capa de enlace de datos de uso generalizado se incluyen Ethernet,
Token Ring y FDDI.
La transparencia del protocolo de capa superior es una de las ventajas principales del puenteo. No es necesario que los puentes
examinen la información de capa superior, ya que operan en la capa de enlace de datos, o sea, en la Capa 2 del modelo OSI.
Los puentes filtran el tráfico de red observando sólo la dirección MAC, no los protocolos. Es habitual que un puente transporte
protocolos y otro tipo de tráfico entre dos o más redes. Como los puentes sólo verifican las direcciones MAC, pueden enviar
rápidamente tráfico que represente cualquier protocolo de capa de red. Para filtrar o enviar de forma selectiva el tráfico de red,
un puente genera tablas de todas las direcciones MAC ubicadas en sus segmentos de red directamente conectados.
Si los datos se transportan a través del medio de red, el puente compara la dirección MAC destino que contienen los datos con
las direcciones MAC de las tablas. Si el puente determina que la dirección MAC destino de los datos pertenece al mismo
segmento de red que el origen, no envía los datos hacia los otros segmentos de la red. Si el puente determina que la dirección
MAC destino de los datos no está en el mismo segmento de red que la fuente, envía los datos al segmento correspondiente. Al
hacer esto, los puentes pueden reducir significativamente la cantidad de tráfico entre segmentos eliminando el tráfico
innecesario.
Los puentes son dispositivos de internetworking que se pueden usar para reducir los dominios de colisión de gran tamaño. Los
dominios de colisión son áreas en las que existe la probabilidad de que los paquetes interfieran entre sí. Logran esto dividiendo
la red en segmentos más pequeños y reduciendo la cantidad de tráfico que debe pasar entre los segmentos. Los puentes operan
en la Capa 2 o capa de enlace de datos del modelo OSI, ya que sólo se encargan de las direcciones MAC. A medida que los
datos se transportan a través de la red hacia su destino, cada dispositivo de la red, incluyendo los puentes, los recogen y los
examinan. . Los puentes trabajan mejor cuando no hay demasiado tráfico entre un segmento de la red y los demás segmentos.
Cuando el tráfico entre los segmentos de red aumenta, se puede producir un cuello de botella en el puente y la comunicación
puede tornarse más lenta.
Existe otro problema posible cuando se usa un puente. Los puentes siempre difunden y multiplican una clase especial de
paquetes de datos. Estos paquetes de datos aparecen cuando un dispositivo de la red desea comunicarse con otro dispositivo,
pero no conoce la dirección destino del dispositivo. Cuando esto ocurre, con frecuencia el origen envía un broadcast a todos los
dispositivos de la red. Como todos los dispositivos de la red tienen que prestar atención a estos broadcasts, los puentes siempre
los envían. Si se envían demasiados broadcasts a través de la red, se puede provocar una tormenta de broadcast. Una tormenta
de broadcast puede retrasar la información más allá de los límites de tiempo, causar demoras en el tráfico y hacer que la red no
pueda operar a un nivel óptimo.
Bridges
Al igual que un repetidor, un bridge puede unir segmentos o grupos de trabajo LAN. Sin
embargo, un bridge puede, además, dividir una red para aislar el tráfico o los problemas.
Por ejemplo, si el volumen del tráfico de uno o dos equipos o de un departamento está
sobrecargando la red con los datos y ralentizan todas las operaciones, el bridge podría aislar
a estos equipos o al departamento.
Los bridges se pueden utilizar para:
Extender la longitud de un segmento.
Proporcionar un incremento en el número de equipos de la red.
Reducir los cuellos de botella del tráfico resultantes de un número excesivo de
equipos conectados.
Dividir una red sobrecargada en dos redes separadas, reduciendo la cantidad
de tráfico en cada segmento y haciendo que la red sea más eficiente.
Enlazar medios físicos diferentes como par trenzado y Ethernet coaxial.
Los bridges trabajan a nivel de enlace de datos del modelo de referencia OSI y, por tanto,
toda la información de los niveles superiores no está disponible para ellos. Más que
distinguir entre un protocolo y otro, los bridges pasan todos los protocolos que aparecen en
la red. Todos los protocolos se pasan a través de los bridges, de forma que aparecen en los
equipos personales para determinar los protocolos que pueden reconocer.
Los bridges trabajan en el nivel MAC y, por ello, algunas veces se conocen como bridges
de nivel MAC.
Un bridge de nivel MAC:
Escucha todo el tráfico.
Comprueba la direcciones
origen y destino de cada
paquete.
Construye una tabla de
encaminamiento, donde la
información está disponible.
Reenvían paquetes de la
siguiente forma:
Si el destino no
aparece en la tabla de
encaminamiento, el
bridge reenvía el paquete
a todos los segmentos.
Si el destino aparece en la tabla de encaminamiento, el bridge reenvía
el paquete al segmento correspondiente (a menos que este segmento sea
también el origen).
Un bridge funciona considerando que cada nodo de la red tiene su propia dirección. Un
bridge reenvía paquetes en función de la dirección del nodo destino.
Realmente, los bridges tienen algún grado de inteligencia puesto que aprenden a dónde
enviar los datos. Cuando el tráfico pasa a través del bridge, la información sobre las
direcciones de los equipos se almacenan en la RAM del bridge. El bridge utiliza esta RAM
para generar una tabla de encaminamiento en función de las direcciones de origen.
Inicialmente, la tabla de encaminamiento del bridge está vacía. Cuando los nodos
transmiten los paquetes, la dirección de origen se copia en la tabla de encaminamiento. Con
esta información de la dirección, el bridge identifica qué equipos están en cada segmento de
la red.
Creación de la tabla de encaminamiento. Los bridges generan sus tablas de
encaminamiento en función de las direcciones de los equipos que han transmitido datos en
la red. Los bridges utilizan, de forma
específica, las direcciones de origen
(dirección del dispositivo que inicia la
transmisión) para crear una tabla de
encaminamiento.
Cuando el bridge recibe un paquete,
la dirección de origen se compara con la tabla de encaminamiento. Si no aparece la dirección
de origen, se añade a la tabla. A continuación, el bridge compara la dirección de destino con
la base de datos de la tabla de encaminamiento.
Si la dirección de destino está en la tabla de encaminamiento y aparece en el
mismo segmento de la dirección de origen, se descarta el paquete. Este filtrado
ayuda a reducir el tráfico de la red y aislar segmentos de la red.
Si la dirección de destino está en la tabla de encaminamiento y no aparece en
el mismo segmento de la dirección de origen, el bridge envía el paquete al puerto
apropiado que permite alcanzar la dirección de destino.
Si la dirección de destino no está en la tabla de encaminamiento, el bridge
envía el paquete a todos sus puertos, excepto al puerto desde donde se originó el
envío.
Resumiendo, si un bridge conoce la localización del nodo de destino, envía el paquete a
dicha localización. Si no conoce el destino, envía el paquete a todos los segmentos.
Segmentación del tráfico de red. Un bridge puede segmentar el tráfico mediante su
tabla de encaminamiento. Un equipo en el segmento 1 (origen), envía datos a otro equipo
(destino) también localizado en el segmento 1. Si la dirección de destino está en la tabla de
encaminamiento, el bridge puede determinar que el equipo destino está también en el
segmento 1. Dado que los equipos origen y destino están en el mismo segmento 1, se tiene
que el paquete no se reenvía a través del bridge al segmento 2.
Por tanto, los bridges pueden utilizar las tablas de encaminamiento para reducir el tráfico
de la red controlando los paquetes que se envían al resto de los segmentos. Este control (o
restricción) del flujo del tráfico de red se conoce como «segmentación del tráfico de red».
Una red grande no está limitada a un solo bridge. Se pueden utilizar múltiples bridge para
combinar diferentes redes pequeñas en una red más grande.
Los bridges tienen todas las características de los repetidores, pero también proporcionan
más ventajas. Ofrecen mejor rendimiento de red que los repetidores. Las redes unidas por
bridges se han dividido y, por tanto, un número menor de equipos compiten en cada
segmento por los recursos disponibles.
Visto de otra forma, si una gran red Ethernet se dividió en dos segmentos conectados por
un bridge, cada red nueva transportaría un número menor de paquetes, tendríamos menos
colisiones y operaría de forma mucho más eficiente. Aunque cada red estaría separada, el
bridge pasaría el tráfico apropiado entre ellas.
Un bridge puede constituir una pieza de equipamiento autónoma, independiente (un
bridge externo) o se puede instalar en un servidor. Si el sistema operativo de red (NOS) lo
admite, puede instalar una o más tarjetas de red (NIC) generando un bridge interno.
Su popularidad en grandes redes de debe a que:
Son sencillos de instalar y transparentes a los usuarios.
Son flexibles y adaptables.
Son relativamente baratos.
Diferencias entre bridge y repetidor
Los bridges trabajan a un nivel superior del modelo OSI que los repetidores. Esto significa
que los bridges tienen más inteligencia que los repetidores y pueden tener más
características relativas a los datos en las cuentas.
Mientras que los bridges parecen repetidores en el sentido que pueden regenerar los
datos, este proceso se lleva a cabo a nivel de paquete. Esto significa que los bridges pueden
enviar paquetes sobre distancias más largas utilizando una variedad de medios de larga
distancia.
2.10.5
Conmutadores (Switch).
Un switch, al igual que un puente, es un dispositivo de capa 2. De hecho, el switch se denomina puente
multipuerto, así como el hub se denomina repetidor multipuerto. La diferencia entre el hub y el switch es
que los switches toman decisiones basándose en las direcciones MAC y los hubs no toman ninguna
decisión. Como los switches son capaces de tomar decisiones, hacen que la LAN sea mucho más
eficiente. Los switches hacen esto conmutando los datos sólo hacia el puerto al que está conectado el
host destino apropiado. Por el contrario, el hub envía datos desde todos los puertos, de modo que todos
los hosts deban ver y procesar (aceptar o rechazar) todos los datos.
A primera vista los switches parecen a menudo similares a los hubs. Tanto los hubs como los switches
tienen varios puertos de conexión, dado que una de sus funciones es la concentración de conectividad
(permitir que varios dispositivos se conecten a un punto de la red). La diferencia entre un hub y un switch
está dada por lo que sucede dentro del dispositivo.
El propósito del switch es concentrar la conectividad, haciendo que la transmisión de datos sea más
eficiente. Por el momento, piense en el switch como un elemento que puede combinar la conectividad de
un hub con la regulación de tráfico de un puente en cada puerto. El switch conmuta paquetes desde los
puertos (interfaces) entrantes a los puertos salientes, suministrando a cada puerto el ancho de banda
total (la velocidad de transmisión de datos en el backbone de la red). Posteriormente se brindarán más
detalles acerca del tema.
En el gráfico se indica el símbolo que corresponde al switch.
Las flechas de la parte superior representan las rutas individuales que pueden tomar los datos en un
switch, a diferencia del hub, donde los datos fluyen por todas las rutas.
La conmutación es una tecnología que alivia la congestión en las LAN Ethernet, reduciendo el tráfico y aumentando el ancho de
banda. Los switches, también denominados switches LAN, a menudo reemplazan a los hubs compartidos y funcionan con
infraestructuras de cable existentes, de manera que su instalación puede realizarse con un mínimo de problemas en las redes
existentes.
En la actualidad, en las comunicaciones de datos, todos los equipos de conmutación y de enrutamiento ejecutan dos
operaciones básicas:
1.
conmutación de tramas de datos: E procedimiento mediante el cual una trama se recibe en un medio de entrada y
luego se transmite a un medio de salida.
2.
mantenimiento de operaciones de conmutación: Los switches crean y mantienen tablas de conmutación y buscan
loops. Los routers crean y mantienen tanto tablas de enrutamiento como tablas de servicios.
Como en el caso de los puentes, los switches conectan segmentos de la LAN, usan una tabla de direcciones MAC para
determinar el segmento en el que es necesario transmitir un datagrama y reducen el tráfico. Los switches operan a velocidades
mucho más altas que los puentes y pueden soportar nuevas funcionalidades como, por ejemplo, las LAN virtuales.
Un switch Ethernet brinda muchas ventajas como, por ejemplo, permitir que varios usuarios se comuniquen en paralelo a través
del uso de circuitos virtuales y segmentos de red dedicados en un entorno libre de colisiones. Esto aumenta al máximo el ancho
de banda disponible en el medio compartido. Otra de las ventajas es que desplazarse a un entorno de LAN conmutado es muy
económico ya que el hardware y el cableado se pueden volver a utilizar. Por último, los administradores de red tienen mayor
flexibilidad para administrar la red a través de la potencia del switch y del software para configurar la LAN.
Operaciones de la Capa 2 de los switches
Los switches de LAN se consideran puentes multipuerto sin dominio de colisión debido a la microsegmentación. Los datos se
intercambian a altas velocidades haciendo la conmutación de paquetes hacia su destino. Al leer la información de Capa 2 de
dirección MAC destino, los switches pueden realizar transferencias de datos a altas velocidades de forma similar a los puentes.
El paquete se envía al puerto de la estación receptora antes de que la totalidad de la trama ingrese al switch. Esto provoca
niveles de latencia bajos y una alta tasa de velocidad para el envío de paquetes.
La conmutación Ethernet aumenta el ancho de banda disponible en una red. Esto se hace creando segmentos de red dedicados,
o conexiones punto a punto, y conectando estos segmentos en una red virtual dentro del switch. Este circuito de red virtual
existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es
necesario y se establece dentro del switch.
Aunque el switch LAN reduce el tamaño de los dominios de colisión, todos los hosts conectados al switch pertenecen al mismo
dominio de broadcast. Por lo tanto, un broadcast emitido de un nodo lo percibirán todos los demás nodos conectados a través
del switch LAN.
Los switches son dispositivos de enlace de datos que, al igual que los puentes, permiten que múltiples segmentos físicos de LAN
se interconecten para formar una sola red de mayor tamaño. De forma similar a los puentes, los switches envían e inundan el
tráfico basándose en las direcciones MAC. Dado que la conmutación se ejecuta en el hardware en lugar del software, es
significativamente más veloz. Se puede pensar en cada puerto de switch como un micropuente; este proceso se denomina
microsegmentación. De este modo, cada puerto de switch funciona como un puente individual y otorga el ancho de banda total
del medio a cada host.
2.10.6
Gateways.
En la comunidad IP, término antiguo que se refiere a un dispositivo de enrutamiento. Actualmente, el
término router se utiliza para describir nodos que desempeñan esta función y gateway se refiere a un
dispositivo especial que realiza una conversión de capa de aplicación de la información de una pila de
protocolo a otro.
Gateways
Los gateways activan la comunicación entre diferentes arquitecturas y entornos. Se
encargan de empaquetar y convertir los datos de un entorno a otro, de forma que cada
entorno pueda entender los datos del otro entorno. Un gateway empaqueta información para
que coincida con los requerimientos del sistema destino. Los gateways pueden modificar el
formato de un mensaje para que se ajuste al programa de aplicación en el destino de la
transferencia. Por ejemplo, los gateways de correo electrónico, como el X.400, reciben
mensajes en un formato, los formatean y envían en formato X.400 utilizado por el receptor,
y viceversa.
Un gateway enlaza dos sistemas que no utilizan los mismos:
Protocolos de comunicaciones.
Estructuras de formateo de datos.
Lenguajes.
Arquitectura.
Los gateways interconectan redes heterogéneas; por ejemplo, pueden conectar un
servidor Windows NT de Microsoft a una Arquitectura de red de los sistemas IBM (SNA). Los
gateways modifican el formato de los datos y los adaptan al programa de aplicación del
destino que recibe estos datos.
Los gateways son de tarea específica. Esto significa que están dedicados a un tipo de
transferencia. A menudo, se referencian por su nombre de tarea (gateway Windows NT
Server a SNA).
Un gateway utiliza los datos de un entorno, desmantela su pila de protocolo anterior y
empaqueta los datos en la pila del protocolo de la red destino.
Para procesar los datos, el gateway:
Desactiva los datos de llegada a través de la pila del protocolo de la red.
Encapsula los datos de salida en la pila del protocolo de otra red para permitir
su transmisión.
Algunos gateways utilizan los siete niveles del modelo OSI, pero, normalmente, realizan la
conversión de protocolo en el nivel de aplicación. No obstante, el nivel de funcionalidad varía
ampliamente entre los distintos tipos de gateways.
Una utilización habitual de los gateways es actuar como traductores entre equipos
personales y miniequipos o entornos de grandes sistemas. Un gateway en un host que
conecta los equipos de una LAN con los sistemas de miniequipo o grandes entornos
(mainframe) que no reconocen los equipos conectados a la LAN.
En un entorno LAN normalmente se diseña un equipo para realizar el papel de gateway.
Los programas de aplicaciones especiales en los equipos personales acceden a los grandes
sistemas comunicando con el entorno de dicho sistema a través del equipo gateway. Los
usuarios pueden acceder a los recursos de los grandes sistemas sólo cuando estos recursos
están en sus propios equipos personales.
Normalmente, los gateways se dedican en la red a servidores. Pueden utilizar un
porcentaje significativo del ancho de banda disponible para un servidor, puesto que realizan
tareas que implican una utilización importante de recursos, tales como las conversiones de
protocolos. Si un servidor gateway se utiliza para múltiples tareas, será necesario adecuar
las necesidades de ancho de banda y de RAM o se producirá una caída del rendimiento de
las funciones del servidor.
Los gateways se consideran como opciones para la implementación, puesto que no
implican una carga importante en los circuitos de comunicación de la red y realizan, de
forma eficiente, tareas muy específicas.
2.10.7
Routers.
El router es el primer dispositivo con que trabajaremos que pertenece a la capa de red del modelo OSI, o
sea la Capa 3. Al trabajar en la Capa 3 el router puede tomar decisiones basadas en grupos de
direcciones de red (Clases) en contraposición con las direcciones MAC de Capa 2 individuales. Los
routers también pueden conectar distintas tecnologías de Capa 2, como por ejemplo Ethernet, Token-ring
y FDDI. Sin embargo, dada su aptitud para enrutar paquetes basándose en la información de Capa 3, los
routers se han transformado en el backbone de Internet, ejecutando el protocolo IP.
El propósito de un router es examinar los paquetes entrantes (datos de capa 3), elegir cuál es la mejor
ruta para ellos a través de la red y luego conmutarlos hacia el puerto de salida adecuado. Los routers son
los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura. Permiten que
prácticamente cualquier tipo de computador se pueda comunicar con otro computador en cualquier parte
del mundo. Los routers también pueden ejecutar muchas otras tareas mientras ejecutan estas funciones
básicas. Estas tareas se describen en los capítulos siguientes.
El símbolo correspondiente al router (observe las flechas que apuntan hacia adentro y hacia fuera)
sugiere cuáles son sus dos propósitos principales: la selección de ruta y la conmutación de paquetes
hacia la mejor ruta. Un router puede tener distintos tipos de puertos de interfaz.
La figura muestra un puerto serial que es una conexión WAN. El gráfico también muestra la conexión del
puerto de consola que permite realizar una conexión directa al router para poder configurarlo.
La figura muestra otro tipo de interfaz de puerto. El tipo de interfaz de puerto que se describe es un
puerto Ethernet, que es una conexión LAN. Este router en particular tiene un conector 10BASE-T y un
conector AUI para la conexión Ethernet.
Routers
En un entorno que está formado por diferentes segmentos de red con distintos protocolos
y arquitecturas, el bridge podría resultar inadecuado para asegurar una comunicación rápida
entre todos los segmentos. Una red de esta complejidad necesita un dispositivo que no sólo
conozca la direcciones de cada segmento, sino también, que sea capaz de determinar el
camino más rápido para el envío de datos y filtrado del tráfico de difusión en el segmento
local. Este dispositivo se conoce como «router».
Los routers trabajan en el nivel de red del modelo de referencia OSI. Esto significa que
pueden conmutar y encaminar paquetes a través de múltiples redes. Realizan esto
intercambiando información específica de protocolos entre las diferentes redes. Los routers
leen en el paquete la información de direccionamiento de la redes complejas teniendo acceso
a información adicional, puesto que trabajan a un nivel superior del modelo OSI en
comparación con los bridges.
Los routers pueden proporcionar las siguientes funciones de un bridge:
Filtrado y aislamiento del tráfico.
Conexión de segmentos de red.
Los routers tienen acceso a más información en los paquetes de la que tienen los bridges y
utilizan esta información para mejorar la entrega de los paquetes. Los routers se utilizan en
redes complejas puesto que proporcionan una mejor gestión del tráfico. Los routers pueden
compartir con otro router el estado y la información de encaminamiento y utilizar esta
información para evitar conexiones lentas o incorrectas.
¿Cómo funcionan los routers?
Los routers mantienen sus propias tablas de encaminamiento, normalmente constituidas
por direcciones de red; también se pueden incluir las direcciones de los hosts si la
arquitectura de red lo requiere. Para determinar la dirección de destino de los datos de
llegada, las tablas de encaminamiento incluyen:
Todas las direcciones de red conocidas.
Instrucciones para la conexión con otras redes.
Los posibles caminos entre los routers.
El coste de enviar los datos a través de estos caminos.
Un router utiliza sus tablas de encaminamiento de datos para seleccionar la mejor ruta en
función de los caminos disponibles y del coste.
La tabla de encaminamiento que mantiene un bridge contienen las direcciones del subnivel
MAC para cada nodo, mientras que la tabla de encaminamiento que mantiene un router
contiene números de red. Aunque los fabricantes de ambos tipos de equipamiento han
seleccionado utilizar el término «tabla de encaminamiento», tienen diferente significado para
cada uno de los dispositivos.
Los routers requieren direcciones específicas. Entienden sólo los números de red que les
permiten comunicarse con otros routers y direcciones NIC locales. Los routers no conversan
con equipos remotos.
Cuando los routers reciben paquetes destinados a una red remota, los envían al router que
gestiona la red de destino. En algunas ocasiones esto constituye una ventaja porque
significa que los routers pueden:
Segmentar grandes redes en otras más pequeñas.
Actuar como barrera de seguridad entre los diferentes segmentos.
Prohibir las «tormentas» de difusión, puestos que no se envían estos mensajes
de difusión.
Los routers son más lentos que los bridges, puesto que deben realizar funciones complejas
sobre cada paquete. Cuando se pasan los paquetes de router a router, se separan la
direcciones de origen y de destino del nivel de enlace de datos y, a continuación, se vuelven
a generar. Esto activa a un router para encaminar desde una red Ethernet TCP/IP a un
servidor en una red Token Ring
TCP/IP.
Dado que los routers sólo leen
paquetes direccionados de red,
no permiten pasar datos
corruptos a la red. Por tanto, al
no permitir pasar datos
corruptos ni tormentas de
difusión de datos, los routers
implican muy poca tensión en
las redes.
Los routers no ven la dirección
del nodo de destino, sólo tienen
control de las direcciones de
red. Los routers pasarán
información sólo si conocen la
dirección de la red. Esta capacidad de controlar el paso de datos a través del router reduce
la cantidad de tráfico entre las redes y permite a los routers utilizar estos enlaces de forma
más eficiente que los bridges.
La utilización de un esquema de direccionamiento basado en router permite a los
administradores poder dividir una gran red en muchas redes separadas, y dado que los
routers no pasan e incluso controlan cada paquete, actúan como una barrera de seguridad
entre los segmentos de la red. Esto permite reducir bastante la cantidad de tráfico en la red
y el tiempo de espera por parte de los usuarios.
Protocolos que permiten encaminar. No todos los protocolos permiten encaminar.
Los protocolos que encaminan son:
DECnet.
Protocolo de Internet (IP).
Intercambio de paquetes entre redes (IPX).
OSI.
Sistema de red de Xerox (XNS).
DDP (Apple Talk).
Los protocolos que no pueden encaminar son:
Protocolo de transporte de área local (LAT), un protocolo de Digital Equipment
Corporation.
NetBEUI (Interfaz de usuario extendida NetBIOS).
Los routers pueden utilizar en la misma red múltiples protocolos.
Selección de los caminos. A diferencia de los bridges, los routers pueden establecer
múltiples caminos activos entre los segmentos LAN y seleccionar entre los caminos
redundantes. Los routers pueden enlazar segmentos que utilizan paquetes de datos y acceso
al medio completamente diferentes, permitiendo utilizar a los routers distintos caminos
disponibles. Esto significa que si un router no funciona, los datos todavía se pueden pasar a
través de routers alternativos.
Un router puede escuchar una red e identificar las partes que están ocupadas. Esta
información la utiliza para determinar el camino sobre el que envía los datos. Si un camino
está ocupado, el router identifica un camino alternativo para poder enviar los datos.
Un router decide el camino que seguirá el paquete de datos determinando el número de
saltos que se generan entre los segmentos de red. Al igual que los bridges, los routers
generan tablas de encaminamiento y las utilizan en los siguientes algoritmos de
encaminamiento:
OSPF («Primer camino abierto más corto») es un algoritmo de
encaminamiento basado en el estado del enlace. Los algoritmos de estado de enlace
controlan el proceso de encaminamiento y permiten a los routers responder
rápidamente a modificaciones que se produzcan en la red.
RIP (Protocolo de información de encaminamiento) utiliza algoritmos con
vectores de distancia para determinar la ruta. El Protocolo de control de
transmisión/Protocolo de Internet (TCP/IP) e IPX admite RIP.
NLSP (Protocolo de servicios de enlace NetWare) es un algoritmo de estado
de enlace a utilizar con IPX.
Tipos de routers
Los tipos principales de routers son:
Estático. Los routers estáticos requieren un administrador para generar y
configurar manualmente la tabla de encaminamiento y para especificar cada ruta.
Dinámico. Los routers dinámicos se diseñan para localizar, de forma
automática, rutas y, por tanto, requieren un esfuerzo mínimo de instalación y
configuración. Son más sofisticados que los routers estáticos, examinan la
información de otros routers y toman decisiones a nivel de paquete sobre cómo
enviar los datos a través de la red.
Características de los dos tipos de routers
Routers estáticos
Instalación y configuración
manual de todos los routers
Utilizan siempre la misma ruta,
Routers dinámicos
Configuración manual del
primer router. Detectan
automáticamente redes y routers
adicionales.
Pueden seleccionar un ruta en
determinada a partir de una
entrada en la tabla de
encaminamiento
función de factores tales como
coste y cantidad del tráfico de
enlace.
Utilizan una ruta codificada
Pueden decidir enviar paquetes
(designada para manejar sólo una sobre rutas alternativas.
situación específica), no
necesariamente la ruta más corta.
Se consideran más seguros
puesto que los administradores
especifican cada ruta
Pueden mejorar la seguridad
configurando manualmente el
router para filtrar direcciones
específicas de red y evitar el
tráfico a través estas direcciones.
Diferencias entre bridges y routers
Los bridges y los routers se configuran para realizar las mismas cosas: enviar paquetes
entre redes y enviar datos a través de los enlaces WAN, lo que plantea una cuestión
importante: cuándo utilizar un bridge o y cuando utilizar un router.
El bridge, que trabaja en el subnivel MAC del nivel de enlace de datos del modelo OSI,
utiliza sólo la dirección del nodo. Para ser más específicos, un bridge trata de localizar una
dirección del subnivel MAC en cada paquete. Si el bridge reconoce la dirección, mantiene el
paquete o lo reenvía al segmento apropiado. Si el bridge no reconoce la dirección, envía el
paquete a todos los segmentos excepto al segmento del cual ha partido el paquete.
Primero, el bridge reconoce o no la dirección del subnivel MAC del paquete y, a
continuación, envía el paquete.
Difusión. El envío de paquetes es la clave para entender las diferencias que plantean los
bridges y los routers. Con los bridges, los datos de difusión enviados se dirigen a cada
equipo desde todos los puertos del bridge, excepto desde el puerto a través del cual ha
llegado el paquete. Es decir, cada equipo de todas las redes (excepto la red local a partir de
la cual se ha generado la difusión) recibe un paquete de difusión. En las redes pequeñas
esto puede que no tenga mucho impacto, pero en una red grande se puede generar el
suficiente tráfico de difusión que provoque una bajada de rendimiento de la red, incluso
filtrando las direcciones de la misma.
El router, que trabaja a nivel de red y tiene en cuenta más información que el bridge,
determinando no sólo qué enviar, sino también dónde enviarlo. El router reconoce no sólo
una dirección, al igual que el bridge, sino también un tipo de protocolo. De forma adicional,
el router puede identificar las direcciones de otros
routers y determinar los paquetes que se envían a
otros routers.
Múltiples caminos. Un bridge sólo puede
reconocer un único camino entre las redes. Un
router puede buscar diferentes caminos activos y
determinar en un momento determinado cuál
resulta más adecuado.
Si un router A realiza una transmisión que
necesita enviarse al router D, puede enviar el
mensaje al router C o al B, y el mensaje será
enviado al router D. Los routers tienen la
posibilidad de evaluar ambos caminos y decidir la
mejor ruta para esta transmisión.
Conclusión. Cuatro son los aspectos que ayudan a distinguir las diferencias entre un
bridge y un router, y determinar la opción más apropiada en una determinada situación:
El bridge reconoce sólo las direcciones locales a subnivel MAC (las direcciones
de las NIC en su propio segmento). Los routers reconocen direcciones de red.
El bridge difunde (envía) todo lo que no reconoce y lo envía a todas las
direcciones que controla, pero sólo desde el puerto apropiado.
El router trabaja sólo con protocolos encaminables.
El router filtra las direcciones. Envía protocolos particulares a direcciones
determinadas (otros routers).
B-routers
Un brouter combina las cualidades de un bridge y un router. Un brouter puede actuar
como un router para un protocolo y como un bridge para el resto.
Los b-routers pueden:
Encaminar protocolos encaminables seleccionados.
Actuar de bridge entre protocolos no encaminables.
Proporcionar un mejor coste y gestión de interconexión que el que
proporcionan los bridges y routers por separado.
2.11 Servidores.
2.11.1
De archivos e impresión.
La mayor parte de las empresas necesitan uno o más servidores de usuarios y archivos. Windows NT incorpora las
herramientas necesarias para que la configuración de estos servicios se realice cómodamente.
Un servidor de usuarios es aquella máquina que valida a los usuarios de la red cuando escriben su nombre de usuario
y contraseña al iniciar sesión. Si el nombre de usuario y contraseña escritos por el usuario no son reconocidos por el
servidor de usuarios, no se le permitirá acceder a los recursos en red. En Windows NT esta máquina recibe el nombre
de Controlador principal de dominio. Los usuarios de la red se dice que inician sesión en el dominio del servidor
(tienen que haber sido dados de alta previamente en el servidor como usuarios del dominio). El administrador de la
red se encarga de la gestión de usuarios: altas, bajas, cambios de contraseña, etc.
Un servidor de archivos es la máquina que contiene los archivos privados de cada usuario, los de su grupo de trabajo
y los archivos públicos de la red. En realidad, se trata de una colección de carpetas compartidas pero con distintos
permisos de acceso. El administrador de la red debe preocuparse de establecer los permisos de acceso correctamente
y de realizar las pertinentes copias de seguridad.
Las tareas de servidor de usuarios y archivos puede realizarlas una misma máquina Windows NT Server o bien,
distintas máquinas. Incluso, puede haber varios servidores de usuarios y varios servidores de archivos según las
dimensiones de la red. En este apartado nos centraremos en el primer caso: un solo ordenador realiza ambas tareas.
Servidor de Archivos : Es aquel equipo que permite compartir los archivos y programas que se
encuentren en su(s) disco(s). Ordinariamente funciona también como servidor de impresoras.
En el concepto de servidor de archivos, un usuario no puede accesar, indistintamente, discos que se
encuentren en otras microcomputadoras. El servidor de archivos es una microcomputadora designada como
administrador de los recursos comunes. Al hacer esto, se logra una verdadera eficiencia en el uso de éstos, así como
una total integridad de los datos. Los archivos y programas pueden accesarse en modo multiusuario guardando el
orden de actualización por el procedimiento de bloqueo de registros. Es decir, cuando algún usuario se encuentra
actualizando un registro, se bloquea éste para evitar que algún otro usuario lo extraiga o intente actualizar.
El servidor de archivos es la parte del sistema operativo que cubre una de las cuatro clases de funciones
que tiene este en su faceta de máquina extendida. Los Objetivos fundamentales del servidor de archivos
son los dos siguientes:

Facilitar el manejote los dispositivos periféricos. Para ello ofrece una visión lógica simplificada de
los mismos en forma de archivos.

Proteger a los usuarios, poniendo limitaciones a los archivos que es capaz de manipular cada
usuario.

Los servicios que se engloban en el servidor de archivos son de dos tipos:

Los servicios dirigidos al manejo de datos, o archivos.
Dedicated and Non Dedicated File Servers (Servidores de Archivos Dedicados
y No Dedicados).
Un servidor de archivos dedicado es una computadora con disco duro, usada
exclusivamente como servidor de archivos de la red; dedicando toda su memoria y recursos de
procesamiento a este fin.
Un servidor de archivos no dedicado, es usado como estación de trabajo adicionalmente a
sus funciones de servidor; esto significa particionar la RAM para permitir la ejecución de sus
programas.
Print Server (Servidores de Impresoras).
Un servidor de impresoras de red puede habilitar docenas de estaciones de trabajo para
compartir varios tipos de impresoras. Las impresoras pueden ser limitadas a ciertos usuarios de la
red. El administrador de la red instala un programa que define por default la impresora a utilizar.
El software del servidor de impresoras soporta una cola de impresión (print spooler), la
cual crea una área de memoria secundaria, donde los archivos pueden ser almacenados hasta que
sea su turno de ser impresos.
Además de esto, existe la posibilidad de que una estación de trabajo tenga su propia
impresora local.
Servidor de Archivos de NetWare.
NetWare está diseñado para ofrecer un verdadero soporte de servidor de archivos de red. En el modelo
OSI, el software de servidor de archivos de Novell reside en la capa de aplicaciones, mientras que el
software operat ivo de disco (DOS) reside en la capa de presentación. El software de servidores de
archivos forma una cubierta alrededor de los sistemas operativos, como el DOS, y es capaz de
interceptar comandos de programas de aplicaciones antes de que lleguen a l procesador de comandos
del sistema operativo. El usuario de las estaciones de trabajo no se da cuenta de este fenómeno,
simplemente pide un archivo de datos o un programa sin preocuparse acerca de dónde está ubicado.
Administración de Archivos en NetWare.
Ciertos usuarios quizás deseen ejecutar aplicaciones individuales en un ambiente de usuarios múltiples.
El administrador del sistema puede determinar que un programa o archivo sea compartible (Capaz de ser
compartid o) o no compartible (Restringido a un usuario a la vez). NetWare también contiene una función
predeterminada de bloqueo de archivos, lo cual significa que los programas de un solo usuario pueden
ser utilizados por diferentes usuarios, pero uno a la vez.
2.11.2
Administradores de cuentas de usuarios.
Gestión de usuarios. Grupos globales y locales
Cada usuario de la red necesita un nombre de usuario y contraseña para iniciar sesión en el dominio desde su puesto
de trabajo. Estos dos datos se establecen en el servidor de usuarios (Controlador principal de dominio). La gestión de
usuarios se realiza desde el programa Administrador de usuarios que se encuentra en Menú Inicio / Programas /
Herramientas administrativas. La siguiente ventana muestra los campos que se deben introducir para el alta de un
nuevo usuario. Únicamente son obligatorios el nombre de usuario y la contraseña, la cual hay que escribirla dos
veces a modo de confirmación.
Los puestos de trabajo (Windows 98) se deben configurar para que inicien sesión en el dominio de Windows NT que
hemos configurado según se explica en el apartado Contraseña de red Microsoft y contraseña de Windows. El
nombre del dominio es el que hemos indicado durante la instalación de Windows NT (se puede consultar en las
propiedades de Entorno de red, pestaña Identificación) y es distinto al nombre del servidor.
Después de la instalación de Windows NT, hay varios usuarios que aparecen ya creados en el Administrador de
usuarios:



Administrador. Es el usuario que dispone de los máximos privilegios. Se utiliza para la administración del
sistema, aunque no para el trabajo diario. Su contraseña debe ser la más protegida de la red (consultar el
apartado Modelos de redes seguras).
Invitado. Su finalidad es ofrecer acceso al sistema con unos mínimos privilegios a usuarios esporádicos. Es
habitual desactivar esta cuenta ya que no es posible su eliminación.
IUSR_nombre-del-servidor. Es la cuenta que utilizan los clientes que acceden al servidor web configurado
en Windows NT (Internet Information Server). Sólo se debe tener habilitada si el servidor está ejerciendo
tareas de servidor web.
Si bien es cierto que a cada usuario se le pueden asignar individualmente permisos distintos, no suele ser lo más
práctico. En su lugar, se crean grupos de usuarios que comparten los mismos privilegios (por ejemplo, todos los
usuarios de un mismo departamento de la empresa). La gestión de permisos se simplifica considerablemente de esta
forma.
Un grupo es un conjunto de usuarios con los mismos privilegios. Un grupo puede ser de dos tipos:


Grupo global ( ). Puede contener usuarios de un mismo dominio. Por ejemplo, el grupo "Admins. del
dominio" (ver imagen superior).
Grupo local ( ). Puede contener grupos globales y usuarios de distintos dominios. Por ejemplo, el grupo
"Administradores".
La norma habitual es crear dos grupos de usuarios (uno global y otro local) para cada agrupación de usuarios que
deseemos crear. Procederemos de la siguiente forma:
1.
2.
3.
4.
Crear los grupos globales
Incluir los usuarios dentro de los grupo globales
Crear un grupo local que incluya a cada grupo global
Asignar los recursos a los grupos locales
Los usuarios nuevos que creemos deben pertenecer siempre al grupo global predeterminado "usuarios del dominio",
aunque pueden pertenecer además a otros grupos globales que nosotros creemos.
Veamos un ejemplo: Los usuarios de la red María, Pablo e Isabel son alumnos y necesitan tener una carpeta en el
servidor que les permita realizar sus prácticas:
1.
2.
3.
4.
Creamos el grupo global "alumnos del dominio"
Damos de alta a los usuarios "maria", "pablo" e "isabel" y los incluimos en el grupo global "alumnos del
dominio" (además de en "usuarios del dominio")
Creamos el grupo local "alumnos" y dentro incluimos el grupo global "alumnos del dominio"
Creamos la carpeta "practicas" y la compartimos al grupo local "alumnos"
Si más adelante necesitamos dar de alta a algún alumno nuevo, bastará con incluirlo en el grupo global "alumnos del
dominio" y automáticamente tendrá los mismos permisos de acceso que el resto de alumnos (podrá acceder a la
carpeta "practicas").
En el siguiente ejemplo vamos a crear un mayor número de grupos. Supongamos que tenemos dos grupos de
alumnos: unos que asisten a clase por la mañana y otros que lo hacen por la tarde. Cada grupo tendrá una carpeta
distinta para almacenar sus prácticas. Estará disponible, además, una carpeta común para ambos grupos de alumnos.
Finalmente, crearemos una carpeta pública que sea accesible no sólo por los alumnos sino también por el resto de
usuarios del dominio.
1.
2.
Crear los grupos globales "mañanas global" y "tardes global".
Dar de alta al usuario "fulanito" (es un alumno que asiste por las mañanas) e incluirlo dentro de los grupos
globales "mañanas global" y "usuarios del dominio"
3. Dar de alta al usuario "menganito" (es un alumno que asiste por las tardes) e incluirlo dentro de los grupos
globales "tardes global" y "usuarios del dominio"
4. Dar de alta al usuario "aladino" (es el jefe de estudios) e incluirlo dentro del grupo global "usuarios del
dominio"
5. Crear los grupos locales "mañanas", "tardes" y "alumnos".
6. En el grupo local "mañanas" incluir el grupo global "mañanas global"
7. En el grupo local "tardes" incluir el grupo global "tardes global"
8. En el grupo local "alumnos" incluir los grupos globales "mañanas global" y "tardes global"
9. Crear la carpeta "\compartir\practicasmañanas" con control total al grupo local "mañanas"
10. Crear la carpeta "\compartir\practicastardes" con control total al grupo local "tardes"
11. Crear la carpeta "\compartir\todoslosalumnos" con control total al grupo local "alumnos"
12. Crear la carpeta "\compartir\todoslosusuarios" con control total al grupo local "usuarios"
Creación de carpetas para usuarios y grupos
Una vez que hemos creado los usuarios, grupos globales y locales es el momento de diseñar una estructura de
carpetas en el servidor para que los usuarios de la red puedan almacenar sus archivos privados y compartir
documentos con otros usuarios. En los ejemplos anteriores ya hemos introducido el concepto de carpetas de grupos;
sin embargo, ahora vamos a verlo con más detalle.
Las necesidades de almacenamiento de archivos en una red se suelen reducir a tres tipos de carpetas para cada
usuario:



Carpeta privada del usuario. Únicamente tiene acceso el usuario propietario de esa carpeta (ni siquiera los
directores o supervisores de su departamento). El usuario puede almacenar en esa carpeta los archivos que
considere oportunos con total privacidad. El administrador de la red puede imponer un límite de espacio
para evitar que las carpetas de los usuarios crezcan indefinidamente.
Carpetas del grupo. Son una o más carpetas utilizadas por el grupo (departamento de la empresa) para
intercambiar datos. Únicamente tienen acceso los miembros de un determinado grupo de usuarios, pero no
los miembros de otros grupos. Por ejemplo, el departamento de diseño podría tener una carpeta llamada
"diseños" que almacenase los diseños que está creando el departamento; y el departamento de contabilidad,
una carpeta llamada "cuentas" que almacenase las cuentas de la empresa.
Carpetas públicas. Son una o más carpetas que están a disposición de todos los usuarios de la red. Por
ejemplo, una carpeta llamada "circulares" que incluyese documentos de interés para todos los trabajadores
de la empresa.
¿Cómo organizar las carpetas en el disco duro del servidor? Es recomendable que se almacenen en una partición
NTFS para disponer de seguridad. Las particiones FAT no son las más indicadas puesto que no permiten la
configuración de permisos locales de acceso aunque sí permisos a la hora de compartir carpetas en la red. Este punto
lo estudiaremos detenidamente más abajo.
A continuación se muestra un ejemplo de organización del disco duro del servidor que trata de diferenciar las
carpetas de usuarios, grupos y pública.
Las únicas carpetas que se comparten son las del último nivel (nunca las carpetas "compartir", "usuarios" o
"grupos"); en concreto, las carpetas "alumnos", "mañanas", "tardes", "publico", "aladino", "fulanito" y "menganito".
Cada una de estas carpetas tendrá unos permisos de acceso distintos. Lo habitual es dar permiso de control total al
propietario de la carpeta (ya sea el usuario o un grupo local) en Compartir y control total a todos en Seguridad. En el
caso de la carpeta "publico" daremos control total al grupo "usuarios" en Compartir. Los permisos se asignan
accediendo a las propiedades de la carpeta. Obsérvese que las pestañas Compartir y Seguridad pueden tener
permisos distintos. Veamos cómo quedarían los permisos de la carpeta "alumnos". Podemos seguir este mismo
esquema para el resto de carpetas.
2.5.3 De aplicación.
Servidor de aplicación: Todas las aplicaciones informáticas, tales como software de procesamiento de
texto y hojas de cálculo, se deben guardar en el servidor central de cada ubicación escolar.
Un servidor de Aplicación es un conjunto de programas y tecnologías que permiten: Creación
de páginas Web dinámicas(JSP en Java o ASP en Microsoft), Componentes que pueden
encapsular la lógica del negocio(COM en Microsoft o EJB en Java), soporte de transacciones,
acceso a la aplicación desde clientes HTTP, soporte para invocar métodos remotos, manejo
de seguridad y uso de SSL y conexión con Bases de Datos(ODBC en Microsot y JDBC en
Java)
Los Servidores de Aplicación son la solución ideal cuando es necesario un único (o muy
pocos) servicio/s los cuáles deberán permitir altas cargas de lavoro y/o elevado nivel de
seguridad.
Servidores de Aplicación para Bases de Datos
Los Servidores para bases de datos pueden proveer grandes capacidades de
almacenamiento de datos junto a la capacidad de soportar grandes cantidades de consultas
simultaneas. Podemos instalar, configurar, poner a funcionar y mantener para Usted un
servidor de bases de datos para MySQL, PostgreSQL, mSQL2, InterBase, MSSQL y más.
Servidores de Aplicación para E-mail.
Un servidor de aplicación e-mail puede soportar decenas de miles de usuarios activos de
correo electrónico. Nuestra configuración aplicativa para e-mail cumple las siguientes
características y requisitos:
* Seguridad total, gracias al utilizo de Qmail/Vpopmail
* Servicio de Administración. Nuestros técnicos se ocuparán de que su servidor funcione
correctamente, las 24 horas, 7 días a la semana.
* Amplia variedad de protocolos como POP3, IMAP, IMAP seguro, POP3 seguro, SMTP, SMTP
seguro, WebMail y MailingLists EZMLM.
* Amplia variedad de servicios adicionales, como servicios de forward del correo, respuestas
automáticas para cada usuario, administración de aliases para dominio.
* Variedad de scripts a disposición, por ejemplo para ofrecer el clásico servicio de "e-mail
gratuito" con sistema de suscripción automática Online.
* Completo servicio de estadísticas de todo el sistema de correo. Mensajes enviados,
recibidos, con error, retornados. Tamaño de la cola en cada momento, carga media y
máxima, espacio utilizado, etc.
* Posibilidad de limitar recursos para cada dominio como cantidad de usuarios, listas de
correo, aliases, etc.
* Posibilidad de definir el tamaño standard o individual de las casillas de correo.
Servidores de Aplicación Web.
Los servidores de aplicación web permiten destinar todos los recursos del servidor al servicio
de páginas web. De este modo un único servidor podrá dar respuesta sin alguna dificultad a
millones de visitas diarias en su sitio.
Servidores de Aplicación Multimedia (Broadcasting)
Este tipo de servidores le permiten la transmisión de contenido multimedia en directa desde
su sitio, el uso típico es el de las transmisiones de radio o TV en directa. Póngase en
contacto con nosotros para acordar un servicio de estas características.
2.5.4 Servidores de Internet.
Los servidores de Internet son también conocidos como servidores de hospedaje o host servers,
puesto que hospedan o almacenan las páginas web y otros tipos de archivos, listos para ser
enviados a petición de los ordenadores cliente (o usuarios).
El servidor de Internet es capaz que 'atender' a muchos usuarios a la vez, pero se
entiende con cada uno de ellos independientemente; no hay ninguna dificultad (y, en
cierta medida, eso es lo que hace realmente) en que envíe a cada uno de los usuarios
mensajes distintos, siempre que los tenga almacenados en su memoria (por ejemplo,
una página web distinta para cada uno, o páginas web con variantes específicas en
cada caso).
Un servidor de Internet es un ordenador que se utiliza para alojamiento web, bases de
datos, correo electrónico, etc. Ese equipo ha de estar conectado las 24 horas del día durante
todo el año, tiene que soportar fuertes picos de actividad en función de las horas del día,
que debe tener un gran rendimiento en ejecución de aplicaciones para que los clientes
alojados en él no vean mermada la velocidad con la que se muestran sus páginas incluso
aunque éstas sean dinámicas y con acceso a bases de datos.
2.6 Sistemas Operativos de Red. (NOS).
Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no
puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema
operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar
estos recursos.
Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red
para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse
con él.
NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde
el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El
equipo personal necesita ambos sistema operativos para gestionar conjuntamente las
funciones de red y las funciones individuales.
El software del sistema operativo de red se integra en un número importante de sistemas
operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT
Server/Workstation, Windows 95/98/ME y Apple Talk.
Cada configuración (sistemas operativos de red y del equipo separados, o sistema
operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes. Por
tanto, nuestro trabajo como especialistas en redes es determinar la configuración que mejor
se adapte a las necesidades de nuestra red.
Coordinación del software y del hardware
El sistema operativo de un equipo coordina la interacción entre el equipo y los programas
(o aplicaciones) que está ejecutando. Controla la asignación y utilización de los recursos
hardware tales como:
Memoria.
Tiempo de CPU.
Espacio de disco.
Dispositivos periféricos.
En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el
software de red del cliente permite que estos recursos estén disponibles para los equipos
clientes. La red y el sistema operativo del cliente están coordinados de forma que todos los
elementos de la red funcionen correctamente.
Multitarea
Un sistema operativo multitarea, como su nombre indica, proporciona el medio que
permite a un equipo procesar más de una tarea a la vez. Un sistema operativo multitarea
real puede ejecutar tantas tareas como procesadores tenga. Si el número de tareas es
superior al número de procesadores, el equipo debe ordenar los procesadores disponibles
para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta que se
completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre
varias tareas a la vez.
Existen dos métodos básicos de multitarea:
Con prioridad. En una multitarea con prioridad, el sistema operativo puede
tomar el control del procesador sin la cooperación de la propia tarea.
Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea
decide cuándo deja el procesador. Los programa escritos para sistemas de multitarea
sin prioridad deben incluir algún tipo de previsión que permita ejercer el control del
procesador. No se puede ejecutar ningún otro programa hasta que el programa sin
prioridad haya abandonado el control del procesador.
El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción
entre el sistema operativo individual y el Sistema Operativo de Red (sistema operativo de
red). Por ejemplo, cuando la situación lo requiera, el sistema con prioridad puede conmutar
la actividad de la CPU de una tarea local a una tarea de red.
Componentes software
El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos
sistemas operativos de equipo que no incluyan funciones propias de red. Otros sistemas
operativos, como Windows NT/2000, integran el sistema operativo de red y sistema
operativo del equipo. A pesar de que estos sistema integrados tienen algunas ventajas, no
evitan la utilización de otros Sistema Operativo de Red. Es importante considerar la
propiedad de interoperabilidad cuando se configuran entornos de red multiplataforma. Se
dice que los elementos o componentes de los sistemas operativos «interoperan» cuando
pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare
puede interoperar (es decir, acceder a los recursos) con servidores NetWare y servidores
Windows NT/2000.
Un sistema operativo de red:
Conecta todos los equipos y periféricos.
Coordina las funciones de todos los periféricos y equipos.
Proporciona seguridad controlando el acceso a los datos y periféricos.
Las dos componentes principales del software de red son:
El software de red que se instala en los clientes.
El software de red que se instala en los servidores.
Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo
para realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del
mismo. Por ejemplo, si quiere ver un listado de directorios de uno de los discos duros
locales, la CPU interpreta y ejecuta la petición y, a continuación, muestra el resultado del
listado de directorios en una ventana.
Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un
recurso que está en un servidor en otra parte de la red, el comportamiento es distinto. La
petición se tiene que enviar, o redirigir, desde el bus local a la red y desde allí al servidor
que tiene el recurso solicitado. Este envío es realizado por el redirector.
Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este
redirector se conoce como «Shell» o «generador de peticiones». El redirector es una
pequeña sección del código de un Sistema Operativo de Red que:
Intercepta peticiones en el equipo.
Determina si la peticiones deben continuar en el bus del equipo local o deben
redirigirse a través de la red a otro servidor
La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la
petición de un recurso o servicio de red. El equipo del usuario se identifica como cliente,
puesto que está realizando una petición a un servidor. El redirector intercepta la petición y la
envía a la red.
El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona
acceso a los recursos solicitados. En otras palabras, los servicios del servidor solicitados por
el cliente.
Designadores
Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al
directorio cuando necesite acceder a un directorio compartido y tenga los correspondientes
permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono
Conectar a unidad de red del Explorador de Windows NT/2000 para conectarse a la unidad
de red. También, puede asignar una unidad. La asignación de unidades consiste en asignar
una letra o nombre a una unidad de disco, de forma que el sistema operativo o el servidor
de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los
designadores de unidades asociados a recursos de red.
Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los
directorios compartidos. La petición se redirige desde el equipo origen y se envía a través de
la red al correspondiente destino. En este caso, el destino es el servidor de impresión para la
impresora solicitada.
Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de
impresoras locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y
lo envía a la impresora de red especificada.
La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual
de los datos o periféricos ni de la complejidad del proceso de conexión o entrada. Por
ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo necesita escribir el
designador de la unidad asignado a la localización del recurso y el redirector determina el
encaminamiento actual.
Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes,
poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y
directorios.
Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El
redirector envía la petición por la red, se pasa al servidor de archivos que contiene el
directorio compartido. Se concede la petición y se proporciona el listado de directorios.
Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están
disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red
no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones
para la compartición de recursos incluyen:
Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.
Coordinación en el acceso a los recursos asegurando que dos usuarios no
utilizan el mismo recurso en el mismo instante.
Por ejemplo, un administrador de una oficina quiere que una persona de la red se
familiarice con un cierto documento (archivo), de forma que permite compartir el
documento. Sin embargo, se controla el acceso al documento compartiéndolo de forma que:
Algunos usuarios sólo podrán leerlo.
Algunos usuarios podrán leerlo y realizar modificaciones en él.
Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las
personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la
red. El administrador de una red puede utilizar el Sistema Operativo de Red para:
Crear permisos de usuario, controlados por el sistema operativo de red, que
indican quién puede utilizar la red.
Asignar o denegar permisos de usuario en la red.
Eliminar usuarios de la lista de usuarios que controla el sistema operativo de
red.
Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de
red permite la creación de grupos de usuarios. Mediante la clasificación de los individuos en
grupos, el administrador puede asignar permisos al grupo. Todos los miembros de un grupo
tendrán los mismos permisos, asignados al grupo como una unidad. Cuando se une a la red
un nuevo usuario, el administrador puede asignar el nuevo usuario al grupo apropiado, con
sus correspondientes permisos y derechos.
Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que
ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce
un problema en la red, estas herramientas de gestión permiten detectar síntomas de la
presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con
estas herramientas, el administrador de la red puede tomar la decisión correcta antes de
que el problema suponga la caída de la red.
Selección de un sistema operativo de red
El sistema operativo de red determina estos recursos, así como la forma de compartirlos y
acceder a ellos.
En la planificación de una red, la selección del sistema operativo de red se puede
simplificar de forma significativa, si primero se determina la arquitectura de red
(cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A
menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados.
La redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad
que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es
una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en
Grupo.
Después de identificar las necesidades de seguridad de la red, el siguiente paso es
determinar los tipos de interoperabilidad necesaria en la red para que se comporte como
una unidad. Cada sistema operativo de red considera la interoperabilidad de forma diferente
y, por ello, resulta muy importante recordar nuestras propias necesidades de
interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es Trabajo
en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones
propias de esta arquitectura. Si la opción seleccionada se basa en la utilización de un
servidor, es necesario realizar estimaciones futuras para determinar si la interoperabilidad
va a ser considerada como un servicio en el servidor de la red o como una aplicación cliente
en cada equipo conectado a la red. La interoperabilidad basada en servidor es más sencilla
de gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La
interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo.
Esto implica que la interoperabilidad sea mucho más difícil de gestionar.
No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones
cliente en cada equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se
implementa con un servicio para los equipos Apple, mientras que la interoperabilidad de las
redes de Microsoft Windows se consigue con una aplicación cliente de red en cada equipo
personal.
Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de
red que se requieren. Los servicios estándares incluyen seguridad, compartición de archivos,
impresión y mensajería; los servicios adicionales incluyen soporte de interoperabilidad para
conexiones con otros sistemas operativos. Para cualquier Sistema Operativo de Red, es
necesario determinar los servicios de interoperabilidad o clientes de red a implementar para
adecuarse mejor a las necesidades.
Los sistemas operativos de red basados en servidor más importantes son Microsoft
Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas
operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98 y
UNIX (incluyendo Linux y Solaris).
Sistemas operativos de Novell
Introducción a NetWare
El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente.
La aplicación cliente se diseña para ejecutarse sobre una variedad importante de los
sistemas operativos que residen en los clientes. Los usuarios clientes pueden acceder a la
aplicación servidor a partir de ordenadores que ejecuten MS-DOS, Microsoft Windows
(versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A menudo, NetWare es la
opción que se utiliza como sistema operativo en entornos de múltiples sistemas operativos
mezclados.
La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite
entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la
versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su nuevo
Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La versión 5, última
versión distribuida, se centra en la integración de LAN, WAN, aplicaciones de red, intranets e
Internet en una única red global.
Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y
seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y de
archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza todos los
recursos de red, incluyendo usuarios, grupos, impresoras, servidores y volúmenes. NDS
también proporciona una entrada única para el usuario, que permite a éste poder entrar en
cualquier servidor de la red y tener acceso a todos sus permisos y derechos habituales.
Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad
con servidores NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para
NetWare (Gateway Services GSNW). Con este servicio, un servidor Windows NT puede
obtener acceso a servicios de archivo e impresión NetWare.
Servicios NetWare
Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las
ventajas de los recursos proporcionados por un servidor NetWare. Algunos de los servicios
más importantes que proporciona, son:
Servicios de archivos
Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS
proporciona un único punto de entrada para los usuarios y permite a los usuarios y
administradores ver de la misma forma los recursos de la red. Dependiendo del software de
cliente instalado, podrá ver la red completa en un formato conocido para el sistema
operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows puede
asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de
NetWare, de forma que los recursos de NetWare aparecerán como unidades lógicas en sus
equipos. Estas unidades lógicas funcionan igual que cualquier otra unidad en sus equipos.
Seguridad
NetWare proporciona seguridad de gran alcance, incluyendo:
Seguridad de entrada. Proporciona verificación de autenticación basada en
el nombre de usuario, contraseña y restricciones de cuentas y de tiempo.
Derechos de Trustee. Controla los directorios y archivos a los que puede
acceder un usuario y lo que puede realizar el usuario con ellos.
Atributos de archivos y directorios. Identifica los tipos de acciones que se
pueden llevar a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u
ocultarlo o suprimirlo).
Servicios de impresión
Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente.
Cualquier petición de impresión por parte de un cliente es redirigida al servidor de archivos,
donde se envía al servidor de impresión y, finalmente, a la impresora. El mismo equipo
puede actuar como servidor de archivos y servidor de impresión. Permite compartir
dispositivos de impresión que se conectan al servidor, a la estación de trabajo o,
directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los
servicios de impresión de NetWare pueden admitir hasta 256 impresoras.
Envío de mensajes a otros
Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a
otros usuarios de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si
todos los receptores pertenecen al mismo grupo, es conveniente enviar el mensaje al grupo
en lugar de enviarlo de forma individual. Los usuarios también pueden activar o desactivar
este comando para sus estaciones de trabajo. Cuando un usuario desactiva este comando,
no recibirá ningún mensaje enviado.
Los mensaje también se pueden controlar a través del Servicio de control de mensajes
(Message Handling Service – MHS). MHS se puede instalar en cualquier servidor y
configurarse como una infraestructura de mensajes completamente interconectada para una
distribución de correo electrónico. MHS admite los programas más habituales de correo
electrónico.
Interoperabilidad
No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de
Red. Es especialmente cierta cuando se conectan dos redes diferentes, como NetWare y
Windows NT. Un entorno NetWare, caracterizado por sus servicios de directorio y Windows
NT que trabaja sobre la base de un modelo de dominio, son esencialmente incompatibles.
Para solucionar este problema, Windows NT desarrolló NWLink y GSNW que le permiten
interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar como un
enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o
servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor
Windows NT. A continuación, el servidor actuará como cliente en la red NetWare, pasando
las peticiones entre las dos redes.
Sistemas operativos de red de Microsoft
Introducción a Windows NT
A diferencia del sistema operativo NetWare, Windows NT combina el sistema operativo del
equipo y de red en un mismo sistema. Windows NT Server configura un equipo para
proporcionar funciones y recursos de servidor a una red, y Windows NT Workstation
proporciona las funciones de cliente de la red.
Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de equipos
que comparten una política de seguridad y una base de datos común. Cada dominio tiene un
nombre único. Dentro de cada dominio, se debe designar un servidor como Controlador
principal de dominio (PDC, Primary Domain Controller). Este servidor mantiene los servicios
de directorios y autentifica cualquier usuario que quiera entrar en el sistema. Los servicios
de directorios de Windows NT se pueden implementar de varias formas utilizando la base de
datos de seguridad y de las cuentas.
Existen cuatro modelos de dominio diferentes.
Dominio único. Un único servidor mantiene la base de datos de seguridad y
de las cuentas.
Maestro único. Una red con maestro único puede tener diferentes dominios,
pero se designa uno como el maestro y mantiene la base de datos de las cuentas de
usuario.
Maestro múltiple. Una red con maestro múltiple incluye diferentes dominios,
pero la base de datos de las cuentas se mantiene en más de un servidor. Este
modelo se diseña para organizaciones muy grandes.
Confianza-completa. «Confianza completa» significa que existen varios
dominios, pero ninguno está designado como maestro. Todos los dominios confían
completamente en el resto.
Servicios de Windows NT
Los servicios más importantes que Windows NT Server y Workstation proporcionan a una
red:
Servicios de archivos
Existen dos mecanismos que permiten compartir archivos en una red Windows NT. El
primero se basa en un proceso sencillo de compartición de archivos, como puede ser una red
Trabajo en Grupo. Cualquier estación o servidor puede publicar un directorio compartido en
la red y especificar los atributos de los datos (sin acceso, lectura, agregar, cambio, control
total). La gran diferencia entra los sistemas operativos Windows NT y Windows 95 /98 es
que para compartir un recurso de Windows NT debe tener permisos de administrador. El
siguiente nivel de compartición obtiene las ventajas completas de las características de
seguridad de Windows NT. Puede asignar permisos a nivel de directorio y a nivel de
archivos. Esto le permite restringir el acceso a grupos o usuarios determinados. Para poder
obtener las ventajas de un proceso de compartición de archivos más avanzado, es necesario
utilizar el sistema de archivos de Windows NT (NTFS). Durante la instalación de Windows
NT, puede seleccionar entre un sistema de archivos NTFS o un sistema FAT-16 bits (MSDOS). Puede instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones
distintas de un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS,
no estarán disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS puede
compartir la red, pero está limitado para publicar recursos compartidos y no puede utilizar
las ventajas de las utilidades de seguridad de NTFS.
Seguridad
Al igual que los Sistema Operativo de Red más importantes, Windows NT proporciona
seguridad para cualquier recurso de la red. El servidor de dominio en una red Windows NT
mantiene todos los registros de las cuentas y gestiona los permisos y derechos de usuario.
Para acceder a cualquier recurso de la red, el usuario debe tener los derechos necesarios
para realizar la tarea y los permisos adecuados para utilizar el recurso.
Impresión
En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor de
impresión. Compartir una impresora de red implica que esté disponible para cualquier
usuario de red (sujeto a las reglas de compartición). Cuando se instala una impresora,
primero se pregunta si la impresora está designada como impresora local (Mi PC) o como
impresora de red. Si se selecciona como impresora de red, aparece un cuadro de diálogo
mostrando todas las impresoras de red disponibles. Todo lo que tiene que hacer es
seleccionar aquella que desea utilizar. Recuerde que puede instalar más de una impresora
en una máquina.
Además, si está instalando una impresora local, se preguntará si quiere compartir la
impresora con otros usuarios de la red.
Servicios de red
Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red de
ejecución uniforme. Algunos servicios son:
Servicio de mensajería. Monitoriza la red y recibe mensajes emergentes
para el usuario.
Servicio de alarma. Envía las notificaciones recibidas por el servicio de
mensajería.
Servicio de exploración. Proporciona una lista de servidores disponibles en
los dominios y en los grupos de trabajo.
Servicio de estación. Se ejecuta sobre una estación de trabajo y es
responsable de las conexiones con el servidor. Además, se conoce como el redirector.
Servicio de Servidor. Proporciona acceso de red a los recursos de un equipo.
Interoperabilidad
El protocolo de red NWLink se diseña para que Windows NT sea compatible con NetWare.
Los servicios disponibles son:
Servicios de enlace para NetWare (Gateway Services for NetWare
GSNW). Todos los clientes de Windows NT, dentro de un dominio, deben conectarse
con un servidor NetWare a través de una única fuente. GSNW proporciona la
conexión basada en gateway entre un dominio de Windows NT y un servidor
NetWare. Esto funciona correctamente en condiciones de bajo volumen, pero
provocará una bajada en el rendimiento cuando se incremente el número de
peticiones.
Servicios de cliente para NetWare (Client Services for NetWare
CSNW). Este servicio activa una estación Windows NT para acceder a los servicios de
archivo e impresión de un servidor NetWare. Se incluye como parte de GSNW.
Servicios de archivos e impresión para NetWare (File and Print
Services for NetWare FPNW). Esta utilidad permite a los clientes de NetWare
acceder a los servicios de archivo e impresión de Windows NT. No forma parte del
paquete de Windows NT y debe adquirirse por separado.
Gestor de los servicios de directorio para NetWare (Directory Service
Manager for NetWare DSMN). Esta utilidad adicional integra la información de
cuentas de los grupos y de usuarios de Windows NT y NetWare. No forma parte del
paquete de Windows NT y debe adquirirse por separado.
Herramienta de migración para NetWare. Esta herramienta la utilizan los
administradores que están convirtiendo NetWare en Windows NT. Envía la
información de las cuentas de un servidor NetWare a un controlador de dominio de
Windows NT.
Otros sistemas operativos de red
Aunque Windows NT y NetWare constituyen los sistemas operativos de red más habituales
del mercado, no son los únicos disponibles. Incluir también algunos de los sistemas
operativos menos conocidos como AppleTalk, Unix y Banyan Vines. Además, veremos la
utilización de Windows para Grupos de trabajo, Windows 95 y Windows 98 para configurar
redes Trabajo en Grupo, o como clientes en otras redes.
Muchas compañías de software han desarrollado software LAN Trabajo en Grupo. Realizar
una búsqueda en Internet le ayudará a localizar estas posibles opciones.
Sistema operativo de red AppleTalk
El sistema operativo de red AppleTalk está completamente integrado en el sistema
operativo de cada equipo que ejecuta el Mac OS. Su primera versión, denominada LocalTalk,
era lenta en comparación con los estándares de hoy en día, pero trajo consigo la
interconexión de los usuarios que rápidamente hicieron uso de ella. Todavía forma parte del
Apple Sistema Operativo de Red una forma de interconexión por el puerto de serie de
LocalTalk.
La implementación actual de AppleTalk permite posibilidades de interconexión Trabajo en
Grupo de alta velocidad entre equipos Apple, así como interoperabilidad con otros equipos y
sistemas operativos de red. No obstante, esta interoperabilidad no forma parte, obviamente,
del sistema operativo de Apple; En su lugar, los usuarios de equipos distintos de Apple
pueden conectar más fácilmente sus recursos a un sistema operativo de red de Apple
mediante Apple IP, la implementación Apple del protocolo de red TCP/IP. Apple IP permite a
usuarios no Apple acceder a los recursos de Apple, como pueden ser archivos de bases de
datos.
Los equipos que forman parte del sistema operativo en red de Apple pueden conectarse a
otras redes utilizando servicios proporcionados por los fabricantes de los Sistema Operativo
de Red que se están ejecutando en los correspondientes servidores de red. Toda la
comunidad Windows NT Server, Novell NetWare y Linux proporcionan servicios de
interoperabilidad Apple para sus respectivas plataformas. Esto permite a los usuarios de
Apple, conectados en red, hacer uso de los recursos disponibles en estos servidores de red.
El formato de los servicios de directorio de AppleTalk se basa en las características
denominadas «zonas». Se trata de grupos lógicos de redes y recursos (una red Apple Talk
Fase 1 está formada por no más de una zona, mientras que una red de Fase 2 puede tener
hasta 255 zonas. Sin embargo, las dos son incompatibles y no resulta sencillo mantenerlas
en la misma estructura de cableado de red). Estas zonas proporcionan un medio de
agrupamiento de los recursos de una red en unidades funcionales.
En el entorno actual de escritorio, los usuarios de Windows y Apple pueden beneficiarse de
un alto grado de interoperabilidad presente en el software de aplicaciones. Las colecciones
de productividad (aplicaciones estándar, por ejemplo, hojas de cálculo, bases de datos,
tratamiento de textos y correo electrónico) pueden, a menudo, intercambiar información
directamente. AppleShare permite a los usuarios de un equipo Apple compartir con otros
usuarios Apple aquellos recursos para los que tienen asignados los permisos apropiados para
permitir su acceso. Con la interoperabilidad a nivel de sistema operativo y a nivel de
aplicación, el Sistema Operativo de Red de Apple puede proporcionar a los clientes, y a otros
Sistema Operativo de Red, una gama completa de posibilidades de interconexión.
Redes UNIX
UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos
versiones más conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un sistema
UNIX está constituido por un equipo central y múltiples terminales para los usuarios. Este
sistema operativo incluye las prestaciones de red, diseñado específicamente para grandes
redes, pero también presenta algunas aplicaciones para equipos personales. UNIX trabaja
bien sobre un equipo autónomo y, como consecuencia de sus posibilidades de multitarea,
también lo hace perfectamente en un entorno de red.
UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en un
servidor de archivos instalando el correspondiente software del servidor de archivos. A
continuación, como host UNIX, puede responder a peticiones realizadas en las estaciones de
trabajo. El software del servidor de archivos es, simplemente, una aplicación más que se
está ejecutando en el equipo multitarea.
Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que
ejecute MS-DOS, OS/2, Microsoft Windows o Macintosh (System 7 u 8). Un redirector de
archivos activará la estación para almacenar y recuperar archivos UNIX cuando éstos están
en su formato original.
Servicios virtuales de red integrados Banyan (Vines)
Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines). Vines es
un Sistema Operativo de Red basado en una arquitectura cliente/servidor derivado de los
protocolos Xerox Network System (XNS) de la Corporación Xerox.
En la versión actual de Banyan Vines destaca la mensajería mediante la integración con el
software Intelligent Messaging (Mensajería inteligente) y BeyondMail de Banyan. La creación
y gestión de los servicios de red se realizan a través de la última versión de StreetTalk
Explorer de Banyan. Esta interfaz trabaja con los perfiles de usuario de Windows, aceptando
las configuraciones de los usuarios en cualquier parte de la red. Algunas características
presentes en Vines:
Soporte cliente para Windows NT y Windows 95 y 98.
Banyan Intranet Connect, que proporciona acceso a cliente remoto con un
navegador Web estándar.
Software servidor a servidor TCP/IP (Protocolo de control de
transmisión/Protocolo de Internet).
Banyan Networker, una familia de productos de almacenamiento en red.
Soporte multiprocesador de hasta cuatro procesadores.
Redes locales Trabajo en Grupo
En muchas oficinas y pequeñas empresas existe la necesidad de crear una red Trabajo en
Grupo sencilla. Una red Trabajo en Grupo podría ser la opción más económica cuando la
seguridad no es importante y el número de equipos dentro de un área relativamente
pequeña es 10 o un número menor. En estas redes todas las estaciones son iguales y cada
una de ellas actúa como servidor o cliente. En muchos casos, estas redes compartirán sólo
los archivos e impresoras. La mayoría de los sistemas operativos de red incluyen el software
necesario para configurar una red Trabajo en Grupo.
Windows para Grupos de trabajo
Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su
predecesor, Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en Grupo, una
aplicación de correo electrónico y una aplicación de anotaciones. Un grupo de equipos
conectados a través de una red pueden compartir impresoras y archivos. Sólo se pueden
enviar a otros miembros aquellos elementos que aparezcan designados como compartidos.
Todos los archivos e impresoras aparecen ocultos para todos los usuarios, excepto para el
equipo local. Cuando se comparte un directorio del disco o una impresora de una estación de
trabajo, se le asigna un nombre al recurso compartido que pueden utilizar el resto de
usuarios para referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al
directorio compartido y el redirector redirige el puerto LPT a través de la LAN a la impresora
correcta.
Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente
imposible que se requieran sus servicios para instalar una nueva red utilizando este sistema
operativo.
Windows 95/98/ME
Los sistemas operativos Windows 95/98/ME incluyen el software necesario para crear una
red Trabajo en Grupo y activar la compartición de archivos e impresoras.
Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en una LAN
Windows NT o NetWare. Tendrá que instalar el software de cliente (generador de peticiones)
correspondiente. Los usuarios de Windows 95 y 98 no pueden utilizar las ventajas completas
que proporciona Windows NT con respecto a las características de seguridad. Estas
características requieren la utilización del formato de archivos NTFS que no es compatible
con Windows 95 y 98.
Warp Connect
Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en Grupo
de WIN-OS/2. Proporciona posibilidades de interconexión a nivel de cliente y Trabajo en
Grupo similares a las que proporciona Windows para Grupos de trabajo. Con la utilidad
predefinida de conexión Trabajo en Grupo incluida en Warp Connect, puede compartir
aplicaciones, impresoras, módems y archivos, sin necesidad de instalar hardware especial.
Sistemas operativos de red en entornos multiplataforma
Normalmente, los Sistema Operativo de Red tienen que integrar los productos hardware y
software fabricados por diferentes fabricantes. Las propiedades y problemas a tener en
cuenta en una red multiplataforma, son:
El entorno multiplataforma
Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A pesar de
que pueden plantear retos importantes, funcionan correctamente cuando se implementan y
se planifican de forma apropiada.
El carácter de una red cambia cuando los componentes software de diferentes plataformas
deben operar en la misma red. Los problemas pueden aumentar cuando la red está
ejecutando más de un tipo de sistema operativo de red.
Para que una red funcione de forma apropiada en un entorno de trabajo heterogéneo,
deben ser compatibles el redirector, el sistema operativo del servidor y del cliente. En un
entorno multiplataforma, es necesario encontrar un lenguaje común que permita a todos los
equipos comunicarse.
Implementación de soluciones multiplataforma
Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a nivel de
servidor (también conocido como el «final de regreso») o a nivel de cliente (también
conocido como el «final de inicio»). La opción depende de los fabricantes que se estén
utilizando.
Interoperabilidad de cliente
En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector se
convierte en la clave de la interoperabilidad. Sólo cuando se utiliza más de un proveedor de
servicios telefónicos para comunicarse con diferente gente, se tiene que el equipo puede
tener más de un redirector para comunicarse a través de la red con servidores de red
distintos.
Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que puede
entender. Si conoce el destino y el recurso al que se quiere acceder, puede implementar el
redirector apropiado y éste reenviará su petición al destino adecuado.
Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el
administrador de la red carga el redirector de Microsoft, instalado en el cliente, sobre
Windows NT para el acceso a los servidores Novel.
lnteroperabilidad del servidor
La segunda forma de implementar la comunicación entre un cliente y un servidor es
instalar los servicios de comunicaciones en el servidor, enfoque utilizado para incluir un
Apple Macintosh en un entorno Windows NT. Microsoft suministra los Servicios para
Macintosh. Este software permite a un servidor Windows NT Server comunicarse con el
cliente Apple.
Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el procedimiento
estándar de un Macintosh y visualizar los iconos propios del sistema, como puede ser
Chooser and Finder, incluso cuando el usuario está accediendo a los recursos de Windows NT
Server.
Opciones de fabricantes
Los tres fabricantes más importantes de productos de redes son:
Microsoft.
Novell.
Apple.
Cada una de estas plataformas proporcionan utilidades que:
Hacen posible que sus sistemas operativos se puedan comunicar con
servidores de las otras dos plataformas.
Ayudan a sus servidores a reconocer clientes de las otras dos plataformas.
Microsoft
Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los
siguientes sistemas operativos de Microsoft:
Windows NT/2000
Windows 95/98/ME.
Windows para Grupos de trabajo.
Los redirectorios se implementan, de forma automática, durante la instalación del sistema
operativo. Una utilidad de instalación carga los controladores requeridos y, a continuación,
edita los archivos de inicio, de forma que el redirector se active la próxima vez que el
usuario encienda el equipo.
El software redirector de Microsoft no sólo permite a los clientes acceder a los recursos,
sino también proporciona cada cliente Windows para Grupos de trabajo y Windows NT con la
posibilidad de compartir sus propios recursos.
Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar
juntos.
Para conectar un cliente con Windows NT Workstation a una red Novell
NetWare 3.x o 4.x se requiere NWLink y Servicio de Cliente para NetWare (CSNW) o
el Cliente NetWare de Novell para Windows NT.
Para conectar un servidor Windows NT Server a una red NetWare se requiere
NWLink y el Servicio de Enlace para NetWare (GSNW). NWLink es la implementación
de Microsoft del protocolo de intercambio de paquetes entre redes/Intercambio de
paquetes secuenciados (IPX/SPX). CSNW es la implementación en Microsoft de un
generador de peticiones de NetWare (terminología para el redirector en Novell).
Para conectar un cliente Windows 95 o 98 a una red NetWare se requiere
IPX/SPX y redes CSNW de Microsoft.
El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el software de
cliente para NetWare que incorpora soporte para Novell Network 4.x y Servicios de
Directorios 5.x. Microsoft NDS proporciona a los usuarios con entrada y exploración soporte
para servicios de enlace en NetWare 3.x y NetWare 4.x como servidores NDS NetWare 4.x y
5.x.
Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de servidor
ofrecen utilidades que permiten a los clientes que utilizan MS-DOS, acceder a los servidores
de estos tres fabricantes. Todas estas utilidades pueden residir en una máquina, de forma
que el cliente con MS-DOS puede acceder a los servidores correspondientes de los tres
entornos.
Novell
Los servidores Novell reconocen los siguientes clientes para los servicios de archivos e
impresión. Los clientes NetWare que ejecutan MS-DOS pueden conectarse a:
Servidores NetWare de Novell.
Equipos con Windows NT Server.
Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el
redirector de Windows NT pueden conectarse a:
Servidores NetWare de Novell.
Equipos con Windows NT Server y Windows NT Workstation.
Novell proporciona generadores de peticiones para sistemas operativos de clientes
incluyendo:
MS-DOS.
OS/2.
Cliente NetWare para Windows NT.
Apple
En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye con el
sistema operativo AppleTalk y proporciona la función de compartir archivos. El software de
cliente se incluye con cada copia del sistema operativo de Apple. Además, se incluye un
servidor de impresión de AppleShare, que gestiona las colas de impresión. Por tanto,
tenemos que los Macintosh están equipados para formar parte de la redes Apple.
Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los clientes
que utilizan MS-DOS acceso a los servidores de archivos e impresión de AppleShare. Con el
software de ordenador personal LocalTalk y una tarjeta de equipo personal LocalTalk
instalada en los equipos, los usuarios pueden acceder a los volúmenes (almacenamiento de
archivos) del servidor de archivos e impresoras de una red AppleTalk. La tarjeta de equipo
personal LocalTalk controla el enlace entre la red AppleTalk y el equipo personal. El software
del controlador LocalTalk para el equipo personal implementa muchos de los protocolos de
AppleTalk e interactúa con la tarjeta para enviar y recibir paquetes.
Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor
Windows NT puede estar disponible para los clientes Macintosh. Este producto hace posible
que los clientes de MS-DOS y Macintosh puedan compartir archivos e impresoras. Los
Servicios para Macintosh incluyen las versiones 2.0 y 2.1 de Apple Talk Protocol, LocalTalk,
Ether Talk, Token Talk y FDDITalk. Además, los Servicios para Macintosh admiten la
impresora LaserWriter versión 5.2 o posterior.
Unidad 3
Estándares y protocolos de redes.
3.3 Estándares de Conexión LAN de la IEEE.
3.3.1 Proyecto 802 Conexión.
Casi todas las redes locales han sido estandarizadas por el IEEE, en el comité denominado 802. Los estándares
desarrollados por este comité están enfocados a las capas 1 y 2 del modelo de referencia OSI. Este comité se divide
en subcomités, cuyo nombre oficial es 'Grupos de Trabajo', que se identifican por un número decimal. El primero
(802.1) describe los aspectos generales y las interfaces comunes a todas las LANs 802.x. El 802.2 describe la
subcapa LLC (Logical Link Control), también común a todas las redes 802.x. La mayoría de los demás grupos de
trabajo tienen que ver con diversas tecnologías de red local. Cada uno de ellos especifica el nivel físico y la subcapa
MAC. Por ejemplo el estándar 802.3 describe el nivel físico y el subnivel MAC de la red con protocolo MAC
CSMA/CD, mas conocida como Ethernet.
Los grupos de trabajo 802 no son algo estático; continuamente se están planteando para su estandarización nuevas
técnicas y protocolos, nuevos medios físicos, etc. Cuando surge una nueva propuesta el grupo de trabajo
correspondiente nombra un grupo de estudio que la analiza, y si el informe es favorable se crea un 'subgrupo' de
trabajo (llamado oficialmente proyecto) que eventualmente propone una adenda al estándar para su aprobación. Los
proyectos se identifican por letras añadidas al grupo de trabajo del que provienen, por ejemplo el proyecto que
propuso el estándar Gigabit Ethernet era el 802.3z.
En total el comité 802 está formado por 13 grupos de trabajo que podemos agrupar de la siguiente manera:





802.1: Panorámica y Arquitectura, Puentes, redes locales virtuales (VLANs).
802.2: LLC, Logical Link Control (actualmente en hibernación e inactivo).
802.3,.4,.5,.6,.9,.11,.12,.14: métodos de acceso y señalización física para tipos concretos de tecnologías LAN y
MAN.
802.7 y 802.8: Grupos técnicos asesores en redes de banda ancha y en fibras ópticas,
respectivamente.(actualmente en hibernación e inactivo)
802.10: Niveles de seguridad en estándares 802
Los grupos de trabajo especializados en métodos de acceso corresponden a las siguientes tecnologías:

802.3: CSMA/CD (Etherent)







802.4: Token Bus (actualmente en hibernación e inactivo)
802.5 Token Ring
802.6: DQDB, Distributed Queue Dual Bus (actualmente en hibernación e inactivo)
802.9: Servicios Integrados (Iso-Ethernet)
802.11: Redes inalámbricas
802.12: Demand Priority (100VG-AnyLAN)
802.14: Redes de televisión por Cable (actualmente en desarrollo del primer estándar)
A título de ejemplo detallamos a continuación algunos de los proyectos más relevantes del comité 802:







802.1D: puentes transparentes
802.1p: Filtrado por clase de tráfico (Calidad de Servicio)
802.1Q: Puentes en redes locales virtuales
802.3u: Fast Ethernet
802.3x. Ethernet Full dúplex y control de flujo
802.3z: Gigabit Ethernet
802.3ab: Gigabit Ethernet en cable UTP-5 (en desarrollo)
Todos los estándares IEEE 802 son mas tarde aprobados por ANSI y por la ISO. El estándar IEEE 802.x tiene un
estándar equivalente ISO 8802-x Normalmente un estándar Normalmente todos los estándares IEEE son aprobados
más tarde por ISO bajo la denominación 8802.x, convirtiéndose así en estándares internacionales; así por ejemplo el
estándar ISO 8802.3 es equivalente al IEEE 802.3
Existen algunas tecnologías de red local que siguen fielmente la arquitectura IEEE 802, pero no han sido aprobadas
por el IEEE. Los ejemplos más destacados en este sentido son FDDI y Fibre Channel; ambas son estándares
aprobados por el ANSI.
El estándar IEEE 802.x
Los dos niveles inferiores del modelo OSI están relacionados con el hardware: la tarjeta de
red y el cableado de la red. Para avanzar más en el refinamiento de los requerimientos de
hardware que operan dentro de estos niveles, el Instituto de Ingenieros Eléctricos y
Electrónicos (IEEE, Institute of Electrical and Electronics Engineers) ha desarrollado mejoras
específicas para diferentes tarjetas de red y cableado. De forma colectiva, estos
refinamientos se conocen como proyecto 802.
El modelo del proyecto 802
Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area
Networks) como herramientas potenciales de empresa a finales de los setenta, el IEEE
observó que era necesario definir ciertos estándares para redes de área local. Para conseguir
esta tarea, el IEEE emprendió lo que se conoce como proyecto 802, debido al año y al mes
de comienzo (febrero de 1980).
Aunque los estándares IEEE 802 publicados realmente son anteriores a los estándares
ISO, ambos estaban en desarrollo aproximadamente al mismo tiempo y compartían
información que concluyó en la creación de dos modelos compatibles.
El proyecto 802 definió estándares de redes para las componentes físicas de una red (la
tarjeta de red y el cableado) que se corresponden con los niveles físico y de enlace de datos
del modelo OSI.
Las especificaciones 802 definen estándares para:
Tarjetas de red (NIC).
Componentes de redes de área global (WAN, Wide Area Networks).
Componentes utilizadas para crear redes de cable coaxial y de par trenzado.
Las especificaciones 802 definen la forma en que las tarjetas de red acceden y transfieren
datos sobre el medio físico. Éstas incluyen conexión, mantenimiento y desconexión de
dispositivos de red.
La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión más
importante que se debe tomar cuando se diseña una red de área local (LAN). Este protocolo
define la velocidad de la red, el método utilizado para acceder a la red física, los tipos de
cables que se pueden utilizar y las tarjetas de red y dispositivos que se instalan.
Categorías de IEEE 802
Los estándares de redes de área local definidos por los comités 802 se clasifican en 16
categorías que se pueden identificar por su número acompañado del 802:
Categorías de las especificaciones 802
Especificació
Descripción
n
802.1
Establece los estándares de interconexión relacionados
con la gestión de redes.
802.2
Define el estándar general para el nivel de enlace de
datos. El IEEE divide este nivel en dos subniveles: los
niveles LLC y MAC. El nivel MAC varía en función de los
diferentes tipos de red y está definido por el estándar
IEEE 802.3.
802.3
Define el nivel MAC para redes de bus que utilizan
Acceso múltiple por detección de portadora con
detección de colisiones (CSMA/CD, Carrier-Sense
Multiple Access with Collision Detection). Éste es el
estándar Ethernet.
802.4
Define el nivel MAC para redes de bus que utilizan un
mecanismo de paso de testigo (red de área local Token
Bus).
802.5
Define el nivel MAC para redes Token Ring (red de
área local Token Ring).
802.6
Establece estándares para redes de área
metropolitana (MAN, Metropolitan Area Networks), que
son redes de datos diseñadas para poblaciones o
ciudades. En términos de extensión geográfica, las redes
de área metropolitana (MAN) son más grandes que las
redes de área local (LAN), pero más pequeñas que las
redes de área global (WAN). Las redes de área
metropolitana (MAN) se caracterizan, normalmente, por
conexiones de muy alta velocidad utilizando cables de
fibra óptica u otro medio digital.
802.7
Utilizada por el grupo asesor técnico de banda ancha
(Broadband Technical Advisory Group).
802.8
Utilizada por el grupo asesor técnico de fibra óptica
(Fiber-Optic Technical Advisory Group).
802.9
Define las redes integradas de voz y datos.
802.10
Define la seguridad de las redes.
802.11
Define los estándares de redes sin cable.
802.11b
Ratificado el 16 de Septiembre de 1.999, proporciona
el espaldarazo definitivo a la normativa estándar inicial,
ya que permite operar a velocidades de 11 Mbps y
resuelve carencias técnicas relativas a la falta de
itinerancia, seguridad, escalabilidad, y gestión existentes
hasta ahora.
802.12
Define el acceso con prioridad por demanda (Demand
Priority Access) a una LAN, 100BaseVG-AnyLAN.
802.13
No utilizada.
802.14
Define los estándares de módem por cable.
802.15
Define las redes de área personal sin cable (WPAN,
Wireless Personal Area Networks).
802.16
Define los estándares sin cable de banda ancha.
3.3.2 802.1 Conexión entre Redes.
802.1 Definición Internacional de Redes. Define la relación entre los estándares 802 del IEEE y el Modelo
de Referencia para Interconexión de Sistemas Abiertos (OSI) de la ISO (Organización Internacional de
Estándares). Por ejemplo, este Comité definió direcciones para estaciones LAN de 48 bits para todos los
estándares 802, de modo que cada adaptador puede tener una dirección única. Los vendedores de
tarjetas de interface de red están registrados y los tres primeros bytes de la dirección son asignados por
el IEEE. Cada vendedor es entonces responsable de crear una dirección única para cada uno de sus
productos.
Introducción
El estándar IEEE 802.1X define el control de acceso a redes basadas en puertos. Gracias a él
se exige autenticación antes de dar acceso a las redes Ethernet. En el control de acceso a
redes basadas en puertos se utilizan los elementos físicos que componen una infraestructura
de conmutación de la red LAN para autenticar los dispositivos agregados al puerto de
conmutación. No se pueden enviar ni recibir tramas en un Puerto de conmutación Ethernet si
el proceso de autenticación ha fallado. A pesar de que se diseñó para redes Ethernet fijas,
este estándar se ha adaptado para su uso en redes LAN inalámbricas con IEEE 802.11.
Windows XP soporta la autentificación IEEE 802.1X para todos los adaptadores de red
basados en redes LAN, incluyendo las Ethernet y las inalámbricas.
El estándar IEEE 802.1X define los términos siguientes:




El
El
El
El
PAE
autenticador
Puerto solicitante
servidor de autenticación
El PAE
El Puerto PAE (Port access entity), también denominado Puerto LAN, es una entidad lógica
que soporta el protocolo IEEE 802.1X asociado con un puerto. Un Puerto LAN puede hacer
las veces de autenticador, el solicitante o ambos.
El autenticador
Es un Puerto LAN que exige autenticación antes de permitir el acceso a los Servicios que se
suministran a través de él. Para las conexiones inalámbricas, el autenticador es el Puerto
lógico de LAN en un punto de acceso(AP) inalámbrico a través del cual los clientes que
trabajan con conexiones inalámbricas que operan con infraestructuras acceden a la red fija.
El Puerto solicitante
El puerto solicitante es un Puerto de la LAN que solicita acceso a los servicios disponibles a
través del autenticador. En las conexiones inalámbricas, el demandante es el Puerto lógico
de la LAN alojado en el adaptador de red LAN inalámbrica que solicita acceso a una red fija.
Para ello se asocia y después se autentifica con un autenticador.
Independientemente de que se utilicen para conexiones inalámbricas o en redes Ethernet
fijas, los puertos solicitante y de autenticación están conectados a través de un segmento
LAN punto a punto lógico y físico.
El servidor de autenticación
Para corroborar los credenciales del Puerto solicitante, el de autenticación utiliza el servidor
de autenticación. Este servidor comprueba los credenciales del solicitante en nombre del
Autenticador y después le responde a éste indicándole si el solicitante tiene o no permiso
para acceder a los Servicios que proporciona el Autenticador. Hay dos tipos de servidor de
autenticación:


Un componente del punto de acceso. Debe configurarse utilizando los
credenciales de los clientes que intentan conectarse. Normalmente no se implementan
utilizando puntos de acceso inalámbricos.
Una entidad distinta. El punto de acceso reenvía los credenciales de la conexión
que ha intentado establecerse a un servidor de autenticación distinto. Por lo general un
punto de acceso inalámbrico utiliza el protocolo de autenticación remota RADIUS
(Remote Authentication Dial-In User Service) para enviar los parámetros de las
conexiones que han intentado conectarse al servidor RADIUS.
Puertos de acceso sin y con autenticación
El control de acceso basado en el autenticador define los siguientes tipos de puertos lógicos
que acceden a la LAN conectada físicamente a través de un solo puerto LAN fijo:


Puerto de acceso sin autenticación. El Puerto de acceso sin autenticación hace
posible el intercambio de datos entre el autenticador ( el AP inalámbrico) y otros
dispositivos dentro de la red fija, independientemente de que se haya autorizado o no al
cliente la utilización de la conexión inalámbrica. Un ejemplo ilustrativo es el intercambio
de mensajes RADIUS entre un punto de acceso inalámbrico y un servidor RADIUS alojado
en una red fija que ofrece autenticación y autorización a las conexiones inalámbricas.
Cuando un usuarios de una conexión envía una trama, el punto de acceso inalámbrico
nunca la reenvía a través del puerto de acceso sin autenticación.
Puerto de acceso con autenticación. Gracias al Puerto de acceso con
autenticación se pueden intercambiarr datos entre un usuario de una red inalámbrica y la
red física pero sólo si el usuario de la red inalámbrica ha sido autenticado. Antes de la
autenticación, el conmutador se abre y no se produce el reenvío entre el usuario de la
conexión inalámbrica y el de la red física. Una vez que la identidad del usuario remoto se
ha comprobado a través de IEEE 802.1X, se cierra el conmutador y las tramas son
reenviadas entre el usuario de la red inalámbrica y los nodos de la red con conexión
física.
En el dibujo de abajo se puede ver la relación que se establece entre los Puertos con y sin
autenticación en un punto de acceso inalámbrico.
En el conmutador Ethernet de autenticación, el usuarios de una red Ethernet puede enviar
tramas Ethernet a una red también fija tan pronto como se haya finalizado el proceso de
autenticación. El conmutador identifica el tráfico de un usuario de red Ethernet en particular
utilizando para ello el Puerto físico al que se conecta a ese usuario. Por lo general sólo se
conecta a un usuario de Ethernet a un Puerto físico a través de un conmutador Ethernet.
Debido a las reticencias de muchos clientes remotos ante la idea de consultar y enviar datos
utilizando un único canal, se ha tenido que ampliar el protocolo básico. IEEE 802.1X. De esta
forma un AP inalámbrico puede identificar si el tráfico de un determinado cliente remoto es
seguro. Esto es posible gracias al establecimiento por ambas partes , tanto del cliente
remoto como del punto de acceso inalámbrico. de una clave única y especifica para cada
cliente Sólo aquellos clientes remotos que hayan sido autenticados tienen una clave única y
específica para cada sesión. Si la autenticación no viene acompañada de una clave válida, el
punto de acceso inalámbrico rechaza las tramas que envía el cliente remoto sin
autenticación.
El Protocolo de autenticación extensible (EAP)
Para poder ofrecer un mecanismo de autenticación estándar para IEEE 802.1X, IEEE escogió
el protocolo de autenticación extensible (EAP). EAP es un protocolo basado en la tecnología
de autenticación del protocolo punto a punto (PPP)-que previamente se había adaptado para
su uso en segmentos de redes LAN punto a punto. En un principio los mensajes EAP se
definieron para ser enviados como la carga de las tramas PPP, de ahí que el estándar IEEE
802.1X defina EAP sobre la red LAN (EAPOL). Este método se utiliza para encapsular los
mensajes EAP y así poder enviarlos ya sea a través de segmentos de redes Ethernet o de
redes LAN inalámbricas.
Para la autenticación de conexiones inalámbricas; Windows XP utiliza el protocolo EAP
Seguridad del nivel de transporte(EAP-TLS). El protocolo EAP-TLS se define en las peticiones
de comentario RFC 2716 y se utiliza en entornos seguros y certificados. El intercambio de
mensajes EAP-TLS ofrece una autenticación mutua, unas transferencias cifradas totalmente
protegidas y una determinación conjunta para las claves de cifrado y firma entre el cliente
remoto y el servidor de autenticación (el servidor RADIUS). Una vez que se ha realizado la
autenticación y autorización correspondiente, el servidor RADIUS envía las claves de cifrado
y firma al punto de acceso inalámbrico a través de un mensaje de Acceso-aceptado de
RADIUS.
Windows XP ha elegido EAP-TLS- que trabaja con usuarios registrados y ordenadores
certificados- como método de autenticación para sus conexiones inalámbricas por las
siguientes razones:



EAP-TLS no se necesita la clave de la cuenta del usuario.
EAP-TLS la autenticación es automática, sin intervención del usuario.
EAP-TLS utiliza certificados por lo que el esquema de automatización es más
consistente
El soporte de Windows XP para IEEE 802.1X
En Windows XP, la autenticación IEEE 802.1X junto al tipo de autentificación EAP-TLS
aparece por defecto en todos los adaptadores de red compatibles con redes LAN. Si quiere
configurar 802.1X en un ordenador que ejecute Windows XP tiene que utilizar la etiqueta
Autenticación en propiedades de una conexión de red LAN en Conexiones de red.
En esta etiqueta puede configurar:

Enable network access control using IEEE.802.1X (Activar el control de
acceso a la red utilizando IEEE 802.1X). En este cuadro puede elegir entre utilizar
IEEE 802.1X para autenticar la conexión o no. La opción se activa por defecto.
Una conexión LAN en Windows XP envía tres mensajes EAP-Start para hacer que el
Autenticador (el conmutador Ethernet o el punto de acceso inalámbrico) empiece el
proceso de autenticación basándose en EAP. Si no se recibe un mensaje EAP de
Petición/Identidad significa que el Puerto no exige una autenticación IEEE 802.1X y la
conexión LAN envía trafico normal para configurar la capacidad de conexión de la red. Si
por el contrario se recibe el mensaje esto significa que la autenticación IEEE 802.1X se
ha puesto en marcha.
Por lo tanto, si dejamos activada esta configuración para una conexión LAN Ethernet
cuando el conmutador Ethernet no soporta IEEE 802.1X no perjudicamos la capacidad de
conexión de la red. Sin embargo si desactivamos esta configuración cuando el
conmutador Ethernet no exige una autenticación IEEE 802.1X perjudicamos la capacidad
de conexión de la red.


EAP type. Con esta opción selección utilizar la autenticación IEEE 802.1X con el tipo
EAP. En la lista de la biblioteca de enlaces dinámicos (DDL) se muestran los EAP
instalados en la máquina. Los tipos EAP por defecto son MD-5 Challenge y Smart card
and other certificate. Las Tarjetas inteligentes o certificados son para EAP-TLS.
Las etiquetas inteligentes y certificados EAP se seleccionan por defecto y son de uso
obligado para acceder de forma segura a redes inalámbricas.
Propiedades. Haga clic para configurar las propiedades del tipo EAP que haya
seleccionado. Las propiedades no están disponibles para el tipo EAP MD-5 Challenge.


Autenticate as computer when computer information is available. Aquí se
especifica si la máquina se intenta autenticar utilizando los credenciales del ordenado(
tales como el certificado) sin que el usuario introduzca sus datos. Esta opción está
activada por defecto.
Autenticate as guest when user or computer information is unvailble. Aquí se
especifica si la máquina se intenta autenticar como invitado. Se utiliza cuando los
credenciales del usuario o del ordenador no están disponibles. Esta opción está
desactivada por defecto.
En la siguiente imagen aparece la etiqueta de los tipos EAP de propiedades de etiquetas
inteligentes u otros certificados (corresponden a EAP-TLS).
En el cuadro de diálogo Propiedades de las etiquetas inteligentes y otros certificados,
podrá ver y configurar las siguientes propiedades:



When connecting. Para poder utilizar para la autenticación un certificado de los del
almacén de certificado de ordenador local o usuario actual seleccione Use a certificate
on this computer (activado por defecto). Cuando hay varios certificados de usuario
instalados, el usuario tiene que seleccionar uno en particular para la primera asociación.
Ése será el que se utilice en el resto de las asociaciones que tengan lugar hasta que
finalice esa sesión de Windows XP. Windows XP no soporta la utilización de etiquetas
inteligentes como un medio seguro de autenticación de conexiones remotas.
Validate server certificate. Aquí se especifica si quiere validar o no el certificado
del ordenador del servidor de autenticación (por lo general un servidor RADIUS). Esta
opción está activada por defecto.
Connect only if server name end with. Aquí especifica si quiere seleccionar un
texto determinado que deba coincidir con el final del nombre del certificado del
ordenador donde está el servidor de autenticación. Esta opción está desactivada por
defecto. En la mayor parte de las implementaciones, en las que se utiliza más de un
servidor RADIUS, puede escribir la parte del Sistema de nombres de dominio (DNS)
común a todos los servidores RADIUS. Por ejemplo si tiene dos servidores RADIUS con el
nombre rad1.example.microsoft.com y rad2.example.microsoft.com respectivamente y
luego escribe "example.microsoft.com". Si activa esta opción y escribe un texto
incorrecto, la autenticación remota fallará.

Trusted root certificate authority. Gracias a esta opción puede elegir la autoridad
de certificación (CA) raíz del certificado del ordenador del servidor de autenticación. La
lista enumera los certificados CA raíz que se encuentran almacenados en su Autoridades
de certificación raíz de confianza.
Por defecto no se selecciona ninguna CA raíz. Si elige una CA incorrecta, durante la
autenticación tendrá que aceptar (o rechazar) la CA raíz del servidor de autenticación.
Cuando la acepte, la CA raíz de confianza aparece como la CA raíz del certificado del
servidor de autenticación.

Use a different user name for the connection. Aquí especifica si para su
autenticación quiere utilizar un nombre de usuario diferente al que aparece en el
certificado. Esta opción está desactivada por defecto. Si se activa aparece un cuadro de
diálogo para seleccionar el certificado de usuario incluso si sólo se ha instalado un
certificado. El certificado elegido será el que se utilice hasta que finalice esa sesión de
Windows XP.
3.3.3 802.2 Control de Enlace Lógico (LLC).
802.2 Control de Enlaces Lógicos. Define el protocolo de control de enlaces lógicos (LLC) del
IEEE, el cual asegura que los datos sean transmitidos de forma confiable por medio del
enlace de comunicación. La capa de Datos-Enlace en el protocolo OSI esta subdividida en las
subcapas de Control de Acceso a Medios (MAC) y de Control de Enlaces Lógicos (LLC). En
Puentes, estas dos capas sirven como un mecanismo de switcheo modular, como se muestra
en la figura I-5. El protocolo LLC es derivado del protocolo de Alto nivel para Control de
Datos-Enlaces (HDLC) y es similar en su operación. Nótese que el LLC provee las direcciones
de Puntos de Acceso a Servicios (SAP’s), mientras que la subcapa MAC provee la dirección
física de red de un dispositivo. Las SAP’s son específicamente las direcciones de una o más
procesos de aplicaciones ejecutándose en una computadora o dispositivo de red.
El LLC provee los siguientes servicios:



Servicio orientado a la conexión, en el que una sesión es empezada con un Destino, y
terminada cuando la transferencia de datos se completa. Cada nodo participa
activamente en la transmisión, pero sesiones similares requieren un tiempo de
configuración y monitoreo en ambas estaciones.
Servicios de reconocimiento orientado a conexiones. Similares al anterior, del que
son reconocidos los paquetes de transmisión.
Servicio de conexión sin reconocimiento. En el cual no se define una sesión. Los
paquetes son puramente enviados a su destino. Los protocolos de alto nivel son
responsables de solicitar el reenvío de paquetes que se hayan perdido. Este es el
servicio normal en redes de área local (LAN’s), por su alta confiabilidad.
IEEE creó la subcapa de enlace lógico para permitir que parte de la capa de enlace de datos funcionara
independientemente de las tecnologías existentes. Esta capa proporciona versatilidad en los servicios de
los protocolos de la capa de red que está sobre ella, mientras se comunica de forma efectiva con las
diversas tecnologías que están por debajo. El LLC, como subcapa, participa en el proceso de
encapsulamiento. La PDU del LLC a veces se denomina paquete LLC, pero éste no es un término que se
utiliza con frecuencia.
El LLC transporta los datos de protocolo de la red, un paquete IP, y agrega más información de control
para ayudar a entregar ese paquete IP en el destino. Agrega dos componentes de direccionamiento de la
especificación 802.2: el Punto de acceso al servicio destino (DSAP) y el Punto de acceso al servicio
fuente (SSAP). Luego este paquete IP reempaquetado viaja hacia la subcapa MAC para que la
tecnología específica requerida le adicione datos y lo encapsule. Un ejemplo de esta tecnología
específica puede ser una de las variedades de Ethernet, Token Ring o FDDI.
La subcapa LLC de la capa de enlace de datos administra la comunicación entre los dispositivos a través
de un solo enlace a una red. LLC se define en la especificación IEEE 802.2 y soporta tanto servicios
orientados a conexión como servicios no orientados a conexión, utilizados por los protocolos de las capas
superiores. IEEE 802.2 define una serie de campos en las tramas de la capa de enlace de datos que
permiten que múltiples protocolos de las capas superiores compartan un solo enlace de datos físico.
3.3.4 802.3 Ethernet.
802.3 Redes CSMA/CD. El estándar 802.3 del IEEE (ISO 8802-3), que define cómo opera el
método de Acceso Múltiple con Detección de Colisiones (CSMA/CD) sobre varios medios. El
estándar define la conexión de redes sobre cable coaxial, cable de par trenzado, y medios de
fibra óptica. La tasa de transmisión original es de 10 Mbits/seg, pero nuevas
implementaciones transmiten arriba de los 100 Mbits/seg calidad de datos en cables de par
trenzado.
Ethernet es la tecnología de red de área local (LAN) de uso más generalizado. El diseño original de Ethernet representaba un
punto medio entre las redes de larga distancia y baja velocidad y las redes especializadas de las salas de computadores, que
transportaban datos a altas velocidades y a distancias muy limitadas. Ethernet se adecua bien a las aplicaciones en las que un
medio de comunicación local debe transportar tráfico esporádico y ocasionalmente pesado, a velocidades muy elevadas.
La arquitectura de red Ethernet tiene su origen en la década de los '60 en la Universidad de Hawai, donde se desarrolló el
método de acceso utilizado por Ethernet, o sea, el CSM/CD (acceso múltiple con detección de portadora y detección de
colisiones. El centro de investigaciones PARC (Palo Alto Research Center) de Xerox Corporation desarrolló el primer sistema
Ethernet experimental a principios del decenio 1970-80. Este sistema sirvió como base de la especificación 802.3 publicada en
1980 por el Instituto de Ingeniería Eléctrica y Electrónica (Institute of Electrical and Electronic Engineers (IEEE)).
Poco después de la publicación de la especificación IEEE 802.3 en 1980, Digital Equipment Corporation, Intel Corporation y
Xerox Corporation desarrollaron y publicaron conjuntamente una especificación Ethernet denominada "Versión 2.0" que era
sustancialmente compatible con la IEEE 802.3. En la actualidad, Ethernet e IEEE 802.3 retienen en conjunto la mayor parte del
mercado de protocolos de LAN. Hoy en día, el término Ethernet a menudo se usa para referirse a todas las LAN de acceso
múltiple con detección de portadora y detección de colisiones (CSMA/CD), que generalmente cumplen con las especificaciones
Ethernet, incluyendo IEEE 802.3.
Ethernet e IEEE 802.3 especifican tecnologías similares; ambas son LAN de tipo CSMA/CD. Las estaciones de una LAN de tipo
CSMA/CD pueden acceder a la red en cualquier momento. Antes de enviar datos, las estaciones CSMA/CD escuchan a la red
para determinar si se encuentra en uso. Si lo está, entonces esperan. Si la red no se encuentra en uso, las estaciones
comienzan a transmitir. Una colisión se produce cuando dos estaciones escuchan para saber si hay tráfico de red, no lo detectan
y, acto seguido transmiten de forma simultánea. En este caso, ambas transmisiones se dañan y las estaciones deben volver a
transmitir más tarde. Los algoritmos de postergación determinan el momento en que las estaciones que han tenido una colisión
pueden volver a transmitir. Las estaciones CSMA/CD pueden detectar colisiones, de modo que saben en qué momento pueden
volver a transmitir.
Tanto las LAN Ethernet como las LAN IEEE 802.3 son redes de broadcast. Esto significa que cada estación puede ver todas las
tramas, aunque una estación determinada no sea el destino propuesto para esos datos. Cada estación debe examinar las
tramas que recibe para determinar si corresponden al destino. De ser así, la trama pasa a una capa de protocolo superior dentro
de la estación para su adecuado procesamiento.
Existen diferencias sutiles entre las LAN Ethernet e IEEE 802.3. Ethernet proporciona servicios que corresponden a las Capas 1
y 2 del modelo de referencia OSI. IEEE 802.3 especifica la capa física, la Capa 1 y la porción de acceso al canal de la capa de
enlace de datos, la Capa 2, pero no define un protocolo de Control de Enlace Lógico. Tanto Ethernet como IEEE 802.3 se
implementan a través del hardware. Normalmente, el componente físico de estos protocolos es una tarjeta de interfaz en un
computador host o son circuitos de una placa de circuito impreso dentro de un host.
Formato de trama Ethernet
Los campos de trama Ethernet e IEEE 802.3 se describen en los siguientes resúmenes:

preámbulo: El patrón de unos y ceros alternados les indica a las estaciones receptoras que una trama es Ethernet o
IEEE 802.3. La trama Ethernet incluye un byte adicional que es el equivalente al campo Inicio de trama (SOF) de la trama IEEE
802.3.

inicio de trama (SOF): El byte delimitador de IEEE 802.3 finaliza con dos bits 1 consecutivos, que sirven para
sincronizar las porciones de recepción de trama de todas las estaciones de la LAN. SOF se especifica explícitamente en
Ethernet.

direcciones destino y origen: Los primeros 3 bytes de las direcciones son especificados por IEEE según el proveedor o
fabricante. El proveedor de Ethernet o IEEE 802.3 especifica los últimos 3 bytes. La dirección origen siempre es una dirección
unicast (de nodo único). La dirección destino puede ser unicast, multicast (grupo de nodos) o de broadcast (todos los nodos).

tipo (Ethernet): El tipo especifica el protocolo de capa superior que recibe los datos una vez que se ha completado el
procesamiento Ethernet.

longitud (IEEE 802.3): La longitud indica la cantidad de bytes de datos que sigue este campo.

datos (Ethernet): Una vez que se ha completado el procesamiento de la capa física y de la capa de enlace, los datos
contenidos en la trama se envían a un protocolo de capa superior, que se identifica en el campo tipo. Aunque la versión 2 de
Ethernet no especifica ningún relleno, al contrario de lo que sucede con IEEE 802.3, Ethernet espera por lo menos 46 bytes de
datos.

datos (IEEE 802.3): Una vez que se ha completado el procesamiento de la capa física y de la capa de enlace, los
datos se envían a un protocolo de capa superior, que debe estar definido dentro de la porción de datos de la trama. Si los datos
de la trama no son suficientes para llenar la trama hasta una cantidad mínima de 64 bytes, se insertan bytes de relleno para
asegurar que por lo menos haya una trama de 64 bytes.

secuencia de verificación de trama (FCS): Esta secuencia contiene un valor de verificación CRC de 4 bytes, creado por
el dispositivo emisor y recalculado por el dispositivo receptor para verificar la existencia de tramas dañadas.
3.3.5 802.4 Token Bus.
802.4 Redes Token Bus. El estándar token bus define esquemas de red de anchos de banda
grandes, usados en la industria de manufactura. Se deriva del Protocolo de Automatización
de Manufactura (MAP). La red implementa el método token-passing para una transmisión
bus. Un token es pasado de una estación a la siguiente en la red y la estación puede
transmitir manteniendo el token. Los tokens son pasados en orden lógico basado en la
dirección del nodo, pero este orden puede no relacionar la posición física del nodo como se
hace en una red token ring. El estándar no es ampliamente implementado en ambientes
LAN.
Token Bus. Para el token bus, las estaciones en el bus o árbol forman un anillo lógico; esto es, a las estaciones se les
asigna posiciones lógicas en una secuencia ordenada, con el último miembro seguido por el primero. Cada estación
conoce la identidad de la estación que lo precede y lo sigue. El orden físico de las estaciones en el bus es irrelevante
e independiente del ordenamiento lógico.
El token, o estafeta, regula el derecho de acceso. El token contiene una dirección destino. La estación que posee el
token tiene control al medio por un tiempo especificado. La estación debe transmitir uno o más paquetes y puede
consultar estaciones y recibir respuestas. Cuando la estación termina, o el tiempo ha expirado, pasa el token a la
siguiente estación en la secuencia lógica. Esta siguiente estación tiene ahora permiso para transmitir. Entonces, la
operación normal consiste en fases alternas de transferencia de datos y de token. Adicionalmente, estaciones que no
usan el token y que están autorizadas en el bus, sólo pueden responder a consultas o solicitudes de confirmación.
ESTÁNDAR IEEE 802.4: TOKEN BUS
Cuando se desarrollaba el estándar ethernet algunas grandes empresas interesadas en la automatización de fábricas
tenían serias dudas de la viabilidad de su aplicación a sistemas en tiempo real. La razón principal de este reparo
estaba en el comportamiento no determinista de Ethernet, en principio cabía la posibilidad de que dos ordenadores no
pudieran comunicarse debido al exceso de tráfico en la red. No había un límite superior al caso más desfavorable.
Además, no era posible reservar capacidad o establecer prioridades.
Token Ring resolvía muchos de los problemas que se le achacaban a Ethernet, pero seguía presentando dos
inconvenientes serios: el papel de la estación monitor resultaba demasiado importante, y muchas cosas podían fallar
si el monitor dejaba de funcionar o se volvía loco. Además, una topología en bus era mas adecuada que un anillo
para la cadena de montaje de una fábrica.
En un intento por resolver estos inconvenientes, General Motors promovió el desarrollo del estándar 802.4, también
llamado Token Bus. Esta red se utiliza en algunas fábricas para el control de la maquinaria. Su uso es mucho más
restringido que Ethernet o Token Ring, por lo que sólo la describiremos muy brevemente.
De una manera muy simplista podemos decir que Token Bus es un híbrido entre Ethernet y Token Ring, si bien
guarda mucho más parecido con esta última red. Tiene topología de bus. Las velocidades pueden ser de 1, 5 o 10
Mb/s. La señal se transmite de forma analógica sobre cable coaxial de 75 ohmios. El medio físico es completamente
incompatible con Ethernet y mucho más complejo y caro.
El protocolo MAC es más parecido a Token Ring. Aunque la topología física es de bus las estaciones constituyen un
anillo lógico sobre el que va pasando el token. Existe un mecanismo de prioridades. La trama puede tener un tamaño
de hasta 8190 bytes. Aunque hay un mecanismo de mantenimiento del anillo (generación del token, labores limpieza
de tramas perdidas, etc.) no existe una estación omnipotente equivalente al monitor de Token Ring.
Al igual que Token Ring, Token Bus utiliza un protocolo sin colisiones por lo que puede llegar a tener un
rendimiento muy cercano a su límite teórico.
3.3.6 802.5 Token Ring.
802.5 Redes Token Ring. También llamado ANSI 802.1-1985, define los protocolos de
acceso, cableado e interface para la LAN token ring. IBM hizo popular este estándar. Usa un
método de acceso de paso de tokens y es físicamente conectada en topología estrella, pero
lógicamente forma un anillo. Los nodos son conectados a una unidad de acceso central
(concentrador) que repite las señales de una estación a la siguiente. Las unidades de acceso
son conectadas para expandir la red, que amplía el anillo lógico. La Interface de Datos en
Fibra Distribuida (FDDI) fue basada en el protocolo token ring 802.5, pero fue desarrollado
por el Comité de Acreditación de Estándares (ASC) X3T9.
Es compatible con la capa 802.2 de Control de Enlaces Lógicos y por consiguiente otros
estándares de red 802.
IBM desarrolló la primera red Token Ring en los años setenta. Todavía sigue siendo la tecnología de LAN
principal de IBM, y desde el punto de vista de implementación de LAN ocupa el segundo lugar después
de Ethernet (IEEE 802.3). La especificación IEEE 802.5 es prácticamente idéntica a la red Token Ring de
IBM, y absolutamente compatible con ella. La especificación IEEE 802.5 se basó en el Token Ring de
IBM y se ha venido evolucionando en paralelo con este estándar. El término Token Ring se refiere tanto
al Token Ring de IBM como a la especificación 802.5 del IEEE. En el gráfico principal se destacan las
similitudes y diferencias principales entre los dos estándares.
Formato de trama Token Ring
Tokens
Los tokens tienen una longitud de 3 bytes y están formados por un delimitador de inicio, un byte de control de acceso y un
delimitador de fin. El delimitador de inicio informa a cada estación de la llegada de un token o de una trama de datos/comandos.
Este campo también incluye señales que distinguen al byte del resto de la trama al violar el esquema de codificación que se usa
en otras partes de la trama.
Byte de control de acceso
El byte de control de acceso contiene los campos de prioridad y de reserva, así como un bit de token y uno de monitor. El bit de
token distingue un token de una trama de datos/comandos y un bit de monitor determina si una trama gira continuamente
alrededor del anillo. . El delimitador de fin señala el final del token o de la trama de datos/comandos. Contiene bits que indican si
hay una trama defectuosa y una trama que es la última de una secuencia lógica.
Tramas de datos/comandos
El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de datos transportan
información para los protocolos de capa superior; las tramas de instrucciones contienen información de control y no poseen
datos para los protocolos de capa superior.
En las tramas de datos/comandos, un byte de control de trama sigue al byte de control de acceso. El byte de control de trama
indica si la trama contiene datos o información de control. En las tramas de control, este byte especifica el tipo de información de
control.
A continuación del byte de control de trama hay dos campos de dirección que identifican las estaciones destino y origen. Como
en el caso de IEEE 802.5, la longitud de las direcciones es de 6 bytes. El campo de datos está ubicado a continuación del campo
de dirección. La longitud de este campo está limitada por el token de anillo que mantiene el tiempo, definiendo de este modo el
tiempo máximo durante el cual una estación puede retener al token.
A continuación del campo de datos se ubica el campo de secuencia de verificación de trama (FCS). La estación origen completa
este campo con un valor calculado según el contenido de la trama. La estación destino vuelve a calcular el valor para determinar
si la trama se ha dañado mientras estaba en tránsito. Si la trama está dañada se descarta. Al igual que con el token, el
delimitador de fin completa
Token Ring. La técnica token ring está basada en el uso de un paquete token (estafeta) que circula en un anillo
cuando todas las estaciones están ociosas. Una estación que desee transmitir debe esperar hasta que detecta un token
pasando por su nodo. Entonces se apodera del token cambiándole un bit en el token, lo cual lo convierte en una
secuencia de inicio de paquete para un paquete de datos. La estación agrega y transmite el resto de los campos (como
la dirección destino) necesarios para construir el paquete de datos. Ya no hay token en el anillo, así que otras
estaciones que esperen el token para transmitir, tendrán que esperar. El paquete en el anillo hace un viaje redondo y
es purgado en la estación transmisora. La estación transmisora inserta un token nuevo en el anillo después de que ha
terminado la transmisión de su paquete. Una vez que un nuevo token ha sido insertado en el anillo, la siguiente
estación con paquete de datos por enviar captura el token y empieza a transmitir.
ESTÁNDAR IEEE 802.5: TOKEN RING
Con cierto retraso respecto a los experimentos de Xerox con Ethernet, IBM estaba
experimentando con un protocolo MAC denominado Token Ring (anillo con paso de testigo).
Este protocolo también fue estandarizado por el IEEE con el número 802.5, si bien su
desarrollo comercial fue algo más lento que el de 802.3; los primeros productos comerciales
de Token Ring aparecieron en 1986. Existen tres variantes de Token Ring: a 1, 4 y 16 Mb/s;
las de 4 y 16 Mb/s son las más utilizadas (la de 1 Mb/s ha sido suprimida del estándar).
El cableado utilizado es STP o UTP de categoría 3 o superior para 4 Mb/s, y STP para 16 Mb/s. La señal se
representa usando codificación Manchester diferencial, con señales de +3,0 y -4,5voltios. La codificación
Manchester diferencial emplea la presencia o ausencia de transición entre dos voltajes para indicar un 0 o un 1,
respectivamente. Requiere un equipo mas caro y complejo que la codificación Manchester, pero es mas inmune al
ruido y esta mejor adaptada al uso de cable de pares, ya que no tiene problemas de polaridad invertida como ocurre
con Manchester (a diferencia de Ethernet el cable de pares fue previsto en Token Ring ya en el diseño original).
En las redes tipo bus (como 802.3) la fiabilidad depende de la continuidad del cable, que pasa por todas las
estaciones y puede ser motivo de manipulaciones no autorizadas. Este problema se resolvió en 802.3 con el cableado
10BASE-T, que manteniendo la topología lógica de bus utiliza un cableado en estrella. En el caso de topologías en
anillo como Token Ring el problema es similar, ya que la rotura del anillo en un punto impide la comunicación. Para
evitar este problema en Token Ring lo que se hace es colapsar el anillo en un hub o concentrador, también llamado
centro de cableado, al cual se conectan los cables de entrada y salida de cada estación. El cableado sigue siendo
lógicamente un anillo, aún cuando físicamente sea una estrella. En el concentrador se instalan relés de derivación
(bypass) alimentados por la estación correspondiente, de forma que si la conexión de ésta falla el relé cortocircuita la
conexión correspondiente restaurando así el anillo. En la práctica la topología física no es muy diferente a la de una
red Ethernet. Una red Token Ring puede estar formada por varios concentradores interconectados, lo cual permite
reducir apreciablemente la cantidad de cable necesario. También es posible constituir dobles anillos para tener mayor
fiabilidad, pues en caso de corte por un punto el doble anillo puede cerrarse sobre sí mismo superando el problema.
Aunque la topología física de cableado pueda estar formada por varios anillos o estrellas interconectadas, desde el
punto de vista del protocolo una red Token Ring está formada siempre por un único anillo lógico.
3.3.7 802.6 FDDI.
A mediados de los años ochenta, las estaciones de trabajo de alta velocidad para uso en ingeniería
habían llevado las capacidades de las tecnologías Ethernet y Token Ring existentes hasta el límite de sus
posibilidades. Los ingenieros necesitaban una LAN que pudiera soportar sus estaciones de trabajo y las
nuevas aplicaciones. Al mismo tiempo, los administradores de sistemas comenzaron a ocuparse de los
problemas de confiabilidad de la red ya que se implementaban aplicaciones críticas de las empresas en
las redes de alta velocidad.
Para solucionar estos problemas, la comisión normalizadora ANSI X3T9.5 creó el estándar Interfaz de
datos distribuida por fibra (FDDI) . Después de completar las especificaciones, el ANSI envió la FDDI a la
Organización Internacional de Normalización (ISO), la cual creó entonces una versión internacional de
dicha interfaz que es absolutamente compatible con la versión estándar del ANSI.
Aunque en la actualidad las implementaciones de la FDDI en la actualidad no son tan comunes como
Ethernet o Token Ring, la FDDI tiene muchos seguidores y continúa creciendo a medida que su costo
disminuye. La FDDI se usa con frecuencia como una tecnología backbone y para conectar los
computadores de alta velocidad en una LAN.
FDDI tiene cuatro especificaciones:
1. Control de acceso al medio (MAC): Define la forma en que se accede al medio, incluyendo:
 formato de trama
 tratamiento del token
 direccionamiento
 algoritmo para calcular una verificación por redundancia cíclica y mecanismos de
recuperación de errores
2. Protocolo de capa física (PHY): define los procedimientos de codificación o decodificación,
incluyendo:
 requisitos de reloj
 entramado
 otras funciones
3. Medio de capa física (PMD): Define las características del medio de transmisión, incluyendo:
 enlace de fibra óptica
 niveles de potencia
 tasas de error en bits
 componentes ópticos
 conectores
4. Administración de estaciones(SMT): define la configuración de la estación FDDI, incluyendo:
 configuración del anillo






características de control del anillo
inserción y eliminación de una estación
inicialización
aislamiento y recuperación de fallas
programación
recopilación de estadísticas
Formato de FDDI
Los campos de una trama FDDI son los siguientes:

preámbulo: Prepara cada estación para recibir la trama entrante

delimitador de inicio: indica el comienzo de una trama, y está formado por patrones de señalización que lo distinguen
del resto de la trama

control de trama: indica el tamaño de los campos de dirección, si la trama contiene datos asíncronos o síncronos y otra
información de control

dirección destino: contiene una dirección unicast (singular), multicast (grupal) o broadcast (toda estación); las
direcciones destino tienen 6 bytes (por ejemplo, Ethernet y Token Ring)

dirección origen: identifica la estación individual que envió la trama. Las direcciones origen tienen 6 bytes (como
Ethernet y Token Ring)

datos: información de control, o información destinada a un protocolo de capa superior

secuencia de verificación de trama (FCS): la estación origen la completa con una verificación por redundancia cíclica
(CRC) calculada, cuyo valor depende del contenido de la trama (como en el caso de Token Ring y Ethernet). La estación destino
vuelve a calcular el valor para determinar si la trama se ha dañado durante el tránsito. La trama se descarta si está dañada.

delimitador de fin: contiene símbolos que no son datos que indican el fin de la trama

estado de la trama: permite que la estación origen determine si se ha producido un error y si la estación receptora
reconoció y copió la trama
FDDI (Fiber Distributed Data Interface)
FDDI funciona a 100 Mb/s. El estándar correspondiente fue definido inicialmente por ANSI y más tarde adoptado
por ISO como el estándar internacional ISO 9314. No se trata pues de un estándar IEEE, aunque sigue su misma
arquitectura. Análogamente a los otros estándares, el documento describe la capa física y la subcapa MAC. Para la
parte LLC se utiliza el estándar IEEE 802.2.
Las características de velocidad, distancia y fiabilidad de FDDI la convirtieron durante algún tiempo en la red ideal
para ser utilizada como columna vertebral (backbone) que concentre las redes locales de una gran organización,
como una fábrica o un campus universitario.
FDDI tiene muchos elementos comunes con Token Ring, y en cierta medida puede considerarse una evolución de
aquella tecnología. La topología es de doble anillo para aumentar la seguridad, no la velocidad. En condiciones
normales un token gira por cada anillo en sentido opuesto. Las estaciones pueden ser SAS (Single Attach Station) si
están enchufadas a un anillo únicamente, o DAS (Dual Attach Station) si lo están a ambos. Si se produce un corte en
los anillos las estaciones DAS más próximas a cada lado del corte unen entre sí ambos anillos, con lo que se crea un
anillo de mayor longitud que permite mantener conectados todos los ordenadores. En el caso de producirse un
segundo corte en otro punto del anillo se crean dos anillos aislados, cada uno de los cuales puede seguir funcionando.
Las interfaces DAS son más caras que las SAS, pero dan una mayor tolerancia a fallos al permitir cerrar el anillo.
El medio físico de transmisión es fibra óptica multimodo o cable de cobre UTP Categoría 5. En ocasiones la FDDI
de cobre se denomina CDDI (Copper Distributed Data Interface), aunque realmente este nombre corresponde a una
implementación antigua, no estándar; el nombre correcto del estándar en cable de cobre es TP-PMD (Twisted PairPhysical Media Dependent). En este caso se utiliza una topología física similar a la de 10Base-T, con los
ordenadores conectados a concentradores. La distancia máxima del ordenador al concentrador es de 100 metros.
También es posible utilizar concentradores para la conexión de ordenadores por fibra óptica.
FDDI puede considerarse una versión evolucionada de Token Ring en muchos de sus aspectos. No se utiliza
señalización Manchester ya que esto supondría 200 Mbaudios, lo cual hubiera requerido una electrónica demasiado
cara en las tarjetas de red. En su lugar se diseñó una codificación denominada 4B5B, que también se utilizó mas
tarde en Iso-Ethernet y Fast Ethernet. De esta forma la interfaz física funciona a 125 Mbaudios.
La codificación 4B5B ahorra ancho de banda, pero pierde la característica de autosincronismo que tenía la
codificación Manchester. Para compensar este inconveniente se introduce un largo preámbulo de al menos 16
símbolos (90 bits) al principio de la trama o del token.
La estructura de una trama y token FDDI es muy similar a los de Token Ring. La longitud máxima del campo datos
puede ser de hasta 4500 bytes.
El protocolo MAC de FDDI es también muy parecido al de Token Ring. La diferencia más notable es que en FDDI
siempre se funciona con el principio de Early Token Release, es decir, la estación emisora no espera a escuchar su
propia trama para restaurar el token. Existe también un token-holding timer que establece el tiempo máximo que una
estación puede transmitir de una vez. Este parámetro tiene importantes consecuencias en el rendimiento de la red; el
valor por defecto de 4 ms es adecuado en la mayoría de las situaciones, excepto en las redes muy grandes (más de 20
Km) en que es conveniente aumentarlo.
Existe una versión modificada de FDDI, denominada FDDI-II, que permite manejar tráfico isócrono (voz, vídeo y
datos en tiempo real). Para la transmisión de este tipo de tráfico FDDI-II define una trama especial, denominada
trama síncrona, que se emite cada 125 s por un ordenador que actúa como maestro; una trama síncrona contiene 96
bytes de información útil, equivalentes a 6,144 Mb/s, que con la información de cabecera ocupan 6,25 Mb/s . Este
ancho de banda queda reservado para la estación maestra y no puede ser utilizado para tramas asíncronas (es decir,
normales). La estación maestra puede reservar espacio para tramas síncronas adicionales, hasta un máximo de 16,
con lo que toda la capacidad de la red quedaría reservado para tráfico síncrono. En resumen, en FDDI-II coexiste
TDM con un canal compartido en el mismo medio físico. En cierto modo es algo parecido a Iso-Ethernet, salvo que
aquí en vez de usar capacidad adicional se 'roba' parte de la capacidad normal. Para poder utilizar FDDI-II es preciso
que todas las estaciones del anillo soporten el funcionamiento en modo híbrido, es decir, la coexistencia de tramas
síncronas con tramas asíncronas.
El desarrollo de FDDI-II ha quedado prácticamente congelado con la aparición de ATM en redes locales, ya que
ATM ofrece el mismo tipo de servicios de forma mas flexible y a un precio inferior.
Hasta 1995-1996 FDDI era la principal tecnología de red de alta velocidad; sin embargo su grado de implantación
siempre ha sido escaso. La principal razón de esto ha sido su elevado costo comparado con las redes locales más
tradicionales, como Ethernet o Token Ring. Hoy en día ha sido completamente superada por Fast Ethernet y Gigabit
Ethernet.
3.3.8 802.11 LAN inalámbricas.
802.11 Redes Inalámbricas. Este comité esta definiendo estándares para redes
inalámbricas. Esta trabajando en la estandarización de medios como el radio de espectro de
expansión, radio de banda angosta, infrarrojo, y transmisión sobre líneas de energía. Dos
enfoques para redes inalámbricas se han planeado. En el enfoque distribuido, cada estación
de trabajo controla su acceso a la red. En el enfoque de punto de coordinación, un hub
central enlazado a una red alámbrica controla la transmisión de estaciones de trabajo
inalámbricas.
Una red con cable está dotada de una seguridad inherente en cuanto a que un posible ladrón
de datos debe obtener acceso a la red a través de una conexión por cable, lo que
normalmente significa el acceso físico a la red de cables. Sobre este acceso físico se pueden
superponer otros mecanismos de seguridad.
Cuando la red ya no se sustenta con cables, la libertad que obtienen los usuarios también se
hace extensiva al posible ladrón de datos. Ahora, la red puede estar disponible en
vestíbulos, salas de espera inseguras, e incluso fuera del edificio. En un entorno doméstico,
la red podría extenderse hasta los hogares vecinos si el dispositivo de red no adopta o no
utiliza correctamente los mecanismos de seguridad.
Desde sus comienzos, 802.11 ha proporcionado algunos mecanismos de seguridad básicos
para impedir que esta libertad mejorada sea una posible amenaza. Por ejemplo, los puntos
de acceso (o conjuntos de puntos de acceso) 802.11 se pueden configurar con un
identificador del conjunto de servicios (SSID). La tarjeta NIC también debe conocer este
SSID para asociarlo al AP y así proceder a la transmisión y recepción de datos en la red.
Esta seguridad, si se llegase a considerar como tal, es muy débil debido a estas razones:




Todas las tarjetas NIC y todos los AP conocen perfectamente el SSID
El SSID se envía por ondas de manera transparente (incluso es señalizado por el AP)
La tarjeta NIC o el controlador pueden controlar localmente si se permite la
asociación en caso de que el SSID no se conozca
No se proporciona ningún tipo de cifrado a través de este esquema
Aunque este esquema puede plantear otros problemas, esto es suficiente para detener al
intruso más despreocupado.
Las especificaciones 802.11 proporcionan seguridad adicional mediante el algoritmo WEP
(Wired Equivalent Privacy). WEP proporciona a 802.11 servicios de autenticación y cifrado.
El algoritmo WEP define el uso de una clave secreta de 40 bits para la autenticación y el
cifrado, y muchas implementaciones de IEEE 802.11 también permiten claves secretas de
104 bits. Este algoritmo proporciona la mayor parte de la protección contra la escucha y
atributos de seguridad física que son comparables a una red con cable.
Una limitación importante de este mecanismo de seguridad es que el estándar no define un
protocolo de administración de claves para la distribución de las mismas. Esto supone que
las claves secretas compartidas se entregan a la estación inalámbrica IEEE 802.11 a través
de un canal seguro independiente del IEEE 802.11. El reto aumenta cuando están implicadas
un gran número de estaciones, como es el caso de un campus corporativo.
Para proporcionar un mecanismo mejor para el control de acceso y la seguridad, es
necesario incluir un protocolo de administración de claves en la especificación. Para hacer
frente a este problema se creó específicamente el estándar 802.1x
3.4 Arquitectura de protocolos.
3.4.1 TCP/IP.
Aunque el modelo de referencia OSI sea universalmente reconocido, el estándar abierto de Internet
desde el punto de vista histórico y técnico es el Protocolo de control de transmisión/Protocolo Internet
(TCP/IP). El modelo de referencia TCP/IP y la pila de protocolo TCP/IP hacen que sea posible la
comunicación entre dos computadores, desde cualquier parte del mundo, a casi la velocidad de la luz. El
modelo TCP/IP tiene importancia histórica, al igual que las normas que permitieron el desarrollo de la
industria telefónica, de energía eléctrica, el ferrocarril, la televisión y las industrias de vídeos.
Las capas del modelo de referencia TCP/IP
El Departamento de Defensa de EE.UU. (DoD) creó el modelo TCP/IP porque necesitaba una red que
pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear. Para brindar un ejemplo más
amplio, supongamos que el mundo está en estado de guerra, atravesado en todas direcciones por
distintos tipos de conexiones: cables, microondas, fibras ópticas y enlaces satelitales. Imaginemos
entonces que se necesita que fluya la información o los datos (organizados en forma de paquetes),
independientemente de la condición de cualquier nodo o red en particular de la internetwork (que en este
caso podrían haber sido destruidos por la guerra). El DoD desea que sus paquetes lleguen a destino
siempre, bajo cualquier condición, desde un punto determinado hasta cualquier otro. Este problema de
diseño de difícil solución fue lo que llevó a la creación del modelo TCP/IP, que desde entonces se
transformó en el estándar a partir del cual se desarrolló Internet.
A medida que obtenga más información acerca de las capas, tenga en cuenta el propósito original de
Internet; esto le ayudará a entender por qué motivo ciertas cosas son como son. El modelo TCP/IP tiene
cuatro capas: la capa de aplicación, la capa de transporte, la capa de Internety la capa de acceso de red.
Es importante observar que algunas de las capas del modelo TCP/IP poseen el mismo nombre que las
capas del modelo OSI. No confunda las capas de los dos modelos, porque la capa de aplicación tiene
diferentes funciones en cada modelo.
Capa de aplicación
Los diseñadores de TCP/IP sintieron que los protocolos de nivel superior deberían incluir los detalles de
las capas de sesión y presentación. Simplemente crearon una capa de aplicación que maneja protocolos
de alto nivel, aspectos de representación, codificación y control de diálogo. El modelo TCP/IP combina
todos los aspectos relacionados con las aplicaciones en una sola capa y garantiza que estos datos estén
correctamente empaquetados para la siguiente capa.
Capa de transporte
La capa de transporte se refiere a los aspectos de calidad del servicio con respecto a la confiabilidad, el
control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo para el control de la
transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red
confiables, sin problemas de flujo y con un nivel de error bajo. TCP es un protocolo orientado a la
conexión. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa
de aplicación en unidades denominadas segmentos. Orientado a la conexión no significa que el circuito
exista entre los computadores que se están comunicando (esto sería una conmutación de circuito).
Significa que los segmentos de Capa 4 viajan de un lado a otro entre dos hosts para comprobar que la
conexión exista lógicamente para un determinado período. Esto se conoce como conmutación de
paquetes.
Capa de Internet
El propósito de la capa de Internet es enviar paquetes origen desde cualquier red en la internetwork y que
estos paquetes lleguen a su destino independientemente de la ruta y de las redes que recorrieron para
llegar hasta allí. El protocolo específico que rige esta capa se denomina Protocolo Internet (IP). En esta
capa se produce la determinación de la mejor ruta y la conmutación de paquetes. Esto se puede
comparar con el sistema postal. Cuando envía una carta por correo, usted no sabe cómo llega a destino
(existen varias rutas posibles); lo que le interesa es que la carta llegue.
Capa de acceso de red
El nombre de esta capa es muy amplio y se presta a confusión. También se denomina capa de host a
red. Es la capa que se ocupa de todos los aspectos que requiere un paquete IP para realizar realmente
un enlace físico y luego realizar otro enlace físico. Esta capa incluye los detalles de tecnología LAN y
WAN y todos los detalles de las capas física y de enlace de datos del modelo OSI.
Protocolo TCP/IP
La suite TCP/IP
Internet es un conglomerado muy amplio y extenso en el que se encuentran ordenadores con sistemas
operativos incompatibles, redes más pequeñas y distintos servicios con su propio conjunto de protocolos
para la comunicación. Ante tanta diversidad resulta necesario establecer un conjunto de reglas comunes
para la comunicación entre estos diferentes elementos y que además optimice la utilización de recursos
tan distantes. Este papel lo tiene el protocolo TCP/IP. TCP/IP también puede usarse como protocolo de
comunicación en las redes privadas intranet y extranet.
Las siglas TCP/IP se refieren a dos protocolos de red, que son Transmission Control Protocol (Protocolo
de Control de Transmisión) e Internet Protocol (Protocolo de Internet) respectivamente. Estos protocolos
pertenecen a un conjunto mayor de protocolos. Dicho conjunto se denomina suite TCP/IP.
Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente para proporcionar el transporte de
datos dentro de Internet (o Intranet). En otras palabras, hacen posible que accedamos a los distintos
servicios de la Red. Estos servicios incluyen, como se comento en el capítulo 1: transmisión de correo
electrónico, transferencia de ficheros, grupos de noticias, acceso a la World Wide Web, etc.
Hay dos clases de protocolos dentro de la suite TCP/IP que son: protocolos a nivel de red y protocolos a
nivel de aplicacion.
Protocolos a Nivel de Red
Estos protocolos se encargan de controlar los mecanismos de transferencia de datos. Normalmente son
invisibles para el usuario y operan por debajo de la superficie del sistema. Dentro de estos protocolos
tenemos:
TCP. Controla la división de la información en unidades individuales de datos (llamadas paquetes)
para que estos paquetes sean encaminados de la forma más eficiente hacia su punto de destino. En
dicho punto, TCP se encargará de reensamblar dichos paquetes para reconstruir el fichero o mensaje
que se envió. Por ejemplo, cuando se nos envía un fichero HTML desde un servidor Web, el protocolo
de control de transmisión en ese servidor divide el fichero en uno o más paquetes, numera dichos
paquetes y se los pasa al protocolo IP. Aunque cada paquete tenga la misma dirección IP de destino,
puede seguir una ruta diferente a través de la red. Del otro lado (el programa cliente en nuestro
ordenador), TCP reconstruye los paquetes individuales y espera hasta que hayan llegado todos para
presentárnoslos como un solo fichero.
IP. Se encarga de repartir los paquetes de información enviados entre el ordenador local y los
ordenadores remotos. Esto lo hace etiquetando los paquetes con una serie de información, entre la
que cabe destacar las direcciones IP de los dos ordenadores. Basándose en esta información, IP
garantiza que los datos se encaminarán al destino correcto. Los paquetes recorrerán la red hasta su
destino (que puede estar en el otro extremo del planeta) por el camino más corto posible gracias a
unos dispositivos denominados encaminadores o routers.
Protocolos a Nivel de Aplicación
Aquí tenemos los protocolos asociados a los distintos servicios de Internet, como FTP, Telnet, Gopher,
HTTP, etc. Estos protocolos son visibles para el usuario en alguna medida. Por ejemplo, el protocolo FTP
(File Transfer Protocol) es visible para el usuario. El usuario solicita una conexión a otro ordenador para
transferir un fichero, la conexión se establece, y comienza la transferencia. Durante dicha transferencia,
es visible parte del intercambio entre la máquina del usuario y la máquina remota (mensajes de error y de
estado de la transferencia, como por ejemplo cuantos bytes del fichero se han transferido en un momento
dado).
Breve Historia del Protocolo TCP/IP
A principios de los años 60, varios investigadores intentaban encontrar una forma de compartir recursos
informáticos de una forma más eficiente. En 1961, Leonard Klienrock introduce el concepto de
Conmutación de Paquetes (Packet Switching, en inglés). La idea era que la comunicación entre
ordenadores fuese dividida en paquetes. Cada paquete debería contener la dirección de destino y podría
encontrar su propio camino a través de la red.
Como ya comentamos en el capítulo anterior, en 1969 la Agencia de Proyectos de Investigación
Avanzada (Defense Advanced Research Projects Agency o DARPA) del Ejército de los EEUU desarrolla
la ARPAnet. La finalidad principal de esta red era la capacidad de resistir un ataque nuclear de la URSS
para lo que se pensó en una administración descentralizada. De este modo, si algunos ordenadores eran
destruidos, la red seguiría funcionando. Aunque dicha red funcionaba bien, estaba sujeta a algunas
caidas periódicas del sistema. De este modo, la expansión a largo plazo de esta red podría resultar difícil
y costosa. Se inició entonces una búsqueda de un conjunto de protocolos más fiables para la misma.
Dicha búsqueda finalizó, a mediados de los 70, con el desarrollo de TCP/IP.
TCP/IP tenia (y tiene) ventajas significativas respecto a otros protocolos. Por ejemplo, consume pocos
recusos de red. Además, podía ser implementado a un coste mucho menor que otras opciones
disponibles entonces. Gracias a estos aspectos, TCP/IP comenzó a hacerse popular. En 1983, TCP/IP se
integró en la versión 4.2 del sistema operativo UNIX de Berkeley y la integración en versiones
comerciales de UNIX vino pronto. Así es como TCP/IP se convirtió en el estándar de Internet.
En la actualidad, TCP/IP se usa para muchos propósitos, no solo en Internet. Por ejemplo, a menudo se
diseñan intranets usando TCP/IP. En tales entornos, TCP/IP ofrece ventajas significativas sobre otros
protocolos de red. Una de tales ventajas es que trabaja sobre una gran variedad de hardware y sistemas
operativos. De este modo puede crearse fácilmente una red heterogénea usando este protocolo. Dicha
red puede contener estaciones Mac, PC compatibles, estaciones Sun, servidores Novell, etc. Todos estos
elementos pueden comunicarse usando la misma suite de protocolos TCP/IP. La siguiente tabla muestra
una lista de plataformas que soportan TCP/IP:
Plataforma
Soporte de TCP/IP
UNIX
Nativo
DOS
Piper/IP por Ipswitch
Windows
TCPMAN por Trumpet Software
Windows 95
Nativo
Windows NT
Nativo
Macintosh
MacTCP u OpenTransport (Sys 7.5+)
OS/2
Nativo
AS/400 OS/400 Nativo
Las plataformas que no soportan TCP/IP nativamente lo implementan usando programas TCP/IP de
terceras partes, como puede apreciarse en la tabla anterior.
Cómo Trabaja TCP/IP
TCP/IP opera a través del uso de una pila. Dicha pila es la suma total de todos los protocolos necesarios
para completar una transferencia de datos entre dos máquinas (así como el camino que siguen los datos
para dejar una máquina o entrar en la otra). La pila está dividida en capas, como se ilustra en la figura
siguiente:
EQUIPO SERVIDOR O CLIENTE
|
Capa de
Cuando un usuario inicia una transferencia de datos,
Aplicaciones
esta capa pasa la solicitud a la Capa de Transporte.
|
Capa de
La Capa de Transporte añade una cabecera y pasa
Transporte
los datos a la Capa de Red.
|
Capa de
En la Capa de Red, se añaden las direcciones IP de
Red
origen y destino para el enrrutamiento de datos.
|
Capa de
Ejecuta un control de errores sobre el flujo de datos
Enlace de Datos entre los protocolos anteriores y la Capa Física.
|
Capa
Ingresa o engresa los datos a través del medio físico,
Física
que puede ser Ethernet vía coaxial, PPP vía módem, etc.
Después de que los datos han pasado a través del proceso ilustrado en la figura anterior, viajan a su
destino en otra máquina de la red. Allí, el proceso se ejecuta al revés (los datos entran por la capa física y
recorren la pila hacia arriba). Cada capa de la pila puede enviar y recibir datos desde la capa adyacente.
Cada capa está también asociada con múltiples protocolos que trabajan sobre los datos.
El Programa Inetd y los Puertos
Cada vez que una máquina solicita una conexión a otra, especifica una dirección particular. En general,
está dirección será la dirección IP Internet de dicha máquina. Pero hablando con más detalle, la máquina
solicitante especificará también la aplicación que está intentando alcanzar dicho destino. Esto involucra a
dos elementos: un programa llamado inetd y un sistema basado en puertos.
Inetd. Inetd pertenece a un grupo de programas llamados TSR (Terminate and stay resident). Dichos
programas siempre están en ejecución, a la espera de que se produzca algún suceso determinado en el
sistema. Cuando dicho suceso ocurre, el TSR lleva a cabo la tarea para la que está programado.
En el caso de inetd, su finalidad es estar a la espera de que se produzca alguna solicitud de conexión del
exterior. Cuando esto ocurre, inetd evalúa dicha solicitud determinando que servicio está solicitando la
máquina remota y le pasa el control a dicho servicio. Por ejemplo, si la máquina remota solicita una
página web, le pasará la solicitud al proceso del servidor Web.
En general, inetd es iniciado al arrancar el sistema y permanece residente (a la escucha) hasta que
apagamos el equipo o hasta que el operador del sistema finaliza expresamente dicho proceso.
Puertos. La mayoría de las aplicaciones TCP/IP tienen una filosofía de cliente-servidor. Cuando se recibe
una solicitud de conexión, inetd inicia un programa servidor que se encargará de comunicarse con la
máquina cliente. Para facilitar este proceso, a cada aplicación (FTP o Telnet, por ejemplo) se le asigna
una única dirección. Dicha dirección se llama puerto. Cuando se produce una solicitud de conexión a
dicho puerto, se ejecutará la aplicación correspondiente.
Aunque la asignación de puertos a los diferentes servicios es de libre elección para los administradores
de sistema, existe un estándar en este sentido que es conveniente seguir. La tabla que se muestra a
continuación presenta un listado de algunas asignaciones estándar:
Servicio o Aplicación
Puerto
File Transfer Protocol (FTP)
21
Telnet
23
Simple Mail Transfer Protocol (SMTP)
25
Gopher
70
Finger
79
Hypertext Transfer Protocol (HTTP)
80
Network News Transfer Protocol (NNTP) 119
Números IP
En el capítulo anterior vimos que una dirección IP consistía en cuatro números separados por puntos,
estando cada uno de ellos en el rango de 0 a 254. Por ejemplo, una dirección IP válida sería
193.146.85.34. Cada uno de los números decimales representa una cadena de ocho dígitos binarios. De
este modo, la dirección anterior sería realmente la cadena de ceros y unos:
11000001.10010010.01010101.00100010
NOTA: Podemos usar la Calculadora de Windows 95 para realizar las conversiones de binario-decimal y
viceversa.
La versión actual del protocolo IP (la versión 4 o IPv4) define de esta forma direcciones de 32 bits, lo que
quiere decir que hay 2^32 (4.294.967.296) direcciones IPv4 disponibles. Esto parece un gran número,
pero la apertura de nuevos mercados y el hecho de que un porcentaje significativo de la población
mundial sea candidato a tener una dirección IP, hacen que el número finito de direcciones pueda
agotarse eventualmente. Este problema se ve agravado por el hecho de que parte del espacio de
direccionamiento está mal asignado y no puede usarse a su máximo potencial.
Por otra parte, el gran crecimiento de Internet en los últimos años ha creado también dificultades para
encaminar el tráfico entre el número cada vez mayor de redes que la componen. Esto ha creado un
crecimiento exponencial del tamaño de las tablas de encaminamiento que se hacen cada vez más
difíciles de sostener.
Los problemas comentados se han solucionado en parte hasta la fecha introduciendo progresivos niveles
de jerarquía en el espacio de direcciones IP, que pasamos a comentar en los siguientes apartados. No
obstante, la solución a largo plazo de estos problemas pasa por desarrollar la próxima generación del
protocolo IP (IPng o IPv6) que puede alterar algunos de nuestros conceptos fundamentales acerca de
Internet.
Clasificación del Espacio de Direcciones
Cuando el protocolo IP se estandarizó en 1981, la especificación requería que a cada sistema conectado
a Internet se le asignase una única dirección IP de 32 bits. A algunos sistemas, como los routers, que
tienen interfaces a más de una red se les debía asignar una única dirección IP para cada interfaz de red.
La primera parte de una dirección IP identifica la red a la que pertenece el host, mientras que la segunda
identifica al propio host. Por ejemplo, en la dirección 135.146.91.26 tendríamos:
Prefijo de Red Número de Host
135.146
91.26
Esto crea una jerarquía del direccionamiento a dos niveles. Recordemos que la dirección es realmente
una cadena de 32 dígitos binarios, en la que en el ejemplo anterior hemos usado los 24 primeros para
identificar la red y los 8 últimos para identificar el host.
Clases Primarias de Direcciones. Con la finalidad de proveer la flexibilidad necesaria para soportar
redes de distinto tamaño, los diseñadores decidieron que el espacio de direcciones debería ser dividido
en tres clases diferentes: Clase A, Clase B y Clase C. Cada clase fija el lugar que separa la dirección de
red de la de host en la cadena de 32 bits.
Una de las características fundamentales de este sistema de clasificación es que cada dirección contiene
una clave que identifica el punto de división entre el prefijo de red y el número de host. Por ejemplo, si los
dos primeros bits de la dirección son 1-0 el punto estará entre los bits 15 y 16.
Redes Clase A (/8). Cada dirección IP en una red de clase A posee un prefijo de red de 8 bits (con el
primer bit puesto a 0 y un número de red de 7 bits), seguido por un número de host de 24 bits.
El posible definir un máximo de 126 (2^7-2) redes de este tipo y cada red /8 soporta un máximo de
16.777.214 (2^24-2) hosts. Obsérvese que hemos restado dos números de red y dos números de host.
Estos números no pueden ser asignados ni a ninguna red ni a ningún host y son usados para propósitos
especiales. Por ejemplo, el número de host "todos 0" identifica a la propia red a la que "pertenece".
Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para
la redes /8 o clase A:
1.xxx.xxx.xxx hasta 126.xxx.xxx.xxx
Redes Clase B (/16). Tienen un prefijo de red de 16 bits (con los dos primeros puestos a 1-0 y un número
de red de 14 bits), seguidos por un número de host de 16 bits. Esto nos da un máximo de 16.384 (2^14)
redes de este tipo, pudiéndose definir en cada una de ellas hasta 65.534 (2^16-2) hosts.
Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para
la redes /16 o clase B:
128.0.xxx.xxx hasta 191.255.xxx.xxx
Redes Clase C (/24). Cada dirección de red clase C tiene un prefijo de red de 24 bits (siendo los tres
primeros 1-1-0 con un número de red de 21 bits), seguidos por un número de host de 8 bits. Tenemos así
2.097.152 (2^21) redes posibles con un máximo de 254 (2^8-2) host por red.
El rango de direcciones en notación decimal para las redes clase C sería:
192.0.0.xxx hasta 223.255.255.xxx
Subredes
En 1985 se define el concepto de subred, o división de un número de red Clase A, B o C, en partes más
pequeñas. Dicho concepto es introducido para subsanar algunos de los problemas que estaban
empezando a producirse con la clasificación del direccionamento de dos niveles jerárquicos.
Las tablas de enrutamiento de Internet estaban empezando a crecer.
Los administradores locales necesitaban solicitar otro número de red de Internet antes de que una
nueva red se pudiese instalar en su empresa.
Ambos problemas fueron abordados añadiendo otro nivel de jerarquía, creándose una jerarquía a tres
niveles en la estructura del direccionamiento IP. La idea consistió en dividir la parte dedicada al número
de host en dos partes: el número de subred y el número de host en esa subred:
Jerarquía a dos Niveles
Prefijo de Red Número de Host
135.146
91.26
Jerarquía a tres Niveles
Prefijo de Red Número de Subred Número de Host
135.146
91
26
Este sistema aborda el problema del crecimiento de las tablas de enrutamiento, asegurando que la
división de una red en subredes nunca es visible fuera de la red privada de una organización. Los routers
dentro de la organización privada necesitan diferenciar entre las subredes individuales, pero en lo que se
refiere a los routers de Internet, todas las subredes de una organización están agrupadas en una sola
entrada de la tabla de rutas. Esto permite al administrador local introducir la complejidad que desee en la
red privada, sin afectar al tamaño de las tablas de rutas de Internet.
Por otra parte, sólo hará falta asignar a la organización un único número de red (de las clases A,B o C) o
como mucho unos pocos. La propia organización se encargará entonces de asignar dintintos números de
subred para cada una de sus redes internas. Esto evita en la medida de lo posible el agotamiento de los
números IP disponibles.
Máscara de Subred
Prefijo de Red extendido. Los routers de Internet usan solamente el prefijo de red de la dirección de
destino para encaminar el tráfico hacia un entorno con subredes. Los routers dentro del entorno con
subredes usan el prefijo de red extendido para encaminar el tráfico entre las subredes. El prefijo de red
extendido está compuesto por el prefijo de red y el número de subred:
Prefijo de Red Extendido
Prefijo de Red Número de Subred Número de Host
El prefijo de red extendido se identifica a través de la máscara de subred. Por ejemplo, si consideramos la
red clase B 135.146.0.0 y queremos usar el tercer octeto completo para representar el número de subred,
deberemos especificar la máscara de subred 255.255.255.0
Entre los bits en la máscara de subred y la dirección de Internet existe una correspondencia uno a uno.
Los bits de la máscara de subred están a 1 si el sistema que examina la dirección debe tratar los bits
correspondientes en la dirección IP como parte del prefijo de red extendido. Los bits de la máscara están
a 0 si el sistema debe considerar los bits como parte del número de host. Esto se ilustra en la siguiente
figura:
prefijo de red
nº subred nº host
Dirección IP
135.146.91.26 10000111 10010010 01011011 00011010
Máscara de Subred 255.255.255.0 11111111 11111111 11111111 00000000
prefijo de red extendido
En lo que sigue nos referiremos a la longitud del prefijo de red extendido más que a la máscara de
subred, aunque indican lo mismo. La longitud del prefijo es igual al número de bits a 1 contiguos en la
máscara de subred. De este modo, la dirección 135.146.91.26 con una máscara de subred 255.255.255.0
podrá expresarse también de la forma 135.146.91.26/24, lo que resulta más compacto y fácil de entender.
Caso práctico
Pero veamos un caso práctico para comprender mejor esta clasificación con tres niveles jeráquicos. A
una organización se le ha asignado el número de red 193.1.1.0/24 (esto es, una clase C) y dicha
organización necesita definir seis subredes. La subred más grande puede contener un máximo de 25
hosts.
Primer paso (definir la máscara de subred). Lo primero que debemos hacer es determinar el número
de bits necesarios para definir las 6 subredes. Dada la naturaleza del sistema de numeración binario esto
sólo puede hacerse tomando múltiplos de 2. Así que cogeremos 2^3=8 y podemos dejar las 2 subredes
restantes previendo un eventual crecimiento de nuestra red.
Como 8=2^3, se necesitan 3 bits para numerar las 8 subredes. Como estamos hablando de una clase C (
/24), sumamos 3 y nuestro prefijo de red extendido será /27 que en decimal nos daría la máscara
255.255.255.224. Esto se ilustra en la figura siguiente:
prefijo de red
bits nº subr bits nº host
11000001 00000001 00000001
000
00000
prefijo de red extendido
255.255.255.224= 11111111 11111111 11111111
111
00000
27 bits
193.1.1.0/24=
NOTA: Para no desanimarse, podemos coger la calculadora y hacer la conversión de 11100000 a
decimal, que dará justamente 224.
Segundo paso (definir los números de subred). Las ocho subredes se numerarán de 0 a 7. Lo único
que tenemos que hacer es colocar la representación binaria de dichos números en el campo bits nº
subred de la primera fila de la figura anterior, y luego traducir las direcciones binarias a decimal. Quedaría
lo siguiente:
Red Base: 11000001.00000001.00000001.00000000=193.1.1.0/24
Subred 0: 11000001.00000001.00000001.00000000=193.1.1.0/27
Subred 1: 11000001.00000001.00000001.00100000=193.1.1.32/27
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/27
Subred 3: 11000001.00000001.00000001.01100000=193.1.1.96/27
Subred 4: 11000001.00000001.00000001.10000000=193.1.1.128/27
Subred 5: 11000001.00000001.00000001.10100000=193.1.1.160/27
Subred 6: 11000001.00000001.00000001.11000000=193.1.1.192/27
Subred 7: 11000001.00000001.00000001.11100000=193.1.1.224/27
Tercer paso (definir los números de host). En nuestro ejemplo, disponemos de 5 bits en el campo bits
nº host de cada dirección de subred. Esto nos da un bloque de 30 (=2^5-2) direcciones de host posibles,
que cubre los 25 que se preveen como máximo. Obsérvese que restamos 2 pues las direcciones de host
todos 0 (esta subred) o todos 1 (broadcast) no pueden usarse. Los host de cada subred se numeran del 0
al 30. Para definir la dirección asignada al host n de una subred dada, colocaremos la representación
binaria de n en el campo bits nº host y luego traduciremos la dirección completa a notación decimal. Por
ejemplo, para la subred 2 quedaría:
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/24
Host 1: 11000001.00000001.00000001.01000001=193.1.1.64/27
Host 2: 11000001.00000001.00000001.01000010=193.1.1.65/27
Host 3: 11000001.00000001.00000001.01000011=193.1.1.66/27
.
.
.
Host 29: 11000001.00000001.00000001.01011101=193.1.1.93/27
Host 30: 11000001.00000001.00000001.01011110=193.1.1.94/27
En el ejemplo anterior, la parte inicial de cada dirección identifica el prefijo de red extendido, mientras que
los dígitos en negrita indican el campo de 5 bits número de host.
DNS
Como ya comentamos en el capítulo dedicado a Internet, el DNS (Domain Name System, o Sistema de
Nombres de Dominio) es un sistema hace corresponder a la dirección IP de cada host de Internet un
único nombre de dominio, para que podamos acceder a dicho host con mayor facilidad. Además,
veíamos que la estructura de dichos nombres es jerárquica, algo similar a
Nombre_del_host.Subsubdominio.Subdominio.Dominio. Estudiaremos ahora con más detalle este tema.
Comenzamos explicando algunos conceptos previos que nos servirán para comprender mejor el tema.
Nombres de equipos NetBIOS y DNS
En Windows 95 pueden utilizarse dos tipos de nombres para los equipos:
El nombre NetBIOS, que consta de una única parte y que será el que indiquemos en la casilla
Identificación dentro del cuadro de diálogo Red en el Panel de control.
El nombre DNS, que consta de dos partes: un nombre de host y un nombre de dominio, que juntos
forman el nombre completo de dominio (FQDN o Fully Qualified Domain Name). Este nombre se
puede indicar en el cuadro de diálogo Propiedades de TCP/IP accesible también a través del cuadro
de diálogo Red.
Resolución de nombres
En las redes TCP/IP, los ordenadores se identifican a través de su dirección IP. Sin embargo, a los
usuarios les resulta más fácil usar nombres para los ordenadores en vez de números, por lo que se hace
necesario establecer un mecanismo que resuelva nombres en direcciones IP cuando se soliciten
conexiones dando los nombres de los ordenadores remotos. Esto se conoce como un sistema de
resolución de nombres. En las redes Windows existen diversos sistemas de resolución de nombres
disponibles:
Resolución de nombres por difusión. Cuando un equipo se conecta a la red, realizará difusiones a
nivel IP para registrar su nombre NetBIOS anunciándolo en la red. Cada equipo en el área de difusión es
responsable de cancelar cualquier intento de registrar un nombre duplicado. Uno de los problemas
existentes en este sistema es que, si la red es grande, se sobrecargará de difusiones. No obstante,
resultará el adecuado en nuestra Intranet para las conexiones internas.
Servicio de nombres Internet de Windows (WINS, Windows Internet Naming Service). Utiliza una
base de datos dinámica que hace corresponder nombres de equipos NetBIOS con direcciones IP. Dicha
base de datos reside en un servidor WINS (que será una máquina con Windows NT server). WINS
reduce el uso de la resolución por difusión y permite a los usuarios localizar fácilmente sistemas en redes
remotas.
Resolución de nombres usando el Sistema de nombres de dominio (DNS). DNS permite resolver
nombres DNS a direcciones IP cuando un ordenador se conecta a ordenadores remotos fuera de la red
local (por ejemplo, a nodos de Internet). Necesita un servidor de nombres DNS. En nuestro caso dicho
servidor será el de Red Canaria, al cual accederemos a través de nuestro router que actuará como puerta
de enlace o gateway para cada estación de nuestra red local. Para más detalles sobre DNS ver el
apartado siguiente.
Ficheros LMHOSTS y HOSTS. Ambos ficheros se utilizan en ordenadores locales para enumerar
direcciones IP conocidas de ordenadores remotos junto con sus nombres de equipo. El fichero
LMHOSTS especifica el nombre NetBIOS del ordenador remoto y su dirección IP. El fichero HOST
especifica el nombre DNS y la dirección IP. Pueden considerarse como equivalentes locales a los
servicios WINS y DNS y pueden usarse para resolver nombres de ordenadores remotos a direcciones IP
cuando los servicios anteriores no están disponibles. En nuestro caso, usaremos un fichero HOSTS en
cada una de nuestras estaciones para indicar el nombre y la dirección IP de nuestro servidor web interno
(Servweb), ya que al tener el DNS activado en dichas estaciones (para acceder a Internet), cuando no
estemos conectados dicho DNS no estará operativo con la consiguiente ralentización en la resolución del
nombre del servidor web interno.
Sistema de nombres de dominio (DNS o Domain Name System)
El DNS es una base de datos distribuida que proporciona un sistema de nomenclatura jerárquico para
indentificar hosts en Internet.
Espacio de nombres de dominio. La base de datos DNS tiene una estructura en arbol que se llama
espacio de nombres de dominio. Cada dominio (o nodo en el arbol) tiene un nombre y puede contener
subdominios. El nombre de dominio identifica la posición del dominio en el arbol respecto a su dominio
principal, utilizándose puntos para separar los nombres de los nodos. Por ejemplo, el nombre de dominio
rcanaria.es se refiere al subdominio rcanaria perteneciente al dominio principal es.
Dominios de primer nivel. Los dominios del nivel superior en la base de datos DNS pueden ser
genéricos (com, org, edu, etc.) o territoriales (uk, es, etc.). Para obtener un listado completo, consultar el
capítulo 1. La administración de dichos dominios se lleva a cabo por un organismo llamado InterNIC.
Dominios de niveles inferiores y zonas. Por debajo del primer nivel, InterNIC delega en otras
organizaciones la administración del espacio de nombres de dominio. El arbol DNS queda dividido en
zonas, donde cada zona es una unidad administrativa independiente. Las zonas pueden ser un único
dominio o un dominio dividido en subdominios. Por ejemplo, el dominio rcanaria sería una zona
administrativa del arbol DNS.
Nombres de dominio completos. Un nombre de dominio completo (FQDN o Fully Qualified Domain
Name) se forma siguiendo la ruta desde la parte inferior del arbol DNS (nombre de host) hasta la raíz de
dicho arbol. En el FQDN el nombre de cada nodo es separado por un punto. Un ejemplo de FQDN sería
www.educa.rcanaria.es.
Servidores de nombres y resolvers. Los servidores DNS o servidores de nombre contienen información
de una parte de la base de datos DNS (zona) para satisfacer las demandas de los clientes DNS. Cuando
un ordenador cliente (resolver) solicita una conexión a un ordenador remoto de Internet a través de su
FQDN, el servidor de nombres buscará el FQDN en su porción de la base de datos DNS. Si está ahí,
satisfará de inmediato la demanda del resolver. En caso contrario, consultará a otros servidores de
nombres para intentar responder a la consulta.
3.4.2 NetBEUI/NetBIOS.
NetBIOS
NetBIOS (Network Basic Input/Output System) es un programa que permite que se comuniquen
aplicaciones en diferentes ordenadores dentro de una LAN. Desarrollado originalmente para las redes de
ordenadores personales IBM, fué adoptado posteriormente por Microsoft. NetBIOS se usa en redes con
topologías Ethernet y token ring. No permite por si mismo un mecanismo de enrutamiento por lo que no
es adecuado para redes de área extensa (MAN), en las que se deberá usar otro protocolo para el
transporte de los datos (por ejemplo, el TCP).
NetBIOS puede actuar como protocolo orientado a conexión o no (en sus modos respectivos sesión y
datagrama). En el modo sesión dos ordenadores establecen una conexión para establecer una
conversación entre los mismos, mientras que en el modo datagrama cada mensaje se envía
independientemente.
Una de las desventajas de NetBIOS es que no proporciona un marco estándar o formato de datos para la
transmisión.
NetBEUI
NetBIOS Extended User Interface o Interfaz de Usuario para NetBIOS es una versión mejorada de
NetBIOS que sí permite el formato o arreglo de la información en una transmisión de datos. También
desarrollado por IBM y adoptado después por Microsoft, es actualmente el protocolo predominante en las
redes Windows NT, LAN Manager y Windows para Trabajo en Grupo.
Aunque NetBEUI es la mejor elección como protocolo para la comunicación dentro de una LAN, el
problema es que no soporta el enrutamiento de mensajes hacia otras redes, que deberá hacerse a través
de otros protocolos (por ejemplo, IPX o TCP/IP). Un método usual es instalar tanto NetBEUI como TCP/IP
en cada estación de trabajo y configurar el servidor para usar NetBEUI para la comunicación dentro de la
LAN y TCP/IP para la comunicación hacia afuera de la LAN.
Protocolos NetWare
Introducción a los protocolos NetWare
Al igual que TCP/IP, Novell proporciona un conjunto de protocolos desarrollados
específicamente para NetWare. Los cinco protocolos principales utilizados por NetWare son:
Protocolo de acceso al medio.
Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia
(IPX/SPX).
Protocolo de información de encaminamiento (RIP).
Protocolo de notificación de servicios (SAP).
Protocolo básico de NetWare (NCP).
Debido a que estos protocolos se definieron antes de la finalización del modelo OSI, no se
ajustan exactamente al modelo OSI. Actualmente, no existe una correlación directa entre los
límites de los niveles de las dos arquitecturas. Estos protocolos siguen un patrón de
recubrimiento. Concretamente, los protocolos de nivel superior (NCP, SAP y RIP) están
recubiertos por IPX/SPX. Luego, una cabecera y un final del Protocolo de acceso al medio
recubre a IPX/SPX.
Protocolos de acceso al medio
Los protocolos de acceso al medio definen el direccionamiento que permite diferenciar a
los nodos de una red NetWare. El direccionamiento está implementado en el hardware o en
la NIC. Las implementaciones más conocidas son:
802.5 Token Ring.
802.3 Ethernet.
Ethernet 2.0.
El protocolo es responsable de colocar la cabecera al paquete. Cada cabecera incluye el
código del origen y del destino. Una vez que se haya transmitido el paquete y que está en el
medio, cada tarjeta de red comprueba la dirección; si la dirección coincide con la dirección
del destino del paquete, o si el paquete es un mensaje de difusión, la NIC copia el paquete y
lo envía a la jerarquía de protocolos.
Además del direccionamiento, este protocolo proporciona un control de errores a nivel de
bit como una comprobación de redundancia cíclica (CRC). Una vez que se le añade la CRC al
paquete, supuestamente los paquetes estaban libres de errores.
La comprobación de errores CRC utiliza un cálculo complejo para generar un número
basado en los datos transmitidos. El dispositivo que realiza el envío hace el cálculo antes de
realizar la transmisión y lo incluye en el paquete que se envía al dispositivo de destino. El
dispositivo de destino vuelve a hacer este cálculo después de la transmisión. Si ambos
dispositivos obtienen el mismo resultado, se supone que no se han producido errores en la
transmisión. A este procedimiento se le conoce como comprobación de redundancia, porque
cada transmisión incluye no sólo los datos, sino que además incluye valores de
comprobación extras (redundantes).
Protocolo básico de NetWare (NCP, NetWare Core Protocol)
El Protocolo básico de NetWare (NCP) define el control de la conexión y la codificación de
la petición de servicio que hace posible que puedan interactuar los clientes y los servidores.
Éste es el protocolo que proporciona los servicios de transporte y de sesión. La seguridad de
NetWare también está proporcionada dentro de este protocolo.
Sistema básico de Entrada/Salida en red (NetBIOS, Network Basic Input/Output System)
La mayoría de los servicios y aplicaciones que se ejecutan en el sistema operativo
Windows utilizan la interfaz NetBIOS o la Comunicación entre procesos (IPC). NetBIOS se
desarrolló sobre LAN y se ha convertido en una interfaz estándar para que las aplicaciones
puedan acceder a los protocolos de red en el nivel de transporte con comunicaciones
orientadas y no orientadas a la conexión. Existen interfaces NetBIOS para NetBEUI, NWLink
y TCP/IP. Las interfaces NetBIOS necesitan una dirección IP y un nombre NetBIOS para
identificar de forma única a un equipo.
NetBIOS realiza cuatro funciones importantes:
Resolución de nombres NetBIOS. Cada estación de trabajo de una red
tienen uno o más nombres. NetBIOS mantiene una tabla con los nombres y algunos
sinónimos. El primer nombre en la tabla es el nombre único de la NIC. Se pueden
añadir nombres de usuario opcionales para proporcionar un sistema de identificación
expresivo.
Servicio de datagramas NetBIOS. Esta función permite enviar un mensaje
a un nombre, a un grupo de nombres, o a todos los usuarios de la red. Sin embargo,
debido a que no utiliza conexiones punto a punto, no se garantiza que el mensaje
llegue a su destino.
Servicio de sesión NetBIOS. Este servicio abre una conexión punto a punto
entre dos estaciones de trabajo de una red. Una estación inicia una llamada a otra y
abre la conexión. Debido a que ambas estaciones son iguales, pueden enviar y recibir
datos concurrentemente.
Estado de la sesión/NIC NetBIOS. Esta función ofrece información sobre la
NIC local, otras NIC y las sesiones activas disponibles a cualquier aplicación que
utilice NetBIOS.
Originalmente, IBM ofrecía NetBIOS como un producto separado, implementado como un
programa residente (TSR). Actualmente, este programa TSR es obsoleto; si se encuentra
uno de estos sistemas, debería sustituirlo con la interfaz NetBIOS de Windows.
NetBEUI
NetBEUI es el acrónimo de Interfaz de usuario ampliada NetBIOS. Originalmente, NetBIOS
y NetBEUI estaban casi unidos y se les consideraba como un protocolo. Sin embargo, varios
fabricantes separaron NetBIOS, el protocolo a nivel de sesión, de forma que pudiera
utilizarse con otros protocolos de transporte encaminables. NetBIOS (Sistema básico de
entrada/salida de la red) es una interfaz para LAN a nivel de sesión de IBM que actúa como
una interfaz de aplicación para la red. NetBIOS proporciona a un programa las herramientas
para que establezca en la red una sesión con otro programa, y debido a que muchos
programas de aplicación lo soportan, es muy popular.
NetBEUI es un protocolo pequeño, rápido y eficiente a nivel de transporte proporcionado
con todos los productos de red de Microsoft. Está disponible desde mediados de los ochenta
y se suministró con el primer producto de red de Microsoft: MS-NET.
Entre las ventajas de NetBEUI se incluyen su pequeño tamaño (importante para los
equipos que ejecuten MS-DOS), su velocidad de transferencia de datos en el medio y su
compatibilidad con todas las redes Microsoft.
El principal inconveniente de NetBEUI es que no soporta el encaminamiento. También está
limitado a redes Microsoft. NetBEUI es una buena solución económica para una red Trabajo
en Grupo donde todas las estaciones utilizan sistemas operativos Microsoft.
3.4.3 IPX/SPX.
IPX/SPX
IPX (Internetwork Packet Exchange) es un protocolo de Novell que interconecta redes que usan clientes y
servidores Novell Netware. Es un protocolo orientado a paquetes y no orientado a conexión (esto es, no
requiere que se establezca una conexión antes de que los paquetes se envíen a su destino). Otro
protocolo, el SPX (Sequenced Packet eXchange), actúa sobre IPX para asegurar la entrega de los
paquetes.
Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia (IPX/SPX, Internetwork Packet
Exchange/Sequenced Packet Exchange)
El Intercambio de paquetes entre redes (IPX) define los esquemas de direccionamiento
utilizados en una red NetWare, e Intercambio de paquetes en secuencia (SPX) proporciona
la seguridad y fiabilidad al protocolo IPX. IPX es un protocolo a nivel de red basado en
datagramas, no orientado a la conexión y no fiable, equivalente a IP. No requiere
confirmación por cada paquete enviado. Cualquier control de confirmación o control de
conexión tiene que ser proporcionado por los protocolos superiores a IPX. SPX proporciona
servicios orientados a la conexión y fiables a nivel de transporte.
Novell adoptó el protocolo IPX utilizando el Protocolo de datagramas Internet del Sistema
de red de Xerox (XNS). IPX define dos tipos de direccionamiento:
Direccionamiento a nivel de red. La dirección de un segmento de la red,
identificado por el número de red asignado durante la instalación.
Direccionamiento a nivel de nodo. La dirección de un proceso en un nodo
que está identificado por un número de socket.
Los protocolos IPX sólo se utilizan en redes con servidores NetWare y se suelen instalar
con otro conjunto de protocolos como TCP/IP. Incluso NetWare está empezando a utilizar
TCP/IP como un estándar.
3.4.4 Protocolos emergentes.
AppleTalk
Es el protocolo de comunicación para ordenadores Apple Macintosh y viene incluido en su sistema
operativo, de tal forma que el usuario no necesita configurarlo. Existen tres variantes de este protocolo:
LocalTalk. La comunicación se realiza a través de los puertos serie de las estaciones. La velocidad
de transmisión es pequeña pero sirve por ejemplo para compartir impresoras.
Ethertalk. Es la versión para Ethernet. Esto aumenta la velocidad y facilita aplicaciones como por
ejemplo la transferencia de archivos.
Tokentalk. Es la versión de Appletalk para redes Tokenring.
Protocolo de información de encaminamiento (RIP, Routing Information Protocol)
RIP, al igual que IPX, facilita el intercambio de información de encaminamiento en una red
NetWare y fue desarrollado desde XNS. Sin embargo, en RIP se ha añadido al paquete un
campo de datos extra para mejorar el criterio de decisión para seleccionar la ruta más
rápida hasta un destino. El hecho de realizar una difusión de un paquete RIP permite que
ocurran ciertas cosas:
Las estaciones de trabajo pueden localizar el camino más rápido a un número
de red.
Los routers pueden solicitar información de encaminamiento a otros routers
para actualizar sus propias tablas internas.
Los routers pueden responder a peticiones de encaminamiento de otras
estaciones de trabajo o de otros routers.
Los routers pueden asegurarse de si otros routers conocen la configuración de
la red.
Los routers pueden detectar un cambio en la configuración de la red.
Protocolo de notificación de servicios (SAP, Service Advertising Protocol)
El Protocolo de notificación de servicios (SAP) permite a los nodos que proporcionan
servicios (incluyen a los servidores de archivos, servidores de impresión, servidores gateway
y servidores de aplicación) informar de sus servicios y direcciones. Los clientes de la red son
capaces de obtener la dirección de la red de los servidores a los que pueden acceder. Con
SAP, la incorporación y la eliminación de servicios en la red se vuelve dinámica. Por omisión,
un servidor SAP informa de su presencia cada 60 segundos. Un paquete SAP contiene:
Información operativa. Especifica la operación que está realizando el
paquete.
Tipo de servicio. Especifica el tipo de servicio ofrecido por el servidor.
Nombre del servidor. Especifica el nombre del servidor que difunde los
servicios.
Dirección de red. Especifica el número de red del servidor que difunde los
servicios.
Dirección de nodo. Especifica el número de nodo del servidor que difunde los
servicios.
Dirección de socket. Especifica el número de socket del servidor que difunde
los servicios.
Total de saltos hasta el servidor. Especifica el número de saltos que hay
hasta el servidor que difunde los servicios.
Campo de operación. Especifica el tipo de petición.
Información adicional. Uno o más conjuntos de campos que pueden seguir
al campo de operación con más información sobre uno o más servidores.
Conmutación de paquetes X.25
X.25 es un conjunto de protocolos WAN para redes de conmutación de paquetes y está
formado por servicios de conmutación. Los servicios de conmutación se crearon
originalmente para conectar terminales remotos a sistemas mainframe. La red dividía cada
transmisión en varios paquetes y los colocaba en la red. El camino entre los nodos era un
circuito virtual, que los niveles superiores trataban como si se tratase de una conexión lógica
continua. Cada paquete puede tomar distintos caminos entre el origen y el destino. Una vez
que llegan los paquetes, se reorganizan como los datos del mensaje original.
Un paquete típico está formado por 128 bytes de datos; sin embargo, el origen y el
destino, una vez establecida la conexión virtual, pueden negociar tamaños de paquete
diferentes. El protocolo X.25 puede soportar en el nivel físico un máximo teórico de 4.095
circuitos virtuales concurrentes entre un nodo y una red X.25. La velocidad típica de
transmisión de X.25 es de 64 Kbps.
El protocolo X.25 trabaja en los niveles físico, de enlace de datos y de red del modelo OSI.
Se conoce desde mediados de los setenta y se ha depurado muy bien, por lo que
proporciona un entorno de red muy estable. Sin embargo, tiene dos inconvenientes:
El mecanismo de guardar y enviar causa retardos. Normalmente, el retardo es
de 6 décimas de segundos y no tiene efecto en bloques de datos grandes. En cambio,
en un tipo de transmisión «flip-flop», el retraso puede ser considerable.
Un «flip-flop» es un circuito que alterna entre dos estados posibles cuando se recibe un
pulso en la entrada. Por ejemplo, si la salida de un flip-flop es un valor alto y se recibe un
pulso en la entrada, la salida cambia a un valor bajo; un segundo pulso en la entrada vuelve
a colocar en la salida un valor alto, y así sucesivamente.
Para soportar la transferencia de guardar y enviar se requiere una gran
cantidad de trabajo con el búfer.
X.25 y TCP/IP son similares en la medida en que utilizan protocolos de conmutación de
paquetes. Sin embargo, existen algunas diferencias entre ellos:
TCP/IP sólo tiene comprobación de errores y control de flujo extremo a
extremo; X.25 tienen control de errores nodo a nodo.
Para compensar el hecho de que una red TCP/IP sea completamente pasiva,
TCP/IP tiene un control de flujo y un mecanismo de ventana más complicado que el
de X.25.
X.25 tiene unos niveles de enlace y eléctricos muy concretos; TCP/IP está
diseñado para trabajar con distintos tipos de medios, y con servicios de enlace muy
variados.
Sistema de red de Xerox (XNS, Xerox Network System)
Xerox desarrolló el Sistema de red de Xerox (XNS) para sus LAN Ethernet. XNS se
utilizaba mucho en los ochenta, pero ha sido lentamente sustituido por TCP/IP. Es un
protocolo de gran tamaño, lento, ya que genera muchos envíos a todos los dispositivos,
aumentando el tráfico de la red.
Comunicación avanzada entre programas (APPC, Advanced Program-to-Program Communication)
La Comunicación avanzada entre programas es un protocolo de transporte de IBM
desarrollado como parte de su Arquitectura de sistemas en red (SNA). Se diseñó para
permitir que los programas de aplicación que se estuviesen ejecutando en distintos equipos
se pudiesen comunicar e intercambiar datos directamente.
Apple Talk
Apple Talk es la jerarquía de protocolos de Apple Computer para permitir que los equipos
Apple Macintosh compartan archivos e impresoras en un entorno de red. Se introdujo en
1984 como una tecnología LAN autoconfigurable. Apple Talk también está disponible en
muchos sistemas UNIX que utilizan paquetes comerciales y de libre distribución. El conjunto
de protocolos AppleTalk permite compartir archivos a alto nivel utilizando AppleShare, los
servicios de impresión y gestores de impresión de LaserWriter, junto con la secuencia de
datos de bajo nivel y la entrega de datagramas básicos.
Protocolos AppleTalk
AppleTalk: Una colección de protocolos que se corresponde con el modelo
OSI. Soporta LocalTalk, EtherTalk y TokenTalk.
LocalTalk: Describe el cable par trenzado apantallado utilizado para conectar
equipos Macintosh con otros Macintosh o impresoras. Un segmento LocalTalk permite
hasta un máximo de 32 dispositivos y opera a una velocidad de 230 Kbps.
Ether Talk: AppleTalk sobre Ethernet. Opera a una velocidad de 10 Mbps.
Fast Ethernet opera a una velocidad de 100 Mbps.
Token Talk: AppleTalk sobre Token Ring. Dependiendo de su hardware,
TokenTalk opera a 4 o a 16 Mbps.
Conjuntos de protocolos OSI
El conjunto de protocolos OSI es una jerarquía completa de protocolos. Cada protocolo se
corresponde directamente con un único nivel del modelo OSI. El conjunto de protocolos OSI
incluye protocolos de encaminamiento y transporte, la serie de protocolos IEEE 802, un
protocolo a nivel de sesión, un protocolo a nivel de presentación y varios protocolos a nivel
de aplicación diseñados para proporcionar una funcionalidad de red, incluyendo el acceso a
archivos, impresión y emulación de terminal.
DECnet
DECnet es una jerarquía de protocolos de Digital Equipment Corporation. Es un conjunto
de productos hardware y software que implementan la Arquitectura de red de Digital (DNA).
Define redes de comunicación sobre LAN Ethernet, redes de área metropolitana con Interfaz
de datos distribuida de fibra (FDDI MAN) y WAN que utilicen características de transmisión
de datos privados o públicos. DECnet también puede utilizar protocolos TCP y OSI, así como
sus propios protocolos. Se trata de un protocolo encaminable.
3.4.5 Similitudes y diferencias de los modelos OSI y
TCP/IP.
Si compara el modelo OSI y el modelo TCP/IP, observará que ambos presentan similitudes y diferencias.
Los ejemplos incluyen:
Similitudes





Ambos se dividen en capas
Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos
Ambos tienen capas de transporte y de red similares
Se supone que la tecnología es de conmutación por paquetes (no de conmutación por circuito)
Los profesionales de networking deben conocer ambos
Diferencias




TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de aplicación
TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en una sola capa
TCP/IP parece ser más simple porque tiene menos capas
Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet, de modo
que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos. En comparación,
las redes típicas no se desarrollan normalmente a partir del protocolo OSI, aunque el modelo OSI
se usa como guía.
Unidad 4
Estándar cableado estructurado.
4.5. Componentes del cableado estructurado.
CONCEPTO DE CABLEADO ESTRUCTURADO
Para cada tipo de red generalmente suele asociarse un sistema de cableado especifico que
define y establece las características de los cables a utilizar como medio de transmisión.
Establece además, las posibles configuraciones para realizar las conexiones físicas, el ruteo y
la organización, la utilización de paneles de conexión, etc.
Un sistema de cableado debe proporcionar al diseñador de una red la flexibilidad suficiente para implementar ésta de
una manera confiable y con capacidad de crecimiento y expansión. Para ello es necesario contemplar los siguientes
tres requisitos básicos:
 Proporcionar los enlaces físicos requeridos por un sistema mayor al que se está diseñando, es decir que se
tendrá en cuenta las posibles modificaciones en la estructura de la red debido al crecimiento.
 Deberá ser capaz de cumplir los requisitos de capacidad y ancho de banda de las redes o sistema en el
futuro, considerando la integración de señales no sólo de datos, sino de voz y vídeo.
 El sistema deberá tener la capacidad de soportar los estándares más comunes de redes.
Es importante antes de realizar el cableado de la red, documentar y hacer un plano de toda la instalación.
Si se va a instalar una red en varios departamentos de un edificio, se debe tener a la mano los planos de tubería y de
telefonía de éste, para conocer la ubicación de los registros telefónicos y de tuberías verticales.
Si se cuenta con plafones o piso falso, es conveniente tener en cuenta la posibilidad de realizar el cableado por estas
zonas, para evitar extender el cable en pasillos y otras áreas de paso. También es importante localizar las tuberías del
cableado eléctrico, y de ser posible mantener una distancia mínima de 0.5 m entre ésta y la tubería de la red, ya que
puede afectar la interferencia electromagnética del cable eléctrico, provocando errores en la red.
ETHERNET IOBASE-2 (DELGADO)
El cable coaxial delgado Ethernet se manipula más fácilmente que el cable grueso y
no requiere transceptores en las estaciones. Este cable es más barato, aunque la longitud
máxima de la línea troncal es menor. La Figura E.21 ilustra una red Ethernet de cable
delgado, y la E.22 los componentes que presenta este sistema de cableado.
Los componentes de una red l0Base-2 se describen en las siguientes secciones:
TARJETA DE INTERFAZ DE RED. La mayoría de tarjetas Ethernet admiten cable
grueso o delgado. La placa debería disponer de un conector tipo BNC acoplado en su parte
posterior, además de un conector de cable Ethernet grueso. El cable troncal se conecta a un
conector BNC en forma de T, que se acopla a un conector BNC macho en la parte posterior
de la placa. Debe utilizarse una memoria programable de sólo lectura PROM (programmable
read-only memory) de arranque remoto si la tarjeta se instala en una estación sin disco.
REPETIDOR. Un repetidor es un dispositivo opcional utilizado para unir dos líneas
troncales Ethernet y reforzar las señales entre éstas. Un mensaje transmitido sobre una red
de área local (LAN, local area network) debe atravesar dos repetidores como máximo antes
de alcanzar su destino o pasar a través de un puente de LAN.
CABLE ETHERNET DELGADO. Se trata de un cable coaxial RG-58 A/U o RG-58 C/U
de 0.2 pulgadas de diámetro y 50 ohmios. El cable Ethernet delgado se encuentra disponible
a través de numerosos fabricantes, en segmentos de longitud estándar y presenta ya
acoplados los conectores. Es posible adquirir el cable a granel, pero entonces habrá que
cortarlo y montar los conectores BNC en los extremos. Téngase en cuenta que este cable se
suministra en forma de cable plenum a prueba de incendios, interior nonplenum,
subterráneo y aéreo.
CONECTORES DE CABLE BNC. Los conectores BNC deben acoplarse a los extremos
de todos los segmentos de cable. Los equipos de conectores BNC incorporan los accesorios
necesarios. Para montar los conectores se necesita una herramienta especial de
manipulación del cable coaxial, que puede adquirirse en establecimientos de electrónica.
CONECTORES BNC EN FORMA DE T. Un conector en forma de T se acopla al
conector BNC situado en la parte posterior de la tarjeta de interfaz a Ethernet. El conector
en forma de T proporciona dos conexiones al cable, una de entrada y otra de salida. Se
necesitará un conector en forma de 1 en cada estación de trabajo incluso en la última de la
línea troncal. En este caso, se conecta un terminador BNC en el extremo abierto del
conector en forma de T.
CONECTORES BNC EN FORMA DE BARRIL Los conectores en forma de barril se
utilizan para unir dos segmentos de cable.
TERMINADORES BNC. Cada segmento de cable debe finalizar en ambos extremos
con un terminador BNC de 50 ohmios. Cada segmento de cable necesita un terminador con
toma de tierra y uno sin ella.
Hay que atenerse a las siguientes reglas y limitaciones cuando se construyen redes
con cable coaxial RG-58 A/U o RG-58 C/U:







La longitud máxina de segmento troncal es de 186 metros (607 pies).
Los conectores en forma de T se utilizan para conectar el cable a la tarjeta de interfaz de
red.
Pueden unirse hasta cinco segmentos troncales mediante cuatro repetidores.
Las estaciones de trabajo sólo pueden conectarse en tres de los segmentos. Los otros se
utilizan para distanciar.
La longitud máxima de la línea troncal es de 910 metros (3.035 pies).
En una línea troncal puede haber hasta un máximo de 30 nodos. Los repetidores,
puentes, encaminadores y servidores se consideran nodos. El número total de nodos en
todos los segmentos no puede exceder de 1.024.
Debe situarse un terminador en cada extremo de un segmento troncal, con uno de sus
extremos a tierra.
Cable delgado y grueso combinado
Es posible combinar sistemas de cableado grueso y delgado Ethernet. Por ejemplo,
puede utilizarse cable Ethernet grueso para conectar dos segmentos de cable delgado que
están fuera del alcance permitido a un cable delgado. Hay que tener en cuenta que también
puede utilizarse un repetidor para extender una red Ethernet. El número máximo de
segmentos troncales es de cinco.
Pueden crearse segmentos que combinan cable grueso y delgado mediante un
adaptador especial BNC/serie N, disponible en forma de adaptador serie N macho o hembra
en un extremo. Los segmentos combinados resultantes se encuentran normalmente dentro
de unos límites de longitud que oscilan entre 607 y 1.640 pies. Se utiliza la siguiente
ecuación para encontrar la longitud máxima de cable delgado que puede utilizarse en un
segmento troncal:
(1640pies  L)
t
3,28
L es la longitud del segmento troncal que se desea construir, y t es la longitud
máxima de cable delgado que puede utilizarse.
ETHERNET 10BASE-5 (GRUESO)
Ethernet l0Base-5 se considera a menudo el estándar de Ethernet debido a que fue la
realización original de Ethernet. La Figura E.23 ilustra un esquema de cableado de cable
coaxial Ethernet grueso. Cada estación se conecta a una línea troncal Ethernet gruesa
mediante un transceptor. Este dispositivo no es igual al conector en forma de 1 utilizado en
instalaciones de cable delgado. Tiene el aspecto de una pequeña caja y proporciona el
aislamiento eléctrico entre la estación y el cable.
En el transceptor se realiza un examen a través de pulsos eléctricos, para determinar
si la estación se encuentra conectada correctamente.
lOBase-5 cae en desuso como sistema de cableado de red. Se menciona aquí debido
a que existe un gran número de instalaciones realizadas, que puede ser necesario expandir
o adaptar.
Los componentes de una red Ethernet gruesa se describen en las siguientes
secciones:

PLACA DE INTERFAZ DE RED. La mayoría de las placas de interfaz de red Ethernet
admiten cableado grueso o delgado. La placa debería disponer de un conector hembra
tipo DIX o AUI para realizar la conexión al cable grueso procedente del tranceptor.






REPETIDOR. Un repetidor es un dispositivo opcional utilizado para unir dos líneas
troncales Ethernet y reforzar las señales entre ésttas. Un repetidor se conecta un
transceptor situado en una línea troncal mediante un cable especial para transceptor. Un
mensaje transmitido sobre una LAN puede atravesar dos repetidores como máximo antes
de alcanzar su destino o pasar a través de un puente de LAN.
TRANSCEPTOR. Un transceptor sirve de unión entre las estaciones de trabajo y el cable
Ethernet grueso. Dispone de tres conectores: dos de ellos son los de entrada y salida de
cable grueso, y cl tercero se utiliza para conectarla estación de trabajo al transceptor
mediante un cable especial para transceptor. Los transceptores se conectan a la línea
troncal de la red de dos formas posibles. Un sistema de abrazaderas atraviesa el cable,
eliminando la necesidad de cortarlo y montar los conectores. De forma alternativa, una
versión BNC del transceptor dispone de un conector T al que se conectan los extremos
del cable. El corte del cable y el acoplamiento de los conectores debe realizarse mediante
herramientas especiales.
CABLE PARA EL TRANSCEPTOR. Este cable se suministra normalmente con cada
unidad de transceptor. En cada extremo del cable se monta un conector tipo DIX (en un
extremo macho y en el otro hembra),junto con cierres deslizantes que sirven para
bloquear el cable con la placa de red. El cable para el transceptor normalmente es más
flexible que el cable troncal.
CONECTORES MACHO SERIE N. Estos conectores se instalan en ambos extremos del
cable, cuando se utilizan transceptores que utilizan conectores en forma de T. Los cables
ya ensamblados tienen montados los conectores.
CONECTORES EN FORMA DE BARRIL SERIE N. Estos conectores se utilizan para unir
dos segmentos de cable.
TERMINADORES SERIE N. Cada segmento de cable debe finalizar en ambos extremos
con un terminador serie N de 50 ohmios. En cada segmento de cable es necesario un
terminador con una toma de tierra y otro sin ella.
Las especificaciones y limitaciones de la norma 10Base-5 se relacionan a continuación.

La longitud máxima de un segmento troncal es de 500 metros (1.640 pies).

Los transceptores se conectan al segmento troncal.

La distancia máxima entre una estación de trabajo y cl transceptor es de 50 metros (164
pies).

La distancia mínima al siguiente transceptor es de 2,5 metros (8 pies).

Pueden unirse hasta cinco segmentos troncales mediante cuatro repetidores.

Las estaciones de trabajo pueden conectarse únicamente a tres de los segmentos.

La longitud máxima principal resultante de la unión de los segmentos es de 2.460 metros
(8.200 pies).

En una línea troncal puede existir un máximo de loo estaciones de trabajo. Los
repetidores se consideran estaciones de trabajo.

Debe situarse un terminador en cada extremo de un segmento principal, con uno de sus
extremos conectado a tierra. Para evitar problemas, no conectar a tierra un segmento
por ambos extremos.
ETHERNET 10 BASE-T (PAR TRENZADO)
l0Base-T ofrece la mayoría de las ventajas de Ethernet sin las restricciones y el coste
que impone el cable coaxial. Además, la topología en estrella o distribuida permite la
conexión de grupos de estaciones de trabajo departamentales o situadas en otras zonas.
Parte de la especificación l0Base-T es compatible con otras normas 802.3 del IEEE,
de modo que es sencillo realizar una transición de un medio a otro. Es posible mantener las
mismas tarjetas Ethernet al pasar de cable coaxial a cable de par trenzado. Además, pueden
añadirse líneas troncales de par trenzado a las ya existentes, gracias a repetidores que
admiten la conexión de líneas troncales de cable coaxial, libra óptica y par trenzado. Muchos
fabricantes presentan este tipo de dispositivos en sus líneas de productos Ethernet.
La especificación l0Base-T incluye una utilidad de verificación de cableado
denominada verificación de integridad del enlace. Gracias a esta utilidad el sistema puede
realizar controles constantes del cable de par trenzado, en busca de hilos abiertos o cortes
del cable. Se realiza la supervisión desde un punto central. En la Figura E.24 se muestra una
red básica Ethernet l0Base-T. las estaciones de trabajo se conectan a un concentrador
central que actúa como repetidor. Cuando llega la señal procedente de una estación de
trabajo, cl concentrador la difunde hacia todas las líneas de salida. Es posible realizar
conexiones entre distintos concentradores para obtener una configuración jerárquica. Las
estaciones de trabajo están conectadas a través de un cable de par trenzado que no puede
exceder l00 metros de longitud (328 pies). Los cables se conectan a un transceptor en un
punto próximo a la estación de trabajo, que a su vez se conecta a ésta con un cable de 15
hilos de longitud no superior a 50 metros (164 pies).
Las conexiones 10Base-T utilizan cable de Categoría 3, aunque categorías superiores
de cable (como la Categoría 5) permiten un crecimiento futuro que acepta tecnologías de
transmisión más rápidas, como l00Mbits/seg. Véase «Cableado» para obtener una discusión
sobre tipos y técnicas de cableado Un concentrador 10Base-T se conecta a esta red soporte
en el armario de cableado. Un cable telefónico de 50 hilos conecta el concentrador a un
bloque de conexión. Un cable de par trenzado proporciona una conexión entre este último y
la placa existente junto a la estación de trabajo. Un cable discurre desde la placa hasta cl
transceptor, que se conecta a la estación de trabajo. La mayoría de las tarjetas l0Base-T
tienen actualmente incorporado el transceptor, conectándose directamente al cable RJ-45.
Los componentes que se describen en las siguientes secciones forman parte
típicamente de las redes 10Base-T. Manténgase en mente la idea de que un sistema no
siempre necesita todos estos componentes.







TARJETA DE INTERFAZ DE RED. Es necesaria una tarjeta Ethernet con un conector
tipo DIX de 15 patillas o RJ-45 l0Base-T. Hay que añadir una PROM de arranque remoto
si se instala la tarjeta en una estación de trabajo sin disco.
CONCENTRADOR (HUB). El concentrador dispone a menudo de hasta 12 puertos.
Normalmente dispone de un puerto de conexión a redes soporte de cable coaxial o de
fibra óptica.
CABLE DE PAR TRENZADO. l0Base-T utiliza cable de par trenzado con conectores RJ45 de hasta loo metros de longitud. Puede adquirirse cable a granel y conectores aparte
para construir segmentos de distintas longitudes según las necesidades. Para ello se
necesita una herramienta especial para RJ.
TRANSCEPTOR. El transceptor dispone de un conector RJ-45 en un lado y uno DB-15 en
el otro. Por otra parte, la mayoría de las tarjetas actuales presentan un transceptor ya
incorporado.
CABLE PARA EL TRANSCEPTOR. Este cable se conecta al transceptor en la parte
posterior de la tarjeta de interfaz de red.
CABLE CONECTOR AL BLOQUE DE CONEXIÓN. Si va a utilizarse el cable telefónico
preexistente, un cable de 50 patillas Telco (que conecta el concentrador directamente a
un bloque de conexión) simplifica la instalación. Esto hay que consultarlo con el
fabricante del concentrador.
ENCHUFE DE PARED. Se trata de un conector con una clavija RJ. Si también se
necesita una conexión telefónica, pueden adquirirse placas dobles.
Especificaciones del cable l0Base-T
Las especificaciones l0Base-T se relacionan a continuación. Hay que darse cuenta de
que algunas de estas especificaciones son flexibles, dependiendo del fabricante.








Utilícese cable de par trenzado sin apantallar de categoría 3, 4 o 5.
Utilícense clavijas RJ-45 en el extremo de los cables. Las patillas 1 y 2 son
«transmisoras» y las 3 y 6 «receptoras». Cada par está cruzado de modo que el
transmisor en un extremo se conecta con el receptor en el otro.
Un transceptor y un cable de transceptor de 15 patillas puede conectarse a cada una de
las estaciones de trabajo. Algunas tarjetas disponen de transceptores incorporados.
La distancia que hay desde un transceptor a un concentrador no puede excederlos 100
metros (328 pies).
Un concentrador normalmente conecta 12 estaciones de trabajo.
Pueden conectarse hasta 12 concentradores a un concentrador central para aumentar el
número de estaciones en la red.
Los concentradores pueden conertarse a redes soporte de cable coaxial o de fibra óptica
con objeto de formar parte de redes Ethernet extensas.
Pueden existir hasta 1024 estaciones en una red sin necesidad de utilizar puentes.
Cableado estructurado
Definición
Hasta hace unos años para cablear un edificio se usaban distintos sistemas independientes unos de
otros. Esto llevaba a situaciones como el tener una red bifilar para voz (telefonía normalmente), otra
distinta para megafonía, otra de conexión entre ordenadores, etc. Con esta situación se dificulta mucho el
mantenimiento y las posibles ampliaciones del sistema.
Un sistema de cableado estructurado es una red de cables y conectores en número, calidad y flexibilidad
de disposición suficientes que nos permita unir dos puntos cualesquiera dentro del edificio para cualquier
tipo de red (voz, datos o imágenes). Consiste en usar un solo tipo de cable para todos los servicios que
se quieran prestar y centralizarlo para facilitar su administración y mantenimiento.
El cableado estructurado recibe nombres distintos para cada tipo de aplicación, aunque popularmente se
generaliza y se le conoce con el nombre de P.D.S. Los nombres reales son:
P.D.S. Sistemas de Distribución de Locales
I.D.S. Sistemas de Distribución de Industria
I.B.S.Control de Seguridad y Servicios
Al hablar de sistemas de cableado implícitamente se entiende cableados de baja corriente (telefonía,
vídeo e informáticas), aunque la actitud sistemática que observamos ante este tipo de cableado, también
se debería de aplicarse al conocido como cableado de alta corriente (sistema de 220v). Como se verá
más adelante, es importante integrar en el diseño de un edificio ambos cableados para evitar
interferencias entre ellos.
Beneficios
El sistema de cableado estructurado nos va permitir hacer convivir muchos servicios en nuestra red
(voz, datos, vídeo, etc.) con la misma instalación, independientemente de los equipos y productos que
se utilicen.
Se facilita y agiliza mucho las labores de mantenimiento.
Es fácilmente ampliable.
El sistema es seguro tanto a nivel de datos como a nivel de seguridad personal.
Una de las ventajas básicas de estos sistemas es que se encuentran regulados mediante estándares,
lo que garantiza a los usuarios su disposición para las aplicaciones existentes, independientemente
del fabricante de las mismas, siendo soluciones abiertas, fiables y muy seguras. Fundamentalmente la
norma TIA/EIA-568A define entre otras cosas las normas de diseño de los sistemas de cableado, su
topología, las distancias, tipo de cables, los conectores, etc.
Al tratarse de un mismo tipo de cable, se instala todo sobre el mismo trazado.
El tipo de cable usado es de tal calidad que permite la transmisión de altas velocidades para redes.
No hace falta una nueva instalación para efectuar un traslado de equipo.
Elementos que intervienen
Ya que el sistema de cableado recibe el nombre de estructurado, sería conveniente conocer su
estructura. Al conjunto de todo el cableado de un edificio se le conoce con el nombre de SISTEMA y cada
parte en la que se divide se da el nombre de SUBSISTEMA:
Área de trabajo
Horizontal
Vertical
Campus. Entre edificios diferentes.
Estándares
Todo el cableado estructurado está regulado por estándares internacionales que se encargan de
establecer las normas comunes que deben cumplir todos las instalaciones de este tipo. Las reglas y
normas comentadas en secciones anteriores están sujetas a estas normas internacionales.
Existen tres estándares, ISO/IEC-IS11801 que es el estándar internacional, EN-50173 que es la norma
europea y ANSI/EIA/TIA-568A que es la norma de EE.UU. Éste último es el más extendido aunque entre
todas ellas no existen diferencias demasiado significativas.
Todas ellas se han diseñado con el objeto de proporcionar las siguientes utilidades y funciones:
Un sistema de cableado genérico de comunicaciones para edificios comerciales.
Medios, topología, puntos de terminación y conexión, así como administración, bien definidos.
Un soporte para entornos multiproveedor multiprotocolo.
Instrucciones para el diseño de productos de comunicaciones para empresas comerciales.
Capacidad de planificación e instalación del cableado de comunicaciones para un edificio sin otro
conocimiento previo que los productos que van a conectarse.
4.5.1.
Área de trabajo.
ÁREA DE TRABAJO. Este subsistema consta de los elementos externos de comunicación
(armarios y placas frontales), cableado y conectores necesarios para conectar el equipo de
trabajo de área (computadoras, impresoras y demás) al subsistema de cableado horizontal.
Los zócalos o placas frontales típicas, como la representada en la Figura N.13, acomodan los
conectores, como por ejemplo mediante clavijas modulares para teléfonos o datos, y clavijas
modulares modificadas para transmisión de datos a baja velocidad. También pueden
acomodar conectares
BNC para cable coaxial y de fibra óptica.
Se define como la zona donde están los distintos puestos de trabajo de la red. En cada uno de ellos
habrá una roseta de conexión que permita conectar el dispositivo o dispositivos que se quieran integrar
en la red.
El área de trabajo comprende todo lo que se conecta a partir de la roseta de conexión hasta los propios
dispositivos a conectar (ordenadores e impresoras fundamentalmente). Están también incluidos cualquier
filtro, adaptador, etc. , que se necesite. Éstos irán siempre conectados en el exterior de la roseta. Si el
cable se utiliza para compartir voz, datos u otros servicios, cada uno de ellos deberá de tener un conector
diferente en la propia roseta de conexión.
Al cable que va desde la roseta hasta el dispositivo a conectar se le llama latiguillo y no puede superar los
3 metros de longitud.
4.5.2.
Cableado horizontal.
CABLEADO HORIZONTAL. El sistema de cableado horizontal discurre entre cada toma de
las estaciones de trabajo finales y el armario de comunicaciones.;. La distancia máxima
horizontal desde éste hasta las tomas de comunicaciones
es de 90 metros (295 pies), independientemente del tipo de medio. Existen cuatro tipos de
cable reconocidos en este sistema:




Cables de par trenzado sin apantallar (UTP, unshielded twisted pair) de cuatro pares y de
l00 ohm.
Cables de par trenzado apantallado (STP, shielded twisted pair) de dos pares y de 150
ohm.
Cables coaxiales de 50 ohm.
Cable de fibra óptica con diámetro de núcleo de 62.5 micras.
Desde la roseta de cada uno de las áreas de trabajo irá
un cable a un lugar común de centralización llamado
panel de parcheo.
El panel de parcheo es donde se centraliza todo el
cableado del edificio. Es el lugar al que llegan los cables
procedentes de cada una de las dependencias donde se
ha instalado un punto de la red. Cada roseta colocada en
el edificio tendrá al otro extremo de su cable una
conexión al panel de parcheo. De esta forma se le podrá
dar o quitar servicio a una determinada dependencia simplemente con proporcionarle o no señal en este
panel.
Se conoce con el nombre de cableado horizontal a los cables usados para unir cada área de trabajo con
el panel de parcheo.
Todos el cableado horizontal deberá ir canalizado por conducciones adecuadas. En la mayoría de los
casos, y en el nuestro también, se eligen para esta función las llamadas canaletas que nos permiten de
una forma flexible trazar los recorridos adecuados desde el área de trabajo hasta el panel de parcheo.
Las canaletas van desde el panel de parcheo hasta las rosetas de cada uno de los puestos de la red. Se
podría dividir en dos tipos dependiendo del uso que se le dé:
Las de distribución. Recorren las distintas zonas del edificio y por ellas van los cables de todas las
rosetas.
Las finales. Llevan tan solo los cables de cada una de las rosetas.
Es muy conveniente que el panel de parcheo junto con los dispositivos de interconexión centralizada
(concentradores, latiguillos, router, fuentes de alimentación, etc.) estén encerrados un armario de
comunicaciones. De esta forma se aíslan del exterior y por lo tanto de su manipulación "accidental".
También facilita el mantenimiento al tenerlo todo en un mismo lugar.
Como se puede observar la topología usada es en estrella teniendo en cuenta que cada mecanismo de
conexión en la roseta está conectado a su propio mecanismo de conexión en el panel de parcheo del
armario de comunicaciones.
El subsistema horizontal incluye los siguiente elementos:
El cable propiamente dicho
La roseta de conexión del área de trabajo
El mecanismo de conexión en el panel de parcheo del armario de comunicaciones.
Los cables de parcheo o latiguillos en el armario de comunicaciones.
Las canaletas.
Cada cable horizontal no podrá superar los 90 metros. Además los cables para el parcheo en el armario
de comunicaciones no podrán tener más de 6 metros y no podrá superar los 3 metros el cable de
conexión del puesto de trabajo a la roseta.
4.5.3.
Cableado vertical.
El cableado vertical (o de "backbone") es el que interconecta los distintos armarios de comunicaciones.
Éstos pueden estar situados en plantas o habitaciones distintas de un mismo edificio o incluso en
edificios colindantes. En el cableado vertical es usual utilizar fibra óptica o cable UTP, aunque el algunos
casos se puede usar cable coaxial.
La topología que se usa es en estrella existiendo un panel de distribución central al que se conectan los
paneles de distribución horizontal. Entre ellos puede existir un panel intermedio, pero sólo uno.
En el cableado vertical están incluidos los cables del "backbone", los mecanismos en los paneles
principales e intermedios, los latiguillos usados para el parcheo, los mecanismos que terminan el
cableado vertical en los armarios de distribución horizontal.
4.5.4.
Cableado Backbone.
La función del cableado vertical es la interconexión de los diferentes cuartos de
comunicaciones.
• El cableado vertical es típicamente menos costoso de instalar y debe poder ser modificado
con mas flexibilidad.
Topología
• La topología del cableado vertical debe ser típicamente una estrella.
• En circunstancias donde los equipos y sistemas solicitados exijan un anillo, este debe ser
lógico y no físico.
Cables Reconocidos
•
•
•
•
•
Cable UTP de 100 ?. Multipar
Cable STP de 150 ?. Multipar
Cable de múltiples Fibras Opticas 62.5/125 ?m.
Cable de múltiples Fibras Opticas Monomodo (9/125 ?m).
Combinaciones
Distancias
• Dentro del Edificio
o Cobre 90mts
o Fibra Optica 500 mts
• Entre Edificios
o Cobre 800 mts
o Fibra Optica Multimodo 2Km
o Fibra Optica Monomodo 3Km.
4.5.5. Centro de telecomunicaciones principal.
4.5.6. Centro de telecomunicaciones Intermedios.
4.5.7. Servicios de ingreso.
4.6. Planificación de la estructura de cableado.
4.6.1. Normatividad de electricidad y conexiones a tierra.
Diferencias entre CA y CC
La electricidad es un hecho de la vida moderna. La usamos para realizar una amplia gama de tareas.
Entra en nuestros hogares, escuelas y oficinas a través de líneas de alimentación eléctrica que la
transportan bajo la forma de corriente alterna (CA). Otro tipo de corriente, denominada corriente continua
(CC), es la que encontramos en las linternas, baterías de automóvil y en la motherboard de un
computador.
Es importante comprender la diferencia entre estos dos tipos de flujo de corriente. La CC fluye a un valor
constante cuando los circuitos están activados. La batería suministra corriente durante un período de
tiempo determinado a un nivel constante de flujo de corriente.
Los valores de la corriente alterna suben y bajan a medida que ésta es generada por las compañías de
energía eléctrica. Esta variación de los valores se puede explicar a través de una serie de gráficos que
presentamos a continuación:
La figura muestra cómo el flujo de corriente alcanza su valor pico cuando el polo sur atraviesa el núcleo
de la bobina.
La figura muestra como el flujo de corriente baja a 0 cuando ambos polos abarcan el núcleo y equilibran
el flujo de corriente hasta alcanzar el valor 0.
La figura muestra la subida al pico de la polaridad opuesta (un valor negativo) cuando el polo norte se
desplaza a través del núcleo de la bobina.
La figura muestra la bajada a 0 del flujo de corriente cuando el imán sale del área de la bobina. La
energía de CA que se produce para el uso cotidiano en los hogares aplica este concepto.
Ruido de línea de CA
Después de entrar en nuestros hogares, escuelas y oficinas, la electricidad se transporta a los artefactos
y la máquinas a través de cables ocultos en paredes, pisos y techos. Como consecuencia, dentro de
estos edificios, el ruido de la línea de alimentación de CA se encuentra en todo el entorno. Si no es
tratado correctamente, el ruido de la línea de alimentación puede representar un gran problema para una
red.
En efecto, como lo descubrirá a medida que trabaje con redes, el ruido de la línea de CA proveniente de
un monitor de vídeo cercano o de una unidad de disco duro puede ser suficiente para provocar errores en
un computador. El ruido hace esto agregando voltajes no deseados a las señales deseadas e impidiendo
que las compuertas lógicas del computador puedan detectar los bordes anterior y posterior de las ondas
rectangulares de la señal. Este problema se puede complicar además cuando un computador tiene una
mala conexión a tierra.
Descarga electrostática
La descarga electrostática (ESD), conocida comúnmente como electricidad estática, es la forma más
perjudicial y descontrolada de la electricidad. Los equipos electrónicos sensibles deben protegerse contra
este tipo de electricidad.
Seguramente alguna vez habrá experimentado lo que ocurre al caminar sobre una alfombra. Si el aire
está fresco y seco, al tocar un objeto una chispa salta desde la punta de sus dedos y le provoca un
pequeño choque eléctrico. Se sabe por experiencia que ese tipo de ESD puede provocar una breve
"cosquilleo", pero en el caso de un computador, este tipo de choques eléctricos pueden ser desastrosos.
La ESD puede destruir semiconductores y datos al azar, a medida que el computador recibe los
impactos. Una solución que ayuda a resolver este problema provocado por la descarga electrostática es
una buena conexión a tierra.
Alimentación de conexión a tierra en equipo informático
Para los sistemas eléctricos de CA y CC, el flujo de electrones se produce siempre desde una fuente
cuya carga es negativa hacia una fuente cuya carga es positiva. Sin embargo, para que se produzca un
flujo controlado de electrones, es necesario que haya un circuito completo. Por lo general, una corriente
eléctrica sigue la ruta de menor resistencia. Debido a que los metales como, por ejemplo, el cobre,
ofrecen poca resistencia, se utilizan con frecuencia como conductores de la corriente eléctrica. A la
inversa, los materiales como, por ejemplo, el vidrio, el caucho y el plástico proporcionan mayor
resistencia. Por lo tanto, no son buenos conductores de energía eléctrica. De hecho, estos materiales se
utilizan frecuentemente como aisladores. Se usan en conductores para evitar descargas, incendios, y
cortocircuitos.
Normalmente, la energía eléctrica se envía a un transformador montado en un poste. El transformador
reduce las altas tensiones que se usan en la transmisión a los 120 V o 240 V que utilizan los aparatos
eléctricos comunes.
La figura muestra un objeto familiar, la electricidad suministrada a través de los tomas de pared en los
EE.UU. (otras naciones poseen configuraciones de toma de pared diferentes). Los dos conectores
superiores suministran energía eléctrica. El conector redondo, que aparece en la parte inferior, protege a
las personas y a los equipos de las descargas y los cortocircuitos. Este conector se denomina conexión a
tierra de seguridad. En los equipos eléctricos en los cuales se utiliza, el conector a tierra de seguridad se
conecta con cualquier parte metálica expuesta del equipo. Las motherboards y los circuitos de los
equipos de computación están eléctricamente conectados con el chasis. Este también los conecta con el
conector a tierra de seguridad, que se utiliza para disipar la electricidad estática.
El objeto de conectar la tierra de seguridad con las partes metálicas expuestas del equipamiento
informático es impedir que esas partes metálicas se carguen con voltaje peligroso resultante de una falla
del cableado dentro del dispositivo.
Una conexión accidental entre el cable electrificado y el chasis es un ejemplo de una falla de cableado
que se puede producir en un dispositivo de red. Si ocurriera una falla de este tipo, el hilo de conexión a
tierra de seguridad conectado con el dispositivo serviría como una vía de baja resistencia para la
conexión a tierra. El conector a tierra de seguridad ofrece una vía de resistencia menor que el cuerpo
humano.
Cuando está instalada correctamente, la vía de baja resistencia provista por el conductor a tierra de
seguridad ofrece una resistencia lo suficientemente baja, y una capacidad suficiente de transmisión de
corriente, para impedir que se acumulen voltajes peligrosamente altos. El circuito conecta directamente el
punto con corriente a tierra.
Siempre que una corriente eléctrica atraviesa esta vía hacia la tierra, hace que se activen los dispositivos
de protección como, por ejemplo, los disyuntores y los interruptores de circuito accionados por corriente
de pérdida a tierra (GFCI) Al interrumpir el circuito, los disyuntores y los GFCI detienen el flujo de
electrones y reducen el peligro de una descarga eléctrica. Los disyuntores lo protegen a usted y protegen
el alambrado de su casa. Para proteger los equipos de computación y de networking se requiere
protección adicional, típicamente en la forma de supresores de sobrevoltaje y Fuentes de alimentación
ininterrumpidas (UPS-uninterrupted power supplies).
Propósito de la conexión a tierra del equipo informático
El propósito de conectar el conector a tierra de seguridad con las partes metálicas expuestas del
equipamiento informático es impedir que esas partes metálicas se carguen con voltaje peligroso
resultante de una falla del cableado dentro del dispositivo.
Conexiones a tierra de seguridad
Un ejemplo de falla del cableado que se podría producir en un dispositivo de red es una conexión
accidental entre el alambre con corriente y el chasis. Si ocurriera una falla de este tipo, el hilo de conexión
a tierra de seguridad conectado con el dispositivo serviría como una vía de baja resistencia para la
conexión a tierra. Cuando está instalada correctamente, la vía de baja resistencia suministrada por el hilo
de conexión a tierra de seguridad ofrece una resistencia lo suficientemente baja, y una capacidad
suficiente de transmisión de corriente como para impedir que se acumulen voltajes peligrosamente altos.
Además, teniendo en cuenta que el circuito conectaría entonces directamente la conexión con corriente
con la conexión a tierra, cada vez que la corriente eléctrica pasa a través de esa vía a la tierra, activaría
los dispositivos de protección, como, por ejemplo, los disyuntores. Al interrumpir el circuito hacia el
transformador, los interruptores de circuito detienen el flujo de electrones, reduciendo así el riesgo de
electrocución.
Problemas de conexión a tierra de seguridad
Los edificios grandes generalmente necesitan más de una conexión a tierra. Se requieren conexiones a
tierra separadas para cada edificio en los campus compuestos por varios edificios. Infelizmente, la
conexión a tierra entre varios edificios casi nunca es igual. Las conexiones a tierra separadas dentro de
un mismo edificio también pueden variar.
Cuando varía ligeramente el potencial (voltaje) de los diversos conductores a tierra, se pueden provocar
serios problemas. Para comprender mejor este tema, supongamos que la conexión a tierra del edificio A
tiene un potencial ligeramente distinto con respecto a los cables comunes y con corriente, que la
conexión a tierra del edificio B. Por esta razón, los gabinetes externos de los dispositivos informáticos del
edificio A tendrán un voltaje (potencial) distinto que los gabinetes externos de los computadores ubicados
en el edificio B. Si se estableciera un circuito para conectar los computadores del edificio A con los del
edificio B, entonces la corriente eléctrica fluiría desde la fuente negativa hacia la fuente positiva.
Cualquier persona que entrara en contacto con cualquier dispositivo en ese circuito recibiría una
descarga bien desagradable. Además, este voltaje potencial errático podría dañar severamente los
delicados chips de memoria de los computadores.
4.6.2. Soluciones para caída y bajada de tensión.
4.6.3.
Normatividad de seguridad
NORMAS DE SEGURIDAD
1. Siempre que trabaje en paredes, techos o áticos, lo primero que debe hacer es desconectar la
alimentación eléctrica de todos los circuitos que pueden pasar a través de esas áreas de trabajo.
Si no está seguro de si hay cables, o cuáles son los cables que pasan por el sector del edificio en
cuestión, lo que debe hacer es desconectar toda la alimentación eléctrica. ¡Nunca, jamás, toque
los cables de alimentación eléctrica! Incluso si piensa que ha desconectado toda la
alimentación eléctrica del área en la que realizará el trabajo. No hay ninguna forma de saber si
tienen corriente.
2. Antes de comenzar a trabajar, aprenda dónde están ubicados los extintores de incendios
correspondientes a esa área.
3. Use ropa adecuada. Los pantalones largos y las mangas largas ayudan a proteger sus brazos y
piernas. Evite usar ropa demasiado floja o suelta. Si la ropa se engancha en alguna parte, puede
resultar lastimado.
4. Si piensa trabajar en un techo falso, inspeccione el área. Esto se puede hacer levantando
algunas tejas del techo y echando una mirada. Esto lo ayudará a ubicar los conductos eléctricos,
los conductos de aire, el equipo mecánico y cualquier otro elemento que pueda provocar
problemas posteriormente.
5. Si debe cortar o serruchar, proteja sus ojos usando anteojos de seguridad. Es buena idea usar
anteojos de seguridad cuando trabaja en un espacio reducido o debajo de un techo falso. Si algo
le cae encima, o si se apoya sobre algo en la oscuridad, sus ojos estarán protegidos.
6. Consulte al ingeniero de mantenimiento del edificio para saber si hay asbesto, plomo o PCB en la
zona donde usted debe trabajar. De ser así, siga todas las ordenanzas gubernamentales que se
refieren a ese material.
7. Mantenga el área de trabajo ordenada y prolija. No deje herramientas en el piso en lugares donde
se pueda tropezar con ellas. Tenga cuidado con las herramientas que tienen cables de extensión
largos. Al igual que con las herramientas, es muy fácil tropezar con estos cables.
4.7. Documentación de una red.
Documentación de una red existente
La cuestión principal en la implementación de un cambio sobre una red es definir la red
existente y las limitaciones impuestas por sus configuraciones hardware y software. Una
documentación comprensiva es la clave para la realización de una actualización efectiva y
económica sobre una red cualquiera. Esta lección se centra en la forma de establecer una
base para la realización de cambios posteriores en la red mediante su documentación y en
observar algunas herramientas útiles que pueden ayudar a facilitar el proceso.
Documentación
La preparación y mantenimiento de los registros de una red son tareas esenciales que dan
resultado cuando se necesitan implementar cambios en una red. La documentación
actualizada proporciona información sobre el aspecto y el rendimiento que debe tener la red,
así como dónde buscar ayuda si existen problemas. La documentación desarrollada para
mantenimiento, actualización y resolución de problemas debería contener:
Un mapa completo de la red, incluyendo la ubicación de todo el hardware y
detalles sobre el cableado.
Información de los servidores, incluyendo los datos de cada servidor y el
programa y ubicaciones de los sustitutos.
Información sobre el software, como los detalles de licencias y soporte.
Nombres y números de teléfono esenciales para los contactos de asistencia de
vendedores, proveedores, contratistas y otros.
Copias de todos los contratos de servicio.
Un registro de todos los problemas, sus síntomas y soluciones, incluyendo
fechas, contactos, procedimientos y resultados.
Una documentación debería ser completa, bien organizada y almacenada donde esté
disponible fácilmente. Aunque esto podría parecer obvio, es fácil que la documentación se
pierda o que el responsable individual del mantenimiento de estos registros abandone la
organización sin la preparación del sucesor.
Definición de una línea de base
En cuanto la red esté operativa, es el momento de establecer una línea de base, que es,
simplemente, una documentación de los valores de funcionamiento normal de la red. La
línea de base se debe actualizar siempre que nuevos usuarios, hardware o software se
incorporen al sistema o lo abandonen.
La creación de un buen inventario y el establecimiento de los valores de rendimiento de la
línea de base constituyen la referencia sobre la cual se pueden identificar futuras
necesidades para la modificación de la red.
La siguiente lista incluye los pasos que se necesitan tomar para documentar la red:
Registrar el modelo, número de serie y ubicación de los servidores, estaciones
y routers. Registrar la información de garantía para cada dispositivo.
Tomar nota del lugar donde se ha almacenado toda la información de garantía.
Esto será útil cuando un producto necesite una revisión o reemplazamiento.
Hacer una copia de los archivos importantes del equipo como Autoexec.bat y
Config.sys. Hacer un conjunto completo de copias de seguridad en cinta del sistema.
Las cintas de las copias importantes se deberían guardar en una caja fuerte o en un
servicio de almacenamiento de datos externo.
Crear un mapa de la red, anotando la distancia aproximada entre las
estaciones y el servidor. Tomar nota de las áreas donde el cable atraviesa una pared
o se coloca en el espacio intermedio entre el techo y el suelo. Esto será útil para los
arquitectos de la red y de la construcción en la planificación de las futuras
modificaciones de la red. La documentación de los recorridos de los cables puede
facilitar las inspecciones de construcción y ayudar a demostrar el cumplimiento de las
regulaciones como las normas contra incendios que prescriben las reglas de los
cables colocados en el espacio intermedio de un edificio.
La comprensión del funcionamiento correcto de una red es tan importante como el
conocimiento de la forma de resolver los problemas cuando la red haya fallado. La
monitorización y la documentación de la red cuando está funcionando correctamente
proporciona medidas de la línea de base frente a las que se puede comparar un rendimiento
no usual.
La línea de base debe ser establecida antes de que algo falle. Una vez que existe la línea
de base, todos los comportamientos de la red se pueden comparar con ella como parte de
un proceso de monitorización subsiguiente.
La línea de base es especialmente útil en el establecimiento e identificación de:
Patrones diarios de utilización de la red.
Cuellos de botella.
Patrones de utilización con carga pesada.
Diferentes patrones de tráfico de los protocolos.
Documentación del rendimiento de la red
Una vez que el hardware ha sido documentado y la red está en funcionamiento, es casi el
momento de registrar la línea de base de rendimiento de la red. Sin embargo, es mejor
esperar a hacerlo cuando se haya verificado que todas las conexiones de la red son
correctas, todo el hardware esté operativo y se hayan realizado todos los ajustes necesarios
en el sistema. Cuando se haya determinado que el rendimiento de la red es aceptable, es
momento de registrar la línea de base.
El concepto de rendimiento de red es tan amplio que abarca la red entera, incluyendo:
Servidores.
Tarjetas de red (NIC).
Conexiones mediante cable a las tarjetas de red.
Hubs.
Tendido de cable.
Routers.
Bases RJ-45.
Tarjetas de red para estaciones.
Existe una serie de herramientas que ayudan al administrador a documentar el
rendimiento de la red, incluyendo monitores de red, analizadores de protocolos y otras
utilidades.
Monitores de red
Un monitor de red es una herramienta útil que captura y filtra los paquetes de datos y
analiza la actividad de la red. Es fácil documentar los indicadores de rendimiento de la red
con un monitor de red, pero requiere mucha práctica para analizar rápidamente las
estadísticas de rendimiento de la red. Algunos sistemas operativos de red incluyen software
de monitorización
de red entre sus
recursos y otros
fabricantes de
software también
ofrecen monitores
de red.
Analizadores de
protocolos
Un analizador de
protocolos es una herramienta que hace un seguimiento a las estadísticas de la red. Puede
capturar tramas erróneas y aislar su fuente (las tramas de datos son paquetes de
información transmitidos como una unidad sobre una red. Son definidas por el nivel de
enlace de datos de la red y sólo existen en los cables que conectan los nodos de la red). Un
analizador de protocolos puede ser útil para una compañía que dispone de una red grande
con una plantilla altamente cualificada.
Existen varios analizadores de protocolos. Los analizadores de protocolos pueden ser
programas software baratos que se ejecutan en equipos conectados en red existentes. Los
analizadores de protocolos más avanzados y más caros son equipos portátiles de propósito
especial que se pueden conectar a cualquier porción física de la red para facilitar el
aislamiento de los problemas de transmisión de datos.
Packet Internet Groper (Ping)
Para comprobar si la conexión de la red es completa desde el servidor hacia la estación, se
puede utilizar una utilidad simple, el Packet Internet Groper, mejor conocido como «ping».
La utilidad ping funciona enviando un mensaje a un equipo remoto. Si el equipo remoto
recibe el mensaje, responde con un mensaje de contestación. La respuesta consta de la
dirección IP de la estación remota, el número de bytes del mensaje, el tiempo que se tardó
en responder (en milisegundos, ms) y el tiempo de espera (TTL, Time-To-Live) en segundos.
Si se recibe el mensaje «Request timed out» («Superado el tiempo de respuesta»), significa
que la estación remota no respondió antes de la expiración de tiempo TTL. Esto podría ser
consecuencia de un tráfico pesado en la red o podría indicar una desconexión física en la
ruta hacia la estación remota.
Tracert
Otra utilidad que documenta el rendimiento de la red se llama «tracert». La equivalente en
UNIX se llama «traceroute». Mientras la utilidad ping, simplemente, permite conocer si la
conexión desde A hacia B es completa, tracert informa sobre el camino y el número de
saltos que da el paquete de datos hasta llegar a su destino.
Un ejemplo simplificado de una respuesta de tracert:
Seguimiento del camino hacia 100.50.200.10 sobre un máximo de 30 saltos desde
Widgets en Ozona Fl hasta Widgets en Seattle WA».
1 125 ms 150 ms 155 ms Widgets.Ozona.F1 .gte.net
2 160 ms 165 ms 170 ms BZNet.Memphis. TN
3 175 ms 180 ms 185 ms Mtnnet Denver. CO
4 190 ms 200 ms 210 ms Widgets, Seattle.WA mci.net
Otras herramientas software
Existe una variedad de utilidades disponibles que funcionan con el protocolo TCP/IP para
documentar el rendimiento de la red.
Ipco
nfig
Es
te
com
and
o de
diag
nóst
ico
mue
stra
todo
s los
valo
res
actu
ales
de
la
conf
igur
ació
n de la red TCP/IP. Este comando es de uso en sistemas que ejecutan DHCP, permitiendo
que los usuarios determinen los valores de configuración de TCP/IP que han sido
establecidos por DHCP.
Winipcfg
Utilidad para la resolución de problemas en Windows 95 y 98 que permite a los usuarios
acceder a la información sobre la configuración de TCP/IP y las tarjetas de red. Winipcfg
muestra la dirección física, la dirección IP, la máscara de subred y los parámetros por
omisión del gateway de la tarjeta de red TCP/IP primaria (o los parámetros de múltiples
tarjetas de red si hay más de una instalada).
Netstat
Este comando está disponible sólo si se ha instalado el protocolo TCP/IP. Netstat muestra
todas las conexiones y los puertos de escucha, las estadísticas, direcciones y número de
puertos de Ethernet, las conexiones y estadísticas de los protocolos y los contenidos de la
tabla de encaminamiento.
Nbtstat
Nbtstat está disponible sólo si se ha instalado el protocolo TCP/IP. Éste muestra las
estadísticas de los protocolos y las conexiones TCP/IP actuales utilizando NetBIOS sobre
TCP/IP. Esta utilidad puede mostrar:
La tabla de nombres de un equipo remoto.
La tabla de nombres de un equipo remoto utilizando su dirección IP.
Los contenidos de la caché de nombres NetBIOS, proporcionando la dirección
IP de cada nombre.
Nombres NetBIOS locales.
Estadísticas de resolución de nombres para la resolución de nombres en redes
de Windows.
Nbtstat también puede:
Mostrar las sesiones tanto de clientes como de servidores, mostrando los
equipos remotos sólo mediante la dirección IP.
Mostrar las sesiones tanto de clientes como de servidores. Intenta convertir la
dirección IP del equipo remoto en un nombre utilizando el archivo HOSTS.
Cuellos de botella
La mayoría de las actividades de la red involucran las acciones coordinadas de varios
dispositivos. Cada dispositivo toma una cierta cantidad de tiempo para realizar su parte de la
transacción. Se obtiene un rendimiento pobre cuando uno de estos dispositivos utiliza
notablemente más tiempo de CPU que los otros. Al dispositivo problemático se le referencia
como cuello de botella. La monitorización del rendimiento puede ayudar a identificar y
eliminar cuellos de botella.
La localización de cuellos de botella suele ser una indicación de que es necesaria la
actualización de una porción de la red. Para resolver los problemas de los cuellos de botella,
un administrador debe estar capacitado para identificar los dispositivos que están dedicando
más tiempo del que deberían a realizar sus tareas. Los administradores pueden utilizar los
monitores de rendimiento, incorporados por la mayoría de los sistemas operativos de red,
para identificar cuellos de botella.
Estos dispositivos tienden a convertirse en cuellos de botella:
CPU.
Memoria.
Tarjetas de red.
Controladores de disco.
Medio de la red.
Un dispositivo se convierte en un cuello de botella por una de las siguientes razones:
No se está utilizando eficientemente.
Está utilizando otros recursos o más tiempo de CPU del que debería.
Es demasiado lento.
No tiene la capacidad de manejar la carga colocada en él.
Una monitorización apropiada descubrirá estas situaciones y proporcionará información
para ayudar a identificar el/los componente(s) del problema.
Documentación del rendimiento del servidor
El rendimiento del servidor suele verse afectado por un incremento en el número de
usuarios que se encuentran en el sistema. La comparación de las estadísticas actuales de
rendimiento del servidor con la información de la línea de base inicial puede ayudar a
confirmar una sospecha de que el servidor no se está utilizando tan bien como antes. Sin
embargo, el primer indicio de que el servidor no está rindiendo bien es probable que proceda
de los usuarios finales. Su uso diario y la familiaridad con la respuesta del sistema es un
buen indicador del rendimiento del servidor.
Los monitores de rendimiento (software que se incluye en la mayoría de los sistemas
operativos) hacen un seguimiento al rendimiento del servidor de una red y pueden
monitorizar varias funciones del sistema mostrando los resultados en formato gráfico o
tabular. Ciertos indicadores pueden ayudar a localizar y aislar problemas con el rendimiento
del servidor, incluyendo:
Demanda de recursos del servidor.
Áreas de congestión de datos.
La actividad de un proceso individual.
Un monitor de rendimiento puede observar el rendimiento de un sistema remoto y alertar
al administrador del sistema sobre las condiciones del servidor que necesita atención.
También puede transferir datos desde el monitor de rendimiento hacia otras herramientas
de rendimiento.
Gestión integral del sistema
Conforme las redes han crecido en tamaño y complejidad, el seguimiento de un sistema
completo se ha hecho mucho más difícil. Debido a esto, los vendedores han desarrollado
utilidades que hacen para la gestión de sistemas lo que los monitores de rendimiento hacen
para la monitorización del sistema. Estas aplicaciones de gestión de grandes sistemas
proporcionan gestión centralizada para programas de sistemas distribuidos.
El software de gestión de sistemas proporciona administración centralizada de los equipos
de una WAN. Este servicio incluye:
Colección de información del inventario de hardware y software.
Distribución e instalación de software.
Compartición de aplicaciones de red.
Resolución de problemas hardware y software.
El software de gestión de sistemas complementa a otras utilidades de gestión de sistemas
encontradas en los sistemas operativos de red. Los ejemplos que siguen utilizan el Servidor
de gestión de sistemas (SMS; Systems Management Server) de Microsoft para mostrar estas
utilidades.
Gestión de inventario. Este software recoge y mantiene un inventario de hardware y
software para cada equipo y almacena el inventario en una base de datos. Los elementos del
inventario típico incluyen el tipo de CPU, la cantidad de memoria RAM, el tamaño del disco
duro, el sistema operativo y las aplicaciones software para cada componente instalado.
Distribución de software. Una vez que el inventario de un equipo consigue parte de la
base de datos, una utilidad de distribución de software puede instalar y configurar nuevo
software o actualizar el software instalado previamente de forma directa sobre un cliente.
Este mecanismo de distribución también se puede utilizar para ejecutar comandos, como
detectores de virus, sobre los clientes.
Gestión de las aplicaciones compartidas. Las aplicaciones compartidas también
pueden ser distribuidas a un servidor para que accedan los clientes. Cuando un usuario se
registra en la red, el software de gestión construye una carpeta de programas sobre cada
cliente. Estas carpetas de programas contienen a su vez más carpetas que incluyen los
iconos de programas que representan las aplicaciones compartidas disponibles para el
usuario. Para iniciar la aplicación compartida, el usuario selecciona un icono de la carpeta de
programas mostrada en la estación local (la aplicación está almacenada realmente en el
disco duro del servidor).
Control remoto y monitor de red. El Servidor de gestión de sistemas proporciona las
utilidades Help Desk y de diagnóstico que permiten controlar y monitorizar directamente a
los clientes remotos. Las utilidades de diagnóstico permiten visualizar la configuración actual
de los clientes. La utilidad Help Desk proporciona acceso directo al cliente remoto.
La siguiente tabla muestra los entornos soportados por el Servidor de gestión de sistemas.
Entorno
Soportado
Sistemas
operativos
de red
Windows NT Server 3.51 y superiores; Windows
2000 Server; LAN Manager 2.1 y superiores; Novell
NetWare 3.1x y 4.x; IBM LAN Server 3.0 y 4.0;
cualquier protocolo soportado por Windows NT Server,
incluyendo TCP/IP e IPX
Equipos
clientes
Windows 3.1 y Windows para trabajo en grupo 3.11;
Windows 95 y 98; Windows NT Workstation 3.5 y
superiores; Windows 2000 profesional; MS-DOS 5.0 y
superiores; IBM OS/2 2.x y OS/2 Warp; Apple
Macintosh (System 7 y superiores)
Mantenimiento de un historial de la red
La documentación de un historial de la red es tan importante como la monitorización de su
rendimiento en tiempo real. Un registro escrito de la red puede:
Indicar los aspectos de rendimiento o equipamiento significativos que podrían
fallar en la monitorización en tiempo real.
Proporcionar un historial contra el que se pueda comparar la información
actual.
Si existe más de un administrador es importante que todos ellos realicen sus anotaciones
en una única documentación de registro compartida. Este registro puede convertirse en una
guía de gran valor para los futuros administradores que podrían necesitar la realización de
un seguimiento a un problema de rendimiento, o resolver los aspectos de red relacionados
con el crecimiento del sistema, así como los cambios de equipamiento, mantenimiento y
configuración del sistema.
Este documento debería registrar:
Los datos y descripciones de adquisición e instalación.
Información descriptiva completa sobre los individuos clave, como los
contratistas responsables de la instalación.
Información del vendedor, modelo y garantía, incluyendo los números de
serie.
El proceso de instalación y sus resultados.
Las configuraciones de la red inicial y subsiguiente.
Las políticas y procedimientos de uso de la red.
Las asignaciones de recursos y unidades de red.
Copias de los archivos cruciales de configuración de la red, como Config.sys y
los archivos .BAT.
Cualquier configuración inusual de los programas de aplicación.
Cualquier configuración particular del equipo, placa madre o periféricos.
Cualquier problema y sus soluciones.
Cambios hardware y software.
Cualquier actividad que afecte a la topología o la arquitectura.
Es importante que toda la documentación histórica de la red sea fácil de acceder y fácil de
leer. Los gráficos o incluso los bocetos dibujados a mano pueden ser muy útiles.
Un historial de una red puede ser registrado en línea o en un libro de notas. El
mantenimiento del registro en un archivo de equipo puede plantear dificultades, sin
embargo, especialmente si el archivo se almacena en un disco duro y se rompe el equipo o
el disco. El tipo de comportamiento de este registro es exactamente registrar los eventos
que ocurran.
4.7.1.
Diario de Ingeniería.
4.7.2.
Diagramas.
4.7.3.
Cables etiquetados.
4.7.4.
Resumen de tomas y cables.
4.7.5. Resumen de dispositivos, direcciones MAC e IP.
Direcciones IP
Para que dos ordenadores, situados en cualquier parte del mundo, puedan comunicarse entre sí, es
necesario que estén identificados de forma conveniente a través de una dirección.
Cada ordenador conectado a Internet tiene una dirección exclusiva y que lo distingue de cualquier
otro ordenador del mundo, llamada dirección IP o número IP.
Dos ordenadores no pueden tener el mismo número IP, pero un ordenador sí puede tener varios
números IP(dot quad notation).
Las direcciones IP están formadas por cuatro números separados por puntos, cada uno de los
cuales puede tomar valores entre 0 y 255. Por ejemplo:
125.64.250.6
Cada vez que se ejecuta una aplicación para utilizar un servicio en Internet, el software de
comunicaciones del ordenador local necesita conocer la dirección IP del ordenador remoto con el
que se quiere entrar en contacto.
Como memorizar números resulta complicado existe un sistema de identificación por nombres.
http://www.unav.es/cti/manuales/Redes_Internet/#121
4.7.6.
Material y presupuestos.
4.8. Presentación del proyecto.
Análisis Preliminar de Proyecto
Cuando se pretende montar un negocio y en nuestro caso un cibernegocio, es necesario tomar algunas
consideraciones antes de comenzar, y como parte inicial del proyecto se realizó un análisis de las condiciones que
debe tener un cibernegocio para su óptimo funcionamiento técnico y administrativo.
He aquí alguno de los requisitos más importantes que debe cubrir todo cibernegocio:
 Ubicación Geográfica.
 Acondicionamiento del lugar.
 Selección de los equipos.
 Servicios.
3.1.1 Ubicación geográfica
Como todo negocio muchas veces la ubicación geográfica ayuda a la prosperidad del mismo, en el caso de
los cibernegocio una ubicación cercana a una Escuela, Instituto o a un lugar donde haya una gran concentración de
personas y en su mayoría jóvenes es la ubicación ideal para el cibernegocio ya que son estos los que más utilizan el
acceso a los procesos informáticos.
Una vez que se ha ubicado el lugar donde estará el negocio, es conveniente que el área que ocupe sea de
por lo menos 36 metros cuadrados siendo esta el área mínima que nos dará el espacio suficiente para acondicionarla
adecuadamente y tener por lo menos 8 equipos de cómputo para ofrecer servicios.
3.1.2 Acondicionamiento del lugar
Una vez que se tiene el local para el cibernegocio es necesario realizar las tareas de acondicionamiento del
lugar, y éstas tareas consisten en: Pintar, construir o instalar estructuras y/o equipos, instalar la iluminación
adecuada, realizar la instalación eléctrica y realizar un cableado estructurado.
Pintar: Es importante detallar en la decoración de un cibernegocio ya que ésta será nuestra primera carta de
presentación ante la llegada de nuestros clientes, se debe tomar en cuenta también que los colores obscuros pueden
llegar a afectar nuestra iluminación, se debe procurar dar un ambiente modernista y vanguardista al momento de
realizar la decoración, plasmar detalles que sean agradables a la vista.
Construir o instalar estructuras y/o equipos: Es necesario que el local cuenta con un baño, ya sea para
uso del personal o para ofrecerlo como “un servicio más”, uno de los atractivos de un cibernegocio en nuestra región
es el aire acondicionado, por esa razón es necesario instalar un equipo de aire condicionado que nos permita ofrecer
un ambiente fresco a nuestros clientes, y aunque en la actualidad los equipos de aire acondicionado denominados
“MultiSplit” son algo costosos, el beneficio económico que se obtiene se ve reflejado en el recibo de energía
eléctrica. Sin embargo al adquirir una aire acondicionado es indispensable que tomemos en cuenta el área y/o la
capacidad que puede cubrir dicho equipo. Una elección equivocada de Aire Acondicionado aumentara el costo a
pagar por la energía eléctrica consumida. Cabe mencionar que si nuestro local es “alto” será necesaria la colocación
de un techo falso mediante plafón el cual reducirá el área a climatizar permitiendo un mayor ahorro de energía
eléctrica.
Actualmente se venden en el mercado escritorios y/o estructuras que nos permiten colocar nuestros equipos
de cómputo, sin embargo podemos construir nuestras propias estructuras metálicas, de madera o de concreto.
Las estructuras que se vende en el mercado están hechas mediante ciertas consideraciones o parámetros que
hacen que los usuarios tengan una mayor comodidad y confort y así mismo reducen riesgos potenciales de sufrir
algún tipo de lesión oseoesqueléticas. Es importante que se tomen en cuenta dichas consideraciones al momento de
realizar una estructura propia.
Al momento de diseñar el nuestra estructura debemos tomar en cuenta que el monitor es el elemento con el
que el usuario interactuara de manera directa con la vista, cabeza y cuello razón por la cual este elemento se debe
encontrar a una altura adecuada que permita ofrecerle comodidad, por lo regular la altura de la base en donde debe
colocarse el monitor va desde 68 a 75 cm. La posición del monitor debería permitir que su cabeza pueda acomodarse
sin problema en relación con los hombros. No deberá tener que doblar el cuello hacia adelante de manera incómoda
o hacia atrás. Por lo general, la pantalla del monitor y la cara del usuario deberán estar en paralelo.
Ajuste del brillo y del contraste: Reduzca la probabilidad de que los clientes sufran molestias oculares al
usar controles de brillo y contraste en su monitor para mejorar la calidad de texto y de gráficos.
Eliminación del Brillo y Reflejos del Monitor: Es necesario eliminar el brillo y los reflejos. Para controlar
la luz del día, deberá usar cortinas o tratar de seguir otras medidas para reducir el brillo que afecta la pantalla. Use
iluminación indirecta o reducida para evitar el reflejo sobre la pantalla del monitor.
Si el brillo es un problema, considere estas medidas:
Traslade el monitor a un lugar donde no haya brillo ni reflejos.
Apague o reduzca la iluminación del techo y use iluminación para
trabajos específicos (una o más lámparas ajustables) para iluminar el
monitor.
Si no puede controlar la iluminación del techo, trate de colocar el
monitor entre las hileras de luces, en vez de colocarlo directamente
debajo de una hilera de luces.
Acople un filtro para reducir el brillo al monitor.
Coloque un visor sobre el monitor. Este dispositivo puede llegar a ser
tan simple como un trozo de cartón encima del borde superior frontal
del monitor.
Evite inclinar o hacer que gire la pantalla de manera que invite a una
postura incómoda de la cabeza o de la espalda.
Elimine el brillo: Trate de colocar el monitor de manera que la parte lateral mire hacia las ventanas. Trate
de evitar las fuentes de iluminación destellantes en su campo visual. Por ejemplo, no frente a una ventana que no esté
cubierta durante las horas del día.
El teclado deberá estar ubicado a un máximo de 15 centímetros por debajo del monitor y debe permitir que
sus hombros queden relajados y sus codos se apoyen de manera cómoda a los lados. Ajuste la inclinación del teclado
para que sus muñecas queden en línea recta.
Una manera práctica de comprobar si esta ubicado de adecuadamente es realizar lo siguiente:
Voltee su silla hacia el costado
para poder determinar si la altura
de su codo es cercana a la altura
de la hilera de la tecla de inicio.
Figura 13. Posición correcta del Teclado
Coloque el teclado y mouse, de modo que se puedan usar en una posición relajada y cómoda. De esta
manera el usuario, no tendrá que estirar o encoger sus hombros mientras trabaja.
¡CORRECTO!
¡INCORRECTO!
Figura 14. Posición correcta del Mouse
Es importante ofrecer a los usuarios sillas, que tienen sectores tipo almohadilla para descansar los brazos.
Los cuales permiten apoyar la parte media de sus antebrazos para estar más cómodo mientras se escribe, o se hace
uso del mouse o se descansa. Los descansabrazos están ajustados de manera adecuada cuando sus hombros están en
una posición cómoda y sus muñecas quedan derechas.
También se pueden añadir otro tipo de comodidades para el usuario tales como el apoyo para las palmas de
las manos como los mouse pad de gel.
Los descansabrazos no deberían:
Hacer que encoja o deje caer los hombros.
Poner demasiada presión sobre sus codos.
Hacer que sus brazos se extiendan demasiado (con los codos hacia los costados).
Es importante que la silla permita apoyar el cuerpo completamente. Distribuya su peso de forma pareja y
use todo el asiento y respaldo para soportar su cuerpo. Si su silla tiene un respaldo inferior ajustable, alinee los
contornos del respaldo de la silla con la curva natural de la parte inferior de la columna vertebral.
La silla debe permitir que la parte inferior de la espalda descanse bien.
¡CORRECTO!
¡INCORRECTO!
Figura 15. Postura correcta al sentarse.
Es importante que la silla permita que los pies puedan descansar firme y cómodamente sobre el piso cuando
esté sentado. Utilice una silla y superficie ajustable que permita que sus pies descansen firmemente sobre el piso.
Asegúrese de dejar suficiente espacio debajo de la superficie de trabajo para sus rodillas y piernas. Es espacio debe
permitir estirar las piernas sin que exista algún obstáculo. Evite colocar cajas u otros elementos debajo de su
escritorio, lo que puede limitar el espacio para las piernas.
¡CORRECTO!
¡INCORRECTO!
Figura 16. Posiciones de los pies al sentarse.
Se pueden ofrecer portadocumentos, deberán ser colocados cerca del monitor a la misma distancia, altura
y ángulo del monitor. Al colocar el portadocumentos se contribuye a que su cuello se mueva cómodamente entre el
área de los documentos y el área de la pantalla, ayudándolo a mantener la posición balanceada de la cabeza en
relación con los hombros. Y el cliente estará cómodo.
Es posible que el mobiliario ajustable diseñado para la computadora no esté siempre disponible. Sin embargo, puede
usar toallas, almohadas, mantas y libros en distintas maneras, para:
Elevar la altura de la silla.
Crear un descanso para los pies.
Soportar la espalda.
Elevar el teclado o pantalla.
Proveer almohadillas de protección cuando sea necesario.
Instalar iluminación adecuada.
Existen en el mercado de la iluminación una gran diversidad de equipo, gabinetes y formas que ayudan a
que nuestro cibernegocio adquiera una imagen, sin embargo al momento de tomar la decisión debes pensar no solo
en lo atractivo de las luces, sino lo adecuada que debe ser para el usuario que está frente a una computadora, la mejor
forma de iluminación nos la proporcionan las luces fluorescente tubulares, las cuales se deben poner sobre gabinetes
especiales que nos permiten reducir el brillo que pudieran emitir éstas lámparas y evitar que afecte a la vista.
Figura 17. Gabinetes de Iluminación
Instalación de Eléctrica y Cableado Estructurado
Debido a que dentro de un cibernegocio se tendrán instalados varios equipos de cómputo y en algunos casos
se tendrán dos o más equipos de aire acondicionado será necesario contar por lo menos con una línea de energía
eléctrica de 220 Volts, y que se realice la instalación adecuada y sobre todo el balanceo de cargas adecuado, para que
no tengamos problemas de sobrecalentamientos en los cables de conducción y podamos optimizar el uso de la
energía eléctrica.
Una vez que se tiene el local es necesario también que se realice un pequeño mapa de distribución de
equipos y/o áreas, esto ayudará a la planificación tanto de las instalaciones eléctricas como las de cableado de la red
LAN. Éste mapa ayudará a situar la mejor ubicación para el cuarto o closet de equipos de comunicación, lugar donde
se instalarán los “Switches”, “Routers”, “ Módems” , y demás dispositivos que permitan comunicar a nuestros
equipos, también será necesario que se consulte con el proveedor de Internet para saber qué tipo de conexión
brindará y qué tipo de equipos proporcionará, esta información nos ayudará a conocer si es necesario comprar otros
equipos además del Switch que se utiliza como componente mínimo para la instalación de una red LAN. Es
importante que al momento de realizar el cableado de la Red LAN se tomen en cuenta algunos de los puntos que
establecen las normas de cableado estructurado ya que siguiendo éstas observaciones estaremos garantizando la
calidad del servicio y economizando en cierta medida los gastos que posteriormente se pudieran tener por el
concepto de mantenimiento de la Red.
3.1.3. Selección de los equipos
Tal vez al momento de elegir el o los equipos de cómputo y en especial las Computadoras surja la
duda de comprar equipos de Marca (Compaq, GateWay IBM, etc) o comprar equipos ensamblados, esta elección
dependerá de la cantidad de capital que se tenga, es decir si al momento de adquirir equipos de cómputo la inversión
inicial no representa ningún problema , entonces podemos optar por adquirir equipos de cómputo de la marca que
deseemos y utilizar el nombre de la marca del equipo de cómputo o el logo de la misma para incluirlo como parte de
la decoración de nuestro negocio, pero si no se cuenta con demasiado capital nuestra opción de compra de equipo de
cómputo deberá ser el de computadoras ensambladas ya que estos equipos por lo regular son hasta en un 40 % mas
económicos que los equipos de marca.
Otra duda común que surge es la siguiente ¿El equipo ensamblado contiene el mismo software legal que el
equipo de marca? ¿Puedo pedir que mi equipo ensamblado contenga todo el software que yo quiera?. Así es, los
equipos ensamblado también cuentan con licencias especiales denominadas OEM (Original Equipment
Manufacturer, Fabricantes de equipo original) la cuales garantizan que el equipo ensamblado contiene software
legal, es importante que cuando compremos equipo ensamblado estos cuenten con los hologramas propios de los
programas que se instalaron para certificar que esta adquiriendo software original y con licencia.
Antes de adquirir un equipo de cómputo, entendamos algunos conceptos que nos ayudarán a realizar la
mejor elección de las computadoras que utilizaremos dentro de un cibernegocio.
Microprocesador
Es la pieza clave de una computadora, ya que es el encargado de organizar el funcionamiento de la misma,
así como de procesar la información, realizar cálculos y todas aquellas funciones que un programa requiera. En la
actualidad un microprocesador con una velocidad de por arriba de 1.7 GHz provee un buen rendimiento.
En la industria de los microprocesadores existen dos grandes Titanes: AMD Advanced Micro Devices
(Microprocesadores
ATHLON XP, SEMPROM, ATHLON
64 Bits)
e INTEL (Microprocesadores INTEL
®
CELERON D , PENTIUM 4, PENTIUM 4 HT, PENTIUM 4 HT EXTREME EDITION), que compiten día con día
por ofrecer microprocesadores de alta velocidad y rendimiento, por lo que, cualquiera de los equipos ofrecidos por
estas compañías actualmente ofrecen un buen rendimiento. Los factores que determinan el buen rendimiento de los
microprocesadores son:

Frecuencia del Bus de Sistema. Velocidad a la que se comunica el microprocesador con la tarjeta
madre. Existen velocidades que van desde los 330 MHz a los 800 MHz.

Memoria Cache. Memoria de alta velocidad que emplea el microprocesador para almacenar de
manera temporal datos que se utilizarán en próximas operaciones. Actualmente existen
capacidades que van desde los 128 Kb a los 2 Mb.

Velocidad de Microprocesador. Velocidad de funcionamiento o de procesamiento. En la
actualidad todavía existen máquinas funcionando con microprocesadores cuya velocidad es de
400 MHZ, sin embargo las velocidades que se pueden encontrar en lo microprocesadores actuales
van desde 1.7 GHz a
3.4 GHz.
Además de éstas características cada fabricante de microprocesadores agrega alguna otra característica
especial que aumenta el rendimiento del microprocesador ejemplo de estas características adicionales son las
tecnologías HT (Hyper Thread) o HTT (AMD)
Tarjeta Madre
Componente principal de una computadora sobre la cual se instalarán los demás componentes. Escoger la
correcta puede ser difícil ya que existen diferentes características que debemos contemplar:

Frecuencia de bus Frontal de Sistema. Velocidad a la que se comunica la tarjeta madre con el
microprocesador, algunas tarjetas soporta diferentes velocidades o frecuencias.

Tipo de microprocesador.
Actualmente las tarjetas madres que soportan microprocesadores
AMD no soportan microprocesadores INTEL. Cada tarjeta madre contiene las especificaciones y
las características del tipo de microprocesador que acepta así como las características especiales de
cada microprocesador.

Cantidad de memoria RAM que Soporta. En la actualidad las tarjetas madres para equipos de
escritorio o de uso doméstico, soportan cantidades de memoria que van desde 128 Mb a 4 GB.

Frecuencia de Tipo de Memoria RAM. Dependiendo de la tarjeta madre que se elija esta podrá o
no, soportar los diferentes tipos de velocidades existentes para las memorias RAM.

Cantidad de Ranuras de Expansión. Actualmente tan solo ranuras PCI. De acuerdo a la tarjeta
madre que se elija esta permitirá o no agregar nuevos dispositivos, como Tarjetas de Video,
Tarjetas de Sonido, Tarjetas Capturadoras de Video, etc.

Ranura para video AGP. Algunas tarjetas pueden o no tener esta ranura que permite agregar una
tarjeta de video proporcionando mayor rendimiento al equipo, debido a que se libera parte de la
memoria RAM que se utiliza cuando la tarjeta madre integra una memoria de video.

Capacidad para Tecnologías de Almacenamiento. En nuestros días el uso de dispositivos de
almacenamiento de gran capacidad y velocidad de transferencia de datos ha hecho posible el uso e
integración de nuevas tecnologías de transferencia de datos y de formas de almacenamiento tales
como SATA y RAID a equipos de escritorio o domésticos.
Memoria RAM
En cuestión de memorias existen muchas marcas y muchos tipos sin embargo en primera instancia la
característica que nos va a importar al momento de elegir una memoria es la capacidad de almacenamiento que
tenga; y actualmente la capacidad mínima que podemos pedir en un equipo ensamblado y que nos proporcionará el
rendimiento adecuado es de 256 MB; aunque existen módulos de memorias que van desde 128 MB hasta 1 GB de
capacidad con las que se pueden realizar combinaciones e incrementar la cantidad de memoria que puede tener el
equipo. Existen una restricción al momento de combinar módulos de memorias y ésta es que los módulos de
memoria posean la misma frecuencia o velocidad de transferencia de datos.
Una ultima observación que deberá hacer con respecto a la utilización de las memorias es saber si éstas le
permiten aprovechar las características propias del microprocesador, un ejemplo de esto es utilizar memorias de tipo
DUAL CHANNEL que permiten aprovechar la tecnología HyperThread que proporcionan algunos de los
microprocesadores INTEL.
La velocidad o frecuencia a la que trasmiten los datos la memoria van desde 266 Mhz a 800 Mhz y a mayor
velocidad de transferencia mayor rendimiento.
Almacenamiento
Conforme crece el uso de la información se va haciendo más necesario almacenar grandes volúmenes, por
lo que al elegir la capacidad de almacenamiento debemos analizar que tipo de información se almacenará en nuestra
computadora (videos, música, fotos, archivos, programas, etc) aunque en la actualidad la capacidad mínima de 40
GB que ofrecen los equipos ensamblados basta para poder tener instalados los programas más usuales y algunos
archivos de música y video.
Sin embargo actualmente también se están integrando tecnologías de almacenamiento tales como:
SATA (Serial Advanced Technology Attachment) proporcionara mayores velocidades de transferencia de
datos para discos duros, mejor aprovechamiento cuando hay varios discos, mayor longitud de cable, y capacidad para
conectarlos sin necesidad de apagar la computadora.
Se diferencia de su antecesor P-ATA en que los conectores de datos y alimentación son diferentes y el cable
es un cable no una cinta, con lo que se mejora la ventilación.
Los discos duros se conectan punto a punto, un disco duro a cada conector de la placa, a diferencia de
PATA en el que se conectan dos discos a cada conector IDE.
El hecho de que el cable sea tipo serie, es debido a que tiene menos cables y produce menos interferencias
que si se utilizase el sistema paralelo.
Su relación rendimiento/precio le convierte en un competidor de SCSI, ya están apareciendo discos como
WD Raptor de 10000rpm, que sólo existían en SCSI de gama alta. Esta relación rendimiento/precio le hace muy
apropiado en sistemas de almacenamiento masivos, como RAID.
Este nuevo estándar es completamente compatible con el actual sistema IDE, como su nombre indica [Serial
ATA] es una conexión tipo serie como USB, o FireWire. Ofrece velocidades de hasta 150MB/seg y no tardará en
llegar SATA-1500 con unos 1.5Gbps. SATA no supone un cambio únicamente de velocidad sino de cableado, se ha
conseguido un cable mas fino, con menos hilos, que funciona a un voltaje menor, más longitud de cable.
RAID (Redundant Array Of Independent Disks): Arreglo de discos redundantes independientes. El objetivo
de un Conjunto de discos redundantes independientes (RAID), (que originalmente fue conocido como Conjunto de
discos redundantes económicos) es proveer discos virtuales de un tamaño mucho mayor al de los discos
comúnmente disponibles.
Oficialmente existen 7 niveles: RAID 0 a RAID 6. También existen combinaciones de niveles de RAID, las
combinaciones más comunes son RAID 1+0 y RAID 0+1.
Los sistemas RAID son comúnmente implementados con discos de la misma capacidad para todo el
conjunto.
Finalmente una recomendación antes de adquirir equipos de cómputo, compare precios en diferentes lugares
y siempre tome en cuenta los puntos antes mencionados y no se deje llevar tan solo por el precio ya en buena medida
los precios están relacionados con respecto al rendimiento.
Impresora
Habiendo tantas impresoras de donde escoger, puede resultar confuso encontrar la impresora que se adapte
mejor para sus necesidades. Entender los conceptos siguientes le ayudará a elegir la mejor opción para un
cibernegocio.
Cuando se inicia un negocio se debe de tener por lo menos dos impresoras una de Inyección de tinta
(impresiones en color) y una impresora láser (Impresiones en negro a un bajo costo por impresión)
Impresora de Inyección de Tinta: Las impresoras de inyección de tinta, tienen boquillas diminutas que
esparcen tinta especialmente formulada sobre una página. Un método emplea tinta calentada (como la que usa la
línea Bubblejet de Canon) y otro método utiliza cabezas de impresión piezoeléctrica (como en las líneas Stylus Color
de Epson).
Impresora Láser: Las impresoras láser funcionan creando una imagen electrostática de una página
completa sobre un tambor fotosensible con un haz de luz láser. Cuando se aplica al tambor el polvo ultrafino de color
denominado tóner, éste se adhiere sólo a las áreas sensibilizadas correspondientes a las letras o imágenes sobre la
página. El tambor gira y se presiona contra una hoja de papel, transfiriendo el tóner a la página y creando la imagen.
Esta tecnología es similar a la que utilizan las fotocopiadoras, aunque hay diferencias en los detalles de la
transferencia de la imagen y en la temperatura interna de las unidades.
La impresora LED, creada originalmente por Okidata y producida también por Lexmark, constituye una
tecnología similar. Estas impresoras reemplazan el haz de luz láser con una disposición fija de diodos emisores de
luz (LED5) para crear la imagen; por lo demás, son similares en desempeño.
Las impresoras láser ofrecen mejor calidad de resultados que las impresoras de inyección de tinta. Sin
embargo, las impresoras de inyección de tinta se han vuelto parte importante de la impresión de oficinas pequeñas y
caseras debido a su alta calidad de impresión (que en texto compite con las impresoras láser), su calidad de color, su
versatilidad y en la integración "todo en uno" de impresora-escáner-fax. Las impresoras láser siguen siendo la mejor
opción para aplicaciones basadas en texto, debido a su velocidad, calidad de impresión y bajo costo por página.
El término resolución se emplea para describir la agudeza y claridad de la salida impresa. La resolución de
impresión se mide por lo regular en puntos por pulgada (ppp o dpi). Esto se refiere al número de puntos separados
que puede producir la impresora en una línea recta de una pulgada de longitud. La mayoría de las impresoras
funcionan a la misma resolución tanto en forma horizontal como vertical, de modo que una especificación como 300
ppp implica un cuadrado de una pulgada de 300 x 300 puntos. No obstante, hay algunas impresoras que especifican
resoluciones distintas en cada dirección, como por ejemplo, 600 x 1.200 ppp, lo que significa que la impresora puede
producir 720.000 puntos en una pulgada cuadrada. Actualmente las impresoras láser operan por lo regular a un
mínimo de 600 ppp
Un beneficio de las resoluciones más altas es el efecto que tienen en la reproducción fotográfica, pues
permiten crear impresiones de fotos más detalladas y con un grado más fino. Las nuevas impresoras fotorrealistas de
inyección de tinta combinan altas resoluciones (600 ppp y superiores) con gotas de tinta más pequeñas y técnicas
especiales de impresión a color, para crear impresiones que rivalizan con la calidad de las instantáneas cuando son
observadas a corta distancia. Las impresoras láser de 600 ppp y superiores también logran una mejor reproducción
fotográfica, aunque a través de medios diferentes
Cuando se trata de imprimir, la calidad de impresión es en realidad el aspecto principal. Sin embargo, es
importante verificar diferentes modelos y comparar precios, disponibilidad de suministros o cartuchos, el costo por
página, vida útil del equipo, rendimiento de los suministros, tiempo en el que se deberá dar mantenimiento, todo esto
con el único fin de obtener el mejor modelo de acuerdo a las necesidades del cibernegocio.
Recomendaciones para las impresoras de inyección de tinta:

Por lo menos dos cartuchos de tinta (uno para negro y otro para color).

Una resolución de impresión de 720 x 1440, 1200 ppp o superior.

Una velocidad de por lo menos 8 ppm para negro y 4 ppm para color.

Un puerto paralelo.

Que pueda ser operable en red.

Que sea compatible con el sistema operativo que se este utilizando.
Características optimas o deseables:

Cartuchos de tinta por separado para cada color

Características de Calidad Fotográfica

Cartuchos de tinta negra de alta velocidad para velocidad adicional

Puerto USB

Operable en un entorno de Red

Compatibilidad con el Sistema Operativo.
Recomendaciones para impresoras láser:

Una resolución de impresión de 600 ppp auténticos o superior

Velocidades de impresión de 8 ppm o superiores

PCL 5 o superior

Por lo menos 4 MB de RAM o más (instalada en fábrica o actualizable en campo)

Un puerto paralelo
Características optimas o deseables

Bandejas de papel de alta capacidad

Puerto USB (para un fácil movimiento entre PCs)

Puerto RJ45.

16 MB en memoria RAM
Cabe mencionar que en lugar de una impresora de inyección de tinta, puede adquirir una impresora láser
a color y aunque el costo de la impresora es elevado, el costo por impresión resulta muy económico.
Es importante tomar precauciones al almacenar el papel de impresión. El papel húmedo es una de las causas
principales de que éste se atore, se amontone y dé una mala cobertura del tóner. Siempre deberá almacenar el papel
en un lugar fresco y seco, y no abra un paquete hasta que esté listo para usarlo. Al cargar el papel dentro de su
impresora, siempre es una buena idea airearlo primero. Esto ayuda a separar las páginas individuales cuando la
impresora las extrae de la charola de papel.
Escáner
El escáner1, junto con la impresora es uno de los periféricos más utilizados, tanto en ámbito doméstico como
profesional, es un instrumento que mediante una aparente sencilla tecnología, nos permite convertir cualquier
documento de papel en formato digital para poderlo utilizar en una computadora, por lo regular se conectan al mismo
puerto paralelo o USB que emplea la impresora. Los escáneres ofrecen una forma de convertir documentos y
fotografías de muy diferentes tipos a una forma legible para la computadora.
Al igual que con las impresoras un escáner entre mayor resolución tenga, mejor será la calidad del
documento digitalizado.
Un escáner nos ahorrará tiempo al momento de querer copiar un texto de algún libro o revista, ya que solo
tendremos que poner la hoja o el texto que deseemos escribir en el escáner, y éste reconocerá el texto y podrá ser
enviado a cualquier programa que edite texto dentro de la computadora.
1
Palabra Aceptada y publicada por la Real Academia de la Lengua Española en su Vigésima Tercera Edición
Sin importar el uso final del documento digitalizado, la computadora recibe todas las digitalizaciones como
una imagen digital, por eso es importante tomar en cuenta que existen ciertos documentos que no deben ser
digitalizados, por que se pudiera estar cometiendo algún tipo de delito.
3.1.4 Servicios
Cuando finalmente se tiene ubicado y acondicionado un cibernegocio con la ayuda de profesionales en la
materia (instalación eléctrica, cableado estructurado), es necesario que cuente por lo menos con dos personas al
frente del negocio y que por lo menos una de ellas tenga el grado de técnico en informática o que cuente con estudios
y/o diplomados afines a la carrera de sistemas computacionales.
En primera instancia el servicio que proporciona un cibernegocio es el de renta de equipos de cómputo con
acceso a Internet, impresión, digitalización y elaboración de documentos, sin embargo con el personal adecuado se
podrían ofrecer los siguientes servicios:
 Elaboración de paginas Web y hospedaje de las misma
 Mantenimiento preventivo y correctivo a equipos de cómputo
 Asesoría en procesos informáticos (Declaración de impuestos ante la Secretaria de Hacienda,
IMSS, pagos por Internet, trámites electrónicos, correo electrónico.)
 Cursos Presenciales
 Cursos a través de Internet
 Asesoría para Adquisición de Equipos de Cómputo
 Desarrollo de Software
 Capacitación de personal
 Venta de equipos de Cómputo
 Reparación e instalación de equipos de Cómputo y Redes
 Envió y Recepción de Fax
 Servicio de Caseta Telefónica
 Renta de sala y/o equipos de cómputo para Conferencias
Unidad 5
Planeación y diseño básico de una LAN.
5.4 Análisis de requerimientos.
5.4.1 Evaluar las necesidades de la red.
ANALISIS DE SISTEMAS
La primera tarea para construir una red productiva, es el balancear
requerimientos técnicos, demandas de usuarios, y costos. Esto es duro, pero
tiene sus recompensas, El análisis de sistemas se realiza en 4 pasos
importantes:
1. Una investigación preliminar.
2. Recolección de datos.
3. Análisis de los datos.
4. Reporte de requerimientos.
El primer interés del análisis de datos es saber si debemos preocuparnos por
instalar una red. No hay nada peor que saber que perdiste tu tiempo. Por eso es
que se debe realizar una INVESTIGACIÓN PRELIMINAR antes de empezar a
involucrarte en la LAN. Durante este proceso puedes determinar si necesitas una
red.
Si decides construir una LAN entonces, el siguiente paso es la obtención de
datos.
La RECOLECCION DE DATOS es el proceso de determinar quien este haciendo
que a quienes. La objetividad es crucial en este proceso porque si los datos no
son puros pueden llevarte a conclusiones equivocadas. Una vez que tengas los
datos, estos deben ser analizados.
Durante el ANALISIS DE LOS DATOS organizas todos las datos en 10
categorias cruciales. Cada una de estas categorias te servira en el reporte de
requerimientos, para formar objetivos, necesidades, requerimientos y
recomendaciones.
Estas categorías te ayudan a diferenciar los datos que recolectaste y
organizarlos de una manera significativa.
Finalmente, pones todo en papel. El paso 4 es el REPORTE DE
REQUERIMIENTOS Este reporte es el producto final de la fase de análisis de
sistema. Esta dirigido al diseño de la red y será utilizado como un plano para la
fase de instalación. La meta del diseño de red es crear un PLAN PARA LA LAN.
Empezemos:
1.- INVESTIGACIÓN PRELIMINAR
El resultado o producto de la investigación preliminar es el reporte de Fiabilidad.
La administración utiliza este reporte para seleccionar una de tres acciones:
Hacer nada
Construir la LAN inmediatamente
Continuar con la recolección de datos y análisis
La investigación preliminar consiste de cuatro partes : Definición del problema,
campo de acción, objetivos y el reporte de fiabilidad.
La fase de DEFINICIÓN DEL PROBLEMA es donde el analista de la red se hace
la siguiente pregunta "¿Porqué una LAN?" Puede que contestes con "No se
porque" o "¿,Porqué, preguntar porque?" La razón es, alguien te llamo; alguien
tenia una razón; alguien desea una LAN. Tu tarea inicial es averiguar porque te
llamaron y que es lo que esperan los usuarios de la LAN.
Antes de empezar a concebir una solución adecuada, debes entender el/los
problema(s) completamente. Una vez que la pregunta a sido contestada
adecuadamente, el alcance del proyecto debe ser determinado ¿Qué tan grande
será el sistema? ¿Será una LAN, WAN o MAN (Red de Area Metropolitana)?.
Establecer el ALCANCE de un proyecto es critico para poder mantener la LAN
bajo control. El alcance provee limitantes fisicos para cualquier Red, asi como
limitantes financieros y personales. En muchos casos el alcance actúa para
restringir y evitar que las soluciones se expandan demasiado y se hagan
intrabajables. Si el alcance es demasiado grande la Red nunca se terminará. Si
el alcance es demasiado equeño, de seguro la Red no cumplira con las
expectativas o necesidades de los usuarios.
Como puedes ver, el alcance es un aspecto vital de la investigación preliminar.
Es muy importante establecer un alcance de la LAN temprano durante el proceso
de análisis, esto tendra una gran influencia en costo, expectativas, ambiente y
tiempo.
Durante la tercera parte -Objetivos- es importante empezar a tratar de encontrar
algunas soluciones. Esto no significa que debes tener soluciones viables sino
simplemente formular algunas ideas.
Para empezar, puedes expresar el sistema como una lista de OBJETIVOS. Los
objetivos de la LAN son la piedra angular de la investigación preliminar. Deben
listar clara y concisamente la capacidad del nuevo sistema. Otra vez, la meta
aquí no es una solución comprensiva; solo ideas sencillas.
A continuación se muestra una lista breve de objetivos de una LAN.
 Compartir optimamente los archivos
 Distribución de las impresoras de la oficina
 Mejor comunicación entre empleados
 Acceso remoto desde los hogares de los empleados
En la culminación de la investigación preliminar, se presenta un reporte de
Fiabilidad a la administración. Esta presentación es tipicamente corta e informal,
generalmente consiste de un reporte de dos páginas y media hora para
preguntas y respuestas.
La meta del reporte es decidir si se seguira el objetivo. En muchos de los casos,
la administración decide seguir estudiando el proyecto.
El reporte de fiabilidad debe contener un breve enunciado sobre la definición del
problema, alcance, objetivos y solución preliminar, costos estimados y
beneficios.
Este reporte se utiliza como modelo para la fase de análisis del sistema.
2.- RECOLECCION DE DATOS
Asumiendo que la investigación preliminar es todo un éxito, el siguiente paso es
la recolección de datos. La RECOLECCION DE DATOS es el proceso para
determinar cuales son los datos de la LAN. La objetividad es crucial durante la
recolección de datos porque existen todo tipo de distorsiones que pueden alterar
los datos que recolectes.
El EFECTO HOWTHORNE por ejemplo, dice que los individuos que saben que
son parte de un estudio se comportan diferente a aquellos que no lo saben.
Otro factor es la CURVA DE APENDIZAJE que dice que los datos recolectados
al inicio de un experimentos no son siempre tan precisos como los recolectados
después. Por lo tanto, es importante compensar estos dos efectos.
Durante la recolección de datos, se analiza el sistema existente, hablas con
usuarios, investigas operaciones del negocio y observas el ambiente que te
rodea. Varios metodos pueden ayudar:
OBSERVACIÓN. La observación es la herramienta mas poderosa para
recolectar datos e información. Debes tener cuidado con el efecto Hawthorne.
Los usuarios usualmente se sienten amenazados cuando saben que son parte
de un estudio. Mientras observas, examina procedimientos, tecnologia existente
y lo más importante -Personas. Observa a los usuarios trabajando.
ENTREVISTAS. Las entrevistas pueden proveer mas detalle que la observación,
Algunos usuarios revelarán mas información durante entrevistas. Debes filtrar las
quejas y la ansiedad de los datos objetivos y cuidate de opiniones. Las opiniones
generalmente tienden a convertisrse en verdades a medias.
Finalmente, pon atención al lenguaje corporal y los tonos de voz del usuario.
DOCUMENTOS. Los documentos pueden darnos una mejor idea de cómo
trabaja un sistema. Debes examinar formas, manuales, cartas, memos, gráficas,
organigramas, diagramas y todo lo que puedas, para poder entender como
trabaja el negocio. Trata de determinar temprano cuales documentos tiene la
mayor información. Algunos documentos de interés incluyen recibos, cobros,
comunicaciones entre la oficina, reportes financieros y manuales de
entrenamiento.
CUESTIONARIOS. Los cuestionarios son grandes herramientas para recolectar
una gran cantidad de datos rápida y fácilmente. También hacen que los usuarios
hagan todo en trabajo. Los cuestionarios ideales son los que piden respuestas
cortas, tiene preguntas bien escritas que nos dan como resultado respuestas
claras y concisas. El cuestionario debe pedir respuestas cuantitativas cuando
sea posible.
Esto hace el análisis de datos más significativo. Los usuarios prefieren un
cuestionario que sea rápido y sencillo de contestar. Recuerda, los cuestionarios
son efectivos solo si son utilizados en combinación con entrevistas y otros
metodos de obtención de datos.
MUESTREO. Por medio de muestreos obtenemos datos cuantitativos. Puedes
utilizar el muestreo como una altemativa a recolectar TODOS los datos de un
sistema.
Durante el muestreo recolectas un subjuego de los datos totales y extrapolamos
los datos a través de la población total.
Durante la recolección de datos, ten en mente que tarde o temprano debes
analizar todo lo que obtuviste; por eso, trata de mantener las cosas sencillas.
3.- ANALISIS DE DATOS
Aqui, organizas los cuestionarios, documentos, notas y los datos en 10
categorías, Cada una de estas categorias te ayudará a diferenciar los datos que
recolectaste y a organizarlos de una manera signifícativa.
Al organizar tus datos en categorias, empezaras a notar que la Red comienza a
tomar forma. Esto es lo que debes tomar en cuenta:
FACTOR DE CARGA.El factor de carga afecta la topologia de la red. Ejemplo:
Un factor de carga alto, nos dice que la LAN necesita el poder de una
configuración Estrella con cable Par Trenzado. Una carga ligera favorece una
topología Bus con cable Coaxial el cual es menos costoso.
DISTANCIA ENTRE ARTICULOS DE HARDWARE.La distancia entre los
componentes de la red es también crítica para determinar la arquitectura de la
Red. Mucho cuidado al determinar distancias de cable. La mayoría de las veces
la distancia entre dos estaciones de trabajo no es la distancia recorrida por el
cable. Algunas corridas de cable estan tan enrrolladas o complicadas que la
distancia actual recorrida puede exceder la distancia entre estaciones por mucho
mas de lo planteado.
AMBIENTE. Considera el tipo de edificio donde se encuentra la LAN. La
estructura y composición de las paredes pueden afectar el cableado de la red.
También pon atención a los negocios de alrededor y el equipo que utilizan.
Maquinaria eléctrica cercana puede causar interferencias electromagnéticas con
tu topología, Finalmente, pon atención a la ergonomia.
La ERGONOMIA es el concepto de “acomodar la herramienta a la mano que lo
utiliza”. Asegurate que los usuarios tenga la iluminación adecuada. Si van a estar
muchas horas sentados enfrente de la PC que la silla sea comoda, una
temperatura comfortable y el equipo colocado para que pueda ser utilizado con
facilidad y comodidad.
SEGURIDAD. La importancia de la seguridad depende de la función principal de
la LAN. Debe empezar con un modelo de seguridad o estrategias basadas en
políticas internas. Ademas de las funciones de seguridad del Sistema Operativo
de Red, considere las fugas de información, intervenciones, identificación de
usuarios, pistas de auditorías y encriptación de datos.
EXPANSION FUTURA. Probablemente la pregunta que menos se hace uno
durante el análisis de datos es "¿Dónde estara esta LAN dentro de 3 años?.
Muchos administradores de red se envuelven tanto en el proyecto en mano que
se olvidan de ver a futuro. No importa cual vaya a ser la función de la red,
EXPANSIONES FUTURAS NO PUEDEN SER IGNORADAS, La LAN debe ser
fácilmente expandible para prevenir futuros dolores de cabeza o perdida de
empleo.
COSTO. El enemigo numero uno del ANALISIS DE SISTEMA es el dinero. El
Dinero ha roto mas sueño que cualquier pieza de hardware, Software, o
limitaciones de espacio. No importa que tan bien analices los datos, nunca
puedes escapar a esta realidad.
Evalua la LAN dentro de un costo razonable. Recuerda: No es tu trabajo
averiguar si la administración puede con el gasto de la LAN, pero asegurate que
la administración entiende todos los costos –especialmente- los escondidos:
como entrenamientos, Software nuevo, Upgrades de Hardware y Mantenimiento.
PROTECCION. Tolerancia a fallas del sistema ( SFT: System Fault Tolerance )
es un aspecto crítico en el diseño de la LAN. La mayoria de los administradores
de LAN desempleados olvidaron SFT. Esto es, el evitar o erradicar las posibles
causas de caidas del sistema, terminales, servidores, enlaces y todo aquello que
se requiere para mantener activa y funcional a nuestra LAN. Existen distintos
metodos y equipos para soportar apagones, incendios, inundaciones, terremotos,
atentados fisicos y a traves del sistema que se pueden implementar para
realmente asegurar un contínuo servicio óptimo de la Red.
CAMBIOS EN TECNOLOFIA. Problemas que no pueden tener solución hoy
puede que sean resueltos dentro de algunos meses con la salida al mercado de
un nuevo producto.
Mantente al día de los rápidos cambio en el área tecnológica. Hecha un vistazo
hacia donde se dirige la industria y después hechale un vistazo largo hacia
donde se dirige TU RED. Explora tecnología nueva que pueda hacer más
productiva y eficiente a tu LAN. Existen una cantidad enorme de revistas
semanales, mensuales, etc. que te pueden ayudar.
EQUIPO EXISTENTE. Creelo o no, la mayoría de las instalaciones de LAN
utilizan equipo ya existente. Esto significa que debes integrar componentes
nuevos de red con equipo viejo.
Asegurate de categorizar las diferentes estaciones y aplicaciones de software
que tus usuarios utilizan. No pierdas de vista la compatibilidad y capacidad de
hardware pora tu software y/o viceversa.
INTANGIBLE. Nunca podrás pensar en todo. Cuando aparezca algún dato que
no quede en ninguna de Ias categorías anteriores, ponla en intangibles.
Una vez que has terminado de recolectar los datos y analizarlos, es tiempo de
ponerlo en papel. El reporte de requerimientos es el producto final de tus
esfuerzos de análisis de datos.
4.- REPORTE DE REQUERIMIENTOS.
El reporte de requerimientos no es necesariamente para los Gerentes. Este
reporte esta dirigido al diseñador de la red. En las siguientes dos fases, el
diseñador utilizará el reporte de requerimientos como un plano para el diseño
final.
El reporte consiste de:
1. Estadísticas vitales
2. Investigación preliminar
3. Requerimientos
4. Recomendaciones
La primera sección, ESTADISTICAS VITALES trata con los antecedentes del
diseño de la red. Después la ,INVESTIGACIÓN PRELIMINAR simplemente
resume el reporte de fiabilidad. La tercera sección, REQUERIMIENTOS, es la
médula del reporte de requerimientos.
Aqui describes las fases de recolección de datos y de análisis. La sección de
requerimientos lista los requerimientos de diseño necesarios para completar
cada una de las 10 categorías de análisis.
Y la ultima sección, RECOMENDACIONES INICIALES, sirve como transición del
análisis de sistemas a diseño de redes.
5.4.1.1
Requerimientos de las estaciones de
trabajo.
El SISTEMA OPERATIVO DE LAS ESTACIONES DE TRABAJO (WOS) reside
en estaciones distribuidas y se encargan de procesamiento local y colocación de
recursos. La conexión clave entre las estaciones y el sistema operativo de la red
es_proveída por el SOFTWARE DE CONECTIVIDAD que son los drivers, y en
general todo aquel software que le dan posibilidad de comunicación y enlace a
nuestra estación de trabajo.
SISTEMA OPERATIVO DE LAS ESTACIONES DE TRABAJO (WOS)
Si el “caballo de trabajo” de la LAN es el Sistema Operativo, las riendas las lleva
el WOS (Workstation Operating System).
El WOS administra el procesamiento local y los recursos de la estación mientras
mantiene una conexión estable a la LAN. La belleza de algunos sistemas
operativos de red es que soportan varios sistemas: DOS, OS/2, Windows NT,
UNIX y Macintosh System 7 por ejemplo. El WOS reside en la estación y maneja
los requerimientos de procesamiento para comunicaciones de las Máquinas,
funciones locales de la computadora y aplicaciones distribuidas de la red.
Además, el_WOS define la interfase del usuario. Esta es la función mas
importante junto con la interoperabilidad.
5.1.1.1.1. Aplicaciones que corren.
5.1.1.1.2 Ancho de banda.
Capacidad del medio: Ancho de banda
El método de transmisión hace relación a la capacidad del medio para transmitir
información. El ancho de banda nos indica la capacidad máxima del medio.
Ancho de banda: es la diferencia entre la frecuencia más alta y más baja de una
determinada onda. El término ancho de banda hace referencia a la capacidad del medio de
transmisión, cuanto mayor es el ancho de banda, más rápida es la transferencia de datos.
Por encima del ancho de banda las señales crean una perturbación en el medio que
interfiere con las señales sucesivas. En función de la capacidad del medio, se habla de
transmisión en banda base o transmisión en banda ancha.
Banda base
Las redes en banda base generalmente trabajan con mayor velocidad de transmisión que
las redes de banda ancha, aunque la capacidad de estas últimas de transmitir por varios
canales simultáneamente pueden hacer que el flujo total de datos sea prácticamente el
mismo en ambos sistemas.
La transmisión de banda base utiliza señales digitales sobre una frecuencia. Utiliza toda la
capacidad del canal de comunicaciones para transmitir una única señal de datos.
http://www.unav.es/cti/manuales/Redes_Internet/#5
5.1.1.1.3 Almacenamiento.
5.4.1.2
Requerimientos de servidores.
5.4.1.3
Servicios de red.
5.4.1.4
Seguridad y protección.
La seguridad, protección de los equipos conectados en red y de los datos que almacenan y
comparten, es un hecho muy importante en la interconexión de equipos. Cuanto más grande
sea una empresa, más importante será la necesidad de seguridad en la red. Nuestro interés
va más allá del hecho de los procedimientos para compartir. En realidad vemos la
compartición desde la perspectiva de establecer y mantener la seguridad en la red y en los
datos.
La seguridad es bastante más que evitar accesos no autorizados a los equipos y a sus
datos. Incluye el mantenimiento del entorno físico apropiado que permita un funcionamiento
correcto de la red.
Implantación de la seguridad en redes
La planificación de la seguridad es un elemento importante en el diseño de una red. Es
mucho más sencillo implementar una red segura a partir de un plan, que recuperar los datos
perdidos.
Planificación de la seguridad de la red
En un entorno de red debe asegurarse la privacidad de los datos sensibles. No sólo es
importante asegurar la información sensible, sino también, proteger las operaciones de la
red de daños no intencionados o deliberados.
El mantenimiento de la seguridad de la red requiere un equilibrio entre facilitar un acceso
fácil a los datos por parte de los usuarios autorizados y restringir el acceso a los datos por
parte de los no autorizados. Es responsabilidad del administrador crear este equilibrio.
Incluso en redes que controlan datos sensibles y financieros, la seguridad a veces se
considera medida tardía. Las cuatro amenazas principales que afectan a la seguridad de los
datos en una red son:
Acceso no autorizado.
Soborno electrónico
Robo.
Daño intencionado o no intencionado.
La seguridad de los datos no siempre se implementa de forma apropiada, precisamente
por la seriedad de estas amenazas. La tarea del administrador es asegurar que la red se
mantenga fiable y segura. En definitiva, libre de estas amenazas.
Nivel de seguridad
La magnitud y nivel requerido de seguridad en un sistema de red depende del tipo de
entorno en el que trabaja la red. Una red que almacena datos para un banco importante,
requiere una mayor seguridad que una LAN que enlaza equipos en una pequeña
organización de voluntarios.
Configuración de las políticas o normativas
Generar la seguridad en una red requiere establecer un conjunto de reglas, regulaciones y
políticas que no dejan nada al azar. El primer paso para garantizar la seguridad de los datos
es implementar las políticas que establecen los matices de la seguridad y ayudan al
administrador y a los usuarios a actuar cuando se producen modificaciones, esperadas como
no planificadas, en el desarrollo de la red.
Prevención
La mejor forma de diseñar las políticas de seguridad de los datos es optar por una
perspectiva preventiva. Los datos se mantienen seguros cuando se evita el acceso no
autorizado. Un sistema basado en la prevención requiere que el administrador conozca todas
las herramientas y métodos disponibles que permiten mantener la seguridad de los datos.
Autenticación
Para acceder a la red, un usuario debe introducir un nombre de usuario y una contraseña
válida. Dado que las contraseñas se vinculan a las cuentas de usuario, un sistema de
autenticación de contraseñas constituye la primera línea de defensa frente a usuarios no
autorizados.
Es importante no permitir un exceso de confianza en este proceso de autenticación
engañándonos con una falsa idea de seguridad. Por ejemplo, en una red de peer-to-peer,
casi todos los usuarios pueden entrar en el sistema con un nombre y contraseña única. Esto
sólo puede proporcionar a un usuario acceso completo a la red, de forma que cualquier cosa
que se comparta está disponible para este usuario. La autenticación funciona sólo en una
red basada en servidor, donde el nombre y contraseña de usuario debe ser autenticada
utilizando para ello la base de datos de seguridad.
Entrenamiento
Los errores no intencionados pueden implicar fallos en la seguridad. Un usuario de red
perfectamente entrenado probablemente va a causar, de forma accidental, un número
menor de errores que un principiante sin ningún tipo de experiencia, que puede provocar la
pérdida de un recurso dañando o eliminando datos de forma definitiva.
El administrador debería asegurar que alguien que utiliza la red esté familiarizado con sus
procedimientos operativos y con las tareas relativas a la seguridad. Para lograr esto, el
administrador puede desarrollar una guía breve y clara que especifique lo que necesitan
conocer los usuarios y obligar a que los nuevos usuarios asistan a las clases de
entrenamiento apropiadas.
Equipamiento de seguridad
El primer paso en el mantenimiento de la seguridad de los datos es proporcionar seguridad
física para el hardware de la red. La magnitud de la seguridad requerida depende de:
El tamaño de la empresa.
La importancia de los datos.
Los recursos disponibles.
En una red peer-to-peer, algunas veces existen políticas de seguridad hardware no
organizadas y los usuarios son los responsables de garantizar la seguridad de sus propios
componentes y datos. En una red basada en servidor, la seguridad es responsabilidad del
administrador de la red.
Seguridad de los servidores
En un gran sistema centralizado, donde existe una gran cantidad de datos críticos y
usuarios, es importante garantizar la seguridad en los servidores de amenazas accidentales
o deliberadas.
No resulta muy habitual que algunos individuos quieran demostrar sus capacidades
técnicas cuando los servidores presentan problemas. Ellos pueden o no saber qué se está
realizando. Resulta mucho más apropiado mantener cierto tacto con esta gente y evitar los
posibles arreglos del servidor. La solución más sencilla pasa por encerrar los servidores en
una habitación de equipos con acceso restringido. Esto puede no resultar viable dependiendo
del tamaño de la empresa. No obstante, encerrar los servidores en una oficina incluso en un
armario de almacén es, a menudo, viable y nos proporciona una forma de intentar
garantizar la seguridad de los servidores.
Seguridad del cableado
El medio de cobre, como puede ser el cable coaxial, al igual que una radio emite señales
electrónicas que simulan la información que transporta. La información transportada en
estas señales se puede monitorizar con dispositivos electrónicos de escucha. Además, se
puede intervenir el cable de cobre pudiendo robar la información que transmite en el cable
original.
Sólo el personal autorizado debería tener acceso al cable que transporta datos sensibles.
Una planificación apropiada puede garantizar que el cable sea inaccesible al personal no
autorizado. Por ejemplo, el cable puede instalarse dentro de la estructura del edificio a
través del techo, paredes y falsos techos.
Modelos de seguridad
Después de implementar la seguridad en los componentes físicos de la red, el
administrador necesita garantizar la seguridad en los recursos de la red, evitando accesos no
autorizados y daños accidentales o deliberados. Las políticas para la asignación de permisos
y derechos a los recursos de la red constituyen el corazón de la seguridad de la red.
Se han desarrollado dos modelos de seguridad para garantizar la seguridad de los datos y
recursos hardware:
Compartición protegida por contraseña o seguridad a nivel de compartición
Permisos de acceso o seguridad a nivel de usuario.
Compartición protegida por contraseña
La implementación de un esquema para compartir recursos protegidos por contraseñas
requiere la asignación de una contraseña a cada recurso compartido. Se garantiza el acceso
a un recurso compartido cuando el usuario introduce la contraseña correcta.
En muchos sistemas, se pueden compartir los recursos con diferentes tipos de permisos.
Para ilustrar esto, utilizamos Windows 95 y 98 como ejemplos. Para estos sistemas
operativos se pueden compartir los directorios como sólo lectura, total o depende de la
contraseña.
Sólo lectura. Si un recurso compartido se configura de sólo lectura, los
usuarios que conocen la contraseña tienen acceso de lectura a los archivos de este
directorio. Pueden visualizar los documentos, copiar a sus máquinas e imprimirlos,
pero no pueden modificar los documentos originales.
Total. Con el acceso total, los usuarios que conocen la contraseña tienen
acceso completo a los archivos de este directorio. En otras palabras, pueden
visualizar, modificar, añadir y borrar los archivos del directorio compartido.
Depende de la contraseña. Depende de la contraseña implica configurar
una compartición que utiliza dos niveles de contraseñas: Contraseña de sólo
lectura y Contraseña de acceso total. Los usuarios que conocen la contraseña de
sólo lectura tienen acceso de lectura y los usuarios que conocen la contraseña de
acceso total tienen acceso completo.
El esquema de compartir utilizando contraseña es un método de seguridad sencillo que
permite a alguien que conozca la contraseña obtener el acceso a un recurso determinado.
Permisos de acceso
La seguridad basada en los permisos de acceso implica la asignación de
ciertos derechos usuario por usuario. Un usuario escribe una contraseña
cuando entra en la red. El servidor valida esta combinación de contraseña y
nombre de usuario y la utiliza para asignar o denegar el acceso a los recursos
compartidos, comprobando el acceso al recurso en una base de datos de
accesos de usuarios en el servidor.
La seguridad de los permisos de acceso proporciona un alto nivel de control
sobre los derechos de acceso. Es mucho más sencillo para una persona
asignar a otra persona una contraseña para utilizar una impresora, como
ocurre en la seguridad a nivel de compartición. Para esta persona es menos
adecuado asignar una contraseña personal.
La seguridad a nivel de usuario es el modelo preferido en las grandes organizaciones,
puesto que se trata de la seguridad más completa y permite determinar varios niveles de
seguridad.
Seguridad de los recursos
Después de autenticar a un usuario y permitir su acceso a la red, el sistema de seguridad
proporciona al usuario el acceso a los recursos apropiados.
Los usuarios tienen contraseñas, pero los recursos tienen permisos. En este sentido, cada
recurso tiene una barrera de seguridad. La barrera tiene diferentes puertas mediante las
cuales los usuarios pueden acceder al recurso. Determinadas puertas permiten a los
usuarios realizar más operaciones sobre los recursos que otras puertas. En otras palabras,
ciertas puertas permiten a los usuarios obtener más privilegios sobre el recurso.
El administrador determina qué usuarios tienen acceso a qué puertas. Una puerta asigna
al usuario un acceso completo o control total sobre el recurso. Otra puerta asigna al usuario
el acceso de sólo lectura.
Algunos de los permisos de acceso habituales asignados a los directorios o archivos
compartidos son:
Lectura: Leer y copiar los archivos de un directorio compartido.
Ejecución: Ejecutar los archivos del directorio.
Escritura: Crear nuevos archivos en el directorio.
Borrado: Borrar archivos del directorio.
Sin acceso: Evita al usuario obtener el acceso a los directorios, archivos o
recursos.
Diferentes sistemas operativos asignan distintos nombres a estos permisos.
Permisos de grupo
El trabajo del administrador incluye la asignación a cada usuario de los permisos
apropiados para cada recurso. La forma más eficiente de realizarlo es mediante la utilización
de grupos, especialmente en una organización grande con muchos usuarios y recursos.
Windows NT Server permite a los usuarios seleccionar el archivo o carpeta sobre la que se
establecen los permisos de grupo.
Los permisos para los grupos funcionan de la misma forma que los permisos individuales.
El administrador revisa los permisos que se requieren para cada cuenta y asigna las cuentas
a los grupos apropiados. Éste es el método preferido de asignación de permisos, antes que
asignar los permisos de cada cuenta de forma individual.
La asignación de usuarios a los grupos apropiados es más conveniente que asignar
permisos, de forma separada, a cada usuario individualmente. Por ejemplo, puede que no
sea conveniente la asignación al grupo Todos del control total sobre el directorio public. El
acceso total permitiría a cualquiera borrar y modificar los contenidos de los archivos del
directorio public.
El administrador podría crear un grupo denominado Revisores, asignar a este grupo
permisos de control total sobre los archivos de los estudiantes e incorporar empleados al
grupo Revisores. Otro grupo, denominado Facultad, tendría sólo permisos de lectura sobre
los archivos de los estudiantes. Los miembros de la facultad asignados al grupo Facultad,
podrían leer los archivos de los estudiantes, pero no modificarlos.
Medidas de seguridad adicionales
El administrador de la red puede incrementar el nivel de seguridad de una red de diversas
formas.
Cortafuegos (Firewalls)
Un cortafuegos (firewalls) es un sistema de seguridad, normalmente una combinación de
hardware y software, que está destinado a proteger la red de una organización frente a
amenazas externas que proceden de otra red, incluyendo Internet.
Los cortafuegos evitan que los equipos de red de una organización se comuniquen
directamente con equipos externos a la red, y viceversa. En su lugar, todos las
comunicaciones de entrada y salida se encaminan a través de un servidor proxy que se
encuentra fuera de la red de la organización. Además, los cortafuegos auditan la actividad
de la red, registrando el volumen de tráfico y proporcionando información sobre los intentos
no autorizados de acceder al sistema.
Un servidor proxy es un cortafuegos que gestiona el tráfico de Internet que se dirige y
genera una red de área local (LAN). El servidor proxy decide si es seguro permitir que un
determinado mensaje pase a la red de la organización. Proporciona control de acceso a la
red, filtrado y descarte de peticiones que el propietario no considera apropiadas, incluyendo
peticiones de accesos no autorizados sobre datos de propiedad.
Auditoria
La revisión de los registros de eventos en el registro de seguridad de un servidor se
denomina auditoria. Este proceso realiza un seguimiento de las actividades de la red por
parte de las cuentas de usuario. La auditoria debería constituir un elemento de rutina de la
seguridad de la red. Los registros de auditoria muestran los accesos por parte de los
usuarios (o intentos de acceso) a recursos específicos. La auditoria ayuda a las
administradores a identificar la actividad no autorizada. Además, puede proporcionar
información muy útil para departamentos que facturan una cuota por determinados recursos
de red disponibles y necesitan, de alguna forma, determinar el coste de estos recursos.
La auditoria permite realizar un seguimiento de las siguientes funciones:
Intentos de entrada.
Conexiones y desconexiones de los recursos designados.
Terminación de la conexión.
Desactivación de cuentas.
Apertura y cierre de archivos.
Modificaciones realizadas en los archivos.
Creación o borrado de directorios.
Modificación de directorios.
Eventos y modificaciones del servidor.
Modificaciones de las contraseñas.
Modificaciones de los parámetros de entrada.
Los registros de auditoria pueden indicar cómo se está utilizando la red. El administrador
puede utilizar los registros de auditoria para generar informes que muestren las actividades
con sus correspondientes fechas y rangos horarios. Por ejemplo, los intentos o esfuerzos de
entrada fallidos durante horas extrañas pueden identificar que un usuario no autorizado está
intentando acceder a la red.
Equipos sin disco
Los equipos sin disco, como su nombre implica, no tienen unidades de disco o discos
duros. Pueden realizar todo lo que hacen los equipos con unidades de disco, excepto
almacenar datos en una unidad de disco local o en un disco duro. Los equipos sin disco
constituyen una opción ideal para el mantenimiento de la seguridad puesto que los usuarios
no pueden descargar datos y obtenerlos.
Los equipos sin disco no requieren discos de arranque. Se comunican y se conectan al
servidor por medio de un chip de arranque ROM especial instalado en la tarjeta de red (NIC)
del equipo. Cuando se enciende un equipo sin disco, el chip de arranque ROM indica al
servidor que está preparado para iniciarse. El servidor responde descargando el software de
arranque en la RAM del equipo sin disco y, automáticamente, se le presenta al usuario una
pantalla de entrada como parte de este proceso de arranque. Una vez que entra el usuario,
se tiene que el equipo está conectado a la red.
Aunque los equipos sin disco pueden proporcionar un alto nivel de seguridad, no tienen
mucha aceptación. Toda la actividad del equipo debe realizarse a través de la red cuando no
se dispone de un disco local donde almacenar los datos y aplicaciones. Tenemos, por tanto,
que el tráfico de la red se incrementará y la red deberá controlar el incremento de
demandas.
Cifrado de datos
Una utilidad de cifrado de datos cifra los datos antes de enviarlos a la red. Esto hace que
los datos sean ilegibles, incluso para alguien que escucha el cable e intenta leer los datos
cuando pasan a través de la red. Cuando los datos llegan al equipo adecuado, el código para
descifrar los datos cifrados decodifica los bits, trasladándolos a información entendible. Los
esquemas más avanzados de cifrado y descifrado automatizan ambos procesos. Los mejores
sistemas de cifrado se basan en hardware y pueden resultar muy caros.
El estándar tradicional para el cifrado es el Estándar de cifrado de datos (DES; Data
Encryption Standard). Desarrollado por IBM y aprobado por el Gobierno de Estados Unidos
en 1975 cómo una especificación de cifrado, describe cómo se deberían cifrar los datos y
proporciona las especificaciones de la clave de descifrado. Tanto el emisor como el receptor
necesitan tener acceso a la clave de descifrado. Sin embargo, la única forma de obtener la
clave de una localización a otra es transmitirla física o electrónicamente, lo que convierte a
DES en vulnerable por parte de intercepciones no autorizadas.
Hoy en día, el Gobierno de Estados Unidos está utilizando un nuevo estándar, denominado
Commercial COMSEC Endorsement Program (CCEP), que puede reemplazar eventualmente a
DES. La Agencia de seguridad nacional (NSA; National Security Agency) introdujo CCEP y
permite a los fabricantes que poseen los certificados de seguridad apropiados unirse a CCEP.
Los fabricantes aceptados son autorizados a incorporar algoritmos clasificados en sus
sistemas de comunicaciones.
Virus informáticos
Los virus informáticos se han convertido en algo demasiado familiar en la vida diaria. Es
habitual ver en los informes de un canal de noticias local la descripción y los últimos virus y
las advertencias sobre su impacto destructivo. Los virus son bits de programación de
equipos o código, que se ocultan en los programas de equipos o en el sector de arranque de
los dispositivos de almacenamiento, como unidades de disco duro o unidades de disco. El
principal propósito de un virus es reproducirse, así mismo, con tanta asiduidad como sea
posible y, finalmente, destruir el funcionamiento del equipo o programa infectado. Una vez
activado, un virus puede ser un simple anuncio o completamente catastrófico en su efecto.
Los virus son desarrollados por gente que tiene la intención de hacer daño.
Los virus se clasifican en dos categorías, en función de su manera de propagarse. El
primer tipo, denominado «virus del sector de arranque», reside en el primer sector de una
unidad de disco o disco duro. El virus se ejecuta cuando arranca el equipo. Se trata de un
método habitual de transmisión de virus de un disquete a otro. Cada vez que se inserta y se
accede a un nuevo disco, el virus se reproduce en la nueva unidad. El segundo tipo de virus
se conoce como un «contaminador de archivos». Estos virus se unen a un archivo o
programa y se activan en el momento en que se utiliza el archivo. Existen muchas
subcategorías de contaminadores de archivos.
Algunos de los contaminadores de archivos más habituales, son:
Virus acompañante. Se denomina de esta forma debido a que utiliza el
nombre de un programa real, su compañero. Un virus acompañante se activa
utilizando una extensión de archivo diferente de su compañero. Por ejemplo,
supongamos
que
decidimos
ejecutar
un
programa
denominado
«procesadortextos.exe». Cuando se utiliza el comando para ejecutar la aplicación se
ejecutará en su lugar, un virus denominado «procesadortextos.com». Esto es posible
porque el archivo .com tiene prioridad sobre un archivo .exe.
Virus de macro. Un virus de macro es difícil de detectar y se han hecho muy
populares. Se denominan de esta forma porque se escriben como una macro para
una aplicación específica. Los objetivos de estos virus son las aplicaciones más
utilizadas, como Microsoft Word. Cuando el usuario abre un archivo que contiene el
virus, éste se une a la aplicación y, a continuación, infecta cualquier otro archivo que
utilice la aplicación.
Virus polimórficos. Un virus polimórfico se denomina de esta forma debido a
que modifica su apariencia cada vez que se reproduce. Esto hace que sea más difícil
de detectar puesto que no tenemos dos virus exactamente iguales.
Virus camuflable. Un virus camuflable se denomina así debido a que intenta
por todos los medios evitar que lo detecten. Cuando el programa antivirus intenta
localizarlo, el virus camuflable intenta interceptar el análisis y devuelve información
falsa indicando que no existe el citado virus.
Propagación de virus
Los virus por sí solos ni se crean a sí mismos ni se extienden por el aire sin ninguna
ayuda. Debe existir algún tipo de intercambio entre dos equipos para que tenga lugar la
transmisión. En los primeros días de la informática y los virus, la principal fuente de
infección era a través del intercambio de datos por medio de disquetes. Una vez infectado
un equipo en una empresa, resultaba muy fácil infectar al resto de los ordenadores,
simplemente un usuario que pasaba en disquete una copia del último protector de pantallas.
La proliferación de las LAN y el crecimiento de Internet ha abierto muchas vías de
infección rápida de virus. Hoy en día, cualquier equipo en el mundo puede estar conectado a
cualquier otro equipo. Como consecuencia, también se ha producido un aumento importante
en el proceso de creación de virus. De hecho, algunos creadores de virus proporcionan
software de fácil uso que contiene direcciones de cómo crear un virus.
Un método reciente de propagación de virus es a través de los servicios de correo
electrónico. Después de abrir un mensaje de correo electrónico que contiene un virus, éste
infecta el equipo y puede, incluso, enviarse a los destinatarios del libro de direcciones del
correo electrónico. Normalmente, el virus se localiza es un archivo adjunto a un mensaje de
correo electrónico.
El objetivo de los creadores de virus es el convencimiento de las victimas para no
sospechar de la presencia del virus y, por tanto, poder abrirlo. Esto se consigue, a menudo,
empaquetando el virus con algún tipo de «envoltura» sugerente. Estos virus se conocen
como «caballos de Troya» o «Troyanos». Para llamar la atención de los usuarios se
presentan como algo familiar, seguro o interesante.
Recuerde que cualquier medio de intercambio de información entre equipos constituye una
vía potencial de propagación de virus. Los métodos más habituales incluyen:
CD-ROM.
Cableado que conecta directamente dos equipos.
Unidades de disquete.
Unidades de disco duro.
Conexiones a Internet.
Conexiones LAN.
Conexiones vía módem.
Unidades portables o portátiles.
Unidades de cinta.
Consecuencias de un virus
Un virus puede causar muchos tipos de daños a un equipo. Su única limitación es la
creatividad de su creador. La siguiente lista describe los síntomas más habituales de
infección de virus en un equipo:
El equipo no arrancará.
Se modifican o se dañan los datos.
El equipo funciona de forma errónea.
La partición se ha perdido.
La unidad de disco duro se vuelve a formatear.
El síntoma más habitual de infección de un virus en una red se refleja en un mal
funcionamiento de una o más estaciones de trabajo. Una red peer-to-peer es más
vulnerable. En una red peer-to-peer todas las cosas se comparten de la misma forma; por
tanto, cualquier equipo infectado tiene acceso directo a cualquier equipo o recurso
compartido en la red. Las redes basadas en servidor tienen algunos mecanismos de
protección predefinidos, puesto que se requieren permisos para acceder a algunas partes del
servidor y, por tanto, a la red. En estas redes, es más probable que se infecten las
estaciones antes que un servidor, aunque los servidores no están inmunes. El servidor,
como canal de comunicación de un equipo a otro, participa en la transmisión del virus, pero
incluso podría no verse afectado por el virus.
Prevención de virus
Los virus destructivos se están convirtiendo en virus muy habituales y deben tenerse en
cuenta cuando se desarrollan los procedimientos de la seguridad de la red. Una estrategia
efectiva de antivirus constituye una parte esencial de una planificación de red. Resulta
esencial un buen software antivirus. Aunque la protección de virus no puede prevenir antes
todos los posibles virus, sí puede realizar lo siguiente:
Avisar de un virus potencial.
Evitar la activación de un virus.
Eliminar un virus.
Reparar algunos de los daños ocasionados por el virus.
Detectar un virus después de activarse.
Prevenir el acceso no autorizado a la red constituye una de las mejores formas de evitar
un virus. Por ejemplo, la mejor forma de evitar la infección de un virus a través de un
disquete es utilizar la protección de escritura. Si no puede escribir en un disquete, no puede
infectarlo. Dado que la prevención es clave, el administrador de la red necesita asegurarse
de que se realizan todas las medidas de prevención propuestas.
Éstas incluyen:
Contraseñas para reducir la posibilidad de acceso no autorizado.
Accesos y asignaciones de privilegios bien planificados para todos los usuarios
Perfiles de usuario para estructurar el entorno de red del usuario, incluyendo
las conexiones de red y los elementos de programa que aparecen cuando el usuario
entra en el sistema.
Una política o normativa que especifique el software a cargar.
Una política que especifique reglas para la implementación de la protección de
virus en las estaciones de los clientes y servidores de red.
Asegurar que todos los usuarios están bien informados de todos los virus
informáticos y de cómo evitar la activación de dichos virus.
Mantenimiento de un entorno de red operativo
El entorno físico donde reside una red es un factor importante a considerar en el
mantenimiento de una red de equipos físicamente segura. Aquí presentamos este aspecto de
la gestión de la red, frecuentemente pasado por alto y que pretende garantizar un entorno
operativo para los equipos, periféricos y red asociada así como comprobar qué se puede
realizar para mantener operativo el entorno de red.
Los equipos y el entorno
La mayor parte de los tipos de equipamiento electrónico, tales como equipos, son rígidos y
fiables, funcionando durante años con un pequeño mantenimiento. Los equipos incluso han
estado en la Luna y han regresado. Sin embargo, existen impactos ambientales muy
negativos que inciden en el equipamiento electrónico, a pesar de no ser siempre dramáticos.
Un proceso de deterioro lento, pero continuo puede generar problemas intermitentes, cada
vez más frecuentes, hasta provocar un fallo catastrófico en el sistema. Detectar estos
problemas antes de que ocurran y llevar a cabo los pasos apropiados, permite prevenir o
minimizar estos fallos.
Al igual que los humanos, los equipos y equipamiento electrónico se ven afectados por las
condiciones ambientales. Aunque más tolerantes y probablemente menos predispuestos a la
queja, los equipos y equipamiento de la red necesitan entornos específicos para funcionar de
forma apropiada. La mayoría de los equipos se instalan en áreas controladas desde un punto
de vista medioambiental, pero incluso con estos controles, se tiene que los equipos no son
inmunes a los efectos que los rodean.
Cuando se identifica el efecto negativo que ejercen las condiciones ambientales sobre la
red de equipos, el primer paso es considerar las condiciones climáticas de la región. La
instalación de una red en el Ártico o Antártico estará sujeta a condiciones muy diferentes de
las presentes en una red localizada en una jungla tropical.
Una red instalada en una zona con clima ártico sufrirá cambios extremos de temperatura,
mientras que una red instalada en un entorno tropical experimentará una gran humedad.
Diferentes circunstancias climáticas requieren llevar a cabo un conjunto de pasos que
permitan asegurar que el entorno no afecta, de forma negativa, a la red.
Se asumen las mismas condiciones ambientales para los equipos que las que prevalecen
en las oficinas. Esta suposición es bastante precisa para un equipo personal o estación de
trabajo. Sin embargo, una estación de trabajo individual constituye sólo una parte de la red.
Recuerde que el cableado de la red se instala en paredes y techos, sótanos e incluso algunas
veces fuera de los edificios. Por tanto, muchos factores ambientales pueden afectar a estos
componentes y generar como situación extrema un deterioro o ruptura de la red.
Cuando se planifica o mantiene una red, es importante pensar en términos de red global
(completa), visible o no, y no sólo en los componentes locales que se ven cada día.
Los desastres provocados por el entorno ambiental son normalmente el resultado de un
largo período de deterioro lento, más que una consecuencia de una catástrofe repentina.
Como muestra un ejemplo, considere un cortaúñas. Déjelo expuesto a los elementos
ambientales y comprobará que gradualmente se oxida, no se puede utilizar e incluso llega a
desintegrarse. De forma similar, las redes implementadas en entornos de riesgo podrían
funcionar correctamente durante algunos años. Sin embargo, comenzarán a aparecer
problemas intermitentes e incrementando el número y frecuencia de estos problemas hasta
que se provoque una caída de la red.
Creación del entorno adecuado
En la mayoría de las grandes organizaciones, el departamento de gestión y de personal es
responsable de proporcionar un entorno seguro y confortable para los empleados. Las
organizaciones gubernamentales regulan el entorno de trabajo para las personas. Esta
regulación o guía no existe para el caso de las redes. Es responsabilidad del administrador
de la red crear las políticas que gobiernen prácticas seguras alrededor del equipamiento de
la red e implementar y gestionar el entorno de trabajo apropiado para la red.
Un entorno operativo para el equipamiento de red es bastante parecido al entorno humano
saludable; el equipamiento electrónico se diseña para trabajar con el mismo rango de
temperatura y humedad que identifican las personas como entorno confortable.
Temperatura
El parámetro básico ambiental que controlamos es la temperatura. Los hogares, oficinas y
lugares de trabajo presentan diferentes medios para controlar la temperatura. El
equipamiento electrónico, normalmente, tiene diseñado un ventilador que permite mantener
la temperatura dentro de unos límites específicos, puesto que genera calor durante su
funcionamiento. No obstante, si la temperatura de la habitación donde se ubica el
equipamiento es demasiado alta, tanto las ranuras de ventilación como el propio ventilador
no serán suficientes para mantener la temperatura de funcionamiento adecuada y los
componentes comenzarán a calentarse provocando el fallo. De forma alternativa, si la
temperatura externa es demasiado fría, los componentes podrían dejar de funcionar.
Un entorno donde está continuamente cambiando la temperatura de calor a frío presenta
el peor escenario para el equipamiento electrónico. Estos cambios extremos provocan la
dilatación y contracción de los componentes de metal que, eventualmente, pueden generar
situaciones de fallo del equipamiento.
Humedad
La factores relacionados con la
equipamiento electrónico. Las altas
corrosión tiene lugar primero en los
las conexiones de los cables, así
humedad pueden tener dos efectos negativos en el
humedades provocan la corrosión. Normalmente, esta
contactos eléctricos y estos contactos con corrosión en
como la dilatación de la tarjeta, provocarán fallos
intermitentes. Además, la corrosión puede incrementar la resistencia de los componentes
eléctricos, provocando un incremento de temperatura que puede generar un fallo en los
componentes o, incluso, un incendio.
En los edificios con presencia de calor, es habitual tener un entorno de baja humedad. Las
descargas eléctricas estáticas son más habituales en entornos de baja humedad y pueden
dañar seriamente los componentes electrónicos.
Dado que tenemos un menor control sobre la humedad, los administradores de la red
necesitan conocer las consecuencias que provocan una humedad alta o baja e -implementar
resguardos apropiados donde prevalezcan estas condiciones. La mayoría del equipamiento
funcionará correctamente en entornos con un porcentaje de humedad relativa de entre 50 y
70 por 100.
Cuando se implementa una red grande que incluya una habitación dedicada al servidor,
debería considerar en esta habitación el control de la temperatura y humedad.
Polvo y humo
El equipamiento electrónico y los equipos no funcionan correctamente con polvo y humo.
El equipamiento electrónico atrae electrostáticamente al polvo. Una acumulación de polvo
provoca dos efectos negativos: el polvo actúa como un aislante que afecta al sistema de
ventilación de los componentes, causando un calentamiento, y, por otro lado, el polvo puede
contener cargas eléctricas, haciéndose conductor de la corriente. El polvo excesivo en el
equipamiento electrónico puede provocar cortocircuitos y fallos catastróficos en el
equipamiento.
El humo provoca un tipo de combinación similar a los efectos del polvo. Cubre las
superficies de los componentes eléctricos, actuando como un aislante y conductor. El humo
también supone la acumulación de polvo.
Factores humanos
En el diseño de una red, podemos controlar muchos factores ambientales, como
temperatura, humedad y ventilación. Aunque es posible, desde un punto de vista teórico, la
creación de un entorno físico adecuado para los equipos, la entrada en escena de las
personas traerá consigo modificaciones ligadas a provocar impactos en la red. Dibuje una
nueva oficina, ambientalmente correcta, con equipamiento amigable, que disponga de los
equipos, impresoras y escritorios más novedosos. En este espacio maravilloso, los
empleados traen plantas, cuadros, radios, tazas de café, libros, papeles y estufas para los
días de frío. Pronto, la oficina se llenará de empleados, muebles, armarios y material de
oficina. También se producen otros cambios; la parte superior de los equipos y monitores se
convierten en tableros y las cajas vacías se almacenan debajo de los escritorios muy
próximas a los equipos. Debido a que muy pocos empleados conocen los requerimientos de
ventilación en el equipamiento de los equipos, se tiene que impedirán el flujo natural de aire
sobre y alrededor de los equipos informáticos. Una vez que esto ocurra, es imposible el
mantenimiento de la temperatura apropiada y comenzarán los fallos.
El vertido de líquido de refresco sobre los equipos y teclados supone también un peligro.
Además, cuando se tiene una temperatura exterior fría, se utilizan las estufas en la oficinas
y, normalmente, se colocan debajo de la mesa de escritorio, a menudo muy próximas a los
equipos. Esto puede provocar dos problemas: que el equipo se caliente en exceso y que la
estufa puede sobrecargar la salida de corriente, disparando los diferenciales de corriente, o
incluso, provocando un incendio.
Factores ocultos
Como se ha visto anteriormente, muchos aspectos de la red no están visibles y, por tanto,
fuera de nuestro pensamiento. Dado que diariamente no vemos estos elementos ocultos,
suponemos que todos están correctos hasta que comienzan a generar problemas.
El cableado es uno de los componentes de red que puede provocar problemas,
especialmente cables que se encuentran en el suelo. Los cables de un ático se pueden dañar
fácilmente debido a un accidente durante las reparaciones de otros objetos del ático.
Los roedores y bichos de todo tipo son otros factores ocultos. Estos invitados no deseados
salen a cenar probablemente los materiales de red o los utilizan con propósitos de
construcción.
Factores industriales
Los equipos no están limitados al entorno ofimático, constituyen también una parte vital
en el sector industrial. Al principio, los equipos se utilizaban para gestionar el flujo de
trabajo a través de las operaciones de fabricación. En las plantas modernas, los equipos
también desarrollan el equipamiento. El proceso de fabricación completo se puede
monitorizar y controlar desde una ubicación central, mediante la integración de la tecnología
de red en este entorno. Incluso, el equipamiento puede telefonear a los hogares del personal
de mantenimiento cuando se produce un problema.
Estas mejoras en el proceso de fabricación han provocado un incremento en la
productividad, a pesar de presentar características únicas para el administrador de la red. El
trabajo del equipamiento de red en un entorno de producción presenta muchos desafíos. Las
propiedades necesarias a controlar cuando se implementan las redes en un entorno de
fabricación incluyen la presencia de:
Ruido.
Interferencia electromagnéticas (EMI).
Vibraciones.
Entornos explosivos y corrosivos.
Trabajadores no especializados y sin entrenamiento adecuado.
A menudo, los entornos de fabricación ejercen un pequeño, incluso, ningún control sobre
la temperatura y humedad, y la atmósfera se puede contaminar con productos químicos
corrosivos. Una atmósfera corrosiva con una alta humedad puede destruir los equipos y el
equipamiento de la red en cuestión de meses, e incluso, en algunos casos, en días. Los
entornos de fabricación que utilizan equipamiento pesado con grandes motores eléctricos
hacen estragos en la estabilidad de los sistemas operativos y la red. Para minimizar los
problemas que se derivan del funcionamiento de una red en un entorno industrial, debemos:
Instalar el equipamiento de red en habitaciones separadas con ventilación
externa.
Utilizar cableado de fibra óptica. Esto reducirá los problemas de interferencias
eléctricas y corrosión del cable.
Asegurar que todo el equipamiento está conectado a tierra de forma
adecuada.
Proporcionar el entrenamiento adecuado a todos los empleados que necesitan
utilizar el equipamiento. Esto nos ayudará a garantizar la integridad del sistema.
Evitar la pérdida de datos
Un desastre en un sitio se define como cualquier cosa que provoca la pérdida de los datos.
Muchas organizaciones grandes tienen planes de recuperación de catástrofes que permiten
mantener la operatividad y realizar un proceso de reconstrucción después de ocurrir una
catástrofe natural como puede ser un terremoto o un huracán. Muchas, pero
desgraciadamente no todas, incluyen un plan para recuperar la red. Sin embargo, una red
puede provocar un fallo desastroso a partir de muchas fuentes distintas que no tienen por
qué ser catástrofes naturales. La recuperación frente a las catástrofes en una red va más
allá del reemplazamiento de los dispositivos hardware. También se deben proteger los datos.
Las causas de las catástrofes que se pueden provocar en una red, desde actos humanos
hasta causas naturales, incluyen:
Fallos de los componentes.
Virus informáticos.
Eliminación y corrupción de datos.
Fuego causado por un incendio o desgracias eléctricas.
Catástrofes naturales, incluyendo rayos, inundaciones, tornados y terremotos.
Fallos en los sistemas de alimentación y sobrecarga de tensión.
Robo y vandalismo.
Cuando tiene lugar una catástrofe, el tiempo que se consume en la recuperación de los
datos a partir de una copia de seguridad (si se dispone de ella), puede resultar una pérdida
seria de productividad. No digamos si no se dispone de las correspondientes copias de
seguridad. En este caso, las consecuencias son aún más severas, provocando posiblemente
unas pérdidas económicas significativas. Algunas formas de evitar o recuperar datos a partir
de la pérdida de los mismos, son:
Sistemas de copia de seguridad de cintas.
Un sistema de alimentación ininterrumpida (SAI).
Sistemas tolerantes a fallos.
Discos y unidades ópticas.
Se pueden utilizar algunas de estas posibilidades, incluso todas, en función del valor que
tienen los datos para la organización y de las restricciones presupuestarias de la propia
organización.
Copias de seguridad en cinta
La forma más sencilla y barata de evitar la pérdida de los datos es implementar una
planificación periódica de copias de seguridad. La utilización de un sistema de copias de
seguridad en cintas constituye todavía una de las formas más sencillas y económicas de
garantizar la seguridad y utilización de los datos.
La ingenieros de red experimentados aconsejan que el sistema de copias de seguridad
debe constituir la primera defensa frente a la pérdida de los datos. Una estrategia adecuada
de copias de seguridad minimiza el riesgo de pérdida de datos manteniendo una copia de
seguridad actualizada (copias de archivos existentes) y permitiendo la recuperación de los
archivos si se produce un daño en los datos originales. Para realizar la copia de seguridad de
los datos se requiere:
Equipamiento apropiado.
Una planificación adecuada para los períodos de realización de las copias de
seguridad.
Garantizar la actualización de los archivos de copias de seguridad.
Personal asignado para garantizar que se lleva a cabo esta planificación.
Normalmente, el equipamiento está constituido por una o más unidades de cinta y las
correspondientes cintas u otros medios de almacenamiento masivo. Cualquier inversión que
se realiza en esta área será, probablemente, mínima en comparación con el valor que
supone la pérdida de los datos.
Implementación de un sistema de copias de seguridad
La regla es sencilla: si no puedes pasar sin él, realiza una copia de seguridad. La
realización de copias de seguridad de discos completos, directorios seleccionados o archivos
dependerá de la rapidez que se necesita para ser operativo después de una pérdida
importante de datos. Las copias de seguridad completas hacen mucho más sencilla la
restauración de las configuraciones de los discos, pero pueden requerir múltiples cintas si se
dispone de grandes cantidades de datos. La realización de copias de seguridad de archivos o
directorios individuales podría requerir un número menor de cintas, pero implica que el
administrador restaure manualmente las configuraciones de los discos.
Las copias de seguridad de los datos críticos deben realizarse diariamente, semanalmente
o mensualmente dependiendo del nivel crítico de los datos y de la frecuencia de
actualización de los mismos. Es mejor planificar las operaciones de copias de seguridad
durante los períodos de baja utilización del sistema. Los usuarios deberían recibir
notificación de la realización de la copia de seguridad para que no utilicen los servidores
durante el proceso de copia del servidor.
Selección de una unidad de cinta
Dado que la mayoría de las copias de seguridad se realiza en unidades de cinta, el primer
paso es seleccionar una unidad de cinta, teniendo en cuenta la importancia de diferentes
factores como:
La cantidad de datos necesarios a copiar en las copias de seguridad.
Los requerimientos de la red para garantizar la velocidad, capacidad y
fiabilidad de las copias de seguridad.
El coste de la unidad de cinta y los medios relacionados.
La compatibilidad de la unidad de cinta con el sistema operativo.
Lo ideal sería que una unidad de cinta tuviera una capacidad suficiente para realizar la
copia de seguridad del servidor más grande de una red. Además, debería proporcionar
detección y corrección de errores durante las operaciones de copia y restauración.
Métodos de copias de seguridad
Una política o normativa de copias de seguridad eficiente utiliza una combinación de los
siguientes métodos:
Copia de seguridad completa: Se copian y se marcan los archivos
seleccionados, tanto si han sido modificados como si no desde la última copia de
seguridad.
Copia: Se copian todos los archivos seleccionados sin marcarlos cuando se
realiza la copia de seguridad.
Copia incremental: Se copian y se marcan los archivos seleccionados que
han sido modificados desde la última copia de seguridad realizada.
Copia diaria: Se copian sólo aquellos archivos que se modifican diariamente,
sin marcarlos cuando se realiza la copia de seguridad.
Copia de seguridad diferencial: Se copian sólo los archivos seleccionados si
han sido modificados desde la última copia de seguridad, sin marcarlos cuando se
realiza la copia de seguridad.
Las copias se pueden realizar en cintas siguiendo un ciclo semanal múltiple, dependiendo
del número de cintas disponibles. Ninguna regla rígida gobierna la longitud del ciclo. En el
primer día del ciclo, el administrador realiza una copia de seguridad completa y sigue con
una copia incremental los día sucesivos. El proceso comienza de nuevo cuando finaliza el
ciclo completo. Otro método es planificar flujos de copias de seguridad a lo largo del día.
Prueba y almacenamiento
Los administradores con experiencia comprueban el sistema de copias de seguridad antes
de llevarlo a cabo. Realizan una copia de seguridad, borran la información, restauran los
datos e intentan utilizar estos datos.
El administrador debería comprobar regularmente los procedimientos de copia para
verificar que aquello que esperamos incluir en la copia de seguridad es realmente lo que se
está copiando. De igual forma, el procedimiento de restauración debería comprobarse para
garantizar que los archivos importantes se pueden restaurar rápidamente.
Lo ideal sería que un administrador realizara dos copias de cada cinta: una para tenerla
dentro del sitio y la otra almacenada fuera de la oficina en un lugar seguro. Recuerde que,
aunque el almacenamiento de las cintas en un lugar seguro a prueba de incendios puede
mantener la integridad de las cintas, es conveniente destacar que el calor procedente de un
incendio arruinará los datos almacenados en dichas cintas. Además, después de un uso
repetido, las cintas pierden la capacidad de almacenar datos. Reemplace las cintas, de forma
habitual, para asegurar un buen procedimiento de copias de seguridad.
Mantenimiento de un registro de copia de seguridad
El mantenimiento de un registro de todas las copias de seguridad es crítico para una
recuperación posterior de los archivos. Se debe mantener una copia de este registro junto a
las cintas de copias de seguridad, así como en el sitio donde se ubican los equipos. El
registro debería registrar la siguiente información:
Fecha de la copia de seguridad.
Número de cinta.
Tipo de copia de seguridad realizada.
Equipo que ha sido copiado.
Archivos de los que se ha realizado copia
de seguridad.
Quién ha realizado la copia de seguridad.
Ubicación de las cintas de copia de
seguridad.
Instalación del sistema de copias de seguridad
Las unidades de cinta se pueden conectar a un
servidor o a un equipo y estas copias se pueden iniciar a partir del equipo que tiene
conectada la unidad de cinta. Si se realizan copias de seguridad desde un servidor, las
operaciones de copia y restauración pueden realizarse rápidamente puesto que los datos no
tienen que viajar a través de la red.
La realización de las copias de seguridad a través de la red es la forma más eficiente de
generar la copia de seguridad de múltiples sistemas. Sin embargo, se produce un
incremento en el tráfico de red retardándola, de forma considerable. Además, el tráfico de la
red puede provocar una caída importante en el rendimiento. Ésta es una de las razones que
justifican la realización de las copias de seguridad durante períodos de baja
utilización del servidor.
Si una ubicación incluye múltiples servidores, la colocación de un equipo
encargado de realizar las copias de seguridad en un segmento aislado puede
reducir el tráfico derivado del proceso de copia. El equipo encargado de la copia
se conecta a una NIC diferente en cada servidor.
Sistemas de alimentación ininterrumpida (SAI)
Un sistema de alimentación ininterrumpida (SAI) es un generador de corriente externo y
automatizado diseñado para mantener operativo un servidor u otro dispositivo en el
momento de producirse un fallo de suministro eléctrico. El sistema SAI tiene la ventaja de
proporcionar alimentación de corriente ininterrumpida que puede actuar de enlace a un
sistema operativo, como puede ser Windows NT. Los SAI estándares ofrecen dos
componentes importantísimos:
Una fuente de corriente que permite mantener operativo un servidor durante
un corto período de tiempo.
Un servicio de gestión de apagado seguro.
La fuente de corriente es normalmente una batería, pero el SAI también puede ser un
motor de gasolina que hace funcionar un generador de corriente AC.
Si la corriente falla, el SAI notifica y advierte a los usuarios del fallo para finalizar todas las
tareas. A continuación, el SAI se mantiene durante un tiempo predeterminado y comienza a
realizar una operación apropiada de apagado del sistema.
Un buen SAI permitirá:
Evitar que muchos usuarios accedan al servidor.
Enviar un mensaje de advertencia al administrador de la red a través del
servidor.
Normalmente el SAI se ubica entre el servidor y la toma de corriente.
Si la corriente se restablece aun estando activo el SAI, éste notificará a los usuarios que la
corriente se ha restablecido.
Tipos de SAI
El mejor SAI es aquel que está siempre activo o en línea. Cuando se produce un fallo en el
suministro de corriente, automáticamente se activa la batería del SAI. El proceso es invisible
al usuario.
También existen otros sistemas SAI de espera que se inician cuando falla el suministro de
corriente. Se trata de sistemas más baratos que los sistemas en línea, pero que resultan
menos fiables.
Implementación de un SAI
Responder a las siguientes cuestiones ayudará al administrador de la red a determinar el
tipo de SAI que mejor se ajusta a las necesidades de la red:
¿Va a reunir el SAI los requerimientos básicos de suministro de la red?
¿Cuántos componentes puede admitir?
¿Comunica el SAI al servidor cuando se produce un fallo de suministro de
corriente y el servidor se mantiene operativo con la utilización de la baterías?
Incluye el SAI en sus características la protección de la sobretensión para
evitar los picos y subidas de tensión?
¿Cual es la duración de la batería del SAI? Cuánto tiempo puede permanecer
activo antes de comenzar su proceso de no suministro?
¿Avisará el SAI al administrador y a los usuarios de la falta de suministro
eléctrico?
Sistemas tolerantes a fallos
Los sistemas tolerantes a fallos protegen los datos duplicando los datos o colocando los
datos en fuentes físicas diferentes, como distintas particiones o diferentes discos. La
redundancia de los datos permite acceder a los datos incluso cuando falla parte del sistema
de datos. La redundancia es una utilidad emergente y habitual en la mayoría de los sistemas
tolerantes a fallos.
Los sistemas tolerantes a fallos no se deben utilizar nunca como mecanismos que
reemplazan las copias de seguridad de servidores y discos duros locales. Una estrategia de
copias de seguridad planificada de forma cuidadosa es la mejor póliza de seguro para la
recuperación de los datos perdidos o dañados.
Los sistemas tolerantes a fallos ofrecen las siguientes alternativas para la redundancia de
los datos:
Distribución de discos.
Duplicación de discos.
Sustitución de sectores.
Arrays de discos duplicados.
Agrupamiento (clustering).
Array redundante de discos independientes (RAID)
Las opciones de la tolerancia a fallos se estandarizan y se dividen en diferentes niveles.
Estos niveles se conocen como Array Redundante de Discos Independientes (RAID),
anteriormente conocido como Array Redundante de Discos Baratos. Los niveles ofrecen
varias combinaciones de rendimiento, fiabilidad y coste.
Raid 0 - Distribución de discos
La distribución de discos distribuye los datos en bloques de 64K y se propaga esta
distribución entre todos los discos del array. Se necesitan dos discos como mínimo para
implementarlo. No obstante, la distribución de discos no proporciona tolerancia a fallos,
puesto que no existe la redundancia de los datos. Si falla cualquier partición o alguno de los
discos se pierden todos los datos.
Un conjunto de distribución combina múltiples áreas de espacio libre no formateado de
una gran unidad lógica, distribuyendo el almacenamiento de los datos entre todas las
unidades simultáneamente. En Windows NT, un conjunto de distribución requiere, al menos,
dos unidades físicas y puede utilizar hasta 32 unidades físicas. Los conjuntos de distribución
pueden combinar áreas en diferentes tipos de unidades, tales como unidades de interfaces
de pequeños sistemas de equipos (SCSI), unidades de interfaces de pequeños dispositivos
mejorados (ESDI) y unidades de dispositivos electrónicos integrados (IDE).
En el caso de que tuviéramos sólo tres discos, los datos están constituidos por 192K. Los
primeros 64K de datos se escriben en un conjunto de distribución del disco 1, los segundos
64K aparecen en un conjunto de distribución del disco 2 y los terceros 64K se escriben en el
conjunto de distribución del disco 3.
La distribución de discos tiene diferentes ventajas: hace que una partición grande se
divida en diferentes pequeñas particiones ofreciendo un mejor uso del espacio de disco y,
por otro lado, los múltiples controladores de disco provocarán un mejor rendimiento.
Está recomendado para edición de video, edición de imágenes, aplicaciones pre-impresión
y para cualquier aplicación que requiera un alto nivel de transferencia de datos.
Raid 1 - Duplicación de discos o discos Espejo
La duplicación de discos realmente duplica una partición y desplaza la partición duplicada a
otro disco físico. Siempre existen dos copias de los datos, con cada copia en un disco
distinto. Se puede duplicar cualquier partición. Esta estrategia es la forma más sencilla de
proteger de fallos un único disco. La duplicación de discos se puede considerar como un
mecanismo de copia de seguridad continua, puesto que mantiene una copia completa
redundante de una partición en otro disco.
La duplicación de discos consta de un par de discos duplicados con un controlador de disco
adicional en la segunda unidad. Esto reduce el tráfico en el canal y mejora potencialmente el
rendimiento. La duplicación se diseñó para proteger los fallos de los controladores de disco y
los fallos del medio.
Es un sistema de RAID que se implementa normalmente por software, lo que requiere más
ciclos de CPU, con lo que puede degradar el sistema, aparte de no poder realizar el cambio
en caliente del disco que se averíe, por lo que sería recomendable implementarlo sobre
hardware.
El nivel de transacciones que se alcanza es el mismo que si se tuviese un sólo disco, y está
recomendado para sistemas de contabilidad, nóminas, financiero o cualquier aplicación que
requiera una alta disponibilidad.
RAID 0+1: Altas prestaciones en la Transferencia de Datos
RAID 0+1 requiere un mínimo de 4 discos para poder implementarlo y combina un sistema
de discos espejo junto con dos sistemas de discos con distribución de bandas RAID 0, con lo
consigue niveles de tolerancia a fallos similares a RAID 5.
RAID 0+1 tiene el mismo sistema de escritura que un sistema de discos espejo
independiente y las altas tasas de transferencia de datos se consiguen gracias a la
implementación del Conjunto de Bandas.
Es una excelente solución para los sitios que necesitan una alta tasa de transferencia de
datos y no se preocupan por lograr la máxima fiabilidad del sistema.
RAID 0+1 no hay que confundirlo con RAID 10. Un simple fallo en la escritura en el disco
convierte al sistema en un Conjunto de Bandas RAID 0.
Es un sistema muy caro de implementar, con una escalabilidad muy pequeña.
Está recomendado para servidor de aplicaciones y de ficheros en general.
Raid 2 - Distribución de discos con ECC
Cuando se escribe un bloque de datos, el bloque se divide y se distribuye (intercalado)
entre todas las unidades de datos.
El código de corrección de errores (ECC; Error Correction Code) requiere una gran
cantidad de espacio de disco superior a la que requieren los métodos de comprobación de
paridad. Aunque este método ofrece una mejora en la utilización de disco, es peor en
comparación con el nivel 5. El coste es el más elevado de todos los sistemas RAID que
existen y el nivel de transferencia de datos es similar a la de un sólo disco. No existen
implementaciones por hardware, por lo que hay que implementarlo a través de software,
con lo que conlleva de costo adicional para la CPU.
Raid 3 - Bandas de discos con ECC almacenado como paridad
La distribución de discos con ECC almacenado como paridad es similar al nivel 2.
El término paridad se refiere a un procedimiento de comprobación de errores donde el
número de unos debe ser siempre el mismo (par o impar) para cada grupo de bits
transmitidos sin presencia de errores. En esta estrategia, el método ECC se reemplaza por
un esquema de comprobación de paridad que requiere sólo un disco para almacenar los
datos relativos a la paridad. Es un sistema recomendado para aplicaciones de produción de
video, edición de imágenes, edición de video, aplicaciones pre-impresión y cualquier
aplicación que requiera un elevado transvase de datos.
Raid 4 - Bandas de discos a grandes bloques con la paridad almacenada en una unidad
Esta estrategia pasa del intercalado de datos a la escritura de bloques completos en cada
disco del array. Este proceso se conoce todavía como distribución de discos, pero se lleva a
cabo con bloques grandes. Se utiliza un disco de comprobación distinto para almacenar la
información de la paridad.
Cada vez que se realiza una operación de escritura, debe leerse y modificarse la
información de paridad asociada en el disco de comprobación. Debido a esta sobrecarga, el
método de bloques intercalados funciona mejor para operaciones de grandes bloques que
para procesamiento basado en transacciones. Es un sistema que ofrece dificultades y es
ineficiente a la hora de recuperar los datos de un disco que se haya averiado y el nivel de
transferencia de datos es similar al de un disco solo.
Raid 5 - Bandas de discos con paridad distribuida por varias unidades
La distribución con paridad es actualmente el método más popular para el diseño de la
tolerancia a fallos. Admite desde tres unidades hasta un máximo de 32 y escribe la
información de paridad en todos los discos del array (el conjunto de distribución completo).
La información de paridad y los datos se ordenan, de forma que siempre se almacenan en
discos diferentes.
Aparece un bloque de distribución de paridad para cada distribución (fila) presente a
través del disco. El bloque de distribución de paridad se utiliza para reconstruir los datos de
un disco físico que falla. Si falla una sola unidad, se propaga la suficiente información a
través del resto de disco permitiendo que los datos se reconstruyan completamente.
El bloque de distribución de paridad se utiliza para reconstruir los datos de un disco físico
que falla. Existe un bloque de distribución de paridad para cada distribución (fila) a través
del disco. RAID 4 almacena el bloque de distribución de paridad en un disco físico y RAID 5
distribuye la paridad, de igual forma, entre todos los discos.
Es un sistema recomendado para servidores de aplicaciones y fichero, servidor de Bases
de Datos, servidores Web, de Correo y de noticias, servidores intranet y sistemas que
necesiten una alta escalabilidad.
RAID 6: Discos de datos independientes con dos esquemas de paridad distribuidos independientemente.
Es en esencia un a extensión del sistema de RAID 5, con un nivel más e tolerancia a fallos
ya que usa un segundo esquema de paridad independiente del primero.
Los datos se distribuyen en bloques a través de los discos como en el sistema RAID 5 y la
segunda paridad es calculada y escrita en todos los discos. Provee un sistea
extremadamente alto de tolerancia a fallos y puede solventar muy bien los posibles
problemas de escrituras en disco. Es una solución perfecta para soluciones críticas.
Las desventajas son que necesita un complejo sistema de diseño y tiene una muy pobre
prestación en escritura, ya que tiene que calcular dos esquemas de paridad a la hora de
escribir en disco.
Requiere dos disco más que los que necesitemos para datos para manejar los dos
esquemas de paridad.
RAID 7: Asincronía optimizada para altas prestaciones de Entrada y Salida (I/O) y elevadas necesidades de
Transferencias de Datos
Todas las transferencias de I/O son asíncronas, independientemente de la
controladora y de la caché de la interfaz de transferencia. Todos los discos leen y
escriben centralizadamente a través de un bus de alta velocidad y el disco
dedicado a la paridad se encuentra en otro canal independiente.
Todo el proceso se lleva acabo, en tiempo real, por el Sistema Operativo instalado
y el microprocesador. El sistema operativo controla en tiempo real el canal de
comunicaciones.
Un sistema abierto usa normalmente controladoras SCSI, buses de PC normales,
motherboards y memoria SIMMs. La paridad se genera íntegramente en la caché.
En conjunto los procesos de escritura superan entre un 25% y un 90% a los
sistemas de un solo disco y 1.5 a 6 veces a cualquier otro sistema RAID
Las interfaces de controladoras son escalables tanto para la conectividad como
para el aumento de transferencia de datos. Para ambientes multiusuario y lecturas
pequeñas utiliza un sistema de elevada caché que produce accesos a los datos en
tiempos cercanos a cero. El tiempo de escritura mejora con el aumento de
unidades de discos en la serie y los tiempos de acceso disminuyen a medida que se
trabaja con el sistema RAID. Ninguna transferencia de datos en el RAID requiere
un cambio en la paridad.
RAID 7 es una marca registrada de Storage Computer Corporation.
Presenta varias desventajas, una de ellas es que es un sistema propietario de un
fabricante y el costo por Mb es muy alto, con una garantía muy corta. Debido a estas
desventajas no es un sistema que pueda utilizar el usuario corriente y siempre se debe
proveer de un Sistema de Alimentación Ininterrumpida para prevenir la posible pérdida de
datos:
Raid 10 - Arrays de unidades duplicadas
RAID nivel 10 duplica los datos en dos arrays idénticos de unidades RAID 0 y tiene la
misma tolerancia a fallos que un RAID 1. Los altos niveles de transferencia de I/O de datos
se alcanzan gracias al sistema de Bandas RAID 1
Es un sistema muy caro de implementar con una escalabilidad muy limitada y está
recomendado para sistema que necesiten un grado muy alto de tolerancia a fallos o para
servidor de Bases de Datos.
Raid 53 - High I/O capacidad de Lectura y escritura (I/O) y prestaciones de transferencias de datos
RAID 53 se debería llamar realmente RAID 03, ya que realmente implementa un conjunto
distribución de discos (RAID 0) junto al sistema de bandas de disco con paridad (RAID 3).
RAID 53 tiene la misma tolerancia a fallos que RAID 3 y requiere un mínimo de 5 discos para
implementarlo.
La alta tasa de transferencia de datos se logran gracias al uso de RAID 3 y los altos ratios de
I/O para pequeñas solicitudes se consiguen gracias a la implementación del sistema de
distribución
de
discos
RAID
0.
Quizá una solución buena para sitios que hubiesen funcionado correctamente con RAID 3
pero necesitasen un complemento para lograr grandes prestaciones de lectura y escritura
(I/O).
Las desventajas que presenta este sistema RAID es que se necesita mucha experiencia
para poder implementarlo. Todos los discos deben sincronizarse y con la distribución de
discos se consigue un pobre aprovechamiento de la capacidad de los discos.
Sustitución de sectores
El sistema operativo Windows NT Server ofrece una utilidad adicional de tolerancia a fallos
denominada «sustitución de sectores», también conocida como «hot fixing». Esta utilidad
incorpora automáticamente en el sistema de archivos posibilidades de recuperación de
sectores mientras esté funcionando el equipo.
Si se localizan los sectores malos durante la E/S (entrada/salida) del disco, el controlador
de la tolerancia a fallos intenta mover los datos a un sector no dañado y marcar el sector
erróneo. Si la asignación es correcta, no se alerta al sistema de archivos. Los dispositivos
SCSI pueden realizar la sustitución de sectores, mientras que los dispositivos ESDI e IDE no
pueden llevar a cabo este proceso. Algunos sistemas operativos de red, tales como Windows
NT Server, tienen una utilidad que notifica al administrador de todos los sectores dañados y
la pérdida potencial de datos si falla la copia redundante.
Microsoft Clustering (agrupamiento)
Microsoft Clustering es una implementación de agrupamiento de servidores de Microsoft.
El término «clustering» se refiere a un grupo de sistemas independientes que funcionan
juntos como un único sistema. La tolerancia a fallos se ha desarrollado dentro de la
tecnología de agrupamiento o clustering. Si un sistema dentro del grupo o cluster falla, el
software de agrupamiento distribuirá el trabajo del sistema que falla entre los sistemas
restantes del grupo. El agrupamiento no se desarrolló para reemplazar las implementaciones
actuales de los sistemas tolerantes a fallos, aunque proporciona una mejora excelente.
Implementación de la tolerancia a fallos
La mayoría de los sistemas operativos de red más avanzados ofrecen una utilidad para la
implementación de la tolerancia a fallos. En Windows NT Server, por ejemplo, el programa
Administrador de discos se utiliza para configurar la tolerancia a fallos en Windows NT
Server. La interfaz gráfica del Administrador de discos realiza, de forma sencilla, el proceso
de configurar y gestionar el particionamiento de discos y las opciones de la tolerancia a
fallos. Si mueve un disco a un controlador diferente o modifica su ID, Windows NT lo
reconocerá como disco original. El Administrador de discos se utiliza para crear varias
configuraciones de disco, incluyendo:
Conjuntos de distribución con paridad, que acumulan múltiples áreas de
disco en una gran partición, distribuyendo el almacenamiento de los datos en todas
las unidades simultáneamente, agregando la información de paridad relativa a la
tolerancia a fallos.
Conjuntos de duplicación, que generan un duplicado de una partición y la
colocan en un disco físico distinto.
Conjuntos de volúmenes, que acumulan múltiples áreas de disco en una
gran partición, completando las áreas en serie.
Conjuntos de distribución, que acumulan múltiples áreas de disco en una
gran partición, distribuyendo, de forma simultánea, el almacenamiento de los datos
en todas las unidades.
Unidades y discos ópticos
El término «unidad óptica» es un término genérico que se aplica a diferentes dispositivos.
En la tecnología óptica, los datos se almacenan en un disco rígido alternando la superficie
del disco con la emisión de un láser.
La utilización de unidades y discos ópticos se ha hecho muy popular. A medida que
evoluciona la tecnología de los CD-ROM originales de sólo lectura y lectura-escritura a las
nuevas tecnologías DVD, se están utilizando muchísimo estos dispositivos para almacenar
grandes cantidades de datos recuperables. Los fabricantes de unidades ópticas proporcionan
un gran array de configuraciones de almacenamiento que están preparadas para las redes o
se pueden utilizar con un servidor de red. Constituyen una opción excelente para las copias
de seguridad permanentes. Existen diferentes posibilidades en esta tecnología.
Tecnología de CD-ROM
Los discos compactos (CD-ROM) constituyen el formato más habitual de almacenamiento
óptico de datos. La mayoría de los CD-ROM sólo permiten leer la información. El
almacenamiento en CD ofrece muchas ventajas. La especificación ISO 9660 define un
formato internacional estándar para el CD-ROM. Tienen una alta capacidad de
almacenamiento, hasta 650 Mb de datos en un disco de 4,72 pulgadas. Son portables y
reemplazables y debido a que no se pueden modificar los datos de un CD-ROM (si es de sólo
lectura), tenemos que los archivos no se pueden eliminar de forma accidental. Los formatos
de grabación estándares y los lectores, cada vez, más económicos hacen que los CD sean
ideales para el almacenamiento de datos. Puede utilizar ahora este medio para
actualizaciones incrementales y duplicaciones económicas. Además, los CD-ROM se ofrecen
en un formato de reescritura denominado CD de reescritura.
Tecnología de disco de vídeo digital (DVD)
La familia de formatos de los discos de vídeo digital (DVD) están reemplazando a la familia
de formatos de los CD-ROM. La tecnología de disco de vídeo digital (DVD), también conocida
como «disco digital universal», es muy reciente y, por tanto, relativamente inmadura. DVD
tiene cinco formatos: DVD-ROM, DVD-Vídeo, DVD-Audio, DVD-R («R» para especificar
«gravable») y DVD-RAM.
DVD-R es el formato de una sola escritura (actualizaciones incrementales). Especifica 3,95
GB para disco de una sola cara y 7,9 GB para los discos de doble cara. DVD-RAM es el
formato para los discos de múltiples escrituras. Especifica 2,6 GB para discos de una sola
cara y 5,2 GB para los discos de doble cara, con un cartucho de discos como opción. DVDROM (discos de sólo lectura) son similares a los CD-ROM y tienen una capacidad de
almacenamiento de 4,7 GB (una cara, un nivel), 9,4 GB (doble cara, un nivel), 8,5 GB (doble
nivel, una cara), 17 GB (doble nivel, doble cara). Son formatos compatibles con CD-audio y
CD-ROM. Las unidades de DVD-ROM pueden utilizar DVD-R y todos los formatos de DVD.
UDF es el sistema de archivos para DVD-R.
Tecnología WORM (una escritura, múltiples lecturas)
La tecnología WORM (una escritura, múltiples lecturas) ha ayudado a iniciar la revolución
del proceso de generación de imágenes documentales. WORM utiliza la tecnología láser para
modificar, de forma permanente, los sectores del disco y, por tanto, escribir
permanentemente archivos en el medio. Dado que esta alteración es permanente, el
dispositivo puede escribir sólo una vez en cada disco. Normalmente, WORM se emplea en los
sistemas de generación de imágenes donde las imágenes son estáticas y permanentes.
Tecnología óptica reescribible
Se están empleando dos nuevas tecnologías que utilizan tecnología óptica reescribible.
Estas tecnologías incluyen los discos magneto-ópticos (MO) y los discos rescribibles de
cambio de fase (PCR; Phase Change Rewritable). Se están utilizando más las unidades MO,
puesto que los fabricantes del medio y unidades utilizan los mismos estándares y, por tanto,
sus productos son compatibles. Los dispositivos PCR, proceden de un fabricante
(Matsushita/Panasonic) y el medio procede de dos fabricantes (Panasonic y Plasmon).
Unidades de múltiples funciones
Existen dos versiones de unidades ópticas de múltiples funciones. Una utiliza firmware en
la unidad que, primero, determina si se ha formateado un disco para una sola escritura o
para múltiples escrituras y, a continuación, actúa sobre el disco de la forma apropiada. En la
otra versión de MO, se utilizan dos medios completos diferentes. Los discos de múltiples
escrituras son discos MO convencionales, pero el medio de una sola escritura es el medio
WORM tradicional.
Recuperación frente a catástrofes
El intento de recuperación frente a una catástrofe, independientemente de la causa, puede
constituir una experiencia terrible. El éxito de la recuperación depende de la implementación
frente a catástrofes y del estado de preparación desarrollado por el administrador de la red.
Prevención de catástrofes
La mejor forma de recuperarse frente a un desastre es, en primer lugar, evitarlo antes de
que ocurra. Cuando se implementa la prevención de catástrofes se debe:
Enfocar los factores sobre los que se tienen control.
Determinar el mejor método de prevención.
Implementar y forzar la medidas preventivas que se seleccionen.
Comprobar continuamente nuevos y mejores métodos de prevención.
Realizar un mantenimiento habitual y periódico de todas las componentes
hardware y software de la red.
Recordar que el entrenamiento es la clave de la prevención de las catástrofes
de tipo humano que pueden afectar a la red.
Preparación frente a las catástrofes
No todas las catástrofes se pueden evitar. Cada jurisdicción tienen un plan de contingencia
frente a catástrofes y se gastan muchas horas cada año en la preparación de este plan.
Dado que cada comunidad es diferente, los planes de recuperación tendrán en cuenta
distintos factores. Si, por ejemplo, vive en una zona de inundaciones, debería tener un plan
para proteger la red frente a niveles muy altos de concentración de agua.
Cuando se considera la protección frente a las catástrofes, necesitará un plan para el
hardware, software y datos. Se pueden reemplazar las aplicaciones software y hardware y
los sistemas operativos. Pero para realizar esto, es necesario, primero, conocer exactamente
los recursos que se disponen. Realice un inventario de todo el hardware y software,
incluyendo fecha de compra, modelo y número de serie.
Los componentes físicos de una red se pueden reemplazar fácilmente y, normalmente,
están cubiertos por algún tipo de seguro, pero el problema se plantea con los datos que son
altamente vulnerables a las catástrofes. En caso de incendio, puede reemplazar todos los
equipos y hardware, pero no los archivos, diseños y especificaciones para un proyecto
multimillonario que ha preparado la organización durante el último año.
La única protección frente a las catástrofes que implican la pérdida de datos es
implementar un método de copias de seguridad o más de uno de los descritos
anteriormente. Almacene las copias de seguridad en un lugar seguro, como puede ser una
caja de seguridad de un banco, lejos del sitio donde se ubica la red.
Para conseguir una recuperación total frente a cualquier catástrofe, necesitará:
Realizar un plan de recuperación.
Implementar el plan.
Comprobar el plan.
5.4.2 Selección de una red Igual a Igual o una Cliente –
Servidor.
Establecimiento de un entorno cliente/servidor
Las grandes redes están basadas en el modelo cliente/servidor.
Computación centralizada frente al modelo cliente/servidor
Las primeras redes estaban basadas en el modelo de computación centralizada.
Generalmente, en estas redes un gran servidor (un equipo mainframe o gran equipo)
manejaba todos los aspectos de la red, mientras que cada usuario accedía al servidor
principal desde un terminal. Como el equipo centralizado gestionaba todas las tareas de
cálculo de alto nivel, generalmente los terminales eran económicos, equipos de bajo
rendimiento. Actualmente, gracias a las mejoras obtenidas por la rápida evolución del
equipo personal, el antiguo modelo centralizado está siendo sustituido por el modelo
cliente/servidor. Hoy en día los usuarios tienen toda la potencia de un equipo mainframe al
alcance de sus dedos, con la ventaja añadida de disponer de una red interconectada.
Computación centralizada
En el entorno tradicional de grandes equipos, una aplicación tal como una base de datos
se ejecuta en un gran equipo mainframe central y potente al que se accede mediante
terminales. El terminal envía una petición de información al equipo mainframe; el mainframe
recupera la información y la muestra en el terminal.
La respuesta completa viaja desde el servidor a través de la red, y es descargada en el
cliente que hace la petición. El acceso a los archivos tiene lugar a través del sistema
operativo de red (NOS; Network Operating System) y el cable. Hay muy poca coordinación
entre el terminal y el mainframe. Los datos son procesados en el mainframe y luego
entregados al terminal. La transferencia de datos entre el terminal y el mainframe
incrementa el tráfico de la red y disminuye la velocidad de procesamiento de las peticiones
de otros terminales.
Computación cliente/servidor
El término «computación cliente/servidor» se refiere a un modelo en el que el
procesamiento de datos es compartido entre el equipo cliente y el equipo servidor, más
potente.
El enfoque cliente/servidor puede beneficiar a cualquier organización en la que muchas
personas necesiten acceder continuamente a grandes cantidades de datos.
La red cliente/servidor es la forma más eficaz de ofrecer:
Acceso y gestión de bases de datos para aplicaciones tales como hojas de
cálculo, contabilidad, comunicaciones y gestión de documentos.
Gestión de la red.
Almacenamiento centralizado de archivos.
Introducción al modelo cliente/servidor
La mayoría de las redes trabajan bajo el modelo cliente/servidor, también conocido como
«redes basadas en servidor». Una estación cliente realiza una petición de datos que están
almacenados en un servidor. La estación cliente procesa los datos usando su propia CPU.
Los resultados del procesamiento pueden ser almacenados entonces en el servidor para su
uso futuro. Los datos también pueden ser almacenados en la estación cliente, a los que
pueden acceder otras estaciones cliente de la red. En las redes Trabajo en Grupo, en las que
no hay un servidor centralizado, cada estación cliente actúa a la vez como cliente y servidor.
Para ver un ejemplo de cómo funciona el modelo cliente/servidor vamos a observar una
aplicación de gestión de bases de datos. En el modelo cliente/servidor, el software cliente
utiliza el lenguaje de consulta estructurado (SQL, Structured Query Language), para traducir
lo que ve el usuario en una petición que pueda comprender la base de datos. SQL es un
lenguaje de consulta de bases de datos similar al inglés desarrollado originalmente por IBM
para ofrecer un método relativamente simple de manipular datos (la manipulación de datos
incluye su introducción, su recuperación o su edición).
Otros fabricantes de bases de datos se dieron cuenta de que sería más fácil desarrollar
aplicaciones de bases de datos utilizando un lenguaje común de bases de datos. Por tanto,
éstos dieron soporte a SQL, y se convirtió en un estándar de la industria. En la actualidad, la
mayoría de los sistemas de gestión de bases de datos utilizan SQL.
El proceso cliente/servidor
La consulta a la base de datos es enviada por el cliente, pero procesada en el servidor. A
través de la red, sólo se devuelven los resultados hacia el cliente. El proceso de solicitar y
recibir información consta de seis pasos:
1.
2.
3.
4.
datos.
5.
6.
El cliente solicita datos.
La petición es traducida a SQL.
La petición SQL es enviada por la red al servidor.
El servidor de bases de datos busca en el equipo donde se encuentran los
Los registros seleccionados son devueltos al cliente.
Los datos son presentados al usuario.
El entorno cliente/servidor tiene dos componentes principales:
end.
La aplicación, a menudo denominada como «cliente» o front-end.
El servidor de bases de datos, a menudo denominado como «servidor» o back-
El cliente
El usuario genera una petición en el front-end. El cliente ejecuta una aplicación que:
Presenta una interfaz al usuario.
Formatea las peticiones de datos.
Muestra los datos recibidos del servidor.
En un entorno cliente/servidor, el servidor no contiene el software de interfaz de usuario.
El cliente es responsable de presentar los datos en un formato que resulte útil.
El usuario introduce las instrucciones desde el equipo cliente. El equipo cliente prepara la
información para el servidor. El equipo cliente envía una petición de información específica al
servidor a través de la red. El servidor procesa la petición, localiza la información adecuada
y la devuelve al cliente a través de la red. El equipo cliente envía entonces la información a
la interfaz, que presenta la información al usuario. El equipo cliente también puede procesar
adicionalmente la información, utilizando su propia CPU y software.
Uso del front-end
Los front-end pueden presentar a los usuarios la misma información de formas distintas,
dependiendo de la petición. Por ejemplo, los datos que indican que Colón cruzó por primera
vez el océano Atlántico en 1492, pueden ser organizados y presentados en varios contextos,
incluyendo:
Viajes oceánicos.
Descubrimientos de Colón.
Conquistas de 1492.
Mares cruzados por Colón.
Como otro ejemplo, vamos a considerar a nuestro fabricante de bicicletas personalizadas.
La compañía guarda toda la información sobre clientes y productos en una base de datos.
Pero esta información puede ser recuperada, organizada y presentada a través del front-end
de varias formas:
El departamento de publicidad puede enviar correos publicitarios a los clientes
que tienen un cierto código postal.
Los distribuidores pueden saber cuáles son los artículos en stock.
Los departamentos de servicios pueden identificar cuáles son los clientes a los
que hay que dar servicio.
Los departamentos de pedidos pueden ver el historial de compras de cada
cliente.
Los departamentos de contabilidad pueden evitar que un cliente moroso pida
nuevos productos.
Cada departamento necesita un front-end diseñado para acceder a la base de datos común
y recuperar información para una necesidad determinada.
Herramientas front-end
Existen diversas herramientas, aplicaciones y utilidades disponibles para el front-end para
hacer que el proceso cliente/servidor sea más eficiente. Estas herramientas incluyen:
Herramientas de consulta. Estas herramientas utilizan consultas
predefinidas y capacidades propias de generación de informes para ayudar a que los
usuarios accedan a datos del servidor.
Aplicaciones de usuario. Muchos programas habituales de aplicación, como
Microsoft Excel, pueden ofrecer acceso front-end a bases de datos situadas en
servidores. Otras, como Microsoft Access, incluyen su propio SQL para ofrecer una
interfaz para sistemas de gestión de bases de datos de diversos fabricantes.
Herramientas de desarrollo de programas. Muchas instalaciones
cliente/servidor necesitan aplicaciones especiales front-end personalizadas para sus
trabajos de recuperación de datos. Para ello, se dispone de herramientas de
desarrollo de programas, como Microsoft Visual Basic, para ayudar a los
programadores a desarrollar herramientas front-end para acceder a datos de
servidores.
El servidor
Generalmente, en un entorno cliente/servidor el servidor se dedica a almacenar y
gestionar datos. Éste es el lugar en el que se lleva a cabo la mayor parte de actividad
relacionada con bases de datos. El servidor también es denominado como el back-end del
modelo cliente/servidor porque responde a las peticiones del cliente. El servidor recibe las
peticiones estructuradas de los clientes, las procesa y envía la información solicitada al
cliente de nuevo a través de la red.
El software de base de datos del servidor de archivos responde a las peticiones de los
clientes ejecutando búsquedas. Como parte de un sistema cliente/servidor, sólo devuelve el
resultado de las búsquedas.
El procesamiento back-end incluye la ordenación de datos, la extracción de los datos
solicitados y la devolución de los datos al usuario.
Adicionalmente, el software servidor para bases de datos gestiona los datos de una base
de datos, incluyendo operaciones de:
Actualización.
Borrado.
Inserción.
Seguridad.
Procedimientos almacenados
Los procedimientos almacenados son pequeñas rutinas de procesamiento de datos
preescritas, que ayudan a los detalles del procesamiento de datos. Los procedimientos son
almacenados en el servidor, y pueden ser usados por el cliente.
Los procedimientos almacenados ayudan a procesar los datos. Un procedimiento
almacenado puede ser usado por cualquier número de clientes, evitando la necesidad de
incorporar la misma rutina en el código de cada programa.
Estos procedimientos almacenados:
Realizan parte del procesamiento llevado a cabo generalmente en el cliente.
Reducen el tráfico de la red, ya que una simple llamada del cliente al servidor
puede iniciar una serie de procedimientos almacenados, que en caso contrario
requerirían varias peticiones.
Pueden incluir controles de seguridad para evitar que usuarios no autorizados
ejecuten algunos de los procedimientos.
Hardware del servidor
Generalmente, los equipos servidor de un entorno cliente/servidor deben ser más potentes
y rápidos que los equipos cliente. Además de un procesador de alta velocidad, estos equipos
necesitan gran cantidad de RAM y de espacio en unidades de disco. Estos equipos también
deben ser capaces de gestionar:
Múltiples peticiones.
Seguridad.
Tareas de gestión de la red
Cualquier organización que implemente una red cliente/servidor debe usar servidores
dedicados para gestionar las funciones back-end.
Arquitectura cliente/servidor
Hay varias posibles organizaciones cliente/servidor:
Los datos pueden ser introducidos en un único servidor.
Los datos pueden estar distribuidos entre varios servidores de bases de datos.
Las posiciones de los servidores dependerán de la ubicación de los usuarios y la
naturaleza de los datos.
Los servidores de una WAN sincronizan periódicamente sus bases de datos
para asegurarse de que todos tienen los mismos datos.
Un data warehouse almacena grandes volúmenes de datos y envía los datos
más solicitados a un sistema intermedio que es capaz de formatear los datos en su
forma más requerida. A menudo, esto descarga parte del procesamiento de datos del
servidor principal a otros servidores.
Ventajas del uso de un entorno cliente/servidor
La tecnología cliente/servidor crea un potente entorno que ofrece muchas ventajas reales
a las organizaciones. Un sistema cliente/servidor bien planificado proporciona redes
relativamente económicas. Estos sistemas ofrecen una capacidad de procesamiento del nivel
de un mainframe, permitiendo en cambio una fácil personalización para aplicaciones
específicas. Como el modelo cliente/servidor sólo envía los resultados de una consulta a
través de la red, reduce el tráfico de la red.
El modelo cliente/servidor utiliza un potente servidor para almacenar los datos. La
estación cliente puede procesar parte o todos los datos solicitados. En una red cargada, esto
implica que el procesamiento será distribuido con más eficiencia que en un sistema
tradicional basado en mainframe.
Como los servicios de archivos y los datos están en el servidor back-end, resulta más fácil
administrar los servidores y mantenerlos en un lugar seguro en una única ubicación. Los
datos están más seguros en un entorno cliente/servidor, ya que pueden ser guardados en
un área segura, lejos de los usuarios. Los datos también están más seguros cuando se
utiliza la seguridad basada en Windows NT Server para evitar el acceso no autorizado a los
archivos. Cuando los datos están almacenados en un número limitado de ubicaciones y son
gestionados por una única autoridad, las copias de seguridad se simplifican.
5.5 Planeación y diseño de una LAN.
El diseño de red puede tener en cuenta varias tecnologías, como, por ejemplo, Token Ring, FDDI y
Ethernet. Este diseño se centra en la tecnología Ethernet, dado que ésta es la tecnología que aparecerá
más a menudo cuando realice la planificación de diseños futuros. Ethernet tiene una topología de bus
lógica, que tiene como resultado la existencia de dominios de colisión. Sin embargo, se deberá intentar
que estos dominios sean pequeños mediante el proceso llamado segmentación. Una vez que se ha
decidido utilizar la tecnología Ethernet, deberá desarrollar una topología de LAN de Capa 1. Deberá
determinar el tipo de cable y la topología física (cableado) a utilizar. La elección más común es UTP CAT
5 como medio y una topología en estrella extendida como topología física (cableado). A continuación,
deberá decidir cuál de las distintas topologías Ethernet deberá utilizar. Dos tipos comunes de topologías
Ethernet son 10BASE-T y 100BASE-TX (Fast Ethernet). Si dispone de los recursos necesarios, puede
utilizar 100BASE-TX en toda la red. De no ser así, podrá utilizar Fast Ethernet para conectar el servicio
de distribución principal (punto de control central de la red) con otros servicios de distribución intermedios.
Podrá usar hubs, repetidores y transceivers en su diseño, junto con otros componentes de Capa 1 tales
como conectores, cables, jacks y paneles de conexión. Para terminar el diseño de Capa 1, deberá
generar una topología lógica y una física. (Nota: Como siempre, una parte importante del diseño incluye
la documentación del trabajo).
El siguiente paso consiste en desarrollar una topología de LAN de Capa 2, es decir, agregar dispositivos
de Capa 2 a la topología a fin de mejorar sus capacidades. Puede agregar switches para reducir la
congestión y el tamaño de los dominios de colisión. En un futuro, es posible que tenga la posibilidad de
reemplazar hubs por switches y otros dispositivos menos inteligentes de Capa 1 por dispositivos más
inteligentes de Capa 2.
El siguiente paso consiste entonces en desarrollar una topología de Capa 3, es decir, agregar dispositivos
de Capa 3, que también aumentan las capacidades de la topología. En la Capa 3 es donde se
implementa el enrutamiento. Puede utilizar routers para crear internetworks escalables como, por
ejemplo, LAN, WAN o redes de redes. Los routers imponen una estructura lógica en la red que está
diseñando. También se pueden utilizar para la segmentación. Los routers, a diferencia de los puentes,
switches y hubs, dividen los dominios de colisión y de broadcast.
También se debe tener en cuenta el enlace de LAN a las WAN e Internet. Como siempre, debe
documentar las topologías física y lógica del diseño de red. La documentación debe incluir ideas,
matrices de resolución de problemas y cualquier otra nota que haya realizado mientras tomaba sus
decisiones.
Para que una LAN sea efectiva y pueda satisfacer las necesidades de los usuarios, se debe implementar
siguiendo una serie sistemática de pasos planificados. Mientras aprende acerca del proceso de diseño, y
a crear sus propios diseños, debe hacer uso frecuente de su diario de ingeniería.
El primer paso en el proceso es reunir información acerca de la organización. Esta información debe
incluir:
1.
2.
3.
4.
5.
Historia de la organización y situación actual
Crecimiento proyectado
Políticas de operación y procedimientos administrativos
Sistemas y procedimientos de oficinas
Opiniones del personal que utilizará la LAN
Es de esperarse que este paso también lo ayude a identificar y definir cualquier cuestión o problema que
deba tratarse (por ej., puede encontrar alguna sala alejada en el edificio que no tenga acceso a la red).
El segundo paso es realizar un análisis y evaluación detallados de los requisitos actuales y proyectados
de las personas que usarán la red.
El tercer paso es identificar los recursos y limitaciones de la organización. Los recursos de organización
que pueden afectar a la implementación de un nuevo sistema LAN se dividen en dos categorías
principales: hardware informático/recursos de software, y recursos humanos. Es necesario documentar
cuál es el hardware y software existentes de la organización, y definir las necesidades proyectadas de
hardware y software. Las respuestas a algunas de estas preguntas también le ayudarán a determinar
cuánta capacitación se necesita y cuántas personas se necesitarán para soportar la LAN. Entre las
preguntas que realice deberán figurar las siguientes:
1.
2.
3.
4.
5.
¿Cuáles son los recursos financieros disponibles de la organización?
¿De qué manera se relacionan y comparten actualmente estos recursos?
¿Cuántas personas usarán la red?
¿Cuáles son los niveles de conocimiento sobre informática de los usuarios de red?
¿Cuáles son sus actitudes con respecto a los computadores y las aplicaciones informáticas?
Si sigue estos pasos y documenta la información en el marco de un informe formal, esto lo ayudará a
estimar costos y desarrollar un presupuesto para la implementación de una LAN.
En los campos técnicos, como la ingeniería, el proceso de diseño incluye:






Diseñador: Persona que realiza el diseño
Cliente: Persona que ha solicitado, y se supone que paga para que se realice el diseño
Usuario(s): Persona(s) que usará(n) el producto
"Brainstorming": Generación de ideas creativas para el diseño
Desarrollo de especificaciones: Normalmente los números que medirán el funcionamiento del
diseño
Construcción y prueba: Para satisfacer los objetivos del cliente y para cumplir determinados
estándares
Uno de los métodos que se pueden usar en el proceso de creación de un diseño es el ciclo de resolución
de problemas. Este es un proceso que se usa repetidamente hasta terminar un problema de diseño.
Uno de los métodos que usan los ingenieros para organizar sus ideas y planos al realizar un diseño es
utilizar la matriz de solución de problemas. Esta matriz enumera alternativas, y diversas opciones, entre
las cuales se puede elegir.
5.5.1 Elaboración de un cronograma de actividades.
Una buena manera de empezar a buscar una ubicación para el centro de cableado consiste en identificar
ubicaciones seguras situadas cerca del POP. La ubicación seleccionada puede servir como centro de
cableado único o como MDF, en caso de que se requieran IDF. El POP es donde los servicios de
telecomunicaciones, proporcionados por la compañía telefónica, se conectan con las instalaciones de
comunicación del edificio. Resulta esencial que el hub se encuentre ubicado a corta distancia, a fin de
facilitar una networking de área amplia y la conexión a Internet.
En el gráfico del plano de piso, se han seleccionado cinco ubicaciones para los centros de cableado. Se
encuentran marcadas en el gráfico como "A", "B", "C", "D" y "E".
La topología que se utiliza cuando se requiere más de un centro de cableado, es la topología en estrella
extendida. Como el equipamiento más complejo se encuentra ubicado en el punto más central de la
topología en estrella extendida, a veces se conoce como topología en estrella jerárquica.
En la topología en estrella extendida existen dos formas mediante las cuales un IDF se puede conectar al
MDF. En primer lugar, cada IDF se puede conectar directamente a la instalación de distribución principal.
En ese caso, como el IDF se encuentra en el lugar donde el cableado horizontal se conecta con un panel
de conexión en el centro de cableado, cuyo cableado backbone luego se conecta al hub en el MDF, el
IDF se conoce a veces como conexión cruzada horizontal (HCC). El MDF se conoce a veces como la
conexión cruzada principal (MCC) debido a que conecta el cableado backbone de la LAN a Internet.
El segundo método de conexión de un IDF al hub central utiliza un "primer" IDF interconectado a un
"segundo" IDF. El "segundo" IDF se conecta entonces al MDF. El IDF que se conecta con las áreas de
trabajo se conoce como conexión cruzada horizontal. Al IDF que conecta la conexión cruzada horizontal
con el MDF se le conoce como conexión cruzada intermedia (ICC). Observe que ninguna área de trabajo
o cableado horizontal se conecta con la conexión cruzada intermedia cuando se usa este tipo de
topología en estrella jerárquica.
Cuando se produce el segundo tipo de conexión, TIA/EIA-568-A especifica que no más de un ICC se
puede atravesar para alcanzar el MCC.
5.5.2 Diseño conceptual por dispositivos.
5.5.3 Diseño en base a planos con especificaciones.
5.6 Instalación y administración básica de una LAN.
5.6.1 Instalación del cableado bajo las normas TIA/EIA.
El estándar TIA/EIA-568-A especifica que en una LAN Ethernet, el tendido del cableado horizontal debe
estar conectado a un punto central en una topología en estrella. El punto central es el centro de cableado
y es allí donde se deben instalar el panel de conexión y el hub. El centro de cableado debe ser lo
suficientemente espacioso como para alojar todo el equipo y el cableado que allí se colocará, y se debe
incluir espacio adicional para adaptarse al futuro crecimiento. Naturalmente, el tamaño del centro va a
variar según el tamaño de la LAN y el tipo de equipo necesario para su operación. Una LAN pequeña
necesita solamente un espacio del tamaño de un archivador grande, mientras que una LAN de gran
tamaño necesita una habitación completa.
El estándar TIA/EIA-569 especifica que cada piso deberá tener por lo menos un centro de cableado y que
por cada 1000 m 2 se deberá agregar un centro de cableado adicional, cuando el área del piso cubierto
por la red supere los 1000 m 2 o cuando la distancia del cableado horizontal supere los 90 m.
El cableado estructurado está diseñado para usarse en cualquier cosa, en cualquier
lugar, y en cualquier momento. Elimina la necesidad de seguir las reglas de un proveedor en
particular, concernientes a tipos de cable, conectores, distancias, o topologías. Permite
instalar una sola vez el cableado, y después adaptarlo a cualquier aplicación, desde
telefonía, hasta redes locales Ethernet o Token Ring, o para tecnologías emergentes como
ATM (Modo de Transferencia Asíncrona). Mediante la adopción bilateral de normas por parte
de fabricantes de cable básico y de equipo electrónico, se hace posible la implantación de un
cableado flexible. Si además el usuario final sigue esas mismas normas, entonces cualquier
aplicación, cable, conector, o dispositivo electrónico construido bajo estas normas, trabajará
en el mismo sistema.
La
norma
central
que
especifica
un
género
de
sistema
de
cableado
para
telecomunicaciones que soporte un ambiente multi producto y multi proveedor, es la norma
ANSI/TIA/EIA-568-A,
"Norma
para
construcción
comercial
de
cableado
de
telecomunicaciones". Esta norma fue desarrollada y aprobada por comités del Instituto
Nacional Americano de Normas (ANSI), la Asociación de la Industria de Telecomunicaciones
(TIA), y la Asociación de la Industria Electrónica, (EIA), todos de los E.U.A. Estos comités
están compuestos por representantes de varios fabricantes, distribuidores, y consumidores
de la industria de redes. La norma establece criterios técnicos y de rendimiento para
diversos componentes y configuraciones de sistemas.
Además, hay un número de normas relacionadas que deben seguirse con apego para
asegurar el máximo beneficio posible del sistema de cableado estructurado. Dichas normas
incluyen la ANSI/EIA/TIA-569, "Norma de construcción comercial para vías y espacios de
telecomunicaciones", que proporciona directrices para conformar ubicaciones, áreas, y vías a
través de las cuales se instalan los equipos y medios de telecomunicaciones. También detalla
algunas consideraciones a seguir cuando se diseñan y construyen edificios que incluyan
sistemas de telecomunicaciones.
Otra norma relacionada es la ANSI/TIA/EIA-606, "Norma de administración para la
infraestructura de telecomunicaciones en edificios comerciales". Proporciona normas para la
codificación de colores, etiquetado, y documentación de un sistema de cableado instalado.
Seguir esta norma, permite una mejor administración de una red, creando un método de
seguimiento de los traslados, cambios y adiciones. Facilita además la localización de fallas,
detallando cada cable tendido por características tales como tipo, función, aplicación,
usuario, y disposición.
ANSI/TIA/EIA-607, "Requisitos de aterrizado y protección para telecomunicaciones en
edificios comerciales", que dicta prácticas para instalar sistemas de aterrizado que aseguren
un
nivel
confiable
de
referencia
a
tierra
telecomunicaciones subsecuentemente instalados.
eléctrica,
para
todos
los
equipos
de
Cada uno de estas normas funciona en conjunto con la 568-A. Cuando se diseña e
instala cualquier sistema de telecomunicaciones, se deben revisar las normas adicionales
como el código eléctrico nacional (NEC) de los E.U.A., o las leyes y previsiones locales como
las especificaciones NOM (Norma Oficial Mexicana).
Subsistemas de la norma ANSI/TIA/EIA-568-A
La norma ANSI/TIA/EIA-568-A especifica los requisitos mínimos para cableado de
telecomunicaciones dentro de edificios comerciales, incluyendo salidas y conectores, así
como entre edificios de conjuntos arquitectónicos. De acuerdo a la norma, un sistema de
cableado estructurado consiste de 6 subsistemas funcionales:
1.
Instalación de entrada, es el punto donde la instalación exterior y dispositivos asociados entran al edificio.
Este punto puede estar utilizado por servicios de redes públicas, redes privadas del cliente, o ambas. Este es
el punto de demarcación entre el portador y el cliente, y en donde están ubicados los dispositivos de
protección para sobrecargas de voltaje
2.
El cuarto, local, o sala de máquinas o equipos es un espacio centralizado para el equipo de
telecomunicaciones (v.g., PBX, equipos de cómputo, conmutadores de imagen, etc.) que da servicio a los
usuarios de la oficina, negocio o edificio.
3.
El eje de cableado central proporciona interconexión entre los gabinetes de telecomunicaciones, locales de
equipo, e instalaciones de entrada. Consiste de cables centrales, interconexiones principales e intermedias,
terminaciones mecánicas, y puentes de interconexión. Los cables centrales conectan gabinetes dentro de un
edificio o entre edificios.
4.
Gabinete de telecomunicaciones es donde terminan los cables de distribución horizontal y el eje de
cableado central, conectado con puentes o cables de puenteo, a fin de proporcionar conectividad flexible
para extender los diversos servicios a los usuarios en las tomas o salidas de telecomunicaciones.
5.
El cableado horizontal consiste en el medio físico usado para conectar cada toma o salida a un gabinete. Se
pueden usar varios tipos de cable para la distribución horizontal. Cada tipo tiene sus propias limitaciones de
desempeño, tamaño, costo, y facilidad de uso. (Véase, más adelante.)
6.
El área de trabajo, sus componentes llevan las telecomunicaciones desde la unión de la toma o salida y su
conector donde termina el sistema de cableado horizontal, al equipo o estación de trabajo del usuario. Todos
los adaptadores, filtros, o acopladores usados para adaptar equipo electrónico diverso al sistema de cableado
estructurado, deben ser ajenos a la toma o salida de telecomunicaciones, y están fuera del alcance de la
norma 568-A
Topología de conexión en estrella
Figura 2. Topología de Estrella
La norma 568-A especifica que un sistema de cableado estructurado utiliza una
topología de estrella. Cada área de trabajo a la salida o toma de telecomunicaciones debe
estar conectada a un panel dentro del gabinete de telecomunicaciones. Todos los cables en
el piso o área de trabajo, se tienden por consiguiente, hacia un punto central para
administración. Cada gabinete a su vez debe estar cableado en estrella hacia el local o sala
de equipos del edificio. En el caso de conjuntos arquitectónicos, cada edificio debe
conectarse en estrella hacia un área central de administración.
El uso de topología de estrella elimina muchos de los contratiempos de los sistemas
privados. Primero, se puede hacer funcionar la estrella física como si fuera una topología de
anillo, o una lineal, de modo que en caso de falla en una estación, la electrónica de la red
puede saltar o ignorar dicha estación en particular. Esto mantiene los problemas de cada
estación en carácter estrictamente local, evitando así las caídas del sistema global.
El cableado en estrella permite cambios a nivel aplicativo tales como ir de
aplicaciones basadas en anillos o cadenas, a otras de orientación lineal, sin cambio alguno al
cableado físico, ahorrando por consiguiente, tiempo, dinero, y esfuerzo.
Con buena planeación, se logra facilidad de conversión de una misma toma, en salida
telefónica o para estación de trabajo, con solo cambiar de enchufe los conectores dentro de
los gabinetes y obviamente el equipo que va conectado a la toma, sin necesidad de agregar
cable adicional.
Código de colores
El cable UTP contiene cables de colores y aunque en el mercado se puede comprar los Patch Cord, tal vez
tengamos que armar nuestros propios cables para unir al closet de comunicaciones con el área de trabajo. La norma
TIA/IEA 568-A nos proporciona un código de colores para poder realizar nuestro cables, cabe mencionar que
podemos elegir cualquier configuraciones de colores que nosotros queramos, pero siempre es mejor escuchar la voz
de un experto (TIA/EIA).
Figura 12. Código de Colores
5.6.2 Instalación del Sistema Operativo de Red.
Para poder hacer una selección adecuada del NOS, es importante tener una opinión objetiva de
personas que han experimentado, o están de alguna manera involucradas en el funcionamiento de
estos sistemas, ya que al haberse enfrentado personalmente con uno o más de ellos, tienen una
perspectiva un poco más amplia de sus pros y contras. A continuación, se presentan una serie de
listas que proporcionan las ventajas y desventajas de los tres NOS cliente/servidor y punto a
punto más populares, basadas en una ardua recopilación de opiniones, comentarios y sugerencias,
de profesionales tanto del área comercial y empresarial, como del entorno académico.
Ventajas y desventajas de los NOS
NOVELL NETWARE
Ventajas:
- NDS (Servicio de Directorios de Red) ofrece un directorio global y escalable, que puede
diseñarse para gestión centralizada o descentralizada.
- Excelente administración de redes en gran escala.
- Es un sistema operativo de red independiente del hardware.
- Ofrece el mejor sistema de impresión y archivos.
- Excelente nivel de seguridad.
- Soporta aplicaciones a través de Módulos cargables de NetWare (NLM).
- La gran infraestructura de Novell es capaz de dar soporte técnico y asistencia por mucho
tiempo.
- Cuando se descubre un error en la versión reciente de NetWare, Novell hace públicas las
posibles soluciones para usuarios nuevos y antiguos.
- Mientras más grande sea la red se reduce el costo.
Desventajas:
- NDS es bastante complejo de instalar y administrar.
- NetWare está perdiendo mercado por la complejidad de NetWare 4.1 y NDS.
- La plataforma de NetWare está un tanto limitada al proveer otros servicios fuera de servidor de
archivos e impresión.
- Servicios como FTP o HTTP requieren comprar software adicional de Novell.
- La actualización de una versión a otra es lenta y compleja.
- Puede ser caro para redes pequeñas.
WINDOWS NT SERVER
Ventajas:
- Proporciona una plataforma de propósito general superior.
- Soporta múltiples procesadores.
- Excelente seguridad.
- Existe una gran variedad de aplicaciones diseñadas exclusivamente para NT, incluyendo
freeware y shareware.
- Es fácil de instalar y manejar.
- Tiene una interfaz de usuario muy amigable.
- NT es GUI (Interfaz Gráfica de Usuario) y OS (Sistema Operativo) a la vez.
- NT tiene el respaldo de Microsoft, la compañía más poderosa en software del mundo.
- NT está a punto de incorporar soporte completo para UNIX.
- Tiene buen soporte técnico.
- NT es económico para entornos medianos.
Desventajas:
- Es un poco lento como servidor de archivos e impresión.
- No soporta cotas de disco.
- Cuando se descubre un error en la versión reciente del sistema, Microsoft se espera al
lanzamiento de la siguiente versión para solucionarlo.
- Presenta serias dificultades en entornos muy grandes.
- Mientras crece la infraestructura, el costo de NT sube.
- Necesita muchos recursos de cómputo para funcionar correctamente.
UNIX
Ventajas:
- Sistema multiusuario real, puede correr cualquier aplicación en el servidor.
- Es escalable, con soporte para arquitectura de 64 bits.
- El costo de las diferentes variantes de Unix es muy reducido y algunas son gratis, como
FreeBSD y Linux.
- Se pueden activar y desactivar drivers o dispositivos sin necesidad de reiniciar el sistema.
- UNIX puede trabajar con CLI (Command Line Interface).
- Los kernels de Unix se confeccionan según las necesidades.
- Los estándares son diferentes de los proveedores (POSIX).
- Ofrece la capacidad de realizar cómputo remotamente.
- Es la mejor solución para enormes bases de datos.
Desventajas:
- La interfaz de usuario no es muy amistosa en algunas versiones.
- Requiere capacitación, ya que debido a su complejidad, no cualquiera puede usarlo.
- Padece de la falta de aplicaciones comerciales con nombres importantes.
- La efectividad como servidor de archivos e impresión no es tan eficiente como en otros NOS.
- Hay discrepancias entre los distintos diseñadores y vendedores de UNIX.
MACINTOSH
Ventajas:
- Utiliza el microprocesador Power PC, que por su velocidad y eficiencia tiene un futuro
promisorio.
- Ambiente de usuario amigable. Es el NOS más sencillo de usar.
- Capacidades poderosas en el manejo y diseño de gráficos.
- Compatibilidad consigo mismo. Al comprar nuevo hardware o software, es mucho menos
propenso a fallas de instalación.
- Seguridad para servidor de Internet.
- Características de Plug and Play.
- Longevidad. En Macintosh los cambios drásticos de arquitecturas que descontinúan
aplicaciones, no se dan.
- Fácil manejo de red.
Desventajas:
- Participación de mercado muy reducida.
- No es compatible con PC's y otras arquitecturas.
- No existen clones.
- Algunas veces hay problemas con la multitarea. Una aplicación puede impedir que otras
funcionen.
WINDOWS 95
Ventajas:
- Corre en microprocesadores Intel y compatibles. Es el más común.
- Interfaz de usuario muy amigable.
- Dominio del mercado.
- Características de Plug and Play.
- Soporte técnico por dondequiera.
- Compatible con NT hasta cierto punto.
- Muchas aplicaciones disponibles.
- Facilidad de conexión en red.
Desventajas:
- El viejo MS-DOS todavía se encuentra detrás de Windows 95.
- Contiene algunos errores de fábrica.
- Limitaciones en nombres de archivo.
- Incompatibilidades en nombres de archivo con Windows 3.1
- Es más lento en ambientes multitarea que otros NOS (Macintosh).
- Incompatible con versiones escalables de software de aplicación.
LANTASTIC
Ventajas:
- Maneja niveles de seguridad muy buenos. (Mejor que cualquier otro NOS de punto a punto).
- Es económico.
- Soporta más de 500 usuarios.
- Fácil instalación y operación.
- Fácil interfaz con Microsoft y Novell.
Desventajas:
- Se tiene que hacer un gasto extra para adquirirlo. (Windows 95 y Macintosh incluyen gratis
software de red punto a punto).
- No existe soporte para LANtastic en todos lados.
- Participación de mercado reducida.
Costos de los NOS
A la hora de iniciar un proyecto, el factor económico juega una pieza clave en la decisión a
tomar, y la selección de un NOS no es la excepción. El costo varía entre cada NOS, partiendo
desde precios bastante altos, hasta sistemas de distribución gratuita. El pagar más por un NOS no
significa que éste vaya a resultar más productivo para la organización que uno de bajo costo, por
lo que se debe buscar aquél que cumpla con las expectativas de la empresa, tratando, claro, que el
desembolso sea siempre el menor posible. Enseguida se presenta información reciente sobre los
costos de varios NOS analizados en este trabajo.
Windows
5
10
50
NT 4.0 (Microsoft)
usuarios = $ 809
usuarios = $ 1,129
usuarios = $ 4,799
USD
USD
USD
NetWare
5
10
50
4.11 (Novell)
usuarios = $ 1,095
usuarios = $ 2,095
usuarios = $ 4,995
USD
USD
USD
NetWare 5 (Novell)
5
usuarios = $ 1,195
10
usuarios = $ 2,190
USD
USD
50
usuarios = $ 5,320
USD
Linux
Gratis ó $ 49.95 USD (CD-ROM). Sin restricción de licencias.
Macintosh (Apple)
Actualización al sistema 8.5, $ 99 USD
UnixWare (Santa Cruz Operation, SCO)
$ 69 USD por unidad
LANtastic (Artisoft)
1 usuario = $ 119 USD
10 usuarios = $ 499 USD
X usuarios = $ 999 USD
LAN Server (IBM)
1er servidor = $ 795 USD
Cada licencia adicional = $ 715 USD
Cada sistema operativo de red tiene diferentes requerimientos de hardware para funcionar
correctamente, si éstos no son satisfechos, el sistema puede no operar o trabajar en un nivel muy
por debajo del esperado, ocasionando serios problemas en la red. Es conveniente entonces,
conocer los requerimientos de cada NOS para ver si el equipo actual los satisface o si es
necesario invertir en nuevo hardware.
Windows NT 4.0
- Procesador 486 a 33 MHz o superior, Pentium o Pentium PRO, para sistemas
Intel y compatibles; procesador RISC compatible con Windows NT Server 4.0 para
sistemas basados en RISC.
- 16 MB de memoria.
- Mínimo 125 MB de espacio en disco duro para sistemas Intel y compatibles;
160 MB para sistemas basados en RISC.
- Unidad de CD-ROM.
- Adaptador gráfico VGA, SVGA o compatible con Windows NT Server 4.0.
NetWare 4.11
Servidor:
- PC con procesador 386 o superior.
- 16 MB de RAM (Se requiere más memoria dependiendo del número de usuarios, lo
que se haya cargado en el servidor, el número de aplicaciones abiertas y el
tamaño de los discos duros de la red).
- Un disco duro con suficiente espacio libre para el tamaño de la red.
(NetWare 4.11 utiliza al menos 55 MB de disco duro).
- Al menos un adaptador de red.
- Cable de red.
- Una unidad de CD-ROM para instalación.
Estaciones de trabajo:
- Para cada estación de trabajo se debe tener un adaptador de red y una
computadora corriendo el sistema operativo cliente requerido.
NetWare 5
Servidor:
- PC con procesador Pentium o superior.
- 64 MB de RAM.
- 1 GB en disco duro.
- Al menos un adaptador de red.
- Cable de red.
- Una unidad de CD-ROM para instalación.
Estaciones de trabajo:
- Para cada estación de trabajo se debe tener un adaptador de red y una
computadora corriendo el sistema operativo cliente requerido.
Solaris 7
- Plataforma SPARC o Intel 486 (100 MHz) al Pentium.
- De 600 MB a 1 GB en disco duro.
- Mínimo 32 MB.
UnixWare
- Soporta sistemas PCI, I2O, EISA, ISA, MCA con procesadores Intel Pentium,
Pentium Pro, Pentium II y 80486DX.
- Requiere unidades de disquete 3.5" y CD-ROM.
- Necesita de 500 MB a 1GB de espacio en disco duro.
- Mínimo 32 MB de memoria. Se recomiendan 64 MB.
- Adaptador SuperVGA y monitor con al menos 800x600.
Linux
- Procesador Intel 386 y posteriores, SPARC, Alpha, PowerPC, etc.
- Mínimo 4 MB de memoria.
- De 150 a 200 MB en disco duro.
VINES
- PC o SMP (Super-Minicomputer Program) basada en Intel.
- 16 MB de memoria.
- Adaptador Ethernet, Token Ring o FDDI.
LANtastic
Para Windows 95/98
- Procesador 486 o superior.
- 8 MB de RAM (16 MB recomendados).
- 12 MB de espacio en disco duro.
Para Windows 3.x
- Procesador 386SX o superior.
- 4 MB de RAM.
- 10 MB de espacio en disco duro.
Para DOS
- PC XT o superior.
- 640 KB de RAM.
- 7 MB de espacio en disco duro.
Windows 95
- PC con procesador 486 a 25 MHz o superior.
- Mínimo 8 MB de memoria.
- 40 a 45 MB de espacio en disco duro.
- Pantalla VGA o de resolución superior.
5.6.3 Configuración de las estaciones de trabajo.
Configuración de las estaciones de trabajo.
Si las estaciones de trabajo trabajan con Linux configure en el Panel de Control, Información Básica del Equipo, Adaptador
1, (en Windows, configure en el Panel de Control, configuración de la Red):




Dirección ip: 192.168.1.n
Máscara: 255.255.255.0
Puerta de enlace o gateway: 192.168.1.1
DNS: Activar DNS y especificar el DNS de su proveedor de Internet.
Reemplace la letra n de la dirección ip por el número que corresponda a su estación a partir del número 2.
La puerta de enlace o gateway corresponde a la dirección del servidor Linux.
El DNS debe ser activado para que funcionen todos los servicios de Internet desde las estaciones (p.e. Telnet, FTP, etc).
Reinicie sus estaciones después de realizar esta configuración para activar los cambios.
PREPARACION DE LA ESTACION DE TRABAJO
Una computadora que pueda arrancar por si misma con un disco flexible o uno
fijo puede ser una estación de trabajo. También puede ser una estación de
trabajo un equipo sin disco con un PROMPT de inicialización remoto instalado en
la tarjeta de interfaz antes de conectarse a la red, la estación de trabajo debe
cargar el sistema operativo. Las estaciones de trabajo sin disco utilizan el disco
fijo del servidor como dispositivo de arranque, de forma que la versión del
sistema operativo que necesite la estación de trabajo habra de copiarse en el
disco fijo, para que lo pueda utilizar la estación de trabajo durante la sesión de
trabajo.
Para estaciones de trabajo, se puede elegir cualquier computadora con tal que
disponga de 640 KB de memoria base, ya que la memoria que consume el Shell
de Netware puede impedir que funcionen satisfactoriamente algunas
aplicaciones que lo hacían perfectamente en computadoras aisladas.
Podríamos desear iniciar la tarea de instalar la tarjeta de red a la estación de
trabajo y generar los archivos de arranque mientras otra persona está
preparando o verificando la superficie del disco del servidor. Se tiene que
resolver los conflictos de direciones e interrupciones al instalar la tarjeta de red
en la computadora, pero este problema es menor en las estaciones de trabajo,
ya que generalmente sólo se instalará una tarjeta de red.
Después de haber instalado la tarjeta de red a la estación de trabajo podemos
realizar la conexión del cableado de la red. Este procedimiento es opcional, ya
que primero se puede instalar Netware correctamente en el servidor, y
posteriormente hacer el cableado en cada una de las estaciones.
5.6.4 Administración de cuentas de usuario, grupos de
trabajo.
Definición y gestión de cuentas de red
A medida que aumenta el tamaño de la red, el hecho de compartir recursos en ésta puede
comenzar a presentar problemas. Por ejemplo, en las redes Trabajo en Grupo, se sacrifica
un grado de seguridad para ofrecer sencillez. Pero imagine las consecuencias de compartir
un directorio de su departamento de contabilidad (o del departamento de personal) en toda
la red y quizá en todo el mundo a través de una conexión Internet. Por estas razones, entre
otras, las redes de gran tamaño utilizan redes basadas en servidor. En un entorno
cliente/servidor, los recursos compartidos se gestionan mediante cuentas. La creación de
cuentas y la agrupación de cuentas, son una herramienta necesaria para que el
administrador proporcione un mayor nivel de seguridad.
Cuentas de red
Las cuentas son la forma con la que los usuarios tienen acceso a impresoras, archivos y
directorios compartidos. Estas cuentas son creadas y gestionadas por el administrador de la
red.
Una cuenta está compuesta de un nombre de usuario y de unos parámetros de inicio de
sesión establecidos para ese usuario. Estos parámetros pueden incluir desde qué equipos se
puede acceder, durante qué días y qué horas está permitido el acceso, contraseñas y
demás. Esta información es introducida por el administrador y se guarda en la red por el
sistema operativo. La red utiliza este nombre de cuenta para comprobar la cuenta cuando un
usuario intente iniciar una sesión.
Planificación de grupos
Las cuentas de grupo no tienen privilegios de forma predeterminada. Todas las cuentas de
usuario obtienen sus derechos a través de la pertenencia a un grupo Todas las cuentas de
usuario de un grupo podrán tener ciertos privilegios de acceso y actividades en común, de
acuerdo con el grupo en el que estén. Si el administrador asigna derechos y permisos a un
grupo, puede tratar al grupo como una cuenta.
Los derechos de acceso que se aplican a todo el sistema autorizan a un usuario a req lizar
ciertas acciones sobre el sistema. Por ejemplo, un usuario, como miembro de up grupo,
puede tener el derecho de realizar una copia de seguridad del sistema.
Los grupos se utilizan para:
Dar acceso a los recursos como archivos, directorios e impresoras. Los
permisos que se asignan a un grupo, se asignan automáticamente a sus miembros.
Dar derechos para realizar tareas del sistema, como realizar y restablecer
copias de seguridad o cambiar la hora del sistema.
Reducir la comunicación reduciendo el número de mensajes que se necesitan
crear y enviar.
Creación de cuentas de grupo
Las redes pueden soportar cientos de cuentas. Hay ocasiones en las que el administrador
tiene que realizar operaciones sobre algunas o todas las cuentas. Por ejemplo, a veces el
administrador necesita enviar mensajes a un número elevado de usuarios para avisarles de
algún evento o de una directiva de red. El administrador podría necesitar identificar cada
cuenta que realiza un acceso determinado. Si hay que cambiar el acceso a 100 usuarios, el
administrador tendrá que cambiar 100 cuentas.
En cambio, si las 100 cuentas estuviesen colocadas en un grupo, bastaría con que el
administrador enviase un mensaje a la cuenta del grupo, y cada miembro del grupo recibiría
automáticamente el mensaje. Se podrían definir permisos para el grupo, y todos los
miembros del grupo recibirían automáticamente los permisos. Las redes ofrecen una forma
de reunir varias cuentas de usuario separadas en un tipo de cuenta denominada un grupo.
Un grupo no es más que una cuenta que contiene otras cuentas. La principal razón para
implementar los grupos es la de facilitar la administración. Los grupos son la forma
apropiada para ayudar al administrador a gestionar un número elevado de usuarios como
una única cuenta.
La forma más sencilla de conceder permisos similares a un número elevado de usuarios es
asignar los permisos a un grupo. Luego se añaden los usuarios al grupo. Se sigue el mismo
proceso para añadir usuarios a un grupo existente. Por ejemplo, si el administrador necesita
que cierto usuario tenga capacidades administrativas en la red, el administrador hará a ese
usuario miembro del grupo Administradores.
Creación de cuentas de usuario
Todas las redes tienen una utilidad que puede ser utilizada por el administrador de forma
que pueda introducir nuevos nombres de cuenta en la base de datos de seguridad de la red.
A este proceso se le suele denominar como «creación de un usuario».
Hay algunos convenios para la denominación de usuarios y grupos. A no ser que se diga lo
contrario, en el equipo que se está administrando (y en el caso de Windows NT, en el
dominio), un nombre de usuario no puede ser igual que otro nombre de usuario o de grupo.
Cada sistema operativo de red tiene su propio conjunto de caracteres que pueden ser
utilizados, pero normalmente, el nombre de usuario puede contener cualquier carácter
alfanumérico en mayúscula o minúscula. Hay algunas excepciones estándar « / \ : ; I =, +
*? < > que no se pueden utilizar en nombres de usuario.
Los sistemas operativos de red también pueden contener información como el nombre
completo del usuario, una descripción de la cuenta o del usuario, y la contraseña de la
cuenta.
Introducción de la información del usuario: La nueva cuenta de usuario contiene
información que define a un usuario en el sistema de seguridad de la red. Ésta incluye:
El nombre de usuario y contraseña.
Privilegios del usuario para acceder al sistema y a sus recursos.
Los grupos a los que pertenece la cuenta.
Configuración de los parámetros del usuario: Los administradores pueden configurar
una serie de parámetros de los usuarios. Entre ellos están:
Tiempos de conexión. Para restringir las horas a las que se pueden conectar
los usuarios.
El directorio inicial. Para dar al usuario un lugar en el que pueda guardar
sus archivos.
La fecha de caducidad. Para limitar el acceso temporal de un usuario a la
red.
Cuentas de usuario clave: Los sistemas operativos de red están diseñados con ciertos
tipos de cuentas de usuario creadas y que se activan automáticamente durante la
instalación.
La cuenta inicial: cuando se instala un sistema operativo de red, el programa de
instalación crea automáticamente una cuenta con autoridad plena sobre la red. Entre otras
tareas puede:
Iniciar la red.
Configurar los parámetros de seguridad iniciales.
Crear otras cuentas de usuario.
En el entorno de red Microsoft, esta cuenta se denomina administrador. En el entorno de
Novell, esta cuenta se conoce como supervisor. Y en el entorno de Linux esta cuenta se
conoce como root.
La primera persona que suele conectarse a la red suele ser la persona que instala el
sistema operativo de red. Una vez que inicia la sesión como administrador, esa persona
tiene control pleno sobre todas las funciones de la red.
La cuenta Invitado: esta cuenta predeterminada está dirigida a aquellas personas que
no tienen una cuenta de usuario, pero necesitan acceder a la red de forma temporal.
Contraseñas
Las contraseñas no son necesariamente requeridas por un sistema operativo de red. En
situaciones en las que la seguridad no es un problema, es posible modificar una cuenta de
forma que no vuelva a necesitar una contraseña.
Sin embargo, en la mayoría de las circunstancias, son necesarias las contraseñas para
ayudarle a mantener la seguridad de un entorno de red. Lo primero que debería hacer un
administrador al crear una cuenta es introducir una contraseña inicial. Esto previene que
usuarios no autorizados se puedan conectar como administradores y crear cuentas. Los
usuarios podrían crear su propia contraseña y cambiarla periódicamente. El administrador de
la cuenta puede requerir esto a los usuarios automáticamente configurando una propiedad
para el cambio de contraseña en un intervalo de tiempo.
Hay algunas pautas que se suelen seguir para la utilización de contraseñas. Todos los
usuarios, incluyendo al administrador deberían:
Evitar contraseñas obvias como las fechas de nacimiento, números de
seguridad social o los nombres de las parejas, hijos, mascotas y demás.
Recuerde la contraseña en lugar de escribirla en un papel y pegarla en el
monitor.
Recuerde la fecha de caducidad de la contraseña, si es que la hay, de forma
que cambie la contraseña antes de que caduque y así evitar el bloqueo de la cuenta
por parte del sistema.
El administrador debe quedar informado sobre los cambios de empresa de los empleados o
si por algún otro motivo ya no van a ser miembros del grupo. En este caso, el administrador
debería desactivar la cuenta.
Desactivación y eliminación de cuentas
En algunas ocasiones un administrador necesitará prevenir que se acceda a una cuenta de
la red. Para esto podrá desactivar la cuenta o eliminarla.
Desactivación de una cuenta: si una cuenta sólo se desactiva, sigue existiendo en la
base de datos de las cuentas del sistema, pero nadie puede utilizarla para iniciar una sesión
en la red. Una cuenta desactivada es como si no existiese.
Es mejor que el administrador desactive una cuenta una vez que se haya enterado que el
usuario ya no la va a utilizar. En el caso de que la cuenta no vaya a ser utilizada nunca más,
habrá que borrarla.
Eliminación de una cuenta: la eliminación de una cuenta elimina de la red la
información del usuario de la base de datos de las cuentas; el usuario ya no tendrá acceso a
la red. Se podrá borrar una cuenta de usuario cuando:
El usuario haya abandonado la organización y ya no tenga ninguna razón
ocupacional para utilizar la red.
Haya acabado el contrato de trabajo del usuario.
El usuario haya cambiado de puesto de trabajo en la empresa y ya no necesite
utilizar la red.
Administración de cuentas en un entorno Windows NT
Cuentas de grupo en Windows NT
Microsoft Windows NT utiliza cuatro tipos de cuentas, como se describe en la sección
siguiente.
Tipos de grupos
En un entorno de red se utilizar los grupos locales, globales, de sistema e incorporados.
Grupos locales. Están implementados en la base de datos local de cada
equipo. Los grupos locales contienen cuentas de usuario y otros grupos globales que
se necesitan para tener acceso, y poder definir derechos y permisos sobre un recurso
en un equipo local. Los grupos locales no pueden contener a otros grupos locales.
Grupos globales. Se utilizan en todo el dominio, y se crean en un controlador
principal de dominio (PDC) en el dominio en el que existen las cuentas de usuario.
Los grupos globales pueden contener sólo cuentas de usuario del dominio en el que
se ha creado el grupo global. Aunque se pueden asignar permisos a los recursos para
un grupo global, los grupos globales sólo se deberían utilizar para agrupar cuentas de
usuario del dominio. Los miembros de un grupo global obtienen permisos para un
recurso cuando se añade un grupo global a un grupo local.
Grupos de sistema. Estos grupos organizan automáticamente los usuarios
para la utilización del sistema. Los administradores no deberían incluir a los usuarios
en estos grupos; los usuarios son miembros predeterminados o se convierten en
miembros durante la actividad de la red. No se puede cambiar la pertenencia.
Grupos incorporados. Los grupos incorporados son ofrecidos como una
característica por muchas marcas de productos de red, y como su nombre indica, se
incluyen con el sistema operativo de red. Los administradores pueden crear cuentas y
grupos con los permisos correspondientes para realizar tareas típicas de las redes,
como son las tareas de administración y mantenimiento; sin embargo, los fabricantes
se han ahorrado el problema de estos grupos y cuentas proporcionando la creación
de grupos locales o globales durante la instalación inicial.
Los grupos incorporados se dividen en tres categorías:
Miembros del grupo de administradores, que tienen posibilidades para realizar
cualquier tipo de tarea en un equipo.
Miembros del grupo de operadores, que tienen posibilidades limitadas para
realizar ciertas tareas.
Miembros de otros grupos, que tienen posibilidades para realizar tareas
limitadas.
Microsoft Windows NT Server ofrece los siguientes grupos incorporados.
El grupo Administradores inicialmente contiene administradores locales y de dominio.
Los miembros de este grupo pueden crear, eliminar y gestionar cuentas de usuarios, grupos
globales y grupos locales. Pueden compartir directorios e impresoras, definir permisos y
derechos sobre los recursos, e instalar archivos y programas del sistema operativo.
Los grupos Usuarios e Invitados, que son globales, contienen usuarios de dominio que
pueden realizar tareas para las que se les haya dado permiso. También pueden acceder a los
recursos a los que se les haya dado permiso. Los grupos de usuarios pueden ser modificados
por los administradores.
El grupo Operadores de servidor, que sólo puede ser modificado por los
administradores, puede compartir y hacer que un recurso deje de estar compartido,
bloquear o retirar el bloqueo del servidor, formatear discos del servidor, iniciar sesiones en
los servidores, hacer copias de los servidores y restaurarlas, y apagar los servidores.
El grupo Operadores de impresión, que sólo puede ser modificado por los
administradores, puede compartir, hacer que una impresora deje de esta compartida y
gestionar impresoras. Este grupo también se puede conectar localmente a los servidores y
apagar los servidores.
Los Operadores de copia se pueden conectar localmente, hacer copias de seguridad y
restaurar copias de seguridad del servidor, y apagar servidores.
Los Operadores de cuentas pueden crear, eliminar y modificar usuarios, grupos globales
y grupos locales, pero no pueden modificar los grupos Administradores y Operadores de
servidor.
El grupo Duplicadores, que puede ser modificado por los administradores, Operadores de
cuentas y Operadores de servidor, se utiliza junto con el Servicio duplicador de directorios.
Creación de grupos en Windows NT
La interfaz de gestión de grupos en Microsoft Windows NT, se denomina Administrador de
usuarios para dominios y la puede encontrar en el menú Inicio. Haga clic en Programas y
seleccione Herramientas administrativas (común).
En el Administrador de usuarios, haga
clic en Grupo local nuevo en el menú
Usuario. Esta selección le presenta un
cuadro de diálogo para introducir la
información para crear un nuevo grupo
local.
El campo Nombre de grupo identifica al
grupo local. Un nombre de grupo no
puede ser igual que otro nombre de
grupo o de usuario en el dominio o equipo
que se está administrando. Puede contener
cualquier carácter en mayúscula o
minúscula, y no se admiten « / \ : ; I =+
*? < >.
El campo Descripción contiene texto que
describe al grupo o a los usuarios del
grupo. El campo Miembros muestra los
nombres de usuario de los miembros del
grupo.
Una cuenta de grupo recién creada no
tendrá miembros hasta que el
administrador le asigne uno o más usuarios
existentes. El administrador hace esto
haciendo clic en Agregar en el cuadro de
diálogo y seleccionando la cuenta de
usuario que desea añadir.
Cuentas de usuario en Windows NT
Todas las herramientas de administración de la red se encuentran en el menú Inicio,
Programas, Herramientas administrativas (Común). La utilidad de red para la creación de
cuentas en Microsoft Windows NT Server se denomina Administrador de usuarios para
dominios. Para administrar cuentas de usuario, haga clic en Inicio, seleccione Programas y
haga clic en Herramientas administrativas (Común).
Una vez que abra el Administrador de usuarios, en el menú Usuario, seleccione la opción
Usuario nuevo. Aparecerá una ventana para que introduzca la información para crear un
nuevo usuario.
Windows NT Server ofrece una característica para la copia de cuentas. Un administrador
puede crear una plantilla que tenga características y parámetros comunes a varios usuarios.
Para crear una cuenta nueva con las características de la plantilla, señale la cuenta plantilla,
seleccione Usuario, Copiar (F8), e introduzca el nombre del nuevo usuario y otra información
de identificación (nombre completo, descripción y demás).
Perfiles
Puede ser útil para un administrador estructurar un entorno de red para ciertos usuarios.
Por ejemplo, esto podría ser necesario para mantener niveles de seguridad, o para evitar
que los usuarios que no estén lo suficientemente
familiarizados con los equipos y las redes puedan
tener acceso pleno al sistema.
Entre los perfiles que se suelen utilizar para
configurar y mantener los inicios de sesión de los
usuarios, se incluyen:
Conexión de impresoras.
Configuración regional.
Configuración de sonido.
Configuración de ratón.
Configuración de la pantalla.
Otras configuraciones definidas
por el usuario.
Los parámetros de los perfiles pueden incluir
condiciones especiales para las sesiones e
información sobre dónde puede el usuario
guardar archivos personales.
Después de la instalación, Microsoft Windows
NT Server desactiva de forma predeterminada la cuenta Invitado. Si se quiere utilizar, el
administrador de la red tendrá que activar la cuenta.
Windows NT Server utiliza la ventana Propiedades de usuario en el Administrador de
usuarios para desactivar usuarios. Para desactivar un usuario, haga doble clic sobre el
nombre de la cuenta, seleccione la casilla de verificación Cuenta desactivada y a
continuación haga clic en Aceptar. Ahora la cuenta está desactivada.
Para eliminar una cuenta, seleccione la cuenta que desee eliminar en el Administrador de
usuarios y presione la tecla SUPRIMIR. Aparece un cuadro diálogo. Si hace clic sobre
Aceptar, aparecerá otro cuadro de diálogo para pedirle confirmación sobre la eliminación de
la cuenta especificada. Si hace clic sobre Sí eliminará la cuenta; si hace clic sobre No
cancelará la operación.
Nota: La eliminación de una cuenta elimina permanentemente la cuenta, junto con sus
permisos y derechos asociados. Si vuelve a crear la cuenta de usuario con el mismo nombre
no volverá a restaurar los derechos o permisos del usuario. Cada cuenta de un usuario tiene
un identificador de seguridad único (SID) ; la eliminación y posterior creación de un usuario
generará un SID nuevo sin reutilizar el anterior. Los procesos internos de Windows NT hacen
referencia a SID de la cuenta en lugar de al nombre de la cuenta de usuario o del grupo.
Administración de cuentas en un entorno Apple
El entorno de red predeterminado incluye dos usuarios: la persona que ha instalado el
sistema operativo y un invitado. La administración de una red se convierte en una tarea
sencilla mediante la creación de usuarios y grupos.
Creación de usuarios y grupos
En el Apple Chooser seleccione Users & Groups para abrir el Panel de control de Users A
Groups. Este cuadro de diálogo lista todos los usuarios y grupos de la computadora, y le
permite crear, editar, duplicar y eliminar usuarios y grupos a medida que sea necesario. En
AppleShare hay tres categorías de usuarios:
Owner.
User/Group.
Everyone.
Para crear un usuario nuevo, haga clic en el botón New User e introduzca la información
correspondiente de este usuario. Podrá definir un nombre de usuario, una contraseña, los
grupos a los que pertenece el usuario y si se le permite o no al usuario cambiar la
contraseña.
Para crear un grupo nuevo, haga clic en el botón New Group e introduzca la información
correspondiente de este grupo. Podrá definir un nombre de grupo y el nombre de los
usuarios que son miembros del grupo.
Administración de cuentas en un entorno NetWare
La base de la seguridad y las cuentas de NetWare son los Servicios de directorio de
NetWare (NDS, NetWare Directory Services). Los NDS son una base de datos organizada
jerárquicamente.
La seguridad se establece a tres niveles.
Cuentas. Este nivel incluye nombres de usuario, contraseñas, tiempo de
estación y otras restricciones.
Derechos de Trustee. Este nivel controla los directorios y archivos a los que
puede acceder un usuario. Entre estos derechos se incluyen la creación, lectura,
eliminación o escritura de archivos.
Atributos de directorio y archivos. Este nivel determina qué acciones
pueden realizar los usuarios sobre el archivo o sobre el directorio. Entre estas
acciones se incluyen compartir, eliminar, copiar, veo o editar.
NetWare utiliza varios convenios para los nombres. Los nombres tienen que ser únicos, no
pueden incluir espacios y pueden tener hasta 64 caracteres alfanuméricos sin distinguir
entre mayúsculas y minúsculas.
Configuración y administración de usuarios y grupos
Antes de crear, eliminar o administrar usuarios o grupos, tiene que estar conectado a la
red desde una estación de trabajo o desde el servidor con privilegios de administrador. Una
vez que se haya conectado, puede ejecutar la herramienta de administración fácil de Novell
(NEAT; Novell Easy Administration Tool) para comenzar a administrar los usuarios y los
grupos. Para hacer esto, haga doble clic en el icono NEAT. En la parte izquierda de la
interfaz de usuario aparecerá el árbol que muestra todos los objetos de la red y sus
relaciones. En la parte derecha aparecen las propiedades del objeto seleccionado.
Para crear una cuenta de usuario para un usuario nuevo, seleccione User en el menú New
de NEAT o haga clic en el botón Add a New User de la barra de herramientas. Esto abrirá un
cuadro de diálogo en el que podrá introducir la información requerida, incluyendo el nombre
completo del usuario, el nombre de conexión y el directorio inicial.
Pulse el botón Siguiente para pasar a la página siguiente y añada este usuario a un grupo.
Una vez que haya añadido el usuario a un grupo, haga clic en el botón Siguiente para pasar
a la página siguiente e introducir la información de la contraseña. Si se deja en blanco, el
usuario no necesitará contraseña para iniciar una sesión. Para crear otros usuarios, active la
casilla de verificación Create another user antes de seleccionar el botón Finish.
Para eliminar un usuario, seleccione el objeto User del directorio en el menú NEAT. A
continuación, en el menú Edit, seleccione Delete selected item y haga clic en Yes.
Aviso: Puede tener problemas si elimina un usuario que tenga relaciones con otro objeto,
y dicho objeto está basado en el usuario que quiere eliminar.
La administración de grupos es similar a la administración de usuarios. En el menú NEAT,
seleccione Add a New Group. Esto ejecutará el asistente para nuevos grupos. Asegúrese de
seguir los convenios para los nombres a la hora de asignar un nombre para el grupo. Una
vez que haya creado el grupo, puede seleccionar el grupo y añadirle usuarios.
Nota: Sólo puede añadir los usuarios que aparezcan en el directorio.
Edición de propiedades de usuario o de grupo
Ver o modificar las propiedades de un objeto es sencillo. Abra la herramienta de
administración NEAT y seleccione el icono del objeto del directorio de la parte izquierda. En
la parte derecha están las hojas de propiedades del objeto. Las propiedades del objeto están
organizadas en fichas. Las propiedades de los usuarios están organizadas en cinco fichas
(General, Groups, Applications, Security y Login Script). Las propiedades de los grupos están
organizadas en tres fichas (Users, Security y Applications).
Administración de cuentas en un entorno UNIX
La mayor parte de la información de configuración de UNIX está guardada en archivos de
texto que se pueden ver cuando sea necesario. Estos archivos de texto se pueden editar
manualmente para añadirles usuarios y grupos y configurar sus permisos. Debido a que
cada versión de UNIX varía en los detalles de la forma de modificar estos archivos, los
nombres y localizaciones de estos archivos varían de un fabricante a otro. Lo mismo ocurre
con las distribuciones de Linux, en las que las localizaciones de los archivos y de los
directorios pueden ser diferentes. Una interfaz gráfica suele facilitar al administrador tratar
con estas diferencias, ya que los parámetros de usuario y de grupo se pueden configurar
mediante cuadros de diálogo interactivos.
Usuarios y grupos en UNIX
La cuenta inicial, el usuario administrador, suele denominarse root. El otro nombre a
recordar es nobody. Grupos predeterminados de UNIX pueden ser root, bin, daemon, tty,
disk, lp, mail, news, dialout, trusted, modem, users y demás.
La versión de libre distribución de UNIX conocida como Linux crea una serie de cuentas.
Las cuentas que se crean dependen del sistema operativo base y del software instalado. El
usuario administrador, root, siempre se crea. Se crean otras cuentas predeterminadas, pero
no el sentido que tenemos de las cuentas. Incluyen procesos como el protocolo de
transferencia de archivos (ftp) e impresoras (lp).
5.6.5 Recursos compartidos.
En una red Trabajo en Grupo podemos compartir, o hacemos disponibles a través de la
red, cualquier directorio o impresora que deseemos de forma que puedan ser accedidos por
otros usuarios. En redes con configuraciones de cliente/servidor, utilizaremos cuentas para
establecer quién puede acceder a qué archivos, directorios e impresoras.
Creación de recursos compartidos en una red
Para empezar definiremos los recursos compartidos, examinaremos los recursos que se
pueden compartir en una red y veremos quién puede definir los recursos compartidos.
Cómo compartir recursos en una red
Antes de que pueda compartir recursos con otro equipo, su equipo tiene que tener
instalado un software cliente y tiene que estar configurado como cliente de una red. Tendrá
que configurar la identidad del equipo en la red, permitir la compartición y definir privilegios
de acceso para los recursos que quiera compartir en un equipo. El procedimiento para
instalar y configurar el software del cliente depende del sistema operativo que esté
utilizando y del sistema operativo de red con el que esté tratando de compartir los recursos.
Cómo compartir ficheros y archivos
En su forma más sencilla, compartir recursos entre equipos no es más que el paso de
archivos de un equipo a otro mediante disquetes. Este método impone restricciones severas
en el volumen de los datos, en la velocidad y en la distancia entre los puntos que comparten
los datos, pero no obstante, este método suele ser útil.
Otra técnica para compartir recursos es conectar directamente dos equipos a través del
puerto de comunicaciones serie (COM) de cada equipo. Para conectar los equipos de esta
forma se requiere un cable de conexión directa y software de comunicaciones serie. (Un
cable de conexión directa conecta los pines de salida del puerto serie de un equipo con los
pines de entrada del puerto serie del otro.)
Para que se pueda utilizar la conexión física entre los dos equipos, es necesario que en
cada equipo esté instalado un software de comunicaciones. Tiene que configurar un equipo
como host, o servidor, y otro como cliente. De esta forma, el equipo cliente tendrá acceso a
los datos del host. Aunque esto no es realmente una red de área local (LAN), es una forma
práctica de proporcionar una conexión temporal entre equipos para la transferencia de
archivos. Las conexiones directas por cable se suelen utilizar para compartir archivos entre
un equipo de sobremesa y un ordenador portátil.
Compartir información de una forma eficiente no
es tan sencillo como conectar con cables los
equipos. En un entorno de red, con muchos
usuarios y requerimientos de trabajo, hay que
definir privilegios de acceso, o permisos. Esto
permite a los usuarios de la red acceder a la
información correspondiente a las necesidades de
su trabajo, mientras que se bloquea el acceso a
accesos no autorizados a datos confidenciales o de
valor.
Compartir en un entorno Trabajo en Grupo
La forma más sencilla y conveniente de trabajar
en red es Trabajo en Grupo. En este entorno de
red, los datos se comparten a nivel de unidad de
disco o de carpeta. Se puede compartir cualquier
unidad de disco o cualquier carpeta de una unidad
de disco. Cada equipo comparte su unidad o sus
carpetas en la red y cada usuario es responsable de
configurar su forma de compartir.
Software
Para compartir en una red Trabajo en Grupo,
independientemente del sistema operativo que se
esté utilizando, primero hay que habilitar en el equipo el compartir archivos e impresoras.
Cada sistema operativo tiene sus propios métodos para definir los recursos compartidos.
Cómo compartir impresoras, unidades de disco y carpetas
Una vez que se ha habilitado la compartición de recursos, puede decidir qué unidades de
disco, carpetas e impresoras están disponibles en la red. Las opciones de compartir incluyen
discos duros, unidades de CD-ROM, unidades de disquete y carpetas. Para definir una
impresora o una de estas unidades de disco como un recurso compartido, tiene que definir
cada uno como un recurso compartido y asignarle un nivel de acceso. (No se pueden
compartir dispositivos como escáneres o módems.) Recuerde que una vez que un recurso
está compartido en una red Trabajo en Grupo, estará disponible en toda la red.
Redes Microsoft Windows 95 y 98
Software
Microsoft Windows 95 y 98 incluyen varias opciones de software de cliente. El más
habitual es Cliente para redes Microsoft de Microsoft. Para instalar el Cliente para redes
Microsoft, abra el Panel de control y haga doble clic en el icono Red. Haga clic en Agregar
para que aparezca el cuadro de diálogo Seleccione Cliente de red. Como está añadiendo un
cliente de red Microsoft, seleccione Cliente y, a continuación, haga clic en Agregar.
Seleccione Microsoft en la lista Fabricantes y seleccione Clientes para redes Microsoft en la
lista Clientes de red. Para añadir al sistema el servicio de cliente seleccione Aceptar.
En este momento, necesitará añadir un protocolo de red. El cliente para redes Microsoft se
puede utilizar con los protocolos IPX/SPX, NetBEUI y TCP/IP. Seleccione el protocolo
apropiado para su entorno de red.
Una vez que haya instalado el software
del Cliente para redes Microsoft podrá
compartir recursos que utilice el
protocolo SMB (Bloque de mensajes del
servidor) para compartir archivos. Esto
incluye a cualquier equipo que utilice
Windows 95 o 98, Windows NT
Workstation, Windows para trabajo en
grupo o LAN Manager.
Cómo compartir impresoras, unidades de disco y
carpetas
Una vez que ha definido la red en su
equipo, puede compartir en la red
directorios, carpetas e impresoras. Para
compartir estos recursos tiene que
activar Compartir impresoras y archivos.
Haga clic con el botón derecho sobre el
icono Entorno de red y seleccione Propiedades del menú para abrir el cuadro de diálogo Red.
A continuación, haga clic en el botón Compartir impresoras y archivos.
El cuadro de diálogo Compartir impresoras y archivos contiene dos casillas de verificación:
Permitir que otros usuarios tengan acceso a mis archivos.
Permitir que otros usuarios impriman en mis impresoras.
Puede seleccionar cualquiera de las dos casillas de verificación, o incluso las dos. Una vez
que haya activado las casillas de verificación deseadas, puede comenzar a compartir los
recursos de su equipo.
Aunque haya activado la compartición de recursos en su equipo, sus recursos no estarán
disponibles en la red hasta que no haya indicado qué recursos desea compartir. Para
compartir una unidad de disco o una carpeta, abra el Explorador de Windows, haga clic con
el botón derecho sobre el icono de la unidad de disco o sobre el de la carpeta y seleccione
Compartir en el menú. Esto muestra la ficha Compartir en el cuadro de diálogo Propiedades
correspondiente a la unidad de disco o a la carpeta.
Si selecciona el botón de opción
Compartido como puede definir el nombre
y añadir una breve descripción al recurso
compartido. (El botón de opción es un
pequeño círculo que aparece en el cuadro
de diálogo al lado de cada opción; cuando
se seleccionan, aparece dentro de ellos un
pequeño círculo negro.) En el área Tipo
de acceso del cuadro de diálogo puede
seleccionar el botón de opción
correspondiente a cualquiera de los tres
tipos de acceso. La selección de Sólo de
lectura restringe el acceso a una carpeta
de forma que su contenido pueda ser
leído y copiado, pero nunca puede ser
modificado. Si selecciona Total se permite
el acceso completo al contenido de la
carpeta; y si selecciona Depende de la
contraseña obliga a que el usuario tenga
que introducir una contraseña para
acceder al recurso.
Nota: Cuando se comparte un dispositivo o un recurso, verá que en Mi PC o en el
Explorador de Windows aparece una mano como parte del icono.
En el entorno de Windows NT, puede
incorporar las características de seguridad que
proporciona el sistema de archivos NTFS. Este
sistema de archivos es una base de datos
relacional en que todo es considerado como un
archivo.
Software
Para instalar el software de red, hay
disponibles varios protocolos:
Cliente para redes NetWare.
Cliente para redes Microsoft.
NWLink NetBIOS.
Protocolo compatible con NWLink
IPX/SPX/NetBIOS.
Protocolo Internet (TCP/IP).
Para poder definir recursos compartidos en
Windows NT Server, tiene que tener derechos
de administrador.
Cómo compartir directorios y archivos
Para compartir una carpeta localmente (tiene
una sesión en una estación de trabajo), haga clic con el botón derecho en el icono de la
carpeta y seleccione la opción Compartir. Esto
abrirá el cuadro de diálogo Propiedades.
Aparecerá seleccionada la ficha Compartir.
El número máximo de conexiones que se
pueden definir en Windows NT Workstation es
10. La configuración de este valor es opcional.
Asigne permisos a la carpeta compartida. A
través de los cuadros de diálogo, puede
limitar el número de personas que pueden
acceder a su carpeta o dar permiso a todos. Si
hace clic en el botón Nuevo recurso puede
configurar varios recursos compartidos
utilizando distintos nombres y asignando
diferentes niveles de permisos.
Para compartir las carpetas y las unidades
de disco en Windows 2000, tiene que estar
conectado como un miembro del grupo
Administradores, Operadores de servidor o
Usuarios avanzados.
Para compartir una carpeta o una unidad de disco en Windows 2000, abra el Explorador de
Windows y localice la carpeta o unidad de disco que desee compartir. (Para abrir el
Explorador de Windows, haga clic en Inicio, señale Programas, señale Accesorios y, a
continuación, haga clic en el Explorador de Windows.) Haga clic con el botón derecho y luego
haga clic en Compartir. Haga clic en Compartir esta carpeta de la ficha Compartir.
Para cambiar el nombre de la unidad de disco o de la carpeta compartida, introduzca un
nombre nuevo en Nombre del recurso compartido. El nombre nuevo es el que verán los
usuarios cuando se conecten a esta carpeta o unidad de disco compartida. El nombre actual
de la carpeta o de la unidad de disco no cambia.
Para añadir un comentario a la carpeta o unidad de disco compartida, introduzca el texto
deseado en Comentario. Para limitar el número de usuarios que pueden conectarse a la vez
a una carpeta o a una unidad de disco compartida, haga clic en Permitir debajo de Límite de
usuarios, e introduzca a continuación el número de usuarios.
Cómo compartir impresoras
Para compartir una impresora Windows NT/Windows 2000 en una red Windows NT, haga
clic en Inicio, seleccione Configuración y haga clic en Impresoras. Haga clic con el botón
derecho en la impresora que va a compartir y seleccione Compartir en el menú. Haga clic en
el botón Compartir como e introduzca un nombre que pueda identificar claramente a la
impresora en la red. Una vez que haya compartido e identificado la impresora, puede
configurar la seguridad de la impresora.
Redes AppleShare
Software
El software de servidor de archivos de Apple se denomina AppleTalk. Para compartir
recursos con AppleTalk hay que seguir estos pasos:
Para seleccionar un puerto de red. Seleccione el submenú AppleTalk del
Panel de control y poder abrir el cuadro de diálogo AppleTalk. Ahí puede seleccionar
el puerto de conexión de red apropiado.
Para activar AppleTalk. Para activar AppleTalk en un equipo, el equipo tiene
que estar conectado a una red AppleTalk. Para hacer eso, abra Apple Chooser y
active el botón de opción Apple Talk.
Para compartir recursos. Defina su identidad en la red asignando un
nombre al equipo. Luego active el modo de compartir en el cuadro de diálogo File
Sharing del Panel de control de Apple.
Cómo compartir unidades de disco y carpetas
Al igual que en las redes Trabajo en Grupo, AppleShare proporciona una forma de
compartir a nivel de carpeta, pero no a nivel de archivo. Si el propietario del equipo que
comparte un recurso ha definido algún archivo o carpeta para que se pueda compartir,
estarán disponibles a cualquiera que se conecte.
El propietario de una carpeta configura el modo de compartir una carpeta abriendo la
ventana de compartir carpeta. Desde el menú Choose File, seleccione Get Info y haga clic en
Sharing. Para cada usuario o grupo listado, el propietario establece uno de los privilegios
siguientes para trabajar con la carpeta:
Lectura y escritura.
Sólo lectura.
Sólo escritura (cuadro desplegable).
Ninguno.
Las restricciones también se pueden definir para las carpetas compartidas de forma que no
puedan ser modificadas por otras personas distintas al propietario. Para establecer esta
restricción, abra el cuadro de diálogo Sharing Info y active la casilla de verificación Can’t
move, rename, or delete this item (locked).
Cómo compartir impresoras
Para compartir una impresora que esté conectada directamente a un equipo Apple, abra el
cuadro de diálogo Apple Chooser y seleccione la impresora que desea compartir. A
continuación, haga clic en el botón Setup para abrir el cuadro de diálogo Sharing Setup. En
este cuadro de diálogo, puede activar la casilla de-verificación Share this Printer e introducir
un nombre y una contraseña (opcional) para la impresora. También puede activar la casilla
de verificación Keep Log of Printer Usage si desea guardar información sobre la utilización de
la impresora.
UNIX
El sistema operativo UNIX existe en un gran número de configuraciones y está disponible a
través de varios fabricantes, o en el caso de Linux, desde una entidad que no se
corresponde de ninguna manera con una compañía. El soporte de UNIX para la
interoperabilidad con otros sistemas operativos de red depende del fabricante. Por ejemplo,
Solaris Easy Access Server de Sun, incluye un soporte nativo para muchos servicios de red
Windows NT, como la autenticación, servicios de archivos e impresoras y servicios de
directorio. Las distribuciones de Linux incluyen módulos de acceso Apple para el acceso
AppleTalk, software de terceros como Samba, que hace que los sistemas de archivos UNIX
estén disponibles para cualquier equipo de la red que utilice el protocolo para compartir
archivos SMB y módulos para acceder a los sistemas de archivos NTFS y MS-DOS.
Compartir en una red cliente/servidor
Compartir carpetas en una red basada en un servidor es similar a compartir en una red
Trabajo en Grupo. La principal diferencia está en el nivel de seguridad disponible, que se
consigue con los servicios de directorio del servidor. Microsoft Windows NT Server y Novell
NetWare proporcionan permisos a nivel de archivo, además de permisos a nivel de
impresora, unidad de disco y directorio.
Novell
A diferencia de otros sistemas operativos de red, NetWare no necesita activar el modo de
compartición para hacer que estén disponibles los recursos del servidor. Esta activación
automática es un parámetro predeterminado de una red NetWare.
Una segunda diferencia es que el acceso a los recursos compartidos se realiza a través de
los privilegios de cuenta de usuario y de grupo. En otras palabras, las impresoras,
directorios y archivos no están propiamente restringidos.
Bibliografía:
Curso de Cisco
http://html.rincondelvago.com/redes-wan_1.html
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/indice.htm
http://fmc.axarnet.es/redes/indice.htm
http://www.angelfire.com/ks3/lilima/medios.htm#C
http://lat.3com.com/lat/solutions/es_LA/small_business/scenarios/basicwired_rel3.html
http://www.geocities.com/SiliconValley/8195/noscs.html
http://fmc.axarnet.es/redes/tema_07_m.htm
http://personales.com/elsalvador/sansalvador/altainformacion/
http://www1.euro.dell.com/content/topics/topic.aspx/emea/topics/products/guides/netwk?c=es&l=es&s=gen&~
section=003
http://fmc.axarnet.es/redes/tema_02_m.htm
http://html.rincondelvago.com/medios-de-transmision_1.html
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/ethernet.htm
http://fmc.axarnet.es/redes/tema_03_m.htm
http://es.futurahost.com/webs.new/main/serv/ded/app_servers.php?select_language=es
http://fmc.axarnet.es/redes/tema_04_m.htm
http://fmc.axarnet.es/redes/tema_05_m.htm
http://www.microsoft.com/spain/serviceproviders/articulos/cable_guy.asp
http://www.microsoft.com/latam/windowsxp/pro/biblioteca/planning/wirelesslan/challenges.asp
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/ip.htm
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/protocol1.htm
http://fmc.axarnet.es/redes/tema_06_m.htm
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/cableado.htm
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/areade.htm
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/subs.htm
http://nti.educa.rcanaria.es/conocernos_mejor/paginas/subs1.htm
http://fmc.axarnet.es/redes/tema_10_m.htm
http://fmc.axarnet.es/redes/tema_09_m.htm
http://www.monografias.com/trabajos5/sisop/sisop2.shtml#servi
http://www.saulo.net/pub/redes/c.htm
http://www.qualitrain.com.mx/objeIndirecto/serviaplica.htm
http://eduadis.itlapiedad.edu.mx/~hocegueras/redes/unidad1_1.html
http://www.itcerroazul.edu.mx/redes2/INDEXREDES2.htm
Descargar