Linux y Microsoft Windows NT 4

Anuncio
• Conceptos básicos 3
• El software y el hardware 3
• El sistema operativo 3
• La CPU 4
• Dispositivos de almacenamiento no volátiles. 5
• Dispositivos de almacenamiento volátiles. 8
• Servidor de red 9
• Red informática 11
• Protocolos 12
• Protocolo TCP/IP 12
• Topología de red 13
• Topología en estrella 14
• Topología en anillo 15
• Topología en bus 16
• Clases de redes 17
• Ethernet 18
• Token ring 20
• Arcnet 21
• Windows NT vs. Linux 22
• Historia, evolución y características básicas de Windows NT 22
• Historia, evolución y características básicas de Linux 33
• Ventajas y desventajas de Windows NT frente a Linux al gestionar una red informática escolar. 41
• ¿Cuál de los dos sistemas operativos sería mas practico para gestionar una red local escolar? 47
• Conclusión 48
• Bibliografía 48
1.− Conceptos básicos.
En este apartado hablaremos sobre las partes más importantes e imprescindibles para entender este
documento:
• Software y hardware.
• La parte del ordenador que integra el hardware es aquella en engloba todo lo relacionado con lo físico.
Es decir, los periféricos de entrada como el teclado, el ratón, los periféricos de almacenamiento como
el CD−ROM, el disco duro, disquetes, etc...
• La parte del ordenador que integra el software es aquella en engloba todo lo que no es físico como los
programas, el sistema operativo, los juegos, etc...
• Sistema operativo.
• El sistema operativo es la parte del software que se encarga de interconectar el usuario con la
maquina. Esto quiere decir que la función del sistema operativo es traducir las instrucciones que el
usuario manda al ordenador en el lenguaje básico de la maquina, que es el código binario. El código
binario simplemente consiste en cadena de 1 y 0. Por eso el sistema operativo es muy importante, ya
que sin este precisaríamos de altísimo nivel informático para ejercer cualquier rutina. También cabe
destacar que el centro de todo sistema operativo se llama Kernel que es como el cerebro donde integra
las funciones más básicas del sistema operativo. Un ejemplo de sistema operativo es MS−Dos,
Windows 98, Linux, Windows NT...
• La CPU.
1
• La CPU (Central Process Unit) o también llamada microprocesador, es la parte del hardware que se
encarga de distribuir y procesar todos los datos que le envían desde diferentes puntos del ordenador.
Dentro de la CPU esta el Co−procesador matemático que sirve para calcular procesos matemáticos
complejos y así liberar trabajo a la CPU. La velocidad de la CPU se indica en Mhz. Actualmente una
de las compañías que fabrican CPUs más importantes del mundo es Intel y su rival más directo AMD.
• Dispositivos de almacenamiento no volátiles
• El disco duro.
El disco duro (Hard Disk) es la parte del hardware encargada de almacenar todos los datos del ordenador de
una forma no volátil; se quedan permanentemente grabados hasta que el usuario los borra. El disco duro
simplemente consta de varios discos puestos unos encima de otros que dan vueltas sobre un mismo eje y de
una aguja que va leyendo los datos. Estos datos están divididos por sectores (pequeñas celdas) de diferentes
tamaños, dependiendo del sistema operativo que utilicemos y el sistema de archivos e incluso de la
funcionalidad del mismo.
Los discos duros se dividen según la velocidad de transferencia o la capacidad:
♦ Velocidad: La velocidad se mide en Mega bites por segundo (Mb/s). Un byte esta formado
por 8 bits, que es la unidad de información mas pequeña que se puede almacenar, como por
ejemplo un digito. Luego la combinación de 1024 bites forma un Kilo bite (Kb.), 1024 Kb.
forma un Mega bite o vulgarmente llamado megas (Mb.), 1024 Mb. forma un Giga bite (Gb.)
y 1024 Gb. forma un Tera bite (Tb.) que es muy poco usual verlo. Hay dos sistemas de
transferencia muy importantes:
◊ Sistema IDE: Es el sistema mas extendido, y admite tasas de transferencia que rondan
entre los 33 Mb/s y los 66 Mb/s
◊ Sistema SCSI: Es un sistema mas avanzado que admite tasas de transferencia mucho
mas altas que las de IDE, llegando a alcanzar los 160 Mb/s
◊ Sistema de Fibra óptica: Es un sistema muy avanzado que se suele utilizar en grandes
computadoras que requieran mucha velocidad de transferencia. La velocidad suele
rondar sobre las 1 o 2 Gb/s
♦ Capacidad: La capacidad de un disco duro se mide en Mb. o en Gb. La capacidad de un disco
duro puede variar desde las 21 Mb. o incluso menos en las maquinas mas viejas, hasta varios
Gb., en las maquinas más potentes, pero la capacidad de un disco duro de un usuario
cualquiera suele rondar las 6−10 Gb.
Si quieres sabes mas sobre como funciona un disco duro consulta la pagina
http://www.howstuffworks.com/hard−disk.htm en Internet.
2
• CD/DVD−ROM.
El CD−ROM (Compact disc − read only memory) y el DVD−ROM (Digital Video Device− read only
memory) son dos sistemas de almacenamiento muy populares y más rentables de utilizar ya que la calidad
precio del dispositivo es muy buena. Un DVD o un CD están fabricados por una base circular de unos 11,5 cm
de diámetro y recubiertos por un fina capa metálica, eso hace que su fabricación sea muy barata. También la
calidad en muy buena ya que la transferencia de los datos es totalmente digital, cosa que hace que por mucho
que lo utilices nunca perderá calidad ya sea de audio, video o otros datos. También es un buen factor la
capacidad, de unos 640 Mb para un CD y de unas 3 Gb en un DVD. El problema esta en que la información
no se puede modificar a menos que no tengas una grabadora de CDs que ronda sobre las 40.000 Ptas. o una
grabadora de DVD que ahora mismo rondará las 150.000 Ptas. aproximadamente.
• La memoria Bios
La memoria Bios esta dividida en la parte que es modificable y la parte que no los es. La Bios se encarga de
guardar la configuración del hardware básica ( tipo de disco duro, cantidad de memoria RAM, tipo de CPU,
etc...) para iniciar la computadora. La Bios reside en un pequeño chip que esta en la placa base del ordenador.
• Dispositivos de almacenamiento volátiles.
• La memoria RAM.
La memoria RAM (Read Acess Memory) es la parte del hardware encargada de almacenar datos pero de
forma volátil, esto quiere decir, que cada vez que apagamos el ordenador estos datos se eliminaran. La
3
memoria RAM tiene una gran importancia ya que todo dato antes de pasar por la CPU debe ser almacenada en
memoria RAM. La memoria RAM se mide en Mb., según su capacidad. La cantidad de memoria RAM puede
ir desde los 64 kb en los ordenadores antiguos o calculadoras nuevas, hasta el Gb de memoria para procesos
que lo requieran, aunque un ordenador normal suele tener unas 32−64 Mb.
Si quieres saber mas sobre la memoria RAM puedes visitar esta pagina
http://www.galiciacity.com/servicios/hardware/memoria.htm en Internet.
• La memoria Caché.
La memoria caché se aloja dentro de la CPU. Es la memoria mas rápida ya que se encarga de copiar los pasos
que sigue la maquina para ejecutar una aplicación para después, si se desea ejecutar esa misma aplicación, la
lea directamente de la Caché, sin tener que hacer todo el proceso de nuevo y así ahorra tiempo. La memoria
Caché suele rondar sobre los 512 Kb y 1 Mb. de capacidad.
• Servidor de red.
• El servidor es aquel o aquellos ordenadores que van a compartir sus recursos hardware y software con
los demás equipos de la red. Es empleado tanto por su potencia de cálculo, como por la información
que gestiona, y los recursos que comparte. Los ordenadores que toman el papel de estaciones de
trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que
proporcionan los servidores a los cuales pueden acceder.
El diseño de la infraestructura de una red de ordenadores es una de las labores más importantes que debe
llevar a cabo el ingeniero que la esté montando para una empresa. La red más pequeña puede constar de un
único servidor y unas cuantas estaciones de trabajo conectadas mediante tarjetas de red y cable coaxial, redes
más grandes pueden estar constituidas por varios servidores y una gran cantidad de estaciones de trabajo con
sedes distribuidas alrededor de todo el mundo, lo cual conlleva el empleo de redes de comunicación (la red
telefónica, Internet, etc..) para interconectar entre sí los equipos de todas las sedes.
Una vez diseñada la infraestructura que va a tener una red de comunicación de ordenadores hay que
implementarla. Para ello es necesario instalar en cada ordenador la tarjeta o circuito integrado necesario para
la comunicación y establecer el camino físico que una todos los ordenadores de la red.
También hay que tener en cuenta la potencia del servidor. Si se quiere administrar una red pequeña (5−10
estaciones de trabajo) seria recomendado un ordenador no muy potente, dependiendo del sistema operativo y
el rendimiento que obtenga, pero si es un servidor que va a controlar un gran numero de estaciones de trabajo
(100−200 estaciones) habría que instalar un servidor mucho más potente.
• Red informática
• Una red es la conexión de dos o más ordenadores entre ellos por un medio físico capaz de transmitir
datos. Los datos son transmitidos por paquetes. Un paquete es una parte de la información total, es
4
decir, que si queremos transmitir un fichero, la maquina lo dividirá en diferentes paquetes de igual
tamaño y los irá enviando de uno en uno hasta que la maquina receptora los tenga todos y reconstruya
de nuevo el fichero. ¿Pero como sabe la maquina como tiene que orden tiene que poner los paquetes?
Los paquetes están divididos en dos partes principales:
♦ El encabezado: Es la parte donde se indica toda la información del paquete para poder ser
reconstruido. A parte también esta la dirección en la cual tiene que ir el paquete, el tipo de
protocolo utilizado, etc...
♦ Los datos: En esta parte esta toda los datos de la porción de fichero que hemos enviado.
También hay que decir que en una red cada ordenador tiene una identificación o IP. Esta IP se configura en la
maquina misma o es dada por el servidor. La IP consta de varios dígitos separados por punto: Ej. 192.168.1.1
Con este tipo de identificación podríamos tener miles de configuraciones, y en una red muy extensa es muy
difícil acordarse de la IP de alguna maquina importante. Por eso se inventó el DNS (Sistema de Nombres de
Dominio) que lo que hace es darle un nombre a un IP: Ej. 192.168.1.1 => p1.force.net.
Hay que diferenciar el tipo de red según su longitud:
• LAN (Local area network): es una red pequeña de una longitud menor a los 100m. Normalmente
utilizada en pequeñas redes.
• MAN: es una red mediana de una longitud entre los 100 y los 1000 metros. Utilizada en redes más
extensas que puedes abarcar todo un edificio o varios interconectados.
• WAN (Wide area network): es la red más grande y suele ser superior a los 1000m hasta incluso miles
y miles de kilómetros. Su longitud puede conectar países enteros entre si. Internet es un ejemplo.
• Protocolos.
• El protocolo es el lenguaje en el que los ordenadores hablan. Así, cuando se forma una red, los
ordenadores tienen que interpretar por igual los datos que se les envía, porque sino cada uno haría una
cosa diferente o no funcionarían, entonces, tienen que tener un mismo protocolo. En definitiva, un
protocolo es un conjunto de reglas establecidas entre dos dispositivos para permitir la comunicación
entre ellos.
1.7.1.1 Protocolo TCP/IP
• Se han desarrollado diferentes familias de protocolos para la comunicación por red de datos para
diferentes sistemas operativos. El más ampliamente utilizado es el Internet Protocol Suite, o mas
vulgarmente dicho, TCP/IP. Es un protocolo que proporciona una transmisión fiable de paquetes de
datos sobre redes. El nombre TCP/IP proviene de dos protocolos importantes de la familia, el
Transmisión Control Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de
cien protocolos diferentes definidos en este conjunto. El TCP/IP es la base de Internet que sirve para
unir computadoras que utilizan diferentes sistemas operativos, incluyendo PC, mini computadoras y
computadoras centrales sobre redes de área local y área extensa. TCP/IP fue desarrollado y
demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos,
ejecutándolo en el ARPANET, una red de área extensa (WAN) del departamento de defensa.
• Topología de red
• En este apartado explicaremos las diferentes formas de construir una red y la diferencia entre
conectarlas de una forma u otra. Pero antes hay que explicar los componentes físicos que hacen que
dos o mas ordenadores se conecten.
• En primer lugar necesitaremos una tarjeta de red, que es simplemente un circuito integrado que se
coloca en el interior del ordenador y que tiene, dependiendo de la placa, una o dos entradas, la de
5
cable coaxial y cable RJ45. El cable coaxial es bastante parecido al cable que utilizamos para conectar
el televisor a la antena parabólica y el cable RJ45 es muy parecido al cable del teléfono pero mas
grueso. Ambos aceptan una transferencia máxima de 100 Mb/s.
• En segundo lugar está el concentrador o mas vulgarmente dicho, el HUB. El concentrador, como su
nombre dice, sirve para concentrar ordenadores, es decir, que cada ordenador se conecta al
concentrador y así están todos conectados entre si. Pero mas adelante veremos que en según que
topologías no es necesario el HUB o concentrador.
• Topología en estrella
• La topología en estrella es una de las más antiguas, en ella, todas las estaciones están conectadas a un
ordenador central que actúa a modo de servidor. Todas las comunicaciones entre las estaciones se
realizan a través del ordenador central, que es le que controla la prioridad, procedencia y distribución
de los mensajes. El ordenador central será normalmente el servidor de la red, aunque puede ser un
dispositivo especial de conexión. Esta configuración presenta una buena flexibilidad a la hora de
incrementar el número de equipos además, la caída de uno de los ordenadores periféricos no repercute
en el comportamiento general de la red. Sin embargo, si el fallo se produce en el ordenador central, el
resultado afecta a todas las estaciones. El diagnóstico de problemas en la red es simple, debido a que
todos los ordenadores están conectados a un equipo central. No es una topología adecuada para
grandes instalaciones, ya que al agruparse los cables un la unidad central crea situaciones propensas a
errores de gestión, precisando, además, grandes cantidades de costosos cables. Esta configuración es
rápida en comunicaciones entre los ordenadores periféricos y el central, pero lenta en comunicaciones
entre ordenadores periféricos. Por otro lado, la capacidad de la red es elevada si el flujo de
información es entre ordenadores periféricos y central, dependiendo muy poco la velocidad de la red
del flujo de información que circula por la misma.
• Topología en anillo
• Todas las estaciones están conectadas entre sí formando un anillo, de modo que cada estación tiene
conexión directa con otras dos. Los datos viajan por el anillo de estación en estación siguiendo una
única dirección, de manera que todas las informaciones pasan por todas las estaciones hasta llegar a la
estación de destino, en donde se quedan. Cada estación se queda con la información que va dirigida a
ella y retransmite al nodo siguiente las que tienen otra dirección. Este tipo de redes permite aumentar
o disminuir el número de estaciones sin dificultad. Por otro lado, la velocidad de respuesta de la
6
misma irá decreciendo conforme el flujo de información sea mayor ; cuantas más estaciones intenten
hacer uso de la red, más lenta irá esta, pero en todo caso siempre se puede averiguar el tiempo
máximo de respuesta en el peor de los casos. Este tipo de red es muy apropiada para el entorno
industrial. En una estructura en anillo, un fallo en cualquier parte de la vía de comunicación deja
bloqueada a la red en su totalidad, mientras que un fallo en cualquiera de sus estaciones no
necesariamente implica la caída de la totalidad de la red. El coste total del cableado será menor que en
una configuración en estrella.
• Topología en Bus
• Todas las estaciones están conectadas a un único canal de comunicaciones, toda la información
circula por ese canal y cada estación se queda solamente con la información que va dirigida a ella.
Estas redes son sencillas de instalar y poseen una gran flexibilidad a la hora de aumentar o disminuir
el número de estaciones. La cantidad de cable que utilizan es mínima, sobre todo si la comparamos
con la cantidad necesaria para la topología en estrella, ya que el cable no tiene que ir desde el servidor
a cada una de las estaciones de trabajo. El fallo de una estación aislada no repercute en la red, aunque
la ruptura del bus dejará la red totalmente inutilizada. Esta es la topología de red más extendida. El
inconveniente de esta red es el control del flujo, ya que aunque varias estaciones intenten transmitir a
la vez, como sólo existe un bus, únicamente una de ellas podrá hacerlo, por lo que el control de flujo
será más complicado cuantas más estaciones tenga la red, ya que se pueden producir más intentos
simultáneos (colisiones). Además, es difícil aislar los problemas de cableado y determinar que
estaciones o segmentos del cableado lo producen, ya que todas las estaciones pasan su información
por el mismo cable.
7
• Clases de redes
• La oferta de redes de área local es muy amplia, existiendo soluciones casi para cualquier
circunstancia. Podemos seleccionar el tipo de cable, la topología e incluso el tipo de transmisión que
más se adapte a nuestras necesidades. Sin embargo, de toda esta oferta las soluciones más extendidas
son tres : Ethernet, Token Ring y Arcnet.
• Ethernet
◊ Esta red fue desarrollada originalmente por Xerox y Dec como forma de solucionar el
problema del cableado de redes. Sus inventores fueron Robert Metcalfe y David
Boggs. Según Robert Metcalfe, el nombre Ethernet proviene de la palabra Ether
(éter), la cual denomina poéticamente a un material inexistente que, según algunas
antiguas teorías, llenaba el espacio y actuaba como soporte para la propagación de la
energía a través del universo. En un principio se pensó en utilizar el cable coaxial
para el cableado de este tipo de redes, aunque hoy en día se pueden utilizar otros tipos
de cables. La velocidad de transmisión de la información por el cable es de 10 Mb/s.
Si se utiliza cable coaxial grueso, se pueden hacer hasta 4 tramos de cables (unidos
con repetidores) de un máximo de 560 metros cada uno. Los ordenadores se conectan
al cable mediante transceptores, siendo la distancia máxima entre el transceptor
(tarjeta de red) y el ordenador de 15 metros. Sólo puede haber ordenadores en tres de
los cuatro tramos, siendo el número máximo de estaciones de trabajo de 100 por
tramo. Si se utiliza cable coaxial fino, no hacen falta dispositivos transceptores,
pudiendo conectarse el cable del ordenador al cable de la red con simples conectores
en T. El número máximo de tramos en este caso es de 5, siendo la longitud máxima
de cada tramo de 305 metros. Los tramos se unen mediante el empleo de repetidores
de señal. Sólo puede haber ordenadores en tres de los tramos, siendo el número
máximo de estaciones de trabajo de 30 por tramo. La redes Ethernet emplean una
topología en bus con el método CSMA/CD (Carrier Sense Multiple Access with
Collision Detection) para acceder al medio. Eso significa que cualquier estación
puede intentar transmitir datos en cualquier momento, pero como todas ellas están
conectadas a un único cable común, solo una estación puede estar transmitiendo por
el cable (bus) en un momento dado. Para solucionar los problemas de colisiones en la
transmisión existen una serie de normas como son : antes de transmitir comprobar
que no haya otra estación transmitiendo, o que en caso de colisión hacer que una
estación espere un margen de tiempo aleatorio antes de volver a intentar el envío de
datos. Todas estas tareas son realizadas automáticamente por el software de red a
unas velocidades tan elevadas que el usuario no se da cuenta de las colisiones.
• Token ring
◊ Aunque IBM ya había comercializado anteriormente las redes de área local llamadas
Cluster (en banda base, con cable coaxial, a 375 Kb/s y para un máximo de 64
ordenadores) y PC Network (en banda ancha, a 2Mbps y para un máximo de 72
ordenadores), no fue hasta el año 1985 cuando IBM anunció su red local más
sofisticada : la Token Ring. Token Ring es una red en anillo con paso de testigo. Eso
significa que los ordenadores conectados a la red se van pasando un testigo de unas a
otras de forma secuencial y cíclica, de modo que sólo puede transmitir información
aquel ordenador que posea el testigo en un momento dado. Como la velocidad de
transmisión de este tipo de redes puede ser hasta 16 Mbps, el usuario no se da cuenta
del tiempo que tiene que esperar su ordenador antes de recibir el nuevo testigo para
poder empezar a transmitir.
8
Los distintos ordenadores de la red se conectan a las unidades de acceso multiestación, MAU (Multistation
Acces Unit), dentro de las cuales está formado el anillo. A cada MAU se pueden conectar hasta 8 estaciones
de trabajo, pudiendo tener como máximo 12 MAU, por lo tanto un máximo de 96 estaciones. La distancia
máxima entre el ordenador y la MAU es de 50 metros (aunque se podría llegar hasta los 350 metros con
cables de mayor calidad), y entre MAU es de 135 metros (pudiéndose llegar a los 215 metros). El cable que se
emplea normalmente es el par trenzado, con o sin blindaje, aunque también se puede utilizar el cable coaxial o
la fibra óptica.
• Arcnet
◊ Es una red en banda base que transmite a una velocidad de 2.5 Mbps, con una
topología híbrida estrella / bus. Este sistema fue desarrollado en 1978 por la empresa
Datapoint, aunque fue potenciado en el mundo de los microordenadores por la
empresa Standard Microsystems. Todos los ordenadores de la red se conectan en
estrella a un distribuidor central denominado HUB activo. La distancia máxima entre
el ordenador y el HUB activo debe ser de menos de 660 metros. A los HUB activos
también se puede conectar HUB pasivos, conectándose un máximo de 3 ordenadores
a cada HUB pasivo. La distancia máxima entre una estación de trabajo y un HUB
pasivo es de 17 metros. Se puede conectar más de un HUB activo, distanciándose
entre ellos un máximo de 660 metros. En total, el número máximo de estaciones de
trabajo no debe ser superior a 255.
• Windows NT vs. Linux
• Historia, evolución y características básicas de Windows NT.
Hace ya algo más de quince años, concretamente en 1985, que la primera versión de Windows (la 1.0) vio la
luz. Aunque tuvo escasa relevancia en el mercado, fue la primera piedra de lo que años después se ha
convertido en un universo de ordenadores personales gobernados por el sistema operativo de Microsoft.
Fue con las siguientes versiones (Windows 2.0, Windows/386) con las que se empezó a abrir camino, al ser
adoptado como sistema operativo principal por parte de diversas compañías. No será, sin embargo, hasta la
versión 3.0, presentada en 1990, cuando Windows comienza a tener un verdadero impacto en la informática
personal
Windows 3.0 contaba con un interface de usuario mejorado y, sobre todo, podía gestionar más de un mega de
RAM, lo cual siempre ha constituido uno de los mayores lastres del DOS.
No puede decirse que Windows fuese, ni en ese momento ni tan siquiera ahora, un sistema operativo por sí
mismo, en realidad constituía una extensión gráfica del DOS.
El extensor de DOS incorporado podía administrar hasta un total de 16 Mb de RAM, cantidad nada
despreciable para la época. Incorporó los conceptos de multitarea cooperativa, el Cortapapeles que permitía
utilizar las técnicas de cortar y pegar, ampliamente difundidas en el entorno Macintosh años atrás, gestión
centralizada de las impresoras, etc.
En poco tiempo el nuevo entorno gráfico se convirtió en un verdadero estándar mundial.
En el año 1992 se presentó la archiconocida versión 3.1, que mejoró el entorno de usuario y la velocidad de
ejecución. También introdujo conceptos hoy tan imprescindibles como OLE, acrónimo de Object Linking and
Embedding (vinculación e incrustación de objetos), soporte para fuentes TrueType y comenzó con el tema de
multimedia.
9
La versión 3.11 para Trabajo en Grupo permitía a los PC compartir datos a través de una red.
Paralelamente, a finales de los años 80, Microsoft inició el desarrollo de un nuevo sistema operativo. Fue
David Cutler, antiguo empleado de Digital y desarrollador del sistema VMS para estaciones Digital VAX, el
encargado de la dirección del nuevo proyecto.
Así, en el mes de julio de 1993 veía la luz la primera versión de Windows NT, la 3.1, numeración que
intentaba corresponderse con la ya existente versión del Windows estándar.
Entre los objetivos iniciales en el desarrollo de Windows NT estaban el conseguir un sistema operativo
totalmente independiente de 32 bits, robusto, fiable, multiusuario y orientado a redes. Asimismo, una premisa
de diseño fue la portabilidad del sistema, es decir, que su funcionamiento fuera independiente de la plataforma
hardware elegido De esta forma, Windows NT podía funcionar en máquinas PC con procesadores Intel de la
familia x86, y en costosas Workstations con procesadores RISC, como los Alpha de Digital (cosa lógica,
teniendo en cuenta la experiencia previa de Dave Cutler en esta plataforma, que era muy superior en
prestaciones a los PC convencionales de aquella época). También se añadieron los requisitos de multitarea
apropiativa (real, no como la de Windows 3.1) y de multiproceso (soporte de varios procesadores
simultáneos) y, cómo no, la compatibilidad con aplicaciones DOS y Windows de 16 bits.
Queda claro que las pretensiones iniciales de NT eran, desde un principio, mucho más elevadas e interesantes
que las de los otros componentes de la familia Windows. Sin embargo, no todo era tan sencillo. Los
requerimientos de hardware para que NT funcionase eran muy superiores a lo habitual, y existían muy pocos
programas específicamente diseñados para aprovechar las prestaciones superiores que ofrecía. Esto ocasionó
que esta primera versión pasase más bien desapercibida.
NT 3.5 se presentó en septiembre de 1994, incluyendo una versión servidora (Server) y otra para estaciones de
trabajo (Workstation).
Windows NT 3.5 Server mejora con mucho las prestaciones de su predecesor, además de requerir menos
memoria. Es con esta nueva versión cuando comienza a mostrarse la potencia y capacidad de Windows NT,
así como su flexibilidad e idoneidad para entornas empresariales, científicos y técnicos, aunque lejos todavía
del usuario personal. Este último debe conformarse con Windows 3.1 o el posterior 3.11 y esperar el
inminente lanzamiento de Windows 95, que se estaba anunciando como el fin de las limitaciones propias del
DOS y que todavía, debido a diversos problemas, tardaría alrededor de un año en comercializarse.
En septiembre de 1995 tiene lugar la mayor campaña publicitaria de la historia de la informática. Se está
anunciando Windows 95, el sistema operativo para PC compatibles más esperado de los últimos años. Sus
cartas de presentación parecen inmejorables. Un sistema de 32 bits con un nuevo entorno de usuario mucho
más atractivo y efectivo, mejoras sustanciales en el funcionamiento en red y en todo lo relacionado con las
comunicaciones, soporte muy ampliado de dispositivos y aplicaciones multimedia, Plug and Play,
compatibilidad total con aplicaciones DOS, Win 16 y las nuevas Win 32 y unos requisitos de hardware
bastante comedidos.
Sin embargo, tras el "boom" inicial, muchos usuarios se dan cuenta de que no todo es exactamente como se ha
anunciado: el viejo DOS sigue estando por debajo, bastante escondido, pero presente, y con todas sus ya
conocidas limitaciones. Aún así, el nuevo sistema se impone rápidamente y el mundo PC se ve afectado por
una guerra de precios imparable que ocasiona bajadas tan impactantes como puede haber sido la que ha
afectado a la memoria RAM.
Un mes antes, en agosto de 1995, se había lanzado la versión 3.51 de NT, en el que se incluía el soporte de las
nuevas aplicaciones de 32 bits propias de Windows 95, a pesar de mantener el clásico "Administrador de
Programas" y el entorno de Windows 3.1. Esta versión mantiene unas cotas altísimas en lo que se refiere a
10
fiabilidad, estabilidad, seguridad y rendimiento.
La inminente aparición de Windows 95 va a convulsionar el mercado PC, obligando a unos usuarios, ansiosos
por experimentar sus mejoras, a la ampliación de su hardware (pues los requisitos del 95 son claramente
superiores a los de las versiones anteriores).
Todo ello va a afectar de manera muy positiva a NT, que pasa a ser un sistema también apto para usuarios
exigentes que no se van a conformar con las novedades de Windows 95 y necesitan las cualidades de un
producto mucho más avanzado, como ha demostrado ser Windows NT 3.51.
Aproximadamente un año después de estos eventos, en el mes de agosto de 199ó, nace la versión 4.0 de
Windows NT. Lo más destacable es la adopción del entorno Windows 95, lo que facilita mucho su manejo y
establece además una uniformidad muy interesante en lo que se refiere a sistemas operativos para PC Los que
llevan ya un año trabajando con Windows 95 se sentirán cómodos con NT 4.0 desde el principio.
En los últimos tiempos, la versión Server de NT se ha afirmado básicamente como servidor de archivos,
impresoras y aplicaciones, en perjuicio de Novell Netware, que ha ido viendo como Microsoft gana cuota de
mercado con su sistema. NT Server también ofrece servicios para Internet, pudiendo convertirse en un
servidor Web, FTP y Gopher con las facilidades que el nuevo interface aporta.
La aversión Workstation es muy empleada como estación gráfica de altas prestaciones en aplicaciones
técnicas (CAD, diseño 3D, etc.), habiéndose convertido en una gran competidora de las estaciones UNIX. Sin
embargo, NT Workstation 4.0 puede ser también una alternativa a muy seria ante Windows 95 para uso
personal, principalmente por sus características de estabilidad, seguridad y rendimiento.
Sus principales características son las siguientes:
• Protección de la memoria
Todos conocemos los frecuentes errores de las distintas versiones del tradicional Windows. Estos suelen estas
motivados principalmente por el peso que supone mantener la compatibilidad con el viejo DOS, que sigue
siendo una parte fundamental del sistema operativo Windows. Las aplicaciones necesitan memoria RAM para
funcionar y cuando lo arrancamos, éstas buscan los bloques de memoria necesarios. Si el sistema operativo no
se encarga de la separación o protección de estos bloques, cabe la posibilidad de que dos programas se
interfieran intentando utilizar un mismo espacio en la memoria de nuestro ordenador. Esto da lugar a los
típicos errores de protección general o a los del tipo "El programa ha efectuado una operación no valida se
apagará", propios de Windows 95/98.
Contra este problema, NT incorpora un modelo plano de memoria de 32 bits (esto permite gestionar un
espacio de direccionamiento de 4 Gb sin necesidad de parches, contra los 640 Kb de MS−DOS) con
protección entre aplicaciones y procesos. Esto implica que no pueden existir violaciones de áreas de memoria
entre distintos procesos. Cuando un programa genera algún error, no afecta a las demás, ni a la integridad del
sistema operativo, pudiendo cerrarse y continuar trabajando como si nada hubiera ocurrido.
• Sistema de archivos avanzado
Frente al tradicional sistema de archivos FAT (File Allocation Table o Tabla de Asignación de Archivos)
propio de DOS y Windows, NT incorpora el sistema NTFS (NT File System o Sistema de Archivos propio de
NT) que cuenta con características avanzadas que lo hacen muy superior al FAT, entre las cuales destacan su
estabilidad, autorrecuperacion ante errores, tamaño de clusters más pequeño, soporte para discos duros
mayores de 2.1 Gb, etc.
11
• Rendimiento
El rendimiento viene marcado por las siguientes características:
♦ Diseño de 32 bits real
Windows NT, a diferencia de Windows 95, es un sistema operativo totalmente desarrollado en 32 bits. Esto le
va a proporcionar un mayor rendimiento, pues aprovecha plenamente las capacidades de los
microprocesadores de 32 bits (80486, Pentium, Pentium II, etc.)
♦ Multitarea y multisubproceso (multithreading).
Windows NT utiliza el modelo de multitarea prioritaria (preemptive) o real. De esta manera, varios, procesos
pueden ejecutarse simultáneamente con diferentes prioridades. Por ejemplo, podemos estar formateando un
disquete, descargando un archivo de Internet y seguir trabajando con nuestro procesador de textos.
En muchas ocasiones la multitarea por si sola no es suficiente para asegurar un funcionamiento óptimo del
sistema. La complejidad de muchas aplicaciones actuales hace que un mismo programa pueda requerir la
ejecución de diversas tareas, denominadas subprocesos o threads. Con la simple multitarea estos subprocesos
están englobando dentro de una misma tarea principal y se ejecutaran uno tras otro. Windows NT soluciona
este inconveniente con el multisubproceso, mas conocido como multithreadig, que permite la ejecución
simultanea de varios subprocesos, incrementando el rendimiento del sistema.
• Portabilidad y compatibilidad
Windows NT tiene mucha facilidad para conectarse con otras redes y sistemas operativos.
• Interconexión con otras redes
Windows NT Server es un sistema operativo de red muy flexible, diseñado para interactuar con los sistemas
de red actualmente más comunes. Esto permite a los usuarios seguir trabajando con sistemas que ya conocen.
• Compatibilidad del software
Para que Windows NT pueda convertirse en un sistema operativo ampliable aceptado debe guardar
compatibilidad con las aplicaciones software existentes.
De nuevo la arquitectura modular ha permitido la compatibilidad con otros programas mediante la
implementación de distintos subsistemas. Así, Windows NT soporta aplicaciones MS−DOS, Windows 3.x (16
bits), Windows 95 (32 bits), POSIX y OS/2 1.x, que se ejecutará en sus propios espacios de memoria,
protegidos del resto.
• Compatibilidad del hardware
Windows 95 ofrece un extenso soporte de controladores de dispositivo (device driver) para el distinto
hardware PC existente en la actualidad. Para mantener la compatibilidad anterior sigue soportando antiguos
controladores de 16 bits que se cargan desde los archivos CONFIG.SYS y AUTOEXEC.BAT durante el
inicio de la máquina y corren en memoria convencional, comunicándose directamente con el hardware. Este
sistema asegura una compatibilidad enorme, pero resulta muy inseguro, pues deja el sistema vulnerable ante
posibles conflictos entre dispositivos. Para paliar esta situación, Windows 95 incluye nuevos controladores
(drivers) de 32 bits que proporcionan mayor rendimiento y seguridad para dispositivos como lectores de
CD−ROM, tarjetas de sonido, ratones, etc.
12
Windows NT es radical. Sólo admite drivers específicamente diseñados para NT. El soporte de dispositivos
hardware no es tan grande como el de Windows 95, aunque con la versión 4.0 se ha visto muy ampliado.
• Escalabilidad
La escalabilidad de Windows NT está asegurada por el soporte de varios procesadores simultáneos,
trabajando en multiproceso simétrico (SMP, Simetric MultiProcessing). La versión 4.0 de Windows NT
Workstation soporta de serie un máximo de 2 procesadores, mientras que el Server admite de serie 4, que
pueden ampliarse a 32 mediante soluciones especificas de los fabricantes del hardware y software adicional
suministrado por Microsoft.
El soporte de multiproceso amplia enormemente las posibilidades de Windows NT y es otra de las
características que marca las distancias con sistemas como Windows 95.
• Seguridad
Las características de seguridad son de gran importancia en un sistema operativo con la orientación de
Windows NT, ya que ha de ser capaz de asegurar la protección de datos en complejos entornos de red. Estas
características deben afectar a todo sistema y particularmente al sistema de archivos, el directorios de cuentas
de usuario, el sistema de autentificación de usuarios, la gestión de la memoria, además de los distintos
subsistemas del entrono y otros componentes. Windows NT cumple con todos estos requisitos con soluciones
como el sistema de archivos NTFS, especifico de Windows NT o aplicando un gran tolerancia a fallos del
sistema o de disco duro.
• Historia, evolución y características básicas de Linux
Linux es un clónico de UNIX desarrollado por Linus Torvalds mientras estudiaba en Finlandia que enseguida
colocó en Internet para que todos los programadores aficionados del mundo le ayudaran a desarrollarlo. Como
clónico utiliza la misma estructura que Unix, con lo cual cuenta con todas sus ventajas y una más: es de libre
distribución.
Unix fue desarrollado en los primeros años de la década de los 70, en los Laboratorios Bell en EE.UU. Sus
creadores, con la intención de combatir los sistemas operativos complicados e inmanejables. Intentaron
diseñar y construir un sistema que hiciese disfrutar a quien lo utilizase. Mucha gente diría que el intento tuvo
éxito.
Varias versiones de Unix se pusieron a disposición de las universidades, donde el software se hizo muy
popular y disfrutó de un elevado estatus en varios sitios. La versión 7 de Unix de 1978 y el Sistema III de
1982 marcaron el comienzo de la utilización masiva de Unix en aplicaciones no académicas.
¿Por qué esta popularidad? Hay dos razones. La primera es la portabilidad de Unix, el hecho de que este
pueda ser soportado por tantos modelos diferentes de computador. Si escribe sus programas en un lenguaje
portable Como Cobol, Fortran o C (lenguaje en el que esta escrito Unix), y conseguimos ejecutarlos bien bajo
la supervisión de Unix, podemos estar seguros de que funcionara correctamente bajo cualquier otro ordenador
Unix sin tener que realizarse ninguna modificación. El entorno software es el mismo para toda la gama de
grandes ordenadores y para los más pequeños procesadores: es un sistema estándar. Basta aprender a manejar
uno y ya sabemos manejar cualquier otro.
La segunda razón para la popularidad es lo bueno que es. Es el primer sistema operativo flexible, simple,
modular y bien estructurado que pudo ser soportado por un pequeño computados. Existe una amplia gama de
aplicaciones. Las herramientas de ayuda, el sistema de ficheros, el sistema E/S y el poderoso lenguaje de
comandos (que lo convierte en un verdadero lenguaje de programación) son los elementos que se combinan
13
para conseguir que Unix sea agradable y sea un inmejorable entorno para el desarrollo de software.
Este texto esta extraído de un libro de uso de Unix. Basta cambiar UNIX por LINUX para entender porque
Linux es tan bueno.
La filosofía de Linux es la misma que pensó su creador: un sistema operativo robusto, estable y libre. Con
Linux no existe el pirateo (¿...?). Lo que existe es toda una comunidad de programadores aficionados
dispuestos a dar su tiempo para el desarrollo de este sistema y que hoy por hoy ya es una alternativa seria a
otros sistemas comerciales muy conocidos, lo que está empezando a crear algún dolor de cabeza a mas de un
magnate del software.
Como ya he dicho antes, Linux es un clónico de Unix que mantiene el 99% de las características de aquel. Si
bien Unix es un sistema para redes, Linux funciona perfectamente en un PC compatible y sin necesidad de
estar conectado a una red. También se está portando a otros sistemas, como Sun, Apple, Sparc, etc... para así
conseguir que todos los ordenadores del mundo sean compatibles.
Las utilidades corren mucho mejor y más rápido bajo Linux que sus equivalentes en Windows. Pero hay que
dejar una cosa clara: NO SON SISTEMAS COMPATIBLES. Ojo, no alarmarse por esto porque muchas de
las aplicaciones de Windows tienen alguna equivalencia y muchas compañías están portando sus programas
más conocidos a Linux. Sirva como ejemplo Corel que ha realizado WordPerfect 8 para nuestro sistema
favorito. Otro motivo para no alarmarse es que no tenemos que renunciar a las cosas que hayamos creado en
Windows: podemos editar, crear y todo lo que se nos ocurra hacer en nuestros textos, páginas web, dibujos,
composiciones musicales, etc... Esto se debe a que este sistema operativo entiende todos los formatos de
ficheros que tengamos (MS−DOS, Windows, Mac, etc..).
En un principio, lo único que teníamos era un sistema poco amigable con una consola de texto esperando a
que le dijésemos que debía hacer. Esto se que no asusta a los viejos usuarios del DOS ya que estamos ante,
básicamente, lo mismo. Pero para los nuevos usuarios de ordenadores que no entienden para que sirve ni que
diablos es el MS−DOS, que les basta con Windows, puede ser un serio problema pasarse a Linux.
Afortunadamente para todos, esto ya no ocurre desde la aparición de los gestores de ventanas al más puro
estilo Windows, salvando las distancias, a favor de Linux claro.
Se pueden destacar como características más importantes las siguientes:
• Seguridad
Otros sistemas operativos para computadores de escritorio simplemente dejan que cualquier usuario borre
programas esenciales para el funcionamiento del sistema si así lo desea. Linux tiene avanzadas características
de seguridad que protegen a su sistema, no solo de esto, sino también de ataques desde Internet, acceso sin
autorización a los equipos, monopolio de recursos del sistema por parte de algún usuario o aplicación y
además es invulnerable a los virus.
• Estabilidad
Otros sistemas operativos se vuelven cada vez más lentos en su ejecución, cada vez que se inician o cierran
programas. Es necesario reiniciarlos incluso varias veces al día y además su sistema de archivos tiene que ser
defragmentado periódicamente. También es común que tengan errores graves que bloqueen el sistema con una
pantalla azul, haciendo perder tiempo y datos a los usuarios. Linux no tiene ninguno de estos problemas, y
varias personas han reportado que han mantenido a Linux funcionando continuamente por varios meses,
incluso años. No es necesario detener los programas que están en ejecución o reiniciar el sistema para instalar
nuevos programas. Esto es muy importante para los servidores en empresas y en Internet.
14
• Portabilidad
Linux corre en casi todas las plataformas de hardware conocidas. Actualmente hay versiones de Linux para la
familia 80x86, los PowerPC, Alpha, Sparc, ARM, Power Mac, incluyendo además arquitecturas de 64 bits
como DEC Alpha e Intel Merced.
• Compatibilidad POSIX
Linux sigue el estándar POSIX para aplicaciones de UNIX, por lo tanto para usar un programa POSIX en
Linux, casi siempre, solamente es necesario recompilarlo. Virtualmente el 99.9% de los programas UNIX
tienen una versión para Linux.
• Compatibilidad con otros sistemas
Linux puede ser instalado en una partición MS−DOS, y puede coexistir junto con MS−DOS, OS/2,
Windows 95, Windows 98, Windows NT y cualquier sistema operativo que use este tipo de particiones.
También puede leer y escribir datos en particiones DOS, OS/2 y FAT32. Además usando los emuladores
DOSEMU y WINE (o algún otro) se pueden ejecutar la mayoría de los programas de DOS y de Windows en
un sistema Linux. Linux no necesita estos sistemas para funcionar, es un sistema operativo completo y puede
ser usado sin necesidad de ningún otro sistema operativo.
• El sistema de archivos
El sistema de archivos de Linux, llamado ext2fs, no necesita ser defragmentado como los sistemas de archivos
de otros sistemas. Incluso si esta lleno a más del 95% y con alta carga del sistema (leyendo y escribiendo
continuamente archivos) la fragmentación de los archivos se mantiene por debajo del 10%. También permite
nombres muy largos de archivo, que pueden contener signos de puntuación. Y el límite del numero de
directorios que pueden estar uno dentro de otro es suficientemente amplio.
• VFS (Virtual File Sistema)
Linux puede ``montar'' sistemas de archivos diferentes en su directorio de archivos, incluyendo particiones de
otros sistemas operativos, sistemas de archivos de red, disquetes, CD−ROMs, e incluso un sistema de archivos
que representa información en memoria. Los dispositivos de hardware también se representan como archivos.
De esta manera las aplicaciones no tienen que preocuparse por como comunicarse con otros sistemas de
archivos, unidades de disco, dispositivos de hardware, ni con el propio Kernel, solo necesitan saber leer y
escribir archivos normales.
• Java y ELF
El Kernel de Linux tiene soporte para ejecutar programas en Java, incluso puede ejecutar applets como si
fueran aplicaciones, aunque para esto último necesita tener instalado el JDK (Java Developer Kit). También
soporta ELF (Executable and Linking Format) que es el último estándar para ejecutables en UNIX.
• 32 y 64 bits con multiprocesamiento
Linux usa extensamente el procesamiento de 32 bits de los micro−chips 80386 y superiores. Además puede
usar todas las características adicionales de los últimos Pentium y AMD (que incluyen el uso de la instrucción
halt para ahorro de energía e incremento de la vida útil del procesador), así como soporte para cualquier
cantidad de procesadores que soporte el hardware en el mismo computador. En arquitecturas de 64 bits Linux
es un sistema operativo que soporta todas las características del hardware, y ya funciona como sistema
operativo para los nuevos procesadores Intel Merced de 64 bits.
15
• TCP/IP (Transmission Control Protocol / Internet Protocol)
Es el protocolo de Internet. Linux existe gracias a Internet. Servicios como el correo electrónico, el chat y los
grupos de noticias son elementos estándar en UNIX y Linux tiene las implementaciones más seguras y
estables de estos protocolos.
• El sistema X Windows
Es un sistema gráfico poderoso y completo, con muchas aplicaciones. Tiene a su vez la posibilidad de usar
varios sistemas administradores de ventanas, cambiando totalmente la apariencia del escritorio de Linux con
sólo cambiar el administrador y se puede configurar para que se vea como cualquier otro sistema operativo.
• StarOffice
Esta suite de aplicaciones permite leer y escribir los documentos de otras suites como Microsoft Office y
funciona muy bien con Xfree86. StarOffice no es parte de las distribuciones, excepto Caldera, pero se puede
bajar gratuitamente de la red.
• Software Comercial Disponible
Actualmente hay gran cantidad de software comercial para Linux disponible, algunos de los más importantes
son: INFORMIX y ORACLE que son administradores de bases de datos SQL, BB Stock para análisis del
mercado de valores y bolsa, MAPLE V, Mathematica, Mathlab y Symulink para análisis matemático y
complejas manipulaciones simbólicas, SPICE, herramienta para diseño y análisis de circuitos, y finalmente
Corel WordPerfect 8, ApplixWare Office Suite y Axenne Office, que son Suites de aplicaciones de oficina.
• Continuo desarrollo
Es la más importante característica de Linux, que le permite evolucionar al mismo tiempo y tal vez más rápido
que otros sistemas operativos. Hay aproximadamente una versión nueva del Kernel cada mes y medio, e
incluso una versión cada semana, en algunas ocasiones.
• Ventajas y desventajas de Windows NT frente a Linux al gestionar una red informática local.
− En este apartado hablaremos de las ventajas y desventajas de utilizar los dos sistemas operativos para
gestionar una red escolar:
− Primero hablaremos de la cantidad de dinero que nos gastaremos en cada sistema operativo y el dinero que
tendremos que invertir en nuestro servidor analizando los requisitos mínimos recomendados.
Sistema operativo
Windows NT 4 .0 Server
Windows NT 4 .0 Server
Windows NT 4 .0 Server
Linux
Linux
Linux
Característica
CPU (procesador)
Memoria RAM
Disco Duro
CPU (procesador)
Memoria RAM
Disco Duro
Mínimo recomendable
Pentium 200Mhz
64 Mb de RAM
400 Mb
Pentium 75 Mhz
8−16 Mb. RAM
250 Mb
Tabla 1
16
En la tabla 1 se puede apreciar los pocos requisitos que Linux necesita para gestionar todos estos servicios
respecto a Windows NT. Esto implica que el gasto en un servidor será mucho menor.
Coste de Windows NT
Windows NT 4.0 Server
""
Enterprise Edition
""
5 usuarios
10 usuarios
25 usuarios
50 usuarios
$ 809 US
$ 1,129 US
$ 3,999 US
$ 4,799 US
Tabla 2
Coste de Linux
Linux
Infinitos usuarios
Gratis o $49.95
US
Tabla3
1 Dólar americano = ±185 Ptas.
En las tablas 2 y 3 podemos ver que Linux es mucho mas barato que Windows NT que esto implica que el
gasto también será mucho mas reducido con Linux que con Windows NT.
− Ahora analizaremos el soporte de serie que tienen los dos sistemas operativos:
Componente
Soporte técnico gratis en línea
Fuentes del Kernel
Servidor Web
Servidor FTP
Servidor Telnet
Servidor SMTP/POP3
DNS
Sistema de archivos de red
Servidor de News
Número de sistemas de archivo
posibles
Cuotas de Disco
Número de GUI's a escoger
Sistema Operativo Linux
Si, Linux Online o Redhat
Si
Apache Web Server
Si
Si
Si
Si
NFS y SMB
Si
Windows NT Server 4.0
No
No
MS IIS
Si
No
No
Si
NetBios
No
32
3
Si
4
No
1
Vamos a explicar algunas cosas de esta tabla:
• El soporte para las fuente del Kernel sirve para poder configurar a tu gusto el Kernel. Esto es posible
gracias a que Linux es open−source, que quiere decir que todo se puede configurar o retocar sin
necesidad de tener ninguna licencia especial ni tener que pagar mas. Esto en Windows NT 4 Server ni
en ningún otro producto de Microsoft es posible porque no están los códigos fuente para los kernels
de Microsoft al público.
• El servidor web sirve para poner una pagina web a la vista de los usuarios de Internet. Esto requiere
una conexión permanente a Internet ya que la pagina web reside en el servidor. Hay que decir que el
17
servidor Apache Web Server de Linux es totalmente gratis mientras que para conseguir el IIS de
Windows NT 4 Server hay que comprarlo a Microsoft.
• El servidor FTP sirve para que diferentes usuarios de Internet puedan coger o bajar los ficheros de su
disco duro. Claro esta, usted puede configurar que usuarios quiere que puedan acceder a su servidor y
que ficheros se pueden bajar.
• El servicio de Telnet sirve para que diferentes usuarios puedan entrar al servidor para administrarlo
remotamente, es decir, configurar aspectos del servidor desde otro ordenador conectado a Internet.
Como puede ver, Linux ya tiene de serie este servicio mientras que con Windows NT 4 Server debería
instalarse un programa a parte para dar este servicio.
• El servicio SMTP/POP3 es para el correo electrónico. Esto sirve para tener una cuenta de correo en el
servidor sin tener que contratarla a otro servidor extranjero.
• El servicio DNS, como hemos explicado antes, sirve para asignar un nombre propio a un IP, es decir,
en vez de escribir una serie de números para referirnos a una maquina, por ejemplo 192.1683.1.4,
pues pondremos p4.dominio.com. Esto es muy útil cuando hay muchas maquinas en una red, como
por ejemplo en Internet, que para ir a la pagina web de Hotmail no ponemos su IP sino que ponemos
www.hotmail.com.
• El servicio para sistemas de archivos de red sirve para compartir unidades con las maquinas que
nosotros queramos o para tener un directorio común. Este servicio es muy útil cuando queremos
compartir ficheros con otras maquinas o ejecutar un programa sin necesidad de instalarlo en cada una
de ellas.
• El servicio de News, como la palabra indica en castellano, sirve para que a cada dirección de correo
que lo desee le lleguen las noticias que haya seleccionado. Este servicio solo esta disponible para
Linux, ya que si lo quieres tener en Windows NT deberías instalarte un programa especial que de este
servicio.
• Como ya hemos hablado antes, cada sistema operativo distribuye el disco duro de una manera
diferente. La forma de distribuir los archivos es muy extensa, por ejemplo Windows NT utiliza por
defecto NTFS y Linux ext2, y la gran mayoría de veces son incompatibles. Algunos sistemas
operativos soportan alguno sistemas de archivos diferente al suyo. Como podemos ver en la tabla
Linux soporta hasta 32 tipos diferentes mientras que Windows NT solo 3.
• El servicio de cuotas de disco sirve para restringir la capacidad de las cuentas de los usuarios. Esto es
útil cuando nuestro disco duro no es muy grande o queremos controlar la cantidad de disco utilizado.
• Las siglas de GUI (Graphical user interface) significan en castellano Entorno de Usuario Grafico.
Esto quiere decir que el usuario puede gestionar el servidor de forma grafica como estamos
acostumbrados en Windows 98. Windows NT solo posee un solo tipo de GUI, que es muy parecido al
de Windows 98, pero Linux, en cambio, posee 4 o incluso mas GUI con la posibilidad de
actualizarlas.
Ahora veremos unas graficas que demuestran el rendimiento de Linux/UNIX frente a Windows NT 4 Server:
18
El eje de las X indica el numero de peticiones de los usuarios y el eje de las Y indican lo procesos de la CPU.
Como podemos ver, estos dos gráficos se contradicen totalmente. Pese a que fueron medidos con el mismo
programa y con las mismas condiciones, en el primero Linux aventaja a Windows NT 4 Server y sin en
cambio el segundo dice todo lo contrario. La verdad es que creemos que el primero es mucho mas fiable que
el segundo.
• ¿Cuál de los dos sistemas operativos sería mas practico para gestionar una red local escolar?
• Como hemos visto, Linux puede hacer lo mismo e incluso mas que Windows NT con un presupuesto
muchísimo mas bajo. Ahora, el problema esta en saber funcionar bien el sistema operativo. La
experiencia requerida para configurar Linux es bastante mas alta que para Windows NT, aunque el
problema no es tan grande porque compañías como KDE, GNOME, etc... están haciendo mucho mas
ameno Linux gracias a sus entornos gráficos, que son muy fáciles de configurar. Por lo tanto, yo
preferiría un Linux como sistema operativo para el servidor en vez de Windows NT.
• Conclusión
• Tengo que decir que este trabajo me ha enseñado mucho sobre este tema y me he dado cuenta de las
ventajas y desventajas de cada sistema operativo que antes no conocía.
• Bibliografía.
Toda la información aquí expuesta ha sido extraída en su totalidad de Internet.
Kernel: El Kernel es el cerebro del sistema operativo. En él residen las funciones mas básicas para su
funcionamiento.
19
Descargar