NOTAS PARA EL CURSO ENSAMBLE DE MICRO

Anuncio
NOTAS PARA EL CURSO
ENSAMBLE DE MICRO COMPUTADORES
Diego Armando Londoño Tobón
Departamento de Recursos de Apoyo e Informática D.R.A.I
Facultad de Ingeniería
Universidad de Antioquia
Medellín
2005
Versión 0.1
Abril de 2005
1.
PLACAS BASE (MOTHERBOARDS)
Es la placa de circuitos más grande existente en un computador.
Se la reconoce
porque usualmente está en el fondo o espalda de los gabinetes del PC. En ella se
insertan entre otros, el procesador, la memoria, los conectores IDE, las tarjetas PCI, la
tarjeta AGP y la BIOS. Es comúnmente conocida con varios nombres: placa base,
placa principal, placa madre Motherboard y mainboard
Dado que representa un organismo central, debemos comprender como funciona y
como está distribuida a fin de diagnosticar acertadamente los problemas que se derivan
de ella.
1.1.
LOS BUSES
Son el conjunto de líneas o caminos por los cuales los datos fluyen internamente de
una parte a otra de la computadora (CPU, disco duro, memoria). Puede decirse que en
las computadoras modernas los buses básicos son:
a) El bus de datos o bus interno, es el que comunica los diferentes componentes con la
CPU y la memoria RAM. Está formado por los hilos conductores que vemos en el
circuito impreso de la placa.
b) El bus de expansión, constituido por el conjunto de slots o ranuras en donde se
insertan placas independientes de sonido, video, modem, etc. En el transcurso del
tiempo se han desarrollado diferentes tipos de buses de expansión, aumentando cada
vez su capacidad de transmisión: ISA (Industry Standard Architecture) desarrollado en
1981, solo trabaja con un ancho de banda de 16 bits, VESA (Video Electronics
Standard Association) en 1992, trabaja a 32 bits, pero cayó rápidamente en desuso al
aparecer el actual PCI, en 1992, cuyo ancho de banda actual es de 64 bits y es el que
persiste en la actualidad, por ser una conexión de alto rendimiento entre el procesador y
las tarjetas de expansión. Está diseñado para soportar grandes transferencias de datos,
lo que supone grandes cargas eléctricas, que era una de las limitaciones de su
antecesor, el bus local VESA.
BUS PCI (Peripheral Component Interconnect)
El bus PCI (Peripheral Component Interconnect - Interconexión de componentes
periféricos) ha sido durante casi una década la interfaz de conexión dominante para
arquitectura I/O - La topología de su bus compartido permite a los dispositivos PCI
conectados arbitrarse entre ellos mismos para ganar el acceso privilegiado y total a la
hora de transferir datos. Es una solución sencilla y con buena relación calidad /precio
para satisfacer las necesidades de los dispositivos de I/O y de almacenamiento cuando
hay sólo conectados unos pocos dispositivos.
Los primeros buses PCI tenían una capacidad de transferencia de 132 MB/seg obtenida
de sus 33Mhz de velocidad y de los 32 bits de datos. ((32/8) bytes * 33 Mhz). Esto en
principio era suficiente para casi todo hasta que aparecieron las primeras tarjetas de
vídeo en 3 dimensiones.
En mayo de 1993 se da a conocer el bus PCI 2.0 que daba soporte al procesador
Pentium con un tamaño de datos de 64 bits, aunque también soportaba 32 bits.
Dependiendo de la velocidad puede obtener una capacidad de transferencia de 264
MB/s (a 33 Mhz.) o de 528 MB/s (a 66 Mhz).
Este bus es utilizado generalmente en
Servidores.
La aparición en 1998 de un nuevo chipset, el 44OBX, con bus de sistema a 100 MHz de
frecuencia, permitiendo procesadores más veloces, obligó la aparición del bus PCI 2.1 a
100 Mhz, el cual, con un tamaño de palabra de 64 bits se puede obtener una capacidad
de transferencia de 800 MB/s teóricos, o con 32 bits se alcanzan 400 MB/s.
Para aprovechar los 100 Mhz, esta especificación PCI permite que una de las ranuras
trabaje a 66 Mhz simultáneamente con otra que lo haga a 33 Mhz. Todavía no se ha
conseguido que una única ranura obtenga los 100 Mhz en exclusividad. La memoria
RAM es la más afectada por la velocidad del bus PCI 2.1. La memoria de tipo EDO y
sus predecesoras quedan fuera de juego, ya que sus tiempos de acceso estaban
calculados para los 66 Mhz. La memoria RAM adecuada es una SDRAM de un tiempo
de acceso menor de 10 nseg, equivalente a 100 Mhz, ó incluso memorias más veloces.
Este tipo de bus también es utilizado generalmente en Servidores.
A pesar de las mejoras a través de los años, con el objetivo de mantener la
compatibilidad, en la actualidad la interfaz PCI más corriente utilizada en placas base
comunes es PCI 32/33 (32bit. 33MHz), y el PCI 64bit es presentado para el mercado de
tarjetas para servidor.
Para mantener la compatibilidad con las tarjetas de ampliación ISA / EISA, algunos los
chipsets facilitan una pasarela de conexión entre el bus PCI y el ISA / EISA. Por ello, es
normal que en esta arquitectura aparezcan en una ciertas placas base antiguas,
algunas ranuras ISA, que permiten conectar periféricos que requieren una capacidad de
transferencia muy pequeña, como un modems antiguos, tarjetas de sonido o una tarjeta
de red, y otras 3 ó más ranuras PCI donde se conectan otros periféricos que necesitan
una mayor velocidad de transferencia, como pueden ser una tarjeta de vídeo,
controladoras de disco, digitalizadores, así como dispositivos de sonido, red o modems
más modernos.
El diseño del bus PCI tiene tres características principales:
- Provee una configuración automática soportando Plug and Play.
- Permite producir interfaces con alto rendimiento a bajo costo.
- Su diseño tiene gran versatilidad para soportar una gran variedad de periféricos y
accesorios.
Las tarjetas PCI no cuentan con jumpers o swithes (interruptores) como todas sus
antecesoras, siendo configuradas de manera directa y automática por firmware o
software. Tienen una memoria ROM que contiene las especificaciones de configuración
y de aquí obtiene el sistema los datos necesarios en la etapa de arranque. Todo esto a
diferencia de las tarjetas ISA que tenían que ser configuradas manualmente, aunque
eventualmente también se produjeron con Plug and Play (PNP, conectar y usar).
BUS AGP. (Accelerated Graphics Port ó Puerto Avanzado de Gráficos)
Se trata de un bus independiente del bus general constituido por un slot específico para
tarjetas gráficas.
El puerto AGP fue desarrollado por Intel en 1996 como una forma para mejorar el
rendimiento y la velocidad de las tarjetas gráficas conectadas a un PC y como solución
a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI.
El diseño parte de las especificaciones PCI 2.1.
El bus AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8
canales más adicionales para acceso a la memoria RAM. Además puede acceder
directamente a esta, permitiendo emular así memoria de vídeo en la RAM. La velocidad
del bus es de 66 MHz.
Como pueden apreciar en la siguiente gráfica, a diferencia de los PCI, el AGP tiene
acceso privilegiado al chipset y luego al CPU, de esta manera puede procesar de forma
más eficiente la información gráfica.
A medida del tiempo al AGP ha evolucionado considerablemente en los modos de
funcionamiento y velocidad, pudiendo doblar (AGP 2X), cuadruplicar (AGP 4X) o hasta
multiplicar por ocho las características básicas (AGP 8X), alcanzando una tasa de
transferencia de datos máxima de 2133 MB por segundo como se muestra a
continuación:
PCI express
El esfuerzo de Intel y las empresas del sector por crear una nueva tecnología de E/S
que aprovechara las más recientes innovaciones tecnológicas y que conservara las
considerables inversiones del sector en el diseño de software pare la tecnología PCI,
dio como resultado la publicación de las especificaciones de PCI Express y la
aprobación de la especificación por parte de los miembros de PCI-SIG en julio de 2002
PCI Express1 (denominado aún a veces por su nombre clave 3GIO, por "tercera
generación de E/S") es el sucesor de la tecnología PCI, la cual, a pesar de ser una
buena solución para satisfacer las necesidades de los dispositivos de I/O, se ve muy
limitada a la hora de conectar los actuales y futuros dispositivos de I/O (tales como la
tarjeta Gigabit Ethernet, la tarjeta RAID y el controlador Serial ATA), los cuales son más
exigentes en la necesidad de ancho de banda. Lo que es más importante, cuantos más
dispositivos estén conectados, más ruido se inyectará en el bus. Ciertamente el ruido
disminuirá la claridad de la señal y la calidad de los datos transferidos por este bus.
El bus PCI Express2 (conocido como PCIe) es considerado como la última interfaz de
I/O para sustituir al PCI para un mayor ancho de banda, aunque también está pensado
para suceder al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997.
La mejora más evidente del PCI Express es su topología punto a punto (a diferencia de
su predecesor paralelo), que permite una conmutación compartida para distribuir los
recursos compartidos (ancho del bus) entre los dispositivos PCI Express conectados,
de acuerdo con su prioridad. En este caso, cada dispositivo tiene un acceso directo y
exclusivo (link) al conmutador (switch). Además, el conmutador priorizará los datos
transferidos de manera que las aplicaciones en tiempo real pueden obtener un acceso
inmediato al conmutador.
1
2
Tomado de http://www.hispatech.com/articulos/html/ibap/pciexpress/pag1.php
Tomado de http://spain.aopen.com.tw/tech/techinside/PCI%20Express.htm
Esto último es importante porque permite a PCI Express emular un entorno de red,
enviando datos entre dos dispositivos compatibles sin necesidad de que éstos pasen
primero a través del chip host (un ejemplo sería la transferencia directa de datos desde
una capturadora de vídeo hasta la tarjeta gráfica, sin que éstos se almacenen
temporalmente en la memoria principal).
Otra de las mejoras sobre el PCI es su mayor ancho de banda. Un único lane (canal
PCI Express) es capaz de transmitir 250MB/s en cada dirección simultáneamente
(500MB/s para las dos direcciones).
Actualmente el PCI Express está disponible en 5 formatos (x1 / x2 / x3 / x4 / x16) para
los distintos anchos de banda. El PCI Express x2 está compuesto por dos lanes y el
ancho de banda máximo es de 500MB/s para una dirección y de 1000MB/s para las dos
direcciones.
El PCI Express x4 / x8 / x12 no están reservados para el mercado de los PC de
escritorio sino para el mercado de servidores.
El PCI Express x16 es especializado para la conexión de tarjetas gráficas y se utiliza
para sustituir a la actual interfaz AGP 8X, dado su mejor rendimiento (4000 MB/seg,
frente a los 2133MB/s del AGP 8X). Esta transición aumenta las capacidades gráficas
que no podían realizarse anteriormente debido a las limitaciones de la interconexión
AGP.
A continuación se observa las diferencias entre los distintos tipos de PCI Express y su
correspondiente ancho de banda:
PCI Express también incluye características novedosas, tales como gestión de energía
y conexión y desconexión en caliente de dispositivos (como USB).
PCI Express
también optimiza el diseño de placas base, pues su tecnología serie precisa tan sólo de
un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual
también necesitaba que las longitudes de estos fuesen extremadamente precisas.
En una placa base, las ranuras PCI Express se diferencias por su color naranja (PCIE
x2) y rojo (PCIE x16)
En la siguiente imagen se puede observar una placa base con tres ranuras PCI, dos
PCI Express x2 y una ranura PCI Express x16 para tarjeta gráfica.
1.2.
PUERTOS USB (Universal serial bus)
El Bus de Serie Universal (USB -de sus siglas en inglés Universal Serial Bus) provee un
estándar de bus serie para conectar dispositivos a un computador. Un sistema USB
tiene un diseño asimétrico, que consiste en un solo servidor y múltiples dispositivos
conectados en una estructura de árbol utilizando dispositivos hub (concentradores)
especiales. Se pueden conectar hasta 127 dispositivos a un solo servidor, pero la suma
debe incluir a los hubs también, así que el total de dispositivos realmente usables
disminuye un poco.
El estándar incluye la transmisión de energía eléctrica al dispositivo conectado.
Algunos dispositivos requieren potencia mínima, así que varios pueden ser conectados
sin necesitar fuentes de alimentación extra. La mayoría de los hubs incluyen fuentes de
alimentación que brindan energía a los dispositivos conectados a ellos, pero algunos
dispositivos gastan tanta energía que necesitan su propia fuente de alimentación.
El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas
para poner en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play
permitiendo a esos dispositivos ser conectados o desconectados al sistema sin
necesidad de reiniciar. Cuando un nuevo dispositivo es conectado, el servidor lo
enumera y agrega el software necesario para poder funcionar.
El USB puede conectar periféricos como ratones, teclados, escáneres, cámaras
digitales, impresoras, discos duros, y componentes de red. Para dispositivos multimedia
como escáneres y cámaras digitales, el USB se ha convertido en el método estándar de
conexión. Para impresoras, el USB ha crecido también en popularidad que ha
empezado a desplazar a los puertos paralelos porque el USB hace sencillo el poder
agregar más de una impresora a una computadora.
El USB resuelve muchos de los inconvenientes de los antiguos puertos COM
(dificultades en la adaptación a un puerto COM libre, conflicto de los vectores de
interrupción IRQ, etc.)
El estándar USB 1.1 tiene 2 velocidades de transferencia: 1.5 Mbps (Megabits por
segundo) para teclados, mouse, joysticks, etc., y velocidad completa a 12 Mbps. La
mayor ventaja del estándar USB 2.0 es añadir un modo de alta velocidad de 480 Mbps.
En su velocidad más alta, el USB compite directamente con FireWire
USB transfiere señales y energía a los periféricos utilizando un cable de 4 hilos,
apantallado para transmisiones a 12 Mbps y no apantallado para transmisiones a 1.5
Mbps. El calibre de los conductores destinados a alimentación de los periféricos varía
desde 20 a 26 AWG, mientras que el de los conductores de señal es de 28 AWG. La
longitud máxima de los cables es de 5 metros
Por lo que respecta a los conectores hay que decir que son del tipo conector y
receptáculo, y son de dos tipos: serie A y serie B.
En la siguiente imagen se muestra un esquema del cable, con dos conductores para
alimentación y los otros dos para señal, debiendo estos últimos ser trenzados o no
según la velocidad de transmisión. Además se muestran los tipos de conectores.
1.3.
FIREWIRE (IEEE 1394)3
El IEEE 1394 o FireWire es un estándar multiplataforma para entrada/salida de datos
en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales
como cámaras digitales y videocámaras a computadores.
El FireWire fue inventado por Apple a mediados de los 90, para luego convertirse en el
estándar multiplataforma IEEE 1394. A principios de este siglo fue adoptado por los
fabricantes de periféricos digitales hasta convertirse en un estándar establecido.
3
Tomado de www.wikipedia.org y de http://www.duiops.net/hardware/articulo/ie31394f.htm
Entre sus características principales se encuentran su elevada velocidad de
transferencia de información (400 Mbps en su versión básica) lo que la hace ideal para
transmitir audio y video digital, su flexibilidad en la conexión ya que no es necesario
apagar y reencender el dispositivo ni reiniciar el computador y su capacidad de conectar
un máximo de 63 dispositivos, con cables de una longitud máxima de 425 cm.
Existe una segunda versión de Firewire, la IEEE 1394b ó FireWire 800, la cual duplica
la velocidad del FireWire 400 o Fireware convencional, alcanzando hasta 800 Mbps.
Además se espera una tercera versión de Firewire a 1Gbps en los próximos años.
FireWire 400 envía los datos por cables de hasta aproximadamente 4,5 metros de
longitud. Mediante fibra óptica profesional, FireWire 800 puede distribuir información por
cables de hasta 100 metros.
A continuación se ilustran el cable y el conector de Fireware.
Comparación entre USB y FIREWIRE
A pesar de que USB y Firewire son tecnologías para hacer conexión de dispositivos a
alta velocidad, no existe una guerra entre ellos, es más, se espera que convivan los dos
tipos de conectores en los nuevos computadores. Lo que si es cierto es que estas dos
tecnologías reemplazarán a los conectores actuales del PC, usándose USB para
periféricos de pequeño ancho de banda (ratones, teclados, modems), mientras que el
Firewire será usado para conectar la nueva generación de dispositivos electrónicos de
gran ancho de banda.
Veamos ahora un cuadro comparativo de las diferentes características de las
tecnologías USB y Firewire
USB
Número Máx. dispositivos conectados
Cambios en caliente
Longitud de cable entre dispositivos
127
SI
-5m
- Hasta 30 m con
repetidor cada 5m
Velocidad de transferencia de datos
1.5 mbps
12 mbps
480 mbps
NO
- Teclados
- Ratones
- Monitores
- Joysticks
- Cámaras digitales
de baja resolución
- CD-ROM
- Modems
Conexión de periféricos internos
Dispositivos
1.4.
FIREWIRE
63
SI
- 4.5 m
-Hasta 100 m con
fibra óptica
profesional
400 mbps
800 mbps
SI
- Videocámaras DV
- Cámaras digitales
de alta resolución
- HDTV
- Discos duros
- DVD-ROM
- Impresoras
- Escáneres
INTERFACE IDE. (Integrated Drive Electronics).
La interfaz IDE o ATA (Advanced Technology Attachment) controla los dispositivos de
almacenamiento masivo de datos, como los discos duros y por medio de ATAPI
(Advanced Technology Attachment Packet Interface), se añaden además dispositivos
como, las unidades CD-ROM.
IDE, fue creado por la firma Western Digital4, por encargo de Compaq para una nueva
gama de computadores personales. Su característica más representativa era la
4
Tomado de http://orbita.starmedia.com/~osander/Disco%20Duro1.htm
implementación de una tecnología electrónica que basa el control de la comunicación
en una placa controladora integrada en el propio disco duro, de ahí su denominación.
Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus
del sistema, siendo posible implementarla en la placa base o en tarjeta. Igualmente se
eliminó la necesidad de disponer de dos cables separados para control y datos,
bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el
término ATA (AT Attachment) que define una serie de normas a las que deben
acogerse los fabricantes de unidades de este tipo.
Luego de algún tiempo, no tardó en ponerse en manifiesto la necesidad de ciertas
modificaciones en su diseño. Entre ellas figuraba su capacidad de almacenamiento, que
no solía exceder de los 528 Megas, su capacidad de conexión, que sólo permitía la
coexistencia de dos unidades IDE en el sistema, y su baja tasa de transferencia.
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una
mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4
Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo,
según el modo de transferencia usado. Además, se implementaron dos sistemas de
traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a
superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas
innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios
en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al
mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y
de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre
presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se
pudieran montar una unidad y otra esclava, configuradas como secundarias, para que
la controladora sepa a/de qué dispositivo mandar/recibir los datos. Más aún, se habilitó
la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el
sistema.
Los dispositivos IDE pueden transferir información principalmente empleando dos
métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para
efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los
micros actuales tienen la suficiente capacidad para gestionar estas operaciones y
alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se
desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA
dedicado.
A continuación se observa una comparación entre cada uno de los modos de
transferencia y su velocidad en el mejor de los casos.
Modo de Transferencia
PIO 0
PIO 1 y 2
PIO 3
PIO 4
MultiWord DMA 1
MultiWord DMA 2
UltraDMA 33 ó ATA/33 ó ATA 4
UltraDMA 66 ó ATA/66 ó ATA 5
UltraDMA 100 ó ATA/100 ó ATA 6
MB de transferencia
2 – 3 MB/s
4 MB/s
11 MB/s
16 MB/s
13 MB/s
16,6 MB/s
33 MB/s
66 MB/s
100 MB/s
El bus de datos de la interfaz IDE lo constituye un cable plano de 40 u 80 hilos
conductores que comunica el conector del dispositivo (disco duro, CD-ROM, DVD) con
el conector o puerto IDE de la motherboard. Las placas base actuales se fabrican con
dos puertos: IDE 0 e IDE1, permitiendo cada uno la conexión de hasta 2 drives (discos
duros o unidades ópticas), una configurada como maestro y la otra como esclavo.
Los discos IDE están mucho más extendidos que los SCSI debido a su precio mucho
menor. El Rendimiento de IDE es menor que SCSI pero en la actualidad se están
reduciendo las diferencias.
1.5.
INTERFACE SCSI (Small Computer System Interface)
Es la interfaz de mayor capacidad, velocidad y estabilidad para conectar dispositivos
directamente a una motherboard. Tiene la gran ventaja de hacer que los dispositivos se
direccionen lógicamente en contraposición al direccionamiento físico que utiliza IDE. La
consecuencia inmediata es que los dispositivos quedan liberados de las imposiciones
que el Bios pudiera imponer, pues SCSI se encarga de hacer el trabajo completo de
comunicación y configuración. Esta capacidad lo ha hecho el preferido en equipos en
los que se requiere estabilidad y alta velocidad de transmisión, como los servidores.
La interfaz utiliza una conexión en la que cada dispositivo se une al siguiente, en donde
cada uno tiene su propio ID ante el host, el cual se selecciona mediante una serie de
jumpers o bien una rueda giratoria en el dispositivo.
La tecnología SCSI ofrece, en efecto, una tasa de transferencia de datos muy alta entre
el computador y el dispositivo SCSI. Pero aunque esto sea una cualidad muy
apreciable, no es lo más importante; la principal virtud de SCSI es que dicha velocidad
se mantiene casi constante en todo momento sin que el microprocesador realice
apenas trabajo.
Esto es de gran importancia en procesos largos y complejos en los que no podemos
tener el computador bloqueado mientras archiva los datos, como por ejemplo en la
edición de vídeo, la realización de copias de CD o en general en cualquier operación de
almacenamiento de datos a gran velocidad, tareas "profesionales" propias de
computadores de cierta potencia y calidad como los servidores de red.
Las raíces de SCSI5 parten en 1979, cuando Shugart Associates, un antiguo fabricante
de discos, inició el diseño de una nueva interfaz universal para discos: la SASI
("Shugart Associates Systems Interface"), el predecesor de SCSI.
Aunque SASI era muy limitada en sus capacidades, introdujo el concepto de comandos
y mensajes, una idea revolucionaria en esa época.
Para lograr que SASI fuera mas ampliamente aceptado por la industria, a fines de 1981
Shugart Associates, en conjunto con NCR Corporation convencieron a la ANSI para que
estableciera un comité que estandarizara esta interfaz.
En 1982 la ANSI le cambió el nombre a la interfaz, denominándola SCSI. Durante el
siguiente par de años el estándar fue mejorado, por ejemplo NCR Corporation
contribuyó conjuntos de comandos para que la interfaz pudiera manejar no sólo discos,
sino que también unidades de cinta, procesadores e impresoras.
Finalmente, la interfaz apareció en 1986, cuando fue publicado el estándar ANSI
X3.131-1986, que ahora es referido como SCSI-1. La velocidad de transferencia de
datos alcanzaba los 5 MBytes/seg y el bus tenía 8 bits de ancho.
El bus SCSI soporta hasta 8 dispositivos (incluida la controladora), identificados por las
direcciones 0 a 7. El cable podía tener una extensión de hasta 6 metros.
En 1994 el estándar SCSI sufrió su primera evolución, al ser publicado el estándar
ANSI X3.131-1994. Denominado SCSI-2 (y a veces también denominado "Fast SCSI"
por su mayor velocidad), esta nueva versión permitía tasas de transferencia más
veloces y una estructura de comandos estandarizada.
5
http://www.overclockers.cl/modules.php?name=enciclopedia&ver=90
La tasa de transferencia de datos sincrónicos en SCSI-2 alcanza los 10 Mbytes/seg
para los modelos con bus de 8 bits, y 20 Mbytes/seg para los modelos con bus de 16
bits (también llamados Wide SCSI).
Para hacer mas confuso el tema, el SCSI de 16 bits agrega una línea mas para la
dirección, permitiendo ahora la existencia de 16 dispositivos en el bus SCSI (incluida la
controladora SCSI, desde luego), numerados del 0 al 15.
Lamentablemente, la mayor velocidad del Bus obligó a disminuir su longitud máxima a
sólo 3 metros
A partir de la aparición de SCSI-2 se comenzó a trabajar en el siguiente estándar,
denominado SCSI-3, el cual aún no ha sido terminado. Como el documento para el
estándar SCSI-2 era muy grande (más de 400 páginas), para el caso de SCSI-3 se
tomó la decisión de dividir este gran documento en una serie de documentos menores,
cada uno cubriendo una determinada "capa" del estándar:
- Capa Física: Conectores, especificaciones eléctricas.
- Protocolos: Fases del Bus, paquetes, etc.
- Arquitectura: Organización de comandos.
- Comandos Primarios: Comandos soportados por cualquier dispositivo SCSI.
- Comandos Específicos
El problema aquí, es que al tener tantas tecnologías diferentes bajo el nombre genérico
SCSI-3 ha producido que mucha gente tenga confusión por este término.
Para efectos de los discos duros, las siguientes designaciones corresponden todas a
dispositivos compatibles con el estándar SCSI-3:
Ultra SCSI: Permite transferencias de 20 o 40 Mbytes/seg, según si el bus SCSI es de
8 (Narrow) o de 16 bits (Wide).
Ultra2 SCSI: Como el anterior, pero con velocidades de 40 y 80 MBytes/seg
respectivamente.
Ultra 160: Usando una técnica para transmitir dos datos por ciclo de reloj, este tipo de
discos logra velocidades de transferencia de 160 MBytes/seg en bus Wide. Se usa
señalización LVDS para aumentar la frecuencia del bus.
Ultra 320: Se incrementa la velocidad del bus a 80 MHz (en lugar de los anteriores 40
MHz), para conseguir una transferencia de hasta 320 MBytes/seg.
Las controladoras SCSI modernas suelen ser compatibles con las normas antiguas, por
ejemplo ofreciendo conectores de 50 pines junto a los más modernos de 68, así como
conectores externos (generalmente muy compactos, de 25 ó 36 pines), salvo en
algunos modelos especiales que se incluyen con aparatos SCSI que están diseñados
sólo para controlar ese aparato en concreto (como algunos scanner), lo que abarata su
costo.
En la siguiente imagen6 se observa un diagrama de los conectores SCSI más comunes
en la actualidad. En ella se pueden identificar los tipos usados en las tarjetas SCSI así
como en los periféricos. Esta información es de gran utilidad para determinar el tipo de
cable necesario para su conexión. Además se encuentra la terminología usada por
diferentes fabricantes para los diversos tipos de conectores.
6
Tomado de http://www.rn-soft.de/ge/scsi.htm
2.
MICROPROCESADORES
Es la unidad fundamental encargada de ejecutar instrucciones que recibe de los
programas, traducirlas al lenguaje interno de la máquina, ejecutarlas y controlar todos y
cada uno de los pasos del proceso. Se encarga también de comunicarse con otros
subsistemas dentro del computador, y controlar su operación. Debido al papel central
de tal unidad se conoce como cerebro, unidad central de procesamiento, o CPU
(Central processing unit).
Los principales fabricantes de microprocesadores son:
•
Intel con los Pentium, el Celeron, el Xeón, el Itanium y el Centrino.
•
AMD con los Athlon, el Duron, el Semprom y el AMD64
•
Cyrix con el 6x86, 6x86MX, el MII y el winchip.
2.1.
PENTIUM 4, EL PROCESADOR MÁS AVANZADO DE INTEL7
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura
x86 y manufacturado por Intel. Es el primer microprocesador con un diseño
completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original,
denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de
2000.
Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6
según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso
de enteros y operaciones de coma flotante. La estrategia de Intel fue sacrificar el
rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo
y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el
7
Tomado de http://es.wikipedia.org/wiki/Intel_Pentium_4
Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron) y
una orientada a servidores de gama alta (Xeon).
Las distintas versiones son: Willamette, Northwood, Extreme Edition y Prescott.
Willamette
Willamette, la primera versión del Pentium 4, sufrió de importantes demoras durante el
diseño. De hecho, muchos expertos aseguran que los primeros modelos de 1,3, 1,4 y
1,5 GHz fueron lanzados prematuramente para evitar que se extienda demasiado el
lapso de demora de los Pentium 4. Además, los modelos más nuevos del AMD
Thunderbird tenían un rendimiento superior al Pentium III, línea que se encontraba al
límite de su capacidad por el momento. Fueron fabricados utilizando un proceso de 180
nanómetros y utilizaban el Socket 423 para conectarse a la placa madre.
A la hora de los exámenes de rendimiento, los Willamette fueron una decepción ya que
no podían superar claramente a los Thunderbird ni a los Pentium III de mayor velocidad.
Incluso la diferencia con la línea de bajo costo de AMD (Duron) no era significante.
Vendió una cantidad moderada de unidades.
En enero de 2001 un microprocesador aún más lento de 1,3 GHz fue añadido a la lista.
En la primer mitad del mismo año, salieron a la venta los modelos de 1,6, 1,7 y 1,8 GHz
notablemente superiores a los Pentium III. En agosto, los modelos de 1,9 y 2,0 GHz
vieron la luz.
El Willamette de 2,0 GHz fue el primer Pentium 4 que puso en duda el liderazgo en
rendimiento, que hasta ese momento estaba liderado indiscutiblemente por la línea
Thunderbird de AMD. Si bien algunos resultados arrojaban una leve diferencia a favor
de AMD, los analistas concluyeron que la diferencia no era significativa para decir que
un procesador era claramente superior al otro. Esto fue un gran paso para Intel, que
hasta la salida del AMD Athlon había sido el rey de la velocidad en los
microprocesadores por 16 años en forma casi ininterrumpida.
Northwood
En octubre de 2001, el Athlon XP reconquistó el liderazgo en la velocidad de los
procesadores, pero en enero de 2002 Intel lanzó al mercado los nuevos Northwood de
1,9 y 2,2 GHz. Esta nueva versión combina un incremento de 256 a 512 KB en la
memoria caché con la transición a la tecnología de producción de 130 nanómetros. Al
estar el microprocesador compuesto por transistores más pequeños, podía alcanzar
mayores velocidades y a la vez consumir menos energía. El nuevo procesador
funcionaba con el Socket 478, el cual se había visto en los últimos modelos de la serie
Willamette.
Con la serie Northwood, los Pentium 4 alcanzaron su madurez. La lucha por la cima del
desempeño se mantuvo reñida, a medida que AMD introducía versiones más veloces
del Athlon XP. Sin embargo, la mayoría de los observadores concluyeron que el
Northwood más veloz siempre estaba ligeramente por encima de los modelos de AMD.
Esto se hizo notorio cuando el paso de AMD a la manufacturación de 130 nanómetros
fue postergada. Los Pentium IV entre 2,4 y 2,8 GHz fueron, claramente, los más
veloces del mercado.
Un Pentium 4 de 2,4 GHz fue introducido en abril de 2002, uno de 2,53 GHz en mayo
(que incluyo un aumento del FSB de 400 a 533 MHz). En agosto vieron la luz los
modelos de 2,6 y 2,8 GHz, y en noviembre la versión de 3,06 GHz.
El Procesador de 3,06 GHz soporta Hyper-threading, una tecnología originalmente
aparecida en los Xeon que permite al sistema operativo trabajar como si la máquina
tuviese dos procesadores.
En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz,
cuya principal diferencia era que todos ellos incluían la tecnología Hyper-Threading y el
FSB era de 800 MHz. Supuestamente esto era para competir con la línea Hammer de
AMD, pero de momento sólo la serie Opteron salió al mercado, la cual no estaba
destinada entonces a competir con los Pentium 4. Por otro lado, los AMD Athlon XP, a
pesar de su FSB aumentado de 333 a 400 MHz y las velocidades más altas no
pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los
Northwood, de 3,4 GHz, fue introducida a principios de 2004.
Extreme Edition o Edición Extrema
En septiembre de 2003, Intel anunció la edición extrema (Extreme Edition) del Pentium
4, apenas sobre una semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El
diseño era idéntico al Pentium 4 (hasta el punto de que funcionaría en las mismas
placas madre), pero se diferenciaba por tener 2 MB adicionales de caché L3. Compartió
la misma tecnología Gallatin del Xeon MP, aunque con un Socket 478 (a diferencia del
Socket 603 de los Xeon MP) y poseía un FSB de 800MHz, dos veces más grande que
el del Xeon MP. Una versión para Socket LGA775 también fue producida.
Mientras que Intel mantuvo que la Extreme Edition estaba apuntada a los jugadores de
videojuegos, algunos tomaron esta nueva versión como un intento de desviar la
atención del lanzamiento de los Athlon 64. Otros criticaron a Intel por mezclar la línea
Xeon (especialmente orientada a servidores) con sus procesadores para usuarios
individuales, pero poco se criticó cuando AMD hizo lo mismo con el Athlon 64 FX.
El efecto de la memoria adicional tuvo efectos variados. En las aplicaciones de
ofimática, la demora ocasionada por el mayor tamaño de la memoria caché hacia que
los Extreme Edition fuesen menos veloces que los Northwood. Sin embargo, el área
donde se destacó fue en la codificación multimedia, que superaba con creces a la
velocidad de los anteriores Pentium 4 y a toda la línea de AMD.
Prescott
El primero de febrero de 2004, Intel introdujo una nueva versión de Pentium 4
denominada Prescott. Se utiliza en su manufactura un proceso de fabricación de 90
nanómetros y además se hicieron significativos cambios en la arquitectura del
microprocesador, por lo cual muchos pensaron que Intel lo promocionaría como
Pentium V. A pesar de que un Prescott funcionando a la misma velocidad que un
Northwood rinde menos, la renovada arquitectura del Prescott permite alcanzar
mayores velocidades y el overclock es más viable. El modelo de 3,8 GHz es el más
veloz de los que hasta ahora han entrado en el mercado.
Sin embargo, los primeros Prescott producían un 60% más de calor que un Northwood
a la misma velocidad, y por ese motivo muchos lo criticaron con dureza. Se
experimentó con un cambio en el tipo de zócalo (de Socket 478 a LGA 775) lo cual
incrementó en un 10% el consumo de energía del microprocesador, pero al ser más
efectivo el sistema de refrigeración de este zócalo, la temperatura final bajó algunos
grados. Se esperan mejoras que reduzcan el consumo de energía y el calor producido,
pero Intel no ha dado noticias relevantes al respecto.
Los Prescott con Socket LGA775 usan el nuevo sistema de puntaje, y están clasificados
en la serie 5XX. El más rápido es el 570J, funcionando a 3,8 GHz. Los planes para
microprocesadores de 4 o más GHz fueron cancelados y se les dio prioridad a los
proyectos para fabricar procesadores dobles; en gran medida debido a los problemas
de consumo energía y producción de calor de los modelos Prescott.
El procesador 570J también fue el primero en introducir la tecnología EDB, la cual es
idéntica a la más temprana NX de AMD. El objetivo es prevenir la ejecución de algunos
tipos de código maligno
Versiones en Desarrollo
A principios de 2003 Intel había mostrado un diseño preliminar del Tejas, (nombre que
Intel le había dado al microprocesador que sería el sucesor de los Prescott), y un
proyecto para ponerlo en el mercado en algún momento de 2004, pero finalmente
pospuesto para el 2005. Jayhawk sería un procesador similar al Tejas pero que estaría
preparado para funcionar en maquina duales (es decir, una computadora con dos
procesadores).
Sin embargo, el 7 de mayo de 2004 ambos proyectos fueron
cancelados. De este modo, Intel remarco el giro hacia los procesadores dobles.
Tanto el retraso inicial como la eventual cancelación se atribuyen a los problemas de
calor debido al gigantesco consumo energético de los microprocesadores, lo cual ya
había sucedido con los Prescott que además tenían solo un rendimiento ligeramente
mayor que los Northwood. Este cambio también obedeció a los deseos de Intel de
enfocar sus esfuerzos en los microprocesadores dobles, para la gama Itanium de
servidores, los Pentium de escritorio y las portátiles Centrino.
Irwindale
La serie Irwindale es casi igual a la Prescott, excepto porque tiene el doble de memoria
caché. Si bien el lanzamiento de los microprocesadores Irwindale estaba planeado para
fines de 2004, diversas clases de demoras han hecho que se postergue hasta el 2005.
Doble Procesador
Intel tiene planeadas tres variantes con doble procesador del Pentium 4. La primera es
denominada Paxville, que consiste en poco más que dos procesadores Prescott
colocados en el mismo substrato. Le seguirá Dempsey que tiene una interfaz de bus
especial para conectar a los dos microprocesadores. Smithfield es el tercero, pero muy
poco se sabe sobre que características tendrá y si llegará a salir al mercado.
A continuación se incluye una tabla con las actuales variantes de Pentium 4 y las
principales diferencias:
NOMBRES Y CARACTERÍSTICAS DE LOS MICROPROCESADORES PENTIUM 4
Nombre
Público
Revisión
original
Nombre de
Intel para la
versión
Willamette
1,3 GHz - 2,0
GHz
Velocidad del
FSB / Ancho de
banda teórico
100 MHz /
3,2 GB/s
Velocidad
del CPU
Caché
L1: 8 KB datos + 12
KB instrucciones
L2: 256 KB
L1: 8 KB datos + 12
KB instrucciones
L2: 512 KB
P4A
Northwood
1,6 GHz - 3,0
GHz
100 MHz /
3,2 GB/s
P4B
Northwood
2,0 GHz
3,06 GHz
-
133 MHz /
4,2 GB/s
L1: 8 KB datos + 12
KB instrucciones
L2: 512 KB
P4C
Northwood
2,4 GHz
3,4+ GHz
-
200 MHz /
6,4 GB/s
P4E
Prescott
2,8 GHz
3,6+ GHz
-
200 MHz /
6,4 GB/s
P4A*
Prescott
2,4 y 2,8 GHz
133 MHz /
4,2 GB/s
Extreme
Edition
Gallatin
3,2 GHz - 3,4
GHz
200 MHz /
6,4 GB/s
P4F
Prescott
3,2 GHz - 3,6
GHz
200 MHz /
6,4 GB/s
L1: 8 KB datos + 12
KB instrucciones
L2: 512 KB
L1: 16 KB datos +
12 KB
instrucciones
L2: 1MB
L1: 16 KB datos +
12 KB
instrucciones
L2: 1MB
L1: 8 KB datos + 12
KB instrucciones
L2: 512 KB
L3:2 MB
L1: 16 KB datos +
12 KB
instrucciones
L2: 1MB
Observaciones
N/A
Se mejoró el manejo de las
instrucciones y algunos
otros cambios en el
microcódigo, los cuales
pasaron a las revisiones
subsiguientes.
Ningún
cambio
con
respecto al P4A, excepto
por Hyper-threading en el
modelo de 3,06 GHz.
Hyper-threading
Hyper-threading, mayores
tuberías
de
datos
(pipelines), Instrucciones
SSE3
Sin
Hyper-threading,
mayores tuberías de datos
(pipelines), Instrucciones
SSE3
Hyper-threading, se agrega
caché
L3
en
el
microprocesador.
Soporte para EM64T y
EDB (equivalente a la NX
de AMD)
Notas:
Los procesadores Pentium 4 usan un FSB que transmite datos 4 veces por ciclo
* En el caso de la línea de baja gama de los Prescott, Intel volvió a usar la identificación P4A, con la cual se
espera que los vendedores lo identifiquen a los clientes. No se dieron explicaciones al respecto.
2.2.
LOS MICROPROCESADORES DE AMD8
Fundada en 1969 y con su central situada en Sunnyvale, California, Advanced Micro
Devices (AMD) es la segunda compañía mundial productora de microprocesadores
(detrás de Intel) y uno de los más importantes fabricantes de memoria flash y otros
dispositivos semiconductores.
En 1975 AMD lanzó al mercado su primer chip de RAM conocido como Am9102. Ese
mismo año también desarrollaron, gracias a la ingeniería inversa, el primer procesador
de AMD compatible con el 8080A. El aumento de demanda de PCs al principio de la
década de los 80 ayudó a que AMD siguiera creciendo a un gran ritmo debido a la
venta de procesadores x86.
El procesador Am386 de 1991 consiguió superar en frecuencia de reloj por primera vez
a los procesadores de Intel y en 1993 el Am486 llegó a ser el corazón de muchos
ordenadores del fabricante Compaq.
El K5 fue el siguiente desarrollo, pero no gozó de una gran popularidad, pero en 1996
AMD se alió con NexGen para diseñar el K6. El K6-2 incorporaba las nuevas
instrucciones 3DNow! desarrolladas por AMD, era la primera mejora que se hacía en
los procesadores x86 para aumentar el rendimiento de aplicaciones con uso intensivo
multimedia.
El 21 de agosto de 1999 se introdujo el Athlon, el primer procesador x86 de séptima
generación de alto rendimiento tanto para usuarios domésticos como para estaciones
de trabajo y servidores, que en un principio mantuvo su liderazgo de rendimiento sobre
los microprocesadores de Intel.
8
Tomado de http://es.wikipedia.org/wiki/AMD, de http://es.wikipedia.org/wiki/Athlon y de
http://es.wikipedia.org/wiki/AMD_Athlon_64
El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su
predecesor, el K6), estuvo disponible inicialmente en versiones de 500 a 650 MHz, pero
después alcanzó velocidades de hasta 1 GHz. El procesador es compatible con la
arquitectura x86 y debe ser conectado en placas base con Slot A, que son compatibles
mecánicamente, pero no eléctricamente, con el Slot 1 de Intel.
Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró
substancialmente la unidad de punto flotante y se le aumentó la memoria caché de
primer nivel (L1) a 128 KB. Además incluye 512 KB de caché de segundo nivel (L2)
externa al circuito integrado del procesador y funcionando, por lo general, a la mitad de
velocidad del mismo. El bus de comunicación es compatible con el protocolo EV6 usado
en los procesadores DEC 21264 de Alpha, funcionando a una frecuencia de 100 MHz
DDR (Dual Data Rate, 200 MHz efectivos).
El resultado fue el procesador x86 más potente del momento. El Athlon Classic se
comercializó hasta enero de 2002.
En términos económicos el Athlon Classic fue un éxito, no sólo por méritos propios y su
bajo precio comparado con la competencia, sino también por los problemas de
producción de Intel.
El procesador Athlon con núcleo Thunderbird apareció en el mercado el 5 de junio de
2000, como la evolución del Athlon Classic. Al igual que su predecesor, también se
basa en la arquitectura x86 y usa el bus EV6. El rango de velocidad de reloj va desde
los 650 MHz hasta los 1,4 GHz. Respecto al Athlon Classic, el Athlon Thunderbird
cambió del Slot A al Socket A, más pequeño.
Todos los Athlon Thunderbird integran 128 KB de caché de primer nivel (L1) (64 KB de
datos y 64 KB para instrucciones) y 256 KB de caché de segundo nivel (L2) on-die. El
proceso de fabricación usado para todos estos microprocesadores es de 0.18µ y el
tamaño del encapsulado es de 117 mm2.
Existen dos versiones de los Thunderbird dependiendo de la frecuencia de bus que
usan. Los primeros Athlon Thunderbird usaban un bus de 100MHz DDR (200 MHz
efectivos), al igual que los Athlon Classic. En el primer cuatrimestre de 2001
aparecieron nuevas versiones, denominadas Athlon-C, que soportaban un bus de 133
MHz DDR (266 MHz efectivos)
El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de
fabricación de microprocesadores, ya que gracias a su excelente rendimiento
(superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma
velocidad de reloj) y bajo precio, le hicieron muy popular tanto entre los entendidos
como en los iniciados en la informática.
Athlon XP
Cuando Intel sacó el Pentium IV a 1,7 GHz en abril de 2001 se vio que el Athlon
Thunderbird no estaba a su nivel. Además no era práctico aumentar la velocidad del
Athlon Thunderbird a más de 1,4 GHz por problemas de consumo eléctrico y de
disipación de calor.
Para intentar seguir estando a la cabeza en cuanto a rendimiento de los procesadores
x86, AMD tuvo que diseñar un nuevo núcleo
AMD lanzó la tercera gran revisión del Athlon, conocido en clave como "Palomino", el
14 de mayo de 2001. Todos los Athlon a partir del núcleo Palomino fueron
denominados genéricamente como Athlon XP.
Los cambios principales respecto al núcleo anterior fueron mejoras de rendimiento que
lo hacen un 10% más rápido que un Athlon Thunderbird a la misma velocidad de reloj.
Su velocidad de reloj se situó entre 1,3 y 1,7 GHz. Además el núcleo Palomino fue el
primero en incluir el conjunto de instrucciones SSE de Intel, además de las 3DNow!
propias de AMD. Por desgracia, el núcleo Palomino seguía teniendo problemas con la
disipación de calor, lo que hacía que se calentara demasiado.
Debido a las mejoras de rendimiento a la misma velocidad de reloj respecto a los
núcleos anteriores, los Athlon XP fueron comercializados no por su velocidad de reloj,
sino mediante una índice de "prestaciones relativas" conocido como PR . Este índice
indica la velocidad de reloj equivalente de un Athlon Thunderbird con el mismo
rendimiento que un Athlon XP. Por ejemplo, el Athlon XP 1800+ funciona realmente a
1,5 GHz, pero indica que tiene un rendimiento equivalente a un hipotético Athlon
Thunderbird a 1,8 GHz.
El núcleo de cuarta generación de los Athlon, el Thoroughbred, fue lanzado al mercado
el 10 de junio de 2002 a una velocidad inicial de 1,8 GHz (2200 con el sistema de
prestaciones relativas). Llegó a alcanzar unas prestaciones relativas de 2800+.
El núcleo "Thoroughbred" se fabricó con un proceso de 0,13 µm, mejorando los 0,18 µm
del proceso de fabricación de núcleo "Palomino". Inicialmente, a parte de la mejora del
proceso de fabricación, los núcleos Thoroughbred y Palomino son prácticamente
idénticos.
Posteriormente AMD creó una revisión del núcleo Thoroughbred que resolvía los
problemas de disipación de calor heredados desde el núcleo Thunderbird.
El núcleo Athlon de quinta generación, llamado Barton, funcionaba a un índice PR de
entre 2500+ --aproximadamente 1837 MHz-- y 3200+ --2200 MHz--.
El núcleo Barton tenía como características principales respecto al Thoroughbred el
incluir una nueva caché de segundo nivel (L2) de 256 KB adicional y seguir mejorando
el rendimiento del procesador sin aumentar la velocidad de reloj. Además AMD
aumentó la frecuencia del bus de 133 MHz (266 efectivos por DDR) a 166 MHz (333
MHz efectivos) y posteriormente hasta 200 MHz (400 MHz efectivos).
Con el lanzamiento del Athlon XP con núcleo Barton AMD volvió a señalar que sus
procesadores eran los x86 más rápidos del mercado, pero algunas pruebas de
rendimiento del mercado no indicaban esto. Esto causó un gran revuelo al conocerse
que algunas de estas pruebas, como las pruebas de rendimiento BAPCo, estaban
diseñadas por ingenieros de Intel.
El núcleo "Thorton" es una variante del "Barton", idéntico a éste pero con la mitad de la
caché de segundo nivel (L2) desactivada.
Mobile Athlon XP
Los Mobile Athlon XP (Athlon XP-M) son funcionalmente idénticos a los Athlon XP, pero
funcionan con voltajes más reducidos. Además tienen la tecnología Power Now!, que
reduce la velocidad de funcionamiento del procesador cuando tiene poca carga de
trabajo, para reducir aún más su consumo.
Algunos Athlon XP-M utilizan un zócalo µ-PGA en lugar del estándar Socket A.
Generalmente se usan en ordenadores portátiles
En abril de 2003 se comercializó Opteron, el primer microprocesador desarrollado
exclusivamente para servidores y estaciones de trabajo basados en la arquitectura
AMD64 (también conocida como x86-64), que aumenta la capacidad de proceso de la
arquitectura x86 a 64 bits. Esta tecnología fue llevada a los usuarios domésticos en
septiembre de 2003 por los microprocesadores Athlon 64, procesadores de octava
generación.
Athlon 64
Por primera vez en la historia de la informática, el conjunto de instrucciones x86 no ha
sido ampliado por Intel. De hecho Intel ha copiado este conjunto de instrucciones para
sus próximos procesadores, como el Xeon "Nocona". Intel llama a su implementación
Extended Memory Technology -Tecnología de Memoria Extendida- (EM64T), y es
completamente compatible con la arquitectura AMD64. La arquitectura AMD64 parece
que será la arquitectura informática dominante de la generación de 64 bits, al contrario
que alternativas como la arquitectura IA-64 de Intel.
El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del
microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que
los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando
código heredado de 32 bits. AMD ha elegido un sistema de medida del rendimiento del
procesador basado en los megahercios a los que tendría que funcionar un hipotético
Athlon Thunderbird para que diera el mismo rendimiento que un Athlon 64, en lugar de
indicar los megahercios a los que funciona realmente.
Hay dos variantes del Athlon 64: El Athlon 64 y el Athlon 64-FX. El Athlon 64-FX es
similar al Opteron y más potente que el Athlon 64 normal. El Athlon 64 puede ejecutar
código de 16 bits, 32 bits y el propio ensamblador de 64 bits de AMD. En la actualidad,
Linux, OpenBSD, FreeBSD y NetBSD soportan el modo de 64 bits del Athlon 64,
mientras que Microsoft ha sacado una versión preliminar de Windows XP para equipos
de 64 bits.
El Athlon 64 también presenta una tecnología de reducción de la velocidad del
procesador llamada Cool 'n' Quiet -'Frío y Silencioso'-. Cuando el usuario está
ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo
y su voltaje se reducen. Esto provoca que los máximos de consumo bajen de 89 W a 22
W.
El Athlon 64 puede funcionar en dos zócalos para CPU: Uno utiliza tiene 754 pines y el
otro 939 pines. El de menor número de pines soporta los procesadores de menor
velocidad, mientras que el de mayor número de pines soporta los más rápidos,
incluyendo en Athlon 64-FX. El FX admite memoria RAM DDR de doble canal
Athlon 64 de doble núcleo
A partir del Junio de 2005, AMD planea comercializar su procesador AMD Athlon 64 de
doble núcleo, y su nombre podría ser Athlon 64 X2.
Los primeros modelos que llegarán al mercado inicialmente serán los siguientes:
AMD Athlon 64 X2 4400+
AMD Athlon 64 X2 4600+
AMD Athlon 64 X2 4800+
El más potente de los modelos, el Athlon 64 X2 4800+ tendría ambos núcleos
funcionando a 2,4GHz que resulta ser la misma frecuencia que el AMD Athlon 64 4000+
lo cual significaría que en términos de rendimiento y comportamiento, el Atlhon 64 X2
tendría del orden de un 20% más de potencia media que si se compara con un
procesador a igualdad de frecuencia pero en simple núcleo, aunque este punto no está
muy claro o al menos el criterio de numeración de rendimiento de AMD podría necesitar
una pequeña redefinición, dados los problemas de aumentar el rendimiento de sistemas
multi-núcleo accediendo a recursos comunes y el hecho de que tener doble núcleo no
es sinónimo de doble rendimiento.
Los procesadores de sobremesa de AMD de doble núcleo contarán con controlador de
memoria DDR de doble canal, 1MB o 2MB de caché L2 (512KB o 1MB de caché
respectivamente por cada núcleo) e irá montado en placas de Socket 939.
Duron9
Es el procesador de bajo costo de AMD, diseñado para competir con la línea de
procesadores Celeron de Intel.
99
Tomado de http://es.wikipedia.org/wiki/AMD_Duron
La diferencia principal entre los Athlon y los Duron es que los Duron solo tienen 64
KBytes de memoria caché de segundo nivel (L2), frente a los 256 KBytes de los Athlon.
El primer núcleo de Duron se llama "Spitfire" y se lanzó al mercado en el verano de
2000. El Duron Spitfire está basado en el Athlon Thunderbird. De hecho ambos son
virtualmente indistinguibles, por lo que el Duron Spitfire funciona generalmente en las
mismas placas bases que el Athlon Thunderbird. La única forma externa de distinguir
un Duron Spitfire de un Athlon Thunderbird es leer un pequeño texto en el núcleo de
procesador, que pone "Athlon" o "Duron" según el procesador.
El núcleo "Applebred" es el segundo núcleo de los Duron. Dicho núcleo está basado en
el núcleo Thoroughbred de los Athlon XP. Fue lanzado al mercado en 2003 y
funcionaba a una frecuencia de reloj entre 1,4 y 1,8 GHz, con un bus de 133 MHz (266
MHz efectivos por la tecnología DDR).
Grupos de entusiastas han descubierto que los Duron Applebred son en realidad Athlon
XP Thoroughbred con la caché extra deshabilitada. Algunos de ellos han conseguido
convertir estos Duron en sus equivalentes Athlon XP con toda su caché de segundo
nivel (L2).
El Duron fue substituido en 2004 por el AMD Sempron.
Sempron10
El AMD Sempron reemplaza al procesador Duron, siendo su principal competidor el
procesador Celeron D de Intel. Las primeras versiones fueron lanzadas al mercado en
agosto de 2004.
Las versiones iniciales de este procesador estaban basadas en el núcleo
Thoroughbred/Thorton del Athlon XP, con una caché de segundo nivel de 256 KB y un
bus de 166 MHz (FSB 333). Su índice de prestaciones relativas (PR) se situaba entre
10
Tomado de http://es.wikipedia.org/wiki/AMD_Sempron
2400+ y 2800+ dependiendo del modelo, aunque el índice no es calculado de la misma
forma que para los Athlon XP, siendo los Sempron algo más lentos a mismo índice de
prestaciones relativas.
Posteriormente el Sempron se basó en el núcleo Barton del Athlon XP. Esta versión
tenía un índice de prestaciones relativas de 3000+ y poseía una caché de segundo nivel
de 512 KB.
Las versiones del Sempron basadas en el Athlon XP se puede emplear en placas base
con zócalo de procesador Socket A.
Las últimas versiones usan una variante del núcleo del Athlon 64 llamada Paris, que no
implementa el conjunto de instrucciones AMD64, pero si el controlador de memoria.
Cuenta con una caché de segundo nivel de 256 KB y su índice de prestaciones
relativas es de 3100+. Esta versión del Sempron se puede emplear en placas base con
zócalo de procesador Socket 754.
2.3.
SOCKETS Y SLOTS
El rendimiento que dan los microprocesadores no sólo depende de ellos mismos, sino
también de la placa base donde se instalan y la forma como lo hacen; por ejemplo, en
las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse
(486 a 50 MHz hacia atrás). Hoy en día esto no se ve. Los microprocesadores se han
instalado desde hace mucho tiempo en zócalos o bahías especiales destinadas para
ello, de tipo socket o tipo slot.
Los zócalos tipo socket tiene mecanismo ZIF (Zero Insertion Force), es decir, en ellas el
procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al
levantar la pequeña palanca que se encuentra a su lado se libera el microprocesador,
siendo extremadamente sencilla su extracción. Existen varios tipos de sockets, cada
uno usado para generaciones diferentes de microprocesadores. Por ejemplo un zócalo
Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. El socket 7 es
usado por los microprocesadores Pentium/Pentium MMX/K6/K6-2 o K6-3. El socket 8
es utilizado por los procesadores Pentium Pro de Intel, un microprocesador optimizado
para código en 32 bits, el cual sentaría las bases de lo que se conoce en la actualidad.
El socket 370 o PPGA es el zócalo que utilizan los últimos modelos del Pentium III y
algunos Celeron de Intel.
El socket 462 ó socket A es el zócalo donde se insertan los procesadores Athlon de
AMD de versiones relativamente recientes, como Duron, Sempron, Thunderbird o
Athlon XP.
El socket 754 es un zócalo utilizado para los primeros Athlon 64 y algunas versiones
más modernas de Sempron (los basados en una variante del núcleo del Athlon 64
llamada Paris).
El socket 939 es el zócalo utilizado en los procesadores más recientes de AMD, como
versiones mejoradas de Sempron y de Athlon 64, el Athlon 64FX y el Athlon 64 de
doble núcleo, el cual saldrá al mercado en el segundo semestre de 200511.
Por el lado de Intel, se encuentran los sockets 423 y 478, que son los zócalos donde se
insertan los primeros Pentium 4 y algunas versiones de Celeron (con tecnología de
130nm, 128KB de caché L2 y bus de 400MHz, los cuales saldrán del mercado a partir
del 20 de mayo de 200512). El 423 hace referencia al modelo de 0,18 micras (Willamete)
y el 478 al construido según la tecnología de 0,13 micras (Northwood). El tamaño de
micras mencionado hace referencia al tamaño de cada transistor, de forma tal que
cuanto menor sea tu tamaño, más pequeño será el microprocesador y más transistores
será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele
11
12
Tomado de http://www.agalisa.es
Tomado de http://www.agalisa.es/web/article1027.html
estar relacionada con una reducción del calor generado y con un menor consumo de
energía.
El socket 775, usado en los más modernos Pentium 4 y Celeron D (basados en el
núcleo Prescott con 256KB de caché L2, bus a 533MHz y tecnología de 90nm. Están
disponibles con velocidades comprendidas entre los 2'40 y los 3'06GHz), elimina los
pines de contacto del procesador y los coloca en la placa base.
Los zócalos tipo Slot difieren de los tipo socket en el modo de conexión de los
microprocesadores.
El modo de insertarlos es a similar a una tarjeta gráfica o de
sonido, ayudándonos de dos guías de plástico insertadas en la placa base.
El Slot A es donde se conectan los procesadores Athlon antiguos de AMD. El Slot 1 es
donde se conectan los procesadores Pentium II y antiguos Pentium III y el zócalo Slot 2
es donde se insertan los procesadores Xeon antiguos de Intel, dedicados a servidores
de red.
3.
MEMORIA RAM
La memoria RAM (Random Access Memory) es un dispositivo de almacenamiento
temporal que se encarga de cargar porciones de programas y datos para que el
microprocesador las ejecute. Es un tipo de memoria a la que se puede acceder de
forma aleatoria; es decir, se puede acceder a cualquiera de sus bytes sin pasar por los
bytes precedentes.
Hay dos tipos básicos de RAM:
ƒ
DRAM (Dynamic RAM), RAM dinámica
ƒ
SRAM (Static RAM), RAM estática
Los dos tipos difieren en la tecnología que usan para almacenar los datos. La RAM
dinámica necesita ser refrescada cientos de veces por segundo, mientras que la RAM
estática no necesita ser refrescada tan frecuentemente, lo que la hace más rápida, pero
también más cara que la RAM dinámica. Ambos tipos son volátiles, lo que significa que
pueden perder su contenido cuando se desconecta la alimentación.
En el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria
disponible para programas. En contraste, ROM (Read Only Memory) se refiere a la
memoria especial, generalmente usada para almacenar programas que realizan tareas
de arranque de la máquina y de diagnósticos. La mayoría de los computadores
personales tienen una pequeña cantidad de ROM (algunos Kbytes).
La memoria RAM es de lectura y escritura, mientras que la ROM es de solo lectura.
Memoria Caché ó RAM Caché :
Es un sistema especial de almacenamiento de alta velocidad, diseñada para que los
programas accedan una y otra vez a los mismos datos o instrucciones. Esta
información es guardada en SRAM (RAM estática de alta velocidad).
Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en
el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las
estrategias para determinar qué información debe de ser puesta en el caché
constituyen uno de los problemas más interesantes en la ciencia de las computadoras.
Algunas
memorias
caché
están
construidas
en
la
arquitectura
de
los
microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512
Kbytes.
El caché de disco trabaja sobre los mismos principios que la memoria caché, pero en
lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los
datos más recientes del disco duro a los que se ha accedido (así como los sectores
adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita
acceder a datos del disco, lo primero que comprueba es la caché del disco para ver si
los datos ya están ahí. La caché de disco puede mejorar drásticamente el rendimiento
de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de
veces más rápido que acceder a un byte del disco duro.
SDRAM (Synchronous DRAM): Es un tipo de memoria RAM dinámica (DRAM) que es
casi un 20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de
memoria interna de tal forma que mientras que se está accediendo a una matriz, la
siguiente se está preparando para el acceso.
Un tipo de SDRAM más rápido es
SDRAM-II, también conocido como DDR SDRAM (Double Data Rate SDRAM), la cual
permite leer y escribir datos a dos veces la velocidad del bus.
Por su encapsulado, podemos clasificar la memoria RAM en:
SIMM:(Single In line Memory Module): El primer formato que se hizo popular en los
computadores personales tenía 3.5" de largo y usaba un conector de 30 pines.
Posteriormente se fabricó un formato más largo, de 4.25", el cual usa 72 contactos y
puede almacenar hasta 64 megabytes de RAM. Su velocidad de respuesta no era
inferior a los 50 o 60 nanosegundos. Ambos formatos han desaparecido actualmente
de los computadores modernos.
Sobre la instalación de estos módulos hemos de tener presente que los de 30 contactos
debían ser instalados de cuatro en cuatro en la mayor parte de los casos. En el caso de
los de 72 contactos, éstos debían ser instalados a pares. Como es lógico, en los dos
casos es necesario que los módulos tengan el mismo tamaño y, a ser posible, igual
marca y modelo. La inserción de estos módulos es muy sencilla, entrando en los
bancos de memoria en un ángulo de unos 45 grados, tras lo que sólo hay que empujar
el módulo y colocarlo en posición vertical. En cualquiera de los dos casos, sólo hemos
de tener presente el respetar que la pestaña lateral se acople en el banco elegido.
DIMM (Dual In line Memory Module): Es un tipo de encapsulado, consistente en una
pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en
un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos.
Es la evolución de los módulos SIMM y su tiempo de respuesta es notablemente
inferior, por debajo de los 10 nanosegundos.
Es el más cómodo de todos, dado que puede instalarse de manera individual, no siendo
necesario hacer coincidir marcas y modelos sobre la misma placa. Para insertarlos
sobre el banco de memoria, tan sólo habrá que hacer coincidir las pestañas que
encontraremos en el centro y laterales del módulo. Bastará una presión en los extremos
del módulo para que éste quede insertado.
RIMM
Los RIMM (Rambus Inline Memory Module), son módulos de memoria de tipo
RAMBUS, la cual era apoyada por Intel y creada por la empresa Rambus, pero que
cayó en desuso por su alto precio, causado por el pago de regalías en concepto de uso.
Estos módulos de memoria de 184 pines, se caracterizan por estar cubiertos con una
protección metálica, generalmente de aluminio, que también ayuda a su correcta
refrigeración.
DDR
Este tipo de memoria, actualmente muy usado, desplazó del mercado a las memorias
RIMM por el bajo costo y excelente velocidad, que llega a ser hasta de 400 MHz.
4.
BIOS
BIOS son las siglas de Basic Input/Output System: Sistema Básico de Entrada/Salida.
Esta definición es algo engañosa porque parece que la BIOS sólo se encargara de
gestionar los sistemas I/O, pero es bastante más que eso; podríamos decir que es el
sistema operativo del hardware del computador. Sin la BIOS no podría ponerse en
marcha. Controla el proceso de arranque del sistema operativo y está presente para
realizar las funciones y accesos al más bajo nivel.
Físicamente es un chip de memoria (que puede estar soldado a la placa base o en un
zócalo para facilitar su sustitución), en el cual se almacena un código que el
computador utiliza al conectarse la corriente. El código marca los pasos para que el
hardware se inicie y compruebe los componentes.
Hay tres tipos de BIOS y su diferencia está en el método que se utiliza para grabarla:
ROM: Sólo se puede grabar en el momento que se fabrica el chip. La información que
contiene no se puede alterar.
EPROM: Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip
se puede apreciar una especie de ventanilla transparente, que suele estar tapada con
una pegatina.
Flash BIOS: Son los más utilizados en la actualidad. Estos chips se pueden grabar
mediante impulsos eléctricos por lo que el propietario del computador la puede
actualizar con un programa.
Otro componente que está ligado directamente a la BIOS es la CMOS: (Complementary
Metal Oxide Semiconductor). Es una pequeña porción de RAM, que almacena los
valores y ajustes de la BIOS: la hora, la fecha y los parámetros de los dispositivos de
nuestro ordenador. La CMOS, al ser memoria RAM, tiene que estar continuamente
enganchada a la corriente eléctrica para no perder la información. Cuando nosotros
apagamos el computador entra en funcionamiento una pila de litio situada en la placa
base. Esta pila no es recargable y tiene una vida aproximada de cinco o seis años.
Entre los principales fabricantes de BIOS sen encuentran: AMI, AWARD, PHOENIX,
IBM, MrBIOS
De acuerdo con los diferentes fabricantes de Bios, para ingresar a estas se tienen
pulsaciones específicas de teclas durante el proceso de arranque. Algunas de estas
son13:
FABRICANTE BIOS
COMBINACIÓN DE TECLAS
ALR (Advanced Logic Research, Inc)
AMD (Advanced Micro Devices, Inc)
AMI BIOS
Award BIOS
DTK BIOS
IBM PS/2 BIOS
Phoenix BIOS
F2 ó Ctrl-Alt-Esc
F1
Del ó F1 ó F2
Ctrl.-Alt-Esc, ó Del
Esc
Ctrl-Alt-Ins y luego Ctrl-Alt-Del
Ctrl-Alt-Esc ó Ctrl-Alt-S ó Ctrl-Alt-Ins
ó F1 ó F2 ó Ctrl-S
De acuerdo a la modernidad de los equipos, se tiene:
EQUIPOS VIEJOS
EQUIPOS MODERNOS
Ctrl + Alt + Esc
Ctrl + Alt + Ins
Ctrl + Alt + Enter
Ctrl + Alt + S
PAGE UP KEY
PAGE DOWN KEY
F1
F2
ESC
DEL
De acuerdo a la marca del equipo se tiene:
MARCA EQUIPO
Acer
Ast
Compaq
CompUSA
Cybermax
Dell
Fortiva 5000
13
COMBINACIÓN DE TECLAS
F1 ó F2 ó Ctrl+Alt+Esc
Ctrl+Alt+Esc, Ctrl+Alt+Del
F1 ó F10 cuando el cursor esté titilando en la esquina
superior de la pantalla
Del
Esc
F1 ó F2 ó F3 ó Del ó Ctrl+Alt+Enter ó Fn+F1
Ctrl+Alt+A
Tomado de https://iomega-eu-en.custhelp.com/cgi-bin/iomega_eu_en.cfg/php/enduser/std_adp.php?p_faqid=673 y
http://www.michaelstevenstech.com/bios_manufacturer.htm
Gateway 2000
Hewlett Packard
IBM
IBM algunosPS/2s, como 75
y 90
IBM modelos antiguos
IBM PS/2
IBM PS/2 con partición de
referencia
Micron
NEC
Olivetti PC Pro
Packard Bell
Seanix
Sharp Laptop 9020
Sony
Sony VAIO
Tandon
Tiger
Toshiba
Toshiba Laptops (algunos)
Zenith
Otras posibilidades
F1 ó F2 ó Ctrl+Alt+S
F1 ó F2 ó Esc
F1 ó F2
Ctrl+Alt
Mantener presionados ambos botones del mouse
CTRL+ALT+INS después de CTRL+ALT+DEL
Ins
F1, F2, ó Del
F2
Shift+Ctrl+Alt + “NumericPadDel”
F1 ó F2 ó Del
Del
F2
F3 mientras está encendiendo el equipo, luego F2 ó F1
F2, F3
Ctrl+Shift+Esc ó Ctrl+Alt+Esc
Del
Esc ó F1
Toshiba Utility
Ctrl-Alt-Ins
Ctrl+Esc ó Ctrl+Alt y +
5.
ALMACENAMIENTO DE DATOS
CINTA MAGNÉTICA
La unidad de cinta o unidades DAT (Digital Audio Tape, Cinta Digital de Audio) es un
dispositivo de acceso secuencial, esto quiere decir que no se puede saltar sobre la
superficie del cassette como en los discos.
La cinta magnética es frecuentemente usada para respaldar el contenido de las
unidades de disco duro, además, es muchas veces el medio elegido para almacenar
archivos grandes que se leen y procesan de manera secuencial.
Funcionamiento
Si se desea acceder a algún registro se debe primero pasar por los primeros registros
hasta llegar al deseado. Debido a que se debe acceder secuencialmente; es muy difícil
leer y escribir en una misma cinta.
Para almacenar los datos en una cinta magnética, estos se guardan en forma de
pequeñas marcas en el material magnetizable que cubre una cara de la cinta de
plástico. La superficie recubierta de la cinta se divide en columnas verticales (o
cuadros) e hileras horizontales llamadas canales o pistas.
Dado que cualquier cinta magnética es un medio continuo, la forma de identificar
registros individuales en cada cinta es el uso de espacios en blanco llamado separación
entre registros, los cuales se crean automáticamente al grabar los datos en la cinta.
Cuando se leen los datos desde un registro de una cinta en movimiento al procesador,
la cinta se detiene al llegar a un espacio. La cinta permanece inmóvil hasta que se
termine de procesar el registro y a continuación se mueve otra vez para pasar el
siguiente registro al computador. El procedimiento se repite hasta que se procesa todo
el archivo. Si la cinta contiene un gran número de registros muy cortos y si cada uno de
los registros esta separado por medio de una separación entre registros es posible que
mas de la mitad de la cinta este en blanco y que se interrumpa constantemente el
movimiento de la cinta. Para evitar esta situación ineficiente, es posible unir varios
registros cortos para formar un bloque de cinta.
DISCOS FLEXIBLES
Este es un dispositivo de almacenamiento secundario, que permite realizar en forma
sencilla el intercambio de información entre computadores. Es blando y puede doblarse
fácilmente de ahí el nombre de disco flexible. Los tamaños más conocidos son: el de 8",
el de 5¼ " y el de 3½ ".
Dentro de la unidad de disco, un motor hace girar el disco rápidamente, los datos se
graban en las pistas de la superficie del disco en movimiento y se leen de esa superficie
por medio de una cabeza de lect/esc.
Cuando se introdujeron los discos flexibles solo podía utilizarse una cara del disco. Por
lo cual los discos de 5¼ ", tenían una capacidad de 360 Kb y los de 3½ " de 720 Kb,
pero conforme fue perfeccionándose la tecnología, se aumentó la capacidad de
almacenamiento, gracias a la posibilidad de utilizar las dos caras del disco y del
aumento en la densidad de grabación, logrando 1.2MB (en discos de 5¼ ") y 1.44 MB.
(en discos de 3½ ")
CD-ROM
A partir del éxito que se obtuvo dentro de la electrónica con la producción de disco
compacto, se dio origen en el campo de la informática a un dispositivo que se proyecto
desde su inicio para solo lectura de datos digitales dándole el nombre de CD ROM.
Ante todo digamos que el CD ROM, significa según sus iniciales Compact Disk-Read
Only Memory (Disco Compacto de solo Lectura), equivalente a almacenamiento de
datos permanentes no modificables, cuya capacidad permite almacenar grandes
cantidades de información en forma digital.
El material del que esta hecho un CD ROM es policarbonato, una fibra plastificada
resistente, también utilizada en la fabricación de ventanas contra balas y cascos
protectores. Sus características físicas son: 120 mm. de diámetro, 1.2 mm de grosor y
un orificio central de 15 mm de diámetro
El CD ROM tiene una capacidad de almacenamiento de 650, 700, 800 y 900 Mbytes
dependiendo de la marca y modelo del fabricante
Su principal ventaja es que el método de grabación es óptico, por lo que no hay
contacto físico entre la cabeza lectora y el disco en consecuencia no existe rozamiento
alguno teniendo así menor desgaste y mayor seguridad en los datos.
Su principal desventaja es que el acceso es secuencial, es decir, la búsqueda se
efectúa a lo largo de toda la grabación en espiral por lo que la recuperación de datos es
más lenta.
En la actualidad, un tipo muy utilizado de CD-ROM es el CD-RW, el cual permite
almacenar y borrar información un sin número de veces.
DISCOS DUROS
Como su nombre lo dice, son sólidos, porque están construidos sobre un disco grueso
de aluminio. Un disco duro posee un material magnético de mejor calidad para poder
disponer de un mayor número de pistas y sectores por pista, además que sobre el
montaje pueden tenerse uno, dos o más discos, cada uno con sus propias cabezas.
El disco duro se diferencia del disco flexible en que el primero normalmente está fijo en
el computador y no es transportable. Cada disco de la unidad tiene sus dos lados
recubiertos por una fina capa de óxido metálico sensible al magnetismo, usualmente
cromo o níquel.
Al igual que los discos flexibles, los discos duros están formados por pistas o tracks
(pistas concéntricas invisibles a lo largo de las cuales se graban los pulsos magnéticos),
las cuales a su vez se subdividen en sectores.
SISTEMAS DE ARCHIVOS
Son los algoritmos y estructuras lógicas utilizados para poder acceder a la información
que tenemos en el disco. Cada uno de los sistemas operativos crea estas estructuras y
logaritmos de diferente manera independientemente del hardware.
El desempeño de nuestro disco duro, la confiabilidad, seguridad, capacidad de
expansión y la compatibilidad, estará en función de estas estructuras lógicas.
Fat12:
Es el sistema de archivos de DOS, y es con el que formateamos los disquetes. Fue muy
utilizado en las primeras PCs.
Fat16:
Sistema de archivos utilizado con Windows en sus primeras versiones.
Entre sus
mayores limitaciones era el no permitir particiones mayores a 2 GB y el no usar nombre
largos en los archivos, sólo 8 caracteres.
Fat32:
Fue utilizado a partir de 1997, adoptado principalmente desde Windows 98Se llamo
Fat32, por que utiliza números de 32 bits para representar a los clusters en lugar de los
16 en los sistemas anteriores.
NTFS:
Especialmente creado para usarlo en Windows NT, aunque actualmente se utiliza
también en Windows 2000 y Windows XP. Su propósito era satisfacer la demanda y
necesidades de de seguridad y eficacia para servidores y otras aplicaciones en red. No
tiene limitaciones de tamaño clusters y en general en el disco. Una ventaja de este
sistema de archivos es que tiene un sistema antifragmentación.
Ext2 y Ext3:
Estos sistemas de archivos son utilizados ampliamente en los sistemas operativos
Linux y trabajan de manera totalmente distinta a los utilizados por Windows (FAT,
FAT32, NTFS). Las particiones del disco se colocan en el directorio raíz. Podemos
incluso tener diferentes particiones y cada una de ellas tener su propio sistema de
archivos.
PARTICIONES
Consiste en dividir un disco duro en uno o más fraccionamientos lógicos que se
comportan cada uno como si fuesen un disco real e independiente del resto. En los File
Systems utilizados por los sistemas operativos Windows (FAT, FAT32, NTFS), a cada
unidad se le identifica con una letra, siendo la unidad C la partición primaria o principal.
Por medio del programa "FDISK" del DOS/WINDOWS, o de otros programas utilitarios
(algunos de ellos mucho más completos), se puede crear las particiones del disco y
definirlas como primaria, extendida o lógica
Cuando tenemos una sola partición en nuestro disco se dice que es una partición
primaria, para crear nuevas secciones o unidades en el disco duro accesible al sistema
operativo, necesitamos una partición extendida. (Otros sistemas operativos como linux,
permiten definir hasta 4 particiones primarias). Por ejemplo si tenemos un disco con
capacidad de 20 GB y queremos dividirlo en tres partes una de 12 GB, otra de una de 2
GB y otra de 6 GB, debemos crear una partición primaria de 12 GB en la cual residirán
los archivos del sistema operativo y luego una extendida de 8 GB. En esta última
tendremos que crear dos particiones lógicas una de 2 GB y otra de 6 GB.
MBR
El Master Boot Record (MBR) es un pequeño programa que es ejecutado en cada Inicio
del sistema operativo y se encuentra ubicado en el primer sector absoluto (Track 0,
head 0, sector 1) del disco duro. Este programa busca la tabla de particiones para
transferirla al Sector de Arranque (Boot).
El MBR está compuesto por código ejecutable y las entradas de la Tabla de Particiones.
Offset
+00h
+1BEh
+1CEh
+1DEh
+1EEh
+1FEh
Estructura del Master Boot Record
Naturaleza
Código ejecutable
1a entrada de tabla de particiones
2a entrada de tabla de particiones
3a entrada de tabla de particiones
4a entrada de tabla de particiones
Marcador ejecutable (AA55h)
Tamaño
Variable
16 bytes
16 bytes
16 bytes
16 bytes
2 bytes
Los virus que infectan al Master Boot Record, por lo general lo reemplazan con su
código viral e inutilizan en forma lógica el disco duro, haciendo que el usuario afectado
tenga que formatear y cargar nuevamente su Sistema Operativo y los demás
programas, a menos que cuente con un disquete de emergencia. Debido a que el MBR
se ejecuta cada vez se inicia el sistema, este clase de virus son de extremadamente
peligrosidad.
6.
LA COMUNICACIÓN CON EL PC
PUERTOS SERIALES
La historia de las comunicaciones seriales comienza a la par del lenguaje de
comunicación en la historia del hombre, en la que fonemas, símbolos y ademanes son
proferidos uno después de otro en una secuencia que con ciertas reglas tiene un
sentido y un significado, que es el concepto subyacente en las comunicaciones seriales
para la transferencia de datos de un emisor a un receptor un bit a la vez a través de una
línea sencilla o un circuito.
La implementación de las comunicaciones seriales para la transmisión de datos es una
evolución del telégrafo, en la cual para fines prácticos de la comunicación de datos
digitales, el puerto serial toma 8, 16 o 32 bits paralelos del transporte de datos de la
computadora o del dispositivo y los convierte en un flujo serial de 8, 16 o 32 bits,
haciendo el proceso inverso durante la recepción.
El sistema de comunicación serial fue adoptado durante los años 60s.
Los puertos seriales son aquellos que transmiten y reciben información bit a bit, tales
como: los puertos COM, el puerto infrarrojo, los puertos USB.
En teoría un enlace serial podría requerir de sólo dos cables, una línea de señal y una
tierra, para mover la señal serial de una locación a otra. Pero en la práctica esto no
funciona correctamente al paso del tiempo ya que algunos bits pueden perder el nivel
de la señal, alterando el resultado final. Un bit faltante en la terminal de recepción
puede provocar que todos los bits siguientes sean cambiados o recorridos, resultando
en datos incorrectos al convertirlos de regreso a una señal paralela. Por lo tanto, para
conseguir una comunicación serial confiable se deben de prevenir estos errores de bit
que pueden emerger en varias formas distintas.
En un principio el control de software de los puertos seriales resultaba en una gran
sobrecarga para el procesador, hasta los 19200 bps, ya que los transportes de datos
estaban limitados a 8 y 16 bits. Con la llegada de los transportes de datos MCA, EISA,
VLBus y PCI, llegó la ventaja de la posesión de transporte de datos y el acceso directo
a memoria elevando la velocidad de transmisión eliminando la sobrecarga del
procesador.
Al eliminar la utilización del BIOS y controlando el puerto directamente se comenzaron a
obtener velocidades de 115200 bps y superiores, especialmente con la llegada de
puertos inteligentes que por sí mismos pueden controlar la comunicación.
La comunicación serial por módem telefónico sobre líneas de voz, alcanza únicamente
hasta los 56,000 bps debido a restricciones técnicas de la propia línea de voz.
Comunicación síncrona y comunicación asíncrona
Comunicación síncrona es aquella en donde los dispositivos de envío y recepción de la
comunicación son sincronizados utilizando un reloj que cronometra con precisión el
tiempo que separa cada bit. Al verificar el tiempo el dispositivo receptor puede
determinar si un bit se ha perdido o si un bit extra, usualmente inducido eléctricamente,
ha sido introducido en el flujo de bits. Si cualquiera de los dispositivos pierde la señal de
tiempo, la comunicación es terminada.
El otro método, el utilizado en las computadoras, consiste en agregar marcadores
dentro del flujo de bits para ayudar a seguir cada bit de datos. Al introducir un bit de
inicio que indica el inicio de un corto flujo de datos, la posición de cada bit puede ser
determinado cronometrando los bits a intervalos regulares. Enviando bits de inicio al
comienzo de cada flujo de 8 bits, los dos sistemas pueden no estar sincronizados por
una señal de reloj, lo único que es importante es que ambos sistemas estén
configurados a la misma velocidad. Cuando el dispositivo receptor de la comunicación
recibe el bit de inicio comienza un temporizador de corto tiempo. Al mantener los flujos
cortos no hay suficiente tiempo para que el reloj salga de sincronía. Este método es
conocido como comunicación asíncrona debido a que las terminales de la comunicación
no están sincronizadas por una línea de señal.
Todo el esquema de comunicación serial cambió con la introducción del Bus Serie
Universal, mejor conocido por las siglas de su nombre en inglés USB por Universal
Serial Bus en 1996, que en sí ya deja de ser un puerto convirtiéndose en un bus con
todos los beneficios de esto.
La mayoría de los equipos que implementan puertos seriales, basados en el estándar
RS-232 utilizan un conector DB-25 aún cuando la documentación original del estándar
no especifica un conector en especial, y la mayoría de las computadoras comenzaron a
utilizar el conector DB-9 dado que 9 son los conectores que se requieren para la
comunicación asíncrona.
PUERTO PARALELO
Es el que típicamente utiliza la impresora, aunque sirve para otro tipo de aplicaciones.
Este puerto es más rápido que el serie, pero en cambio su longitud es muy pequeña,
encontrándose en la práctica que a una distancia de 10 metros se presenten problemas
en la comunicación. Además es muy sensible a cualquier interferencia.
El puerto paralelo de un PC posee un conector de salida del tipo DB25 hembra cuyo
diagrama y señales utilizadas podemos ver en la siguiente figura:
UNIVERSAL SERIAL BUS (USB)
USB es una nueva arquitectura de bus desarrollado por un grupo de siete empresas
Compaq, Digital Equipment Corp, IBM PC Co., Intel, Microsoft, NEC y Northern
Telecom que forma parte de los avances plug-and-play y permite instalar periféricos sin
tener que abrir la máquina para instalarle hardware, es decir, basta con que se
conectes dicho periférico en la parte posterior del computador, tal y como se conecta un
mouse, unos parlantes o una impresora.
Otra característica importante es que permite a los dispositivos trabajar a velocidades
mayores, en promedio a unos 12 Mbps (USB 1.1), es decir, más o menos de 3 a 5
veces más rápido que un dispositivo de puerto paralelo y de 20 a 40 veces más rápido
que un dispositivo de puerto serial, de hecho los puertos seriales o paralelos están muy
cerca de jubilarse ya que entre los periféricos de tipo USB altamente utilizados están
mouse e impresora además de teclados, escáners, bocinas, joysticks, módems,
cámaras digitales, teléfonos y sistemas para identificación de huellas digitales.
USB 2.0 es un avance en la velocidad de transferencia de información sobre el USB
convencional, puesto que la incremento 40 veces; es decir, funciona a 480MBps.
Es muy importante tener en cuenta que todos los periféricos que se conecten al puerto
USB (máximo 127 usando concentradores o hubs USB) consumen una única IRQ.
TECNOLOGIA FIREWIRE
En el avance incesante del mundo hacia el estilo de vida digital, una de las tecnologías
imprescindibles ha sido el estándar serial de entrada/salida (E/S) IEEE 1394, también
conocido como FireWire (Apple), iLink (Sony), y DV (Vídeo Digital, usado en las
videocámaras). Este bus multimedial de alta velocidad ha proporcionado un modo
fiable, rentable y eficaz de trasladar archivos de sonido e imágenes y grandes
volúmenes de datos. Diseñado para facilitar el establecimiento de redes y la
transferencia de grandes cantidades de distintos tipos de datos digitales entre equipos y
usuarios, FireWire se ha convertido en un elemento indispensable para la industria de la
electrónica de consumo y la informática personal.
El aporte de Apple al estándar
FireWire ha merecido el reconocimiento de la Academia de las Artes y Ciencias de la
Televisión Estadounidense, que ha otorgado a la compañía un Emmy por la creación
del estándar, que tiene numerosas aplicaciones en el sector de la televisión. En cuanto
a las aplicaciones en informática, el vicepresidente de Intel, Anand Chandrasekher
pronostica que el vídeo digital y FireWire serán cada vez más importantes en los PC.
Cuando se introdujo originalmente el estándar FireWire en 1995, supuso una revolución
sin precedentes. Ofrecía una anchura de banda treinta veces mayor que el estándar
para periféricos Universal Serial Bus (USB) 1.1, y hacía posible una auténtica legión de
nuevas prestaciones y aplicaciones. Ahora una segunda versión del FireWire, conocida
como Fireware 800 ofrece al usuario velocidades de transferencia de 800 Mbps, el
doble de los 400 Mbps del FireWire original. Todas las versiones de FireWire ofrecen
conexión plug and play, que permite al usuario empezar a utilizar el dispositivo
inmediatamente después de conectarlo. También permiten conectar hasta 63
dispositivos a un solo bus y establecer conexiones peer-to-peer, por lo que pueden
conectarse al mismo tiempo varios ordenadores y varios periféricos FireWire a un
mismo
bus.
FireWire
admite
también
transmisiones
tanto
isocrónicas
como
asincrónicas, garantizando la entrega de los datos en tiempo real y evitando el riesgo
de que los datos lleguen en orden incorrecto o con retrasos.
Además del incremento de velocidad, otra de las mejoras decisivas de Fireware 800 es
la admisión de mayores distancias de cable. Si se usan cables fabricados con fibra
óptica de calidad profesional y ambos dispositivos están conectados mediante un hub
FireWire 800, pueden utilizarse cables de hasta 100 metros.
FireWire 800 frente a USB 2.0
USB 2.0 tiene una tasa de transferencia máxima de 480 Mbps, por lo que en teoría
supera los 400 Mbps de FireWire 400. Sin embargo, debido a las diferencias en los
protocolos de transmisión, esa superioridad no se traslada a la práctica en todos los
periféricos. Pero FireWire 800 duplica claramente esa velocidad teórica y proporciona
inmediatamente un mejor rendimiento usando una tecnología de disco moderna.
Además, FireWire es más adecuado para las transferencias de datos isocrónicas (en
las que el factor tiempo es esencial), que son las requeridas por el vídeo de alta
definición.
MEDIOS INALAMBRICOS
PUERTOS INFRARROJOS
El 28 de Junio de 1993, 50 compañías relacionadas con la computación decidieron que
era tiempo de desarrollar comunicación inalámbrica para computadoras, Formando la
Asociación de Desarrolladores de Infrarrojo (Infrared Developers Association, IrDA).
La idea detrás del IrDA era crear un estándar para utilizar rayos infrarrojos para unir una
computadora y otros periféricos. Hasta este momento en la historia los rayos infrarrojos
habían sido utilizados únicamente en controles remotos para dispositivos y algunas
computadoras portátiles; sin embargo cada uno de los fabricantes creaba su propio
esquema de comunicación haciendo poco compatible la comunicación entre
dispositivos.
Los fabricantes de computadoras comenzaron a tomar ventaja de la tecnología IrDA a
principio de a década de 1990 cuando las computadoras tipo lap-top se comenzaron a
hacer populares. La tecnología IrDA utilizada en ese entonces estaba en desarrollo, por
lo cual muchas veces la tecnología IrDA varia de fabricante a fabricante. Estas
variaciones causaban conflictos con otros dispositivos.
Para finales de Junio de 1994, IrDA estableció el primer estándar, conocido como IrDA
versión 1.0 que era básicamente una forma óptica del puerto de comunicaciones RS232. En Agosto de 1995 IrDA ajustó el estándar para comunicaciones infrarrojas
extendiendo la velocidad de comunicación a 4 megabits por segundo.
En 1997 los miembros de IrDA se reunieron en la Comdex, en Las Vegas, para
promover nuevos dispositivos inalámbricos para el mercado de consumo y artilugios de
comunicaciones que tomaban ventaja de la tecnología IrBUS.
IrBus es el nombre original para los estándares de la IrDA, que permitía comunicación
bidireccional entre dispositivos separados hasta por 24 pies, haciendo posible la
creación de palancas de mano, tapetes de juegos y unidades de disco. IrBus también
era capaz de comunicación simultánea con dos anfitriones y era capaz de soportar
hasta 8 dispositivos. También se especulaba que futuros dispositivos IrBus pudieran ser
integrados a objetos domésticos como hornos de microondas.
A principio de 1998 los fabricantes comenzaron a liberar la tecnología IrBus integrada
en la circuitería de entrada - salida de sus sistemas para permitir que la tecnología IrDA
fuera utilizada, aunque fueron reticentes para incorporar un puerto IrDA en
computadoras de sobremesa debido al costo extra, que era aproximadamente de
US$10.00 por el transceptor, pero lo hicieron disponible como accesorio a través del
puerto RS-232.
La tecnología infrarroja se hizo cada vez más popular en las computadoras portátiles,
así como asistentes personales digitales y computadoras de mano. Sejin America, Inc;
Microsoft; HP; y Sharp comenzaron a fabricar accesorios inalámbricos IrDA tales como
teclados, ratones, palancas de mando, tableros de juegos y controles remotos que
aprovecharan la tecnología IrBus en computadoras personales de escritorio. La mayoría
de estos accesorios estuvieron disponibles a mediados de 1998, y debido a la limitada
utilización de tecnología IrBus en el mercado, estas chácharas tecnológicas no tuvieron
mucho éxito en el mercado.
BLUETOOTH
Bluetooth es una tecnología de radio que permite conectar distintos dispositivos,
teléfonos móviles, PDAs, dispositivos periféricos o componentes del sistema como el
teclado o el ratón y portátiles entre sí.
Bluetooth se diferencia de IrDA en algunos aspectos importantes: por una parte, los
distintos dispositivos no deben “verse” necesariamente; por otra, varios dispositivos
pueden agruparse y formar redes completas. No obstante, actualmente sólo pueden
alcanzarse tasas de datos de hasta 720 Kbps como máximo (al menos en la versión
actual 1.2). En teoría, con Bluetooth es posible establecer conexiones entre dispositivos
separados por una pared. En la práctica, esto depende en gran medida de la pared y de
la clase de dispositivo. Esta última determina el alcance máximo de la transmisión, que
varía de 10 a 100 metros dependiendo de cuál de las tres clases se utilice.
7.
PERIFÉRICOS
TECLADOS
El teclado es el dispositivo más común de entrada de datos. Se lo utiliza para introducir
comandos, textos y números. Estrictamente hablando, es un dispositivo de entrada y de
salida, ya que los LEDs también pueden ser controlados por la máquina.
Consta de una matriz de contactos, que al presionar una tecla, cierran el circuito. Un
microcontrolador detecta la presión de la tecla, y genera un código. Al soltarse la tecla,
se genera otro código. De esta manera el chip localizado en la placa del teclado puede
saber cuándo fue presionada y cuándo fue soltada, y actuar en consecuencia. Los
códigos generador son llamados Códigos de barrido (Scan code, en inglés).
Una vez detectada la presión de la tecla, los códigos de barrido son generados, y
enviados de forma serial a través del cable y con el conector del teclado, llegan a la
placa madre de la PC. Allí, el código es recibido por el microcontrolador conocido como
BIOS DE TECLADO. Este chip compara el código de barrido con el correspondiente a
la Tabla de caracteres. Genera una interrupción por hardware, y envía los datos al
procesador.
Existen los siguientes tipos de teclado:
•
Tipo XT de 83 teclas: Obsoleto.
•
Tipo AT de 101/102 teclas
•
Tipo Windows 95/98, 104 teclas. Se le agregaron al teclado AT tres teclas
especiales que llaman a los menús contextuales del Windows.
•
Tipo ergonómico: Con un formato diferente, con mayor comodidad para el
usuario.
Existen dos tipos de conectores para los teclados:
•
Conector DIN: grande, de 5 pines.
•
Conector Mini DIN: chico, de 6 pines. También conocido como conector PS/2, ya
que el modelo PS/2 de IBM fue el primero que tuvo este tipo.
En caso de que el conector de la placa madre no sea el mismo que el del teclado,
existen adaptadores de DIN a Mini DIN, y viceversa, ya que eléctricamente todos los
teclados envían señales en el mismo formato.
MONITORES
Es la pantalla en la que se ve la información suministrada por el computador. En la
mayoría de los casos se trata de un aparato basado en un tubo de rayos catódicos,
aunque en el caso de los computadores portátiles y algunos monitores modernos, es
una pantalla plana de cristal líquido.
Al número de puntos que puede representar el monitor en la pantalla se le llama
resolución, y las más comunes son 640*480, 800*600 y 1024*768
TARJETAS GRAFICAS
La tarjeta de video es la encargada de transmitir la información gráfica que debe
aparecer en la pantalla. Realiza principalmente dos operaciones: interpretar los datos
que le llegan del procesador, ordenándolos y calculando para poder presentarlos en
pantalla en forma de un rectángulo mas o menos grande, compuesto de puntos
individuales de diferentes colores; y la otra función es la de coger la salida de datos
digitales resultante del proceso anterior y la transforma en una señal analógica que
pueda entender el monitor.
VELOCIDAD DE REFRESCO: El refresco es el número de veces que se dibuja la
pantalla por segundo. Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que
la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar
cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el
mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de
esta cifra los ojos pueden sufrir bastante y tener problemas visuales.
TARJETAS DE MODEM
MODEM es un acrónimo del término MOdulador-DEModulador; es decir, que es un
dispositivo que transforma las señales digitales del computador en señal telefónica
analógica y viceversa, con lo que permite al computador transmitir y recibir información
por la línea telefónica.
Existen varios tipos de modems;
•
Internos: Consisten en una tarjeta de expansión sobre la cual están dispuestos
los diferentes componentes que forman el módem. Existen para diversos tipos de
conector: ISA, PCI, AMR. La principal ventaja de estos módems reside en su
mayor integración con el computador, ya que no ocupan espacio sobre la mesa y
toman su alimentación eléctrica del propio equipo. Además, suelen ser algo más
barato debido a carecer de carcasa y transformador, especialmente si son PCI.
Como desventaja, son algo más complejos de instalar y la información sobre su
estado sólo puede obtenerse mediante software.
En la actualidad se consiguen con frecuencia los modems software, HSP o
Winmodems, en los cuales se han eliminado varias piezas electrónicas,
generalmente chips especializados, de manera que el microprocesador del
computador debe suplir su función mediante software.
La ventaja resulta
evidente: menos piezas, más baratos. Las desventajas, que su rendimiento
depende del número de aplicaciones abiertas y que el software que los maneja
sólo suele estar disponible para Windows 95/98, de ahí el apelativo de
Winmódems. Evidentemente, resultan poco recomendables pero son baratos.
•
Externos: son similares a los anteriores pero metidos en una carcasa que se
coloca sobre la mesa o el computador. La conexión con este se realiza
generalmente mediante uno de los puertos serie o "COM", aunque ya existen
modelos para puerto USB, de conexión y configuración aún más sencillas.
La ventaja de estos módems reside en su fácil transportabilidad entre
computadores, además de que podemos saber el estado el módem (marcando,
con/sin línea, transmitiendo...) mediante unas luces que suelen tener en el
frontal. Pero su principal desventaja es que son un aparato más que necesitan un
enchufe para su transformador, además de ser más costosos.
•
Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es
similar al de una tarjeta de crédito y sus capacidades pueden ser igual o más
avanzadas que en los modelos normales.
La velocidad del MODEM es sin duda el parámetro que mejor lo define, midiéndose
esta baudios por segundo o lo que equivale a bits por segundo (no bytes). Ahora, si
tenemos en cuenta que un byte está compuesto de 8 bits; por tanto, un módem de
56.000 bps transmitirá en las mejores condiciones un máximo de 7.000 bytes por
segundo, pero atenuantes como la saturación de las líneas, la baja capacidad que
proporcione el proveedor de acceso a Internet, la mala calidad del módem o de la línea
(ruidos, interferencias, cruces...) suelen hacer que la velocidad media efectiva sea
mucho menor, de 4.000 bytes/s.
TARJETA DE RED
Es una tarjeta de circuitos integrados que se inserta en uno de los zócalos de
expansión de la placa base y cuya función es conectar el ordenador con la estructura
física y lógica de la red informática a la que pertenece. De esta manera, todos los
computadores de la red podrán intercambiar información conforme a los protocolos
establecidos en la misma.
Existen distintos tipos de especificaciones de red, definidos según estándares de la
IEEE; para cada uno de ellos se emplean distintos tipos de tarjetas y distintos modos de
conexión entre computadores, lo que tiene consecuencias en la velocidad de
transmisión de la información que propician. Una de las tarjetas de red más empleadas
es la de tipo Ethernet, que en sus distintas variantes, puede permitir transmisiones
desde algunos miles de bits por segundo hasta un gigabit por segundo.
IMPRESORAS
La impresora es el periférico que el computador utiliza para presentar información
impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e
incluso antes que los monitores, siendo durante años el método más usual para
presentar los resultados de los cálculos en aquellos primitivos computadores, todo un
avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.
La velocidad en una impresora se suele medie en ppm (páginas por minuto) aunque los
fabricantes siempre calculan este parámetros de forma totalmente engañosa; por
ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se
advierte de que son páginas con máximo un 5% de superficie impresa, en la calidad
más baja, sin gráficos y descontando el tiempo de cálculo del computador.
Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que
en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo
puerto paralelo, si existiera más de uno). Como el puerto paralelo original no era
demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el
EPP, que son más rápidos y añaden bidireccionalidad a la comunicación (es decir, que
la impresora puede "hablarle" al PC, lo que antiguamente era imposible) al tiempo que
mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto
paralelo (estándar, ECP, EPP...) se suele seleccionar en la BIOS del computador.
Otras formas de conectar una impresora es mediante un conector USB (rápido y
sencillo), mediante un dispositivo de infrarrojos (muy útil en el caso de portátiles) o
directamente conectados a una red (y no a un computador conectado a la misma) en el
caso de grandes impresoras para grupos.
8.
HERRAMIENTAS DE DIAGNOSTICO Y MANTENIMIENTO
ANTI-ESPIAS
Se considera spyware o programas espía a las aplicaciones informáticas que recopilan
información personal del usuario, como, por ejemplo:
•
El software que está instalado en la PC.
•
Cuáles son los hábitos de uso de Internet.
•
Páginas visitadas.
•
Passwords, etc.
Posteriormente utilizan esta información, en ocasiones para transmitirla a terceras
compañías, tales como empresas de publicidad, u otras interesadas en dichos datos.
Los programas espías (spyware, en inglés) ya desplazaron a los virus en el ranking de
los “malware”, los programas, documentos o mensajes susceptibles de causar
perjuicios a los usuarios de sistemas informáticos. Según un informe de la empresa de
seguridad Panda Software, el 84 por ciento del malware instalado en las computadoras
de todo el mundo es spyware.
Los spyware presentan una serie de características que impiden su correcta detección y
que les permite instalarse en un gran número de PC durante largos períodos de tiempo:
•
Utilizan sistemas de camuflaje casi perfectos. Normalmente, se instalan en el
equipo junto con algún tipo de aplicación: un cliente de alguna aplicación P2P,
alguna utilidad para el disco duro.
•
Los nombres de los archivos que se corresponden con este tipo de programas
no suelen dar una idea de su verdadera naturaleza, por lo que pueden pasar
desapercibidos entre el resto de ficheros de una aplicación. Al no tratarse de
virus, ni utilizar ninguna rutina que pueda relacionarlos con ellos, los programas
antivirus no los detectan, a no ser que hayan sido programados específicamente
para ello.
•
Los programas espía o spyware pueden ser detectados gracias a sus efectos,
que se traducen en un consumo de recursos elevado y, por lo tanto, una
ralentización del PC, un gran consumo de ancho de banda de conexión a
Internet o la pérdida total de dicha conexión, así como la inestabilidad del
sistema. Además, también suelen cambiar las configuraciones de algunas
aplicaciones, como la página de inicio del navegador, o depositar iconos en el
escritorio.
Ahora que ya se sabe que es un programa espía y sus efectos en el PC, vamos a
mencionar los principales anti-espías (anti-spyware), que se pueden encontrar en la
red:
•
Ad-Aware SE: Este software es desarrollado por Lavasoft, una empresa alemana
con sede en Suecia que se encarga de escribir software de seguridad
principalmente. Es muy difundido por su alta efectividad a la hora de eliminar
spyware.
•
SpyBotS&D: Spybot - Search & Destroy puede detectar y eliminar software espía
de diferente tipo en el computador.
•
Spywareblaster: Es un programa antiespías que previene la instalación de
spyware basado en activeX, además bloquea la ejecución de tracking y cookies
en Internet Explorer y Mozilla Firefox y restringe las acciones de sitios web
potencialmente peligrosos.
ANTIVIRUS
Un virus informático es un programa de computadora que ocupa una cantidad mínima
de espacio en disco (para poder pasar desapercibido), se ejecuta sin conocimiento del
usuario y se dedica a autorreplicarse, es decir, hace copias de sí mismo e infecta
archivos, tablas de partición o sectores de arranque de los discos duros y disquetes
para poder expandirse lo más rápidamente posible, hasta que llega el momento de la
"explosión", es decir, el momento culminante que marca el final de la infección y cuando
llega suele venir acompañado del formateo del disco duro, borrado de archivos o
mensajes de protesta. No obstante el daño se ha estado ejerciendo durante todo el
proceso de infección, ya que el virus ha estado ocupando memoria en el computador,
ha ralentizado los procesos y ha "engordado" los archivos que ha infectado.
Ahora vamos a hablar de los principales antivirus que se encuentran actualmente y
mencionaremos muchos otros:
•
NORTON ANTIVIRUS: Este antivirus es quizás el más conocido mundialmente
por los usuarios de computadores, es eficiente y confiable a la hora de la
detección de los virus aunque algunas veces presenta problemas de fondo
cuando se trata de removerlos. Posee una interfaz amigable con el usuario. No
es de libre distribución por lo que para instalarlo se requiere comprar una
licencia. Es desarrollado por Symantec, una empresa estadounidense de
seguridad en informática.
•
F-PROT: Este antivirus de F-RISK software internacional tiene múltiples
versiones, es muy conocido por su sencillez y efectividad, siendo muy difundido
en la WEB. Tiene una versión libre para DOS que detecta y elimina
eficientemente las amenazas.
•
PANDA: Este antivirus es producido por Panda Software. Las versiones más
conocidas y recientes de este antivirus son el platinum y el titanium. Ambos son
fáciles de utilizar y son, como todos, interactivamente actualizables.
•
AVG: Producido por Grisoft, su versión libre es una de las mas populares y
utilizadas por los usuarios. Entre sus características principales se tiene que
cuenta con una interfaz gráfica sencilla de utilizar, provee de protección en el
arranque, protección en tiempo real y para correo electrónico.
•
STINGER: Es una utilidad usada para detectar y remover virus específicos. No
es un substituto para una protección antivirus completa, pero puede ser una
herramienta potente y completa para administradores y usuarios cuando se trata
de lidiar con un sistema infectado.
HERRAMIENTAS DE DIAGNOSTICO
Entre las principales herramientas de diagnóstico, se encuentran 2 incorporadas en
todas las versiones del sistema operativo Windows, Scandisk, utilizado para detectar y
en algunos casos reparar errores tanto de asignación como físicos en los diferentes
medios de almacenamiento. y Defrag, el cual corrige la fragmentación o segmentación
de archivos en un disco, reubicándolos en sectores contiguos del disco.
Pero además de estas herramientas, existen otras también muy importantes a la hora
de hacer un diagnóstico o reparación sencilla de nuestro sistema, entre ellas tenemos:
•
EVEREST: Everest Home Edition es una completísima herramienta que, en unos
pocos segundos, realiza un extenso y detallado análisis de tu PC, mostrando
prácticamente todos los aspectos del sistema referentes a hardware y software,
como procesador, placa base, memoria, sistema operativo, procesos activos,
DLL
en
uso,
servicios
en
ejecución,
carpetas
compartidas,
usuarios,
configuración de audio y vídeo, configuración de red local e Internet, software
instalado, etc. En cuanto se ejecuta se obtiene toda la información disponible a
través de una sencilla interfaz y mediante una clara estructura de árbol. En ésta
se clasifican los distintos elementos analizados, mostrando además enlaces al
sitio web del fabricante para mayor información y/o descarga de controladores.
•
SISOFT SANDRA: Utilidad de diagnósticos y pruebas para Windows.
Proporciona información sobre el hardware, el software, y todos los dispositivos
instalados en el sistema. Permite chequear información acerca de: CPU, BIOS,
administración avanzada de la energía, buses PCI y AGP, video, memoria
(Windows y DOS), unidades, puertos, teclado, Mouse, tarjeta de sonido,
impresora, dispositivos MCI, procesos, modulos OLE, volcados a CMOS, etc.
•
HDD REGENERATOR: Gracias a este programa es posible recuperar sectores
defectuosos de un disco duro sin perder la información que en ellos se
encuentre, a diferencia de otras aplicaciones, las cuales marcan estos sectores
como defectuosos y los “oculta” imposibilitando así la escritura o lectura en ellos,
perdiendo todos los datos que almacenaban.
UTILITARIOS
Winzip: El más popular manejador de archivos comprimidos ZIP para Windows. Incluye
un asistente para no tener que recordar las opciones de memoria.
WinRAR: Es otro importante compresor, cuya característica principal el uso del formato
RAR, de mayor rata de compresión, incluso en archivos multimedia. Además tiene
soporte para comprimir y descomprimir archivos en otros formatos.
KeyText: Excelente automatizador de tareas para Windows. Permite programar la
ejecución de cualquier tarea o programa con un simple y comprensible asistente. Se
ejecuta a la hora especificada, busca determinada ventana activa se encarga de hacer
los clics o presionar las teclas. Complicadas tareas cotidianas con programas de
cualquier tipo se hacen automáticamente con KeyText. Para más información visite la
página de MjMSoft
Macro Magic: Permite grabar macros para automatizar fácilmente cualquier proceso.
Imagine esas complicadas funciones de 6 teclas y 20 clicks, todas haciéndose solas,
dándole tiempos de espera a los programas con solo una combinación de 2 teclas o 1
doble click de mouse. Puede grabar hasta los movimientos exactos del ratón. Para más
información visite la página de Macro Magic
AutoMate: Automatiza completamente cualquier programa en Windows. Incluye un
Constructor de Macros incorporado, asistentes, una amplia gama de configuraciones
para hacer fácil cualquier automatización. La versión registrada incluye un lenguaje
script para tener un control total sobre cualquier aplicación. Para más información visite
la página de AutoMate Professional
Emergency Recovery System: Hace copias de resguardo de las partes críticas de
Windows así como los archivos que el usuario especifique. Tiene varias opciones para
ajustarse a cada backup y un sistema de rotación que le asegura que sus datos
guardados no tengan más de 3 a 7 días de antigüedad. Para más información visite la
página de Emergency Recovery System
Win Rescue: Programa para resguardar la configuración actual de Windows y en caso
de tener que reinstalarlo, podrá hacerlo en un par de minutos. Incluye un programa de
DOS que recupera Windows incluso si Windows no arranca. Para más información
visite la página de Win Rescue
Total Commander: El más completo de los manejadores de archivos para Windows.
Con todos los comandos del Norton Commander, copia y mueve archivos en 2do plano,
compresor interno en formato ZIP, soporte para archivos RAR, maneja nombres largos,
soporte multilenguaje, copia de .zip a .zip, cliente FTP incluido. Para más información
visite www.ghisler.com
Diskeeper Lite: Es un defragmentador para Windows. Puede defragmentar tanto FAT
como NTFS estando Windows en normal funcionamiento. Diskeeper realiza varios
pasos de optimización por cada sesión por lo que le permite, de forma segura,
defragmentar y consolidar el espacio libre del volumen. Cuando es usado regularmente
mantiene el rendimiento de Windows al máximo. Para más información visite la página
de Executive Software International
MemTurbo: Al igual que un disco rígido, la memoria RAM se fragmenta con el uso
continuo.
MemTurbo se encarga de defragmentar la memoria de Windows,
optimizando el sistema y haciendo que sus programas se ejecuten más rápido.
Además, MemTurbo tiene configuraciones especiales del cache de Windows
optimizadas para personas que utilicen muchos juegos, o que trabajen con aplicaciones
potentes e incluso aumenta el cache si tiene una grabadora de CD para que sea fluida
la información y no se vacíe el buffer. Ideal para computadoras que quedan toda la
noche encendida y no es posible reiniciarlas, tales como servidores.
Para más
información visite la página de MemTurbo
TWEAKI: Este software le permite cambiarle hasta 260 parámetros en configuraciones
del Windows, desde apariencia hasta funcionamientos internos. También permite crear
nuevos menús contextuales, siento visualizados con un click del botón derecho del
mouse, sobre un archivo o una carpeta.
ClipCache Plus: Graba todo lo que el usuario corte o copie al portapapeles de Windows
para luego administrar estos datos desde un cómodo icono en la barra del sistema.
Para mas información visite la página de Xrayz Software
FreeSpace: Es una innovadora utilidad que permite liberar espacio en disco de su PC
sin tener que desinstalar ni borrar nada. El usuario puede definir que archivos quiere
comprimir y que nivel de compresión. Una vez finalizado el proceso, los archivos
comprimidos se ven exactamente igual pero ocupan mucho menos espacio y sin
interferir con el normal funcionamiento de Windows. Para más información visite la
página de Mijenix Corp.
Descargar