NOTAS PARA EL CURSO ENSAMBLE DE MICRO COMPUTADORES Diego Armando Londoño Tobón Departamento de Recursos de Apoyo e Informática D.R.A.I Facultad de Ingeniería Universidad de Antioquia Medellín 2005 Versión 0.1 Abril de 2005 1. PLACAS BASE (MOTHERBOARDS) Es la placa de circuitos más grande existente en un computador. Se la reconoce porque usualmente está en el fondo o espalda de los gabinetes del PC. En ella se insertan entre otros, el procesador, la memoria, los conectores IDE, las tarjetas PCI, la tarjeta AGP y la BIOS. Es comúnmente conocida con varios nombres: placa base, placa principal, placa madre Motherboard y mainboard Dado que representa un organismo central, debemos comprender como funciona y como está distribuida a fin de diagnosticar acertadamente los problemas que se derivan de ella. 1.1. LOS BUSES Son el conjunto de líneas o caminos por los cuales los datos fluyen internamente de una parte a otra de la computadora (CPU, disco duro, memoria). Puede decirse que en las computadoras modernas los buses básicos son: a) El bus de datos o bus interno, es el que comunica los diferentes componentes con la CPU y la memoria RAM. Está formado por los hilos conductores que vemos en el circuito impreso de la placa. b) El bus de expansión, constituido por el conjunto de slots o ranuras en donde se insertan placas independientes de sonido, video, modem, etc. En el transcurso del tiempo se han desarrollado diferentes tipos de buses de expansión, aumentando cada vez su capacidad de transmisión: ISA (Industry Standard Architecture) desarrollado en 1981, solo trabaja con un ancho de banda de 16 bits, VESA (Video Electronics Standard Association) en 1992, trabaja a 32 bits, pero cayó rápidamente en desuso al aparecer el actual PCI, en 1992, cuyo ancho de banda actual es de 64 bits y es el que persiste en la actualidad, por ser una conexión de alto rendimiento entre el procesador y las tarjetas de expansión. Está diseñado para soportar grandes transferencias de datos, lo que supone grandes cargas eléctricas, que era una de las limitaciones de su antecesor, el bus local VESA. BUS PCI (Peripheral Component Interconnect) El bus PCI (Peripheral Component Interconnect - Interconexión de componentes periféricos) ha sido durante casi una década la interfaz de conexión dominante para arquitectura I/O - La topología de su bus compartido permite a los dispositivos PCI conectados arbitrarse entre ellos mismos para ganar el acceso privilegiado y total a la hora de transferir datos. Es una solución sencilla y con buena relación calidad /precio para satisfacer las necesidades de los dispositivos de I/O y de almacenamiento cuando hay sólo conectados unos pocos dispositivos. Los primeros buses PCI tenían una capacidad de transferencia de 132 MB/seg obtenida de sus 33Mhz de velocidad y de los 32 bits de datos. ((32/8) bytes * 33 Mhz). Esto en principio era suficiente para casi todo hasta que aparecieron las primeras tarjetas de vídeo en 3 dimensiones. En mayo de 1993 se da a conocer el bus PCI 2.0 que daba soporte al procesador Pentium con un tamaño de datos de 64 bits, aunque también soportaba 32 bits. Dependiendo de la velocidad puede obtener una capacidad de transferencia de 264 MB/s (a 33 Mhz.) o de 528 MB/s (a 66 Mhz). Este bus es utilizado generalmente en Servidores. La aparición en 1998 de un nuevo chipset, el 44OBX, con bus de sistema a 100 MHz de frecuencia, permitiendo procesadores más veloces, obligó la aparición del bus PCI 2.1 a 100 Mhz, el cual, con un tamaño de palabra de 64 bits se puede obtener una capacidad de transferencia de 800 MB/s teóricos, o con 32 bits se alcanzan 400 MB/s. Para aprovechar los 100 Mhz, esta especificación PCI permite que una de las ranuras trabaje a 66 Mhz simultáneamente con otra que lo haga a 33 Mhz. Todavía no se ha conseguido que una única ranura obtenga los 100 Mhz en exclusividad. La memoria RAM es la más afectada por la velocidad del bus PCI 2.1. La memoria de tipo EDO y sus predecesoras quedan fuera de juego, ya que sus tiempos de acceso estaban calculados para los 66 Mhz. La memoria RAM adecuada es una SDRAM de un tiempo de acceso menor de 10 nseg, equivalente a 100 Mhz, ó incluso memorias más veloces. Este tipo de bus también es utilizado generalmente en Servidores. A pesar de las mejoras a través de los años, con el objetivo de mantener la compatibilidad, en la actualidad la interfaz PCI más corriente utilizada en placas base comunes es PCI 32/33 (32bit. 33MHz), y el PCI 64bit es presentado para el mercado de tarjetas para servidor. Para mantener la compatibilidad con las tarjetas de ampliación ISA / EISA, algunos los chipsets facilitan una pasarela de conexión entre el bus PCI y el ISA / EISA. Por ello, es normal que en esta arquitectura aparezcan en una ciertas placas base antiguas, algunas ranuras ISA, que permiten conectar periféricos que requieren una capacidad de transferencia muy pequeña, como un modems antiguos, tarjetas de sonido o una tarjeta de red, y otras 3 ó más ranuras PCI donde se conectan otros periféricos que necesitan una mayor velocidad de transferencia, como pueden ser una tarjeta de vídeo, controladoras de disco, digitalizadores, así como dispositivos de sonido, red o modems más modernos. El diseño del bus PCI tiene tres características principales: - Provee una configuración automática soportando Plug and Play. - Permite producir interfaces con alto rendimiento a bajo costo. - Su diseño tiene gran versatilidad para soportar una gran variedad de periféricos y accesorios. Las tarjetas PCI no cuentan con jumpers o swithes (interruptores) como todas sus antecesoras, siendo configuradas de manera directa y automática por firmware o software. Tienen una memoria ROM que contiene las especificaciones de configuración y de aquí obtiene el sistema los datos necesarios en la etapa de arranque. Todo esto a diferencia de las tarjetas ISA que tenían que ser configuradas manualmente, aunque eventualmente también se produjeron con Plug and Play (PNP, conectar y usar). BUS AGP. (Accelerated Graphics Port ó Puerto Avanzado de Gráficos) Se trata de un bus independiente del bus general constituido por un slot específico para tarjetas gráficas. El puerto AGP fue desarrollado por Intel en 1996 como una forma para mejorar el rendimiento y la velocidad de las tarjetas gráficas conectadas a un PC y como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones PCI 2.1. El bus AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8 canales más adicionales para acceso a la memoria RAM. Además puede acceder directamente a esta, permitiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz. Como pueden apreciar en la siguiente gráfica, a diferencia de los PCI, el AGP tiene acceso privilegiado al chipset y luego al CPU, de esta manera puede procesar de forma más eficiente la información gráfica. A medida del tiempo al AGP ha evolucionado considerablemente en los modos de funcionamiento y velocidad, pudiendo doblar (AGP 2X), cuadruplicar (AGP 4X) o hasta multiplicar por ocho las características básicas (AGP 8X), alcanzando una tasa de transferencia de datos máxima de 2133 MB por segundo como se muestra a continuación: PCI express El esfuerzo de Intel y las empresas del sector por crear una nueva tecnología de E/S que aprovechara las más recientes innovaciones tecnológicas y que conservara las considerables inversiones del sector en el diseño de software pare la tecnología PCI, dio como resultado la publicación de las especificaciones de PCI Express y la aprobación de la especificación por parte de los miembros de PCI-SIG en julio de 2002 PCI Express1 (denominado aún a veces por su nombre clave 3GIO, por "tercera generación de E/S") es el sucesor de la tecnología PCI, la cual, a pesar de ser una buena solución para satisfacer las necesidades de los dispositivos de I/O, se ve muy limitada a la hora de conectar los actuales y futuros dispositivos de I/O (tales como la tarjeta Gigabit Ethernet, la tarjeta RAID y el controlador Serial ATA), los cuales son más exigentes en la necesidad de ancho de banda. Lo que es más importante, cuantos más dispositivos estén conectados, más ruido se inyectará en el bus. Ciertamente el ruido disminuirá la claridad de la señal y la calidad de los datos transferidos por este bus. El bus PCI Express2 (conocido como PCIe) es considerado como la última interfaz de I/O para sustituir al PCI para un mayor ancho de banda, aunque también está pensado para suceder al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997. La mejora más evidente del PCI Express es su topología punto a punto (a diferencia de su predecesor paralelo), que permite una conmutación compartida para distribuir los recursos compartidos (ancho del bus) entre los dispositivos PCI Express conectados, de acuerdo con su prioridad. En este caso, cada dispositivo tiene un acceso directo y exclusivo (link) al conmutador (switch). Además, el conmutador priorizará los datos transferidos de manera que las aplicaciones en tiempo real pueden obtener un acceso inmediato al conmutador. 1 2 Tomado de http://www.hispatech.com/articulos/html/ibap/pciexpress/pag1.php Tomado de http://spain.aopen.com.tw/tech/techinside/PCI%20Express.htm Esto último es importante porque permite a PCI Express emular un entorno de red, enviando datos entre dos dispositivos compatibles sin necesidad de que éstos pasen primero a través del chip host (un ejemplo sería la transferencia directa de datos desde una capturadora de vídeo hasta la tarjeta gráfica, sin que éstos se almacenen temporalmente en la memoria principal). Otra de las mejoras sobre el PCI es su mayor ancho de banda. Un único lane (canal PCI Express) es capaz de transmitir 250MB/s en cada dirección simultáneamente (500MB/s para las dos direcciones). Actualmente el PCI Express está disponible en 5 formatos (x1 / x2 / x3 / x4 / x16) para los distintos anchos de banda. El PCI Express x2 está compuesto por dos lanes y el ancho de banda máximo es de 500MB/s para una dirección y de 1000MB/s para las dos direcciones. El PCI Express x4 / x8 / x12 no están reservados para el mercado de los PC de escritorio sino para el mercado de servidores. El PCI Express x16 es especializado para la conexión de tarjetas gráficas y se utiliza para sustituir a la actual interfaz AGP 8X, dado su mejor rendimiento (4000 MB/seg, frente a los 2133MB/s del AGP 8X). Esta transición aumenta las capacidades gráficas que no podían realizarse anteriormente debido a las limitaciones de la interconexión AGP. A continuación se observa las diferencias entre los distintos tipos de PCI Express y su correspondiente ancho de banda: PCI Express también incluye características novedosas, tales como gestión de energía y conexión y desconexión en caliente de dispositivos (como USB). PCI Express también optimiza el diseño de placas base, pues su tecnología serie precisa tan sólo de un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual también necesitaba que las longitudes de estos fuesen extremadamente precisas. En una placa base, las ranuras PCI Express se diferencias por su color naranja (PCIE x2) y rojo (PCIE x16) En la siguiente imagen se puede observar una placa base con tres ranuras PCI, dos PCI Express x2 y una ranura PCI Express x16 para tarjeta gráfica. 1.2. PUERTOS USB (Universal serial bus) El Bus de Serie Universal (USB -de sus siglas en inglés Universal Serial Bus) provee un estándar de bus serie para conectar dispositivos a un computador. Un sistema USB tiene un diseño asimétrico, que consiste en un solo servidor y múltiples dispositivos conectados en una estructura de árbol utilizando dispositivos hub (concentradores) especiales. Se pueden conectar hasta 127 dispositivos a un solo servidor, pero la suma debe incluir a los hubs también, así que el total de dispositivos realmente usables disminuye un poco. El estándar incluye la transmisión de energía eléctrica al dispositivo conectado. Algunos dispositivos requieren potencia mínima, así que varios pueden ser conectados sin necesitar fuentes de alimentación extra. La mayoría de los hubs incluyen fuentes de alimentación que brindan energía a los dispositivos conectados a ellos, pero algunos dispositivos gastan tanta energía que necesitan su propia fuente de alimentación. El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas para poner en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play permitiendo a esos dispositivos ser conectados o desconectados al sistema sin necesidad de reiniciar. Cuando un nuevo dispositivo es conectado, el servidor lo enumera y agrega el software necesario para poder funcionar. El USB puede conectar periféricos como ratones, teclados, escáneres, cámaras digitales, impresoras, discos duros, y componentes de red. Para dispositivos multimedia como escáneres y cámaras digitales, el USB se ha convertido en el método estándar de conexión. Para impresoras, el USB ha crecido también en popularidad que ha empezado a desplazar a los puertos paralelos porque el USB hace sencillo el poder agregar más de una impresora a una computadora. El USB resuelve muchos de los inconvenientes de los antiguos puertos COM (dificultades en la adaptación a un puerto COM libre, conflicto de los vectores de interrupción IRQ, etc.) El estándar USB 1.1 tiene 2 velocidades de transferencia: 1.5 Mbps (Megabits por segundo) para teclados, mouse, joysticks, etc., y velocidad completa a 12 Mbps. La mayor ventaja del estándar USB 2.0 es añadir un modo de alta velocidad de 480 Mbps. En su velocidad más alta, el USB compite directamente con FireWire USB transfiere señales y energía a los periféricos utilizando un cable de 4 hilos, apantallado para transmisiones a 12 Mbps y no apantallado para transmisiones a 1.5 Mbps. El calibre de los conductores destinados a alimentación de los periféricos varía desde 20 a 26 AWG, mientras que el de los conductores de señal es de 28 AWG. La longitud máxima de los cables es de 5 metros Por lo que respecta a los conectores hay que decir que son del tipo conector y receptáculo, y son de dos tipos: serie A y serie B. En la siguiente imagen se muestra un esquema del cable, con dos conductores para alimentación y los otros dos para señal, debiendo estos últimos ser trenzados o no según la velocidad de transmisión. Además se muestran los tipos de conectores. 1.3. FIREWIRE (IEEE 1394)3 El IEEE 1394 o FireWire es un estándar multiplataforma para entrada/salida de datos en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadores. El FireWire fue inventado por Apple a mediados de los 90, para luego convertirse en el estándar multiplataforma IEEE 1394. A principios de este siglo fue adoptado por los fabricantes de periféricos digitales hasta convertirse en un estándar establecido. 3 Tomado de www.wikipedia.org y de http://www.duiops.net/hardware/articulo/ie31394f.htm Entre sus características principales se encuentran su elevada velocidad de transferencia de información (400 Mbps en su versión básica) lo que la hace ideal para transmitir audio y video digital, su flexibilidad en la conexión ya que no es necesario apagar y reencender el dispositivo ni reiniciar el computador y su capacidad de conectar un máximo de 63 dispositivos, con cables de una longitud máxima de 425 cm. Existe una segunda versión de Firewire, la IEEE 1394b ó FireWire 800, la cual duplica la velocidad del FireWire 400 o Fireware convencional, alcanzando hasta 800 Mbps. Además se espera una tercera versión de Firewire a 1Gbps en los próximos años. FireWire 400 envía los datos por cables de hasta aproximadamente 4,5 metros de longitud. Mediante fibra óptica profesional, FireWire 800 puede distribuir información por cables de hasta 100 metros. A continuación se ilustran el cable y el conector de Fireware. Comparación entre USB y FIREWIRE A pesar de que USB y Firewire son tecnologías para hacer conexión de dispositivos a alta velocidad, no existe una guerra entre ellos, es más, se espera que convivan los dos tipos de conectores en los nuevos computadores. Lo que si es cierto es que estas dos tecnologías reemplazarán a los conectores actuales del PC, usándose USB para periféricos de pequeño ancho de banda (ratones, teclados, modems), mientras que el Firewire será usado para conectar la nueva generación de dispositivos electrónicos de gran ancho de banda. Veamos ahora un cuadro comparativo de las diferentes características de las tecnologías USB y Firewire USB Número Máx. dispositivos conectados Cambios en caliente Longitud de cable entre dispositivos 127 SI -5m - Hasta 30 m con repetidor cada 5m Velocidad de transferencia de datos 1.5 mbps 12 mbps 480 mbps NO - Teclados - Ratones - Monitores - Joysticks - Cámaras digitales de baja resolución - CD-ROM - Modems Conexión de periféricos internos Dispositivos 1.4. FIREWIRE 63 SI - 4.5 m -Hasta 100 m con fibra óptica profesional 400 mbps 800 mbps SI - Videocámaras DV - Cámaras digitales de alta resolución - HDTV - Discos duros - DVD-ROM - Impresoras - Escáneres INTERFACE IDE. (Integrated Drive Electronics). La interfaz IDE o ATA (Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos, como los discos duros y por medio de ATAPI (Advanced Technology Attachment Packet Interface), se añaden además dispositivos como, las unidades CD-ROM. IDE, fue creado por la firma Western Digital4, por encargo de Compaq para una nueva gama de computadores personales. Su característica más representativa era la 4 Tomado de http://orbita.starmedia.com/~osander/Disco%20Duro1.htm implementación de una tecnología electrónica que basa el control de la comunicación en una placa controladora integrada en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base o en tarjeta. Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo. Luego de algún tiempo, no tardó en ponerse en manifiesto la necesidad de ciertas modificaciones en su diseño. Entre ellas figuraba su capacidad de almacenamiento, que no solía exceder de los 528 Megas, su capacidad de conexión, que sólo permitía la coexistencia de dos unidades IDE en el sistema, y su baja tasa de transferencia. La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas. Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias, para que la controladora sepa a/de qué dispositivo mandar/recibir los datos. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema. Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. A continuación se observa una comparación entre cada uno de los modos de transferencia y su velocidad en el mejor de los casos. Modo de Transferencia PIO 0 PIO 1 y 2 PIO 3 PIO 4 MultiWord DMA 1 MultiWord DMA 2 UltraDMA 33 ó ATA/33 ó ATA 4 UltraDMA 66 ó ATA/66 ó ATA 5 UltraDMA 100 ó ATA/100 ó ATA 6 MB de transferencia 2 – 3 MB/s 4 MB/s 11 MB/s 16 MB/s 13 MB/s 16,6 MB/s 33 MB/s 66 MB/s 100 MB/s El bus de datos de la interfaz IDE lo constituye un cable plano de 40 u 80 hilos conductores que comunica el conector del dispositivo (disco duro, CD-ROM, DVD) con el conector o puerto IDE de la motherboard. Las placas base actuales se fabrican con dos puertos: IDE 0 e IDE1, permitiendo cada uno la conexión de hasta 2 drives (discos duros o unidades ópticas), una configurada como maestro y la otra como esclavo. Los discos IDE están mucho más extendidos que los SCSI debido a su precio mucho menor. El Rendimiento de IDE es menor que SCSI pero en la actualidad se están reduciendo las diferencias. 1.5. INTERFACE SCSI (Small Computer System Interface) Es la interfaz de mayor capacidad, velocidad y estabilidad para conectar dispositivos directamente a una motherboard. Tiene la gran ventaja de hacer que los dispositivos se direccionen lógicamente en contraposición al direccionamiento físico que utiliza IDE. La consecuencia inmediata es que los dispositivos quedan liberados de las imposiciones que el Bios pudiera imponer, pues SCSI se encarga de hacer el trabajo completo de comunicación y configuración. Esta capacidad lo ha hecho el preferido en equipos en los que se requiere estabilidad y alta velocidad de transmisión, como los servidores. La interfaz utiliza una conexión en la que cada dispositivo se une al siguiente, en donde cada uno tiene su propio ID ante el host, el cual se selecciona mediante una serie de jumpers o bien una rueda giratoria en el dispositivo. La tecnología SCSI ofrece, en efecto, una tasa de transferencia de datos muy alta entre el computador y el dispositivo SCSI. Pero aunque esto sea una cualidad muy apreciable, no es lo más importante; la principal virtud de SCSI es que dicha velocidad se mantiene casi constante en todo momento sin que el microprocesador realice apenas trabajo. Esto es de gran importancia en procesos largos y complejos en los que no podemos tener el computador bloqueado mientras archiva los datos, como por ejemplo en la edición de vídeo, la realización de copias de CD o en general en cualquier operación de almacenamiento de datos a gran velocidad, tareas "profesionales" propias de computadores de cierta potencia y calidad como los servidores de red. Las raíces de SCSI5 parten en 1979, cuando Shugart Associates, un antiguo fabricante de discos, inició el diseño de una nueva interfaz universal para discos: la SASI ("Shugart Associates Systems Interface"), el predecesor de SCSI. Aunque SASI era muy limitada en sus capacidades, introdujo el concepto de comandos y mensajes, una idea revolucionaria en esa época. Para lograr que SASI fuera mas ampliamente aceptado por la industria, a fines de 1981 Shugart Associates, en conjunto con NCR Corporation convencieron a la ANSI para que estableciera un comité que estandarizara esta interfaz. En 1982 la ANSI le cambió el nombre a la interfaz, denominándola SCSI. Durante el siguiente par de años el estándar fue mejorado, por ejemplo NCR Corporation contribuyó conjuntos de comandos para que la interfaz pudiera manejar no sólo discos, sino que también unidades de cinta, procesadores e impresoras. Finalmente, la interfaz apareció en 1986, cuando fue publicado el estándar ANSI X3.131-1986, que ahora es referido como SCSI-1. La velocidad de transferencia de datos alcanzaba los 5 MBytes/seg y el bus tenía 8 bits de ancho. El bus SCSI soporta hasta 8 dispositivos (incluida la controladora), identificados por las direcciones 0 a 7. El cable podía tener una extensión de hasta 6 metros. En 1994 el estándar SCSI sufrió su primera evolución, al ser publicado el estándar ANSI X3.131-1994. Denominado SCSI-2 (y a veces también denominado "Fast SCSI" por su mayor velocidad), esta nueva versión permitía tasas de transferencia más veloces y una estructura de comandos estandarizada. 5 http://www.overclockers.cl/modules.php?name=enciclopedia&ver=90 La tasa de transferencia de datos sincrónicos en SCSI-2 alcanza los 10 Mbytes/seg para los modelos con bus de 8 bits, y 20 Mbytes/seg para los modelos con bus de 16 bits (también llamados Wide SCSI). Para hacer mas confuso el tema, el SCSI de 16 bits agrega una línea mas para la dirección, permitiendo ahora la existencia de 16 dispositivos en el bus SCSI (incluida la controladora SCSI, desde luego), numerados del 0 al 15. Lamentablemente, la mayor velocidad del Bus obligó a disminuir su longitud máxima a sólo 3 metros A partir de la aparición de SCSI-2 se comenzó a trabajar en el siguiente estándar, denominado SCSI-3, el cual aún no ha sido terminado. Como el documento para el estándar SCSI-2 era muy grande (más de 400 páginas), para el caso de SCSI-3 se tomó la decisión de dividir este gran documento en una serie de documentos menores, cada uno cubriendo una determinada "capa" del estándar: - Capa Física: Conectores, especificaciones eléctricas. - Protocolos: Fases del Bus, paquetes, etc. - Arquitectura: Organización de comandos. - Comandos Primarios: Comandos soportados por cualquier dispositivo SCSI. - Comandos Específicos El problema aquí, es que al tener tantas tecnologías diferentes bajo el nombre genérico SCSI-3 ha producido que mucha gente tenga confusión por este término. Para efectos de los discos duros, las siguientes designaciones corresponden todas a dispositivos compatibles con el estándar SCSI-3: Ultra SCSI: Permite transferencias de 20 o 40 Mbytes/seg, según si el bus SCSI es de 8 (Narrow) o de 16 bits (Wide). Ultra2 SCSI: Como el anterior, pero con velocidades de 40 y 80 MBytes/seg respectivamente. Ultra 160: Usando una técnica para transmitir dos datos por ciclo de reloj, este tipo de discos logra velocidades de transferencia de 160 MBytes/seg en bus Wide. Se usa señalización LVDS para aumentar la frecuencia del bus. Ultra 320: Se incrementa la velocidad del bus a 80 MHz (en lugar de los anteriores 40 MHz), para conseguir una transferencia de hasta 320 MBytes/seg. Las controladoras SCSI modernas suelen ser compatibles con las normas antiguas, por ejemplo ofreciendo conectores de 50 pines junto a los más modernos de 68, así como conectores externos (generalmente muy compactos, de 25 ó 36 pines), salvo en algunos modelos especiales que se incluyen con aparatos SCSI que están diseñados sólo para controlar ese aparato en concreto (como algunos scanner), lo que abarata su costo. En la siguiente imagen6 se observa un diagrama de los conectores SCSI más comunes en la actualidad. En ella se pueden identificar los tipos usados en las tarjetas SCSI así como en los periféricos. Esta información es de gran utilidad para determinar el tipo de cable necesario para su conexión. Además se encuentra la terminología usada por diferentes fabricantes para los diversos tipos de conectores. 6 Tomado de http://www.rn-soft.de/ge/scsi.htm 2. MICROPROCESADORES Es la unidad fundamental encargada de ejecutar instrucciones que recibe de los programas, traducirlas al lenguaje interno de la máquina, ejecutarlas y controlar todos y cada uno de los pasos del proceso. Se encarga también de comunicarse con otros subsistemas dentro del computador, y controlar su operación. Debido al papel central de tal unidad se conoce como cerebro, unidad central de procesamiento, o CPU (Central processing unit). Los principales fabricantes de microprocesadores son: • Intel con los Pentium, el Celeron, el Xeón, el Itanium y el Centrino. • AMD con los Athlon, el Duron, el Semprom y el AMD64 • Cyrix con el 6x86, 6x86MX, el MII y el winchip. 2.1. PENTIUM 4, EL PROCESADOR MÁS AVANZADO DE INTEL7 El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y manufacturado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000. Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros y operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el 7 Tomado de http://es.wikipedia.org/wiki/Intel_Pentium_4 Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron) y una orientada a servidores de gama alta (Xeon). Las distintas versiones son: Willamette, Northwood, Extreme Edition y Prescott. Willamette Willamette, la primera versión del Pentium 4, sufrió de importantes demoras durante el diseño. De hecho, muchos expertos aseguran que los primeros modelos de 1,3, 1,4 y 1,5 GHz fueron lanzados prematuramente para evitar que se extienda demasiado el lapso de demora de los Pentium 4. Además, los modelos más nuevos del AMD Thunderbird tenían un rendimiento superior al Pentium III, línea que se encontraba al límite de su capacidad por el momento. Fueron fabricados utilizando un proceso de 180 nanómetros y utilizaban el Socket 423 para conectarse a la placa madre. A la hora de los exámenes de rendimiento, los Willamette fueron una decepción ya que no podían superar claramente a los Thunderbird ni a los Pentium III de mayor velocidad. Incluso la diferencia con la línea de bajo costo de AMD (Duron) no era significante. Vendió una cantidad moderada de unidades. En enero de 2001 un microprocesador aún más lento de 1,3 GHz fue añadido a la lista. En la primer mitad del mismo año, salieron a la venta los modelos de 1,6, 1,7 y 1,8 GHz notablemente superiores a los Pentium III. En agosto, los modelos de 1,9 y 2,0 GHz vieron la luz. El Willamette de 2,0 GHz fue el primer Pentium 4 que puso en duda el liderazgo en rendimiento, que hasta ese momento estaba liderado indiscutiblemente por la línea Thunderbird de AMD. Si bien algunos resultados arrojaban una leve diferencia a favor de AMD, los analistas concluyeron que la diferencia no era significativa para decir que un procesador era claramente superior al otro. Esto fue un gran paso para Intel, que hasta la salida del AMD Athlon había sido el rey de la velocidad en los microprocesadores por 16 años en forma casi ininterrumpida. Northwood En octubre de 2001, el Athlon XP reconquistó el liderazgo en la velocidad de los procesadores, pero en enero de 2002 Intel lanzó al mercado los nuevos Northwood de 1,9 y 2,2 GHz. Esta nueva versión combina un incremento de 256 a 512 KB en la memoria caché con la transición a la tecnología de producción de 130 nanómetros. Al estar el microprocesador compuesto por transistores más pequeños, podía alcanzar mayores velocidades y a la vez consumir menos energía. El nuevo procesador funcionaba con el Socket 478, el cual se había visto en los últimos modelos de la serie Willamette. Con la serie Northwood, los Pentium 4 alcanzaron su madurez. La lucha por la cima del desempeño se mantuvo reñida, a medida que AMD introducía versiones más veloces del Athlon XP. Sin embargo, la mayoría de los observadores concluyeron que el Northwood más veloz siempre estaba ligeramente por encima de los modelos de AMD. Esto se hizo notorio cuando el paso de AMD a la manufacturación de 130 nanómetros fue postergada. Los Pentium IV entre 2,4 y 2,8 GHz fueron, claramente, los más veloces del mercado. Un Pentium 4 de 2,4 GHz fue introducido en abril de 2002, uno de 2,53 GHz en mayo (que incluyo un aumento del FSB de 400 a 533 MHz). En agosto vieron la luz los modelos de 2,6 y 2,8 GHz, y en noviembre la versión de 3,06 GHz. El Procesador de 3,06 GHz soporta Hyper-threading, una tecnología originalmente aparecida en los Xeon que permite al sistema operativo trabajar como si la máquina tuviese dos procesadores. En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz, cuya principal diferencia era que todos ellos incluían la tecnología Hyper-Threading y el FSB era de 800 MHz. Supuestamente esto era para competir con la línea Hammer de AMD, pero de momento sólo la serie Opteron salió al mercado, la cual no estaba destinada entonces a competir con los Pentium 4. Por otro lado, los AMD Athlon XP, a pesar de su FSB aumentado de 333 a 400 MHz y las velocidades más altas no pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los Northwood, de 3,4 GHz, fue introducida a principios de 2004. Extreme Edition o Edición Extrema En septiembre de 2003, Intel anunció la edición extrema (Extreme Edition) del Pentium 4, apenas sobre una semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El diseño era idéntico al Pentium 4 (hasta el punto de que funcionaría en las mismas placas madre), pero se diferenciaba por tener 2 MB adicionales de caché L3. Compartió la misma tecnología Gallatin del Xeon MP, aunque con un Socket 478 (a diferencia del Socket 603 de los Xeon MP) y poseía un FSB de 800MHz, dos veces más grande que el del Xeon MP. Una versión para Socket LGA775 también fue producida. Mientras que Intel mantuvo que la Extreme Edition estaba apuntada a los jugadores de videojuegos, algunos tomaron esta nueva versión como un intento de desviar la atención del lanzamiento de los Athlon 64. Otros criticaron a Intel por mezclar la línea Xeon (especialmente orientada a servidores) con sus procesadores para usuarios individuales, pero poco se criticó cuando AMD hizo lo mismo con el Athlon 64 FX. El efecto de la memoria adicional tuvo efectos variados. En las aplicaciones de ofimática, la demora ocasionada por el mayor tamaño de la memoria caché hacia que los Extreme Edition fuesen menos veloces que los Northwood. Sin embargo, el área donde se destacó fue en la codificación multimedia, que superaba con creces a la velocidad de los anteriores Pentium 4 y a toda la línea de AMD. Prescott El primero de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada Prescott. Se utiliza en su manufactura un proceso de fabricación de 90 nanómetros y además se hicieron significativos cambios en la arquitectura del microprocesador, por lo cual muchos pensaron que Intel lo promocionaría como Pentium V. A pesar de que un Prescott funcionando a la misma velocidad que un Northwood rinde menos, la renovada arquitectura del Prescott permite alcanzar mayores velocidades y el overclock es más viable. El modelo de 3,8 GHz es el más veloz de los que hasta ahora han entrado en el mercado. Sin embargo, los primeros Prescott producían un 60% más de calor que un Northwood a la misma velocidad, y por ese motivo muchos lo criticaron con dureza. Se experimentó con un cambio en el tipo de zócalo (de Socket 478 a LGA 775) lo cual incrementó en un 10% el consumo de energía del microprocesador, pero al ser más efectivo el sistema de refrigeración de este zócalo, la temperatura final bajó algunos grados. Se esperan mejoras que reduzcan el consumo de energía y el calor producido, pero Intel no ha dado noticias relevantes al respecto. Los Prescott con Socket LGA775 usan el nuevo sistema de puntaje, y están clasificados en la serie 5XX. El más rápido es el 570J, funcionando a 3,8 GHz. Los planes para microprocesadores de 4 o más GHz fueron cancelados y se les dio prioridad a los proyectos para fabricar procesadores dobles; en gran medida debido a los problemas de consumo energía y producción de calor de los modelos Prescott. El procesador 570J también fue el primero en introducir la tecnología EDB, la cual es idéntica a la más temprana NX de AMD. El objetivo es prevenir la ejecución de algunos tipos de código maligno Versiones en Desarrollo A principios de 2003 Intel había mostrado un diseño preliminar del Tejas, (nombre que Intel le había dado al microprocesador que sería el sucesor de los Prescott), y un proyecto para ponerlo en el mercado en algún momento de 2004, pero finalmente pospuesto para el 2005. Jayhawk sería un procesador similar al Tejas pero que estaría preparado para funcionar en maquina duales (es decir, una computadora con dos procesadores). Sin embargo, el 7 de mayo de 2004 ambos proyectos fueron cancelados. De este modo, Intel remarco el giro hacia los procesadores dobles. Tanto el retraso inicial como la eventual cancelación se atribuyen a los problemas de calor debido al gigantesco consumo energético de los microprocesadores, lo cual ya había sucedido con los Prescott que además tenían solo un rendimiento ligeramente mayor que los Northwood. Este cambio también obedeció a los deseos de Intel de enfocar sus esfuerzos en los microprocesadores dobles, para la gama Itanium de servidores, los Pentium de escritorio y las portátiles Centrino. Irwindale La serie Irwindale es casi igual a la Prescott, excepto porque tiene el doble de memoria caché. Si bien el lanzamiento de los microprocesadores Irwindale estaba planeado para fines de 2004, diversas clases de demoras han hecho que se postergue hasta el 2005. Doble Procesador Intel tiene planeadas tres variantes con doble procesador del Pentium 4. La primera es denominada Paxville, que consiste en poco más que dos procesadores Prescott colocados en el mismo substrato. Le seguirá Dempsey que tiene una interfaz de bus especial para conectar a los dos microprocesadores. Smithfield es el tercero, pero muy poco se sabe sobre que características tendrá y si llegará a salir al mercado. A continuación se incluye una tabla con las actuales variantes de Pentium 4 y las principales diferencias: NOMBRES Y CARACTERÍSTICAS DE LOS MICROPROCESADORES PENTIUM 4 Nombre Público Revisión original Nombre de Intel para la versión Willamette 1,3 GHz - 2,0 GHz Velocidad del FSB / Ancho de banda teórico 100 MHz / 3,2 GB/s Velocidad del CPU Caché L1: 8 KB datos + 12 KB instrucciones L2: 256 KB L1: 8 KB datos + 12 KB instrucciones L2: 512 KB P4A Northwood 1,6 GHz - 3,0 GHz 100 MHz / 3,2 GB/s P4B Northwood 2,0 GHz 3,06 GHz - 133 MHz / 4,2 GB/s L1: 8 KB datos + 12 KB instrucciones L2: 512 KB P4C Northwood 2,4 GHz 3,4+ GHz - 200 MHz / 6,4 GB/s P4E Prescott 2,8 GHz 3,6+ GHz - 200 MHz / 6,4 GB/s P4A* Prescott 2,4 y 2,8 GHz 133 MHz / 4,2 GB/s Extreme Edition Gallatin 3,2 GHz - 3,4 GHz 200 MHz / 6,4 GB/s P4F Prescott 3,2 GHz - 3,6 GHz 200 MHz / 6,4 GB/s L1: 8 KB datos + 12 KB instrucciones L2: 512 KB L1: 16 KB datos + 12 KB instrucciones L2: 1MB L1: 16 KB datos + 12 KB instrucciones L2: 1MB L1: 8 KB datos + 12 KB instrucciones L2: 512 KB L3:2 MB L1: 16 KB datos + 12 KB instrucciones L2: 1MB Observaciones N/A Se mejoró el manejo de las instrucciones y algunos otros cambios en el microcódigo, los cuales pasaron a las revisiones subsiguientes. Ningún cambio con respecto al P4A, excepto por Hyper-threading en el modelo de 3,06 GHz. Hyper-threading Hyper-threading, mayores tuberías de datos (pipelines), Instrucciones SSE3 Sin Hyper-threading, mayores tuberías de datos (pipelines), Instrucciones SSE3 Hyper-threading, se agrega caché L3 en el microprocesador. Soporte para EM64T y EDB (equivalente a la NX de AMD) Notas: Los procesadores Pentium 4 usan un FSB que transmite datos 4 veces por ciclo * En el caso de la línea de baja gama de los Prescott, Intel volvió a usar la identificación P4A, con la cual se espera que los vendedores lo identifiquen a los clientes. No se dieron explicaciones al respecto. 2.2. LOS MICROPROCESADORES DE AMD8 Fundada en 1969 y con su central situada en Sunnyvale, California, Advanced Micro Devices (AMD) es la segunda compañía mundial productora de microprocesadores (detrás de Intel) y uno de los más importantes fabricantes de memoria flash y otros dispositivos semiconductores. En 1975 AMD lanzó al mercado su primer chip de RAM conocido como Am9102. Ese mismo año también desarrollaron, gracias a la ingeniería inversa, el primer procesador de AMD compatible con el 8080A. El aumento de demanda de PCs al principio de la década de los 80 ayudó a que AMD siguiera creciendo a un gran ritmo debido a la venta de procesadores x86. El procesador Am386 de 1991 consiguió superar en frecuencia de reloj por primera vez a los procesadores de Intel y en 1993 el Am486 llegó a ser el corazón de muchos ordenadores del fabricante Compaq. El K5 fue el siguiente desarrollo, pero no gozó de una gran popularidad, pero en 1996 AMD se alió con NexGen para diseñar el K6. El K6-2 incorporaba las nuevas instrucciones 3DNow! desarrolladas por AMD, era la primera mejora que se hacía en los procesadores x86 para aumentar el rendimiento de aplicaciones con uso intensivo multimedia. El 21 de agosto de 1999 se introdujo el Athlon, el primer procesador x86 de séptima generación de alto rendimiento tanto para usuarios domésticos como para estaciones de trabajo y servidores, que en un principio mantuvo su liderazgo de rendimiento sobre los microprocesadores de Intel. 8 Tomado de http://es.wikipedia.org/wiki/AMD, de http://es.wikipedia.org/wiki/Athlon y de http://es.wikipedia.org/wiki/AMD_Athlon_64 El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su predecesor, el K6), estuvo disponible inicialmente en versiones de 500 a 650 MHz, pero después alcanzó velocidades de hasta 1 GHz. El procesador es compatible con la arquitectura x86 y debe ser conectado en placas base con Slot A, que son compatibles mecánicamente, pero no eléctricamente, con el Slot 1 de Intel. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente la unidad de punto flotante y se le aumentó la memoria caché de primer nivel (L1) a 128 KB. Además incluye 512 KB de caché de segundo nivel (L2) externa al circuito integrado del procesador y funcionando, por lo general, a la mitad de velocidad del mismo. El bus de comunicación es compatible con el protocolo EV6 usado en los procesadores DEC 21264 de Alpha, funcionando a una frecuencia de 100 MHz DDR (Dual Data Rate, 200 MHz efectivos). El resultado fue el procesador x86 más potente del momento. El Athlon Classic se comercializó hasta enero de 2002. En términos económicos el Athlon Classic fue un éxito, no sólo por méritos propios y su bajo precio comparado con la competencia, sino también por los problemas de producción de Intel. El procesador Athlon con núcleo Thunderbird apareció en el mercado el 5 de junio de 2000, como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El rango de velocidad de reloj va desde los 650 MHz hasta los 1,4 GHz. Respecto al Athlon Classic, el Athlon Thunderbird cambió del Slot A al Socket A, más pequeño. Todos los Athlon Thunderbird integran 128 KB de caché de primer nivel (L1) (64 KB de datos y 64 KB para instrucciones) y 256 KB de caché de segundo nivel (L2) on-die. El proceso de fabricación usado para todos estos microprocesadores es de 0.18µ y el tamaño del encapsulado es de 117 mm2. Existen dos versiones de los Thunderbird dependiendo de la frecuencia de bus que usan. Los primeros Athlon Thunderbird usaban un bus de 100MHz DDR (200 MHz efectivos), al igual que los Athlon Classic. En el primer cuatrimestre de 2001 aparecieron nuevas versiones, denominadas Athlon-C, que soportaban un bus de 133 MHz DDR (266 MHz efectivos) El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, le hicieron muy popular tanto entre los entendidos como en los iniciados en la informática. Athlon XP Cuando Intel sacó el Pentium IV a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico aumentar la velocidad del Athlon Thunderbird a más de 1,4 GHz por problemas de consumo eléctrico y de disipación de calor. Para intentar seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo AMD lanzó la tercera gran revisión del Athlon, conocido en clave como "Palomino", el 14 de mayo de 2001. Todos los Athlon a partir del núcleo Palomino fueron denominados genéricamente como Athlon XP. Los cambios principales respecto al núcleo anterior fueron mejoras de rendimiento que lo hacen un 10% más rápido que un Athlon Thunderbird a la misma velocidad de reloj. Su velocidad de reloj se situó entre 1,3 y 1,7 GHz. Además el núcleo Palomino fue el primero en incluir el conjunto de instrucciones SSE de Intel, además de las 3DNow! propias de AMD. Por desgracia, el núcleo Palomino seguía teniendo problemas con la disipación de calor, lo que hacía que se calentara demasiado. Debido a las mejoras de rendimiento a la misma velocidad de reloj respecto a los núcleos anteriores, los Athlon XP fueron comercializados no por su velocidad de reloj, sino mediante una índice de "prestaciones relativas" conocido como PR . Este índice indica la velocidad de reloj equivalente de un Athlon Thunderbird con el mismo rendimiento que un Athlon XP. Por ejemplo, el Athlon XP 1800+ funciona realmente a 1,5 GHz, pero indica que tiene un rendimiento equivalente a un hipotético Athlon Thunderbird a 1,8 GHz. El núcleo de cuarta generación de los Athlon, el Thoroughbred, fue lanzado al mercado el 10 de junio de 2002 a una velocidad inicial de 1,8 GHz (2200 con el sistema de prestaciones relativas). Llegó a alcanzar unas prestaciones relativas de 2800+. El núcleo "Thoroughbred" se fabricó con un proceso de 0,13 µm, mejorando los 0,18 µm del proceso de fabricación de núcleo "Palomino". Inicialmente, a parte de la mejora del proceso de fabricación, los núcleos Thoroughbred y Palomino son prácticamente idénticos. Posteriormente AMD creó una revisión del núcleo Thoroughbred que resolvía los problemas de disipación de calor heredados desde el núcleo Thunderbird. El núcleo Athlon de quinta generación, llamado Barton, funcionaba a un índice PR de entre 2500+ --aproximadamente 1837 MHz-- y 3200+ --2200 MHz--. El núcleo Barton tenía como características principales respecto al Thoroughbred el incluir una nueva caché de segundo nivel (L2) de 256 KB adicional y seguir mejorando el rendimiento del procesador sin aumentar la velocidad de reloj. Además AMD aumentó la frecuencia del bus de 133 MHz (266 efectivos por DDR) a 166 MHz (333 MHz efectivos) y posteriormente hasta 200 MHz (400 MHz efectivos). Con el lanzamiento del Athlon XP con núcleo Barton AMD volvió a señalar que sus procesadores eran los x86 más rápidos del mercado, pero algunas pruebas de rendimiento del mercado no indicaban esto. Esto causó un gran revuelo al conocerse que algunas de estas pruebas, como las pruebas de rendimiento BAPCo, estaban diseñadas por ingenieros de Intel. El núcleo "Thorton" es una variante del "Barton", idéntico a éste pero con la mitad de la caché de segundo nivel (L2) desactivada. Mobile Athlon XP Los Mobile Athlon XP (Athlon XP-M) son funcionalmente idénticos a los Athlon XP, pero funcionan con voltajes más reducidos. Además tienen la tecnología Power Now!, que reduce la velocidad de funcionamiento del procesador cuando tiene poca carga de trabajo, para reducir aún más su consumo. Algunos Athlon XP-M utilizan un zócalo µ-PGA en lugar del estándar Socket A. Generalmente se usan en ordenadores portátiles En abril de 2003 se comercializó Opteron, el primer microprocesador desarrollado exclusivamente para servidores y estaciones de trabajo basados en la arquitectura AMD64 (también conocida como x86-64), que aumenta la capacidad de proceso de la arquitectura x86 a 64 bits. Esta tecnología fue llevada a los usuarios domésticos en septiembre de 2003 por los microprocesadores Athlon 64, procesadores de octava generación. Athlon 64 Por primera vez en la historia de la informática, el conjunto de instrucciones x86 no ha sido ampliado por Intel. De hecho Intel ha copiado este conjunto de instrucciones para sus próximos procesadores, como el Xeon "Nocona". Intel llama a su implementación Extended Memory Technology -Tecnología de Memoria Extendida- (EM64T), y es completamente compatible con la arquitectura AMD64. La arquitectura AMD64 parece que será la arquitectura informática dominante de la generación de 64 bits, al contrario que alternativas como la arquitectura IA-64 de Intel. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits. AMD ha elegido un sistema de medida del rendimiento del procesador basado en los megahercios a los que tendría que funcionar un hipotético Athlon Thunderbird para que diera el mismo rendimiento que un Athlon 64, en lugar de indicar los megahercios a los que funciona realmente. Hay dos variantes del Athlon 64: El Athlon 64 y el Athlon 64-FX. El Athlon 64-FX es similar al Opteron y más potente que el Athlon 64 normal. El Athlon 64 puede ejecutar código de 16 bits, 32 bits y el propio ensamblador de 64 bits de AMD. En la actualidad, Linux, OpenBSD, FreeBSD y NetBSD soportan el modo de 64 bits del Athlon 64, mientras que Microsoft ha sacado una versión preliminar de Windows XP para equipos de 64 bits. El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool 'n' Quiet -'Frío y Silencioso'-. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su voltaje se reducen. Esto provoca que los máximos de consumo bajen de 89 W a 22 W. El Athlon 64 puede funcionar en dos zócalos para CPU: Uno utiliza tiene 754 pines y el otro 939 pines. El de menor número de pines soporta los procesadores de menor velocidad, mientras que el de mayor número de pines soporta los más rápidos, incluyendo en Athlon 64-FX. El FX admite memoria RAM DDR de doble canal Athlon 64 de doble núcleo A partir del Junio de 2005, AMD planea comercializar su procesador AMD Athlon 64 de doble núcleo, y su nombre podría ser Athlon 64 X2. Los primeros modelos que llegarán al mercado inicialmente serán los siguientes: AMD Athlon 64 X2 4400+ AMD Athlon 64 X2 4600+ AMD Athlon 64 X2 4800+ El más potente de los modelos, el Athlon 64 X2 4800+ tendría ambos núcleos funcionando a 2,4GHz que resulta ser la misma frecuencia que el AMD Athlon 64 4000+ lo cual significaría que en términos de rendimiento y comportamiento, el Atlhon 64 X2 tendría del orden de un 20% más de potencia media que si se compara con un procesador a igualdad de frecuencia pero en simple núcleo, aunque este punto no está muy claro o al menos el criterio de numeración de rendimiento de AMD podría necesitar una pequeña redefinición, dados los problemas de aumentar el rendimiento de sistemas multi-núcleo accediendo a recursos comunes y el hecho de que tener doble núcleo no es sinónimo de doble rendimiento. Los procesadores de sobremesa de AMD de doble núcleo contarán con controlador de memoria DDR de doble canal, 1MB o 2MB de caché L2 (512KB o 1MB de caché respectivamente por cada núcleo) e irá montado en placas de Socket 939. Duron9 Es el procesador de bajo costo de AMD, diseñado para competir con la línea de procesadores Celeron de Intel. 99 Tomado de http://es.wikipedia.org/wiki/AMD_Duron La diferencia principal entre los Athlon y los Duron es que los Duron solo tienen 64 KBytes de memoria caché de segundo nivel (L2), frente a los 256 KBytes de los Athlon. El primer núcleo de Duron se llama "Spitfire" y se lanzó al mercado en el verano de 2000. El Duron Spitfire está basado en el Athlon Thunderbird. De hecho ambos son virtualmente indistinguibles, por lo que el Duron Spitfire funciona generalmente en las mismas placas bases que el Athlon Thunderbird. La única forma externa de distinguir un Duron Spitfire de un Athlon Thunderbird es leer un pequeño texto en el núcleo de procesador, que pone "Athlon" o "Duron" según el procesador. El núcleo "Applebred" es el segundo núcleo de los Duron. Dicho núcleo está basado en el núcleo Thoroughbred de los Athlon XP. Fue lanzado al mercado en 2003 y funcionaba a una frecuencia de reloj entre 1,4 y 1,8 GHz, con un bus de 133 MHz (266 MHz efectivos por la tecnología DDR). Grupos de entusiastas han descubierto que los Duron Applebred son en realidad Athlon XP Thoroughbred con la caché extra deshabilitada. Algunos de ellos han conseguido convertir estos Duron en sus equivalentes Athlon XP con toda su caché de segundo nivel (L2). El Duron fue substituido en 2004 por el AMD Sempron. Sempron10 El AMD Sempron reemplaza al procesador Duron, siendo su principal competidor el procesador Celeron D de Intel. Las primeras versiones fueron lanzadas al mercado en agosto de 2004. Las versiones iniciales de este procesador estaban basadas en el núcleo Thoroughbred/Thorton del Athlon XP, con una caché de segundo nivel de 256 KB y un bus de 166 MHz (FSB 333). Su índice de prestaciones relativas (PR) se situaba entre 10 Tomado de http://es.wikipedia.org/wiki/AMD_Sempron 2400+ y 2800+ dependiendo del modelo, aunque el índice no es calculado de la misma forma que para los Athlon XP, siendo los Sempron algo más lentos a mismo índice de prestaciones relativas. Posteriormente el Sempron se basó en el núcleo Barton del Athlon XP. Esta versión tenía un índice de prestaciones relativas de 3000+ y poseía una caché de segundo nivel de 512 KB. Las versiones del Sempron basadas en el Athlon XP se puede emplear en placas base con zócalo de procesador Socket A. Las últimas versiones usan una variante del núcleo del Athlon 64 llamada Paris, que no implementa el conjunto de instrucciones AMD64, pero si el controlador de memoria. Cuenta con una caché de segundo nivel de 256 KB y su índice de prestaciones relativas es de 3100+. Esta versión del Sempron se puede emplear en placas base con zócalo de procesador Socket 754. 2.3. SOCKETS Y SLOTS El rendimiento que dan los microprocesadores no sólo depende de ellos mismos, sino también de la placa base donde se instalan y la forma como lo hacen; por ejemplo, en las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy en día esto no se ve. Los microprocesadores se han instalado desde hace mucho tiempo en zócalos o bahías especiales destinadas para ello, de tipo socket o tipo slot. Los zócalos tipo socket tiene mecanismo ZIF (Zero Insertion Force), es decir, en ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la pequeña palanca que se encuentra a su lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Existen varios tipos de sockets, cada uno usado para generaciones diferentes de microprocesadores. Por ejemplo un zócalo Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. El socket 7 es usado por los microprocesadores Pentium/Pentium MMX/K6/K6-2 o K6-3. El socket 8 es utilizado por los procesadores Pentium Pro de Intel, un microprocesador optimizado para código en 32 bits, el cual sentaría las bases de lo que se conoce en la actualidad. El socket 370 o PPGA es el zócalo que utilizan los últimos modelos del Pentium III y algunos Celeron de Intel. El socket 462 ó socket A es el zócalo donde se insertan los procesadores Athlon de AMD de versiones relativamente recientes, como Duron, Sempron, Thunderbird o Athlon XP. El socket 754 es un zócalo utilizado para los primeros Athlon 64 y algunas versiones más modernas de Sempron (los basados en una variante del núcleo del Athlon 64 llamada Paris). El socket 939 es el zócalo utilizado en los procesadores más recientes de AMD, como versiones mejoradas de Sempron y de Athlon 64, el Athlon 64FX y el Athlon 64 de doble núcleo, el cual saldrá al mercado en el segundo semestre de 200511. Por el lado de Intel, se encuentran los sockets 423 y 478, que son los zócalos donde se insertan los primeros Pentium 4 y algunas versiones de Celeron (con tecnología de 130nm, 128KB de caché L2 y bus de 400MHz, los cuales saldrán del mercado a partir del 20 de mayo de 200512). El 423 hace referencia al modelo de 0,18 micras (Willamete) y el 478 al construido según la tecnología de 0,13 micras (Northwood). El tamaño de micras mencionado hace referencia al tamaño de cada transistor, de forma tal que cuanto menor sea tu tamaño, más pequeño será el microprocesador y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele 11 12 Tomado de http://www.agalisa.es Tomado de http://www.agalisa.es/web/article1027.html estar relacionada con una reducción del calor generado y con un menor consumo de energía. El socket 775, usado en los más modernos Pentium 4 y Celeron D (basados en el núcleo Prescott con 256KB de caché L2, bus a 533MHz y tecnología de 90nm. Están disponibles con velocidades comprendidas entre los 2'40 y los 3'06GHz), elimina los pines de contacto del procesador y los coloca en la placa base. Los zócalos tipo Slot difieren de los tipo socket en el modo de conexión de los microprocesadores. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base. El Slot A es donde se conectan los procesadores Athlon antiguos de AMD. El Slot 1 es donde se conectan los procesadores Pentium II y antiguos Pentium III y el zócalo Slot 2 es donde se insertan los procesadores Xeon antiguos de Intel, dedicados a servidores de red. 3. MEMORIA RAM La memoria RAM (Random Access Memory) es un dispositivo de almacenamiento temporal que se encarga de cargar porciones de programas y datos para que el microprocesador las ejecute. Es un tipo de memoria a la que se puede acceder de forma aleatoria; es decir, se puede acceder a cualquiera de sus bytes sin pasar por los bytes precedentes. Hay dos tipos básicos de RAM: DRAM (Dynamic RAM), RAM dinámica SRAM (Static RAM), RAM estática Los dos tipos difieren en la tecnología que usan para almacenar los datos. La RAM dinámica necesita ser refrescada cientos de veces por segundo, mientras que la RAM estática no necesita ser refrescada tan frecuentemente, lo que la hace más rápida, pero también más cara que la RAM dinámica. Ambos tipos son volátiles, lo que significa que pueden perder su contenido cuando se desconecta la alimentación. En el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria disponible para programas. En contraste, ROM (Read Only Memory) se refiere a la memoria especial, generalmente usada para almacenar programas que realizan tareas de arranque de la máquina y de diagnósticos. La mayoría de los computadores personales tienen una pequeña cantidad de ROM (algunos Kbytes). La memoria RAM es de lectura y escritura, mientras que la ROM es de solo lectura. Memoria Caché ó RAM Caché : Es un sistema especial de almacenamiento de alta velocidad, diseñada para que los programas accedan una y otra vez a los mismos datos o instrucciones. Esta información es guardada en SRAM (RAM estática de alta velocidad). Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el caché constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias caché están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kbytes. El caché de disco trabaja sobre los mismos principios que la memoria caché, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la caché del disco para ver si los datos ya están ahí. La caché de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro. SDRAM (Synchronous DRAM): Es un tipo de memoria RAM dinámica (DRAM) que es casi un 20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de memoria interna de tal forma que mientras que se está accediendo a una matriz, la siguiente se está preparando para el acceso. Un tipo de SDRAM más rápido es SDRAM-II, también conocido como DDR SDRAM (Double Data Rate SDRAM), la cual permite leer y escribir datos a dos veces la velocidad del bus. Por su encapsulado, podemos clasificar la memoria RAM en: SIMM:(Single In line Memory Module): El primer formato que se hizo popular en los computadores personales tenía 3.5" de largo y usaba un conector de 30 pines. Posteriormente se fabricó un formato más largo, de 4.25", el cual usa 72 contactos y puede almacenar hasta 64 megabytes de RAM. Su velocidad de respuesta no era inferior a los 50 o 60 nanosegundos. Ambos formatos han desaparecido actualmente de los computadores modernos. Sobre la instalación de estos módulos hemos de tener presente que los de 30 contactos debían ser instalados de cuatro en cuatro en la mayor parte de los casos. En el caso de los de 72 contactos, éstos debían ser instalados a pares. Como es lógico, en los dos casos es necesario que los módulos tengan el mismo tamaño y, a ser posible, igual marca y modelo. La inserción de estos módulos es muy sencilla, entrando en los bancos de memoria en un ángulo de unos 45 grados, tras lo que sólo hay que empujar el módulo y colocarlo en posición vertical. En cualquiera de los dos casos, sólo hemos de tener presente el respetar que la pestaña lateral se acople en el banco elegido. DIMM (Dual In line Memory Module): Es un tipo de encapsulado, consistente en una pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos. Es la evolución de los módulos SIMM y su tiempo de respuesta es notablemente inferior, por debajo de los 10 nanosegundos. Es el más cómodo de todos, dado que puede instalarse de manera individual, no siendo necesario hacer coincidir marcas y modelos sobre la misma placa. Para insertarlos sobre el banco de memoria, tan sólo habrá que hacer coincidir las pestañas que encontraremos en el centro y laterales del módulo. Bastará una presión en los extremos del módulo para que éste quede insertado. RIMM Los RIMM (Rambus Inline Memory Module), son módulos de memoria de tipo RAMBUS, la cual era apoyada por Intel y creada por la empresa Rambus, pero que cayó en desuso por su alto precio, causado por el pago de regalías en concepto de uso. Estos módulos de memoria de 184 pines, se caracterizan por estar cubiertos con una protección metálica, generalmente de aluminio, que también ayuda a su correcta refrigeración. DDR Este tipo de memoria, actualmente muy usado, desplazó del mercado a las memorias RIMM por el bajo costo y excelente velocidad, que llega a ser hasta de 400 MHz. 4. BIOS BIOS son las siglas de Basic Input/Output System: Sistema Básico de Entrada/Salida. Esta definición es algo engañosa porque parece que la BIOS sólo se encargara de gestionar los sistemas I/O, pero es bastante más que eso; podríamos decir que es el sistema operativo del hardware del computador. Sin la BIOS no podría ponerse en marcha. Controla el proceso de arranque del sistema operativo y está presente para realizar las funciones y accesos al más bajo nivel. Físicamente es un chip de memoria (que puede estar soldado a la placa base o en un zócalo para facilitar su sustitución), en el cual se almacena un código que el computador utiliza al conectarse la corriente. El código marca los pasos para que el hardware se inicie y compruebe los componentes. Hay tres tipos de BIOS y su diferencia está en el método que se utiliza para grabarla: ROM: Sólo se puede grabar en el momento que se fabrica el chip. La información que contiene no se puede alterar. EPROM: Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip se puede apreciar una especie de ventanilla transparente, que suele estar tapada con una pegatina. Flash BIOS: Son los más utilizados en la actualidad. Estos chips se pueden grabar mediante impulsos eléctricos por lo que el propietario del computador la puede actualizar con un programa. Otro componente que está ligado directamente a la BIOS es la CMOS: (Complementary Metal Oxide Semiconductor). Es una pequeña porción de RAM, que almacena los valores y ajustes de la BIOS: la hora, la fecha y los parámetros de los dispositivos de nuestro ordenador. La CMOS, al ser memoria RAM, tiene que estar continuamente enganchada a la corriente eléctrica para no perder la información. Cuando nosotros apagamos el computador entra en funcionamiento una pila de litio situada en la placa base. Esta pila no es recargable y tiene una vida aproximada de cinco o seis años. Entre los principales fabricantes de BIOS sen encuentran: AMI, AWARD, PHOENIX, IBM, MrBIOS De acuerdo con los diferentes fabricantes de Bios, para ingresar a estas se tienen pulsaciones específicas de teclas durante el proceso de arranque. Algunas de estas son13: FABRICANTE BIOS COMBINACIÓN DE TECLAS ALR (Advanced Logic Research, Inc) AMD (Advanced Micro Devices, Inc) AMI BIOS Award BIOS DTK BIOS IBM PS/2 BIOS Phoenix BIOS F2 ó Ctrl-Alt-Esc F1 Del ó F1 ó F2 Ctrl.-Alt-Esc, ó Del Esc Ctrl-Alt-Ins y luego Ctrl-Alt-Del Ctrl-Alt-Esc ó Ctrl-Alt-S ó Ctrl-Alt-Ins ó F1 ó F2 ó Ctrl-S De acuerdo a la modernidad de los equipos, se tiene: EQUIPOS VIEJOS EQUIPOS MODERNOS Ctrl + Alt + Esc Ctrl + Alt + Ins Ctrl + Alt + Enter Ctrl + Alt + S PAGE UP KEY PAGE DOWN KEY F1 F2 ESC DEL De acuerdo a la marca del equipo se tiene: MARCA EQUIPO Acer Ast Compaq CompUSA Cybermax Dell Fortiva 5000 13 COMBINACIÓN DE TECLAS F1 ó F2 ó Ctrl+Alt+Esc Ctrl+Alt+Esc, Ctrl+Alt+Del F1 ó F10 cuando el cursor esté titilando en la esquina superior de la pantalla Del Esc F1 ó F2 ó F3 ó Del ó Ctrl+Alt+Enter ó Fn+F1 Ctrl+Alt+A Tomado de https://iomega-eu-en.custhelp.com/cgi-bin/iomega_eu_en.cfg/php/enduser/std_adp.php?p_faqid=673 y http://www.michaelstevenstech.com/bios_manufacturer.htm Gateway 2000 Hewlett Packard IBM IBM algunosPS/2s, como 75 y 90 IBM modelos antiguos IBM PS/2 IBM PS/2 con partición de referencia Micron NEC Olivetti PC Pro Packard Bell Seanix Sharp Laptop 9020 Sony Sony VAIO Tandon Tiger Toshiba Toshiba Laptops (algunos) Zenith Otras posibilidades F1 ó F2 ó Ctrl+Alt+S F1 ó F2 ó Esc F1 ó F2 Ctrl+Alt Mantener presionados ambos botones del mouse CTRL+ALT+INS después de CTRL+ALT+DEL Ins F1, F2, ó Del F2 Shift+Ctrl+Alt + “NumericPadDel” F1 ó F2 ó Del Del F2 F3 mientras está encendiendo el equipo, luego F2 ó F1 F2, F3 Ctrl+Shift+Esc ó Ctrl+Alt+Esc Del Esc ó F1 Toshiba Utility Ctrl-Alt-Ins Ctrl+Esc ó Ctrl+Alt y + 5. ALMACENAMIENTO DE DATOS CINTA MAGNÉTICA La unidad de cinta o unidades DAT (Digital Audio Tape, Cinta Digital de Audio) es un dispositivo de acceso secuencial, esto quiere decir que no se puede saltar sobre la superficie del cassette como en los discos. La cinta magnética es frecuentemente usada para respaldar el contenido de las unidades de disco duro, además, es muchas veces el medio elegido para almacenar archivos grandes que se leen y procesan de manera secuencial. Funcionamiento Si se desea acceder a algún registro se debe primero pasar por los primeros registros hasta llegar al deseado. Debido a que se debe acceder secuencialmente; es muy difícil leer y escribir en una misma cinta. Para almacenar los datos en una cinta magnética, estos se guardan en forma de pequeñas marcas en el material magnetizable que cubre una cara de la cinta de plástico. La superficie recubierta de la cinta se divide en columnas verticales (o cuadros) e hileras horizontales llamadas canales o pistas. Dado que cualquier cinta magnética es un medio continuo, la forma de identificar registros individuales en cada cinta es el uso de espacios en blanco llamado separación entre registros, los cuales se crean automáticamente al grabar los datos en la cinta. Cuando se leen los datos desde un registro de una cinta en movimiento al procesador, la cinta se detiene al llegar a un espacio. La cinta permanece inmóvil hasta que se termine de procesar el registro y a continuación se mueve otra vez para pasar el siguiente registro al computador. El procedimiento se repite hasta que se procesa todo el archivo. Si la cinta contiene un gran número de registros muy cortos y si cada uno de los registros esta separado por medio de una separación entre registros es posible que mas de la mitad de la cinta este en blanco y que se interrumpa constantemente el movimiento de la cinta. Para evitar esta situación ineficiente, es posible unir varios registros cortos para formar un bloque de cinta. DISCOS FLEXIBLES Este es un dispositivo de almacenamiento secundario, que permite realizar en forma sencilla el intercambio de información entre computadores. Es blando y puede doblarse fácilmente de ahí el nombre de disco flexible. Los tamaños más conocidos son: el de 8", el de 5¼ " y el de 3½ ". Dentro de la unidad de disco, un motor hace girar el disco rápidamente, los datos se graban en las pistas de la superficie del disco en movimiento y se leen de esa superficie por medio de una cabeza de lect/esc. Cuando se introdujeron los discos flexibles solo podía utilizarse una cara del disco. Por lo cual los discos de 5¼ ", tenían una capacidad de 360 Kb y los de 3½ " de 720 Kb, pero conforme fue perfeccionándose la tecnología, se aumentó la capacidad de almacenamiento, gracias a la posibilidad de utilizar las dos caras del disco y del aumento en la densidad de grabación, logrando 1.2MB (en discos de 5¼ ") y 1.44 MB. (en discos de 3½ ") CD-ROM A partir del éxito que se obtuvo dentro de la electrónica con la producción de disco compacto, se dio origen en el campo de la informática a un dispositivo que se proyecto desde su inicio para solo lectura de datos digitales dándole el nombre de CD ROM. Ante todo digamos que el CD ROM, significa según sus iniciales Compact Disk-Read Only Memory (Disco Compacto de solo Lectura), equivalente a almacenamiento de datos permanentes no modificables, cuya capacidad permite almacenar grandes cantidades de información en forma digital. El material del que esta hecho un CD ROM es policarbonato, una fibra plastificada resistente, también utilizada en la fabricación de ventanas contra balas y cascos protectores. Sus características físicas son: 120 mm. de diámetro, 1.2 mm de grosor y un orificio central de 15 mm de diámetro El CD ROM tiene una capacidad de almacenamiento de 650, 700, 800 y 900 Mbytes dependiendo de la marca y modelo del fabricante Su principal ventaja es que el método de grabación es óptico, por lo que no hay contacto físico entre la cabeza lectora y el disco en consecuencia no existe rozamiento alguno teniendo así menor desgaste y mayor seguridad en los datos. Su principal desventaja es que el acceso es secuencial, es decir, la búsqueda se efectúa a lo largo de toda la grabación en espiral por lo que la recuperación de datos es más lenta. En la actualidad, un tipo muy utilizado de CD-ROM es el CD-RW, el cual permite almacenar y borrar información un sin número de veces. DISCOS DUROS Como su nombre lo dice, son sólidos, porque están construidos sobre un disco grueso de aluminio. Un disco duro posee un material magnético de mejor calidad para poder disponer de un mayor número de pistas y sectores por pista, además que sobre el montaje pueden tenerse uno, dos o más discos, cada uno con sus propias cabezas. El disco duro se diferencia del disco flexible en que el primero normalmente está fijo en el computador y no es transportable. Cada disco de la unidad tiene sus dos lados recubiertos por una fina capa de óxido metálico sensible al magnetismo, usualmente cromo o níquel. Al igual que los discos flexibles, los discos duros están formados por pistas o tracks (pistas concéntricas invisibles a lo largo de las cuales se graban los pulsos magnéticos), las cuales a su vez se subdividen en sectores. SISTEMAS DE ARCHIVOS Son los algoritmos y estructuras lógicas utilizados para poder acceder a la información que tenemos en el disco. Cada uno de los sistemas operativos crea estas estructuras y logaritmos de diferente manera independientemente del hardware. El desempeño de nuestro disco duro, la confiabilidad, seguridad, capacidad de expansión y la compatibilidad, estará en función de estas estructuras lógicas. Fat12: Es el sistema de archivos de DOS, y es con el que formateamos los disquetes. Fue muy utilizado en las primeras PCs. Fat16: Sistema de archivos utilizado con Windows en sus primeras versiones. Entre sus mayores limitaciones era el no permitir particiones mayores a 2 GB y el no usar nombre largos en los archivos, sólo 8 caracteres. Fat32: Fue utilizado a partir de 1997, adoptado principalmente desde Windows 98Se llamo Fat32, por que utiliza números de 32 bits para representar a los clusters en lugar de los 16 en los sistemas anteriores. NTFS: Especialmente creado para usarlo en Windows NT, aunque actualmente se utiliza también en Windows 2000 y Windows XP. Su propósito era satisfacer la demanda y necesidades de de seguridad y eficacia para servidores y otras aplicaciones en red. No tiene limitaciones de tamaño clusters y en general en el disco. Una ventaja de este sistema de archivos es que tiene un sistema antifragmentación. Ext2 y Ext3: Estos sistemas de archivos son utilizados ampliamente en los sistemas operativos Linux y trabajan de manera totalmente distinta a los utilizados por Windows (FAT, FAT32, NTFS). Las particiones del disco se colocan en el directorio raíz. Podemos incluso tener diferentes particiones y cada una de ellas tener su propio sistema de archivos. PARTICIONES Consiste en dividir un disco duro en uno o más fraccionamientos lógicos que se comportan cada uno como si fuesen un disco real e independiente del resto. En los File Systems utilizados por los sistemas operativos Windows (FAT, FAT32, NTFS), a cada unidad se le identifica con una letra, siendo la unidad C la partición primaria o principal. Por medio del programa "FDISK" del DOS/WINDOWS, o de otros programas utilitarios (algunos de ellos mucho más completos), se puede crear las particiones del disco y definirlas como primaria, extendida o lógica Cuando tenemos una sola partición en nuestro disco se dice que es una partición primaria, para crear nuevas secciones o unidades en el disco duro accesible al sistema operativo, necesitamos una partición extendida. (Otros sistemas operativos como linux, permiten definir hasta 4 particiones primarias). Por ejemplo si tenemos un disco con capacidad de 20 GB y queremos dividirlo en tres partes una de 12 GB, otra de una de 2 GB y otra de 6 GB, debemos crear una partición primaria de 12 GB en la cual residirán los archivos del sistema operativo y luego una extendida de 8 GB. En esta última tendremos que crear dos particiones lógicas una de 2 GB y otra de 6 GB. MBR El Master Boot Record (MBR) es un pequeño programa que es ejecutado en cada Inicio del sistema operativo y se encuentra ubicado en el primer sector absoluto (Track 0, head 0, sector 1) del disco duro. Este programa busca la tabla de particiones para transferirla al Sector de Arranque (Boot). El MBR está compuesto por código ejecutable y las entradas de la Tabla de Particiones. Offset +00h +1BEh +1CEh +1DEh +1EEh +1FEh Estructura del Master Boot Record Naturaleza Código ejecutable 1a entrada de tabla de particiones 2a entrada de tabla de particiones 3a entrada de tabla de particiones 4a entrada de tabla de particiones Marcador ejecutable (AA55h) Tamaño Variable 16 bytes 16 bytes 16 bytes 16 bytes 2 bytes Los virus que infectan al Master Boot Record, por lo general lo reemplazan con su código viral e inutilizan en forma lógica el disco duro, haciendo que el usuario afectado tenga que formatear y cargar nuevamente su Sistema Operativo y los demás programas, a menos que cuente con un disquete de emergencia. Debido a que el MBR se ejecuta cada vez se inicia el sistema, este clase de virus son de extremadamente peligrosidad. 6. LA COMUNICACIÓN CON EL PC PUERTOS SERIALES La historia de las comunicaciones seriales comienza a la par del lenguaje de comunicación en la historia del hombre, en la que fonemas, símbolos y ademanes son proferidos uno después de otro en una secuencia que con ciertas reglas tiene un sentido y un significado, que es el concepto subyacente en las comunicaciones seriales para la transferencia de datos de un emisor a un receptor un bit a la vez a través de una línea sencilla o un circuito. La implementación de las comunicaciones seriales para la transmisión de datos es una evolución del telégrafo, en la cual para fines prácticos de la comunicación de datos digitales, el puerto serial toma 8, 16 o 32 bits paralelos del transporte de datos de la computadora o del dispositivo y los convierte en un flujo serial de 8, 16 o 32 bits, haciendo el proceso inverso durante la recepción. El sistema de comunicación serial fue adoptado durante los años 60s. Los puertos seriales son aquellos que transmiten y reciben información bit a bit, tales como: los puertos COM, el puerto infrarrojo, los puertos USB. En teoría un enlace serial podría requerir de sólo dos cables, una línea de señal y una tierra, para mover la señal serial de una locación a otra. Pero en la práctica esto no funciona correctamente al paso del tiempo ya que algunos bits pueden perder el nivel de la señal, alterando el resultado final. Un bit faltante en la terminal de recepción puede provocar que todos los bits siguientes sean cambiados o recorridos, resultando en datos incorrectos al convertirlos de regreso a una señal paralela. Por lo tanto, para conseguir una comunicación serial confiable se deben de prevenir estos errores de bit que pueden emerger en varias formas distintas. En un principio el control de software de los puertos seriales resultaba en una gran sobrecarga para el procesador, hasta los 19200 bps, ya que los transportes de datos estaban limitados a 8 y 16 bits. Con la llegada de los transportes de datos MCA, EISA, VLBus y PCI, llegó la ventaja de la posesión de transporte de datos y el acceso directo a memoria elevando la velocidad de transmisión eliminando la sobrecarga del procesador. Al eliminar la utilización del BIOS y controlando el puerto directamente se comenzaron a obtener velocidades de 115200 bps y superiores, especialmente con la llegada de puertos inteligentes que por sí mismos pueden controlar la comunicación. La comunicación serial por módem telefónico sobre líneas de voz, alcanza únicamente hasta los 56,000 bps debido a restricciones técnicas de la propia línea de voz. Comunicación síncrona y comunicación asíncrona Comunicación síncrona es aquella en donde los dispositivos de envío y recepción de la comunicación son sincronizados utilizando un reloj que cronometra con precisión el tiempo que separa cada bit. Al verificar el tiempo el dispositivo receptor puede determinar si un bit se ha perdido o si un bit extra, usualmente inducido eléctricamente, ha sido introducido en el flujo de bits. Si cualquiera de los dispositivos pierde la señal de tiempo, la comunicación es terminada. El otro método, el utilizado en las computadoras, consiste en agregar marcadores dentro del flujo de bits para ayudar a seguir cada bit de datos. Al introducir un bit de inicio que indica el inicio de un corto flujo de datos, la posición de cada bit puede ser determinado cronometrando los bits a intervalos regulares. Enviando bits de inicio al comienzo de cada flujo de 8 bits, los dos sistemas pueden no estar sincronizados por una señal de reloj, lo único que es importante es que ambos sistemas estén configurados a la misma velocidad. Cuando el dispositivo receptor de la comunicación recibe el bit de inicio comienza un temporizador de corto tiempo. Al mantener los flujos cortos no hay suficiente tiempo para que el reloj salga de sincronía. Este método es conocido como comunicación asíncrona debido a que las terminales de la comunicación no están sincronizadas por una línea de señal. Todo el esquema de comunicación serial cambió con la introducción del Bus Serie Universal, mejor conocido por las siglas de su nombre en inglés USB por Universal Serial Bus en 1996, que en sí ya deja de ser un puerto convirtiéndose en un bus con todos los beneficios de esto. La mayoría de los equipos que implementan puertos seriales, basados en el estándar RS-232 utilizan un conector DB-25 aún cuando la documentación original del estándar no especifica un conector en especial, y la mayoría de las computadoras comenzaron a utilizar el conector DB-9 dado que 9 son los conectores que se requieren para la comunicación asíncrona. PUERTO PARALELO Es el que típicamente utiliza la impresora, aunque sirve para otro tipo de aplicaciones. Este puerto es más rápido que el serie, pero en cambio su longitud es muy pequeña, encontrándose en la práctica que a una distancia de 10 metros se presenten problemas en la comunicación. Además es muy sensible a cualquier interferencia. El puerto paralelo de un PC posee un conector de salida del tipo DB25 hembra cuyo diagrama y señales utilizadas podemos ver en la siguiente figura: UNIVERSAL SERIAL BUS (USB) USB es una nueva arquitectura de bus desarrollado por un grupo de siete empresas Compaq, Digital Equipment Corp, IBM PC Co., Intel, Microsoft, NEC y Northern Telecom que forma parte de los avances plug-and-play y permite instalar periféricos sin tener que abrir la máquina para instalarle hardware, es decir, basta con que se conectes dicho periférico en la parte posterior del computador, tal y como se conecta un mouse, unos parlantes o una impresora. Otra característica importante es que permite a los dispositivos trabajar a velocidades mayores, en promedio a unos 12 Mbps (USB 1.1), es decir, más o menos de 3 a 5 veces más rápido que un dispositivo de puerto paralelo y de 20 a 40 veces más rápido que un dispositivo de puerto serial, de hecho los puertos seriales o paralelos están muy cerca de jubilarse ya que entre los periféricos de tipo USB altamente utilizados están mouse e impresora además de teclados, escáners, bocinas, joysticks, módems, cámaras digitales, teléfonos y sistemas para identificación de huellas digitales. USB 2.0 es un avance en la velocidad de transferencia de información sobre el USB convencional, puesto que la incremento 40 veces; es decir, funciona a 480MBps. Es muy importante tener en cuenta que todos los periféricos que se conecten al puerto USB (máximo 127 usando concentradores o hubs USB) consumen una única IRQ. TECNOLOGIA FIREWIRE En el avance incesante del mundo hacia el estilo de vida digital, una de las tecnologías imprescindibles ha sido el estándar serial de entrada/salida (E/S) IEEE 1394, también conocido como FireWire (Apple), iLink (Sony), y DV (Vídeo Digital, usado en las videocámaras). Este bus multimedial de alta velocidad ha proporcionado un modo fiable, rentable y eficaz de trasladar archivos de sonido e imágenes y grandes volúmenes de datos. Diseñado para facilitar el establecimiento de redes y la transferencia de grandes cantidades de distintos tipos de datos digitales entre equipos y usuarios, FireWire se ha convertido en un elemento indispensable para la industria de la electrónica de consumo y la informática personal. El aporte de Apple al estándar FireWire ha merecido el reconocimiento de la Academia de las Artes y Ciencias de la Televisión Estadounidense, que ha otorgado a la compañía un Emmy por la creación del estándar, que tiene numerosas aplicaciones en el sector de la televisión. En cuanto a las aplicaciones en informática, el vicepresidente de Intel, Anand Chandrasekher pronostica que el vídeo digital y FireWire serán cada vez más importantes en los PC. Cuando se introdujo originalmente el estándar FireWire en 1995, supuso una revolución sin precedentes. Ofrecía una anchura de banda treinta veces mayor que el estándar para periféricos Universal Serial Bus (USB) 1.1, y hacía posible una auténtica legión de nuevas prestaciones y aplicaciones. Ahora una segunda versión del FireWire, conocida como Fireware 800 ofrece al usuario velocidades de transferencia de 800 Mbps, el doble de los 400 Mbps del FireWire original. Todas las versiones de FireWire ofrecen conexión plug and play, que permite al usuario empezar a utilizar el dispositivo inmediatamente después de conectarlo. También permiten conectar hasta 63 dispositivos a un solo bus y establecer conexiones peer-to-peer, por lo que pueden conectarse al mismo tiempo varios ordenadores y varios periféricos FireWire a un mismo bus. FireWire admite también transmisiones tanto isocrónicas como asincrónicas, garantizando la entrega de los datos en tiempo real y evitando el riesgo de que los datos lleguen en orden incorrecto o con retrasos. Además del incremento de velocidad, otra de las mejoras decisivas de Fireware 800 es la admisión de mayores distancias de cable. Si se usan cables fabricados con fibra óptica de calidad profesional y ambos dispositivos están conectados mediante un hub FireWire 800, pueden utilizarse cables de hasta 100 metros. FireWire 800 frente a USB 2.0 USB 2.0 tiene una tasa de transferencia máxima de 480 Mbps, por lo que en teoría supera los 400 Mbps de FireWire 400. Sin embargo, debido a las diferencias en los protocolos de transmisión, esa superioridad no se traslada a la práctica en todos los periféricos. Pero FireWire 800 duplica claramente esa velocidad teórica y proporciona inmediatamente un mejor rendimiento usando una tecnología de disco moderna. Además, FireWire es más adecuado para las transferencias de datos isocrónicas (en las que el factor tiempo es esencial), que son las requeridas por el vídeo de alta definición. MEDIOS INALAMBRICOS PUERTOS INFRARROJOS El 28 de Junio de 1993, 50 compañías relacionadas con la computación decidieron que era tiempo de desarrollar comunicación inalámbrica para computadoras, Formando la Asociación de Desarrolladores de Infrarrojo (Infrared Developers Association, IrDA). La idea detrás del IrDA era crear un estándar para utilizar rayos infrarrojos para unir una computadora y otros periféricos. Hasta este momento en la historia los rayos infrarrojos habían sido utilizados únicamente en controles remotos para dispositivos y algunas computadoras portátiles; sin embargo cada uno de los fabricantes creaba su propio esquema de comunicación haciendo poco compatible la comunicación entre dispositivos. Los fabricantes de computadoras comenzaron a tomar ventaja de la tecnología IrDA a principio de a década de 1990 cuando las computadoras tipo lap-top se comenzaron a hacer populares. La tecnología IrDA utilizada en ese entonces estaba en desarrollo, por lo cual muchas veces la tecnología IrDA varia de fabricante a fabricante. Estas variaciones causaban conflictos con otros dispositivos. Para finales de Junio de 1994, IrDA estableció el primer estándar, conocido como IrDA versión 1.0 que era básicamente una forma óptica del puerto de comunicaciones RS232. En Agosto de 1995 IrDA ajustó el estándar para comunicaciones infrarrojas extendiendo la velocidad de comunicación a 4 megabits por segundo. En 1997 los miembros de IrDA se reunieron en la Comdex, en Las Vegas, para promover nuevos dispositivos inalámbricos para el mercado de consumo y artilugios de comunicaciones que tomaban ventaja de la tecnología IrBUS. IrBus es el nombre original para los estándares de la IrDA, que permitía comunicación bidireccional entre dispositivos separados hasta por 24 pies, haciendo posible la creación de palancas de mano, tapetes de juegos y unidades de disco. IrBus también era capaz de comunicación simultánea con dos anfitriones y era capaz de soportar hasta 8 dispositivos. También se especulaba que futuros dispositivos IrBus pudieran ser integrados a objetos domésticos como hornos de microondas. A principio de 1998 los fabricantes comenzaron a liberar la tecnología IrBus integrada en la circuitería de entrada - salida de sus sistemas para permitir que la tecnología IrDA fuera utilizada, aunque fueron reticentes para incorporar un puerto IrDA en computadoras de sobremesa debido al costo extra, que era aproximadamente de US$10.00 por el transceptor, pero lo hicieron disponible como accesorio a través del puerto RS-232. La tecnología infrarroja se hizo cada vez más popular en las computadoras portátiles, así como asistentes personales digitales y computadoras de mano. Sejin America, Inc; Microsoft; HP; y Sharp comenzaron a fabricar accesorios inalámbricos IrDA tales como teclados, ratones, palancas de mando, tableros de juegos y controles remotos que aprovecharan la tecnología IrBus en computadoras personales de escritorio. La mayoría de estos accesorios estuvieron disponibles a mediados de 1998, y debido a la limitada utilización de tecnología IrBus en el mercado, estas chácharas tecnológicas no tuvieron mucho éxito en el mercado. BLUETOOTH Bluetooth es una tecnología de radio que permite conectar distintos dispositivos, teléfonos móviles, PDAs, dispositivos periféricos o componentes del sistema como el teclado o el ratón y portátiles entre sí. Bluetooth se diferencia de IrDA en algunos aspectos importantes: por una parte, los distintos dispositivos no deben “verse” necesariamente; por otra, varios dispositivos pueden agruparse y formar redes completas. No obstante, actualmente sólo pueden alcanzarse tasas de datos de hasta 720 Kbps como máximo (al menos en la versión actual 1.2). En teoría, con Bluetooth es posible establecer conexiones entre dispositivos separados por una pared. En la práctica, esto depende en gran medida de la pared y de la clase de dispositivo. Esta última determina el alcance máximo de la transmisión, que varía de 10 a 100 metros dependiendo de cuál de las tres clases se utilice. 7. PERIFÉRICOS TECLADOS El teclado es el dispositivo más común de entrada de datos. Se lo utiliza para introducir comandos, textos y números. Estrictamente hablando, es un dispositivo de entrada y de salida, ya que los LEDs también pueden ser controlados por la máquina. Consta de una matriz de contactos, que al presionar una tecla, cierran el circuito. Un microcontrolador detecta la presión de la tecla, y genera un código. Al soltarse la tecla, se genera otro código. De esta manera el chip localizado en la placa del teclado puede saber cuándo fue presionada y cuándo fue soltada, y actuar en consecuencia. Los códigos generador son llamados Códigos de barrido (Scan code, en inglés). Una vez detectada la presión de la tecla, los códigos de barrido son generados, y enviados de forma serial a través del cable y con el conector del teclado, llegan a la placa madre de la PC. Allí, el código es recibido por el microcontrolador conocido como BIOS DE TECLADO. Este chip compara el código de barrido con el correspondiente a la Tabla de caracteres. Genera una interrupción por hardware, y envía los datos al procesador. Existen los siguientes tipos de teclado: • Tipo XT de 83 teclas: Obsoleto. • Tipo AT de 101/102 teclas • Tipo Windows 95/98, 104 teclas. Se le agregaron al teclado AT tres teclas especiales que llaman a los menús contextuales del Windows. • Tipo ergonómico: Con un formato diferente, con mayor comodidad para el usuario. Existen dos tipos de conectores para los teclados: • Conector DIN: grande, de 5 pines. • Conector Mini DIN: chico, de 6 pines. También conocido como conector PS/2, ya que el modelo PS/2 de IBM fue el primero que tuvo este tipo. En caso de que el conector de la placa madre no sea el mismo que el del teclado, existen adaptadores de DIN a Mini DIN, y viceversa, ya que eléctricamente todos los teclados envían señales en el mismo formato. MONITORES Es la pantalla en la que se ve la información suministrada por el computador. En la mayoría de los casos se trata de un aparato basado en un tubo de rayos catódicos, aunque en el caso de los computadores portátiles y algunos monitores modernos, es una pantalla plana de cristal líquido. Al número de puntos que puede representar el monitor en la pantalla se le llama resolución, y las más comunes son 640*480, 800*600 y 1024*768 TARJETAS GRAFICAS La tarjeta de video es la encargada de transmitir la información gráfica que debe aparecer en la pantalla. Realiza principalmente dos operaciones: interpretar los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en pantalla en forma de un rectángulo mas o menos grande, compuesto de puntos individuales de diferentes colores; y la otra función es la de coger la salida de datos digitales resultante del proceso anterior y la transforma en una señal analógica que pueda entender el monitor. VELOCIDAD DE REFRESCO: El refresco es el número de veces que se dibuja la pantalla por segundo. Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos pueden sufrir bastante y tener problemas visuales. TARJETAS DE MODEM MODEM es un acrónimo del término MOdulador-DEModulador; es decir, que es un dispositivo que transforma las señales digitales del computador en señal telefónica analógica y viceversa, con lo que permite al computador transmitir y recibir información por la línea telefónica. Existen varios tipos de modems; • Internos: Consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector: ISA, PCI, AMR. La principal ventaja de estos módems reside en su mayor integración con el computador, ya que no ocupan espacio sobre la mesa y toman su alimentación eléctrica del propio equipo. Además, suelen ser algo más barato debido a carecer de carcasa y transformador, especialmente si son PCI. Como desventaja, son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse mediante software. En la actualidad se consiguen con frecuencia los modems software, HSP o Winmodems, en los cuales se han eliminado varias piezas electrónicas, generalmente chips especializados, de manera que el microprocesador del computador debe suplir su función mediante software. La ventaja resulta evidente: menos piezas, más baratos. Las desventajas, que su rendimiento depende del número de aplicaciones abiertas y que el software que los maneja sólo suele estar disponible para Windows 95/98, de ahí el apelativo de Winmódems. Evidentemente, resultan poco recomendables pero son baratos. • Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el computador. La conexión con este se realiza generalmente mediante uno de los puertos serie o "COM", aunque ya existen modelos para puerto USB, de conexión y configuración aún más sencillas. La ventaja de estos módems reside en su fácil transportabilidad entre computadores, además de que podemos saber el estado el módem (marcando, con/sin línea, transmitiendo...) mediante unas luces que suelen tener en el frontal. Pero su principal desventaja es que son un aparato más que necesitan un enchufe para su transformador, además de ser más costosos. • Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es similar al de una tarjeta de crédito y sus capacidades pueden ser igual o más avanzadas que en los modelos normales. La velocidad del MODEM es sin duda el parámetro que mejor lo define, midiéndose esta baudios por segundo o lo que equivale a bits por segundo (no bytes). Ahora, si tenemos en cuenta que un byte está compuesto de 8 bits; por tanto, un módem de 56.000 bps transmitirá en las mejores condiciones un máximo de 7.000 bytes por segundo, pero atenuantes como la saturación de las líneas, la baja capacidad que proporcione el proveedor de acceso a Internet, la mala calidad del módem o de la línea (ruidos, interferencias, cruces...) suelen hacer que la velocidad media efectiva sea mucho menor, de 4.000 bytes/s. TARJETA DE RED Es una tarjeta de circuitos integrados que se inserta en uno de los zócalos de expansión de la placa base y cuya función es conectar el ordenador con la estructura física y lógica de la red informática a la que pertenece. De esta manera, todos los computadores de la red podrán intercambiar información conforme a los protocolos establecidos en la misma. Existen distintos tipos de especificaciones de red, definidos según estándares de la IEEE; para cada uno de ellos se emplean distintos tipos de tarjetas y distintos modos de conexión entre computadores, lo que tiene consecuencias en la velocidad de transmisión de la información que propician. Una de las tarjetas de red más empleadas es la de tipo Ethernet, que en sus distintas variantes, puede permitir transmisiones desde algunos miles de bits por segundo hasta un gigabit por segundo. IMPRESORAS La impresora es el periférico que el computador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos computadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces. La velocidad en una impresora se suele medie en ppm (páginas por minuto) aunque los fabricantes siempre calculan este parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se advierte de que son páginas con máximo un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del computador. Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo puerto paralelo, si existiera más de uno). Como el puerto paralelo original no era demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el EPP, que son más rápidos y añaden bidireccionalidad a la comunicación (es decir, que la impresora puede "hablarle" al PC, lo que antiguamente era imposible) al tiempo que mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto paralelo (estándar, ECP, EPP...) se suele seleccionar en la BIOS del computador. Otras formas de conectar una impresora es mediante un conector USB (rápido y sencillo), mediante un dispositivo de infrarrojos (muy útil en el caso de portátiles) o directamente conectados a una red (y no a un computador conectado a la misma) en el caso de grandes impresoras para grupos. 8. HERRAMIENTAS DE DIAGNOSTICO Y MANTENIMIENTO ANTI-ESPIAS Se considera spyware o programas espía a las aplicaciones informáticas que recopilan información personal del usuario, como, por ejemplo: • El software que está instalado en la PC. • Cuáles son los hábitos de uso de Internet. • Páginas visitadas. • Passwords, etc. Posteriormente utilizan esta información, en ocasiones para transmitirla a terceras compañías, tales como empresas de publicidad, u otras interesadas en dichos datos. Los programas espías (spyware, en inglés) ya desplazaron a los virus en el ranking de los “malware”, los programas, documentos o mensajes susceptibles de causar perjuicios a los usuarios de sistemas informáticos. Según un informe de la empresa de seguridad Panda Software, el 84 por ciento del malware instalado en las computadoras de todo el mundo es spyware. Los spyware presentan una serie de características que impiden su correcta detección y que les permite instalarse en un gran número de PC durante largos períodos de tiempo: • Utilizan sistemas de camuflaje casi perfectos. Normalmente, se instalan en el equipo junto con algún tipo de aplicación: un cliente de alguna aplicación P2P, alguna utilidad para el disco duro. • Los nombres de los archivos que se corresponden con este tipo de programas no suelen dar una idea de su verdadera naturaleza, por lo que pueden pasar desapercibidos entre el resto de ficheros de una aplicación. Al no tratarse de virus, ni utilizar ninguna rutina que pueda relacionarlos con ellos, los programas antivirus no los detectan, a no ser que hayan sido programados específicamente para ello. • Los programas espía o spyware pueden ser detectados gracias a sus efectos, que se traducen en un consumo de recursos elevado y, por lo tanto, una ralentización del PC, un gran consumo de ancho de banda de conexión a Internet o la pérdida total de dicha conexión, así como la inestabilidad del sistema. Además, también suelen cambiar las configuraciones de algunas aplicaciones, como la página de inicio del navegador, o depositar iconos en el escritorio. Ahora que ya se sabe que es un programa espía y sus efectos en el PC, vamos a mencionar los principales anti-espías (anti-spyware), que se pueden encontrar en la red: • Ad-Aware SE: Este software es desarrollado por Lavasoft, una empresa alemana con sede en Suecia que se encarga de escribir software de seguridad principalmente. Es muy difundido por su alta efectividad a la hora de eliminar spyware. • SpyBotS&D: Spybot - Search & Destroy puede detectar y eliminar software espía de diferente tipo en el computador. • Spywareblaster: Es un programa antiespías que previene la instalación de spyware basado en activeX, además bloquea la ejecución de tracking y cookies en Internet Explorer y Mozilla Firefox y restringe las acciones de sitios web potencialmente peligrosos. ANTIVIRUS Un virus informático es un programa de computadora que ocupa una cantidad mínima de espacio en disco (para poder pasar desapercibido), se ejecuta sin conocimiento del usuario y se dedica a autorreplicarse, es decir, hace copias de sí mismo e infecta archivos, tablas de partición o sectores de arranque de los discos duros y disquetes para poder expandirse lo más rápidamente posible, hasta que llega el momento de la "explosión", es decir, el momento culminante que marca el final de la infección y cuando llega suele venir acompañado del formateo del disco duro, borrado de archivos o mensajes de protesta. No obstante el daño se ha estado ejerciendo durante todo el proceso de infección, ya que el virus ha estado ocupando memoria en el computador, ha ralentizado los procesos y ha "engordado" los archivos que ha infectado. Ahora vamos a hablar de los principales antivirus que se encuentran actualmente y mencionaremos muchos otros: • NORTON ANTIVIRUS: Este antivirus es quizás el más conocido mundialmente por los usuarios de computadores, es eficiente y confiable a la hora de la detección de los virus aunque algunas veces presenta problemas de fondo cuando se trata de removerlos. Posee una interfaz amigable con el usuario. No es de libre distribución por lo que para instalarlo se requiere comprar una licencia. Es desarrollado por Symantec, una empresa estadounidense de seguridad en informática. • F-PROT: Este antivirus de F-RISK software internacional tiene múltiples versiones, es muy conocido por su sencillez y efectividad, siendo muy difundido en la WEB. Tiene una versión libre para DOS que detecta y elimina eficientemente las amenazas. • PANDA: Este antivirus es producido por Panda Software. Las versiones más conocidas y recientes de este antivirus son el platinum y el titanium. Ambos son fáciles de utilizar y son, como todos, interactivamente actualizables. • AVG: Producido por Grisoft, su versión libre es una de las mas populares y utilizadas por los usuarios. Entre sus características principales se tiene que cuenta con una interfaz gráfica sencilla de utilizar, provee de protección en el arranque, protección en tiempo real y para correo electrónico. • STINGER: Es una utilidad usada para detectar y remover virus específicos. No es un substituto para una protección antivirus completa, pero puede ser una herramienta potente y completa para administradores y usuarios cuando se trata de lidiar con un sistema infectado. HERRAMIENTAS DE DIAGNOSTICO Entre las principales herramientas de diagnóstico, se encuentran 2 incorporadas en todas las versiones del sistema operativo Windows, Scandisk, utilizado para detectar y en algunos casos reparar errores tanto de asignación como físicos en los diferentes medios de almacenamiento. y Defrag, el cual corrige la fragmentación o segmentación de archivos en un disco, reubicándolos en sectores contiguos del disco. Pero además de estas herramientas, existen otras también muy importantes a la hora de hacer un diagnóstico o reparación sencilla de nuestro sistema, entre ellas tenemos: • EVEREST: Everest Home Edition es una completísima herramienta que, en unos pocos segundos, realiza un extenso y detallado análisis de tu PC, mostrando prácticamente todos los aspectos del sistema referentes a hardware y software, como procesador, placa base, memoria, sistema operativo, procesos activos, DLL en uso, servicios en ejecución, carpetas compartidas, usuarios, configuración de audio y vídeo, configuración de red local e Internet, software instalado, etc. En cuanto se ejecuta se obtiene toda la información disponible a través de una sencilla interfaz y mediante una clara estructura de árbol. En ésta se clasifican los distintos elementos analizados, mostrando además enlaces al sitio web del fabricante para mayor información y/o descarga de controladores. • SISOFT SANDRA: Utilidad de diagnósticos y pruebas para Windows. Proporciona información sobre el hardware, el software, y todos los dispositivos instalados en el sistema. Permite chequear información acerca de: CPU, BIOS, administración avanzada de la energía, buses PCI y AGP, video, memoria (Windows y DOS), unidades, puertos, teclado, Mouse, tarjeta de sonido, impresora, dispositivos MCI, procesos, modulos OLE, volcados a CMOS, etc. • HDD REGENERATOR: Gracias a este programa es posible recuperar sectores defectuosos de un disco duro sin perder la información que en ellos se encuentre, a diferencia de otras aplicaciones, las cuales marcan estos sectores como defectuosos y los “oculta” imposibilitando así la escritura o lectura en ellos, perdiendo todos los datos que almacenaban. UTILITARIOS Winzip: El más popular manejador de archivos comprimidos ZIP para Windows. Incluye un asistente para no tener que recordar las opciones de memoria. WinRAR: Es otro importante compresor, cuya característica principal el uso del formato RAR, de mayor rata de compresión, incluso en archivos multimedia. Además tiene soporte para comprimir y descomprimir archivos en otros formatos. KeyText: Excelente automatizador de tareas para Windows. Permite programar la ejecución de cualquier tarea o programa con un simple y comprensible asistente. Se ejecuta a la hora especificada, busca determinada ventana activa se encarga de hacer los clics o presionar las teclas. Complicadas tareas cotidianas con programas de cualquier tipo se hacen automáticamente con KeyText. Para más información visite la página de MjMSoft Macro Magic: Permite grabar macros para automatizar fácilmente cualquier proceso. Imagine esas complicadas funciones de 6 teclas y 20 clicks, todas haciéndose solas, dándole tiempos de espera a los programas con solo una combinación de 2 teclas o 1 doble click de mouse. Puede grabar hasta los movimientos exactos del ratón. Para más información visite la página de Macro Magic AutoMate: Automatiza completamente cualquier programa en Windows. Incluye un Constructor de Macros incorporado, asistentes, una amplia gama de configuraciones para hacer fácil cualquier automatización. La versión registrada incluye un lenguaje script para tener un control total sobre cualquier aplicación. Para más información visite la página de AutoMate Professional Emergency Recovery System: Hace copias de resguardo de las partes críticas de Windows así como los archivos que el usuario especifique. Tiene varias opciones para ajustarse a cada backup y un sistema de rotación que le asegura que sus datos guardados no tengan más de 3 a 7 días de antigüedad. Para más información visite la página de Emergency Recovery System Win Rescue: Programa para resguardar la configuración actual de Windows y en caso de tener que reinstalarlo, podrá hacerlo en un par de minutos. Incluye un programa de DOS que recupera Windows incluso si Windows no arranca. Para más información visite la página de Win Rescue Total Commander: El más completo de los manejadores de archivos para Windows. Con todos los comandos del Norton Commander, copia y mueve archivos en 2do plano, compresor interno en formato ZIP, soporte para archivos RAR, maneja nombres largos, soporte multilenguaje, copia de .zip a .zip, cliente FTP incluido. Para más información visite www.ghisler.com Diskeeper Lite: Es un defragmentador para Windows. Puede defragmentar tanto FAT como NTFS estando Windows en normal funcionamiento. Diskeeper realiza varios pasos de optimización por cada sesión por lo que le permite, de forma segura, defragmentar y consolidar el espacio libre del volumen. Cuando es usado regularmente mantiene el rendimiento de Windows al máximo. Para más información visite la página de Executive Software International MemTurbo: Al igual que un disco rígido, la memoria RAM se fragmenta con el uso continuo. MemTurbo se encarga de defragmentar la memoria de Windows, optimizando el sistema y haciendo que sus programas se ejecuten más rápido. Además, MemTurbo tiene configuraciones especiales del cache de Windows optimizadas para personas que utilicen muchos juegos, o que trabajen con aplicaciones potentes e incluso aumenta el cache si tiene una grabadora de CD para que sea fluida la información y no se vacíe el buffer. Ideal para computadoras que quedan toda la noche encendida y no es posible reiniciarlas, tales como servidores. Para más información visite la página de MemTurbo TWEAKI: Este software le permite cambiarle hasta 260 parámetros en configuraciones del Windows, desde apariencia hasta funcionamientos internos. También permite crear nuevos menús contextuales, siento visualizados con un click del botón derecho del mouse, sobre un archivo o una carpeta. ClipCache Plus: Graba todo lo que el usuario corte o copie al portapapeles de Windows para luego administrar estos datos desde un cómodo icono en la barra del sistema. Para mas información visite la página de Xrayz Software FreeSpace: Es una innovadora utilidad que permite liberar espacio en disco de su PC sin tener que desinstalar ni borrar nada. El usuario puede definir que archivos quiere comprimir y que nivel de compresión. Una vez finalizado el proceso, los archivos comprimidos se ven exactamente igual pero ocupan mucho menos espacio y sin interferir con el normal funcionamiento de Windows. Para más información visite la página de Mijenix Corp.