INSTITUTO TECNOLOGICO DE DELICIAS INGENIERIA EN SISTEMAS COMPUTACIONALES INTERFACES PERIFÉRICOS ESTANDARIZADOS ALVARADO GARDEA ALEJANDRA CASTILLO OLIVAS SAUL DOMINGUEZ URVINA HEBER ADRIAN GUERRERO LOPEZ ANA KAREN MONTES CARNERO CARLOS ALFREDO PEREIDA RODRIGUEZ JOHANA QUINTANA LUZ ELVA RODRIGUEZ CABELLO ISAI ALARCON ROCHA OSCAR HERRERA SERNA VICTOR HUGO VILLALOBOS URANGA VICTOR ING. DAVID URITA E. Cd. Delicias, Chih., Octubre del 2010 TEMAS 1. BLUETOOH 2. BUS DE EXPANSION ISA, EISA, MCA, LOCAL, VLB, PCI, PCI EXPRESS 3. FIREWIRE 4. HDMI 5. IEEE 6. IRDA - INFRARROJO 7. PUERTO SERIAL 8. PUERTO PARALELO 9. SCSI ASIMETRICO Y DIFERENCIAL 10. TARJETAS ACELERADORAS 2D, 3D 11. TARJETAS DE RED 12. TARJETAS DE SONIDO 13. USB 1.0, 1.1, 2.0, 3.0 14. WI-FI (802.11) 1. BLUETOOH El estándar IEEE 802.15 se enfoca básicamente en el desarrollo de estándares para redes WPAN también conocidas como redes inalámbricas de corta distancia. Permite que dispositivos inalámbricos como computadoras portátiles, PDAs, teléfonos celulares, pagers, entre otros puedan comunicarse e interactuar entre ellos. Debido a que este no puede coexistir en una red inalámbrica de alguna manera se definió un estándar para permitir la interoperabilidad de las redes inalámbricas LAN con las redes inalámbricas PAN. Trabajando en la banda ISM de los 2.4 GHz Bluetooth es la norma que define el estándar global de comunicación inalámbrica, que posibilita la transmisión de voz y datos entre diferentes equipos mediante el enlace por radiofrecuencia. Los principales objetivos que se pretende conseguir con esta norma son: Facilitar la comunicación entre equipos móviles y fijos. Eliminar cables y conectores entre ellos. Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales. RESEÑA HISTORICA El origen de su nombre se da por el rey Danés y Noruego Harald Blatand, cuya traducción a ingles seria Harold Bluetooth, conocido por buen comunicador y por unificar las tribus noruegas, suecas y danesas. La traducción textual al idioma español es “diente azul”, aunque el termino en Danés era utilizado para denotar que era de tez morena y no de dientes azules. =) En 1994 se realizaron los primeros estudios de Ericsson para comunicaciones inalámbricas. En 1998 se funda el SIG Bluetooth En 1999 aparece la especificación Bluetooth 1.0: núcleo o core de interfaz de radio, banda base, enlace y transporte. Perfil fundamental: directrices para la interoperabilidad de aplicaciones. En 2001 Versión 1.1 de la especificación Bluetooth. En 2003 versión 1.2 En 2004 versión 2.0 + EDR En 2008 versión 2.1 + EDR La elección de Bluetooth para denominar a esta nueva tecnología se debe a que, de la misma manera pretende unir diferentes dispositivos como: ordenadores, teléfonos móviles, manos libres de autos etc. El logo de Bluetooth combina la representación de las ruinas nórdicas Hagalaz (transcrito por H) y Berkana (Transcrito por B) en un mismo símbolo. Diseñado especialmente para dispositivos de bajo consumo, con cobertura baja y basada en transceptores de bajo coste. La comunicación se lleva a cabo bajo radiofrecuencias lo que implica que los dispositivos no tienen que estar alineados para comunicarse. Debido a la potencia de transmisión del bluetooth se pueden clasificar en tres clases: clase 1, clase 2, clase 3. En la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2 se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1, es decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a ser más débil. Los dispositivos con Bluetooth también pueden clasificarse según su ancho de banda: Clase Clase Potencia máxima Potencia máxima Rango permitida permitida (mW) (dBm) 100 mW 20 dBm ~100 metros 2.5 mW 4 dBm ~25 metros 1 mW 0 dBm ~1 metro (aproximado) 1 Clase 2 Clase 3 Versión Ancho de banda Versión 1.2 1 Mbit/s Versión 2.0 + EDR 3 Mbit/s Versión 3.0 + HS 24 Mbit/s Del mismo modo que el Wi-Fi utiliza la técnica FHSS en español espectro ensanchado por saltos de frecuencia que consiste en dividir la banda de frecuencia de 2.402 GHz a 2.480 GHz en 79 canales denominados saltos de 1 MHz de ancho cada uno. Por lo tanto al cambiar de canales con una frecuencia de 1600 veces por segundo, este estándar puede evitar la interferencia con otras señales de radio. La interconexión se da formando piconets de donde se pueden añadir hasta 8 dispositivos y uno actuara como maestro y los demás serán esclavos. Para la comunicación utiliza dos tipos de enlace: El enlace sin conexión ACL (utilizado para tráfico de datos) y el enlace síncrono orientado a conexión SCO (utilizado para tráfico de datos, multimedia y audio en tiempo real.) La topología de red que utiliza este estándar como es tecnología de redes PAN utiliza la comunicación stand-alone conocida a nivel mundial entre dos dispositivos, hasta 8 dispositivos se pueden conectar al piconet y se sincronizan a el maestro, la unión de varios de estos se denominan scatternet. Existen infinidad de dispositivos que usan esta tecnología, por mencionar algunos: Auriculares de estéreo, manos libres, sistemas integrados, GPS, módulos integrados en placa, adaptadores USB, teclados, ratones, impresoras, PS3, teléfonos móviles, smartphones, PDAS, cámaras de foto/video, proyectores, etc. Utiliza varios protocolas para lograr la comunicación entre dispositivos, mencionados a continuación: INTERFAZ DE RADIO: Permite el enlace físico por radiofrecuencias entre unidades Bluetooth, realiza tareas de modulación y demodulación de los datos en señales RF que se transmiten por el aire. CAPA DE BANDA BASE: Proporciona los dos tipos de enlace físico, enlace asíncrono sin conexión (ACL) para tráfico de datos. O el enlace síncrono orientado a conexión (SCO), para trafico de audio y datos. CAPA DE PROTOCOLO DE GESTION DE ENLACE: LMP es el responsable de la configuración y control del enlace entre equipos, cuando dos equipos se encuentran sus gestores de enlace se comunican. También realizan tareas de seguridad como autenticación, cifrado, gestión de claves. CAPA DE INTERFAZ DE CONTROLADOR DE HOST: HCI es la frontera entre las capas de protocolo de hardware y software, abstrae la comunicación entre el equipo y el firmware del módulo Bluetooth. Es la capa de acceso homogénea para todos los módulos de cualquier fabricante. Encargado también del descubrimiento (inquiry) de dispositivos que se encuentran dentro del radio de cobertura. CAPA DE PROTOCOLO DE ADAPTACIÓN Y CONTROL DEL ENLACE LOGICO: L2CAP se encarga de la multiplexación de protocolos de nivel superior desde el protocolo de la banda base, segmento y recompensación de paquetes antes de su transmisión. Intercambio de información referente a la calidad de servicio QoS. Definida únicamente para enlaces de tipo ACL y no permite más que un solo enlace. CAPA DE PROTOCOLO DE DESCUBRIMIENTO DE SERVICIOS SDP: A través de los servicios dos dispositivos pueden ejecutar aplicaciones comunes e intercambiar datos. Es aquí donde se soportan los modelos de uso de “perfiles de Bluetooth” Servicie record contiene toda la información de un servicio que mantiene un servidor SDP y describe los atributos de un servicio: nombre, descripción, canal… etc. E implementa dos operaciones: Búsqueda de un servicio especifico entre dispositivos cercanos y enumeración de servicios ofrecidos por un determinado dispositivo. CAPA RFCOMM: Protocolo de emulación de puerto serie RS-232 sobre L2CAP, sustituye el cable y emula señales de control y datos proporcionando capacidad de transporte a los niveles superiores. PROTOCOLO OBEX: Permite el intercambio de objetos de forma simple y espontanea. PROTOCOLO ADOPTADOS PPP: Acceso al protocolo IP para garantizar interoperabilidad de los equipos Bluetooth con aplicaciones basadas en protocolos TCP y UDP. COMANDOS AT: Permite configurar un equipo y enviarle instrucciones para ejecutarlo. PILAS DE PROTOCOLOS DE APLICACIÓN: Sobre la pila de protocolos de Bluetooth cada fabricante puede implementar su capa de protocolos de aplicación propietarios. Conocidos como stocks por ejemplo: Windows Stacks: Widcomm, Toshiba, Microsoft, IIVT Bluesolei. Linux Stack: BlueZ, OpenBT, Affix. BLUEZ: Pila de protocolos oficial para Linux, incluida desde el kernel 2.4.6 Adecuada para auditoria de seguridad de dispositivos Bluetooth, incluye un conjunto de herramientas para funciones Bluetooth, proporciona librerías para el desarrollo de aplicaiones Bluetooth. Por otro lado además de los Distintos protocolos que se usan se tienen diferentes perfiles para el manejo de los mismos dispositivos. En ellos se definen protocolos y características de los modelos de uso de Bluetooth. A continuación se mencionaran: PERFIL DEL PUERTO SERIE (SP): Sustitución del cable en comunicaciones serie RS-232, en donde se utiliza es en la conexión del receptor GPS con el visualizador de mapas. PERFIL DE ACCESO TELEFONICO A REDES (DUN): Permite el acceso a internet a través de equipos telefónicos, en donde se utiliza es en utilizar el teléfono para salir a internet a través de GPRS PERFIL DE AURICULARES (HS): Permite utilizar un dispositivo auricular como interfaz de entrada y salida para mantener conversaciones telefónicas con libertad de movimiento, en donde se utilizan es en el uso de manos libres auriculares y manos libres de automóvil. PERFILES DE PASARELA DE AUDIO (AG): Permite establecer una pasarela de audio entre dos equipos de forma que el audio que reproduce el software de uno se transmite a través de un enlace SCO y puede ser proyectado por los altavoces del segundo equipo, en donde se utiliza es en establecer pasarelas de audio entre dos ordenadores. PERFIL DE FAX: Permite acceder a redes WAN a través de un punto de acceso a datos, se utiliza en el teléfono móvil como dispositivos fax para enviar y recibir mensajes de fax. PERFIL DE ACCESO A RED (LAP): Permite acceder a redes LAN a través de un punto de acceso Bluetooth, se utiliza en configurar un PC conectado a una red LAN como punto de acceso inalámbrico para dispositivos móviles. PERFIL DE TRANSFERENCIA DE ARCHIVOS (FTP): Permite el intercambio de archivos a través de OBEX file transfer, se utiliza en transferir archivos desde un teléfono a un PC u otro teléfono. PERFIL DE CARGA DE OBJETOS (OPUSH): Permite el envió de archivos a través de OBEX Object Push, utilizado en marketing de proximidad Bluetooth, en envió de publicidad. PERFIL DE SINCRONIZACION (SYNC): Permite la sincronización de elementos PIM entre dos equipos, se utiliza en sincronizar la agenda y el calendario de citas con Outlook. PERFIL DE DISTRIBUCION DE AUDIO (A2DP): Permite establecer una pasarela de audio de calidad entre dos dispositivos, se utiliza al reproducir un teléfono móvil a través de unos auriculares o unos altavoces inalámbricos. PERFIL DE DISPOSITIVOS DE INTERFAZ HUMANA (HID): Permiten la conexión inalámbrica de periféricos, se utiliza en un teclado o ratón inalámbrico en una PC o una PDA. 2. BUSES DE EXPANSION ISA (Industry Standard Arquitecture) En 1984 IBM presenta el PC AT (con el procesador Intel 80286) se rompió la aparentemente inquebrantable relación entre bus y microprocesador Aunque en la práctica el reloj del procesador de un AT funciona a la misma velocidad que su reloj de bus, IBM había abierto la puerta a la posibilidad de que este último fuese más rápido que el reloj del bus. Así pues el bus que incorporó el AT fue de un ancho de banda de 16 bits funcionando a 8.33 Mhz. Este enfoque de diseño no oficial se denominó oficialmente ISA (Industry Standard Arquitecture) en 1988. EISA (Extended ISA) Como el mercado necesitaba un bus compatible ISA que fuese más rápido, la mayoría de fabricantes establecieron las especificaciones del bus EISA (Extended ISA) que ensanchaba la ruta de datos hasta 32 bits La necesidad de compatibilidad con ISA hizo que este nuevo bus tuviese que cargar con la velocidad básica de transferencia de ISA (8.33 Mhz). Los procesadores Intel 80486 y la invasión en el mercado de los sistemas gráficos como Windows hicieron necesario la aparición de un nuevo tipo de bus que estuviese a la altura de esta tecnología. Al manejarse gráficos en color se producían grandes cuellos de botella al pasar del procesador al bus ISA (el 80486 funcionaba a 33 Mhz y el bus ISA a 8.33 Mhz). EL BUS MCA El bus MCA o MICROCHANNEL, como se le suele denominar, no es en realidad un bus, sino una especie de sistema de canalización, en el cual los datos no son transmitidos al receptor correspondiente mediante un código simple de direccionamiento, sino que, prácticamente, tienen que ser recogidos por él. Para ello, previamente se informa al receptor (que puede ser, por ejemplo, la tarjeta gráfica) sobre el punto en el que se encuentran los datos y se le da acceso a un canal, por el cual pueden ser transportados. Este proceso tiene lugar sin la participación de la CPU. El MICROCHANNEL, que fue desarrollado por IBM para su línea de equipos PS/2, alcanza, con esta metodología un índice de rendimiento nada despreciable. La cota de transmisión de datos puede llegar a los 20 MB/s y además el procesador, también mejora su ritmo operativo. Sin embargo, este sistema no ha conseguido implantarse fuera de la generación IBM PS/2 para la que fue diseñado. La razón de ello no es otra que su total incompatibilidad con las demás tarjetas existentes. Por consiguiente, si desea instalar una placa MICROCHANNEL tendrá que descartar los componentes del sistema que ya disponía y adquirir los que se corresponden con ella. Y todo esto a un precio superior al que usted estaba acostumbrado. En efecto, hasta la más insignificante ampliación, pensemos, por ejemplo, en una ranura adicional, requiere elementos electrónicos costosos y complejos (al fin y al cabo el objetivo es liberar de trabajo a la CPU) para adaptarse al MICROCHANNEL. Este hecho, junto a la difícil situación de las patentes, llevo al resto de fabricantes a desarrollar el estándar EISA arriba descrito. Así las cosas, si usted es ya propietario de una IBM PS/2 (exceptuemos al PS/2-30, que cuenta con un estándar ISA de 8 bits), le felicitamos por disponer de un sistema de bus inteligente y con gran capacidad operativa y deseamos que no se vea en la necesidad de efectuar ampliaciones. Si está contemplando la idea de adquirir una de estas computadoras, tendría que analizar la mejora del rendimiento que le ofrece MICROCHANNEL, frente a las limitadas posibilidades de expansión que implica. No olvide que muchas modificaciones es estos equipos (véase, por ejemplo, la instalación de una unidad de disquete de 5 1/4 pulgadas o de un disco duro más potente) requieren inversiones considerables o la asistencia directa del fabricante. LOCAL BUS Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para asentarse en el mercado, en estos años se han ideado otros conceptos de bus. Se inició con el llamado Vesa Local Bus (VLBus), que fue concebido y propagado independientemente por el comité VESA, que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera poco que ver con el diseño del bus del PC. Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del bus AT. Por eso surgió, en el Comité VESA, la propuesta para un bus más rápido que fue el VESA Local Bus. VESA LOCAL BUS (VLB) Al contrario que con el EISA, MCA y PCI, el bus VL no sustituye al bus ISA sino que lo complementa. Un PC con bus VL dispone para ello de un bus ISA y de las correspondientes ranuras (slots) para tarjetas de ampliación. Además, en un PC con bus VL puede haber, sin embargo, una, dos o incluso tres ranuras de expansión, para la colocación de tarjetas concebidas para el bus VL, casi siempre gráficos. Solamente estos slots están conectados con la CPU a través de un bus VL, de tal manera que las otras ranuras permanecen sin ser molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes. El VL es una expansión homogeneizada de bus local, que funciona a 32 bits, pero que puede realizar operaciones a 16 bits. VESA presentó la primera versión del estándar VL-BUS en agosto de 1992. La aceptación por parte del mercado fue inmediata. Fiel a sus orígenes, el VL-BUS se acerca mucho al diseño del procesador 80486. De hecho presenta las mismas necesidades de señal de dicho chip, exceptuando unas cuantas menos estrictas destinadas a mantener la compatibilidad con los 386. La especificación VL-Bus como tal, no establece límites, ni superiores ni inferiores, en la velocidad del reloj, pero una mayor cantidad de conectores supone una mayor capacitancia, lo que hace que la fiabilidad disminuya a la par que aumenta la frecuencia. En la práctica, el VL-BUS no puede superar los 66 Mhz. Por este motivo, la especificación VL-BUS original recomienda que los diseñadores no empleen más de tres dispositivos de bus local en sistemas que operan a velocidades superiores a los 33 Mhz. A velocidades de bus superiores, el total disminuye: a 40 Mhz solo se pueden incorporar dos dispositivos; y a 50 Mhz un único dispositivo que ha de integrarse en la placa. En la práctica, la mejor combinación de rendimiento y funciones aparece a 33 Mhz. Tras la presentación del procesador Pentium a 64 bits, VESA comenzó a trabajar en un nuevo estándar (VL-Bus versión 2.0). La nueva especificación define un interface de 64 bits pero que mantienen toda compatibilidad con la actual especificación VL-BUS. La nueva especificación 2.0 redefine además la cantidad máxima de ranuras VL-BUS que se permiten en un sistema sencillo. Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz, siempre que el sistema utilice un diseño de baja capacitancia. En el nombre del bus VL queda de manifiesto que se trata de un bus local. De forma distinta al bus ISA éste se acopla directamente en la CPU. Esto le proporciona por un lado una mejora substancial de la frecuencia de reloj (de la CPU) y hace que dependa de las líneas de control de la CPU y del reloj. A estas desventajas hay que añadirle que no en todos los puntos están bien resueltas las especificaciones del comité VESA, hecho que a la larga le llevará a que el éxito del bus VL se vea empañado por ello. En sistemas 486 económicos se podía encontrar a menudo, pero su mejor momento ya ha pasado. Ventajas del VLB 1.- Elevada velocidad de trabajo, puesto que las señales que aparecen en la expansión son las del CPU, de manera que la tarjeta insertada trabaja a la velocidad del CPU. 2.- Compatibilidad con las tarjetas ISA XT y AT. 3.- Facilidad del diseño de la circuitería. 4.- Gran aceptación por parte de los fabricantes y el público. PCI (Peripheral Component Interconnect) En el año 1992 Intel presentó un nuevo bus local llamado PCI, que aunque no mejoró el rendimiento del VLB, superó las carencias que presentaba este bus que estaba orientado al diseño de los procesadores 80486. La velocidad de este bus era inicialmente de 20 Mhz y funcionaba a 32 bits, aunque en la actualidad su velocidad de transferencia alcanza los 33 Mhz y su ancho de banda llega hasta los 64 bits. Otra característica de este tipo de bus es la posibilidad de que se le conecten tarjetas que funcionen a distintos voltajes. Los PCI están destinados a seguir por muchas años mas en el mercado. Presenta un moderno bus que no sólo está meditado para no tener la relación del bus ISA en relación a la frecuencia de reloj o su capacidad sino que también la sincronización con las tarjetas de ampliación en relación a sus direcciones de puerto, canales DMA e interrupciones se ha automatizado finalmente de tal manera que el usuario no deberá preocuparse más por ello. PCI es independiente de la CPU, ya que entre la CPU y el bus PCI se instalará siempre un controlador de bus PCI, lo que facilita en gran medida el trabajo de los diseñadores de placas Por ello también será posible instalarlo en sistemas que no estén basados en el procesador Intel si no que pueden usar otros, como por ejemplo, un procesador Alpha de DEC. Como su ancho de bus es de 32Bits (4 Bytes), podemos transferir hasta 132MB (4 Bytes x 33MHz = 132). Evidentemente, la tarjeta PCI que coloquemos debe ser capaz de soportar tal transferencia de datos. Un dato importante es que los IRQ y DMA son asignados a la ranura de turno dinámicamente, es decir, por software y sobre la marcha. Esto ha provocado la aparición del estándar Plug-and-Play, según el cual ya no hay jumpers ni switches para la configuración, sino que todo se realiza por software, haciendo más cómoda la vida del usuario. BUS Mastering del PCI Cuando tenemos una tarjeta que soporte un elevado flujo de datos,, es posible que la tarjeta se adueñe literalmente del bus con objeto de transferir los datos a la memoria o al controlador del disco duro. Esto hace que la transferencia de datos sea excepcionalmente rápida y fiable, sobre todo si la transferencia se hace de tarjeta a tarjeta siendo las dos compatibles Bus Master (por ejemplo, la transferencia de datos de la capturadora de vídeo a una tarjeta controladora de discos duros SCSI). Ventajas del PCI Bus 1. Debido al tamaño del bus, las placas son más pequeñas, abaratando los costos de fabricación. 2. Mecánicamente no tiene los problemas de anclaje del VLB. 3. Gracias al diseño de su arquitectura, pueden ponerse hasta ocho buses PCI. 4. Transferencias tarjeta/bus de hasta 132MB por segundo. 5. Permite técnicas muy refinadas de configuración y transferencia. Tabla de Bus Tipo Ancho de Velocidad de MB/sec Bus Bus ISA 16 bits 8 MHz 16 MBps EISA 32 bits 8 MHz 32 MBps VL-bus 32 bits 25 MHz 100 MBps VL-bus 32 bits 33 MHz 132 MBps PCI 32 bits 33 MHz 132 MBps PCI 64 bits 33 MHz 264 MBps PCI 64 bits 66 MHz 512 MBps PCI 64 bits 133 MHz 1 GBps PCI EXPRESS PCI Express (denominado aún a veces por su nombre clave 3GIO, por "tercera generación de E/S") es el sucesor de la tecnología PCI, disponible en las máquinas de sobremesa desde 1992. PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos como Módems y tarjetas de red, sino también al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997. Al contrario que su predecesor paralelo, PCI Express es un sistema de interconexión serie punto a punto, capaz de ofrecer transferencias con un altísimo ancho de banda, desde 200MB/seg para la implementación 1X, hasta 4GB/seg para el PCI Express 16X que se empleará con las tarjetas gráficas. La notación 1X y 16X se refiere al ancho del bus o número de líneas disponibles. La conexión en el PCI Express es, además, bidireccional, lo que permite un ancho de banda teórico de hasta 8GB/seg para un conector 16X, o unos asombrosos 16GB/seg para el actual máximo de 32X. PCI Express también incluye características novedosas, tales como gestión de energía, conexión y desconexión en caliente de dispositivos (como USB), y la capacidad de manejar transferencias de datos punto a punto, dirigidas todas desde un host. Esto último es importante porque permite a PCI Express emular un entorno de red, enviando datos entre dos dispositivos compatibles sin necesidad de que éstos pasen primero a través del chip host (un ejemplo sería la transferencia directa de datos desde una capturadora de vídeo hasta la tarjeta gráfica, sin que éstos se almacenen temporalmente en la memoria principal). PCI Express también optimiza el diseño de placas base, pues su tecnología serie precisa tan sólo de un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual también necesitaba que las longitudes de estos fuesen extremadamente precisas. La escalabilidad es otra característica clave, pues se pretende que las versiones posteriores de PCI Express sustituyan cualquier característica que PCI o, en el segmento de servidores, PCI-X, puedan ofrecer. Dado que PCI Express es, a nivel físico, un enlace chip a chip, podría ser usado, en teoría, para sustituir a la gran cantidad de tecnologías de interconexión actuales; sin embargo, está siendo orientado únicamente hacia tareas muy específicas. En el siguiente gráfico podemos apreciar una comparativa de las capacidades de los buses a lo largo del tiempo: Arquitectura Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/s en cada dirección. Cada ruta emplea dos pares de hilos (transmisión y recepción), ofreciendo un rendimiento efectivo de 200MBytes/s en cada dirección una vez factorizamos las sobrecargas del protocolo. No obstante, sus creadores afirman que tendrá una escalabilidad límite que permitirá hasta, al menos, 10Gbits/s en cada ruta y por cada dirección. La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI emplea una arquitectura en paralelo, su sucesor utiliza una arquitectura serie punto a punto o conmutada. Una ventaja del bus Serie frente al Paralelo es el alto ancho de banda que se puede conseguir con un número mucho menor de señales. Dichas conexiones no llegan a situaciones llamadas "delay skew", donde los bits en paralelo llegan en distintos instantes de tiempo y han de ser sincronizados. Además, son más baratas de implementar. Ciertamente, los interfaces paralelos pueden ser extremadamente veloces y muy efectivos para algunos interfaces a nivel de chips, o en la tecnología SCSI por ejemplo. Características físicas del enlace Serie y Configuraciones Una simple conexión serie de PCI-Express consta de una conexión dual utilizando dos pares de señales diferencialmente dirigidas y de baja tensión - un par de recepción y otro de envío (cuatro cables). Una señal diferencial se deriva usando la diferencia de potencial entre dos conductores. La conexión dual permite que los datos sean transferidos en ambas direcciones simultáneamente, similar a las conexiones full duplex (como en los teléfonos), solo que en este caso, cada par de hilos posee su propia toma de tierra. Con el bus PCI, un dispositivo debe requerir primero acceso al bus PCI compartido desde un árbitro central, y entonces tomar control del bus para transferir datos al dispositivo de destino, con la transmisión de datos ocurriendo en una dirección entre dos dispositivos en cada instante de tiempo. Un flujo de datos/reloj serie puede ser transferido sobre distancias mucho mayores que usando buses paralelo con los relojes separados (los buses paralelo con los relojes síncronos pueden sufrir problemas de recuperación y de ruidos en la señal). Además, los enlaces en serie son más baratos de implementar, lo cual es un buen presagio para conectar dispositivos de Entrada/Salida internamente, y también para conexiones largas externas. Sin embargo, extraer y crear los relojes de manera que vayan como hemos expuesto conlleva una sobrecarga adicional de procesamiento, por tanto, las interfaces paralelas tienden más a ser usadas para unir procesadores de alta velocidad y componentes de chipset en un sistema multiprocesador actual, ya que poseen una latencia menor. Velocidad de transferencia de una conexión PCI Express x32 En una dirección se puede transmitir: 2'5 Gbit/s x 32 canales = 80 Gbit/s = 10 GByte/s Si contamos la transferencia simultánea en ambas direcciones: 160 Gbit/s = 20 GByte/s Transmisión isócrona Es posible reservar y garantizar un ancho de banda bajo demanda consiguiendo una transmisión en tiempo real. A esto se le conoce como transferencia isócrona, pues se puede garantizar el tiempo que durará una transmisión de datos (i.e. tiempo real). Distancia La inclusión de la señal de reloj permite mayores distancias respecto a los buses paralelo cuya señal discurre por un línea separada. En el diseño de este bus se ha marcado como objetivo permitir hasta 50 cm de distancia entre dispositivos con tecnología de placa de circuito impreso de 4 capas y conectores estándar. Se podría aumentar la distancia usando componentes de mayor calidad. 3. FIREWIRE Historia Los sistemas firewall nacieron a finales de los años 80, fruto de la necesidad de crear restricción de acceso entre las redes existentes. En esta época la expansión de las redes académicas y militares, que culminó con la formación de la ARPANET y, posteriormente, internet y la popularización de los primeros ordenadores se hizo un trato lleno para la incipiente comunidad hacker. Casos de invasiones de redes, de accesos indebidos a sistemas y de fraudes en sistemas de telefonía comenzaron a surgir, y fueron retratados en la película Juegos de Guerra ("War Games"), de 1983. En 1988, administradores de red identificaron lo que se hizo la primera grande infestada de virus de ordenador y que quedó conocido como Internet Worm. En menos de 24 horas, el worm escrito por Robert T. Morris Jr disseminou-si por todos los sistemas de la entonces existente Internet (formado exclusivamente por redes de enseñanza y gubernamentales), provocando un verdadero "apagó" en la red. Primera Generación (Filtros de Paquetes) La tecnología fue diseminada en 1988 a través de investigación sostenida por la DEC; Bill Cheswick y Steve Bellovin de la AT&T desarrollan el primer modelo para prueba de concepto; El modelo se trataba de un filtro de paquetes responsable por la evaluación de paquetes del conjunto de protocolos TCP/IP; A pesar del principal protocolo de transporte TCP orientarse a un estado de conexiones, el filtro de paquetes no tenía este objetivo inicialmente (una posible vulnerabilidad); Hasta hoy, este tipo de tecnología es adoptada en equipamientos de red para permitir configuraciones de acceso simple (las llamadas "listas de acceso" o "Access lists"). El ipchains es ejemplo reciente de un firewall que utiliza la tecnología de esta generación. Hoy el "ipchains" fue sustituido por el iptables que es nativo del Linux y con mayores recursos. Reglas Típicas en la Primera Generación Restringir tráfico basado en la dirección IP de origen o destino; Restringir tráfico a través de la puerta (TCP o UDP) del servicio. Segunda Generación (Filtros de Estado de Sesión) La tecnología fue diseminada a partir de estudio desarrollado en el comienzo de los años 90 por el Bell Labs; Por el hecho del principal protocolo de transporte TCP orientarse por una tabla de estado en las conexiones, los filtros de paquetes no eran suficientemente efectivos si no observaran estas características; Fueron llamados también de firewall de circuito. Reglas Típicas en la Segunda Generación Todas las reglas de la 1.ª Generación; Restringir el tráfico para inicio de conexiones (NEW); Restringir el tráfico de paquetes que no hayan sido iniciados a partir de la red protegida (ESTABLISHED); Restringir el tráfico de paquetes que no hayan número de secuencia correctos. Firewall StateFull: Almacena el estado de las conexiones y filtra con base en ese estado. Tres estados para una conexión: - NEW: Nuevas conexiones;- - ESTABLISHED: Conexiones ya establecidas; - RELATED: Conexiones relacionadas a otras existentes. Tercera Generación (Gateway de Aplicación - OSI) Basado en los trabajos de Gen Spafford (co-autor del libro Practical Unix and Internet Security), Marcos Ranum (fundador de la empresa TIS), y Bill Cheswick; También son conocidos como "Firewall de Aplicación" o "Firewall Proxy"; Fue en esta generación que se lanzó el primer producto comercial en 13 de Junio de 1991—el SEAL de la DEC; Diversos productos comerciales surgieron y se popularizaron en la década de 90, como los firewalls Raptor, Gauntlet (que tenía su versión gratuita bautizada de TIS) y Sidewinder, entre otros; No confundir con el concepto actual de [[Firewall de Aplicación]]: firewalls de capa de Aplicación eran conocidos de esta forma por implementar el concepto de Proxy y de control de acceso en un único dispositivo (el Proxy Firewall), o sea, un sistema capaz de recibir una conexión, decodificar protocolos en la capa de aplicación e interceptar la comunicación entre cliente/servidor para aplicar reglas de acceso; Reglas Típicas en la Tercera Generación Todas las reglas de las generaciones anteriores; Restringir acceso FTP a usuarios anónimos; Restringir acceso HTTP para portales de entretenimiento; Restringir acceso a protocolos desconocidos en la puerta 443 (HTTPS). Cuarta Generación El firewall se consolida como una solución comercial para redes de comunicación TCP/IP; Diversas empresas como Fortinet, SonicWALL, Juniper, Checkpoint y Cisco desarrollan soluciones que amplían características anteriores: Stateful Inspection para inspeccionar paquetes y tráfico de datos basado en las características de cada aplicación, en las informaciones asociadas a todas las capas del modelo OSI (y no sólo en la capa de red o de aplicación) y en el estado de las conexiones y sesiones activas; Prevención de Intruso para fines de identificar el abuso del protocolo TCP/IP mismo en conexiones aparentemente legítimas; Deep Packet Inspection asociando las funcionalidades del Stateful Inspection con las técnicas de los dispositivos IPS; A partir del inicio de los años 2000, la tecnología de Firewall fue perfeccionada para ser aplicada también en estaciones de trabajo y ordenadores domésticos (el llamado "Firewall Personal"), además del surgimiento de soluciones de firewall dedicado a servidores y aplicaciones específicas (como servidores Web y banco de datos). Clasificación Los sistemas firewall pueden ser clasificados de la siguiente forma: Filtros de Paquetes Estos sistemas analizan individualmente los paquetes a la medida en que estos son transmitidos, verificando las informaciones de las capa de enlace (capa 2 del modelo ISO/OSI) y de red (capa 3 del modelo ISO/OSI). Las reglas pueden ser formadas indicando las direcciones de red (de origen y/o destino) y las puertas TCP/IP envueltas en la conexión. La principal desventaja de ese tipo de tecnología para la seguridad reside en la falta de control de estado del paquete, lo que permite que agentes maliciosos puedan producir paquetes simulados (con dirección IP falsificado, técnica conocida como IP Spoofing), fuera de contexto o aún para ser injertados en una sesión válida. Esta tecnología 1a.Generación fue ampliamente (incluyendo utilizada rotadores), no en los equipamientos de realizando ningún tipo de decodificado del protocolo o análisis en la capa de aplicación. Proxy Firewall o Gateways de Aplicación Los conceptos de gateways de aplicación (application-level gateways) y "bastión hosts" fueron introducidos por Marcus Ranum en 1995. Trabajando como una especie de eclusa, el firewall de proxy trabaja recibiendo el flujo de conexión, tratando los requisitos como se fueran una aplicación y originando un nuevo pedido bajo la responsabilidad del mismo firewall (non-transparent proxy) para el servidor de destino. La respuesta para el pedido es recibida por el firewall y analizada antes de ser entregue para el solicitante original. Los gateways de aplicaciones conectan las redes corporativas a la Internet a través de estaciones seguras (llamadas de bastión hosts) rodando aplicativos especializados para tratar y filtrar los datos (los proxy firewalls). Estos gateways, al reciban las requisitos de acceso de los usuarios y realicen una segunda conexión externa para recibir estos datos, acaban por esconder la identidad de los usuarios en estas requisitos externas, ofreciendo una protección adicional contra la acción de los crackers. Desventajas Para cada nuevo servicio que aparece en internet, el fabricante debe desarrollar su correspondiente agente de Proxy. Esto puede tardar meses, haciendo el cliente vulnerable mientras el fabricante no libera el agente específico. La instalación, mantenimiento y actualización de los agentes del Proxy requieren servicios especializados y pueden ser bastante complejos y caros; Los proxies introducen pérdida de desempeño en la red, ya que los mensajes deben ser procesados por el agente del Proxy. Por ejemplo, el servicio FTP manda un pedido al agente del Proxy para FTP, que por su parte interpreta la solicitud y habla con el servidor FTP externo para completar el pedido; La tecnología actual permite que el coste de implementación sea bastante reducido al utilizar CPUs de alto desempeño y bajo coste, así como sistemas operativos abiertos (Linux), sin embargo, se exige mantenimiento específico para asegurar que sea mantenido nivel de seguridad adecuado (p.ej.: aplicación de correcciones y configuración adecuada de los servidores). Firewall de Estado de Sesión Los firewalls de estado fueron introducidos originalmente en 1991 por la empresa DEC con el producto SEAL, sin embargo, no fue hasta 1994, con los israelíes de la Checkpoint, que la tecnología ganaría madurez suficiente. El producto Firewall-1 utilizaba la tecnología patentada llamada de Stateful Inspection, que tenía capacidad para identificar el protocolo de los paquetes transitados y "prever" las respuestas legítimas. En la verdad, el firewall guardaba el estado de todas las últimas transacciones efectuadas e inspeccionaba el tráfico para evitar paquetes ilegítimos. Deep Packet Inspection, también conocido como tecnología SMLI (Stateful Multi-Layer Inspection), o sea Inspección de Total de todas las capas del modelo ISO/OSI (7 capas). Esta tecnología permite que el firewall decodifique el paquete, interpretando el tráfico bajo la perspectiva del cliente/servidor, o sea, del protocolo propiamente dicho e incluye técnicas específicas de identificación de ataques. Con la tecnología SMLI/Deep Packet Inspection, el firewall utiliza mecanismos optimizados de verificación de tráfico para analizarlos bajo la perspectiva de la tabla de estado de conexiones legítimas. Simultáneamente, los paquetes también van siendo comparados a padres legítimos de tráfico para identificar posibles ataques o anomalías. La combinación permite que nuevos padres de tráficos sean entendidos como servicios y puedan ser adicionados a las reglas válidas en pocos minutos. Supuestamente el mantenimiento e instalación son más eficientes (en términos de coste y tiempo de ejecución), pues la solución se concentra en el modelo conceptual del TCP/IP. Sin embargo, con el avanzar de la tecnología y de los padres de tráfico de la Internet, proyectos complejos de firewall para grandes redes de servicio pueden ser tan costosos y tardados cuánto una implementación tradicional. Firewall de Aplicación Con la explosión del comercio electrónico, se percibió que aún la última tecnología en filtragem de paquetes para TCP/IP podría no ser tan efectiva cuánto se esperaba. Con todas las inversiones expandidas en tecnología de stateful firewalls, los ataques continuaban a prosperar de forma avasalladora. Solamente la filtragem de los paquetes de red no era más suficiente. Los ataques pasaron a concentrarse en las características (y vulnerabilidades) específicas de cada aplicación. Se percibió que había la necesidad de desarrollar un nuevo método que pudiera analizar las peculiaridades de cada protocolo y tomar decisiones que pudieran evitar ataques maliciosos contra una red. A pesar del proyecto original del TIS Firewall concebido por Marcos Ranum ya orientarse la verificación de los métodos de protocolos de comunicación, el concepto actual de Firewall de Aplicación nació principalmente por el hecho de exigirse la concentración de esfuerzos de análisis en protocolos específicos, tales como servidores Web y sus conexiones de hipertexto HTTP. La primera implementación comercial nació en 2000 con la empresa israelense Sanctum, sin embargo, el concepto aún no había sido ampliamente difundido para justificar una adopción práctica. Si comparado con el modelo tradicional de Firewall -- orientado las redes de datos, el Firewall de Aplicación es frecuentemente instalado junto a la plataforma de la aplicación, tuteando como una especie de procurador para el acceso al servidor (Proxy). Algunos proyectos de código-abierto, como por ejemplo el ModSecurity[2] para servidores Apache, tienen por objetivo facilita el concepto para las aplicaciones Web. Ventajas Puede sufrir la deficiencia de los modelos tradicionales y mapear todas las transacciones específicas que acontecen en la capa de la aplicación Web propietaria; Por ser un terminador del tráfico SSL, puede evaluar hipertextos criptográficas (HTTPS) que originalmente pasarían desapercibidos o no analizados por firewalls tradicionales de red; Desventajas Por el hecho de embutir una gran capacidad de evaluación técnica de los métodos disponibilidades por una aplicación (Web), este tipo de firewall exige un grande poder computacional—generalmente traducido para un gran coste de inversión; Al interceptar aplicaciones Web y sus interacciones con el cliente (el navegador de Web), puede acabar por provocar alguna incompatibilidad en el padre de transacciones (hecho que exigirá, sin sombra de dudas, un profundo trabajo de evaluación por parte de los implementadores); Algunos especialistas o ingenieros de tecnología refutam el firewall de aplicación basándose en los siguientes argumentadores: La tecnología introduce más un punto de fallo sin adicionar significativos avances en la tecnología de protección; El firewall y el IDS/IPS ya serían suficientes para cubrir gran parte de los riesgos asociados la aplicación Web; La tecnología aún necesita amadurecer el suficiente para ser considerada un componente indispensable de una arquitectura de seguridad; Ciertamente esos argumentos serán bastante discutidos al largo de los próximos años como un imperativo para determinar la existencia de esta tecnología en el futuro. 4. HDMI High-Definition Multimedia Interface (HDMI) o “Interfaz Multimedia de Alta Definición” Es una norma de audio y vídeo digital cifrado sin compresión apoyada por la industria para que sea el sustituto del euroconector. HDMI provee una interfaz entre cualquier fuente de audio y vídeo digital como podría ser un sintonizador TDT, un reproductor de Blu-ray, una computadora (Microsoft Windows, Linux, Apple Mac OS X, etc.) o un receptor A/V, y monitor de audio/vídeo digital compatible, como un televisor digital (DTV). HDMI permite el uso de vídeo computarizado, mejorado o de alta definición, así como audio digital multicanal en un único cable. Es independiente de los varios estándares DTV como ATSC, DVB (-T,-S,-C), que no son más que encapsulaciones de datos MPEG. Tras ser enviados a un decodificador, se obtienen los datos de vídeo sin comprimir, pudiendo ser de alta definición. Estos datos se codifican en TMDS para ser transmitidos digitalmente por medio de HDMI. HDMI incluye también 8 canales de audio digital sin compresión. A partir de la versión 1.2, HDMI puede utilizar hasta 8 canales de audio de un bit. El audio de 309 bit es el usado en los Super audio CD. Entre los creadores de HDMI se incluyen los fabricantes líderes de electrónica de consumo Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony, Thomson (RCA), Toshiba y Silicon Image. Digital Content Protection, LLC (una subsidiaria de Intel) provee la High-bandwidth Digital Content Protection (HDCP) -Protección anti copia de contenido digital de gran ancho de bandapara HDMI. HDMI tiene también el apoyo de las grandes productoras de cine: Fox, Universal, Warner Bros. y Disney; operadoras de sistemas: DirecTV y EchoStar (Dish Network), así como de CableLabs. Puede ser aplicada en cualquier fuente audiovisual con origen digital, es decir, desde lectores de DVD-Vídeo a receptores de televisión digital vía satélite o terrestre, pasando por su inclusión en receptores de A/V o, sobre todo, cualquier tipo de visualizador. Como estándar soporta definiciones de vídeo en calidad convencional, mejorada o alta definición, junto con audio digital multicanal a través de un único cable. Es tal su visión de futuro que si le alimentamos hoy con nuestras mejores imágenes de un DVD-Video y audio (una banda sonora en DTS-ES Discrete), aún quedaría ancho de banda suficiente para cualquier aplicación que aparezca en el futuro. Longitud del cable La especificación HDMI no define una longitud máxima del cable. Al igual que con todos los cables, la atenuación de la señal se hace demasiado alta a partir de una determinada longitud. En lugar de ello, HDMI especifica un mínimo nivel de potencia. Diferentes materiales y calidades de construcción permitirán cables de diferentes longitudes. Además, el mayor rendimiento de los requisitos debe cumplirse para soportar los formatos de vídeo de mayor resolución y/o el marco de las tasas de los formatos del estándar HDTV. La atenuación de la señal y la interferencia causada por la interferencia de los cables pueden ser compensadas mediante la utilización de un Ecualizador Adaptativo. Ventajas La posibilidad de poder transportar de un dispositivo a otro señales de audio y vídeo sin convertir de digital a analógico; pero además sin la necesidad de comprimir (alcanza velocidades de hasta 5 Gbps). Sólo será necesario un único cable entre dispositivos para la transmisión de una cantidad ingente de información audiovisual. Una de las ventajas de las transmisiones digitales es que éstas pueden permitirse el “lujo” de acarrear errores que serán solventados de manera eficiente en pasos próximos. Conclusión La manera más sencilla de conectar dos dispositivos audiovisuales ya es posible mediante el HDMI. Esta interfaz permite el envío de señales de vídeo hasta 1.080p y audio digital multicanal sin comprimir a través de un único cable. Sus posibilidades son enormes, y facilitarán la instalación de cualquier instalación, ahorrando en problemas e incluso costes. De momento sus únicos inconvenientes son que difícilmente sobrepasan los 10 metros de longitud (sin pérdidas, aunque se comercializan cables más largos) y que el parque de dispositivos compatibles aún tiene que crecer y bastante. Con el HDMI ganamos en todo: mayor fiabilidad, mayor transferencia digital, más facilidad de instalación, etc. Por fin será posible un equipo de Cine en Casa totalmente digital. 5. IEEE IEEE (leído i-e-cubo en España e i-triple-e en Latinoamérica) corresponde a las siglas de (Institute of Electrical and Electronics Engineers) en español Instituto de Ingenieros Electricistas y Electrónicos, una asociación técnico-profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor asociación internacional sin ánimo de lucro formada por profesionales de las nuevas tecnologías, como ingenieros electricistas, ingenieros en electrónica, científicos de la computación, ingenieros en informática, ingenieros en biomédica, ingenieros en telecomunicación e ingenieros en meca trónica. Su creación se remonta al año 1884, contando entre sus fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers). A través de sus miembros, más de 380.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras. Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Algunos de sus estándares son: VHDL VHDL es el acrónimo que representa la combinación de VHSIC y HDL, donde VHSIC es el acrónimo de Very High Speed Integrated Circuit y HDL es a su vez el acrónimo de Hardware Description Language. Dentro del VHDL hay varias formas con las que podemos diseñar el mismo circuito y es tarea del diseñador elegir la más apropiada. Funcional: Describimos la forma en que se comporta el circuito. Esta es la forma que más se parece a los lenguajes de software ya que la descripción es secuencial. Estas sentencias secuenciales se encuentran dentro de los llamados procesos en VHDL. Los procesos son ejecutados en paralelo entre sí, y en paralelo con asignaciones concurrentes de señales y con las instancias a otros componentes. Flujo de datos: describe asignaciones concurrentes (en paralelo) de señales. Estructural: se describe el circuito con instancias de componentes. Estas instancias forman un diseño de jerarquía superior, al conectar los puertos de estas instancias con las señales internas del circuito, o con puertos del circuito de jerarquía superior. Mixta: combinación de todas o algunas de las anteriores. En VHDL también existen formas metódicas para el diseño de máquinas de estados, filtros digitales, bancos de pruebas etc. VHDL fue diseñado en base a los principios de la programación estructurada. La idea es definir la interfaz de un modulo de hardware mientras deja invisible sus detalles internos. La entidad (ENTITY) en VHDL es simplemente la declaración de las entradas y salidas de un modulo mientras que la arquitectura (ARCHITECTURE) es la descripción detallada de la estructura interna del modulo o de su comportamiento. En la siguiente figura se ilustra el concepto anterior. Muchos diseñadores conciben la Entity como una funda de la arquitectura dejando invisible los detalles de lo que hay dentro (architecture). Esto forma la base de un sistema de diseño jerárquico, la arquitectura de la entidad de más nivel (top level) puede usar otras entidades dejando invisible los detalles de la arquitectura de la identidad de menos nivel. En la figura las entidades B, E y F no utilizan a otras entidades. Mientras que la entidad A utiliza a todas las demás. A la pareja entidad - arquitectura se le llama modelo. En un fichero texto VHDL la entidad y la arquitectura se escriben separadas, por ejemplo a continuación se muestra un programa muy simple en VHDL de una compuerta de 2 entradas. Como en otros programas VHDL ignora los espacios y saltos de líneas. Los comentarios se escriben con 2 guiones (--) y termina al final de la línea. En la figura siguiente se muestra la estructura de un modelo en VHDL. SINTASIS PARA LA DECLARACION DE LA ENTIDAD VHDL define muchos caracteres especiales llamados “palabras reservadas”. Aunque las palabras reservadas no son sensibles a las mayúsculas o minúsculas, el ejemplo que sigue las utilizaremos en mayúsculas y negritas para identificarlas. ENTITY Nombre_entidad IS PORT (Nombre de señal: modo tipo de señal; ... Nombre de señal: modo END nombre_entidad; tipo de señal); Además de darle nombre a la entidad el propósito de la declaración es definir sus señales (o ports) de interfaz externa en su declaración de ports. Además de las palabras reservadas o claves ENTITY, IS, PORT and END, una ENTITY tiene los siguientes elementos. Nombre_entidad; es un identificador seleccionado por el usuario para seleccionar la entidad. Nombre de señal; es una lista de uno o más identificadores separados por una coma y seleccionados por el usuario para identificar las señales externas de la interfaz. MODO es una de las 4 siguientes palabras reservadas para indicar la dirección de la señal. MODO Descripción IN En este modo las señales solo entran en la entidad OUT Las señales salen de la entidad BUFFER Este modo se utiliza para las señales que además de salir de la entidad pueden usarse como entradas realimentadas INOUT Este modo se utiliza para señales bidireccionales. Se emplea en salida con tres estados. Se puede asignar como sustituto de los tres modos anteriores, pero no se aconseja pues dificulta la comprensión del programa. Modo Descripción IN En este modo las señales solo entran en la entidad OUT Las señales salen de la entidad BUFFER Este modo se utiliza para las señales que además de salir de la entidad pueden usarse como entradas realimentadas Este modo se utiliza para señales bidireccionales. Se emplea en salida con INOUT tres estados. Se puede asignar como sustituto de los tres modos anteriores, pero no se aconseja pues dificulta la comprensión del programa. Cuando se omite el modo de una señal en la declaración de la entidad se sobreentiende que es de entrada. Tipo de señal; en VHDL, hay varios tipos de señales predefinidas por el lenguaje, tales como: TIPO Características BIT En este tipo las señales solo toman los valores de "1" y "0" Booleana En este tipo las señales solo toman los valores de True y False En este tipo las señales toman 9 valores, entre ellos Std_logic tenemos: "1", "0", "Z" (para el 3er estado), "-" (para los opcionales). Integer Bit_Vector Std_Logic_Vector Character En este tipo las señales toman valores enteros. Los 1 y los 0 se escriben sin “ En este tipo los valores de las señales son una cadena de unos y ceros. Ejemplo: “1000” En este tipo los valores de las señales son una cadena de los nueve valores permisibles para el tipo std_logic. Contiene todos los caracteres ISO de 8 bits, donde los primeros 128 son los caracteres ASCII. POSIX POSIX es el acrónimo de Portable Operating System Interface; la X viene de UNIX como seña de identidad de la API. El término fue sugerido por Richard Stallman en respuesta a la demanda de la IEEE, que buscaba un nombre fácil de recordar. Una traducción aproximada del acrónimo podría ser "Interfaz para Sistemas Operativos migrables basados en UNIX". IEEE 1394 El IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por Sony) es un estándar multiplataforma para entrada/salida de datos en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras. o Soporta la conexión de hasta 63 dispositivos con cables de una longitud máxima de 425 cm con topología en árbol. o Soporte Plug-and-play. o Soporta comunicación peer-to-peer que permite el enlace entre dispositivos sin necesidad de usar la memoria del sistema o la CPU o Soporta conexión en caliente. o Todos los dispositivos Firewire son identificados por un identificador IEEE EUI-64 exclusivo (una extensión de las direcciones MAC Ethernet de 48-bit) IEEE 488 El Hewlett-Packard Instrument Bus (HP-IB) es un estándar bus de datos digital de corto rango desarrollado por Hewlett-Packard en los años 1970 para conectar dispositivos de test y medida (por ejemplo Multimetro, osciloscopios, etc.) con dispositivos que los controlen como un ordenador. Otros fabricantes copiaron el HP-IB, llamando a su implementación General-Purpose Instrumentation Bus (GP-IB). En 1978 el bus fue estandarizado por el Institute of Electrical and Electronics Engineers (IEEE) como el IEEE-488 (488.1). APLICACIONES Al principio, los diseñadores de HP no planearon el IEEE-488 como un estándar de interfaz de periféricos para ordenadores de propósito general. En 1977 la familia Commodore educativos/domésticos/personales PET/CBM conectaban sus de unidades ordenadores de disco, impresoras, módems, etc., mediante el bus IEEE-488. Todos los equipos de 8 bits posteriores de Commodore del VIC-20 al Commodore 128, utilizan un bus serial IEEE-488 propietario (también llamado bus serial Commodore) para sus periféricos, con conectores DIN-6 en lugar de los resistentes conectores HP-IB o un conector de borde de tarjeta en la placa madre (para los ordenadores PET). En él los dispositivos conectados al ordenador hablaban (talking) y escuchaba (listening) las líneas para realizar sus tareas. Los ordenadores de HP también han usado este bus con un protocolo llamado CS-80. Hewlett-Packard y Tektronix también usaron el IEEE-488 como interfaz de periféricos para conectar unidades de disco, unidades de cinta, impresoras, plotters etc. a sus estaciones de trabajo y a los miniordenadores HP 3000. Mientras que la velocidad del bus se incrementaba a 10 MB para esos usos, la falta de un protocolo de comandos estándar limitó los desarrollos de terceros y la interoperabilidad, y posteriormente, estándares abiertos más rápidos como SCSI acabaron superando a IEEE-488 para la conexión de periféricos. Adicionalmente, algunas de las calculadoras/ordenadores avanzados de HP en la década de 1980, como las series HP-41 y HP-71, pueden trabajar con varios instrumentos mediante una interfaz HP-IB opcional. La interfaz puede conectarse a la calculadora mediante un módulo opcional HP-IL. IEEE 802 IEEE 802 es un estudio de estándares elaborado por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) que actúa sobre Redes de Ordenadores. Concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11). Está, incluso, intentando estandarizar Bluetooth en el 802.15 (IEEE 802.15). Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo). Concretamente subdivide el segundo nivel, el de enlace, en dos subniveles: El de Enlace Lógico (LLC), recogido en 802.2, y el de Control de Acceso al Medio (MAC), subcapa de la capa de Enlace Lógico. El resto de los estándares actúan tanto en el Nivel Físico, como en el subnivel de Control de Acceso al Medio. IEEE 802.11 El estándar IEEE 802.11 define el uso de los dos niveles inferiores de la arquitectura OSI (capas física y de enlace de datos), especificando sus normas de funcionamiento en una WLAN. Los protocolos de la rama 802.x definen la tecnología de redes de área local y redes de área metropolitana. Wifi N ó 802.11n: En la actualidad la mayoría de productos son de la especificación b o g , sin embargo ya se ha ratificado el estándar 802.11n que sube el límite teórico hasta los 600 Mbps. Actualmente ya existen varios productos que cumplen el estándar N con un máximo de 300 Mbps (80-100 estables). El estándar 802.11n hace uso simultáneo de ambas bandas, 2,4 Ghz y 5,4 Ghz. Las redes que trabajan bajo los estándares 802.11b y 802.11g, tras la reciente ratificación del estándar, se empiezan a fabricar de forma masiva y es objeto de promociones de los operadores ADSL, de forma que la masificación de la citada tecnología parece estar en camino. Todas las versiones de 802.11xx, aportan la ventaja de ser compatibles entre sí, de forma que el usuario no necesitará nada más que su adaptador wifi integrado, para poder conectarse a la red. Sin duda esta es la principal ventaja que diferencia wifi de otras tecnologías propietarias, como LTE, UMTS y Wimax, las tres tecnologías mencionadas, únicamente están accesibles a los usuarios mediante la suscripción a los servicios de un operador que está autorizado para uso de espectro radioeléctrico, mediante concesión de ámbito nacional. La mayor parte de los fabricantes ya incorpora a sus líneas de producción equipos wifi 802.11n, por este motivo la oferta ADSL, ya suele venir acompañada de wifi 802.11n, como novedad en el mercado de usuario doméstico. IEEE 754 El estándar de la IEEE para aritmética en coma flotante (IEEE 754) es el estándar más extendido para las computaciones en coma flotante, y es seguido por muchas de las mejoras de CPU y FPU. El estándar define formatos para la representación de números en coma flotante (incluyendo el cero) y valores desnormalizados, así como valores especiales como infinito y NaN, con un conjunto de operaciones en coma flotante que trabaja sobre estos valores. También especifica cuatro modos de redondeo y cinco excepciones (incluyendo cuándo ocurren dichas excepciones y qué sucede en esos momentos). IEEE 754 especifica cuatro formatos para la representación de valores en coma flotante: precisión simple (32 bits), precisión doble (64 bits), precisión simple extendida (≥ 43 bits, no usada normalmente) y precisión doble extendida (≥ 79 bits, usualmente implementada con 80 bits). Sólo los valores de 32 bits son requeridos por el estándar, los otros son opcionales. Muchos lenguajes especifican qué formatos y aritmética de la IEEE implementan, a pesar de que a veces son opcionales. Por ejemplo, el lenguaje de programación C, ahora permite pero no requiere la aritmética de la IEEE (el tipo de C float es típicamente usado para la precisión simple de la IEEE y el tipo double usa la precisión doble del la IEEE). El título completo del estándar es IEEE Standard for Binary FloatingPoint Arithmetic (ANSI/IEEE Std 754-1985), y también es conocido por IEC 60559:1989, Binary floating-point arithmetic for microprocessor systems (originalmente el número de referencia era IEC 559:1989). IEEE 830 Mediante sus actividades de publicación técnica, conferencias y estándares basados en consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control, organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo. 6. IRDA – INFRARROJO Tecnología IrDA (Infrared) -IrDA (Infrared Data Association), se creo en 1993 entre HP, IBM, Sharp y otros. Esta tecnología está basada en rayos luminosos que se mueven en el espectro infrarrojo. Los estándares IrDA soportan una amplia gama de dispositivos eléctricos, informáticos y de comunicaciones, permite la comunicación bidireccional entre dos extremos a velocidades que oscilan entre los 9.600 bps y los 4 Mbps. Esta tecnología se encuentra en muchos ordenadores portátiles, y en un creciente número de teléfonos celulares, sobre todo en los de fabricantes líderes como Nokia y Ericsson. IrDA ha sido desplazado por las redes Wi-fi y las redes bluetooth. Primeramente veamos unas diferencias entre el puerto Bluetooth y el puerto infrarrojo: La seguridad de IrDa se basa en dirección habilidad del rayo de luz infrarrojo, mientras que Bluetooth fija un sistema de seguridad en la capa de banda base. IrDA requiere línea de vista entre dispositivos, mientras que Bluetooth permite operación a través de objetos no metálicos. Bluetooth se presta mejor para servicios de acceso a red y otros casos en que el usuario puede estarse moviendo. Bluetooth es mejor para la difusión de información. Ambos protocolos especifican una comunicación inalámbrica a corta distancia El infrarrojo requiere de una comunicación lineal entre transmisor y receptor, lo que hace impredecible la línea de vista para su efectiva transmisión. Las frecuencias de la banda del infrarrojo no permiten la penetración a través de paredes, dándole una importante ventaja a la radiofrecuencia que opera Bluetooth. La comunicación con infrarrojo siempre será uno a uno, dejando de lado las configuraciones punto multipunto. Bluetooth permite la generación de redes. Las especificaciones IrDA incluyen IrPHY, IrLAP, IrLMP, IrCOMM, TP minúsculo, IrLAN. IrDA ahora ha producido otro estándar, IrFM, para Mensajería financiera infrarroja (es decir, para hacer pagos) también conocido como “punto y paga”. IrPHY El obligatorio IrPHY (Especificación infrarroja de la capa física) es la capa más baja de las especificaciones de IrDA. Las especificaciones más importantes son: Gama: estándar: 1 m; de baja potencia a de baja potencia: 0.2 m; estándar a de baja potencia: 0.3 m Ángulo: cono mínimo +-15° Velocidad: 2.4 kbit/s a 16 Mbit/s Modulación: banda base, ningún portador Ventana infrarroja Los transmisores-receptores de IrDA se comunican con los pulsos infrarrojos (muestras) en un cono que amplíe mínimo 15 grados de medio ángulo excéntrico. Las comunicaciones de datos de IrDA funcionan adentro del modo half-duplex porque mientras que transmite, el receptor de un dispositivo es cegado por la luz de su propio transmisor, y así, la comunicación full-duplex no es factible. IrLAP El obligatorio IrLAP (Protocolo infrarrojo del acceso del acoplamiento) es la segunda capa de las especificaciones de IrDA. Miente encima de la capa de IrPHY y debajo de la capa de IrLMP. Representa Capa de trasmisión de datos de Modelo de OSI. Las especificaciones más importantes son: Control de acceso Descubrimiento de los socios potenciales de la comunicación El establecer de una conexión bidireccional confiable Negociación de los papeles primarios/secundarios del dispositivo En la capa de IrLAP los dispositivos que se comunican se dividen en un dispositivo primario y unos o más dispositivos secundarios. Solamente si el dispositivo primario solicita un dispositivo secundario a enviar es se realiza el enlace. IrLMP El obligatorio IrLMP (Protocolo infrarrojo de la gerencia del acoplamiento) es la tercera capa de las especificaciones de IrDA. Puede ser analizado en dos porciones. Primero, el LM-MUX (multiplexor de la gerencia del acoplamiento) que miente encima de la capa de IrLAP. Sus logros más importantes son: Proporciona los canales lógicos múltiples Permite el cambio de dispositivos primarios/secundarios En segundo lugar, el LM-IAS (servicio del acceso de información de la gerencia del acoplamiento), que proporciona una lista, donde los abastecedores de servicio pueden colocar sus servicios así que otros dispositivos puede tener acceso a estos servicios vía preguntar el LM-IAS. TP minúsculo El opcional TP minúsculo (Protocolo minúsculo del transporte) miente encima de la capa de IrLMP. Proporciona: Transporte de mensajes grandes por el SAR (segmentación y nuevo ensamble) Control de flujo dando créditos a cada canal lógico IrLAN El opcional IrLAN (Red de área local del infrarrojo) proporciona la posibilidad para conectar un dispositivo infrarrojo con una red de área local. Hay tres métodos posibles: Punto de acceso Par a mirar con fijeza Recibido Mientras que IrLAN miente encima del protocolo minúsculo del TP, el protocolo minúsculo del TP se debe poner en ejecución para que IrLAN trabaje. 7. PUERTO SERIAL Un puerto serie o puerto serial es una interfaz de comunicaciones de datos digitales, frecuentemente utilizado por computadoras y periféricos, donde la información es transmitida bit a bit enviando un solo bit a la vez. Las características seriales importantes son: tasa de baudios, bits de datos, bits de paro, y paridad. Para que dos puertos se comuniquen, estos parámetros deben igualarse: La tasa de baudios. Es una unidad de medición para comunicación que indica el número de bits transferidos por segundo. Por ejemplo, 300 baudios son 300 bits por segundo. Las tasas de baudios para líneas telefónicas son 14400, 28800, y 33600. Tasas de baudios mayores a estas son posibles, pero reducen la distancia disponible para la separación de dispositivos. Utilizan estas tasas de baudios para comunicación donde los dispositivos están localizados entre sí, como sucede típicamente con los dispositivos GPIB. Bits de datos. Son mediciones de los bits de datos actuales en una transmisión. Cuando una computadora envía un paquete de información, la cantidad de datos actuales puede ser que no complete 8 bits. Los valores estándar para los paquetes de datos son de 5, 7, y 8 bits. El marco que usted elija dependerá de la información que está transfiriendo. Por ejemplo, el ASCII estándar tiene valores de 0 a 127 (7 bits). El ASCII extendido utiliza de 0 a 255 (8 bits). Si los datos que usted está transfiriendo se encuentran en texto simple (ASCII estándar), enviar 7 bits de datos por paquete, es suficiente para la comunicación. Un paquete se refiere a la transferencia de un sólo byte, incluyendo los bits de inicio/paro, bits de datos, y paridad. Debido a que el número de bits actuales depende del protocolo seleccionado, puede utilizar el término “paquete” para cubrir todas las instancias. Los bits de paro. Son utilizados para señalar el término de comunicaciones en un paquete sencillo. Los valores típicos son 1, 1.5 y 2 bits. Debido a que los datos se encuentran sincronizados a través de las líneas y cada dispositivo tiene su propio reloj, es posible que los dos dispositivos pierdan sincronización. Por lo tanto, los bits de paro no solamente indican el final de una transmisión, también le da un margen de error a las velocidades de reloj de la computadora. A medida que se utilizan más bits para bits de paro, mayor oportunidad para sincronizar los diferentes relojes, pero más lenta la razón de transferencia de datos. Paridad. Es una forma de revisión de error simple utilizada en la comunicación serial. Existen cuatro tipos de paridad – pares, impares, marcados y espaciados. También puede utilizar los que excluyen de paridad. Para paridad impar y par, el puerto serial fija el bit de paridad (el último bit después de los bits de datos) a un valor que asegura que la transmisión tenga un número par o impar de bits lógicos. Por ejemplo, si el dato es 011, para paridad par, el bit de paridad es 0 para mantener el número par de bits altamente lógicos. Si la paridad es impar, el bit de paridad es 1, resultando en 3 bits altamente lógicos. La paridad marcada y espaciada no revisa específicamente los bits de datos, simplemente fija la paridad de los bits como alta para la paridad marcada o baja para la paridad espaciada. Esto permite que el dispositivo receptor conozca el estado de un bit para así determinar si el ruido esta corrompiendo los datos o si los relojes del dispositivo de transmisión y recepción se encuentran fuera de sincronización. El estándar RS-232 RS-232.C significa literalmente "Recomended Standard232 revisión C" (también conocida como EIA 232). Es un estándar publicado en 1969 por la EIA ("Electronic Standard Association"), también conocido como Electronic Industries Alliance RS-232C) es una interfaz que designa una norma para el intercambio serie de datos binarios entre un DTE (Equipo terminal de datos) y un DCE (Data Communication Equipment, Equipo de Comunicación de datos), aunque existen otras en las que también se utiliza la interfaz RS-232. El estándar RS-422 RS-422 (Estándar EIA RS-422-A) es la conexión serial utilizada en computadoras Apple Macintosh. El RS-422 utiliza una señal eléctrica diferencial, opuesta a las señales no balanceadas referenciadas a tierra con RS-232. La transmisión diferencial, que utiliza dos líneas, una para transmitir y otra para recibir señales, resulta en mayor inmunidad al ruido y mayores distancias en comparación con el RS-232. A mayor inmunidad al ruido y distancia, mayores las ventajas en aplicaciones industriales. El estándar RS-485 RS-485 (Estándar EIA-485) es una mejora sobre el RS-422 porque incrementa el número de dispositivos de 10 a 32 y define las características eléctricas necesarias para asegurar adecuadamente los voltajes de señales bajo la carga máxima. Con el incremento en esta capacidad, usted puede crear redes de dispositivos conectados a un solo puerto serial RS-485. La inmunidad al ruido y la gran capacidad hacen que RS-485 sea la conexión serial preferida en aplicaciones industriales que requieren diversos dispositivos distribuidos en red a una PC o algún otro controlador para colección de datos, HMI, u otras operaciones. RS-485 es un gran conjunto de RS-422; por lo tanto, todos los dispositivos RS-422 pueden ser controlados por RS-485. Usted puede utilizar el hardware RS-485 para comunicación serial para cables de hasta 4000 pies. PUERTO SERIE ASINCRONO A través de este tipo de puerto la comunicación se establece usando un protocolo de transmisión asíncrono. En este caso, se envía en primer lugar una señal inicial anterior a cada byte, carácter o palabra codificada. Una vez enviado el código correspondiente se envía, inmediatamente, una señal de stop después de cada palabra codificada. La señal de inicio sirve para preparar al mecanismo de recepción, o receptor, la llegada, y registro, de un símbolo, y la señal de stop sirve para predisponer al mecanismo de recepción para que tome un descanso y se prepare para la recepción del nuevo símbolo. La típica transmisión star-stop es la que se usa en la transmisión de códigos ASCII a través del puerto RS-232, como la que se establece en las operaciones con teletipos. VELOCIDAD DE TRANSMICION Velocidad de transmisión ("Connection speed") es la cantidad de datos transmitidos en unidad de tiempo. Se expresa en bits por segundo (bps). En las transmisiones serie a través de líneas telefónicas, en las que se emplean módems era frecuente utilizar como medida de velocidad el Baudio ("Baud rate"), en honor de Emile Baudot, al que ya hemos hecho referencia. Baudio se define como el número de veces que cambia la portadora en un segundo. La velocidad que puede emplearse depende en gran medida de la calidad del medio de transmisión (calidad de la línea), que si (como es frecuente) se trata de líneas telefónicas, depende a su vez de la distancia. Los primeros dispositivos serie operaban a velocidades muy bajas, del orden de 110 a 1200 baudios. Las comunicaciones telefónicas serie actuales están muy cerca del máximo teórico que pueden soportar los pares de cobre utilizados en la telefonía estándar. Además, para aumentar el rendimiento de la comunicación se utilizan técnicas de compresión de los datos a transmitir, y velocidades variables, que pueden ser negociadas entre los equipos que comunican en función del estado de la línea en cada momento. 8. PUERTO PARALELO Un puerto paralelo es una interfaz entre una computadora y un periférico, cuya principal característica es que los bits de datos viajan juntos, enviando un paquete de byte a la vez. Es decir, se implementa un cable o una vía física para cada bit de datos formando un bus. Mediante el puerto paralelo podemos controlar también periféricos como focos, motores entre otros dispositivos, adecuados para automatización. El cable paralelo es el conector físico entre el puerto paralelo y el dispositivo periférico. En un puerto paralelo habrá una serie de bits de control en vías aparte que irá en ambos sentidos por caminos distintos. El puerto paralelo es uno de los periféricos más antiguos creados para la PC. Ha sufrido varias actualizaciones a lo largo del tiempo, pero su base sigue firme en el modelo presentado por Centronics en la década del 70’, el cual poseía una comunicación unidireccional y una interface única. Hoy en día el puerto paralelo que utilizamos está basado en el estándar IEEE 1284, el cual otorga al puerto paralelo los siguientes modos de operación: Modo de Compatibilidad - Equivalente del Centronics (SPP) Modo Nibble Modo Byte Modo ECP - Extended Capability Port (Puerto paralelo de capacidad extendida) Modo EPP - Enhanced Parallel Port (Puerto paralelo extendido) Puerto Paralelo Centronics El puerto paralelo más conocido es el puerto de impresora (que cumplen más o menos la norma IEEE 1284, también denominados tipo Centronics) que destaca por su sencillez y que transmite 8 bits. Se ha utilizado principalmente para conectar impresoras, pero también ha sido usado para programadores EPROM, escáner, interfaces de red Ethernet a 10 Mb, unidades ZIP, SuperDisk y para comunicación entre dos PC (MS-DOS trajo en las versiones 5.0 ROM a 6.22 un programa para soportar esas transferencias). Puerto paralelo IDE No obstante existe otro puerto paralelo usado masivamente en los ordenadores: el puerto paralelo IDE, también llamado PATA (Paralell ATA), usado para la conexión de discos duros, unidades lectoras/grabadoras (CDROM, DVD), unidades magneto-ópticas, unidades ZIP y SuperDisk, entre la placa base del ordenador y el dispositivo. Puerto paralelo SCSI Un tercer puerto paralelo, muy usado en los ordenadores Apple Macintosh y en servidores, son las diferentes implementaciones del SCSI. Al igual que IDE ha sido usado para la conexión de discos duros, unidades ópticas lectoras/grabadoras (CD-ROM, DVD), unidades magneto-ópticas y SuperDisk, pero también de otros dispositivos como escáneres e incluso otro ordenador de diferente plataforma hardware y sistema operativo, como la torre siamese hace referencia para el uso en el computador y sirve como un puerto serial el hardware 1.5 para PC/Commodore Amiga. IEEE 1284 El estándar IEEE 1284 (Standard Signaling Method for a Bi-directional Parallel Peripheral Interface for Personal Computers, en español, Estándar del Método de Señalización para una Interfaz Paralela Bidireccional Periférica para Computadoras Personales), aprobado para su publicación en marzo de 1994, provee de una comunicación de alta velocidad y bidireccional entre un ordenador y un dispositivo externo que puede comunicarse 50 ó 100 veces más rápido que con el puerto paralelo original; además de ser totalmente compatible con los periféricos, impresoras y software que existían previamente. 9. SCSI ASIMETRICO Y DIFERENCIAL Small Computer System Interface SCSI, acrónimo Interface inglés (Sistema de Small Computers Interfaz para System Pequeñas Computadoras), es una interfaz estándar para la transferencia de datos entre distintos dispositivos del bus de la computadora. Algunos profesionales lo castellanizan como escasi o escosi, por la pronunciación en inglés de su sigla, otros por el contrario prefieren deletrearlo. Para montar un dispositivo SCSI en un ordenador es necesario que tanto el dispositivo como la placa madre dispongan de un controlador SCSI. Es habitual que el dispositivo venga con un controlador de este tipo, pero no siempre es así, sobre todo en los primeros dispositivos. Se utiliza habitualmente en los discos duros y los dispositivos de almacenamiento sobre cintas, pero también interconecta una amplia gama de dispositivos, incluyendo escáneres, unidades CD-ROM, grabadoras de CD, y unidades DVD. De hecho, el estándar SCSI entero promueve la independencia de dispositivos, lo que significa que teóricamente cualquier cosa puede ser hecha SCSI (incluso existen impresoras que utilizan SCSI). En el pasado, era muy popular entre todas las clases de ordenadores. Actualmente sigue siendo popular en lugares de trabajo de alto rendimiento, servidores, y periféricos de gama alta. Los ordenadores de sobremesa y los portátiles utilizan habitualmente las interfaces más lentas de IDE/SATA para los discos duros y USB (el USB emplea un conjunto de comandos SCSI para algunas operaciones) así como FireWire a causa de la diferencia de coste entre estos dispositivos. Se está preparando un sistema SCSI en serie, denominado Serial Attached SCSI o SAS, que además es compatible con SATA, dado que utiliza el mismo conector, por lo tanto se podrán conectar unidades SATA en una controladora SAS. Historia SCSI se basa en "SASI", la "Shugart Associates System Interface", presentada por esa empresa en 1979. El controlador SASI proporciona un puente entre una interfaz de disco duro (normalmente ST506), y un computador central, que lo necesita para leer sectores (bloques) de datos. Las tarjetas controladoras SASI tenían un tamaño de 5,25 x 8 pulgadas de tamaño, por lo general montado en lo alto de una unidad de disco duro. SASI fue utilizado en mini y microcomputadoras. SASI define la interfaz utilizando un conector de cinta plana de 50 pines. Larry Boucher es considerado el padre de SASI y SCSI debido a su labor pionera, primero en Shugart Associates y luego en Adaptec.1 El comité ANSI que documentó el estándar no permitió que el nombre incluyera el de una compañía. Tras dedicar un día entero a discutir el nombre, se llegó al acuerdo de que fuera "Small Computer System Interface," que Boucher pretendía se pronunciara "sexy"; sin embargo Dan Allan de ENDL pronunció el nuevo acrónimo como "scuzzy", y se ha perpetuado.1 La parte "small" de SCSI es histórica; desde mediados de los 90, SCSI ha estado disponible incluso en los mayores sistemas informáticos. Desde su normalización en 1986, SCSI ha sido de uso común en el Commodore Amiga y las líneas de servidores y ordenadores personales Apple Macintosh y Sun Microsystems. Apple comenzó a usar IDE para sus máquinas de gama baja con el Macintosh Quadra 630 en 1994, y lo incluyó en los de gama alta con el Power Macintosh G3 en 1997. Apple abandonó la inclusión de SCSI por completo (en favor de IDE y FireWire) con el G3 azul y blanco en 1999. Sun ha pasado su gama baja a Serial ATA (SATA). SCSI nunca ha sido popular en la gama baja de compatibles IBM PC, debido al menor precio y buen rendimiento de los discos ATA. Los discos duros SCSI e incluso los sistemas RAIDSCSI son comunes en las estaciones de trabajo PC dedicadas a la producción de video y/o audio, pero la aparición de discos SATA de gran capacidad y bajo coste lo están desplazando de ese nicho de mercado. Actualmente SCSI es popular en estaciones de trabajo de alto rendimiento y servidores. Los sistemas RAID en servidores casi siempre usan discos duros SCSI, aunque varios fabricantes ofrecen sistemas RAID basados en SATA como una opción de menor coste. Los ordenadores de sobremesa y notebooks utilizan habitualmente ATA/IDE y ahora SATA para los discos duros, y conexiones USB, e-SATA y FireWire para dispositivos externos. Tipos de SCSI SCSI 1. Bus de 8 bits. Velocidad de transmisión de datos a 5 MBps. Su conector genérico es de 50 pins (conector Centronics) y baja densidad. La longitud máxima del cable es de seis metros. Permite hasta 8 dispositivos (incluida la controladora), identificados por las direcciones 0 a 7. SCSI 2. o Fast. Con un bus de 8, dobla la velocidad de transmisión (de 5 MBps a 10 MBps). Su conector genérico es de 50 pins y alta densidad. La longitud máxima del cable es de tres metros. Permite hasta 8 dispositivos (incluida la controladora), identificados por las direcciones 0 a 7. o Wide. Dobla el bus (pasa de 8 a 16 bits). Su conector genérico es de 68 pins y alta densidad. La longitud máxima del cable es de tres metros. Permite hasta 16 dispositivos (incluida la controladora), identificados por las direcciones 0 a 15. SCSI 3. o .1 SPI (Parallel Interface o Ultra SCSI). Ultra. Dispositivos de 16 bits con velocidad de ejecución de 20 MBps. Su conector genérico es de 34 pines de alta densidad. La longitud máxima del cable es de 10 cm. Admite un máximo de 15 dispositivos. También se conoce como Fast 20 o SCSI-3. Ultra Wide. Dispositivos de 16 bits con velocidad de ejecución de 40 MBps. Su conector genérico es de 68 pins y alta densidad. La longitud máxima del cable es de 1,5 metros. Admite un máximo de 15 dispositivos. También se conoce como Fast SCSI-3. Ultra 2. Dispositivos de 16 bits con velocidad de ejecución de 80 MBps. Su conector genérico es de 68 pines y alta densidad. La longitud máxima del cable es de doce metros. Admite un máximo de 15 dispositivos. También se conoce como Fast 40. o .2 FireWire (IEEE 1394). o .3 SSA (Serial Storage Architecture). De IBM. Usa full-duplex con canales separados. o .4 FC-AL (Fibre Channel Arbitrated Loop). Usa cables de fibra óptica (hasta 10 km) o coaxial (hasta 24 m). Con una velocidad máxima de 100 MBps. Características de SCSI Utilizan CCS (Command Common Set). Es un conjunto de comandos para acceder a los dispositivos que los hacen más o menos compatibles. SCSI 1, SCSI2 y SCSI 3.1 (SPI) conectan los dispositivos en paralelo. SCSI 3.2 (FireWire), SCSI 3.3 (SSA) y SCSI 3.4 (FC-AL) conectan los dispositivos en serie. Hacen falta terminadores (jumpers, por BIOS, físicos) en el inicio y fin de la cadena. Número máximo de dispositivos: La controladora cuenta como un dispositivo (identificador 7, 15) BUS Dispositivos Identificadores Conector 8 bits 7 Del 0 al 6 50 pins 16 bits 15 Del 0 al 14 68 pins Introducción a la interfaz SCSI El estándar SCSI (Interfaz para sistemas de ordenadores pequeños es una interfaz que se utiliza para permitir la conexión de distintos tipos de periféricos a un ordenador mediante una tarjeta denominada adaptador SCSI o controlador SCSI (generalmente mediante un conector PCI). El número de periféricos que se pueden conectar depende del ancho del bus SCSI. Con un bus de 8 bits, se pueden conectar 8 unidades físicas y con uno de 16 bits, 16 unidades. Dado que el controlador SCSI representa una unidad física independiente, el bus puede alojar 7 (8-1) ó 15 (16-1) periféricos. Direccionamiento de los periféricos Los periféricos se direccionan mediante números de identificación. El primer número es el ID, número que designa al controlador que se encuentra dentro de cada periférico (definido a través de los caballetes posicionados en cada periférico SCSI o por el software). El periférico puede tener hasta 8 unidades lógicas (por ejemplo, una unidad de CD-ROM con varios cajones). Las unidades lógicas se identifican mediante un LUN (Número de unidad lógica). Por último, un ordenador puede contener diversas tarjetas SCSI y, por lo tanto, a cada una le corresponde un número diferente. De este modo, para comunicarse con un periférico, el ordenador debe suministrar una dirección de la siguiente manera: "número de tarjeta - ID LUN". SCSI asimétrico y diferencial Existen dos tipos de bus SCSI: el bus asimétrico, conocido como SE (por Single-Ended o Terminación única), basado en una arquitectura paralela en la que cada canal circula en un alambre, sensible a las interferencias. Los cables SCSI en modo SE poseen 8 alambres para una transmisión de 8 bits (que se denominan limitados) o 16 alambres para cables de 16 bits (conocidos como extendidos). Este es el tipo de bus SCSI más común. el bus diferencial transporta señales a un par de alambres. La información se codifica por diferencia entre los dos alambres (cada uno transmite el voltaje opuesto) para desplazar las interrupciones electromagnéticas, lo que permite obtener una distancia de cableado considerable (alrededor de 25 metros). En general, existen dos modos: el modo LVD (Voltaje bajo diferencial), basado en señales de 3,3 V y el modo HVD (Voltaje Alto Diferencial), que utiliza señales de 5 V. Los periféricos que utilizan este tipo de transmisión son cada vez más raros y por lo general llevan la palabra "DIFF". Estándares SCSI Los estándares SCSI definen los parámetros eléctricos de las interfaces de entrada/salida. El estándar SCSI-1 de 1986 definió los comandos estándar para el control de los periféricos SCSI en un bus con una frecuencia de 4,77 MHz con un ancho de 8 bits, lo que implicaba que era posible alcanzar velocidades de 5 MB/s. Sin embargo, un gran número de dichos comandos eran opcionales, por lo que en 1994 se adoptó el estándar SCSI-2. Éste define 18 comandos, conocidos como CCS (Conjunto de comandos comunes). Se han definido varias versiones del estándar SCSI-2: El SCSI-2 extendido, basado en un bus de 16 bits (en lugar de 8), ofrece una velocidad de 10 MB/s El SCSI-2 rápido es un modo sincrónico rápido que permite un aumento de 5 a 10 MB/s para el estándar SCSI y de 10 a 20 MB/s para el SCSI-2 extendido (denominado SCSI-2 extendido rápido). Los modos Rápido-20 y Rápido-40 duplican y cuadriplican dichas velocidades respectivamente. El estándar SCSI-3 incluye nuevos comandos y permite la unión de 32 periféricos, así como una velocidad máxima de 320 MB/s (en modo Ultra-320). El siguiente cuadro resume las características de los diversos estándares SCSI: Estándar SCSI-1(Fast-5 SCSI) Ancho Velocidad Ancho de Conector del bus del bus banda 8 bits 4,77 MHz 5 MB/seg 50 clavijas (bus simétrico o diferencial) SCSI-2 – Fast-10 8 bits 10 MHz SCSI 10 50 clavijas (bus MB/seg simétrico o diferencial) SCSI-2 - Extendido 16 bits 10 MHz 20 50 clavijas (bus MB/seg simétrico o diferencial) SCSI-2 - 32 bits 32 bits 10 MHz rápido extendido 40 68 clavijas (bus MB/seg simétrico o diferencial) SCSI-2 – Ultra SCSI- 8 bits 2(Fast-20 SCSI) 20 MHz 20 50 clavijas (bus MB/seg simétrico diferencial) o SCSI-2 - SCSI-2 ultra 16 bits 20 MHz extendido MB/seg – SCSI-3 Ultra-2 8 bits 40 MHz SCSI(Fast-40 SCSI) SCSI-3 - Ultra-2 16 bits – Ultra- 16 bits 40 MB/seg 40 MHz SCSI-2 extendido SCSI-3 40 80 MHz 160(Ultra-3 SCSI o 80 68 clavijas (bus MB/seg diferencial) 160 68 MB/seg diferencial) clavijas (bus Fast-80 SCSI) – SCSI-3 Ultra- 16 bits 320(Ultra-4 SCSI o 80 DDR MHz 320 MB/seg 68 clavijas (bus diferencial) Fast-160 SCSI) SCSI-3 - Ultra-640 16 (Ultra-5 SCSI) 10. 80 QDR MHz 640 MB/seg 68 clavijas (bus diferencial) TARJETAS ACELERADORAS 2D, 3D Una tarjeta gráfica, que también se conoce como adaptador gráfico, tarjeta de video o acelerador de gráficos, es un componente del ordenador que permite convertir los datos digitales en un formato gráfico que puede ser visualizado en una pantalla. En un principio, la tarea principal de las tarjetas gráficas fue la de enviar píxeles a la pantalla, así como también una variedad de manipulaciones gráficas simples: Mover bloques (como el del cursor del ratón); trazado de rayos; trazado de polígonos; etc. Las tarjetas gráficas más recientes tienen procesadores fabricados para manipular gráficos complejos en 3D. Los componentes de una tarjeta de video son: Una Unidad de procesamiento gráfico ( GPU, Graphical Processing Unit), que es el corazón de la tarjeta de gráficos y que procesa las imágenes de acuerdo a la codificación utilizada. La GPU es un procesador especializado con funciones relativamente avanzadas de procesamiento de imágenes, en especial para gráficos 3D. Debido a las altas temperaturas que puede alcanzar un procesador gráfico, a menudo se coloca un radiador y un ventilador. La función de la memoria de video es la de almacenar las imágenes procesadas por el GPU antes de mostrarlas en la pantalla. A mayor cantidad de memoria de video, mayor será la cantidad de texturas que la tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El término búfer de trama se utiliza para referirse a la parte de la memoria de video encargada de almacenar las imágenes antes de mostrarlas en la pantalla. Las tarjetas de gráficos presentan una dependencia importante del tipo de memoria que utiliza la tarjeta. Su tiempo de respuesta es fundamental en lo que respecta a la rapidez con la que se desea mostrar las imágenes. La capacidad de la memoria también es importante porque afecta el número y la resolución de imágenes que puede almacenarse en el búfer de trama. El Convertidor digital-analógico de RAM (RAMDAC, Random Access Memory Digital-Analog Converter) se utiliza a la hora de convertir las imágenes digitales almacenadas en el búfer de trama en señales analógicas que son enviadas a la pantalla. La frecuencia del RAMDAC determina a su vez la frecuencia de actualización (el número de imágenes por segundo, expresado en Hercios: Hz) que la tarjeta gráfica puede soportar. El BIOS de video contiene la configuración de tarjeta gráfica, en especial, los modos gráficos que puede soportar el adaptador. La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta gráfica en la placa madre. El bus AGP está especialmente diseñado para controlar grandes flujos de datos, algo absolutamente necesario para mostrar un video o secuencias en 3D. El bus PCI Express presenta un mejor rendimiento que el bus AGP y en la actualidad, casi puede decirse que lo ha remplazado. Las conexiones: o La interfaz VGA estándar: La mayoría de las tarjetas gráficas tienen un conector VGA de 15 clavijas (Mini Sub-D, con 3 hileras de 5 clavijas cada una); por lo general estas son de color azul. Este conector se utiliza principalmente para las pantallas CRT. Este tipo de interfaz se usa para enviar 3 señales analógicas a la pantalla. Dichas señales corresponden a los componentes rojos, azules y verdes de la imagen. o La Interfaz de Video Digital (DVI, Digital Video Interface) se encuentra en algunas tarjetas gráficas y se utiliza para el envío de datos digitales a los distintos monitores que resultan compatibles con esta interfaz. De esta manera, se evita convertir los datos digitales en analógicos o los analógicos en digitales. o Interfaz S-Video: En la actualidad, son cada vez más numerosas las tarjetas gráficas que incluyen un conector SVideo. Esto permite visualizar en una pantalla de televisión lo mismo que se observa en el ordenador. Por este motivo, generalmente se lo suele llamar conector "Salida de TV. Tarjetas aceleradoras 3D El campo del 3D es bastante reciente, y cada vez más importante. Algunas PC cuentan con más poder de cómputo que ciertas estaciones de trabajo. En líneas generales, el cómputo de gráficos en 3D es un proceso que puede dividirse en cuatro etapas: o secuencia o geometría: de comandos: Creación presentación de de objetos elementos simples o configuración: transformación de los objetos a triángulos 2D o Renderizado: aplicación de textura a los triángulos. Cuanto más rápido la tarjeta aceleradora 3D pueda computar estos pasos por sí misma, mayor será la velocidad con la que se mostrará en pantalla. En un principio, los primeros chips sólo podían renderizar y le dejaban el resto de la tarea al procesador. Desde entonces, las tarjetas gráficas suelen incluir un "setup engine", que permite controlar los últimos dos pasos mencionados anteriormente. Por ejemplo, un procesador Pentium II de 266 Mhz que computa los tres primeros pasos, procesa 350.000 polígonos por segundo; cuando computa tan sólo dos, puede llegar a procesar hasta 750.000 polígonos por segundo. Esto demuestra cuánta es la carga que las tarjetas gráficas alivian en los procesadores. Este tipo de bus también es un factor importante. Aunque el bus AGP no mejora las imágenes 2D, las tarjetas que utilizan ese bus (en lugar de utilizar el PCI) poseen un mejor rendimiento. Esto se debe a que el bus AGP está conectado directamente a la memoria RAM, lo que le otorga a su vez un ancho de banda mayor al del bus PCI. En la actualidad, estos productos de alta tecnología necesitan ser fabricados con la misma calidad que los procesadores, como un ancho de canal de entre 0.25 µm y 0.35 µm. Glosario de funciones de aceleradoras 3D y 2D Término Definición Gráficos 2D.- Muestran la representación de una imagen a partir de dos ejes de referencia (x , y). Gráficos 3D.- Muestran la representación de una imagen a partir de tres ejes de referencia (x, y, z). Mezcla alfa.- El mundo está formado por objetos opacos, translúcidos y transparentes. La mezcla alfa se utiliza para añadir información de transparencia a los objetos translúcidos. Esto se logra al renderizar polígonos a través de máscaras cuya densidad es proporcional a la transparencia de los objetos. Como resultado, el color del píxel resulta de la combinación de los colores del primer plano y del fondo. A menudo, alfa posee un valor que oscila entre 0 y 1. Puede calcularse de la siguiente manera: píxel nuevo=(alfa)*(color del primer píxel)+(1-alfa)*(color del segundo píxel) Búfer alfa.- Se trata de un canal adicional para almacenar información de transparencia (rojo, verde, azul y transparencia). Efecto de suavizado.- Un técnica para que los píxeles aparezcan más nítidos. Efectos atmosféricos.- Efectos como niebla o profundidad que logran mejorar el renderizado del ambiente Mapa de bits.- Imagen píxel por píxel Filtro bilineal.- Se usa para que un píxel aparezca como más fluido cuando se lo desplaza de un lugar a otro (como por ejemplo, en algún movimiento de rotación). Transferencia de bloques de bits.- Se trata de una de las funciones de aceleración más importantes. Permite simplificar el desplazamiento de bloques de datos al tomar en cuenta las características específicas de la memoria de video. Se utiliza, por ejemplo, cuando se mueve una ventana. Mezcla.- Es la combinación de dos imágenes al agregarlas bit por bit una a la otra. Comunicación directa entre periféricos Esta función del bus PCI se utiliza para recibir información directamente de la memoria sin tener que pasar necesariamente por el procesador. Corrección de perspectiva Método de asignación de textura. Toma en cuenta el valor Z al momento de asignar valores a los polígonos. Cuando un objeto se aleja en la distancia, parece que disminuye su altura y su anchura. Mediante la corrección de perspectiva, se asegura que la frecuencia con la que se cambia el tamaño de los píxeles de la textura sea proporcional a la profundidad. Niebla y difuminado Disminuye la intensidad de los objetos a medida que estos se alejan en la distancia de profundidad. Fusionado Permite archivar imágenes con calidad de 24 bits en búferes más pequeños (8 ó 16 bits). El fusionado combina dos colores para crear uno sólo. Búfer doble Un método que utiliza dos búfers, uno para la pantalla y el otro para el renderizado. Una vez que finaliza el renderizado, se intercambian los dos búferes. Sombreado plano o constante Asigna un color sólido al polígono. De esta manera, el objeto renderizado aparece como biselado. Niebla Utiliza la función de mezcla para un objeto que posee color fijo (mientras más se lo aleja del primer plano, más se utiliza esta función). Gama Las características de una pantalla que utiliza fósforo son no lineales: un pequeño cambio en el voltaje producirá de inmediato distintos efectos. Cuando el voltaje resulta bajo, el brillo de la pantalla cambia, por el contrario, el alto voltaje no produce un cambio similar en el brillo. Se denomina Gama a la diferencia entre lo que se espera y lo que se observa. Corrección de gama Antes de mostrar la información, se la debe corregir para compensar el efecto gama. Sombreado Gouraud Es un algoritmo que lleva el nombre del matemático francés que lo inventó. Este utiliza la interpolación para suavizar los colores. Asigna un color a cada píxel de un polígono al interpolar los colores en sus vértices. Simula la apariencia de superficies plásticas o metálicas. Interpolación Es un método matemático para regenerar información perdida o dañada. Por ejemplo, cuando se agranda una imagen, se regeneran los píxeles perdidos por interpolación. Búfer Lineal Es un búfer utilizado para almacenar una línea de video. Sombreado Pong Es un algoritmo, inventado por Phong Bui-Tong, utilizado para sombrear colores al calcular la cantidad de luz que caería en varios puntos de la superficie de un objeto y luego poder cambiar el color de los píxeles basados en esos valores. Utiliza muchos más recursos que el sombreado de Gouraud. MIP Mapping MIP es una palabra que viene del Latín "Multum in Parvum", significa "muchos en uno". Este método permite aplicar texturas con diferentes resoluciones a objetos dentro de una sola imagen, según su tamaño y distancia. Entre otras cosas, permite la utilización de texturas de mayor resolución a medida que el objeto se va acercando. Proyección Es la transformación de un espacio tridimensional en uno bidimensional. Rasterizado Convierte una imagen en píxeles Renderizado Es la creación de imágenes realistas en la pantalla al utilizar modelos matemáticos para suavizar, colorear, etc. Motor de renderizado Hardware o software que se utiliza para computar las primitivas 3D (por lo general triángulos). Tesselation o facetado Es el método utilizado para computar gráficos 3D. Puede dividirse en 3 partes: Facetado, geometría y renderizado. El paso de "facetado" implica la división de una superficie en partes más pequeñas (por lo general, triángulos o cuadriláteros) Asignación de textura Se hace referencia al almacenamiento de imágenes hechas de píxeles (texels), para luego envolver los objetos 3D de esta textura para que parezcan objetos más realistas. Filtrado trilineal Se basa en el principio del filtrado bilineal, el filtrado trilineal involucra dos niveles de filtrado bilineal. Búfer Z Es la parte de la memoria que almacena la distancia existente entre cada píxel y el objetivo. Cuando se muestran los objetos renderizados, el motor de renderizado elimina las superficies ocultas. Z-buffering Es un método con el cual se logra las superficies ocultas en los valores almacenados en el Búfer Z. 11. TARJETAS DE RED Tarjeta de interfaz de red (NIC). Tarjeta de red ISA de 10 Mbps con conectores RJ-45, AUI y 10Base2. Tarjeta de Red ISA de 10Mbps. Tarjeta de Red PCI de 10Mbps. Una tarjeta de red permite la comunicación entre diferentes aparatos conectados entre sí y también permite compartir recursos entre dos o más computadoras. A las tarjetas de red también se les llama adaptador de red o NIC (Network Interface Card, Tarjeta de interfaz de red en español). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando una interfaz o conector RJ-45. En la actualidad existen una gran cantidad de variedad de tarjetas de red desde las que se colocan dentro de los PC o las externas, así como las de conexión física inalámbricas, desde las que se utilizan en las PC normales o en otros dispositivos como Hubs, Routers y Switchs, e incluso impresoras, escáner y demás, todos estos dispositivos necesitan de la tarjeta de red para conectarse con otros dispositivos. Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un computador o impresora, se suele utilizar para referirse también a dispositivos integrados en la placa madre del equipo, como las interfaces presentes en la videoconsola Xbox o los Notebook. Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a la típica tarjeta con chips y conectores soldados, como la interfaz de red para la Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma CompactFlash y Secure Digital SIO utilizados en PDAs Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC. Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI e identifican a proveedores específicos y son designados por la IEEE. Se denomina también NIC al chip de la tarjeta de red que se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo un ordenador personal o una impresora). Es un chip usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas integrados (embebed en inglés), para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica, cable UTP, cable coaxial, fibra óptica, etc. La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que permite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo. Token Ring Las tarjetas para red Token Ring han caído hoy en día casi en desuso, debido a la baja velocidad y elevado costo respecto de Ethernet. Tenían un conector DB-9. También se utilizó el conector RJ-45 para las NICs (tarjetas de redes) y los MAUs (Multiple Access Unit- Unidad de múltiple acceso que era el núcleo de una red Token Ring) ARCNET Las tarjetas para red ARCNET utilizaban principalmente conectores BNC y/o RJ-45 aunque estas tarjetas ya pocos lo utilizan ya sea por su costo y otras desventajas... Ethernet Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10), AUI (10), MII (100), GMII (1000). El caso más habitual es el de la tarjeta o NIC con un conector RJ-45, aunque durante la transición del uso mayoritario de cable coaxial (10 Mbps) a par trenzado (100 Mbps) abundaron las tarjetas con conectores BNC y RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se pueden ver xerografiados los conectores no usados). Con la entrada de las redes Gigabit y el que en las casas sea frecuente la presencias de varios ordenadores comienzan a verse tarjetas y placas base (con NIC integradas) con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores. Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbps ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps, también conocida como Gigabit Ethernet y en algunos casos 10 Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7 que trabajan a frecuencias más altas. Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las de 100 Mbps (13,1 MB/s) realmente pueden llegar como máximo a unos 78,4Mbps (10,3 MB/s). Tarjetas de fibra óptica Estas tarjetas están teniendo una gran aceptación en la actualidad, por la velocidad en la transmisión de los datos así como en la confiabilidad y seguridad, las tarjetas de fibra óptica difieren en las demás en que las señales se dan mediante impulsos de luz que hacen posible la transmisión de los datos a una mayor distancia, las tarjetas de fibra son mas fáciles de configurar que las normales ya que solo se colocan y ya están en funcionamiento su uso está destinado a grandes estaciones así como a concentradores de redes backbone, los conectores de las tarjetas son especiales en donde se ingresa el cable de fibra óptica Monomodo o multimodo de una o dos vías según el diseño de la red, la de una vía usa solo una conexión para la transmisión y recepción de los datos, por ende solo hay un conector en la tarjeta, la de dos vías tiene dos conectores en la tarjeta uno para la transmito y otro para recepción de datos. Wi-Fi También son NIC las tarjetas inalámbricas o Wireless, las cuales vienen en diferentes variedades dependiendo de la norma a la cual se ajusten, usualmente son 802.11a, 802.11b y 802.11g. Las más populares son la 802.11b que transmite a 11 Mbps (1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbps (6,75 MB/s). La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo 11.b es de unos 4Mbps (0,5 MB/s) y las de protocolo 11.g llegan como máximo a unos 20Mbps (2,6 MB/s). FUNCIONES DE TARJETAS DE RED Son ocho las funciones de la NIC: Comunicaciones de host a tarjeta, la información que reside en la memoria o en el disco duro pasa a la tarjeta en forma de tramas. Buffering, almacenamiento de la información para el posterior traspaso de esta a través de los cables de red o mediante medios inalámbricos. Formación de paquetes, agrupar los datos de una forma entendible y transportable. Conversión serial a paralelo, Codificación y decodificación, codifica las señales de los cables que son bits 1 o 0 a señales entendibles por la tarjeta de red. Acceso al cable, conector que posibilita el acceso al cable de red, estos conectores pueden ser mediante RJ-45 o BNC Saludo, petición de escucha que se hace a la red para proceder a transmitir datos. Transmisión y recepción., envió y recepción de datos. Estos pasos hacen que los datos de la memoria de una computadora pasen a la memoria de otra. Tarjeta de red inalámbrica Tarjeta de red inalámbrica PCMCIA Tipos de conectores y adaptadores Los conectores más usados en las instalaciones de tarjetas de red son las de RJ-45 usadas mundialmente en las redes ethernet o conectores BNC usadas en tarjetas de red de tipo coaxial, estas últimas no se usan en la actualidad aunque puede ser que encuentre una instalada en algún antiguo edificio. Los conectores de fibra óptica son de tipo especial ya que permiten e interpretan los haces de luz provenientes de las redes de fibra óptica, tiene la ventaja de funcionar a muy altas velocidad, estos conectores deben de permanecer sellados si es que no son usados ya que ocasionaría deterioros en la señal de la transmisión de los datos. Puede darse el caso que usted no cuenta con una tarjeta de red para esto existe adaptadores de tipo USB o tarjetas de ampliación de tipo PCMCIA que pueden hacer que usted entre a la red de la empresa. Adaptador de USB-RED Conectores RJ-45 Cable de Fibra Óptica Velocidad de conexión Las tarjetas de red se encuentran en cualquier dispositivo que intente conectarse a una red, a no ser que este use un MODEM para salir a Internet, sin las tarjetas de red nuestros dispositivos serian meras estaciones de trabajo sin ningún valor más que el domestico, una red de datos y de voy proporciona muchos beneficios a las empresas y en la actualidad grandes satisfacciones a los hogares. A la hora de elegir una tarjeta de red debe de asegurarse de cumplir los siguientes aspectos: Que tipo de ranura soporta su PC o dispositivo de red Que medios y que cables e usaran en la transmisión de los datos A que velocidad máxima puede viajar un dato a través de la red Que es lo que se necesitara transmitir, si es video demandara más velocidad Cuanto está pensando en gastar, hay marcas que son muy buenas pero tienen precios muy altos. Cuál es la garantía que tiene la tarjeta Admite la tarjeta auto negociación, Estándares básicos para redes de datos cableadas Se refiere a las convenciones y protocolos que se acordó utilizar para el correcto funcionamiento entre redes de datos. Se muestra en la siguiente tabla los estándares básicos de acuerdo a su mayor uso: Estándar Norma Velocidad (Megabits por Método de acceso a la segundo) red Fast IEEE Ethernet 802.3u 10 / 100 / 1000 Mbps Acceso múltiple con detección de portadora y detección de colisiones. Ethernet IEEE 10 Mbps 802.3 Acceso múltiple con detección de portadora y detección de colisiones. Token Ring IEEE 4 a 16 Mbps 802.5 Paso de señales, si encuentra una computadora no encendida se la salta. Los componentes son visibles, ya que no cuenta con cubierta protectora; son básicamente los siguientes: 1.- Conector para la ranura: es el encargado de transmitir datos entre los puertos de la tarjeta y la tarjeta principal ("Motherboard"). 2.- Tarjeta: es la placa plástica sobre la cual se encuentran montados todos los chips y circuitos. 3.- Puertos: permiten la conexión del cable de red con la tarjeta y su respectiva comunicación con la tarjeta principal ("Motherboard"). Esquema de partes de la 4.- Placa de sujeción: es metálica y permite tarjeta para red alámbrica. soportar los puertos así como la sujeción hacia el chasis del gabinete. Partes de la tarjeta para red alámbrica y sus funciones. 12. TARJETAS DE SONIDO Tarjeta de sonido Sound Blaster Live! 5.1. La AdLib Music Synthesizer Card, la primera tarjeta de sonido popular Tarjeta basada en el chipset VIA Envy Indigo IO PCMCIA de 24 bits y 96 kHz estéreo fabricada por Echo Digital Audio Corporation Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio bajo el control de un programa informático llamado controlador (en inglés driver). El típico uso de las tarjetas de sonido consiste en proveer mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones multimedia engloban composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. En el 2010 el hecho de que un equipo no incorpore tarjeta de sonido, puede observarse en computadores que por circunstancias profesionales no requieren de dicho servicio. Características generales Una tarjeta de sonido típica, incorpora un chip de sonido que por lo general contiene el Conversor digital-analógico, el cual cumple con la importante función de "traducir" formas de ondas grabadas o generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para auriculares) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Para poder grabar y reproducir audio al mismo tiempo con la tarjeta de sonido debe poseer la característica "full-duplex" para que los dos conversores trabajen de forma independiente. Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos digitales para la reproducción. Esto último se logra con DACs (por sus siglas en inglés Digital-AnalogConversor o Conversor-Digital-Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la reproducción digital de multi-canales puede ser usado para sintetizar música si es combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar música en las PC es por medio de los "códecs de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de microprocesador. Esta también nos sirve para teléfonos móviles en la tecnología celular del mundo moderno de tal modo que estos tengan una mayor capacidad de bulla. La mayoría de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, reproductores de casetes entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador. Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada "Line-In". Funcionalidades Las operaciones básicas que permiten las tarjetas de sonido convencionales son las siguientes: Grabación: La señal acústica procedente de un micrófono u otras fuentes se introduce en la tarjeta por los conectores. Esta señal se transforma convenientemente y se envía al computador para su almacenamiento en un formato específico. Reproducción: La información de onda digital existente en la máquina se envía a la tarjeta. Tras cierto procesado se expulsa por los conectores de salida para ser interpretada por un altavoz u otro dispositivo. Síntesis: El sonido también se puede codificar mediante representaciones simbólicas de sus características (tono, timbre, duración...), por ejemplo con el formato MIDI. La tarjeta es capaz de generar, a partir de esos datos, un sonido audible que también se envía a las salidas. Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal, como compresión o introducción de efectos. Estas opciones se pueden aplicar a las tres operaciones. Componentes Esquema de una tarjeta de sonido. La figura siguiente muestra un diagrama simplificado de los componentes típicos de una tarjeta de sonido. En él se indica cuál es la información que viaja por cada enlace. Interfaz con placa madre Sirve para transmitir información entre la tarjeta y el computador. Puede ser de tipo PCI, ISA, PCMCIA, USB, etc. Buffer La función del buffer es almacenar temporalmente los datos que viajan entre la máquina y la tarjeta, lo cual permite absorber pequeños desajustes en la velocidad de transmisión. Por ejemplo, si la CPU no envía un dato a tiempo, la tarjeta puede seguir reproduciendo lo que tiene en el buffer; si lo datos llegan demasiado rápido, se van guardando. Lo mismo pasa en sentido inverso. Muchos ordenadores realizan la transmisión por DMA. Esto permite transportar los datos entre la tarjeta y la memoria directamente, sin la intervención de la CPU, lo cual le ahorra trabajo. DSP (Procesador de señal digital) Procesador de señal digital. Es un pequeño microprocesador que efectúa cálculos y tratamientos sobre la señal de sonido, liberando así a la CPU de ese trabajo. Entre las tareas que realiza se incluye compresión (en la grabación) y descompresión (en la reproducción) de la señal digital. También puede introducir efectos acústicos tales como coros, reverberación, etc., a base de algoritmos. Los DSP suelen disponer de múltiples canales para procesar distintos flujos de señal en paralelo. También pueden ser full-duplex, lo que les permite manipular datos en ambos sentidos simultáneamente. ADC (Conversor analógico-digital) Conversor analógico-digital. Se encarga de transformar la señal de sonido analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases: muestreo, cuantificación y codificación. Como resultado se obtiene una secuencia de valores binarios que representan el nivel de tensión en un momento concreto. El número de bits por muestra es fijo, y suele ser 16. La frecuencia de muestreo se puede controlar desde el PC, y normalmente es una fracción de 44.1kHz. DAC (Conversor digital-analógico) Conversor digital-analógico. Su misión es reconstruir una señal analógica a partir de su versión digital. Para ello el circuito genera un nivel de tensión de salida de acuerdo con los valores que recibe, y lo mantiene hasta que llega el siguiente. En consecuencia se produce una señal escalonada, pero con la suficiente frecuencia de muestreo puede reproducir fielmente la original. Sintetizador FM (modulación de frecuencia) La síntesis por modulación de frecuencias implementa uno de los métodos de sintetizar sonido a partir de información simbólica (MIDI). Su funcionamiento consiste en variar la frecuencia de una onda portadora sinusoidal en función de una onda moduladora. Con esto se pueden conseguir formas de onda complejas con múltiples armónicos, que son lo que define el timbre. El tono y volumen del sonido deseado los determinan la frecuencia fundamental y la amplitud de la onda. Los primeros sintetizadores FM generaban una señal analógica. Sin embargo, posteriormente se han desarrollado versiones que trabajan digitalmente. Esto da más flexibilidad y por tanto más expresividad a la generación de ondas, a la vez que permite someter la señal a tratamiento digital. Sintetizador por Tabla de Ondas La síntesis mediante tabla de ondas es un método alternativo al FM. En vez de generar sonido de la nada, utiliza muestras grabadas de los sonidos de instrumentos reales. Estas muestras están almacenadas en formato digital en una memoria ROM incorporada, aunque también pueden estar en memoria principal y ser modificables. El sintetizador busca en la tabla el sonido que más se ajusta al requerido en cada momento. Antes de enviarlo realiza algunos ajustes sobre la muestra elegida, como modificar el volumen, prolongar su duración mediante un bucle, o alterar su tono a base de aumentar o reducir la velocidad de reproducción. Este componente puede tener una salida analógica o digital, aunque es preferible la segunda. En general el sonido resultante es de mayor calidad que el de la síntesis FM. Alternativamente, este proceso puede ser llevado a cabo enteramente por software, ejecutado por la CPU con muestras almacenadas en disco y un algo coste de la tarjeta. Mezclador El mezclador tiene como finalidad recibir múltiples entradas, combinarlas adecuadamente, y encaminarlas hacia las salidas. Para ello puede mezclar varias señales (por ejemplo, sacar por el altavoz sonido reproducido y sintetizado) o seleccionar alguna de ellas (tomar como entrada el micrófono ignorando el Line-In). Este comportamiento se puede configurar por software. Tanto las entradas como las salidas pueden proceder de la tarjeta o del exterior. El mezclador suele trabajar con señales analógicas, aunque también puede manejar digitales (S/PDIF). Conectores Son los elementos físicos en los que deben conectarse los dispositivos externos, los cuales pueden ser de entrada o de salida. Casi todas las tarjetas de sonido se han adaptado al estándar PC 99 de Microsoft que consiste en asignarle un color a cada conector externo, de este modo: Color Función Rosa Entrada analógica para micrófono. Azul Entrada analógica "Line-In" Verde Negro Salida analógica para la señal estéreo principal (altavoces frontales). Salida analógica para altavoces traseros. Plateado Salida analógica para altavoces laterales. Naranja Salida Digital SPDIF (que algunas veces es utilizado como salida analógica para altavoces centrales). Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los minijack al ser los más económicos. Con los conectores RCA se consigue mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno para el canal derecho y otro para el izquierdo. A nivel profesional se utilizan las entras y salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con sonido digital eliminando las pérdidas de calidad en las conversiones. Para poder trabajar con dispositivos MIDI se necesita la entrada y salida MIDI. ASPECTOS DE LA SEÑAL Muestreo de sonido Para producir un sonido el altavoz necesita una posición donde golpear, que genera, dependiendo del lugar golpeado, una vibración del aire diferente que es la que capta el oído humano. Para determinar esa posición se necesita una codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes se es capaz de representar. Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones diferentes donde golpear. Sin embargo con 16 bits se conseguirían 65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se quiera trabajar con un margen de error que impida que la muestra cambie significativamente. Frecuencia de muestreo Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo pueden hacer hasta una frecuencia límite, mientras mayor sea esta mejor calidad se puede obtener. Las tarjetas de sonido que incluían los primeros modelos de Apple Macintosh tenían una frecuencia de muestreo de 22050 Hz (22,05 KHz) de manera que su banda de frecuencias para grabar sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras tarjetas estereofónicas tenían una frecuencia de muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se extendió hasta los 20 KHz (alta calidad) pero se obtiene un sonido más claro cuando se eleva un poco esta frecuencia pues hace que los circuitos de filtrado funcionen mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz. Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero si los equipos se extienden más allá de este límite se tiene una mejor calidad, también que la frecuencia de muestreo (del convertidor) debe ser de más del doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica). Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir las que si se oyen. Canales de sonido y polifonía Otra característica importante de una tarjeta de sonido es su polifonía. Es el número de distintas voces o sonidos que pueden ser tocados simultánea e independientemente. El número de canales se refiere a las distintas salidas eléctricas, que corresponden a la configuración del altavoz, como por ejemplo 2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. En la actualidad se utilizan las tarjetas de sonido envolvente (surround), principalmente Dolby Digital 8.1 o superior. El número antes del punto (8) indica el número de canales y altavoces satélites, mientras que el número después del punto (1) indica la cantidad de subwoofers. En ocasiones los términos voces y canales se usan indistintamente para indicar el grado de polifonía, no la configuración de los altavoces. Así funcionan Las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable). En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma. Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor). Efectos Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal Avanzado), que amplía considerablemente la complejidad de los efectos.Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta. Polifonía ¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta. MIDI La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI. En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores DIN apropiados para engancharla al instrumento en cuestión, y el software secuenciador adecuado, que también suele regalarse con el periférico. Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486. Frecuencia de muestreo Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua será la adquisición del mismo. Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad comparable a la de un disco compacto. En algunos casos, el fabricante posee controladores que añaden funcionalidad full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una buena idea ir a la página Web del fabricante en cuestión. Por último, y aunque sea de pasada, puesto que se trata de un requisito casi obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por cien con la normativa Plug and Play; seguro que muchos lo agradecerán. La compatibilidad Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe mantener una total compatibilidad con el estándar impuesto por la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft. Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar. Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware. La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser fuente de problemas con programas que accedan a bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por hardware. 13. USB 1.1, 2.0, 3.0 USB Por sus siglas Universal Serial Bus El puerto USB es una entrada o acceso para que el usuario pueda compartir información almacenada en diferentes dispositivos como una cámara de fotos, una memoria USB, entre otros, con una computadora. Al crear esta tecnología se fue dejando atrás los antiguos puertos en paralelo y serial y se aumentó la velocidad de trabajo de los dispositivos a 12 mbps en promedio, esto es más o menos de 3 a 5 veces más rápido que un dispositivo de puerto paralelo y de 20 a 40 veces más rápido que un dispositivo de puerto serial. Los aparatos conectados a un puerto USB estándar no necesitan estar enchufados a la corriente o disponer de baterías para funcionar. El propio puerto está diseñado para transmitir energía eléctrica al dispositivo conectado. Incluso puede haber varios aparatos conectados simultáneamente, sin necesidad de recurrir a una fuente de alimentación externa. Una de sus características principales es su capacidad plug & play. Este concepto se refiere a la cualidad de que con sólo conectar el dispositivo al servidor central, éste sea capaz de interpretar la información almacenada y reproducirla inmediatamente. Es decir, que la computadora y el aparato hablen el mismo idioma y se entiendan entre sí. Además, este sistema permite conectar y desconectar los diferentes dispositivos sin necesidad de reiniciar el equipo. Esta forma de conexión también ha ido evolucionando en el tiempo: USB 0.9: Primer borrador, publicado en Noviembre de 1995. USB 1.0: Publicada en 1996 establece dos tipos de conexión: La primera, denominada velocidad baja (“Low speed”), ofrece 1.5 Mbps, y está pensada para periféricos que no requieren un gran ancho de banda, como ratones o joysticks. La segunda, denominada velocidad completa (“Full speed”), es de 12 Mbps, y está destinada a los dispositivos más rápidos. USB 1.1: Publicada en 1998, añade detalles y precisiones a la norma inicial; es el estándar mínimo que debe cumplir un dispositivo USB. USB 2.0: Su versión final fue publicada en Abril del 2000; es una extensión de la norma compatible con las anteriores. Permite velocidades de hasta 480 Mbps, denominada alta velocidad (“High speed”) La masificación de los puertos USB es cada día mayor. Además de la mejora en la velocidad de transferencia y su cualidad plug & play, su capacidad de conectar los aparatos es muy simple y no requiere de instalaciones complejas ni de intervenir en el hardware de los computadores. Hoy en día, es común que los discos duros traigan incorporados varios puertos USB para facilitar la conectividad de los aparatos. Funcionamiento Trabaja como interfaz para transmisión de datos y distribución de energía, que ha sido introducida en el mercado de PC’s y periféricos para mejorar las lentas interfaces serie (RS-232) y paralelo. Esta interfaz de 4 hilos, 12 Mbps y “plug and play”, distribuye 5V para alimentación, transmite datos y está siendo adoptada rápidamente por la industria informática. Es un bus basado en el paso de un testigo, semejante a otros buses como los de las redes locales en anillo con paso de testigo y las redes FDDI. El controlador USB distribuye testigos por el bus. El dispositivo cuya dirección coincide con la que porta el testigo responde aceptando o enviando datos al controlador. Este también gestiona la distribución de energía a los periféricos que lo requieran. Emplea una topología de estrellas apiladas que permite el funcionamiento simultáneo de 127 dispositivos a la vez. En la raíz o vértice de las capas, está el controlador anfitrión o host que controla todo el tráfico que circula por el bus. Esta topología permite a muchos dispositivos conectarse a un único bus lógico sin que los dispositivos que se encuentran más abajo en la pirámide sufran retardo. A diferencia de otras arquitecturas, USB no es un bus de almacenamiento y envío, de forma que no se produce retardo en el envío de un paquete de datos hacia capas inferiores. El sistema de bus serie universal USB consta de tres componentes: Controlador Hubs o Concentradores Periféricos Controlador Reside dentro del PC y es responsable de las comunicaciones entre los periféricos USB y la CPU del PC. Es también responsable de la admisión de los periféricos dentro del bus, tanto si se detecta una conexión como una desconexión. Para cada periférico añadido, el controlador determina su tipo y le asigna una dirección lógica para utilizarla siempre en las comunicaciones con el mismo. Si se producen errores durante la conexión, el controlador lo comunica a la CPU, que, a su vez, lo transmite al usuario. Una vez se ha producido la conexión correctamente, el controlador asigna al periférico los recursos del sistema que éste precise para su funcionamiento. El controlador también es responsable del control de flujo de datos entre el periférico y la CPU. Concentradores o Hubs Son distribuidores inteligentes de datos y alimentación, y hacen posible la conexión a un único puerto USB de 127 dispositivos. De una forma selectiva reparten datos y alimentación hacia sus puertas descendentes y permiten la comunicación hacia su puerta de retorno o ascendente. Un hub de 4 puertos, por ejemplo, acepta datos del PC para un periférico por su puerta de retorno o ascendente y los distribuye a las 4 puertas descendentes si fuera necesario. Los concentradores también permiten las comunicaciones desde el periférico hacia el PC, aceptando datos en las 4 puertas descendentes y enviándolos hacia el PC por la puerta de retorno. Además del controlador, el PC también contiene el concentrador raíz. Este es el primer concentrador de toda la cadena que permite a los datos y a la energía pasar a uno o dos conectores USB del PC, y de allí a los 127 periféricos que, como máximo, puede soportar el sistema. Esto es posible añadiendo concentradores adicionales. Por ejemplo, si el PC tiene una única puerta USB y a ella le conectamos un hub o concentrador de 4 puertas, el PC se queda sin más puertas disponibles. Sin embargo, el hub de 4 puertas permite realizar 4 conexiones descendentes. Conectando otro hub de 4 puertas a una de las 4 puertas del primero, habremos creado un total de 7 puertas a partir de una puerta del PC. De esta forma, es decir, añadiendo concentradores, el PC puede soportar hasta 127 periféricos USB. La mayoría de los concentradores se encontrarán incorporados en los periféricos. Por ejemplo, un monitor USB puede contener un concentrador de 7 puertas incluido dentro de su chasis. El monitor utilizará una de ellas para sus datos y control y le quedarán 6 para conectar allí otros periféricos. Periféricos USB soporta periféricos de baja y media velocidad. Empleando dos velocidades para la transmisión de datos de 1. 5 y 12 Mbps se consigue una utilización más eficiente de sus recursos. Los periféricos de baja velocidad tales como teclados, ratones, joysticks, y otros periféricos para juegos, no requieren 12 Mbps. Empleando para ellos 1,5 Mbps, se puede dedicar más recursos del sistema a periféricos tales como monitores, impresoras, módems, scanner, equipos de audio, etc. que precisan de velocidades más altas para transmitir mayor volumen de datos o datos cuya dependencia temporal es más estricta. Cables y conectores Existen dos tipos de cable: apantallado y sin Pin Nombre Descripción Color apantallar. En el primer caso el par de hilos 1 de señal es trenzado; los de tierra y VBUS + 5 V. CC rojo alimentación son rectos, y la cubierta de 2 D- Data - azul 3 D+ Data + amarillo 4 GND Tierra verde protección (pantalla) solo puede conectarse a tierra en el anfitrión. En el cable sin apantallar todos los hilos son rectos. Las conexiones a 15 Mbps y superiores exigen cable apantallado. AWG mm Ø Long. Máx. Se utilizan diámetros estándar para los hilos de alimentación del bus. Para cada sección se autoriza 28 0.321 0.81 m 26 0.405 1.31 m 24 0.511 2.08 m identificación. 22 0.644 3.33 m Se usan dos tipos de conectores, A y B. Ambos son una longitud máxima del segmento. En la tabla izquierda se muestran estas distancias; a la derecha se muestran la disposición de pines y colores de polarizados (solo pueden insertarse en una posición) y 20 0.812 5.00 m utilizan sistemas de presión para sujetarse. Los de tipo A utilizan la hembra en el sistema anfitrión, y suelen usarse en dispositivos en los que la conexión es permanente (por ejemplo, ratones y teclados). Los de tipo B utilizan la hembra en el dispositivo USB (función), y se utilizan en sistemas móviles (por ejemplo, cámaras fotográficas o altavoces). En general podemos afirmar que la hembra de los conectores A están en el lado del host (PC) o de los concentradores (hubs), mientras las de tipo B están del lado de los periféricos. Conector tipo A Conector tipo B Ventajas Todos los periféricos que enchufes al USB gastan una única IRQ. Amplio catálogo de modernos periféricos: ratones, teclados, escáneres, cámaras fotográficas, monitores, discos duros, etc. Se puede enchufar con el periférico y el ordenador encendido. El periférico puede alimentarse de este puerto, por lo que si no gasta mucho, no necesita fuente de alimentación. Se necesitan menos componentes, por lo que los periféricos deben ser más baratos. Facilita la compatibilidad entre Mac y PC. Podemos enchufar un gran número de periféricos a un sólo PC (en teoría 127 por puerto) que por otros medios sería imposible por las limitaciones de IRQs. Desventajas Estos dispositivos no funcionan en versiones antiguas de Windows, ni en Linux con núcleos muy viejos, algo a tener en cuenta en periféricos esenciales como teclados, ratones, monitores, impresoras, etc. Windows 98 puede tener problemas para detectar discos duros USB, si esto ocurre desconecte el dispositivo. Algunas impresoras con puerto USB son winprinters, es decir, sólo funcionan en Windows aunque algunas también pueden usar Linux no sin ciertas dificultades para su configuración. Los módems USB casi todos están creados para funcionar en Windows. Los cables USB para conectar dos equipos pueden dar problemas en algunos Linux o en cierto Windows. Los escáneres USB son bastante más estables que los que van por puerto paralelo pero mucho menos que los basados en SCSI. Efectivamente muchos periféricos USB no necesitan un rectificador para alimentarse, pero debemos recordar que la energía tiene que salir de algún sitio, que no es otro que nuestra fuente de alimentación que debe tener cierta potencia para no tener problemas al cargar demasiado el equipo con muchos periféricos de este tipo. Conclusiones: 1. Es más útil para unos periféricos que para otros. 2. Suele ser la solución más cómoda pero no siempre la más adecuada (sobre todo módems). 3. El USB es el futuro pero en el también tienen que escucharse a los usuarios, o será un futuro muy corto. 4. Es muy interesante que un ordenador tenga USB como complemento a los puertos tradicionales pero no como sustituto ni imposición de los fabricantes. De hecho mejor que traiga al menos 5 porque pronto nos quedaremos cortos con 2. 14. WI-FI Historia Nokia y symbol Technologies crearon en 1999 crearon una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance). Esta asociación pasó a denominarse Wifi Alliance en 2003. El objetivo de la misma fue crear una marca que permitiese fomentar más facilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos. En esta forma en abril del 2000 WECA certifica la interoperabilidad de equipos según la norma IEEE.802.11b, bajo la marca Wi-fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos. Se puede obtener un listado completo de equipos que tienen la certificación Wi-Fi en Alliance. La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas fisicas y Mac de la norma 802.3 (Ethernet) esto quiere decir que en lo unico que se difernecia una red Wi-Fi de una red Ethernet es en como se trasmiten las tramas o paquetes de datos; el resto es idéntico. El nombre Wi-Fi Aunque se pensaba que el término viene de Wireless Fidelity como equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la WECA contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger, miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi. Estándares que cerfitica Wi-Fi. Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado, son los siguientes: Los estándares IEEE 802.11b, IEEE 802.11g, e IEEE 802.11n disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 300 Mbps respectivamente. En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WiFi5 que opera en una banda de 5GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5GHz ha sido recientemente habilitada, y además, no existen otras tecnologías que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que los estandáres que trabajan a 2.4GHz (aproximadamente un 10%) debido a que la frecuencia es mayor (a mayor frecuencia menor alcance). Un primer borrador del estándar IEEE 802.11n que trabaja a 2.4GHz y a una velocidad de 108 Mbps. Sin embargo el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbps gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N. Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con WiFi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad. Seguridad y Fiabilidad Uno de los problemas a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias. Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los crackers), sin proteger la información que por ellas circulan. Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos. La mayoría de las formas son las siguientes: WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave. WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios. Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos, y si son pocos. Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios. El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son. Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas. Dispositivos Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB. Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento). Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente. Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior. Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB: Tarjeta USB para Wi-Fi. Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB. Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no está estandarizada. También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes. En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless” Ventajas y Desventajas Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar: Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio. Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable. La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles. Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son: Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear. La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante). Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.