Small Computer System Interface

Anuncio
INSTITUTO TECNOLOGICO DE DELICIAS
INGENIERIA EN SISTEMAS COMPUTACIONALES
INTERFACES
PERIFÉRICOS ESTANDARIZADOS
ALVARADO GARDEA ALEJANDRA
CASTILLO OLIVAS SAUL
DOMINGUEZ URVINA HEBER ADRIAN
GUERRERO LOPEZ ANA KAREN
MONTES CARNERO CARLOS ALFREDO
PEREIDA RODRIGUEZ JOHANA
QUINTANA LUZ ELVA
RODRIGUEZ CABELLO ISAI
ALARCON ROCHA OSCAR
HERRERA SERNA VICTOR HUGO
VILLALOBOS URANGA VICTOR
ING. DAVID URITA E.
Cd. Delicias, Chih., Octubre del 2010
TEMAS
1. BLUETOOH
2. BUS DE EXPANSION ISA, EISA, MCA, LOCAL, VLB, PCI, PCI EXPRESS
3. FIREWIRE
4. HDMI
5. IEEE
6. IRDA - INFRARROJO
7. PUERTO SERIAL
8. PUERTO PARALELO
9. SCSI ASIMETRICO Y DIFERENCIAL
10. TARJETAS ACELERADORAS 2D, 3D
11. TARJETAS DE RED
12. TARJETAS DE SONIDO
13. USB 1.0, 1.1, 2.0, 3.0
14. WI-FI (802.11)
1. BLUETOOH
El estándar IEEE 802.15 se enfoca básicamente en el
desarrollo de estándares para redes WPAN
también
conocidas como redes inalámbricas de corta distancia.
Permite
que
dispositivos
inalámbricos
como
computadoras portátiles, PDAs, teléfonos celulares,
pagers, entre otros puedan comunicarse e interactuar
entre ellos. Debido a que este no puede coexistir en una red inalámbrica de
alguna manera se definió un estándar para permitir la interoperabilidad de las
redes inalámbricas LAN con las redes inalámbricas PAN.
Trabajando en la banda ISM de los 2.4 GHz
Bluetooth es la norma que define el estándar global de comunicación
inalámbrica, que posibilita la transmisión de voz y datos entre diferentes
equipos mediante el enlace por radiofrecuencia. Los principales objetivos que
se pretende conseguir con esta norma son:
Facilitar la comunicación entre equipos móviles y fijos.
Eliminar cables y conectores entre ellos.
Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la
sincronización de datos entre nuestros equipos personales.
RESEÑA HISTORICA
El origen de su nombre se da por el rey Danés y Noruego Harald Blatand, cuya
traducción a ingles seria Harold Bluetooth, conocido por buen comunicador y
por unificar las tribus noruegas, suecas y danesas. La traducción textual al
idioma español es “diente azul”, aunque el termino en Danés era utilizado para
denotar que era de tez morena y no de dientes azules. =)
En 1994 se realizaron los primeros estudios de Ericsson para comunicaciones
inalámbricas.
En 1998 se funda el SIG Bluetooth
En 1999 aparece la especificación Bluetooth 1.0: núcleo o core de interfaz de
radio, banda base, enlace y transporte. Perfil fundamental: directrices para la
interoperabilidad de aplicaciones.
En 2001 Versión 1.1 de la especificación Bluetooth.
En 2003 versión 1.2
En 2004 versión 2.0 + EDR
En 2008 versión 2.1 + EDR
La elección de Bluetooth para denominar a esta nueva tecnología se debe a
que, de la misma manera pretende unir diferentes dispositivos como:
ordenadores, teléfonos móviles, manos libres de autos etc.
El logo de Bluetooth combina la representación de las ruinas nórdicas Hagalaz
(transcrito por H) y Berkana (Transcrito por B) en un mismo símbolo. Diseñado
especialmente para dispositivos de bajo consumo, con cobertura baja y basada
en transceptores de bajo coste.
La comunicación se lleva a cabo bajo radiofrecuencias lo que implica que los
dispositivos no tienen que estar alineados para comunicarse. Debido a la
potencia de transmisión del bluetooth se pueden clasificar en tres clases: clase
1, clase 2, clase 3.
En la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2
se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias
a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1, es
decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la
señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor
sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a
ser más débil.
Los dispositivos con Bluetooth también pueden clasificarse según su ancho de
banda:
Clase
Clase
Potencia
máxima Potencia
máxima Rango
permitida
permitida
(mW)
(dBm)
100 mW
20 dBm
~100 metros
2.5 mW
4 dBm
~25 metros
1 mW
0 dBm
~1 metro
(aproximado)
1
Clase
2
Clase
3
Versión
Ancho de banda
Versión 1.2
1 Mbit/s
Versión 2.0 + EDR
3 Mbit/s
Versión 3.0 + HS
24 Mbit/s
Del mismo modo que el Wi-Fi utiliza la técnica FHSS en español espectro
ensanchado por saltos de frecuencia que consiste en dividir la banda de
frecuencia de 2.402 GHz a 2.480 GHz en 79 canales denominados saltos de 1
MHz de ancho cada uno. Por lo tanto al cambiar de canales con una frecuencia
de 1600 veces por segundo, este estándar puede evitar la interferencia con
otras señales de radio. La interconexión se da formando piconets de donde se
pueden añadir hasta 8 dispositivos y uno actuara como maestro y los demás
serán esclavos.
Para la comunicación utiliza dos tipos de enlace:
El enlace sin conexión ACL (utilizado para tráfico de datos) y el enlace síncrono
orientado a conexión SCO (utilizado para tráfico de datos, multimedia y audio
en tiempo real.)
La topología de red que utiliza este estándar como es tecnología de redes PAN
utiliza la comunicación stand-alone conocida a nivel mundial entre dos
dispositivos, hasta 8 dispositivos se pueden conectar al piconet y se
sincronizan a el maestro, la unión de varios de estos se denominan scatternet.
Existen infinidad de dispositivos que usan esta tecnología, por mencionar
algunos:
Auriculares de estéreo, manos libres, sistemas integrados, GPS, módulos
integrados en placa, adaptadores USB, teclados, ratones, impresoras, PS3,
teléfonos móviles, smartphones, PDAS, cámaras de foto/video, proyectores,
etc.
Utiliza varios protocolas para lograr la comunicación entre dispositivos,
mencionados a continuación:
INTERFAZ DE RADIO:
Permite el enlace físico por radiofrecuencias entre unidades Bluetooth, realiza
tareas de modulación y demodulación de los datos en señales RF que se
transmiten por el aire.
CAPA DE BANDA BASE:
Proporciona los dos tipos de enlace físico, enlace asíncrono sin conexión (ACL)
para tráfico de datos. O el enlace síncrono orientado a conexión (SCO), para
trafico de audio y datos.
CAPA DE PROTOCOLO DE GESTION DE ENLACE:
LMP es el responsable de la configuración y control del enlace entre equipos,
cuando dos equipos se encuentran sus gestores de enlace se comunican.
También realizan tareas de seguridad como autenticación, cifrado, gestión de
claves.
CAPA DE INTERFAZ DE CONTROLADOR DE HOST:
HCI es la frontera entre las capas de protocolo de hardware y software, abstrae
la comunicación entre el equipo y el firmware del módulo Bluetooth. Es la capa
de acceso homogénea para todos los módulos de cualquier fabricante.
Encargado también del descubrimiento (inquiry) de dispositivos que se
encuentran dentro del radio de cobertura.
CAPA DE PROTOCOLO DE ADAPTACIÓN
Y CONTROL DEL ENLACE
LOGICO:
L2CAP se encarga de la multiplexación de protocolos de nivel superior desde
el protocolo de la banda base, segmento y recompensación de paquetes antes
de su transmisión. Intercambio de información referente a la calidad de servicio
QoS. Definida únicamente para enlaces de tipo ACL y no permite más que un
solo enlace.
CAPA DE PROTOCOLO DE DESCUBRIMIENTO DE SERVICIOS SDP:
A través de los servicios dos dispositivos pueden ejecutar aplicaciones
comunes e intercambiar datos. Es aquí donde se soportan los modelos de uso
de “perfiles de Bluetooth”
Servicie record contiene toda la información de un servicio que mantiene un
servidor SDP y describe los atributos de un servicio: nombre, descripción,
canal… etc. E implementa dos operaciones:
Búsqueda de un servicio especifico entre dispositivos cercanos y enumeración
de servicios ofrecidos por un determinado dispositivo.
CAPA RFCOMM:
Protocolo de emulación de puerto serie RS-232 sobre L2CAP, sustituye el
cable y emula señales de control y datos proporcionando capacidad de
transporte a los niveles superiores.
PROTOCOLO OBEX:
Permite el intercambio de objetos de forma simple y espontanea.
PROTOCOLO ADOPTADOS PPP:
Acceso al protocolo IP para garantizar interoperabilidad de los equipos
Bluetooth con aplicaciones basadas en protocolos TCP y UDP.
COMANDOS AT:
Permite configurar un equipo y enviarle instrucciones para ejecutarlo.
PILAS DE PROTOCOLOS DE APLICACIÓN:
Sobre la pila de protocolos de Bluetooth cada fabricante puede implementar su
capa de protocolos de aplicación propietarios. Conocidos como stocks por
ejemplo:
Windows Stacks: Widcomm, Toshiba, Microsoft, IIVT Bluesolei.
Linux Stack: BlueZ, OpenBT, Affix.
BLUEZ:
Pila de protocolos oficial para Linux, incluida desde el kernel 2.4.6
Adecuada para auditoria de seguridad de dispositivos Bluetooth, incluye un
conjunto de herramientas para funciones Bluetooth, proporciona librerías para
el desarrollo de aplicaiones Bluetooth.
Por otro lado además de los Distintos
protocolos que se usan se tienen
diferentes perfiles para el manejo de
los mismos dispositivos. En ellos se
definen protocolos y características
de los modelos de uso de Bluetooth.
A continuación se mencionaran:
PERFIL DEL PUERTO SERIE (SP):
Sustitución del cable en comunicaciones serie RS-232, en donde se utiliza es
en la conexión del receptor GPS con el visualizador de mapas.
PERFIL DE ACCESO TELEFONICO A REDES (DUN):
Permite el acceso a internet a través de equipos telefónicos, en donde se utiliza
es en utilizar el teléfono para salir a internet a través de GPRS
PERFIL DE AURICULARES (HS):
Permite utilizar un dispositivo auricular como interfaz de entrada y salida para
mantener conversaciones telefónicas con libertad de movimiento, en donde se
utilizan es en el uso de manos libres auriculares y manos libres de automóvil.
PERFILES DE PASARELA DE AUDIO (AG):
Permite establecer una pasarela de audio entre dos equipos de forma que el
audio que reproduce el software de uno se transmite a través de un enlace
SCO y puede ser proyectado por los altavoces del segundo equipo, en donde
se utiliza es en establecer pasarelas de audio entre dos ordenadores.
PERFIL DE FAX:
Permite acceder a redes WAN a través de un punto de acceso a datos, se
utiliza en el teléfono móvil como dispositivos fax para enviar y recibir mensajes
de fax.
PERFIL DE ACCESO A RED (LAP):
Permite acceder a redes LAN a través de un punto de acceso Bluetooth, se
utiliza en configurar un PC conectado a una red LAN como punto de acceso
inalámbrico para dispositivos móviles.
PERFIL DE TRANSFERENCIA DE ARCHIVOS (FTP):
Permite el intercambio de archivos a través de OBEX file transfer, se utiliza en
transferir archivos desde un teléfono a un PC u otro teléfono.
PERFIL DE CARGA DE OBJETOS (OPUSH):
Permite el envió de archivos a través de OBEX Object Push, utilizado en
marketing de proximidad Bluetooth, en envió de publicidad.
PERFIL DE SINCRONIZACION (SYNC):
Permite la sincronización de elementos PIM entre dos equipos, se utiliza en
sincronizar la agenda y el calendario de citas con Outlook.
PERFIL DE DISTRIBUCION DE AUDIO (A2DP):
Permite establecer una pasarela de audio de calidad entre dos dispositivos, se
utiliza al reproducir un teléfono móvil a través de unos auriculares o unos
altavoces inalámbricos.
PERFIL DE DISPOSITIVOS DE INTERFAZ HUMANA (HID):
Permiten la conexión inalámbrica de periféricos, se utiliza en un teclado o ratón
inalámbrico en una PC o una PDA.
2. BUSES DE EXPANSION
ISA (Industry Standard Arquitecture)
En 1984 IBM presenta el PC AT (con el procesador Intel 80286) se rompió la
aparentemente inquebrantable relación entre bus y microprocesador
Aunque en la práctica el reloj del procesador de un AT funciona a la misma
velocidad que su reloj de bus, IBM había abierto la puerta a la posibilidad de
que este último fuese más rápido que el reloj del bus. Así pues el bus que
incorporó el AT fue de un ancho de banda de 16 bits funcionando a 8.33 Mhz.
Este enfoque de diseño no oficial se denominó oficialmente ISA (Industry
Standard Arquitecture) en 1988.
EISA (Extended ISA)
Como el mercado necesitaba un bus compatible ISA que fuese más rápido, la
mayoría de fabricantes establecieron las especificaciones del bus EISA
(Extended ISA) que ensanchaba la ruta de datos hasta 32 bits
La necesidad de compatibilidad con ISA hizo que este nuevo bus tuviese que
cargar con la velocidad básica de transferencia de ISA (8.33 Mhz).
Los procesadores Intel 80486 y la invasión en el mercado de los sistemas
gráficos como Windows hicieron necesario la aparición de un nuevo tipo de bus
que estuviese a la altura de esta tecnología.
Al manejarse gráficos en color se producían grandes cuellos de botella al pasar
del procesador al bus ISA (el 80486 funcionaba a 33 Mhz y el bus ISA a 8.33
Mhz).
EL BUS MCA
El bus MCA o MICROCHANNEL, como se le suele denominar, no es en
realidad un bus, sino una especie de sistema de canalización, en el cual los
datos no son transmitidos al receptor correspondiente mediante un código
simple de direccionamiento, sino que, prácticamente, tienen que ser recogidos
por él. Para ello, previamente se informa al receptor (que puede ser, por
ejemplo, la tarjeta gráfica) sobre el punto en el que se encuentran los datos y
se le da acceso a un canal, por el cual pueden ser transportados.
Este proceso tiene lugar sin la participación de la CPU. El MICROCHANNEL,
que fue desarrollado por IBM para su línea de equipos PS/2, alcanza, con esta
metodología un índice de rendimiento nada despreciable. La cota de
transmisión de datos puede llegar a los 20 MB/s y además el procesador,
también mejora su ritmo operativo.
Sin embargo, este sistema no ha conseguido implantarse fuera de la
generación IBM PS/2 para la que fue diseñado. La razón de ello no es otra que
su total incompatibilidad con las demás tarjetas existentes. Por consiguiente, si
desea instalar una placa MICROCHANNEL tendrá que descartar los
componentes del sistema que ya disponía y adquirir los que se corresponden
con ella. Y todo esto a un precio superior al que usted estaba acostumbrado.
En efecto, hasta la más insignificante ampliación, pensemos, por ejemplo, en
una ranura adicional, requiere elementos electrónicos costosos y complejos (al
fin y al cabo el objetivo es liberar de trabajo a la CPU) para adaptarse al
MICROCHANNEL. Este hecho, junto a la difícil situación de las patentes, llevo
al resto de fabricantes a desarrollar el estándar EISA arriba descrito.
Así las cosas, si usted es ya propietario de una IBM PS/2 (exceptuemos al
PS/2-30, que cuenta con un estándar ISA de 8 bits), le felicitamos por disponer
de un sistema de bus inteligente y con gran capacidad operativa y deseamos
que no se vea en la necesidad de efectuar ampliaciones. Si está contemplando
la idea de adquirir una de estas computadoras, tendría que analizar la mejora
del rendimiento que le ofrece MICROCHANNEL, frente a las limitadas
posibilidades de expansión que implica. No olvide que muchas modificaciones
es estos equipos (véase, por ejemplo, la instalación de una unidad de disquete
de 5 1/4 pulgadas o de un disco duro más potente) requieren inversiones
considerables o la asistencia directa del fabricante.
LOCAL BUS
Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad
de los buses EISA y MCA para asentarse en el mercado, en estos años se han
ideado otros conceptos de bus. Se inició con el llamado Vesa Local Bus (VLBus), que fue concebido y propagado independientemente por el comité VESA,
que se propuso el definir estándares en el ámbito de las tarjetas gráficas y así
por primera vez y realmente tuviera poco que ver con el diseño del bus del PC.
Fueron y son todavía las tarjetas gráficas quienes sufren la menor velocidad del
bus AT. Por eso surgió, en el Comité VESA, la propuesta para un bus más
rápido que fue el VESA Local Bus.
VESA LOCAL BUS (VLB)
Al contrario que con el EISA, MCA y PCI, el bus VL no sustituye al bus ISA sino
que lo complementa. Un PC con bus VL dispone para ello de un bus ISA y de
las correspondientes ranuras (slots) para tarjetas de ampliación. Además, en
un PC con bus VL puede haber, sin embargo, una, dos o incluso tres ranuras
de expansión, para la colocación de tarjetas concebidas para el bus VL, casi
siempre gráficos. Solamente estos slots están conectados con la CPU a través
de un bus VL, de tal manera que las otras ranuras permanecen sin ser
molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes.
El VL es una expansión homogeneizada de bus local, que funciona a 32 bits,
pero que puede realizar operaciones a 16 bits. VESA presentó la primera
versión del estándar VL-BUS en agosto de 1992. La aceptación por parte del
mercado fue inmediata. Fiel a sus orígenes, el VL-BUS se acerca mucho al
diseño del procesador 80486. De hecho presenta las mismas necesidades de
señal de dicho chip, exceptuando unas cuantas menos estrictas destinadas a
mantener la compatibilidad con los 386.
La especificación VL-Bus como tal, no establece límites, ni superiores ni
inferiores, en la velocidad del reloj, pero una mayor cantidad de conectores
supone una mayor capacitancia, lo que hace que la fiabilidad disminuya a la
par que aumenta la frecuencia. En la práctica, el VL-BUS no puede superar los
66 Mhz. Por este motivo, la especificación VL-BUS original recomienda que los
diseñadores no empleen más de tres dispositivos de bus local en sistemas que
operan a velocidades superiores a los 33 Mhz. A velocidades de bus
superiores, el total disminuye: a 40 Mhz solo se pueden incorporar dos
dispositivos; y a 50 Mhz un único dispositivo que ha de integrarse en la placa.
En la práctica, la mejor combinación de rendimiento y funciones aparece a 33
Mhz.
Tras la presentación del procesador Pentium a 64 bits, VESA comenzó a
trabajar en un nuevo estándar (VL-Bus versión 2.0). La nueva especificación
define un interface de 64 bits pero que mantienen toda compatibilidad con la
actual especificación VL-BUS. La nueva especificación 2.0 redefine además la
cantidad máxima de ranuras VL-BUS que se permiten en un sistema sencillo.
Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz, siempre que el
sistema utilice un diseño de baja capacitancia.
En el nombre del bus VL queda de manifiesto que se trata de un bus local. De
forma distinta al bus ISA éste se acopla directamente en la CPU. Esto le
proporciona por un lado una mejora substancial de la frecuencia de reloj (de la
CPU) y hace que dependa de las líneas de control de la CPU y del reloj. A
estas desventajas hay que añadirle que no en todos los puntos están bien
resueltas las especificaciones del comité VESA, hecho que a la larga le llevará
a que el éxito del bus VL se vea empañado por ello. En sistemas 486
económicos se podía encontrar a menudo, pero su mejor momento ya ha
pasado.
Ventajas del VLB
1.- Elevada velocidad de trabajo, puesto que las señales que aparecen en la
expansión son las del CPU, de manera que la tarjeta insertada trabaja a la
velocidad del CPU.
2.- Compatibilidad con las tarjetas ISA XT y AT.
3.- Facilidad del diseño de la circuitería.
4.- Gran aceptación por parte de los fabricantes y el público.
PCI (Peripheral Component Interconnect)
En el año 1992 Intel presentó un nuevo bus local llamado PCI, que aunque no
mejoró el rendimiento del VLB, superó las carencias que presentaba este bus
que estaba orientado al diseño de los procesadores 80486.
La velocidad de este bus era inicialmente de 20 Mhz y funcionaba a 32 bits,
aunque en la actualidad su velocidad de transferencia alcanza los 33 Mhz y su
ancho de banda llega hasta los 64 bits.
Otra característica de este tipo de bus es la posibilidad de que se le conecten
tarjetas que funcionen a distintos voltajes.
Los PCI están destinados a seguir por muchas años mas en el mercado.
Presenta un moderno bus que no sólo está meditado para no tener la relación
del bus ISA en relación a la frecuencia de reloj o su capacidad sino que
también la sincronización con las tarjetas de ampliación en relación a sus
direcciones de puerto, canales DMA e interrupciones se ha automatizado
finalmente de tal manera que el usuario no deberá preocuparse más por ello.
PCI es independiente de la CPU, ya que entre la CPU y el bus PCI se instalará
siempre un controlador de bus PCI, lo que facilita en gran medida el trabajo de
los diseñadores de placas
Por ello también será posible instalarlo en sistemas que no estén basados en el
procesador Intel si no que pueden usar otros, como por ejemplo, un procesador
Alpha de DEC.
Como su ancho de bus es de 32Bits (4 Bytes), podemos transferir hasta 132MB
(4 Bytes x 33MHz = 132). Evidentemente, la tarjeta PCI que coloquemos debe
ser capaz de soportar tal transferencia de datos.
Un dato importante es que los IRQ y DMA son asignados a la ranura de turno
dinámicamente, es decir, por software y sobre la marcha.
Esto ha provocado la aparición del estándar Plug-and-Play, según el cual ya no
hay jumpers ni switches para la configuración, sino que todo se realiza por
software, haciendo más cómoda la vida del usuario.
BUS Mastering del PCI
Cuando tenemos una tarjeta que soporte un elevado flujo de datos,, es posible
que la tarjeta se adueñe literalmente del bus con objeto de transferir los datos a
la memoria o al controlador del disco duro.
Esto hace que la transferencia de datos sea excepcionalmente rápida y fiable,
sobre todo si la transferencia se hace de tarjeta a tarjeta siendo las dos
compatibles Bus Master (por ejemplo, la transferencia de datos de la
capturadora de vídeo a una tarjeta controladora de discos duros SCSI).
Ventajas del PCI Bus
1. Debido al tamaño del bus, las placas son más pequeñas, abaratando los
costos de fabricación.
2. Mecánicamente no tiene los problemas de anclaje del VLB.
3. Gracias al diseño de su arquitectura, pueden ponerse hasta ocho buses
PCI.
4. Transferencias tarjeta/bus de hasta 132MB por segundo.
5. Permite técnicas muy refinadas de configuración y transferencia.
Tabla de Bus
Tipo
Ancho
de Velocidad
de MB/sec
Bus
Bus
ISA
16 bits
8 MHz
16 MBps
EISA
32 bits
8 MHz
32 MBps
VL-bus
32 bits
25 MHz
100 MBps
VL-bus
32 bits
33 MHz
132 MBps
PCI
32 bits
33 MHz
132 MBps
PCI
64 bits
33 MHz
264 MBps
PCI
64 bits
66 MHz
512 MBps
PCI
64 bits
133 MHz
1 GBps
PCI EXPRESS
PCI Express (denominado aún a veces por su nombre clave 3GIO, por "tercera
generación de E/S") es el sucesor de la tecnología PCI, disponible en las
máquinas de sobremesa desde 1992.
PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos
como Módems y tarjetas de red, sino también al bus AGP, lugar de conexión
para la tarjeta gráfica desde 1997. Al contrario que su predecesor paralelo, PCI
Express es un sistema de interconexión serie punto a punto, capaz de ofrecer
transferencias con un altísimo ancho de banda, desde 200MB/seg para la
implementación 1X, hasta 4GB/seg para el PCI Express 16X que se empleará
con las tarjetas gráficas.
La notación 1X y 16X se refiere al ancho del bus o número de líneas
disponibles. La conexión en el PCI Express es, además, bidireccional, lo que
permite un ancho de banda teórico de hasta 8GB/seg para un conector 16X, o
unos asombrosos 16GB/seg para el actual máximo de 32X.
PCI Express también incluye características novedosas, tales como gestión de
energía, conexión y desconexión en caliente de dispositivos (como USB), y la
capacidad de manejar transferencias de datos punto a punto, dirigidas todas
desde un host. Esto último es importante porque permite a PCI Express emular
un entorno de red, enviando datos entre dos dispositivos compatibles sin
necesidad de que éstos pasen primero a través del chip host (un ejemplo sería
la transferencia directa de datos desde una capturadora de vídeo hasta la
tarjeta gráfica, sin que éstos se almacenen temporalmente en la memoria
principal).
PCI Express también optimiza el diseño de placas base, pues su tecnología
serie precisa tan sólo de un único cable para los datos, frente a los 32
necesarios para el PCI clásico, el cual también necesitaba que las longitudes
de estos fuesen extremadamente precisas. La escalabilidad es otra
característica clave, pues se pretende que las versiones posteriores de PCI
Express sustituyan cualquier característica que PCI o, en el segmento de
servidores, PCI-X, puedan ofrecer.
Dado que PCI Express es, a nivel físico, un enlace chip a chip, podría ser
usado, en teoría, para sustituir a la gran cantidad de tecnologías de
interconexión actuales; sin embargo, está siendo orientado únicamente hacia
tareas muy específicas.
En el siguiente gráfico podemos apreciar una comparativa de las capacidades
de los buses a lo largo del tiempo:
Arquitectura
Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5
Gbits/s en cada dirección. Cada ruta emplea dos pares de hilos (transmisión y
recepción), ofreciendo un rendimiento efectivo de 200MBytes/s en cada
dirección una vez factorizamos las sobrecargas del protocolo. No obstante, sus
creadores afirman que tendrá una escalabilidad límite que permitirá hasta, al
menos, 10Gbits/s en cada ruta y por cada dirección.
La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI
emplea una arquitectura en paralelo, su sucesor utiliza una arquitectura serie
punto a punto o conmutada. Una ventaja del bus Serie frente al Paralelo es el
alto ancho de banda que se puede conseguir con un número mucho menor de
señales. Dichas conexiones no llegan a situaciones llamadas "delay skew",
donde los bits en paralelo llegan en distintos instantes de tiempo y han de ser
sincronizados. Además, son más baratas de implementar. Ciertamente, los
interfaces paralelos pueden ser extremadamente veloces y muy efectivos para
algunos interfaces a nivel de chips, o en la tecnología SCSI por ejemplo.
Características físicas del enlace Serie y Configuraciones
Una simple conexión serie de PCI-Express consta de una conexión dual
utilizando dos pares de señales diferencialmente dirigidas y de baja tensión -
un par de recepción y otro de envío (cuatro cables). Una señal diferencial se
deriva usando la diferencia de potencial entre dos conductores.
La conexión dual permite que los datos sean transferidos en ambas direcciones
simultáneamente, similar a las conexiones full duplex (como en los teléfonos),
solo que en este caso, cada par de hilos posee su propia toma de tierra. Con el
bus PCI, un dispositivo debe requerir primero acceso al bus PCI compartido
desde un árbitro central, y entonces tomar control del bus para transferir datos
al dispositivo de destino, con la transmisión de datos ocurriendo en una
dirección entre dos dispositivos en cada instante de tiempo.
Un flujo de datos/reloj serie puede ser transferido sobre distancias mucho
mayores que usando buses paralelo con los relojes separados (los buses
paralelo con los relojes síncronos pueden sufrir problemas de recuperación y
de ruidos en la señal). Además, los enlaces en serie son más baratos de
implementar, lo cual es un buen presagio para conectar dispositivos de
Entrada/Salida internamente, y también para conexiones largas externas. Sin
embargo, extraer y crear los relojes de manera que vayan como hemos
expuesto conlleva una sobrecarga adicional de procesamiento, por tanto, las
interfaces paralelas tienden más a ser usadas para unir procesadores de alta
velocidad y componentes de chipset en un sistema multiprocesador actual, ya
que poseen una latencia menor.
Velocidad
de
transferencia
de
una
conexión
PCI
Express
x32
En una dirección se puede transmitir:
2'5 Gbit/s x 32 canales = 80 Gbit/s = 10 GByte/s
Si contamos la transferencia simultánea en ambas direcciones:
160 Gbit/s = 20 GByte/s
Transmisión isócrona
Es posible reservar y garantizar un ancho de banda bajo demanda
consiguiendo una transmisión en tiempo real. A esto se le conoce como
transferencia isócrona, pues se puede garantizar el tiempo que durará una
transmisión de datos (i.e. tiempo real).
Distancia
La inclusión de la señal de reloj permite mayores distancias respecto a los
buses paralelo cuya señal discurre por un línea separada. En el diseño de este
bus se ha marcado como objetivo permitir hasta 50 cm de distancia entre
dispositivos con tecnología de placa de circuito impreso de 4 capas y
conectores estándar. Se podría aumentar la distancia usando componentes de
mayor calidad.
3. FIREWIRE
Historia
Los sistemas firewall nacieron a finales de los años 80, fruto de la necesidad de
crear restricción de acceso entre las redes existentes. En esta época la
expansión de las redes académicas y militares, que culminó con la formación
de la ARPANET y, posteriormente, internet y la popularización de los primeros
ordenadores se hizo un trato lleno para la incipiente comunidad hacker. Casos
de invasiones de redes, de accesos indebidos a sistemas y de fraudes en
sistemas de telefonía comenzaron a surgir, y fueron retratados en la película
Juegos de Guerra ("War Games"), de 1983. En 1988, administradores de red
identificaron lo que se hizo la primera grande infestada de virus de ordenador y
que quedó conocido como Internet Worm. En menos de 24 horas, el worm
escrito por Robert T. Morris Jr disseminou-si por todos los sistemas de la
entonces existente Internet (formado exclusivamente por redes de enseñanza y
gubernamentales), provocando un verdadero "apagó" en la red.
Primera Generación (Filtros de Paquetes)
La tecnología fue diseminada en 1988 a través de investigación sostenida por
la DEC;
Bill Cheswick y Steve Bellovin de la AT&T desarrollan el primer modelo para
prueba de concepto;
El modelo se trataba de un filtro de paquetes responsable por la evaluación de
paquetes del conjunto de protocolos TCP/IP;
A pesar del principal protocolo de transporte TCP orientarse a un estado de
conexiones, el filtro de paquetes no tenía este objetivo inicialmente (una posible
vulnerabilidad);
Hasta hoy, este tipo de tecnología es adoptada en equipamientos de red para
permitir configuraciones de acceso simple (las llamadas "listas de acceso" o
"Access lists"). El ipchains es ejemplo reciente de un firewall que utiliza la
tecnología de esta generación. Hoy el "ipchains" fue sustituido por el iptables
que es nativo del Linux y con mayores recursos.

Reglas Típicas en la Primera Generación

Restringir tráfico basado en la dirección IP de origen o destino;

Restringir tráfico a través de la puerta (TCP o UDP) del servicio.

Segunda Generación (Filtros de Estado de Sesión)
La tecnología fue diseminada a partir de estudio desarrollado en el comienzo
de los años 90 por el Bell Labs;
Por el hecho del principal protocolo de transporte TCP orientarse por una tabla
de estado en las conexiones, los filtros de paquetes no eran suficientemente
efectivos si no observaran estas características;
Fueron llamados también de firewall de circuito.
Reglas Típicas en la Segunda Generación

Todas las reglas de la 1.ª Generación;

Restringir el tráfico para inicio de conexiones (NEW);

Restringir el tráfico de paquetes que no hayan sido iniciados a partir de
la red protegida (ESTABLISHED);
Restringir el tráfico de paquetes que no hayan número de secuencia correctos.
Firewall StateFull:
Almacena el estado de las conexiones y filtra con base en ese estado. Tres
estados para una conexión: - NEW: Nuevas conexiones;- - ESTABLISHED:
Conexiones ya establecidas; - RELATED: Conexiones relacionadas a otras
existentes.
Tercera Generación (Gateway de Aplicación - OSI)
Basado en los trabajos de Gen Spafford (co-autor del libro Practical Unix and
Internet Security), Marcos Ranum (fundador de la empresa TIS), y Bill
Cheswick;
También son conocidos como "Firewall de Aplicación" o "Firewall Proxy";
Fue en esta generación que se lanzó el primer producto comercial en 13 de
Junio de 1991—el SEAL de la DEC;
Diversos productos comerciales surgieron y se popularizaron en la década de
90, como los firewalls Raptor, Gauntlet (que tenía su versión gratuita bautizada
de TIS) y Sidewinder, entre otros;
No confundir con el concepto actual de [[Firewall de Aplicación]]: firewalls de
capa de Aplicación eran conocidos de esta forma por implementar el concepto
de Proxy y de control de acceso en un único dispositivo (el Proxy Firewall), o
sea, un sistema capaz de recibir una conexión, decodificar protocolos en la
capa de aplicación e interceptar la comunicación entre cliente/servidor para
aplicar reglas de acceso;
Reglas Típicas en la Tercera Generación

Todas las reglas de las generaciones anteriores;

Restringir acceso FTP a usuarios anónimos;

Restringir acceso HTTP para portales de entretenimiento;

Restringir acceso a protocolos desconocidos en la puerta 443 (HTTPS).
Cuarta Generación
El firewall se consolida como una solución comercial para redes de
comunicación TCP/IP;
Diversas empresas como Fortinet, SonicWALL, Juniper, Checkpoint y Cisco
desarrollan soluciones que amplían características anteriores:
Stateful Inspection para inspeccionar paquetes y tráfico de datos basado en las
características de cada aplicación, en las informaciones asociadas a todas las
capas del modelo OSI (y no sólo en la capa de red o de aplicación) y en el
estado de las conexiones y sesiones activas;
Prevención de Intruso para fines de identificar el abuso del protocolo TCP/IP
mismo en conexiones aparentemente legítimas;
Deep Packet Inspection asociando las funcionalidades del Stateful Inspection
con las técnicas de los dispositivos IPS;
A partir del inicio de los años 2000, la tecnología de Firewall fue perfeccionada
para ser aplicada también en estaciones de trabajo y ordenadores domésticos
(el llamado "Firewall Personal"), además del surgimiento de soluciones de
firewall dedicado a servidores y aplicaciones específicas (como servidores Web
y banco de datos).
Clasificación
Los sistemas firewall pueden ser clasificados de la siguiente forma:
Filtros de Paquetes
Estos sistemas analizan individualmente los paquetes a la medida en que estos
son transmitidos, verificando las informaciones de las capa de enlace (capa 2
del modelo ISO/OSI) y de red (capa 3 del modelo ISO/OSI).
Las reglas pueden ser formadas indicando las direcciones de red (de origen y/o
destino) y las puertas TCP/IP envueltas en la conexión. La principal desventaja
de ese tipo de tecnología para la seguridad reside en la falta de control de
estado del paquete, lo que permite que agentes maliciosos puedan producir
paquetes simulados (con dirección IP falsificado, técnica conocida como IP
Spoofing), fuera de contexto o aún para ser injertados en una sesión válida.
Esta
tecnología
1a.Generación
fue ampliamente
(incluyendo
utilizada
rotadores),
no
en
los
equipamientos de
realizando
ningún
tipo
de
decodificado del protocolo o análisis en la capa de aplicación.
Proxy Firewall o Gateways de Aplicación
Los conceptos de gateways de aplicación (application-level gateways) y
"bastión hosts" fueron introducidos por Marcus Ranum en 1995. Trabajando
como una especie de eclusa, el firewall de proxy trabaja recibiendo el flujo de
conexión, tratando los requisitos como se fueran una aplicación y originando un
nuevo pedido bajo la responsabilidad del mismo firewall (non-transparent
proxy) para el servidor de destino. La respuesta para el pedido es recibida por
el firewall y analizada antes de ser entregue para el solicitante original.
Los gateways de aplicaciones conectan las redes corporativas a la Internet a
través de estaciones seguras (llamadas de bastión hosts) rodando aplicativos
especializados para tratar y filtrar los datos (los proxy firewalls). Estos
gateways, al reciban las requisitos de acceso de los usuarios y realicen una
segunda conexión externa para recibir estos datos, acaban por esconder la
identidad de los usuarios en estas requisitos externas, ofreciendo una
protección adicional contra la acción de los crackers.
Desventajas
Para cada nuevo servicio que aparece en internet, el fabricante debe
desarrollar su correspondiente agente de Proxy. Esto puede tardar meses,
haciendo el cliente vulnerable mientras el fabricante no libera el agente
específico. La instalación, mantenimiento y actualización de los agentes del
Proxy requieren servicios especializados y pueden ser bastante complejos y
caros;
Los proxies introducen pérdida de desempeño en la red, ya que los mensajes
deben ser procesados por el agente del Proxy. Por ejemplo, el servicio FTP
manda un pedido al agente del Proxy para FTP, que por su parte interpreta la
solicitud y habla con el servidor FTP externo para completar el pedido;
La tecnología actual permite que el coste de implementación sea bastante
reducido al utilizar CPUs de alto desempeño y bajo coste, así como sistemas
operativos abiertos (Linux), sin embargo, se exige mantenimiento específico
para asegurar que sea mantenido nivel de seguridad adecuado (p.ej.:
aplicación de correcciones y configuración adecuada de los servidores).
Firewall de Estado de Sesión
Los firewalls de estado fueron introducidos originalmente en 1991 por la
empresa DEC con el producto SEAL, sin embargo, no fue hasta 1994, con los
israelíes de la Checkpoint, que la tecnología ganaría madurez suficiente. El
producto Firewall-1 utilizaba la tecnología patentada llamada de Stateful
Inspection, que tenía capacidad para identificar el protocolo de los paquetes
transitados y "prever" las respuestas legítimas. En la verdad, el firewall
guardaba el estado de todas las últimas transacciones efectuadas e
inspeccionaba el tráfico para evitar paquetes ilegítimos.
Deep Packet Inspection, también conocido como tecnología SMLI (Stateful
Multi-Layer Inspection), o sea Inspección de Total de todas las capas del
modelo ISO/OSI (7 capas). Esta tecnología permite que el firewall decodifique
el paquete, interpretando el tráfico bajo la perspectiva del cliente/servidor, o
sea, del protocolo propiamente dicho e incluye técnicas específicas de
identificación de ataques.
Con la tecnología SMLI/Deep Packet Inspection, el firewall utiliza mecanismos
optimizados de verificación de tráfico para analizarlos bajo la perspectiva de la
tabla de estado de conexiones legítimas. Simultáneamente, los paquetes
también van siendo comparados a padres legítimos de tráfico para identificar
posibles ataques o anomalías. La combinación permite que nuevos padres de
tráficos sean entendidos como servicios y puedan ser adicionados a las reglas
válidas en pocos minutos.
Supuestamente el mantenimiento e instalación son más eficientes (en términos
de coste y tiempo de ejecución), pues la solución se concentra en el modelo
conceptual del TCP/IP. Sin embargo, con el avanzar de la tecnología y de los
padres de tráfico de la Internet, proyectos complejos de firewall para grandes
redes de servicio pueden ser tan costosos y tardados cuánto una
implementación tradicional.
Firewall de Aplicación
Con la explosión del comercio electrónico, se percibió que aún la última
tecnología en filtragem de paquetes para TCP/IP podría no ser tan efectiva
cuánto se esperaba. Con todas las inversiones expandidas en tecnología de
stateful firewalls, los ataques continuaban a prosperar de forma avasalladora.
Solamente la filtragem de los paquetes de red no era más suficiente. Los
ataques pasaron a concentrarse en las características (y vulnerabilidades)
específicas de cada aplicación. Se percibió que había la necesidad de
desarrollar un nuevo método que pudiera analizar las peculiaridades de cada
protocolo y tomar decisiones que pudieran evitar ataques maliciosos contra una
red.
A pesar del proyecto original del TIS Firewall concebido por Marcos Ranum ya
orientarse la verificación de los métodos de protocolos de comunicación, el
concepto actual de Firewall de Aplicación nació principalmente por el hecho de
exigirse la concentración de esfuerzos de análisis en protocolos específicos,
tales como servidores Web y sus conexiones de hipertexto HTTP. La primera
implementación comercial nació en 2000 con la empresa israelense Sanctum,
sin embargo, el concepto aún no había sido ampliamente difundido para
justificar una adopción práctica.
Si comparado con el modelo tradicional de Firewall -- orientado las redes de
datos, el Firewall de Aplicación es frecuentemente instalado junto a la
plataforma de la aplicación, tuteando como una especie de procurador para el
acceso al servidor (Proxy).
Algunos proyectos de código-abierto, como por ejemplo el ModSecurity[2] para
servidores Apache, tienen por objetivo facilita el concepto para las aplicaciones
Web.
Ventajas
Puede sufrir la deficiencia de los modelos tradicionales y mapear todas las
transacciones específicas que acontecen en la capa de la aplicación Web
propietaria;
Por ser un terminador del tráfico SSL, puede evaluar hipertextos criptográficas
(HTTPS) que originalmente pasarían desapercibidos o no analizados por
firewalls tradicionales de red;
Desventajas
Por el hecho de embutir una gran capacidad de evaluación técnica de los
métodos disponibilidades por una aplicación (Web), este tipo de firewall exige
un grande poder computacional—generalmente traducido para un gran coste
de inversión;
Al interceptar aplicaciones Web y sus interacciones con el cliente (el navegador
de Web), puede acabar por provocar alguna incompatibilidad en el padre de
transacciones (hecho que exigirá, sin sombra de dudas, un profundo trabajo de
evaluación por parte de los implementadores);
Algunos especialistas o ingenieros de tecnología refutam el firewall de
aplicación basándose en los siguientes argumentadores:
La tecnología introduce más un punto de fallo sin adicionar significativos
avances en la tecnología de protección;
El firewall y el IDS/IPS ya serían suficientes para cubrir gran parte de los
riesgos asociados la aplicación Web;
La tecnología aún necesita amadurecer el suficiente para ser considerada un
componente indispensable de una arquitectura de seguridad;
Ciertamente esos argumentos serán bastante discutidos al largo de los
próximos años como un imperativo para determinar la existencia de esta
tecnología en el futuro.
4. HDMI
High-Definition Multimedia Interface (HDMI) o “Interfaz Multimedia de Alta
Definición”
Es una norma de audio y vídeo digital cifrado sin compresión apoyada por la
industria para que sea el sustituto del euroconector. HDMI provee una interfaz
entre cualquier fuente de audio y vídeo digital como podría ser un sintonizador
TDT, un reproductor de Blu-ray, una computadora (Microsoft Windows, Linux,
Apple Mac OS X, etc.) o un receptor A/V, y monitor de audio/vídeo digital
compatible, como un televisor digital (DTV).
HDMI permite el uso de vídeo computarizado, mejorado o de alta definición, así
como audio digital multicanal en un único cable. Es independiente de los varios
estándares DTV como ATSC, DVB (-T,-S,-C), que no son más que
encapsulaciones de datos MPEG. Tras ser enviados a un decodificador, se
obtienen los datos de vídeo sin comprimir, pudiendo ser de alta definición.
Estos datos se codifican en TMDS para ser transmitidos digitalmente por medio
de HDMI. HDMI incluye también 8 canales de audio digital sin compresión. A
partir de la versión 1.2, HDMI puede utilizar hasta 8 canales de audio de un bit.
El audio de 309 bit es el usado en los Super audio CD.
Entre los creadores de HDMI se incluyen los fabricantes líderes de electrónica
de consumo Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony,
Thomson (RCA), Toshiba y Silicon Image. Digital Content Protection, LLC (una
subsidiaria de Intel) provee la High-bandwidth Digital Content Protection
(HDCP) -Protección anti copia de contenido digital de gran ancho de bandapara HDMI. HDMI tiene también el apoyo de las grandes productoras de cine:
Fox, Universal, Warner Bros. y Disney; operadoras de sistemas: DirecTV y
EchoStar (Dish Network), así como de CableLabs.
Puede ser aplicada en cualquier fuente audiovisual con origen digital, es decir,
desde lectores de DVD-Vídeo a receptores de televisión digital vía satélite o
terrestre, pasando por su inclusión en receptores de A/V o, sobre todo,
cualquier tipo de visualizador.
Como estándar soporta definiciones de vídeo en calidad convencional,
mejorada o alta definición, junto con audio digital multicanal a través de un
único cable. Es tal su visión de futuro que si le alimentamos hoy con nuestras
mejores imágenes de un DVD-Video y audio (una banda sonora en DTS-ES
Discrete), aún quedaría ancho de banda suficiente para cualquier aplicación
que aparezca en el futuro.
Longitud del cable
La especificación HDMI no define una longitud máxima del cable. Al igual que
con todos los cables, la atenuación de la señal se hace demasiado alta a partir
de una determinada longitud. En lugar de ello, HDMI especifica un mínimo nivel
de potencia. Diferentes materiales y calidades de construcción permitirán
cables de diferentes longitudes. Además, el mayor rendimiento de los requisitos
debe cumplirse para soportar los formatos de vídeo de mayor resolución y/o el
marco de las tasas de los formatos del estándar HDTV.
La atenuación de la señal y la interferencia causada por la interferencia de los
cables pueden ser compensadas mediante la utilización de un Ecualizador
Adaptativo.
Ventajas

La posibilidad de poder transportar de un dispositivo a otro señales de
audio y vídeo sin convertir de digital a analógico; pero además sin la
necesidad de comprimir (alcanza velocidades de hasta 5 Gbps).

Sólo será necesario un único cable entre dispositivos para la transmisión
de una cantidad ingente de información audiovisual.

Una de las ventajas de las transmisiones digitales es que éstas pueden
permitirse el “lujo” de acarrear errores que serán solventados de manera
eficiente en pasos próximos.
Conclusión
La manera más sencilla de conectar dos dispositivos audiovisuales ya es
posible mediante el HDMI. Esta interfaz permite el envío de señales de vídeo
hasta 1.080p y audio digital multicanal sin comprimir a través de un único cable.
Sus posibilidades son enormes, y facilitarán la instalación de cualquier
instalación,
ahorrando
en
problemas
e
incluso
costes.
De momento sus únicos inconvenientes son que difícilmente sobrepasan los 10
metros de longitud (sin pérdidas, aunque se comercializan cables más largos) y
que el parque de dispositivos compatibles aún tiene que crecer y bastante.
Con el HDMI ganamos en todo: mayor fiabilidad, mayor transferencia digital,
más facilidad de instalación, etc. Por fin será posible un equipo de Cine en
Casa totalmente digital.
5. IEEE
IEEE (leído i-e-cubo en España e i-triple-e en Latinoamérica) corresponde a las
siglas de (Institute of Electrical and Electronics Engineers) en español Instituto
de Ingenieros Electricistas y Electrónicos, una asociación técnico-profesional
mundial dedicada a la estandarización, entre otras cosas. Es la mayor
asociación internacional sin ánimo de lucro formada por profesionales de las
nuevas tecnologías, como ingenieros electricistas, ingenieros en electrónica,
científicos de la computación, ingenieros en informática, ingenieros en
biomédica, ingenieros en telecomunicación e ingenieros en meca trónica.
Su creación se remonta al año 1884, contando entre sus fundadores a
personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y
Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse
asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE
(Institute of Radio Engineers).
A través de sus miembros, más de 380.000 voluntarios en 175 países, el IEEE
es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de
la eléctrica original: desde ingeniería computacional, tecnologías biomédica y
aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones
y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la
integración, compartir y aplicar los avances en las tecnologías de la
información, electrónica y ciencias en general para beneficio de la humanidad y
de los mismos profesionales. Algunos de sus estándares son:

VHDL
VHDL es el acrónimo que representa la combinación de VHSIC y HDL,
donde VHSIC es el acrónimo de Very High Speed Integrated Circuit y HDL
es a su vez el acrónimo de Hardware Description Language.
Dentro del VHDL hay varias formas con las que podemos diseñar el mismo
circuito y es tarea del diseñador elegir la más apropiada.

Funcional: Describimos la forma en que se comporta el circuito. Esta es
la forma que más se parece a los lenguajes de software ya que la
descripción es secuencial. Estas sentencias secuenciales se encuentran
dentro de los llamados procesos en VHDL. Los procesos son ejecutados
en paralelo entre sí, y en paralelo con asignaciones concurrentes de
señales y con las instancias a otros componentes.

Flujo de datos: describe asignaciones concurrentes (en paralelo) de
señales.

Estructural: se describe el circuito con instancias de componentes. Estas
instancias forman un diseño de jerarquía superior, al conectar los
puertos de estas instancias con las señales internas del circuito, o con
puertos del circuito de jerarquía superior.

Mixta: combinación de todas o algunas de las anteriores.
En VHDL también existen formas metódicas para el diseño de máquinas de
estados, filtros digitales, bancos de pruebas etc.
VHDL fue diseñado en base a los principios de la programación estructurada.
La idea es definir la interfaz de un modulo de hardware mientras deja invisible
sus detalles internos. La entidad (ENTITY) en VHDL es simplemente la
declaración de las entradas y salidas de un modulo mientras que la arquitectura
(ARCHITECTURE) es la descripción detallada de la estructura interna del
modulo o de su comportamiento. En la siguiente figura se ilustra el concepto
anterior. Muchos diseñadores conciben la Entity como una funda de la
arquitectura dejando invisible los detalles de lo que hay dentro (architecture).
Esto forma la base de un sistema de diseño jerárquico, la arquitectura de la
entidad de más nivel (top level) puede usar otras entidades dejando invisible
los detalles de la arquitectura de la identidad de menos nivel. En la figura las
entidades B, E y F no utilizan a otras entidades. Mientras que la entidad A
utiliza a todas las demás. A la pareja entidad - arquitectura se le llama modelo.
En un fichero texto VHDL la entidad y la arquitectura se escriben separadas,
por ejemplo a continuación se muestra un programa muy simple en VHDL de
una compuerta de 2 entradas. Como en otros programas VHDL ignora los
espacios y saltos de líneas. Los comentarios se escriben con 2 guiones (--) y
termina al final de la línea. En la figura siguiente se muestra la estructura de un
modelo en VHDL. SINTASIS PARA LA DECLARACION DE LA ENTIDAD
VHDL define muchos caracteres especiales llamados “palabras reservadas”.
Aunque las palabras reservadas no son sensibles a las mayúsculas o
minúsculas, el ejemplo que sigue las utilizaremos en mayúsculas y negritas
para identificarlas.
ENTITY Nombre_entidad IS
PORT (Nombre de señal: modo tipo de señal;
...
Nombre de señal: modo
END nombre_entidad;
tipo de señal);
Además de darle nombre a la entidad el propósito de la declaración es definir
sus señales (o ports) de interfaz externa en su declaración de ports. Además
de las palabras reservadas o claves ENTITY, IS, PORT and END, una ENTITY
tiene los siguientes elementos.

Nombre_entidad; es un identificador seleccionado por el usuario para
seleccionar la entidad.

Nombre de señal; es una lista de uno o más identificadores separados por
una coma y seleccionados por el usuario para identificar las señales
externas de la interfaz.

MODO es una de las 4 siguientes palabras reservadas para indicar la
dirección de la señal.
MODO Descripción IN En este modo las señales solo entran en la entidad OUT
Las señales salen de la entidad BUFFER Este modo se utiliza para las señales
que además de salir de la entidad pueden usarse como entradas realimentadas
INOUT Este modo se utiliza para señales bidireccionales. Se emplea en salida
con tres estados. Se puede asignar como sustituto de los tres modos
anteriores, pero no se aconseja pues dificulta la comprensión del programa.
Modo
Descripción
IN
En este modo las señales solo entran en la entidad
OUT
Las señales salen de la entidad
BUFFER
Este modo se utiliza para las señales que además de salir de la entidad
pueden usarse como entradas realimentadas
Este modo se utiliza para señales bidireccionales. Se emplea en salida con
INOUT
tres estados. Se puede asignar como sustituto de los tres modos anteriores,
pero no se aconseja pues dificulta la comprensión del programa.
Cuando se omite el modo de una señal en la declaración de la entidad se
sobreentiende que es de entrada.

Tipo de señal; en VHDL, hay varios tipos de señales predefinidas por el
lenguaje, tales como:
TIPO
Características
BIT
En este tipo las señales solo toman los valores de "1" y "0"
Booleana
En este tipo las señales solo toman los valores de True y
False
En este tipo las señales toman 9 valores, entre ellos
Std_logic
tenemos: "1", "0", "Z" (para el 3er estado), "-" (para los
opcionales).
Integer
Bit_Vector
Std_Logic_Vector
Character
En este tipo las señales toman valores enteros. Los 1 y los
0 se escriben sin “
En este tipo los valores de las señales son una cadena de
unos y ceros. Ejemplo: “1000”
En este tipo los valores de las señales son una cadena de
los nueve valores permisibles para el tipo std_logic.
Contiene todos los caracteres ISO de 8 bits, donde los
primeros 128 son los caracteres ASCII.

POSIX
POSIX es el acrónimo de Portable Operating System Interface; la X
viene de UNIX como seña de identidad de la API.
El término fue sugerido por Richard Stallman en respuesta a la demanda
de la IEEE, que buscaba un nombre fácil de recordar. Una traducción
aproximada del acrónimo podría ser "Interfaz para Sistemas Operativos
migrables basados en UNIX".

IEEE 1394
El IEEE 1394 (conocido como FireWire por Apple Inc. y como i.Link por
Sony) es un estándar multiplataforma para entrada/salida de datos en
serie a gran velocidad. Suele utilizarse para la interconexión de
dispositivos digitales como cámaras digitales y videocámaras a
computadoras.
o
Soporta la conexión de hasta 63 dispositivos con cables de una
longitud máxima de 425 cm con topología en árbol.
o
Soporte Plug-and-play.
o
Soporta comunicación peer-to-peer que permite el enlace entre
dispositivos sin necesidad de usar la memoria del sistema o la
CPU
o
Soporta conexión en caliente.
o
Todos los dispositivos Firewire son identificados por un
identificador IEEE EUI-64 exclusivo (una extensión de las
direcciones MAC Ethernet de 48-bit)

IEEE 488
El Hewlett-Packard Instrument Bus (HP-IB) es un estándar bus de datos
digital de corto rango desarrollado por Hewlett-Packard en los años 1970
para conectar dispositivos de test y medida (por ejemplo Multimetro,
osciloscopios, etc.) con dispositivos que los controlen como un
ordenador. Otros fabricantes copiaron el HP-IB, llamando a su
implementación General-Purpose Instrumentation Bus (GP-IB). En 1978
el bus fue estandarizado por el Institute of Electrical and Electronics
Engineers (IEEE) como el IEEE-488 (488.1).
APLICACIONES
Al principio, los diseñadores de HP no planearon el IEEE-488 como un
estándar de interfaz de periféricos para ordenadores de propósito general. En
1977
la
familia
Commodore
educativos/domésticos/personales
PET/CBM
conectaban
sus
de
unidades
ordenadores
de
disco,
impresoras, módems, etc., mediante el bus IEEE-488. Todos los equipos de 8
bits posteriores de Commodore del VIC-20 al Commodore 128, utilizan un bus
serial IEEE-488 propietario (también llamado bus serial Commodore) para sus
periféricos, con conectores DIN-6 en lugar de los resistentes conectores HP-IB
o un conector de borde de tarjeta en la placa madre (para los ordenadores
PET). En él los dispositivos conectados al ordenador hablaban (talking) y
escuchaba (listening) las líneas para realizar sus tareas. Los ordenadores de
HP también han usado este bus con un protocolo llamado CS-80.
Hewlett-Packard y Tektronix también usaron el IEEE-488 como interfaz de
periféricos para conectar unidades de disco, unidades de cinta, impresoras,
plotters etc. a sus estaciones de trabajo y a los miniordenadores HP 3000.
Mientras que la velocidad del bus se incrementaba a 10 MB para esos usos, la
falta de un protocolo de comandos estándar limitó los desarrollos de terceros y
la interoperabilidad, y posteriormente, estándares abiertos más rápidos como
SCSI acabaron superando a IEEE-488 para la conexión de periféricos.
Adicionalmente, algunas de las calculadoras/ordenadores avanzados de HP en
la década de 1980, como las series HP-41 y HP-71, pueden trabajar con varios
instrumentos mediante una interfaz HP-IB opcional. La interfaz puede
conectarse a la calculadora mediante un módulo opcional HP-IL.

IEEE 802
IEEE 802 es un estudio de estándares elaborado por el Instituto de
Ingenieros Eléctricos y Electrónicos (IEEE) que actúa sobre Redes de
Ordenadores. Concretamente y según su propia definición sobre redes
de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN
en inglés). También se usa el nombre IEEE 802 para referirse a los
estándares que proponen, algunos de los cuales son muy conocidos:
Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11). Está, incluso, intentando
estandarizar Bluetooth en el 802.15 (IEEE 802.15).
Se centra en definir los niveles más bajos (según el modelo de
referencia OSI o sobre cualquier otro modelo). Concretamente subdivide
el segundo nivel, el de enlace, en dos subniveles: El de Enlace Lógico
(LLC), recogido en 802.2, y el de Control de Acceso al Medio (MAC),
subcapa de la capa de Enlace Lógico. El resto de los estándares actúan
tanto en el Nivel Físico, como en el subnivel de Control de Acceso al
Medio.

IEEE 802.11
El estándar IEEE 802.11 define el uso de los dos niveles inferiores de la
arquitectura OSI (capas física y de enlace de datos), especificando sus
normas de funcionamiento en una WLAN. Los protocolos de la rama
802.x definen la tecnología de redes de área local y redes de área
metropolitana.
Wifi N ó 802.11n: En la actualidad la mayoría de productos son de la
especificación b o g , sin embargo ya se ha ratificado el estándar
802.11n que sube el límite teórico hasta los 600 Mbps. Actualmente ya
existen varios productos que cumplen el estándar N con un máximo de
300 Mbps (80-100 estables).
El estándar 802.11n hace uso simultáneo de ambas bandas, 2,4 Ghz y
5,4 Ghz. Las redes que trabajan bajo los estándares 802.11b y 802.11g,
tras la reciente ratificación del estándar, se empiezan a fabricar de forma
masiva y es objeto de promociones de los operadores ADSL, de forma
que la masificación de la citada tecnología parece estar en camino.
Todas las versiones de 802.11xx, aportan la ventaja de ser compatibles
entre sí, de forma que el usuario no necesitará nada más que su
adaptador wifi integrado, para poder conectarse a la red.
Sin duda esta es la principal ventaja que diferencia wifi de otras
tecnologías propietarias, como LTE, UMTS y Wimax, las tres tecnologías
mencionadas, únicamente están accesibles a los usuarios mediante la
suscripción a los servicios de un operador que está autorizado para uso
de espectro radioeléctrico, mediante concesión de ámbito nacional.
La mayor parte de los fabricantes ya incorpora a sus líneas de
producción equipos wifi 802.11n, por este motivo la oferta ADSL, ya
suele venir acompañada de wifi 802.11n, como novedad en el mercado
de usuario doméstico.

IEEE 754
El estándar de la IEEE para aritmética en coma flotante (IEEE 754) es el
estándar más extendido para las computaciones en coma flotante, y es
seguido por muchas de las mejoras de CPU y FPU. El estándar define
formatos para la representación de números en coma flotante
(incluyendo el cero) y valores desnormalizados, así como valores
especiales como infinito y NaN, con un conjunto de operaciones en
coma flotante que trabaja sobre estos valores. También especifica
cuatro modos de redondeo y cinco excepciones (incluyendo cuándo
ocurren dichas excepciones y qué sucede en esos momentos).
IEEE 754 especifica cuatro formatos para la representación de valores
en coma flotante: precisión simple (32 bits), precisión doble (64 bits),
precisión simple extendida (≥ 43 bits, no usada normalmente) y precisión
doble extendida (≥ 79 bits, usualmente implementada con 80 bits). Sólo
los valores de 32 bits son requeridos por el estándar, los otros son
opcionales. Muchos lenguajes especifican qué formatos y aritmética de
la IEEE implementan, a pesar de que a veces son opcionales. Por
ejemplo, el lenguaje de programación C, ahora permite pero no requiere
la aritmética de la IEEE (el tipo de C float es típicamente usado para la
precisión simple de la IEEE y el tipo double usa la precisión doble del la
IEEE).
El título completo del estándar es IEEE Standard for Binary FloatingPoint Arithmetic (ANSI/IEEE Std 754-1985), y también es conocido por
IEC 60559:1989, Binary floating-point arithmetic for microprocessor
systems (originalmente el número de referencia era IEC 559:1989).

IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares
basados en consenso, el IEEE produce más del 30% de la literatura publicada
en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y
tecnología de control, organiza más de 350 grandes conferencias al año en
todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más
bajo desarrollo.
6. IRDA – INFRARROJO
Tecnología IrDA (Infrared)
-IrDA (Infrared Data Association), se creo en 1993 entre HP, IBM, Sharp y
otros.
Esta tecnología está basada en rayos luminosos que se mueven en el espectro
infrarrojo. Los estándares IrDA soportan una amplia gama de dispositivos
eléctricos, informáticos y de comunicaciones, permite la comunicación
bidireccional entre dos extremos a velocidades que oscilan entre los 9.600 bps
y los 4 Mbps.
Esta tecnología se encuentra en muchos ordenadores portátiles, y en un
creciente número de teléfonos celulares, sobre todo en los de fabricantes
líderes como Nokia y Ericsson.
IrDA ha sido desplazado por las redes Wi-fi y las redes bluetooth.
Primeramente veamos unas diferencias entre el puerto Bluetooth y el puerto
infrarrojo:

La seguridad de IrDa se basa en dirección habilidad del rayo de luz
infrarrojo, mientras que Bluetooth fija un sistema de seguridad en la capa
de banda base.

IrDA requiere línea de vista entre dispositivos, mientras que Bluetooth
permite operación a través de objetos no metálicos.

Bluetooth se presta mejor para servicios de acceso a red y otros casos
en que el usuario puede estarse moviendo.

Bluetooth es mejor para la difusión de información.
Ambos protocolos especifican una comunicación inalámbrica a corta distancia
El infrarrojo requiere de una comunicación lineal entre transmisor y receptor, lo
que hace impredecible la línea de vista para su efectiva transmisión. Las
frecuencias de la banda del infrarrojo no permiten la penetración a través de
paredes, dándole una importante ventaja a la radiofrecuencia que opera
Bluetooth.
La comunicación con infrarrojo siempre será uno a uno, dejando de lado las
configuraciones punto multipunto. Bluetooth permite la generación de redes.
Las especificaciones IrDA incluyen IrPHY, IrLAP, IrLMP, IrCOMM, TP
minúsculo, IrLAN. IrDA ahora ha producido otro estándar, IrFM, para
Mensajería financiera infrarroja (es decir, para hacer pagos) también conocido
como “punto y paga”.
IrPHY
El obligatorio IrPHY (Especificación infrarroja de la capa física) es la capa más
baja de las especificaciones de IrDA. Las especificaciones más importantes
son:

Gama: estándar: 1 m; de baja potencia a de baja potencia: 0.2 m;
estándar a de baja potencia: 0.3 m

Ángulo: cono mínimo +-15°

Velocidad: 2.4 kbit/s a 16 Mbit/s

Modulación: banda base, ningún portador

Ventana infrarroja
Los transmisores-receptores de IrDA se comunican con los pulsos infrarrojos
(muestras) en un cono que amplíe mínimo 15 grados de medio ángulo
excéntrico.
Las comunicaciones de datos de IrDA funcionan adentro del modo half-duplex
porque mientras que transmite, el receptor de un dispositivo es cegado por la
luz de su propio transmisor, y así, la comunicación full-duplex no es factible.
IrLAP
El obligatorio IrLAP (Protocolo infrarrojo del acceso del acoplamiento) es la
segunda capa de las especificaciones de IrDA. Miente encima de la capa de
IrPHY y debajo de la capa de IrLMP. Representa Capa de trasmisión de datos
de Modelo de OSI. Las especificaciones más importantes son:

Control de acceso

Descubrimiento de los socios potenciales de la comunicación

El establecer de una conexión bidireccional confiable

Negociación de los papeles primarios/secundarios del dispositivo
En la capa de IrLAP los dispositivos que se comunican se dividen en un
dispositivo primario y unos o más dispositivos secundarios. Solamente si el
dispositivo primario solicita un dispositivo secundario a enviar es se realiza el
enlace.
IrLMP
El obligatorio IrLMP (Protocolo infrarrojo de la gerencia del acoplamiento) es la
tercera capa de las especificaciones de IrDA. Puede ser analizado en dos
porciones. Primero, el LM-MUX (multiplexor de la gerencia del acoplamiento)
que miente encima de la capa de IrLAP. Sus logros más importantes son:

Proporciona los canales lógicos múltiples

Permite el cambio de dispositivos primarios/secundarios
En segundo lugar, el LM-IAS (servicio del acceso de información de la gerencia
del acoplamiento), que proporciona una lista, donde los abastecedores de
servicio pueden colocar sus servicios así que otros dispositivos puede tener
acceso a estos servicios vía preguntar el LM-IAS.
TP minúsculo
El opcional TP minúsculo (Protocolo minúsculo del transporte) miente encima
de la capa de IrLMP. Proporciona:

Transporte de mensajes grandes por el SAR (segmentación y nuevo
ensamble)

Control de flujo dando créditos a cada canal lógico
IrLAN
El opcional IrLAN (Red de área local del infrarrojo) proporciona la posibilidad
para conectar un dispositivo infrarrojo con una red de área local. Hay tres
métodos posibles:

Punto de acceso

Par a mirar con fijeza

Recibido
Mientras que IrLAN miente encima del protocolo minúsculo del TP, el protocolo
minúsculo del TP se debe poner en ejecución para que IrLAN trabaje.
7. PUERTO SERIAL
Un puerto serie o puerto serial es una interfaz de comunicaciones de datos
digitales, frecuentemente utilizado por computadoras y periféricos, donde la
información es transmitida bit a bit enviando un solo bit a la vez.
Las características seriales importantes son: tasa de baudios, bits de datos,
bits de paro, y paridad. Para que dos puertos se comuniquen, estos parámetros
deben igualarse:
La tasa de baudios. Es una unidad de medición para comunicación que indica
el número de bits transferidos por segundo. Por ejemplo, 300 baudios son 300
bits por segundo. Las tasas de baudios para líneas telefónicas son 14400,
28800, y 33600. Tasas de baudios mayores a estas son posibles, pero reducen
la distancia disponible para la separación de dispositivos. Utilizan estas tasas
de baudios para comunicación donde los dispositivos están localizados entre
sí, como sucede típicamente con los dispositivos GPIB.
Bits de datos. Son mediciones de los bits de datos actuales en una transmisión.
Cuando una computadora envía un paquete de información, la cantidad de
datos actuales puede ser que no complete 8 bits. Los valores estándar para los
paquetes de datos son de 5, 7, y 8 bits. El marco que usted elija dependerá de
la información que está transfiriendo. Por ejemplo, el ASCII estándar tiene
valores de 0 a 127 (7 bits). El ASCII extendido utiliza de 0 a 255 (8 bits). Si los
datos que usted está transfiriendo se encuentran en texto simple (ASCII
estándar), enviar 7 bits de datos por paquete, es suficiente para la
comunicación. Un paquete se refiere a la transferencia de un sólo byte,
incluyendo los bits de inicio/paro, bits de datos, y paridad. Debido a que el
número de bits actuales depende del protocolo seleccionado, puede utilizar el
término “paquete” para cubrir todas las instancias.
Los bits de paro. Son utilizados para señalar el término de comunicaciones en
un paquete sencillo. Los valores típicos son 1, 1.5 y 2 bits. Debido a que los
datos se encuentran sincronizados a través de las líneas y cada dispositivo
tiene su propio reloj, es posible que los dos dispositivos pierdan sincronización.
Por lo tanto, los bits de paro no solamente indican el final de una transmisión,
también le da un margen de error a las velocidades de reloj de la computadora.
A medida que se utilizan más bits para bits de paro, mayor oportunidad para
sincronizar los diferentes relojes, pero más lenta la razón de transferencia de
datos.
Paridad. Es una forma de revisión de error simple utilizada en la comunicación
serial. Existen cuatro tipos de paridad – pares, impares, marcados y
espaciados. También puede utilizar los que excluyen de paridad. Para paridad
impar y par, el puerto serial fija el bit de paridad (el último bit después de los
bits de datos) a un valor que asegura que la transmisión tenga un número par o
impar de bits lógicos. Por ejemplo, si el dato es 011, para paridad par, el bit de
paridad es 0 para mantener el número par de bits altamente lógicos. Si la
paridad es impar, el bit de paridad es 1, resultando en 3 bits altamente lógicos.
La paridad marcada y espaciada no revisa específicamente los bits de datos,
simplemente fija la paridad de los bits como alta para la paridad marcada o baja
para la paridad espaciada. Esto permite que el dispositivo receptor conozca el
estado de un bit para así determinar si el ruido esta corrompiendo los datos o si
los relojes del dispositivo de transmisión y recepción se encuentran fuera de
sincronización.
El estándar RS-232
RS-232.C significa literalmente "Recomended Standard232 revisión C"
(también conocida como EIA 232). Es un estándar publicado en 1969 por la
EIA ("Electronic Standard Association"), también conocido como Electronic
Industries Alliance RS-232C) es una interfaz que designa una norma para el
intercambio serie de datos binarios entre un DTE (Equipo terminal de datos) y
un DCE (Data Communication Equipment, Equipo de Comunicación de datos),
aunque existen otras en las que también se utiliza la interfaz RS-232.
El estándar RS-422
RS-422 (Estándar EIA RS-422-A) es la conexión serial utilizada en
computadoras Apple Macintosh. El RS-422 utiliza una señal eléctrica
diferencial, opuesta a las señales no balanceadas referenciadas a tierra con
RS-232. La transmisión diferencial, que utiliza dos líneas, una para transmitir y
otra para recibir señales, resulta en mayor inmunidad al ruido y mayores
distancias en comparación con el RS-232. A mayor inmunidad al ruido y
distancia, mayores las ventajas en aplicaciones industriales.
El estándar RS-485
RS-485 (Estándar EIA-485) es una mejora sobre el RS-422 porque
incrementa el número de dispositivos de 10 a 32 y define las características
eléctricas necesarias para asegurar adecuadamente los voltajes de señales
bajo la carga máxima. Con el incremento en esta capacidad, usted puede crear
redes de dispositivos conectados a un solo puerto serial RS-485. La inmunidad
al ruido y la gran capacidad hacen que RS-485 sea la conexión serial preferida
en aplicaciones industriales que requieren diversos dispositivos distribuidos en
red a una PC o algún otro controlador para colección de datos, HMI, u otras
operaciones. RS-485 es un gran conjunto de RS-422; por lo tanto, todos los
dispositivos RS-422 pueden ser controlados por RS-485. Usted puede utilizar el
hardware RS-485 para comunicación serial para cables de hasta 4000 pies.
PUERTO SERIE ASINCRONO
A través de este tipo de puerto la comunicación se establece usando un
protocolo de transmisión asíncrono. En este caso, se envía en primer lugar una
señal inicial anterior a cada byte, carácter o palabra codificada. Una vez
enviado el código correspondiente se envía, inmediatamente, una señal de stop
después de cada palabra codificada.
La señal de inicio sirve para preparar al mecanismo de recepción, o receptor,
la llegada, y registro, de un símbolo, y la señal de stop sirve para predisponer al
mecanismo de recepción para que tome un descanso y se prepare para la
recepción del nuevo símbolo.
La típica transmisión star-stop es la que se usa en la transmisión de códigos
ASCII a través del puerto RS-232, como la que se establece en las operaciones
con teletipos.
VELOCIDAD DE TRANSMICION
Velocidad de transmisión ("Connection speed") es la cantidad de datos
transmitidos en unidad de tiempo. Se expresa en bits por segundo (bps). En
las transmisiones serie a través de líneas telefónicas, en las que se emplean
módems era frecuente utilizar como medida de velocidad el Baudio ("Baud
rate"), en honor de Emile Baudot, al que ya hemos hecho referencia. Baudio se
define como el número de veces que cambia la portadora en un segundo. La
velocidad que puede emplearse depende en gran medida de la calidad del
medio de transmisión (calidad de la línea), que si (como es frecuente) se trata
de
líneas
telefónicas,
depende
a
su
vez
de
la
distancia.
Los primeros dispositivos serie operaban a velocidades muy bajas, del orden
de 110 a 1200 baudios.
Las comunicaciones telefónicas serie actuales están
muy cerca del máximo teórico que pueden soportar los pares de cobre
utilizados en la telefonía estándar. Además, para aumentar el rendimiento de
la comunicación se utilizan técnicas de compresión de los datos a transmitir, y
velocidades variables, que pueden ser negociadas entre los equipos que
comunican en función del estado de la línea en cada momento.
8. PUERTO PARALELO
Un puerto paralelo es una interfaz entre una computadora y un periférico, cuya
principal característica es que los bits de datos viajan juntos, enviando un
paquete de byte a la vez. Es decir, se implementa un cable o una vía física
para cada bit de datos formando un bus. Mediante el puerto paralelo podemos
controlar también periféricos como focos, motores entre otros dispositivos,
adecuados para automatización.
El cable paralelo es el conector físico entre el puerto paralelo y el dispositivo
periférico. En un puerto paralelo habrá una serie de bits de control en vías
aparte que irá en ambos sentidos por caminos distintos.
El puerto paralelo es uno de los periféricos más antiguos creados para la PC.
Ha sufrido varias actualizaciones a lo largo del tiempo, pero su base sigue firme
en el modelo presentado por Centronics en la década del 70’, el cual poseía
una comunicación unidireccional y una interface única. Hoy en día el puerto
paralelo que utilizamos está basado en el estándar IEEE 1284, el cual otorga al
puerto paralelo los siguientes modos de operación:

Modo de Compatibilidad - Equivalente del Centronics (SPP)

Modo Nibble

Modo Byte

Modo ECP - Extended Capability Port (Puerto paralelo de capacidad
extendida)

Modo EPP - Enhanced Parallel Port (Puerto paralelo extendido)
Puerto Paralelo Centronics
El puerto paralelo más conocido es el puerto de impresora (que cumplen más
o menos la norma IEEE 1284, también denominados tipo Centronics) que
destaca por su sencillez y que transmite 8 bits. Se ha utilizado principalmente
para conectar impresoras, pero también ha sido usado para programadores
EPROM, escáner, interfaces de red Ethernet a 10 Mb, unidades ZIP, SuperDisk
y para comunicación entre dos PC (MS-DOS trajo en las versiones 5.0 ROM a
6.22 un programa para soportar esas transferencias).
Puerto paralelo IDE
No obstante existe otro puerto paralelo usado masivamente en los
ordenadores: el puerto paralelo IDE, también llamado PATA (Paralell ATA),
usado para la conexión de discos duros, unidades lectoras/grabadoras (CDROM, DVD), unidades magneto-ópticas, unidades ZIP y SuperDisk, entre la
placa base del ordenador y el dispositivo.
Puerto paralelo SCSI
Un tercer puerto paralelo, muy usado en los ordenadores Apple Macintosh y
en servidores, son las diferentes implementaciones del SCSI. Al igual que IDE
ha sido usado para la conexión de discos duros, unidades ópticas
lectoras/grabadoras (CD-ROM, DVD), unidades magneto-ópticas y SuperDisk,
pero también de otros dispositivos como escáneres e incluso otro ordenador de
diferente plataforma hardware y sistema operativo, como la torre siamese hace
referencia para el uso en el computador y sirve como un puerto serial el
hardware 1.5 para PC/Commodore Amiga.
IEEE 1284
El estándar IEEE 1284 (Standard Signaling Method for a Bi-directional
Parallel Peripheral Interface for Personal Computers, en español, Estándar del
Método de Señalización para una Interfaz Paralela Bidireccional Periférica para
Computadoras Personales), aprobado para su publicación en marzo de 1994,
provee de una comunicación de alta velocidad y bidireccional entre un
ordenador y un dispositivo externo que puede comunicarse 50 ó 100 veces
más rápido que con el puerto paralelo original; además de ser totalmente
compatible con los periféricos, impresoras y software que existían previamente.
9. SCSI ASIMETRICO Y DIFERENCIAL
Small Computer System Interface
SCSI,
acrónimo
Interface
inglés
(Sistema
de
Small
Computers
Interfaz
para
System
Pequeñas
Computadoras), es una interfaz estándar para la
transferencia de datos entre distintos dispositivos del
bus de la computadora. Algunos profesionales lo
castellanizan como escasi o escosi, por la pronunciación en inglés de su sigla,
otros por el contrario prefieren deletrearlo.
Para montar un dispositivo SCSI en un ordenador es necesario que tanto el
dispositivo como la placa madre dispongan de un controlador SCSI. Es habitual
que el dispositivo venga con un controlador de este tipo, pero no siempre es
así, sobre todo en los primeros dispositivos. Se utiliza habitualmente en los
discos duros y los dispositivos de almacenamiento sobre cintas, pero también
interconecta una amplia gama de dispositivos, incluyendo escáneres, unidades
CD-ROM, grabadoras de CD, y unidades DVD. De hecho, el estándar SCSI
entero promueve la independencia de dispositivos, lo que significa que
teóricamente cualquier cosa puede ser hecha SCSI (incluso existen impresoras
que utilizan SCSI).
En el pasado, era muy popular entre todas las clases de ordenadores.
Actualmente sigue siendo popular en lugares de trabajo de alto rendimiento,
servidores, y periféricos de gama alta. Los ordenadores de sobremesa y los
portátiles utilizan habitualmente las interfaces más lentas de IDE/SATA para los
discos duros y USB (el USB emplea un conjunto de comandos SCSI para
algunas operaciones) así como FireWire a causa de la diferencia de coste entre
estos dispositivos.
Se está preparando un sistema SCSI en serie, denominado Serial Attached
SCSI o SAS, que además es compatible con SATA, dado que utiliza el mismo
conector, por lo tanto se podrán conectar unidades SATA en una controladora
SAS.
Historia
SCSI se basa en "SASI", la "Shugart Associates System Interface", presentada
por esa empresa en 1979. El controlador SASI proporciona un puente entre
una interfaz de disco duro (normalmente ST506), y un computador central, que
lo necesita para leer sectores (bloques) de datos. Las tarjetas controladoras
SASI tenían un tamaño de 5,25 x 8 pulgadas de tamaño, por lo general
montado en lo alto de una unidad de disco duro. SASI fue utilizado en mini y
microcomputadoras. SASI define la interfaz utilizando un conector de cinta
plana de 50 pines.
Larry Boucher es considerado el padre de SASI y SCSI debido a su labor
pionera, primero en Shugart Associates y luego en Adaptec.1
El comité ANSI que documentó el estándar no permitió que el nombre incluyera
el de una compañía. Tras dedicar un día entero a discutir el nombre, se llegó al
acuerdo de que fuera "Small Computer System Interface," que Boucher
pretendía se pronunciara "sexy"; sin embargo Dan Allan de ENDL pronunció el
nuevo acrónimo como "scuzzy", y se ha perpetuado.1
La parte "small" de SCSI es histórica; desde mediados de los 90, SCSI ha
estado disponible incluso en los mayores sistemas informáticos.
Desde su normalización en 1986, SCSI ha sido de uso común en el
Commodore Amiga y las líneas de servidores y ordenadores personales Apple
Macintosh y Sun Microsystems. Apple comenzó a usar IDE para sus máquinas
de gama baja con el Macintosh Quadra 630 en 1994, y lo incluyó en los de
gama alta con el Power Macintosh G3 en 1997. Apple abandonó la inclusión de
SCSI por completo (en favor de IDE y FireWire) con el G3 azul y blanco en
1999. Sun ha pasado su gama baja a Serial ATA (SATA). SCSI nunca ha sido
popular en la gama baja de compatibles IBM PC, debido al menor precio y
buen rendimiento de los discos ATA. Los discos duros SCSI e incluso los
sistemas RAIDSCSI son comunes en las estaciones de trabajo PC dedicadas a
la producción de video y/o audio, pero la aparición de discos SATA de gran
capacidad y bajo coste lo están desplazando de ese nicho de mercado.
Actualmente SCSI es popular en estaciones de trabajo de alto rendimiento y
servidores. Los sistemas RAID en servidores casi siempre usan discos duros
SCSI, aunque varios fabricantes ofrecen sistemas RAID basados en SATA
como una opción de menor coste. Los ordenadores de sobremesa y notebooks
utilizan habitualmente ATA/IDE y ahora SATA para los discos duros, y
conexiones USB, e-SATA y FireWire para dispositivos externos.
Tipos de SCSI

SCSI 1. Bus de 8 bits. Velocidad de transmisión de datos a 5 MBps. Su
conector genérico es de 50 pins (conector Centronics) y baja densidad.
La longitud máxima del cable es de seis metros. Permite hasta 8
dispositivos (incluida la controladora), identificados por las direcciones 0
a 7.

SCSI 2.
o
Fast. Con un bus de 8, dobla la velocidad de transmisión (de 5
MBps a 10 MBps). Su conector genérico es de 50 pins y alta
densidad. La longitud máxima del cable es de tres metros.
Permite
hasta
8
dispositivos
(incluida
la
controladora),
identificados por las direcciones 0 a 7.
o
Wide. Dobla el bus (pasa de 8 a 16 bits). Su conector genérico es
de 68 pins y alta densidad. La longitud máxima del cable es de
tres
metros.
Permite
hasta
16
dispositivos
(incluida
la
controladora), identificados por las direcciones 0 a 15.

SCSI 3.
o
.1 SPI (Parallel Interface o Ultra SCSI).

Ultra. Dispositivos de 16 bits con velocidad de ejecución de
20 MBps. Su conector genérico es de 34 pines de alta
densidad. La longitud máxima del cable es de 10 cm.
Admite un máximo de 15 dispositivos. También se conoce
como Fast 20 o SCSI-3.

Ultra Wide. Dispositivos de 16 bits con velocidad de
ejecución de 40 MBps. Su conector genérico es de 68 pins
y alta densidad. La longitud máxima del cable es de 1,5
metros. Admite un máximo de 15 dispositivos. También se
conoce como Fast SCSI-3.

Ultra 2. Dispositivos de 16 bits con velocidad de ejecución
de 80 MBps. Su conector genérico es de 68 pines y alta
densidad. La longitud máxima del cable es de doce metros.
Admite un máximo de 15 dispositivos. También se conoce
como Fast 40.
o
.2 FireWire (IEEE 1394).
o
.3 SSA (Serial Storage Architecture). De IBM. Usa full-duplex con
canales separados.
o
.4 FC-AL (Fibre Channel Arbitrated Loop). Usa cables de fibra
óptica (hasta 10 km) o coaxial (hasta 24 m). Con una velocidad
máxima de 100 MBps.
Características de SCSI
Utilizan CCS (Command Common Set). Es un conjunto de comandos para
acceder a los dispositivos que los hacen más o menos compatibles.
SCSI 1, SCSI2 y SCSI 3.1 (SPI) conectan los dispositivos en paralelo. SCSI 3.2
(FireWire), SCSI 3.3 (SSA) y SCSI 3.4 (FC-AL) conectan los dispositivos en
serie.
Hacen falta terminadores (jumpers, por BIOS, físicos) en el inicio y fin de la
cadena.
Número máximo de dispositivos: La controladora cuenta como un dispositivo
(identificador 7, 15) BUS Dispositivos Identificadores Conector 8 bits 7 Del 0 al
6 50 pins 16 bits 15 Del 0 al 14 68 pins
Introducción a la interfaz SCSI
El estándar SCSI (Interfaz para sistemas de ordenadores pequeños es una
interfaz que se utiliza para permitir la conexión de distintos tipos de periféricos
a un ordenador mediante una tarjeta denominada adaptador SCSI o
controlador SCSI (generalmente mediante un conector PCI).
El número de periféricos que se pueden conectar depende del ancho del bus
SCSI. Con un bus de 8 bits, se pueden conectar 8 unidades físicas y con uno
de 16 bits, 16 unidades. Dado que el controlador SCSI representa una unidad
física independiente, el bus puede alojar 7 (8-1) ó 15 (16-1) periféricos.
Direccionamiento de los periféricos
Los periféricos se direccionan mediante números de identificación. El primer
número es el ID, número que designa al controlador que se encuentra dentro
de cada periférico (definido a través de los caballetes posicionados en cada
periférico SCSI o por el software). El periférico puede tener hasta 8 unidades
lógicas (por ejemplo, una unidad de CD-ROM con varios cajones). Las
unidades lógicas se identifican mediante un LUN (Número de unidad lógica).
Por último, un ordenador puede contener diversas tarjetas SCSI y, por lo tanto,
a cada una le corresponde un número diferente.
De este modo, para comunicarse con un periférico, el ordenador debe
suministrar una dirección de la siguiente manera: "número de tarjeta - ID LUN".
SCSI asimétrico y diferencial
Existen dos tipos de bus SCSI:

el bus asimétrico, conocido como SE (por Single-Ended o Terminación
única), basado en una arquitectura paralela en la que cada canal circula
en un alambre, sensible a las interferencias. Los cables SCSI en modo
SE poseen 8 alambres para una transmisión de 8 bits (que se
denominan limitados) o 16 alambres para cables de 16 bits (conocidos
como extendidos). Este es el tipo de bus SCSI más común.

el bus diferencial transporta señales a un par de alambres. La
información se codifica por diferencia entre los dos alambres (cada uno
transmite el voltaje opuesto) para desplazar las interrupciones
electromagnéticas, lo que permite obtener una distancia de cableado
considerable (alrededor de 25 metros). En general, existen dos modos:
el modo LVD (Voltaje bajo diferencial), basado en señales de 3,3 V y el
modo HVD (Voltaje Alto Diferencial), que utiliza señales de 5 V. Los
periféricos que utilizan este tipo de transmisión son cada vez más raros
y por lo general llevan la palabra "DIFF".
Estándares SCSI
Los estándares SCSI definen los parámetros eléctricos de las interfaces de
entrada/salida. El estándar SCSI-1 de 1986 definió los comandos estándar para
el control de los periféricos SCSI en un bus con una frecuencia de 4,77 MHz
con un ancho de 8 bits, lo que implicaba que era posible alcanzar velocidades
de 5 MB/s.
Sin embargo, un gran número de dichos comandos eran opcionales, por lo que
en 1994 se adoptó el estándar SCSI-2. Éste define 18 comandos, conocidos
como CCS (Conjunto de comandos comunes). Se han definido varias versiones
del estándar SCSI-2:

El SCSI-2 extendido, basado en un bus de 16 bits (en lugar de 8), ofrece
una velocidad de 10 MB/s

El SCSI-2 rápido es un modo sincrónico rápido que permite un aumento
de 5 a 10 MB/s para el estándar SCSI y de 10 a 20 MB/s para el SCSI-2
extendido (denominado SCSI-2 extendido rápido).

Los modos Rápido-20 y Rápido-40 duplican y cuadriplican dichas
velocidades respectivamente.
El estándar SCSI-3 incluye nuevos comandos y permite la unión de 32
periféricos, así como una velocidad máxima de 320 MB/s (en modo Ultra-320).
El siguiente cuadro resume las características de los diversos estándares
SCSI:
Estándar
SCSI-1(Fast-5 SCSI)
Ancho
Velocidad
Ancho de Conector
del bus
del bus
banda
8 bits
4,77 MHz
5 MB/seg
50
clavijas (bus
simétrico
o
diferencial)
SCSI-2
–
Fast-10 8 bits
10 MHz
SCSI
10
50
clavijas (bus
MB/seg
simétrico
o
diferencial)
SCSI-2 - Extendido
16 bits
10 MHz
20
50
clavijas (bus
MB/seg
simétrico
o
diferencial)
SCSI-2
-
32
bits 32 bits
10 MHz
rápido extendido
40
68
clavijas (bus
MB/seg
simétrico
o
diferencial)
SCSI-2 – Ultra SCSI- 8 bits
2(Fast-20 SCSI)
20 MHz
20
50
clavijas (bus
MB/seg
simétrico
diferencial)
o
SCSI-2 - SCSI-2 ultra 16 bits
20 MHz
extendido
MB/seg
–
SCSI-3
Ultra-2 8 bits
40 MHz
SCSI(Fast-40 SCSI)
SCSI-3
-
Ultra-2 16 bits
–
Ultra- 16 bits
40
MB/seg
40 MHz
SCSI-2 extendido
SCSI-3
40
80 MHz
160(Ultra-3 SCSI o
80
68
clavijas (bus
MB/seg
diferencial)
160
68
MB/seg
diferencial)
clavijas (bus
Fast-80 SCSI)
–
SCSI-3
Ultra- 16 bits
320(Ultra-4 SCSI o
80
DDR
MHz 320
MB/seg
68
clavijas (bus
diferencial)
Fast-160 SCSI)
SCSI-3
-
Ultra-640 16
(Ultra-5 SCSI)
10.
80
QDR
MHz 640
MB/seg
68
clavijas (bus
diferencial)
TARJETAS ACELERADORAS 2D, 3D
Una tarjeta gráfica, que también se conoce como adaptador gráfico, tarjeta de
video o acelerador de gráficos, es un componente del ordenador que permite
convertir los datos digitales en un formato gráfico que puede ser visualizado en
una
pantalla.
En un principio, la tarea principal de las tarjetas gráficas fue la de enviar píxeles
a la pantalla, así como también una variedad de manipulaciones gráficas
simples:

Mover bloques (como el del cursor del ratón);

trazado de rayos;

trazado de polígonos;

etc.
Las tarjetas gráficas más recientes tienen procesadores fabricados para
manipular gráficos complejos en 3D.
Los componentes de una tarjeta de video son:

Una Unidad de procesamiento gráfico ( GPU, Graphical Processing
Unit), que es el corazón de la tarjeta de gráficos y que procesa las
imágenes de acuerdo a la codificación utilizada. La GPU es un
procesador especializado con funciones relativamente avanzadas de
procesamiento de imágenes, en especial para gráficos 3D. Debido a las
altas temperaturas que puede alcanzar un procesador gráfico, a menudo
se coloca un radiador y un ventilador.

La función de la memoria de video es la de almacenar las imágenes
procesadas por el GPU antes de mostrarlas en la pantalla. A mayor
cantidad de memoria de video, mayor será la cantidad de texturas que la
tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El término
búfer de trama se utiliza para referirse a la parte de la memoria de video
encargada de almacenar las imágenes antes de mostrarlas en la
pantalla. Las tarjetas de gráficos presentan una dependencia importante
del tipo de memoria que utiliza la tarjeta. Su tiempo de respuesta es
fundamental en lo que respecta a la rapidez con la que se desea mostrar
las imágenes. La capacidad de la memoria también es importante
porque afecta el número y la resolución de imágenes que puede
almacenarse en el búfer de trama.

El Convertidor digital-analógico de RAM (RAMDAC, Random Access
Memory Digital-Analog Converter) se utiliza a la hora de convertir las
imágenes digitales almacenadas en el búfer de trama en señales
analógicas que son enviadas a la pantalla. La frecuencia del RAMDAC
determina a su vez la frecuencia de actualización (el número de
imágenes por segundo, expresado en Hercios: Hz) que la tarjeta gráfica
puede soportar.

El BIOS de video contiene la configuración de tarjeta gráfica, en
especial, los modos gráficos que puede soportar el adaptador.

La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta
gráfica en la placa madre. El bus AGP está especialmente diseñado
para controlar grandes flujos de datos, algo absolutamente necesario
para mostrar un video o secuencias en 3D. El bus PCI Express presenta
un mejor rendimiento que el bus AGP y en la actualidad, casi puede
decirse que lo ha remplazado.

Las conexiones:
o La interfaz VGA estándar: La mayoría de las tarjetas gráficas
tienen un conector VGA de 15 clavijas (Mini Sub-D, con 3 hileras
de 5 clavijas cada una); por lo general estas son
de
color
azul.
Este
conector
se
utiliza
principalmente para las pantallas CRT. Este tipo
de interfaz se usa para enviar 3 señales analógicas a la pantalla.
Dichas señales corresponden a los componentes rojos, azules y
verdes
de
la
imagen.
o La Interfaz de Video Digital (DVI, Digital Video Interface) se
encuentra en algunas tarjetas gráficas y se
utiliza para el envío de datos digitales a los
distintos monitores que resultan compatibles
con esta interfaz. De esta manera, se evita convertir los datos
digitales
en
analógicos
o
los
analógicos
en
digitales.
o Interfaz S-Video: En la actualidad, son cada vez más numerosas
las tarjetas gráficas que incluyen un conector SVideo. Esto permite visualizar en una pantalla de
televisión lo mismo que se observa en el ordenador.
Por este motivo, generalmente se lo suele llamar conector "Salida
de TV.
Tarjetas aceleradoras 3D
El campo del 3D es bastante reciente, y cada vez más importante. Algunas PC
cuentan con más poder de cómputo que ciertas estaciones de trabajo.
En líneas generales, el cómputo de gráficos en 3D es un proceso que puede
dividirse en cuatro etapas:
o secuencia
o geometría:
de
comandos:
Creación
presentación
de
de
objetos
elementos
simples
o configuración: transformación de los objetos a triángulos 2D
o Renderizado: aplicación de textura a los triángulos.
Cuanto más rápido la tarjeta aceleradora 3D pueda computar estos pasos por
sí misma, mayor será la velocidad con la que se mostrará en pantalla. En un
principio, los primeros chips sólo podían renderizar y le dejaban el resto de la
tarea al procesador. Desde entonces, las tarjetas gráficas suelen incluir un
"setup engine", que permite controlar los últimos dos pasos mencionados
anteriormente. Por ejemplo, un procesador Pentium II de 266 Mhz que computa
los tres primeros pasos, procesa 350.000 polígonos por segundo; cuando
computa tan sólo dos, puede llegar a procesar hasta 750.000 polígonos por
segundo. Esto demuestra cuánta es la carga que las tarjetas gráficas alivian en
los procesadores.
Este tipo de bus también es un factor importante. Aunque el bus AGP no
mejora las imágenes 2D, las tarjetas que utilizan ese bus (en lugar de utilizar el
PCI) poseen un mejor rendimiento. Esto se debe a que el bus AGP está
conectado directamente a la memoria RAM, lo que le otorga a su vez un ancho
de banda mayor al del bus PCI.
En la actualidad, estos productos de alta tecnología necesitan ser fabricados
con la misma calidad que los procesadores, como un ancho de canal de entre
0.25 µm y 0.35 µm.
Glosario de funciones de aceleradoras 3D y 2D
Término Definición
Gráficos 2D.- Muestran la representación de una imagen a partir de dos ejes de
referencia (x , y).
Gráficos 3D.- Muestran la representación de una imagen a partir de tres ejes de
referencia (x, y, z).
Mezcla alfa.- El mundo está formado por objetos opacos, translúcidos y
transparentes. La mezcla alfa se utiliza para añadir información de
transparencia a los objetos translúcidos. Esto se logra al renderizar polígonos a
través de máscaras cuya densidad es proporcional a la transparencia de los
objetos. Como resultado, el color del píxel resulta de la combinación de los
colores del primer plano y del fondo. A menudo, alfa posee un valor que oscila
entre 0 y 1. Puede calcularse de la siguiente manera:
píxel nuevo=(alfa)*(color del primer píxel)+(1-alfa)*(color del segundo píxel)
Búfer alfa.- Se trata de un canal adicional para almacenar información de
transparencia (rojo, verde, azul y transparencia).
Efecto de suavizado.- Un técnica para que los píxeles aparezcan más nítidos.
Efectos atmosféricos.- Efectos como niebla o profundidad que logran mejorar el
renderizado del ambiente
Mapa de bits.- Imagen píxel por píxel
Filtro bilineal.- Se usa para que un píxel aparezca como más fluido cuando se
lo desplaza de un lugar a otro (como por ejemplo, en algún movimiento de
rotación).
Transferencia de bloques de bits.- Se trata de una de las funciones de
aceleración más importantes. Permite simplificar el desplazamiento de bloques
de datos al tomar en cuenta las características específicas de la memoria de
video. Se utiliza, por ejemplo, cuando se mueve una ventana.
Mezcla.- Es la combinación de dos imágenes al agregarlas bit por bit una a la
otra.
Comunicación directa entre periféricos Esta función del bus PCI se utiliza para
recibir información directamente de la memoria sin tener que pasar
necesariamente por el procesador.
Corrección de perspectiva Método de asignación de textura. Toma en cuenta el
valor Z al momento de asignar valores a los polígonos. Cuando un objeto se
aleja en la distancia, parece que disminuye su altura y su anchura. Mediante la
corrección de perspectiva, se asegura que la frecuencia con la que se cambia
el tamaño de los píxeles de la textura sea proporcional a la profundidad.
Niebla y difuminado Disminuye la intensidad de los objetos a medida que estos
se alejan en la distancia de profundidad.
Fusionado Permite archivar imágenes con calidad de 24 bits en búferes más
pequeños (8 ó 16 bits). El fusionado combina dos colores para crear uno sólo.
Búfer doble Un método que utiliza dos búfers, uno para la pantalla y el otro
para el renderizado. Una vez que finaliza el renderizado, se intercambian los
dos búferes.
Sombreado plano o constante Asigna un color sólido al polígono. De esta
manera, el objeto renderizado aparece como biselado.
Niebla Utiliza la función de mezcla para un objeto que posee color fijo (mientras
más se lo aleja del primer plano, más se utiliza esta función).
Gama Las características de una pantalla que utiliza fósforo son no lineales: un
pequeño cambio en el voltaje producirá de inmediato distintos efectos. Cuando
el voltaje resulta bajo, el brillo de la pantalla cambia, por el contrario, el alto
voltaje no produce un cambio similar en el brillo. Se denomina Gama a la
diferencia entre lo que se espera y lo que se observa.
Corrección de gama Antes de mostrar la información, se la debe corregir para
compensar el efecto gama.
Sombreado Gouraud Es un algoritmo que lleva el nombre del matemático
francés que lo inventó. Este utiliza la interpolación para suavizar los colores.
Asigna un color a cada píxel de un polígono al interpolar los colores en sus
vértices. Simula la apariencia de superficies plásticas o metálicas.
Interpolación Es un método matemático para regenerar información perdida o
dañada. Por ejemplo, cuando se agranda una imagen, se regeneran los píxeles
perdidos por interpolación.
Búfer Lineal Es un búfer utilizado para almacenar una línea de video.
Sombreado Pong Es un algoritmo, inventado por Phong Bui-Tong, utilizado
para sombrear colores al calcular la cantidad de luz que caería en varios
puntos de la superficie de un objeto y luego poder cambiar el color de los
píxeles basados en esos valores. Utiliza muchos
más recursos que el
sombreado de Gouraud.
MIP Mapping MIP es una palabra que viene del Latín "Multum in Parvum",
significa "muchos en uno". Este método permite aplicar texturas con diferentes
resoluciones a objetos dentro de una sola imagen, según su tamaño y
distancia. Entre otras cosas, permite la utilización de texturas de mayor
resolución a medida que el objeto se va acercando.
Proyección Es la transformación de un espacio tridimensional en uno
bidimensional.
Rasterizado Convierte una imagen en píxeles
Renderizado Es la creación de imágenes realistas en la pantalla al utilizar
modelos matemáticos para suavizar, colorear, etc.
Motor de renderizado Hardware o software que se utiliza para computar las
primitivas 3D (por lo general triángulos).
Tesselation o facetado Es el método utilizado para computar gráficos 3D.
Puede dividirse en 3 partes: Facetado, geometría y renderizado. El paso de
"facetado" implica la división de una superficie en partes más pequeñas (por lo
general, triángulos o cuadriláteros)
Asignación de textura Se hace referencia al almacenamiento de imágenes
hechas de píxeles (texels), para luego envolver los objetos 3D de esta textura
para que parezcan objetos más realistas. Filtrado trilineal Se basa en el
principio del filtrado bilineal, el filtrado trilineal involucra dos niveles de filtrado
bilineal. Búfer Z Es la parte de la memoria que almacena la distancia existente
entre cada píxel y el objetivo. Cuando se muestran los objetos renderizados, el
motor de renderizado elimina las superficies ocultas.
Z-buffering Es un método con el cual se logra las superficies ocultas en los
valores almacenados en el Búfer Z.
11.
TARJETAS DE RED
Tarjeta de interfaz de red (NIC).
Tarjeta de red ISA de 10 Mbps con conectores RJ-45, AUI y 10Base2.
Tarjeta de Red ISA de 10Mbps.
Tarjeta de Red PCI de 10Mbps.
Una tarjeta de red permite la comunicación entre diferentes aparatos
conectados entre sí y también permite compartir recursos entre dos o más
computadoras. A las tarjetas de red también se les llama adaptador de red o
NIC (Network Interface Card, Tarjeta de interfaz de red en español). Hay
diversos tipos de adaptadores en función del tipo de cableado o arquitectura
que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero
actualmente el más común es del tipo Ethernet utilizando una interfaz o
conector RJ-45.
En la actualidad existen una gran cantidad de variedad de tarjetas de red desde
las que se colocan dentro de los PC o las externas, así como las de conexión
física inalámbricas, desde las que se utilizan en las PC normales o en otros
dispositivos como Hubs, Routers y Switchs, e incluso impresoras, escáner y
demás, todos estos dispositivos necesitan de la tarjeta de red para conectarse
con otros dispositivos.
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión
insertada en una ranura interna de un computador o impresora, se suele utilizar
para referirse también a dispositivos integrados en la placa madre del equipo,
como las interfaces presentes en la videoconsola Xbox o los Notebook.
Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a
la típica tarjeta con chips y conectores soldados, como la interfaz de red para la
Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma
CompactFlash y Secure Digital SIO utilizados en PDAs
Cada tarjeta de red tiene un número de identificación único de 48 bits, en
hexadecimal llamado dirección MAC. Estas direcciones hardware únicas son
administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los
tres primeros octetos del número MAC son conocidos como OUI e identifican a
proveedores específicos y son designados por la IEEE.
Se denomina también NIC al chip de la tarjeta de red que se encarga de servir
como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y
el equipo (por ejemplo un ordenador personal o una impresora). Es un chip
usado en computadoras o periféricos tales como las tarjetas de red, impresoras
de red o sistemas integrados (embebed en inglés), para conectar dos o más
dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica,
cable UTP, cable coaxial, fibra óptica, etc.
La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir
una ROM opcional que permite que el equipo arranque desde un servidor de la
red con una imagen de un medio de arranque (generalmente un disquete), lo
que permite usar equipos sin disco duro ni unidad de disquete. El que algunas
placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar
tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que
comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.
Token Ring
Las tarjetas para red Token Ring han caído hoy en día casi en desuso, debido
a la baja velocidad y elevado costo respecto de Ethernet. Tenían un conector
DB-9. También se utilizó el conector RJ-45 para las NICs (tarjetas de redes) y
los MAUs (Multiple Access Unit- Unidad de múltiple acceso que era el núcleo
de una red Token Ring)
ARCNET
Las tarjetas para red ARCNET utilizaban principalmente conectores BNC y/o
RJ-45 aunque estas tarjetas ya pocos lo utilizan ya sea por su costo y otras
desventajas...
Ethernet
Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10),
AUI (10), MII (100), GMII (1000). El caso más habitual es el de la tarjeta o NIC
con un conector RJ-45, aunque durante la transición del uso mayoritario de
cable coaxial (10 Mbps) a par trenzado (100 Mbps) abundaron las tarjetas con
conectores BNC y RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se
pueden ver xerografiados los conectores no usados). Con la entrada de las
redes Gigabit y el que en las casas sea frecuente la presencias de varios
ordenadores comienzan a verse tarjetas y placas base (con NIC integradas)
con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores.
Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbps
ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps,
también conocida como Gigabit Ethernet y en algunos casos 10 Gigabit
Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7
que trabajan a frecuencias más altas.
Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las
de 100 Mbps (13,1 MB/s) realmente pueden llegar como máximo a unos
78,4Mbps (10,3 MB/s).
Tarjetas de fibra óptica
Estas tarjetas están teniendo una gran aceptación en la actualidad, por la
velocidad en la transmisión de los datos así como en la confiabilidad y
seguridad, las tarjetas de fibra óptica difieren en las demás en que las señales
se dan mediante impulsos de luz que hacen posible la transmisión de los datos
a una mayor distancia, las tarjetas de fibra son mas fáciles de configurar que
las normales ya que solo se colocan y ya están en funcionamiento su uso está
destinado a grandes estaciones así como a concentradores de redes
backbone, los conectores de las tarjetas son especiales en donde se ingresa el
cable de fibra óptica Monomodo o multimodo de una o dos vías según el diseño
de la red, la de una vía usa solo una conexión para la transmisión y recepción
de los datos, por ende solo hay un conector en la tarjeta, la de dos vías tiene
dos conectores en la tarjeta uno para la transmito y otro para recepción de
datos.
Wi-Fi
También son NIC las tarjetas inalámbricas o Wireless, las cuales vienen en
diferentes variedades dependiendo de la norma a la cual se ajusten,
usualmente son 802.11a, 802.11b y 802.11g. Las más populares son la
802.11b que transmite a 11 Mbps (1,375 MB/s) con una distancia teórica de
100 metros y la 802.11g que transmite a 54 Mbps (6,75 MB/s).
La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con
protocolo 11.b es de unos 4Mbps (0,5 MB/s) y las de protocolo 11.g llegan
como máximo a unos 20Mbps (2,6 MB/s).
FUNCIONES DE TARJETAS DE RED
Son ocho las funciones de la NIC:

Comunicaciones de host a tarjeta, la información que reside en la memoria o
en el disco duro pasa a la tarjeta en forma de tramas.

Buffering, almacenamiento de la información para el posterior traspaso de
esta a través de los cables de red o mediante medios inalámbricos.

Formación de paquetes, agrupar los datos de una forma entendible y
transportable.

Conversión serial a paralelo,

Codificación y decodificación, codifica las señales de los cables que son bits
1 o 0 a señales entendibles por la tarjeta de red.

Acceso al cable, conector que posibilita el acceso al cable de red, estos
conectores pueden ser mediante RJ-45 o BNC

Saludo, petición de escucha que se hace a la red para proceder a transmitir
datos.

Transmisión y recepción., envió y recepción de datos.
Estos pasos hacen que los datos de la memoria de una computadora pasen a
la memoria de otra.
Tarjeta de red inalámbrica
Tarjeta de red inalámbrica PCMCIA
Tipos de conectores y adaptadores
Los conectores más usados en las instalaciones de tarjetas de red son las de
RJ-45 usadas mundialmente en las redes ethernet o conectores BNC usadas
en tarjetas de red de tipo coaxial, estas últimas no se usan en la actualidad
aunque puede ser que encuentre una instalada en algún antiguo edificio.
Los conectores de fibra óptica son de tipo especial ya que permiten e
interpretan los haces de luz provenientes de las redes de fibra óptica, tiene la
ventaja de funcionar a muy altas velocidad, estos conectores deben de
permanecer sellados si es que no son usados ya que ocasionaría deterioros en
la señal de la transmisión de los datos.
Puede darse el caso que usted no cuenta con una tarjeta de red para esto
existe adaptadores de tipo USB o tarjetas de ampliación de tipo PCMCIA que
pueden hacer que usted entre a la red de la empresa.
Adaptador de USB-RED
Conectores RJ-45
Cable de Fibra Óptica
Velocidad de conexión
Las tarjetas de red se encuentran en cualquier dispositivo que intente
conectarse a una red, a no ser que este use un MODEM para salir a Internet,
sin las tarjetas de red nuestros dispositivos serian meras estaciones de trabajo
sin ningún valor más que el domestico, una red de datos y de voy proporciona
muchos beneficios a las empresas y en la actualidad grandes satisfacciones a
los hogares.
A la hora de elegir una tarjeta de red debe de asegurarse de cumplir los
siguientes aspectos:

Que tipo de ranura soporta su PC o dispositivo de red

Que medios y que cables e usaran en la transmisión de los datos

A que velocidad máxima puede viajar un dato a través de la red

Que es lo que se necesitara transmitir, si es video demandara más velocidad

Cuanto está pensando en gastar, hay marcas que son muy buenas pero
tienen precios muy altos.

Cuál es la garantía que tiene la tarjeta

Admite la tarjeta auto negociación,
Estándares básicos para redes de datos cableadas
Se refiere a las convenciones y protocolos que se acordó utilizar para el
correcto funcionamiento entre redes de datos. Se muestra en la siguiente tabla
los estándares básicos de acuerdo a su mayor uso:
Estándar
Norma
Velocidad (Megabits por Método de acceso a la
segundo)
red
Fast
IEEE
Ethernet
802.3u
10 / 100 / 1000 Mbps
Acceso
múltiple
con
detección de portadora
y
detección
de
colisiones.
Ethernet
IEEE
10 Mbps
802.3
Acceso
múltiple
con
detección de portadora
y
detección
de
colisiones.
Token Ring
IEEE
4 a 16 Mbps
802.5
Paso de señales, si
encuentra
una
computadora
no
encendida se la salta.
Los componentes son visibles, ya que no cuenta con cubierta protectora;
son básicamente los siguientes:
1.- Conector para la ranura: es el encargado
de transmitir datos entre los puertos de la
tarjeta y la tarjeta principal ("Motherboard").
2.- Tarjeta: es la placa plástica sobre la cual se
encuentran montados todos los chips y
circuitos.
3.- Puertos: permiten la conexión del cable de
red con la tarjeta y su respectiva comunicación
con la tarjeta principal ("Motherboard").
Esquema de partes de la 4.- Placa de sujeción: es metálica y permite
tarjeta para red alámbrica.
soportar los puertos así como la sujeción hacia
el chasis del gabinete.
Partes de la tarjeta para red alámbrica y sus
funciones.
12.
TARJETAS DE SONIDO
Tarjeta de sonido Sound Blaster Live! 5.1.
La AdLib Music Synthesizer Card, la primera tarjeta de sonido popular
Tarjeta basada en el chipset VIA Envy
Indigo IO PCMCIA de 24 bits y 96 kHz estéreo fabricada por Echo Digital Audio
Corporation
Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para
computadoras que permite la entrada y salida de audio bajo el control de un
programa informático llamado controlador (en inglés driver). El típico uso de las
tarjetas de sonido consiste en proveer mediante un programa que actúa de
mezclador, que las aplicaciones multimedia del componente de audio suenen y
puedan ser gestionadas. Estas aplicaciones multimedia engloban composición
y edición de video o audio, presentaciones multimedia y entretenimiento
(videojuegos). Algunos equipos tienen la tarjeta ya integrada, mientras que
otros requieren tarjetas de expansión. En el 2010 el hecho de que un equipo no
incorpore tarjeta de sonido, puede observarse en computadores que por
circunstancias profesionales no requieren de dicho servicio.
Características generales
Una tarjeta de sonido típica, incorpora un chip de sonido que por lo general
contiene el Conversor digital-analógico, el cual cumple con la importante
función de "traducir" formas de ondas grabadas o generadas digitalmente en
una señal analógica y viceversa. Esta señal es enviada a un conector (para
auriculares) en donde se puede conectar cualquier otro dispositivo como un
amplificador, un altavoz, etc. Para poder grabar y reproducir audio al mismo
tiempo con la tarjeta de sonido debe poseer la característica "full-duplex" para
que los dos conversores trabajen de forma independiente.
Los diseños más avanzados tienen más de un chip de sonido, y tienen la
capacidad de separar entre los sonidos sintetizados (usualmente para la
generación de música y efectos especiales en tiempo real utilizando poca
cantidad de información y tiempo del microprocesador y quizá compatibilidad
MIDI) y los sonidos digitales para la reproducción.
Esto último se logra con DACs (por sus siglas en inglés Digital-AnalogConversor o Conversor-Digital-Analógico), que tienen la capacidad de
reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles
efectos en tiempo real como el filtrado o distorsión. Algunas veces, la
reproducción digital de multi-canales puede ser usado para sintetizar música si
es combinado con un banco de instrumentos que por lo general es una
pequeña cantidad de memoria ROM o flash con datos sobre el sonido de
distintos instrumentos musicales. Otra forma de sintetizar música en las PC es
por medio de los "códecs de audio" los cuales son programas diseñados para
esta función pero consumen mucho tiempo de microprocesador. Esta también
nos sirve para teléfonos móviles en la tecnología celular del mundo moderno de
tal modo que estos tengan una mayor capacidad de bulla. La mayoría de las
tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual
puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo
como micrófonos, reproductores de casetes entre otros y luego así la tarjeta de
sonido puede digitalizar estas ondas y guardarlas en el disco duro del
computador.
Otro conector externo que tiene una tarjeta de sonido típica es el conector para
micrófono. Este conector está diseñado para recibir una señal proveniente de
dispositivos con menor voltaje al utilizado en el conector de entrada "Line-In".
Funcionalidades
Las operaciones básicas que permiten las tarjetas de sonido convencionales
son las siguientes:

Grabación: La señal acústica procedente de un micrófono u otras
fuentes se introduce en la tarjeta por los conectores. Esta señal se
transforma convenientemente y se envía al computador para su
almacenamiento en un formato específico.

Reproducción: La información de onda digital existente en la máquina se
envía a la tarjeta. Tras cierto procesado se expulsa por los conectores
de salida para ser interpretada por un altavoz u otro dispositivo.

Síntesis:
El
sonido
también
se
puede
codificar
mediante
representaciones simbólicas de sus características (tono, timbre,
duración...), por ejemplo con el formato MIDI. La tarjeta es capaz de
generar, a partir de esos datos, un sonido audible que también se envía
a las salidas.
Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal,
como compresión o introducción de efectos. Estas opciones se pueden aplicar
a las tres operaciones.
Componentes
Esquema de una tarjeta de sonido.
La figura siguiente muestra un diagrama simplificado de los componentes
típicos de una tarjeta de sonido. En él se indica cuál es la información que viaja
por cada enlace.
Interfaz con placa madre
Sirve para transmitir información entre la tarjeta y el computador. Puede ser de
tipo PCI, ISA, PCMCIA, USB, etc.
Buffer
La función del buffer es almacenar temporalmente los datos que viajan entre la
máquina y la tarjeta, lo cual permite absorber pequeños desajustes en la
velocidad de transmisión. Por ejemplo, si la CPU no envía un dato a tiempo, la
tarjeta puede seguir reproduciendo lo que tiene en el buffer; si lo datos llegan
demasiado rápido, se van guardando. Lo mismo pasa en sentido inverso.
Muchos ordenadores realizan la transmisión por DMA. Esto permite transportar
los datos entre la tarjeta y la memoria directamente, sin la intervención de la
CPU, lo cual le ahorra trabajo.
DSP (Procesador de señal digital)
Procesador de señal digital. Es un pequeño microprocesador que efectúa
cálculos y tratamientos sobre la señal de sonido, liberando así a la CPU de ese
trabajo. Entre las tareas que realiza se incluye compresión (en la grabación) y
descompresión (en la reproducción) de la señal digital. También puede
introducir efectos acústicos tales como coros, reverberación, etc., a base de
algoritmos.
Los DSP suelen disponer de múltiples canales para procesar distintos flujos de
señal en paralelo. También pueden ser full-duplex, lo que les permite manipular
datos en ambos sentidos simultáneamente.
ADC (Conversor analógico-digital)
Conversor analógico-digital. Se encarga de transformar la señal de sonido
analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases:
muestreo, cuantificación y codificación. Como resultado se obtiene una
secuencia de valores binarios que representan el nivel de tensión en un
momento concreto.
El número de bits por muestra es fijo, y suele ser 16. La frecuencia de
muestreo se puede controlar desde el PC, y normalmente es una fracción de
44.1kHz.
DAC (Conversor digital-analógico)
Conversor digital-analógico. Su misión es reconstruir una señal analógica a
partir de su versión digital. Para ello el circuito genera un nivel de tensión de
salida de acuerdo con los valores que recibe, y lo mantiene hasta que llega el
siguiente. En consecuencia se produce una señal escalonada, pero con la
suficiente frecuencia de muestreo puede reproducir fielmente la original.
Sintetizador FM (modulación de frecuencia)
La síntesis por modulación de frecuencias implementa uno de los métodos de
sintetizar sonido a partir de información simbólica (MIDI). Su funcionamiento
consiste en variar la frecuencia de una onda portadora sinusoidal en función de
una onda moduladora. Con esto se pueden conseguir formas de onda
complejas con múltiples armónicos, que son lo que define el timbre. El tono y
volumen del sonido deseado los determinan la frecuencia fundamental y la
amplitud de la onda. Los primeros sintetizadores FM generaban una señal
analógica. Sin embargo, posteriormente se han desarrollado versiones que
trabajan digitalmente. Esto da más flexibilidad y por tanto más expresividad a la
generación de ondas, a la vez que permite someter la señal a tratamiento
digital.
Sintetizador por Tabla de Ondas
La síntesis mediante tabla de ondas es un método alternativo al FM. En vez de
generar sonido de la nada, utiliza muestras grabadas de los sonidos de
instrumentos reales. Estas muestras están almacenadas en formato digital en
una memoria ROM incorporada, aunque también pueden estar en memoria
principal y ser modificables. El sintetizador busca en la tabla el sonido que más
se ajusta al requerido en cada momento.
Antes de enviarlo realiza algunos ajustes sobre la muestra elegida, como
modificar el volumen, prolongar su duración mediante un bucle, o alterar su
tono a base de aumentar o reducir la velocidad de reproducción. Este
componente puede tener una salida analógica o digital, aunque es preferible la
segunda. En general el sonido resultante es de mayor calidad que el de la
síntesis FM. Alternativamente, este proceso puede ser llevado a cabo
enteramente por software, ejecutado por la CPU con muestras almacenadas en
disco y un algo coste de la tarjeta.
Mezclador
El mezclador tiene como finalidad recibir múltiples entradas, combinarlas
adecuadamente, y encaminarlas hacia las salidas. Para ello puede mezclar
varias señales (por ejemplo, sacar por el altavoz sonido reproducido y
sintetizado) o seleccionar alguna de ellas (tomar como entrada el micrófono
ignorando el Line-In). Este comportamiento se puede configurar por software.
Tanto las entradas como las salidas pueden proceder de la tarjeta o del
exterior. El mezclador suele trabajar con señales analógicas, aunque también
puede manejar digitales (S/PDIF).
Conectores
Son los elementos físicos en los que deben conectarse los dispositivos
externos, los cuales pueden ser de entrada o de salida. Casi todas las tarjetas
de sonido se han adaptado al estándar PC 99 de Microsoft que consiste en
asignarle un color a cada conector externo, de este modo:
Color
Función
Rosa
Entrada analógica para micrófono.
Azul
Entrada analógica "Line-In"
Verde
Negro
Salida analógica para la señal estéreo principal (altavoces
frontales).
Salida analógica para altavoces traseros.
Plateado Salida analógica para altavoces laterales.
Naranja
Salida Digital SPDIF (que algunas veces es utilizado como salida
analógica para altavoces centrales).
Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son
los minijack al ser los más económicos. Con los conectores RCA se consigue
mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco,
uno para el canal derecho y otro para el izquierdo. A nivel profesional se
utilizan las entras y salidas S/PDIF, también llamadas salidas ópticas digitales,
que trabajan directamente con sonido digital eliminando las pérdidas de calidad
en las conversiones. Para poder trabajar con dispositivos MIDI se necesita la
entrada y salida MIDI.
ASPECTOS DE LA SEÑAL
Muestreo de sonido
Para producir un sonido el altavoz necesita una posición donde golpear, que
genera, dependiendo del lugar golpeado, una vibración del aire diferente que
es la que capta el oído humano. Para determinar esa posición se necesita una
codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número
de posiciones diferentes se es capaz de representar.
Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256
posiciones diferentes donde golpear. Sin embargo con 16 bits se conseguirían
65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se
quiera trabajar con un margen de error que impida que la muestra cambie
significativamente.
Frecuencia de muestreo
Las tarjetas de sonido y todos los dispositivos que trabajan con señales
digitales lo pueden hacer hasta una frecuencia límite, mientras mayor sea esta
mejor calidad se puede obtener. Las tarjetas de sonido que incluían los
primeros modelos de Apple Macintosh tenían una frecuencia de muestreo de
22050 Hz (22,05 KHz) de manera que su banda de frecuencias para grabar
sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que
proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras
tarjetas estereofónicas tenían una frecuencia de muestreo de 44100 Hz (igual
que los reproductores de CD) con lo que la banda útil se extendió hasta los 20
KHz (alta calidad) pero se obtiene un sonido más claro cuando se eleva un
poco esta frecuencia pues hace que los circuitos de filtrado funcionen mejor,
por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en
sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22
KHz.
Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero
si los equipos se extienden más allá de este límite se tiene una mejor calidad,
también que la frecuencia de muestreo (del convertidor) debe ser de más del
doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica).
Finalmente los nuevos formatos de alta definición usan frecuencias de
muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no
porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir
las que si se oyen.
Canales de sonido y polifonía
Otra característica importante de una tarjeta de sonido es su polifonía. Es el
número de distintas voces o sonidos que pueden ser tocados simultánea e
independientemente. El número de canales se refiere a las distintas salidas
eléctricas, que corresponden a la configuración del altavoz, como por ejemplo
2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. En la actualidad se utilizan las
tarjetas de sonido envolvente (surround), principalmente Dolby Digital 8.1 o
superior. El número antes del punto (8) indica el número de canales y altavoces
satélites, mientras que el número después del punto (1) indica la cantidad de
subwoofers.
En
ocasiones
los
términos
voces
y
canales
se
usan
indistintamente para indicar el grado de polifonía, no la configuración de los
altavoces.
Así funcionan
Las dos funciones principales de estas tarjetas son la generación o
reproducción de sonido y la entrada o grabación del mismo. Para reproducir
sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales.
Este sintetizador solía emplear la tecnología FM, que emula el sonido de
instrumentos reales mediante pura programación; sin embargo, una técnica
relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla
de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un
gran salto en calidad de la reproducción, ya que se pasa de simular
artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica
suelen incluir una memoria ROM donde almacenan dichos "samples";
normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de
modo que se nos permita incorporar más instrumentos a la misma.
Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe
permitir que se añada la mayor cantidad posible de memoria. Algunos modelos
admiten hasta 28 Megas de RAM (cuanta más, mejor).
Efectos
Una tarjeta de sonido también es capaz de manipular las formas de onda
definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador
Digital de Señales), que le permite obtener efectos de eco, reverberación,
coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal
Processor, Procesador de Señal Avanzado), que amplía considerablemente la
complejidad de los efectos.Por lo que a mayor variedad de efectos, más
posibilidades ofrecerá la tarjeta.
Polifonía
¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos
refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la
tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer
de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en
día no debemos conformarnos con menos de 32 voces. Las tarjetas más
avanzadas logran incluso 64 voces mediante sofisticados procesadores,
convirtiéndolas en el llamado segmento de la gama alta.
MIDI
La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se
trata de un estándar creado por varios fabricantes, que permite la conexión de
cualquier instrumento, que cumpla con esta norma, al ordenador, e
intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento
desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para
ello se utilizan los llamados secuenciadores MIDI.
En este apartado hay poco que comentar. Simplemente, si vamos a emplear
algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya
los conectores DIN apropiados para engancharla al instrumento en cuestión, y
el software secuenciador adecuado, que también suele regalarse con el
periférico.
Un detalle que conviene comentar en este artículo, es que en el mismo puerto
MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario,
puesto que normalmente los conocidos equipos Pentium no incorporan de
fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos
antecesores, los ordenadores 486.
Frecuencia de muestreo
Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para
que el ordenador pueda tratar el sonido, debe convertirlo de su estado original
(analógico) al formato que él entiende, binario (digital). En este proceso se
realiza lo que se denomina muestreo, que es recoger la información y
cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se
realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea
esta, más calidad tendrá el sonido, porque más continua será la adquisición del
mismo.
Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo
es la que marcará la calidad de la grabación; por tanto, es preciso saber que la
frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener
una calidad comparable a la de un disco compacto.
En algunos casos, el fabricante posee controladores que añaden funcionalidad
full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que
puede ser una buena idea ir a la página Web del fabricante en cuestión.
Por último, y aunque sea de pasada, puesto que se trata de un requisito casi
obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al
cien por cien con la normativa Plug and Play; seguro que muchos lo
agradecerán.
La compatibilidad
Indudablemente, en estos momentos, el mercado de las tarjetas de sonido
tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que
se precie debe mantener una total compatibilidad con el estándar impuesto por
la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows
Sound System de Microsoft. Pero todos los juegos y programas que utilizan
sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre
este tema no hay mucho más que comentar.
Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por
hardware. La compatibilidad vía soft puede tener algunas limitaciones;
principalmente, puede ser fuente de problemas con programas que accedan a
bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los
controladores de emulación deben estar bien diseñados, optimizados y
comprobados, para no caer en incompatibilidades, justo lo contrario de lo que
se desea alcanzar. Por tanto, es preferible la emulación por hardware.
13.
USB 1.1, 2.0, 3.0
USB
Por sus siglas Universal Serial Bus
El puerto USB es una entrada o acceso para que el usuario pueda compartir
información almacenada en diferentes dispositivos como una cámara de fotos,
una memoria USB, entre otros, con una computadora.
Al crear esta tecnología se fue dejando atrás los antiguos puertos en paralelo y
serial y se aumentó la velocidad de trabajo de los dispositivos a 12 mbps en
promedio, esto es más o menos de 3 a 5 veces más rápido que un dispositivo
de puerto paralelo y de 20 a 40 veces más rápido que un dispositivo de puerto
serial.
Los aparatos conectados a un puerto USB estándar no necesitan estar
enchufados a la corriente o disponer de baterías para funcionar. El propio
puerto está diseñado para transmitir energía eléctrica al dispositivo conectado.
Incluso puede haber varios aparatos conectados simultáneamente, sin
necesidad de recurrir a una fuente de alimentación externa.
Una de sus características principales es su capacidad plug & play. Este
concepto se refiere a la cualidad de que con sólo conectar el dispositivo al
servidor central, éste sea capaz de interpretar la información almacenada y
reproducirla inmediatamente. Es decir, que la computadora y el aparato hablen
el mismo idioma y se entiendan entre sí. Además, este sistema permite
conectar y desconectar los diferentes dispositivos sin necesidad de reiniciar el
equipo.
Esta forma de conexión también ha ido evolucionando en el tiempo:

USB 0.9: Primer borrador, publicado en Noviembre de 1995.

USB 1.0: Publicada en 1996 establece dos tipos de conexión: La
primera, denominada velocidad baja (“Low speed”), ofrece 1.5 Mbps, y
está pensada para periféricos que no requieren un gran ancho de banda,
como ratones o joysticks. La segunda, denominada velocidad completa
(“Full speed”), es de 12 Mbps, y está destinada a los dispositivos más
rápidos.

USB 1.1: Publicada en 1998, añade detalles y precisiones a la norma
inicial; es el estándar mínimo que debe cumplir un dispositivo USB.

USB 2.0: Su versión final fue publicada en Abril del 2000; es una
extensión de la norma compatible con las anteriores.
Permite
velocidades de hasta 480 Mbps, denominada alta velocidad (“High
speed”)
La masificación de los puertos USB es cada día mayor. Además de la mejora
en la velocidad de transferencia y su cualidad plug & play, su capacidad de
conectar los aparatos es muy simple y no requiere de instalaciones complejas
ni de intervenir en el hardware de los computadores. Hoy en día, es común que
los discos duros traigan incorporados varios puertos USB para facilitar la
conectividad de los aparatos.
Funcionamiento
Trabaja como interfaz para transmisión de datos y distribución de energía, que
ha sido introducida en el mercado de PC’s y periféricos para mejorar las lentas
interfaces serie (RS-232) y paralelo. Esta interfaz de 4 hilos, 12 Mbps y “plug
and play”, distribuye 5V para alimentación, transmite datos y está siendo
adoptada rápidamente por la industria informática.
Es un bus basado en el paso de un testigo, semejante a otros buses como los
de las redes locales en anillo con paso de testigo y las redes FDDI. El
controlador USB distribuye testigos por el bus. El dispositivo cuya dirección
coincide con la que porta el testigo responde aceptando o enviando datos al
controlador. Este también gestiona la distribución de energía a los periféricos
que lo requieran.
Emplea una topología de estrellas apiladas que permite el funcionamiento
simultáneo de 127 dispositivos a la vez. En la raíz o vértice de las capas, está
el controlador anfitrión o host que controla todo el tráfico que circula por el bus.
Esta topología permite a muchos dispositivos conectarse a un único bus lógico
sin que los dispositivos que se encuentran más abajo en la pirámide sufran
retardo. A diferencia de otras arquitecturas, USB no es un bus de
almacenamiento y envío, de forma que no se produce retardo en el envío de un
paquete de datos hacia capas inferiores.
El sistema de bus serie universal USB consta de tres componentes:

Controlador

Hubs o Concentradores

Periféricos
Controlador
Reside dentro del PC y es responsable de las comunicaciones entre los
periféricos USB y la CPU del PC. Es también responsable de la admisión de los
periféricos dentro del bus, tanto si se detecta una conexión como una
desconexión. Para cada periférico añadido, el controlador determina su tipo y le
asigna una dirección lógica para utilizarla siempre en las comunicaciones con
el mismo. Si se producen errores durante la conexión, el controlador lo
comunica a la CPU, que, a su vez, lo transmite al usuario. Una vez se ha
producido la conexión correctamente, el controlador asigna al periférico los
recursos del sistema que éste precise para su funcionamiento.
El controlador también es responsable del control de flujo de datos entre el
periférico y la CPU.
Concentradores o Hubs
Son distribuidores inteligentes de datos y alimentación, y hacen posible la
conexión a un único puerto USB de 127 dispositivos. De una forma selectiva
reparten datos y alimentación hacia sus puertas descendentes y permiten la
comunicación hacia su puerta de retorno o ascendente. Un hub de 4 puertos,
por ejemplo, acepta datos del PC para un periférico por su puerta de retorno o
ascendente y los distribuye a las 4 puertas descendentes si fuera necesario.
Los concentradores también permiten las comunicaciones desde el periférico
hacia el PC, aceptando datos en las 4 puertas descendentes y enviándolos
hacia el PC por la puerta de retorno.
Además del controlador, el PC también contiene el concentrador raíz. Este es
el primer concentrador de toda la cadena que permite a los datos y a la energía
pasar a uno o dos conectores USB del PC, y de allí a los 127 periféricos que,
como máximo, puede soportar el sistema. Esto es posible añadiendo
concentradores adicionales. Por ejemplo, si el PC tiene una única puerta USB y
a ella le conectamos un hub o concentrador de 4 puertas, el PC se queda sin
más puertas disponibles. Sin embargo, el hub de 4 puertas permite realizar 4
conexiones descendentes. Conectando otro hub de 4 puertas a una de las 4
puertas del primero, habremos creado un total de 7 puertas a partir de una
puerta del PC. De esta forma, es decir, añadiendo concentradores, el PC
puede soportar hasta 127 periféricos USB.
La mayoría de los concentradores se encontrarán incorporados en los
periféricos. Por ejemplo, un monitor USB puede contener un concentrador de 7
puertas incluido dentro de su chasis. El monitor utilizará una de ellas para sus
datos y control y le quedarán 6 para conectar allí otros periféricos.
Periféricos
USB soporta periféricos de baja y media velocidad. Empleando dos
velocidades para la transmisión de datos de 1. 5 y 12 Mbps se consigue una
utilización más eficiente de sus recursos. Los periféricos de baja velocidad tales
como teclados, ratones, joysticks, y otros periféricos para juegos, no requieren
12 Mbps. Empleando para ellos 1,5 Mbps, se puede dedicar más recursos del
sistema a periféricos tales como monitores, impresoras, módems, scanner,
equipos de audio, etc. que precisan de velocidades más altas para transmitir
mayor volumen de datos o datos cuya dependencia temporal es más estricta.
Cables y conectores
Existen dos tipos de cable: apantallado y sin
Pin Nombre Descripción Color
apantallar. En el primer caso el par de hilos 1
de señal es trenzado; los de tierra y
VBUS
+ 5 V. CC
rojo
alimentación son rectos, y la cubierta de 2
D-
Data -
azul
3
D+
Data +
amarillo
4
GND
Tierra
verde
protección (pantalla) solo puede conectarse
a tierra en el anfitrión. En el cable sin
apantallar todos los hilos son rectos. Las
conexiones a 15 Mbps y superiores exigen
cable apantallado.
AWG mm Ø
Long.
Máx.
Se utilizan diámetros estándar para los hilos de
alimentación del bus. Para cada sección se autoriza
28
0.321 0.81 m
26
0.405 1.31 m
24
0.511 2.08 m
identificación.
22
0.644 3.33 m
Se usan dos tipos de conectores, A y B. Ambos son
una longitud máxima del segmento.
En la tabla
izquierda se muestran estas distancias; a la derecha
se muestran la disposición de pines y colores de
polarizados (solo pueden insertarse en una posición) y
20
0.812 5.00 m
utilizan sistemas de presión para sujetarse. Los de
tipo A utilizan la hembra en el sistema anfitrión, y
suelen usarse en dispositivos en los que la conexión es permanente (por
ejemplo, ratones y teclados). Los de tipo B utilizan la hembra en el dispositivo
USB (función), y se utilizan en sistemas móviles (por ejemplo, cámaras
fotográficas o altavoces). En general podemos afirmar que la hembra de los
conectores A están en el lado del host (PC) o de los concentradores (hubs),
mientras las de tipo B están del lado de los periféricos.
Conector tipo A
Conector tipo B
Ventajas

Todos los periféricos que enchufes al USB gastan una única IRQ.

Amplio catálogo de modernos periféricos: ratones, teclados, escáneres,
cámaras fotográficas, monitores, discos duros, etc.

Se puede enchufar con el periférico y el ordenador encendido.

El periférico puede alimentarse de este puerto, por lo que si no gasta
mucho, no necesita fuente de alimentación.

Se necesitan menos componentes, por lo que los periféricos deben ser
más baratos.

Facilita la compatibilidad entre Mac y PC.

Podemos enchufar un gran número de periféricos a un sólo PC (en
teoría 127 por puerto) que por otros medios sería imposible por las
limitaciones de IRQs.
Desventajas

Estos dispositivos no funcionan en versiones antiguas de Windows, ni en
Linux con núcleos muy viejos, algo a tener en cuenta en periféricos
esenciales

como
teclados,
ratones,
monitores,
impresoras,
etc.
Windows 98 puede tener problemas para detectar discos duros USB, si
esto ocurre desconecte el dispositivo.

Algunas impresoras con puerto USB son winprinters, es decir, sólo
funcionan en Windows aunque algunas también pueden usar Linux no
sin ciertas dificultades para su configuración.

Los módems USB casi todos están creados para funcionar en Windows.

Los cables USB para conectar dos equipos pueden dar problemas en
algunos Linux o en cierto Windows.

Los escáneres USB son bastante más estables que los que van por
puerto paralelo pero mucho menos que los basados en SCSI.

Efectivamente muchos periféricos USB no necesitan un rectificador para
alimentarse, pero debemos recordar que la energía tiene que salir de
algún sitio, que no es otro que nuestra fuente de alimentación que debe
tener cierta potencia para no tener problemas al cargar demasiado el
equipo con muchos periféricos de este tipo.
Conclusiones:
1. Es más útil para unos periféricos que para otros.
2. Suele ser la solución más cómoda pero no siempre la más adecuada
(sobre todo módems).
3. El USB es el futuro pero en el también tienen que escucharse a los
usuarios, o será un futuro muy corto.
4. Es muy interesante que un ordenador tenga USB como complemento a
los puertos tradicionales pero no como sustituto ni imposición de los
fabricantes. De hecho mejor que traiga al menos 5 porque pronto nos
quedaremos cortos con 2.
14.
WI-FI
Historia
Nokia y symbol Technologies crearon en 1999 crearon una asociación
conocida como WECA (Wireless Ethernet Compatibility
Alliance). Esta
asociación pasó a denominarse Wifi Alliance en 2003. El objetivo de la misma
fue crear una marca que permitiese fomentar más facilmente la tecnología
inalámbrica y asegurar la compatibilidad de equipos.
En esta forma en abril del 2000 WECA certifica la interoperabilidad de equipos
según la norma IEEE.802.11b, bajo la marca Wi-fi.
Esto quiere decir que el usuario tiene la garantía de que todos los equipos que
tengan sello Wi-Fi pueden trabajar juntos sin problemas, independientemente
del fabricante de cada uno de ellos. Se puede obtener un listado completo de
equipos que tienen la certificación Wi-Fi en Alliance.
La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas
fisicas y Mac de la norma 802.3 (Ethernet) esto quiere decir que en lo unico
que se difernecia una red Wi-Fi de una red Ethernet es en como se trasmiten
las tramas o paquetes de datos; el resto es idéntico.
El nombre Wi-Fi
Aunque se pensaba que el término viene de Wireless Fidelity como equivalente
a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la
WECA contrató a una empresa de publicidad para que le diera un nombre a su
estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger,
miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi.
Estándares que cerfitica Wi-Fi.
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE
802.11 aprobado, son los siguientes:

Los estándares IEEE 802.11b, IEEE 802.11g, e IEEE 802.11n disfrutan
de una aceptación internacional debido a que la banda de 2.4 GHz está
disponible casi universalmente, con una velocidad de hasta 11 Mbps y
300 Mbps respectivamente.

En la actualidad ya se maneja también el estándar IEEE 802.11a,
conocido como WiFi5 que opera en una banda de 5GHz y que disfruta
de una operatividad con canales relativamente limpios. La banda de
5GHz ha sido recientemente habilitada, y además, no existen otras
tecnologías que la estén utilizando, por lo tanto existen muy pocas
interferencias. Su alcance es algo menor que los estandáres que
trabajan a 2.4GHz
(aproximadamente un 10%) debido a que la
frecuencia es mayor (a mayor frecuencia menor alcance).

Un primer borrador del estándar IEEE 802.11n que trabaja a 2.4GHz y a
una velocidad de 108 Mbps. Sin embargo el estándar 802.11g es capaz
de alcanzar ya transferencias a 108 Mbps gracias a diversas técnicas de
aceleramiento. Actualmente existen ciertos dispositivos que permiten
utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan
a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con WiFi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se
actualizó su especificación para que no existieran interferencias con la
utilización simultánea de ambas tecnologías, además se necesita tener 40.000
k de velocidad.
Seguridad y Fiabilidad
Uno de los problemas a los cuales se enfrenta actualmente la tecnología Wi-Fi
es la progresiva saturación del espectro radioeléctrico, debido a la masificación
de usuarios, esto afecta especialmente en las conexiones de larga distancia
(mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar
ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance
está expuesto a un excesivo riesgo de interferencias.
Un muy elevado porcentaje de redes son instalados sin tener en consideración
la seguridad convirtiendo así sus redes en redes abiertas (o completamente
vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las
más comunes son la utilización de protocolos de cifrado de datos para los
estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de
codificar la información transmitida para proteger su confidencialidad,
proporcionados por los propios dispositivos inalámbricos. La mayoría de las
formas son las siguientes:

WEP, cifra los datos en su red de forma que sólo el destinatario deseado
pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de
seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado
antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado,
debido a las grandes vulnerabilidades que presenta, ya que cualquier
cracker puede conseguir sacar la clave.

WPA: presenta mejoras como generación dinámica de la clave de
acceso. Las claves se insertan como de dígitos alfanuméricos, sin
restricción de longitud

IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares
IEEE 802.1X, que permite la autenticación y autorización de usuarios.

Filtrado de MAC, de manera que sólo se permite acceso a la red a
aquellos dispositivos autorizados. Es lo más recomendable si solo se va
a usar con los mismos equipos, y si son pocos.

Ocultación del punto de acceso: se puede ocultar el punto de acceso
(Router) de manera que sea invisible a otros usuarios.

El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una
mejora relativa a WPA. En principio es el protocolo de seguridad más
seguro para Wi-Fi en este momento. Sin embargo requieren hardware y
software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas
son susceptibles de ser vulneradas.
Dispositivos
Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de
forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos
de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para
conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien
USB.

Los puntos de acceso funcionan a modo de emisor remoto, es decir, en
lugares donde la señal Wi-Fi del router no tenga suficiente radio se
colocan estos dispositivos, que reciben la señal bien por un cable UTP
que se lleve hasta él o bien que capturan la señal débil y la amplifican
(aunque para este último caso existen aparatos especializados que
ofrecen un mayor rendimiento).

Los router son los que reciben la señal de la línea ofrecida por el
operador de telefonía. Se encargan de todos los problemas inherentes a
la recepción de la señal, incluidos el control de errores y extracción de la
información, para que los diferentes niveles de red puedan trabajar.
Además, el router efectúa el reparto de la señal, de forma muy eficiente.
Además de routers, hay otros dispositivos que pueden encargarse de la
distribución de la señal, aunque no pueden encargarse de las tareas de
recepción, como pueden ser hubs y switches. Estos dispositivos son mucho
más sencillos que los routers, pero también su rendimiento en la red de
área local es muy inferior.
Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI,
tarjetas PCMCIA y tarjetas USB:

Tarjeta USB para Wi-Fi.

Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de
sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas
USB.

Las tarjetas PCMCIA son un modelo que se utilizó mucho en los
primeros ordenadores portátiles, aunque están cayendo en desuso,
debido a la integración de tarjeta inalámbricas internas en estos
ordenadores. La mayor parte de estas tarjetas solo son capaces de
llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar
de una velocidad de transmisión demasiado elevada

Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe
y más sencillo de conectar a un pc, ya sea de sobremesa o portátil,
haciendo uso de todas las ventajas que tiene la tecnología USB.
Además, algunas ya ofrecen la posibilidad de utilizar la llamada
tecnología PreN, que aún no está estandarizada.

También existen impresoras, cámaras Web y otros periféricos que
funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho
cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores
Wireless”
Ventajas y Desventajas
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos
destacar:

Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a
las redes cableadas porque cualquiera que tenga acceso a la red puede
conectarse desde distintos puntos dentro de un rango suficientemente
amplio de espacio.

Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples
ordenadores sin ningún problema ni gasto en infraestructura, no así en
la tecnología por cable.

La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la
marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos
utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre,
por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas
intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:

Una de las desventajas que tiene el sistema Wi-Fi es una menor
velocidad en comparación a una conexión con cables, debido a las
interferencias y pérdidas de señal que el ambiente puede acarrear.

La desventaja fundamental de estas redes existe en el campo de la
seguridad. Existen algunos programas capaces de capturar paquetes,
trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que
puedan calcular la contraseña de la red y de esta forma acceder a ella.
Las claves de tipo WEP son relativamente fáciles de conseguir con este
sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar
WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i.
Las redes protegidas con WPA2 se consideran robustas dado que
proporcionan
muy buena
seguridad.
De
todos modos muchas
compañías no permiten a sus empleados tener una red inalámbrica.

Este problema se agrava si consideramos que no se puede controlar el
área de cobertura de una conexión, de manera que un receptor se
puede conectar desde fuera de la zona de recepción prevista (e.g. desde
fuera de una oficina, desde una vivienda colindante).

Hay que señalar que esta tecnología no es compatible con otros tipos de
conexiones sin cables como Bluetooth, GPRS, UMTS, etc.
Descargar