Hablar sobre el microprocesador

Anuncio
Hablar sobre el microprocesador
El microprocesador es el cerebro del ordenador. Se encarga de realizar todas las operaciones de
cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para
que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más
trabaja.
En los equipos actuales se habla fundamentalmente de los procesadores Pentium D o Core 2 Dúo de
Intel y Athlon 64 y Athlon 64 X2 de AMD. Además, están muy extendidos procesadores no tan
novedosos, como los Pentium 4 de Intel y los chips Athlon XP de AMD.
Historia de los primeros microprocesadores
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la
compañía pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con
más del 90 por ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el
que desde aquel 4004 hasta el actual Pentium II hemos visto pasar varias generaciones de
máquinas que nos han entretenido y nos han ayudado en el trabajo diario.
Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando
información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos
menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos quince
años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los
procesadores desde el año 1984, para el año 2011 utilizaremos procesadores cuyo reloj irá a una
velocidad de 10 GHz (10.000 MHz), contendrán mil millones de transistores y será capaz de
procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, que
permitirá realizar tareas nunca antes pensadas.
Los inicios
Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes
situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del
año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los
procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso,
quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de
1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj
sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus
de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que
para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de
comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la
calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de
su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la
memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores,
casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que
serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan
esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la
nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la
que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y
el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de
velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses,
logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador
que la gente podía comprar, y no ya simplemente utilizar.
La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de
IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de
1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores
8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de
ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada
por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos
procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5,
8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de
memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su
antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En
cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de
8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la
aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se
podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga.
También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de
Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los
anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología
de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8,
10 y 12 MHz En términos de rendimiento, podíamos decir que se había multiplicado entre tres y
seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva,
sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus
propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que
se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15
millones de ordenadores en todo el mundo.
Microsoft también juega
El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la
aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que
suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a
su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de
100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un
máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha
superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba
un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX,
que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos
procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por
Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los
usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por
ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se
popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo
conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió
que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos
mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989
apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la
incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la
transferencia de datos de este caché al procesador, así como la aparición del co-procesador
matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era
en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban
el millón de transistores usando la tecnología de una micra (aunque en la versión de este
procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de
programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había
pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del
intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor
y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte,
Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años
después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso
co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas
personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.
Llega el Pentium
Sin embargo, Intel no se quedó contemplando la gran obra que había creado, y rápidamente
anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de
forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium,
conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la
prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores
pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una
palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban
utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y
por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle
una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los
Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y
programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han
llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se
lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se
hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos
exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador
de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que
actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema
operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador
486, lo hace sin sacar el máximo partido de sus funciones.
Pentium Pro y Pentium II
La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de
red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito
doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la
arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo
que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador
contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad
de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las
frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de
150 MHz Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico,
puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en
este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el
mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede
tirar un mercado en constante evolución.
Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium
II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el
MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado
Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de
este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de
velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de
portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de
Intel.
El futuro de los microprocesadores
La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de
millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de
Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la
nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el
momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en
un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento
con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva
tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea
del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño
que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el
procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo
que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una
simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula
entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar
pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en
cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece
insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar,
nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se
utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el
momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos
disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil
millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10
GHz
La tecnología MMX
Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto
no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la
presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados
del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio
rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de
descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de
imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos
que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del
tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4
tipos de datos nuevos, que se encargan de realizar esos trabajos cíclicos consumiendo mucho
menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones
de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción
aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento
de 8x.
2.- Describir la BIOS de una PC
El BIOS (sigla en inglés de basic input/output Systems; en español "sistema básico de entrada y
salida") es un software que localiza y reconoce todos los dispositivos necesarios para cargar el
sistema operativo en la memoria RAM; es un software muy básico instalado en la placa base que
permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el
funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y
proporciona una salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si
se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador.
El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y describe la parte de CP/M
que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de
CP/M usualmente tenían un simple cargador arrancable en la memoria de sólo lectura, y nada más).
La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es
análogo al BIOS de CP/M.
El BIOS es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario
final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en la memoria RAM.
Posee un componente de hardware y otro de software; este último brinda una interfaz
generalmente de texto que permite configurar varias opciones del hardware instalado en el PC,
como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema
operativo (Microsoft Windows, GNU/Linux, Mac OS X, etc.).
El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida
bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún
error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error
son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un
equipo.
El BIOS antiguamente residía en memorias ROM o EPROM pero desde mediados de los 90 comenzó
a utilizarse memorias flash que podían ser actualizadas por el usuario. Es un programa tipo
firmware. El BIOS es una parte esencial del hardware que es totalmente configurable y es donde se
controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo
y los demás periféricos. También incluye la configuración de aspectos importantes de la máquina.
El listado de más abajo muestra toda la información almacenada en el BIOS;










Hora y Fecha
Número de Disqueteras
Información de las unidades de disquete (tamaño, número de pistas, sectores, cabezales,
etc.)
Número de discos duros
Información de los discos duros (tamaño, número de pistas, sectores, cabezales, modo, etc.)
Número de lectoras de CD-ROM
Información de las lectoras de CD-ROM (modo operativo, etc.)
Secuencia de Arranque ( Habilita al usuario a decidir que disco será chequeado primero en
el arranque)
Información sobre la memoria Cache (tamaño, tipo, velocidad, etc.)
Información sobre la memoria principal (tamaño, tipo, velocidad, etc.)
4.- Describir grafica y teóricamente al modem
Módem
Para otros usos de este término, véase Modem (desambiguación).
Un módem es un dispositivo que sirve para enviar una señal llamada moduladora mediante otra
señal llamada portadora. Se han usado módems desde los años 60, principalmente debido a que la
transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por
ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del
orden de cientos de metros) para su correcta recepción. Es habitual encontrar en muchos módems
de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse
cuando reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la
marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se
pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.
Cómo funciona
El modulador emite una señal denominada portadora. Generalmente, se trata de una simple señal
eléctrica sinusoidal de mucha mayor frecuencia que la señal moduladora. La señal moduladora
constituye la información que se prepara para una transmisión (un módem prepara la información
para ser transmitida, pero no realiza la transmisión). La moduladora modifica alguna característica
de la portadora (que es la acción de modular), de manera que se obtiene una señal, que incluye la
información de la moduladora. Así el demodulador puede recuperar la señal moduladora original,
quitando la portadora. Las características que se pueden modificar de la señal portadora son:



Amplitud, dando lugar a una modulación de amplitud (AM/ASK).
Frecuencia, dando lugar a una modulación de frecuencia (FM/FSK).
Fase, dando lugar a una modulación de fase (PM/PSK)
También es posible una combinación de modulaciones o modulaciones más complejas como la
modulación de amplitud en cuadratura.
Módems para PC
Módem antiguo (1994) externo.
La distinción principal que se suele hacer es entre módems internos y módems externos, aunque
recientemente han aparecido módems llamados "módems software", más conocidos como
"winmódems" o "linuxmódems", que han complicado un poco el panorama. También existen los
módems para XDSL, RDSI, etc. y los que se usan para conectarse a través de cable coaxial de 75
ohms (cable módems).

Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los
diferentes componentes que forman el módem. Existen para diversos tipos de conector:
o Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante
muchos años se utilizó en exclusiva este conector, hoy en día en desuso (obsoleto).
o Bus PCI: el formato más común en la actualidad, todavía en uso.
o AMR: en algunas placas; económicos pero poco recomendables por su bajo
rendimiento. Hoy es una tecnología obsoleta.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no
ocupan espacio sobre la mesa y reciben energía eléctrica directamente del propio ordenador.
Además, suelen ser algo más baratos debido a que carecen de carcasa y transformador,
especialmente si son PCI (en este caso, son casi todos del tipo "módem software"). Por el contrario,
son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse por
software.

Externos: similares a los anteriores, pero externos al ordenador o PDA. La ventaja de estos
módems reside en su fácil portabilidad entre ordenadores diferentes (algunos de ellos más
fácilmente transportables y pequeños que otros), además de que es posible saber el estado
del módem (marcando, con/sin línea, transmitiendo...) mediante los leds de estado que
incorporan. Por el contrario, y obviamente, ocupan más espacio que los internos.
Tipos de conexión

o
o
o
La conexión de los módems telefónicos externos con el ordenador se realiza
generalmente mediante uno de los puertos serie tradicionales o COM (RS232), por
lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la
suficiente velocidad de comunicación. La UART debe ser de 16550 o superior para
que el rendimiento de un módem de 28.800 bps o más sea el adecuado. Estos
módems necesitan un enchufe para su transformador.
Módems PC Card: son módems en forma de tarjeta, que se utilizaban en portátiles,
antes de la llegada del USB (PCMCIA). Su tamaño es similar al de una tarjeta de
crédito algo más gruesa, pero sus capacidades son las mismas que los modelos
estándares.
Existen modelos para puerto USB, de conexión y configuración aún más sencillas,
que no necesitan toma de corriente. Hay modelos tanto para conexión mediante
telefonía fija, como para telefonía móvil.

Módems software, HSP (Host Signal Processor) o Winmódems: son módems generalmente
internos, en los cuales se han eliminado varias piezas electrónicas (por ejemplo, chips
especializados), de manera que el microprocesador del ordenador debe suplir su función
mediante un programa. Lo normal es que utilicen como conexión una ranura PCI (o una
AMR), aunque no todos los módems PCI son de este tipo. El uso de la CPU entorpece el
funcionamiento del resto de aplicaciones del usuario. Además, la necesidad de disponer del
programa puede imposibilitar su uso con sistemas operativos no soportados por el
fabricante, de manera que, por ejemplo, si el fabricante desaparece, el módem quedaría
eventualmente inutilizado ante una futura actualización del sistema. A pesar de su bajo
coste, resultan poco o nada recomendables.

Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos, el
rendimiento depende casi exclusivamente de la velocidad del módem y de la UART del
ordenador, no del microprocesador.
Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica.
Las computadoras procesan datos de forma digital; sin embargo, las líneas telefónicas de la red
básica sólo transmiten señales analógicas.
Los métodos de modulación y otras características de los módems telefónicos están estandarizados
por el UIT-T (el antiguo CCITT) en la serie de Recomendaciones "V". Estas Recomendaciones
también determinan la velocidad de transmisión. Destacan:








V.21. Comunicación Full-Dúplex entre dos módems analógicos realizando una variación en
la frecuencia de la portadora de un rango de 300 baudios, logrando una transferencia de
hasta 300 bps (bits por segundo).
V.22. Comunicación Full-Dúplex entre dos módems analógicos utilizando una modulación
PSK de 600 baudios para lograr una transferencia de datos de hasta 600 o 1200 bps.
V.32. Transmisión a 9.600 bps.
V.32bis. Transmisión a 14.400 bps.
V.34. Estándar de módem que permite hasta 28,8 Kbps de transferencia de datos
bidireccionales (full-duplex), utilizando modulación en PSK.
V.34bis. Módem construido bajo el estándar V34, pero permite una transferencia de datos
bidireccionales de 33,6 Kbps, utilizando la misma modulación en PSK. (estándar aprobado
en febrero de 1998)
V.90. Transmisión a 56,6 kbps de descarga y hasta 33.600 bps de subida.
V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad de
subida se incrementa, pero sigue sin igualar a la de descarga.
Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de frecuencias
situado por encima de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por encima de los 80
KHz ocupados en las líneas RDSI, y permiten alcanzar velocidades mucho mayores que un módem
telefónico convencional. También poseen otras cualidades, como es la posibilidad de establecer una
comunicación telefónica por voz al mismo tiempo que se envían y reciben datos.
Tipos de modulación
Dependiendo de si el módem es digital o analógico se usa una modulación de la misma naturaleza.
Para una modulación digital se tienen, por ejemplo, los siguientes tipos de modulación:



ASK, (Amplitude Shift Keying, Modulación en Amplitud): la amplitud de la portadora se
modula a niveles correspondientes a los dígitos binarios de entrada 1 ó 0.
FSK, (Frecuency Shift Keying, Modulación por Desplazamiento de Frecuencia): la frecuencia
portadora se modula sumándole o restándole una frecuencia de desplazamiento que
representa los dígitos binarios 1 ó 0. Es el tipo de modulación común en modems de baja
velocidad en la que los dos estados de la señal binaria se transmiten como dos frecuencias
distintas.
PSK, (Phase Shift Keying, Modulación de Fase): tipo de modulación donde la portadora
transmitida se desplaza cierto número de grados en respuesta a la configuración de los
datos. Los módems bifásicos por ejemplo, emplean desplazamientos de 180º para
representar el dígito binario 0.
Pero en el canal telefónico también existen perturbaciones que el módem debe enfrentar para
poder transmitir la información. Estos trastornos se pueden enumerar en: distorsiones,
deformaciones y ecos. Ruidos aleatorios e impulsivos. Y por último las interferencias.
Para una modulación analógica se tienen, por ejemplo, los siguientes tipos de modulación:

AM Amplitud Modulada: la amplitud de la portadora se varía por medio de la amplitud de
la moduladora.

FM Frecuencia Modulada: la frecuencia de la portadora se varía por medio de la amplitud
de la moduladora.

PM Phase Modulation. Modulación de fase: en este caso el parámetro que se varía de la
portadora es la fase de la señal, matemáticamente es casi idéntica a la modulación en
frecuencia. Igualmente que en AM y FM, es la amplitud de la moduladora lo que se emplea
para afectar a la portadora.
Órdenes AT
Órdenes de comunicación

ATA: con esta orden el módem queda en espera de una llamada telefónica, comportándose
como un receptor (autoanswer).
Cada módem utiliza una serie de órdenes "AT" comunes y otras específicas. Por ello, se deberá
hacer uso de los manuales que acompañan al módem para configurarlo adecuadamente. Donde
cada uno de los módems son aplicados
Perfiles de funcionamiento
Existen 3 tipos de perfil para funcionamiento de los módems:
1. El de fábrica, (por defecto).
2. El activo.
3. El del usuario.
Estos perfiles están guardados en su memoria RAM no volátil y el perfil de fabrica está guardado en
ROM.
Hay dos opciones o lugares de memoria donde se pueden grabar los perfiles
1. AT&Y0, (al encender se carga el perfil = 0)
2. AT&Y1, (al encender se carga el perfil = 1)
Estas órdenes se envían antes de apagar el módem para que los cargue en su próximo encendido.
Cuando se escriben las órdenes "AT", dependiendo del tamaño del buffer del módem, se pueden ir
concatenando sin necesidad de escribir para cada uno de ellos el prefijo "AT". De esta forma, por
ejemplo cuando en un programa se pide una secuencia de inicialización del módem, se puede
incluir conjuntamente en una sola línea todos las órdenes necesarias para configurar el módem.
A continuación se describen los procesos que se llevan a cabo para establecer una comunicación a
través del módem:
Pasos para establecer una comunicación.
1) Detección del tono de línea. El módem dispone de un detector del tono de línea. Este se activa si
dicho tono permanece por más de un segundo. De no ser así, sea por que ha pasado un segundo sin
detectar nada o no se ha mantenido activado ese tiempo el tono, envía a la computadora el mensaje
"NO DIALTONE".
2) Marcación del número. Si no se indica el modo de llamada, primero se intenta llamar con tonos y
si el detector de tonos sigue activo, se pasa a llamar con pulsos. En el período entre cada dígito del
número telefónico, el IDP (Interdigit pulse), se continua atendiendo al detector de tono. Si en algún
IDP el detector se activa, la llamada se termina y se retorna un mensaje de BUSY. Una vez terminada
la marcación, se vuelve a atender al detector de tono para comprobar si hay conexión. En este caso
pueden suceder varias cosas:

Rings de espera. Se detectan y contabilizan los rings que se reciban, y se comparan con el
registro S1 del módem. Si se excede del valor allí contenido se retorna al mensaje "NO
ANSWER".


Si hay respuesta se activa un detector de voz/señal, la detección de la respuesta del otro
módem se realiza a través del filtro de banda alta (al menos debe estar activo 2 segundos).
Si el detector de tono fluctúa en un período de 2 segundos se retorna el mensaje "VOICE".
El mensaje "NO ANSWER" puede obtenerse si se produce un intervalo de silencio después
de la llamada.
3) Establecer el enlace. Implica una secuencia de procesos que dependen si se está llamando o si se
recibe la llamada.
Si se está llamando será:







Fijar la recepción de datos a 1.
Seleccionar el modo de baja velocidad.
Activar 0'6 segundos el tono de llamada y esperar señal de línea.
Desactivar señal de tono
Seleccionar modo de alta velocidad.
Esperar a recibir unos, después transmitir unos y activar la transmisión
Analizar los datos recibidos para comprobar que hay conexión. Si ésta no se consigue en el
tiempo límite fijado en el registro S7, se da el mensaje "NO CARRIER"; en caso contrario, se
dejan de enviar unos, se activa la señal de conexión, se desbloquea la recepción de datos y
se da el mensaje "CARRIER".
Si se está recibiendo será:






Selección del modo respuesta.
Desactivar el scrambler.
Seleccionar el modo de baja velocidad y activar el tono de respuesta (p. ej. 2.400 Hz
durante 3'3 s).
Desactivar el transmisor.
Esperar portadora, si no se recibe activar el transmisor, el modo de alta velocidad y el tono
a 1.800 Hz.
Esperar el tiempo indicado en S7, si no hay conexión envía el mensaje "NO CARRIER", si la
hay, indica "CONNECT", se activa el transmisor, el detector de portadora y la señal de
conexión.
En resumen los pasos para establecimiento de una conexión son:
1. La terminal levanta la línea DTR.
2. Se envía desde la terminal la orden ATDT 5551234 ("AT" -> atención, D -> marcar, T -> por
3.
4.
5.
6.
tonos, 5551234 -> número a llamar.)
El módem levanta la línea y marca el número.
El módem realiza el hand shaking con el módem remoto.
El programa de comunicación espera el código de resultado.
Código de resultado "CONNECT".
Protocolos de comprobación de errores
El control de errores: son varias técnicas mediante las cuales se chequea la fiabilidad de los bloques
de datos o de los caracteres.

Paridad: función donde el transmisor añade otro bit a los que codifican un símbolo. Es
paridad par, cuando el símbolo tenga un número par de bits y es impar en caso contrario.
El receptor recalcula el número de par de bits con valor uno, y si el valor recalculado
coincide con el bit de paridad enviado, acepta el paquete. De esta forma se detectan errores
de un solo bit en los símbolos transmitidos, pero no errores múltiples.

CRC: (Cyclic Redundancy Check, prueba de redundancia cíclica). Esta técnica de detección
de error consiste en un algoritmo cíclico en el cual cada bloque o trama de datos es
chequeada por el módem que envía y por el que recibe. El módem que está enviando
inserta el resultado de su cálculo en cada bloque en forma de código CRC. Por su parte, el
módem que está recibiendo compara el resultado con el código CRC recibido y responde
con un reconocimiento positivo o negativo dependiendo del resultado.

MNP: (Microcom Networking Protocol, protocolo de red Microcom). Es un control de error
desarrollado por Microcom, Inc. Este protocolo asegura transmisiones libres de error por
medio de una detección de error, (CRC) y retransmisión de tramas equivocadas.
Protocolos de transferencia de archivos

Xmodem: es el protocolo más popular, pero lentamente está siendo reemplazado por
protocolos más fiables y más rápidos. Xmodem envía archivos en bloques de 128
caracteres al mismo tiempo. Cuando el computador que está recibiendo comprueba que el
bloque ha llegado intacto, lo señala así y espera el bloque siguiente. El chequeo de error es
un checksum o un chequeo más sofisticado de redundancia cíclica. Algunas comunicaciones
por software soportan ambas y podrían automáticamente usar la más indicada para un
momento dado. Durante una descarga, el software tiende a usar el CRC, pero se cambiará a
checksum si se detecta que el host no soporta el CRC. El protocolo de Xmodem también
necesita tener declarado en su configuración: no paridad, ocho bits de datos y un bit de
parada.

Xmodem-1k: es una pequeña variante del anteriormente mencionado, que usa bloques
que posen un kilobyte (1.024 bytes) de tamaño. Este protocolo es todavía mal llamado
‘Ymodem’ por algunos programas, pero la gente gradualmente se inclina a llamarlo
correctamente.

Xmodem-1k-g: es una variante del anterior para canales libres de error tales como
corrección de errores por hardware o líneas de cable null-módem entre dos computadoras.
Logra mayor velocidad enviando bloques uno tras otro sin tener que esperar el
reconocimiento desde el receptor. Sin embargo, no puede retransmitir los bloques en caso
de errores. En caso de que un error sea detectado en el receptor, la transferencia será
abortada. Al igual que el anterior, muchas veces es mal llamado ‘Ymodem-g’.

Zmodem: este avanzado protocolo es muy rápido al igual que garantiza una buena
fiabilidad y ofrece varias características. Zmodem usa paquetes de 1 KB en una línea limpia,
pero puede reducir el tamaño del paquete según si la calidad de la línea va deteriorándose.
Una vez que la calidad de la línea es recuperada el tamaño del paquete se incrementa
nuevamente. Zmodem puede transferir un grupo de archivos en un lote (batch) y guardar
exactamente el tamaño y la fecha de los archivos. También puede detectar y recuperar
rápidamente errores, y puede resumir e interrumpir transferencias en un período más
tarde. Igualmente es muy bueno para enlaces satelitales y redes de paquetes conmutadas.

ASCII: en una transferencia ASCII, es como que si el que envía estuviera actualmente
digitando los caracteres y el receptor grabándolos ahora. No se utiliza ninguna forma de
detección de error. Usualmente, solo los archivos ASCII pueden ser enviados de esta forma,
es decir, como archivos binarios que contienen caracteres.

Ymodem: este protocolo es una variante del Xmodem, el cual permite que múltiples
archivos sean enviados en una transferencia. A lo largo de ella, se guarda el nombre
correcto, tamaño, y fecha del archivo. Puede usar 128 o (más comúnmente), 1.024 bytes
para los bloques.

Ymodem-g: este protocolo es una variante del anterior, el cual alcanza una tasa de
transferencia muy alta, enviando bloques uno tras otro sin esperar por un reconocimiento.
Esto, sin embargo, significa que si un error es detectado por el receptor, la transferencia
será abortada.

Telink: este protocolo es principalmente encontrado en Fido Bulletin Board Systems. Es
básicamente el protocolo Xmodem usando CRC para chequear y un bloque extra enviado
como cabecera del archivo diciendo su nombre, tamaño y fecha. Por su parte, también
permite que más de un archivo sea enviado al mismo tiempo (Fido es una BBS muy
popular, que es usada en todo el mundo).

Kermit: este protocolo fue desarrollado para hacer más fácil que los diferentes tipos de
computadoras intercambiasen archivos entre ellas. Casi ninguna computadora que usa
Kermit puede ser configurada para enviar archivos a otra computadora que también use
Kermit. Kermit usa pequeños paquetes (usualmente de 94 bytes) y aunque es fiable, es
lento porque la relación del protocolo de datos para usarlos es más alta que en muchos
otros protocolos.
5.- Hablar de las generalidades y/o historia del teclado y monitor.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido
evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la
calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el
año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los
monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El
mismo creaba irritación en los ojos de sus usuarios.
Características:
* Sin modo gráfico.
* Resolución 720_350 píxeles.
* Soporte de texto monocromático.
* No soporta gráfico ni colores.
* La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
* Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos
Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de
Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del
año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de
IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por
los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo
competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:
* Resoluciones 160_200, 320×200, 640×200 píxeles.
* Soporte de gráfico a color.
* Diseñado principalmente para juegos de computadoras.
* La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para
la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor
amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería
sustituido por un monitor de mayores características.
Características:
* Resolución de 640_350 píxeles.
* Soporte para 16 colores.
* La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo
Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por
IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a
quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores
anteriores no son compatibles a los VGA, estos incorporan señales analógicas.
Características:
* Soporte de 720×400 píxeles en modo texto.
* Soporte de 640×480 píxeles en modo gráfico con 16 colores.
* Soporte de 320×200 píxeles en modo gráfico con 256 colores.
* Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA denominado por sus siglas en inglés “Súper Video Graphics Array”, también conocidos
por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar
incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este
estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.
Características:
* Resolución de 800×600, 1024_768 píxeles y superiores.
* Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como:
ATI, Ge Forcé, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas
evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía,
tamaño y por brindar un nuevo producto en el mercado.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más
conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que
hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se
realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla,
una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo
en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá
representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el
máximo brillo.
Ventajas:
* Excelente calidad de imagen (definición, contraste, luminosidad).
* Económico.
* Tecnología robusta.
* Resolución de alta calidad.
Desventajas:
* Presenta parpadeo por el refrescado de imagen.
* Consumo de energía.
* Generación de calor.
* Generación de radiaciones eléctricas y magnéticas.
* Alto peso y tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en
inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este
dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre
otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que
seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido
pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su
polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de
manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color
es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de
brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se
aplica a los filtros.
Ventajas:
* Poco peso y tamaño.
* Buena calidad de colores.
* No contiene parpadeo.
* Poco consume de energía.
* Poca generación de calor.
* No genera radiaciones eléctricas y magnéticas.
Desventajas:
* Alto costo.
* Angulo limitado de visibilidad.
* Brillo limitado.
* Bajo tiempo de respuesta de píxeles.
* Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H.
Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la
pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se
encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas
luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma
funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño
foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca
que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de
potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material
fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a
su estado energético natural, emite luz visible
Descargar