MICROPROCESADOR 1.Introducción Microprocesador, también llamado Unidad central de procesamiento (CPU) es un

Anuncio
MICROPROCESADOR
1.Introducción
Microprocesador, también llamado Unidad central de procesamiento (CPU) es un
circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del
control y el proceso de datos en las computadoras. Generalmente, la CPU es un
microprocesador fabricado en un chip, un único trozo de silicio que contiene
millones de componentes electrónicos. Podríamos decir de él que es el cerebro del
ordenador. Los microprocesadores también se utilizan en otros sistemas
informáticos avanzados, como impresoras, automóviles o aviones.
El microprocesador es un tipo de circuito sumamente integrado. Los circuitos
integrados, también conocidos como microchips o chips, son circuitos electrónicos
complejos formados por componentes extremadamente pequeños formados en
una única pieza plana de poco espesor de un material conocido como
semiconductor. Los microprocesadores modernos incorporan hasta 40 millones de
transistores (que actúan como amplificadores electrónicos, osciladores o, más a
menudo, como conmutadores), además de otros componentes como resistencias,
diodos, condensadores y conexiones, todo ello en una superficie comparable a la de
un sello postal. Los microprocesadores modernos funcionan con una anchura de
bus de 64 bits (un BIT es un dígito binario, una unidad de información que puede
ser un uno o un cero): esto significa que pueden transmitirse simultáneamente 64
bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de
sincronización, o señal de reloj, para coordinar todas las actividades del
microprocesador. La velocidad de reloj de los microprocesadores más avanzados
es de unos 3200 MHZ.
Los microprocesadores suelen tener dos velocidades:
__ Velocidad interna: velocidad a la que funciona el micro internamente (500, 600,
800,3.200
MHz.
__ Velocidad externa o de bus (FSB) velocidad con la que se comunican el micro y la
placa
base
2.Componentes
Una unidad aritmético-lógica ALU que realiza cálculos y operaciones con números
enteros, y toma decisiones lógicas (determina si una afirmación es cierta o falsa
mediante las reglas del álgebra de Boole), Internamente esta formada por circuitos
lógicos elementales para realizar estas operaciones: sumadores, incrementos,
operadores
lógicos,
desplazamientos,
rotaciones,
comparaciones...
Registros internos: Son zonas de memorias especiales donde se almacena
información temporalmente.
Una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar
órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se
comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus
conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro),
los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos
de salida (como un monitor o una impresora). Memoria Cache: memoria
ultrarrápida que ayuda al micro en operaciones con datos que maneja
constantemente. Coprocesador Matemático o Unidad de punto flotante (UPF): A
partir de la última versión de los 486 incorporado internamente al
microprocesador, se encarga de realizar las operaciones con números decimales.
Reloj
del
sistema:
Un
cristal
de
cuarzo
regulado
3.Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de
programa, lleva la cuenta de la siguiente instrucción, para garantizar que las
instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU
coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente
instrucción desde la memoria. En una secuencia típica, la CPU localiza la
instrucción en el dispositivo de almacenamiento correspondiente. La instrucción
viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de
instrucción. Entretanto, el contador de programa se incrementa en uno para
prepararse para la siguiente instrucción. A continuación, la instrucción actual es
analizada por un descodificador, que determina lo que hará la instrucción.
Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de
almacenamiento correspondiente y se almacena en el registro de datos de la CPU.
A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro
registro o se copian en una dirección de memoria determinada.
La familia de microprocesadores que utilizan las PC se conoce como familia 80x86,
debido a su compatibilidad hacia atrás con el procesador 8086. Tienen la
capacidad de manejar una gran cantidad de instrucciones de longitud variable y se
conocen como procesadores CISC (Código de conjuntos de instrucciones
complejas). Los procesadores RISC (Código de conjunto de instrucciones reducido)
tienen una cantidad de instrucciones menor que 100 y todas de una misma
longitud (en bits) por lo cual estos procesadores son más rápidos. Los
procesadores logran mayores velocidades combinando las dos tecnologías, es decir
transforman las instrucciones CISC en instrucciones RISC simples de longitud fija y
se ejecutan más rápidamente mediante unidades de ejecución RISC. En cuanto a las
empresas fabricantes de procesadores los más conocidos son:
__ Intel: Es la marca estándar y los demás son compatibles con Intel.
__ AMD: Siempre ha ido por detrás de Intel, aunque a veces le ha superado, sobre
todo con su conocido K7 (Athlon).
__ Cyrix: Fabrica procesadores para Texas, IBM y Thompson , en la actualidad esta
fábrica ha sido adquirida por VIA
4.Overclocking
Por Overclocking se conocen una serie de técnicas que permiten forzar los
componentes de un sistema informático (de cualquier tipo) para que trabajen a
más velocidad de la original. Esto no es magia, es simplemente saber aprovechar
ciertos recursos y aceptar el riesgo que ello conlleva. Generalmente se suelen
aplicar al microprocesador, pero éste no es el único componente susceptible de ser
forzado, todos aquellos dispositivos que lleven un reloj interno o marcador de
frecuencia (oscilador de cuarzo) pueden llegar a mayores frecuencias de trabajo
que
la
original.
También
se
aplican
estas
técnicas
a
la
memoria RAM, tarjeta gráfica, e incluso a tarjetas de sonido, módems, etc.
Existe, así mismo, otra técnica contraria llamada Underclocking y se trata de
reducir la frecuencia de trabajo, su fin básico es reducir temperaturas, pero puesto
que no es el objetivo de este manual, no lo vamos a tratar.
El fundamento del Overclocking (OC en adelante) es mejorar algunos, o todos, los
parámetros de que depende la frecuencia de trabajo para que ésta aumente;
teniendo en cuenta que el rendimiento global no sólo depende de la frecuencia,
sino de muchas otras cosas. De nada sirve tener un procesador rapidísimo si el
resto de componentes son lentos o de baja calidad (el rendimiento de un sistema
se basa en un todo). Estas operaciones conllevan riesgos, el más importante es el
aumento de la temperatura y posible quema del procesador, y es algo que debe ser
minuciosamente controlado siempre que se realice OC. Más adelante se tratarán
con detalle las precauciones. Se recomienda leer dichas precauciones ANTES de
modificar nada en el sistema.
¿Por
qué
es
posible
aumentar
la
frecuencia?
Este tema es algo complejo y muy relacionado con las estrategias empresariales de
los fabricantes; a modo de resumen podríamos decir que el aumento de frecuencia
es posible debido a que los microprocesadores se fabrican con una especie de
margen
de
tolerancia en la frecuencia. Siendo así, y dependiendo de la fabricación, podremos
forzar más o menos nuestro procesador. En el presente manual vamos a describir
el OC únicamente para procesadores, en concreto de Intel® y AMD®, y
comentaremos
muy
por encima el OC de otros dispositivos. Descripciones más complejas serán fruto de
futuros
manuales.
Conceptos sobre la frecuencia
La velocidad de trabajo del procesador, o más formalmente llamada frecuencia,
mide en cierta medida cuán rápido puede procesar éste las instrucciones. La
frecuencia se mide en hertzios (Hz), 1 hertzio es 1 ciclo de “proceso” por segundo,
pero hoy en día se emplean múltiplos más elevados como los megahercios (MHz) y
gigahercios (GHz) debido a las enormes frecuencias de trabajo que tienen los
procesadores
modernos.
Por ejemplo, un procesador que trabaje a 2.000MHz (2GHz) podrá realizar
2.000.000.000
ciclos
/
segundo.
El procesador obtiene esa frecuencia mediante el producto de 2 factores, la
frecuencia
del
bus
frontal
(FSB)
y
un
valor
multiplicador.
El bus frontal es un conjunto de cables que interconectan los dispositivos con el
procesador y sirven de “autopista” de la información interna. El multiplicador es
un
valor
implícito
que
asigna
el
fabricante.
Frecuencia
del
procesador
=
FSB
*
Multiplicador.
Ejemplos
de
varios
Multiplicador --> Frecuencia del FSB -->
x6.5-->100MHz-->650MHz(PentiumIII)
x6.5-->112MHz-->728MHz
x6.5-->133MHz-->864,5MHz
x20-->100MHz-->2000MHz(2GHz)(Pentium4)
x18-->133MHz-->2394MHz(2,4GHz)
x18-->200MHz-->3600MHz(3,6GHz)
procesadores:
Frecuencia
del
procesador
En la tabla anterior se han ilustrado los valores de los factores decisivos en la
frecuencia y su producto para obtener la frecuencia final del procesador. Podemos
apreciar que, a un mismo multiplicador, y aumentando la frecuencia del FSB,
obtenemos frecuencias mayores para un mismo procesador (esa es una de las
técnicas, y la vamos a pasar a comentar en el siguiente apartado).
Técnicas
para
implementar
las
mejoras
Una vez vistos algunos conceptos importantes, vamos a pasar a describir cómo
aumentar la frecuencia de trabajo. Existen dos maneras que pueden ser aplicadas
de
manera
conjunta
o
independiente:
1.Aumentar
la
frecuencia
2.Aumentar el valor del multiplicador.
del
bus
frontal
(FSB)
3. Aumentar FSB y multiplicador.
Sólo podremos aplicar ambas técnicas a la vez en procesadores AMD (y no en
todos los modelos), ya que los Intel Pentium tienen el multiplicador bloqueado de
fábrica, y por tanto, únicamente permiten la modificación del FSB. La modificación
de ambos parámetros se debe realizar desde la BIOS del sistema, para acceder a
ella
debemos
presionar un botón (generalmente la tecla “Supr”) durante el arranque del
ordenador.
Una vez dicho esto, queda patente que la calidad de la placa base es decisiva en
esta etapa. Si disponemos de una buena placa base, podremos obtener un mayor
rendimiento y más posibilidades en el OC.
Tecnologías y Marcas Actuales
En esta guía veremos que nos conviene más, AMD o Intel para armar o elegir
nuestra PC de escritorio. Intel es la compañía Numero 1 en fabricación de
Procesadores, ofrece múltiples procesadores, lo mas seguro ya hayas escuchado el
nombre "Pentium 4", estos son los procesadores de gama media alta, antes eran de
gama alta, pero fueron reemplazados por los Dual-Core (Dos Procesadores en vez
de uno), los procesadores Dual-Core son los "Intel Core 2 Duo", "Intel Core Duo" y
los "Pentium D". Después vienen los procesadores de gama baja los "Celeron", son
como los Pentium 4 pero con menos velocidad y menos caché. Muchos se
preguntan que es el "Hyper- Threading", esto es como un "segundo procesador
virtual", que usa para tener más rendimiento. (Ojo, el Hyper-Transport de AMD se
suele confundir con el "Hyper-Threading de Intel, pero el HyperTransport es un
bus de conexión entre procesador y chipset que hace que rinda más). AMD es la
compañía Numero 2 en fabricación de procesadores, los procesadores AMD antes
eran "Clones" de los Intel, ya que usaban el código de Intel para producir sus
procesadores, pero esto ya no sucede más en la actualidad. AMD
siempre en sus modelos tienen un numero tal como "2800+", esto significa que
rinde igual o mas que su oponente Intel, ojo, esto no significa que el procesador
rinda a 2.8 GHz, muchas personas se equivocan con esto. Los procesadores que
AMD
ofrece
en
la
Actualidad son: "AMD Athlon x2" (Dual Core), Athlon 64 y Sempron. Sucede lo
mismo con los Sempron que con los Celeron, los Sempron son parecidos a los
Athlon 64 pero con menos velocidad y menos caché. AMD fue la primera compañía
en crear procesadores de 64 bits, ya que antes eran todos de 32 bits (los de 32 se
siguen vendiendo en la actualidad), estos procesadores son compatibles con los
sistemas operativos de 64 Bits, tales como Windows XP 64, Ubuntu 64 bits, etc.
AMD la nombró "AMD64" mas adelante Intel "Crearía" las misma tecnología
llamándola "EM64T" (Extended Memery 64-bit Technology). Ahora las
comparaciones.
Athlon
64
x2
Core 2 Duo /Core Duo /Pentium D. Athlon 64 - Pentium 4. Sempron - Celeron. AMD
siempre provee procesadores a un mismo o más bajo precio que Intel, pero en
rendimiento andan muy parecidos, aunque ahora el procesador más potente en
argentina es el Core 2 Duo de Intel. Conclusiones. Si tienes bastante dinero para
gastar
y
quieres
potencia a raudales, un Dual Core. Si quieres PC que rinda, un Athlon
64 o un Pentium 4. Si quieres una PC buena, un Sempron o un
Celeron.
DESCRIBIR LOS BIOS DE UN PC
Esta es un pequeña introducción de para qué sirve la BIOS del sistema (para mucha
gente, cada vez más desconocida), y al menos que 3 cosillas debemos saber, bien
para añadir funcionalidad a nuestro sistema, o bien para solucionar algún
problemilla (a veces gordo).
Un ordenador, al encenderlo, tiene que empezar a ejecutar un programa. Dicho
"mini" programa se conoce con el nombre de BIOS (Basic Input Output System). La
BIOS, reside en un chip tipo flash (normalmente). Esto quiere decir que el chip se
puede borrar/grabar y por tanto se puede actualizar con nuevas versiones. Esto
último es peligroso hacerlo, si no tenemos experiencia. Podemos quedarnos sin PC
si falla la actualización.
Aunque parezca una tontería, la BIOS, es importantísima en una maquina. Es el
unico programa que "sabe" tratar el hardware que tenemos en la placa madre y los
dispositivos incorporados en ella. Repito el "UNICO". Esto quiere decir que
cualquier Sistema Operativo DEBE apoyarse en los servicios de la BIOS (con
matices, pero a nuestro nivel -w98- nos sirve).
La BIOS, admite configuración. En función de esa configuración, nuestra maquina
funcionará mejor, o "dialogará" mejor con el Sistema Operativo.
¿Cómo se puede configurar?
Depende del fabricante de la BIOS. Siempre se puede entrar cuando el PC se está
inicializando (contando la memoria), pulsando alguna tecla o combinación de ellas.
Las BIOS más extendidas son la AWARD y la AMI. En ellas se puede entrar
pulsando la tecla DEL (SUPR) o la tecla ESC cuando está contando la memoria.
Una vez dentro nos saldrá un menú. A partir de aquí las pantallas que nos salgan
serán diferentes para cada tipo y modelo de BIOS, por lo que voy a describir
genéricamente, que se debe buscar y como lo podemos modificar. IMPORTANTE:
No tocar lo que no se sabe, podemos hacer que el PC no arranque.
Normalmente se pueden cambiar los valores de cada opción, con las teclas de subir
y bajar pagina (pero insisto, depende de cada BIOS).
Y una cosa importante, todas las BIOS, suelen tener dos opciones por si acaso. Una,
"Load BIOS configuration" y otra "Load SETUP configuration", o una cosa similar.
La primera de ellas, carga los valores por defecto de la BIOS, es decir los MENOS
óptimos, pero que garantizan siempre un arranque. La segunda, carga los valores
de SETUP, es decir los valores que por defecto vienen de fabrica y que aunque no
estén optimizados del todo, son mejor que los otros. En caso de no querer arrancar
nuestra maquina por haber tocado algo incorrectamente, siempre podremos
entrar en la BIOS, y restaurar.
Bueno y ahora lo importante.
Cosas que podemos tocar, y que nos solucionaran problemas o mejorarán el
rendimiento. (Las tenemos que buscar en cada PC, ya que no puedo describir las
pantallas porque dependen de cada BIOS).
Puede ser que no todas las BIOS, soporten lo que voy a describir a continuación.
1. Puerto paralelo (parallel port): normalmente la mejor configuración es
dejarlo como EPP/ECP, y en este caso con DMA 3 para evitar posibles
conflictos con la tarjeta de sonido. Explico las posibilidades: SPP (single por
parallel), lo más sencillo, permite comunicación una sola vía, es la más
antigua y encima la peor, además hay impresoras que no funcionaran en ese
modo. EPP (enhanced por parallel), ya admite transferencias en ambos
sentidos -bidirección al-. Mejor que el anterior. ECP mejor que los
anteriores, admite transferencias DMA. Y por fin el mejor EPP/ECP (o
ECP/EPP). Contiene todas las mejoras de los anteriores.
2. Power Management (manejo del APM, es el que permite el modo de
"espera" o StandBy). Para que el sistema operativo pueda controlar esto, se
debe dejar el control de AMP al valor "by user" (por el usuario), o algo así,
depende de la BIOS, pero nunca debe tener valores como "none", "Max",
"Min"...etc. Además de ponerlo "By user", los timer (si los tuviese) que esten
"disabled" o a cero, para que lo controle el sistema operativo.
3. PnP: Plug and Play : PINCHA y LISTO - (y de broma pero en serio, lo le llamo
Plug and Pray : PINCHA y REZA).
Bien esta es la pantalla más complicada. Vayamos por partes un poquito antes de
intentar meterla mano. Quien quiera puede saltarse el siguiente párrafo.
Cada dispositivo de la máquina para "llamar" la atención del procesador, debe
emitir una interrupción (IRQ - interrupt request). Una interrupción, aunque sea
una señal eléctrica, es como decir la procesador "oye niño que estoy aquí...". Bueno,
pues el tema es que las interrupciones están limitadas en un PC. Son de la IRQ 0 a
la IRQ 15. Pero además muchas de ellas, ya estan asignadas a capón, y no se
permite su modificación. Además, el bus ISA, no puede compartir IRQ. El bus PCI,
puede compartir, si lo soporta el sistema operativo, IRQs, es decir dos dispositivos
pueden llamar la atención del procesador de la misma forma. La BIOS se encarga
luego de decirle al procesador, quien era.
El cisco, empieza por,





Tenemos unas que no se pueden tocar: 0, 1, 2, 6, y 8 (son del sistema)
Otras que por convenio son ISA : 3, 4, 7. Por convenio, pueden cambiarse,
pero normalmente son para los dos puertos serie y el puerto paralelo.
Si tenemos el ratón en puerto de ratón, utiliza la IRQ 12.
Otras que aunque sean PCI, también por convenio, están casi reservadas. La
14 y la 15 (primer canal del controlador de disco duro y segundo canal)
Nos quedan, la 5, 9, 10, 11.
Normalmente la 5 suele ser para la tarjeta de sonido (ISA).
Quedan ya únicamente 9, 10, y 11 para el resto de tarjetas del PC. Muy poquitas.
Por eso w98 (y w95 OSR2), incorporan un driver que es el encargado de compartir
esas IRQ y "enterarse" realmente quien está llamando a la puerta.
Después del rollo. Para que nos sirve???
Pues bien, la pantalla PnP, nos deja (normalmente), decir si una IRQ es PCI o ISA.
Suele convenir indicarlo en cada IRQ, con lo que hemos comentado anteriormente
más la información que nos den de nuestros dispositivos, pero solo si tenemos
problemas con algún dispositivo que Windows se niegue a reconocer. El protocolo
de reconocimiento del w95 y del w98, es diferente, por lo que dispositivos que se
ven en el w95, puede ser que nos den problemas en el w98 y al contrario.
Por cierto, Si dicha pantalla, pregunta si nuestro sistema operativo es PnP, y
tenemos problemas, decirle que NO. Aunque w98 lo sea busca un protocolo de
comunicación con la BIOS (especificaciones MS de routing table), que puede ser
que no lo soporte nuestra BIOS
TECNOLOGÍAS DE LA INFORMACION Y LA COMUNICACIÓN
¿Qué son las TIC y cuales son sus inicios?
Las tecnologías de la información y la comunicación (la unión de los computadores
y las comunicaciones) desataron una explosión sin antecedentes de formas de
comunicarse al comienzo de los años 90. A partir de ahí, la Internet pasó de ser un
instrumento experto de la comunidad científica a ser una red de fácil uso que
modificó las pautas de interacción social.
Tecnologías de la información y de la comunicación se entiende como un término
para designar lo referente a la informática conectada a Internet, y especialmente el
aspecto social de éstos. Las nuevas tecnologías de la información y comunicación
eligen a la vez un conjunto de innovaciones tecnológicas pero también las
herramientas que permiten una redefinición radical del funcionamiento de la
sociedad.
Las tecnologías de la Información y Comunicación son aquellas herramientas
computacionales e informáticas que procesan, almacenan, resumen, recuperan y
presentan información representada de la más variada forma.
Es un conjunto de herramientas, soportes y canales para el tratamiento y acceso a
la información. Constituyen nuevos soportes y canales para dar forma, registrar,
almacenar y difundir contenidos informacionales.
Algunos ejemplos de estas tecnologías son la pizarra digital (ordenador personal+
proyector multimedia), los blogs, el podcast y, por supuesto la web.
Para todo tipo de aplicaciones educativas, las TIC son medios y no fines. Es decir,
son herramientas y materiales de construcción que facilitan el aprendizaje, el
desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los
aprendices.
¿Cuáles son las ventajas y desventajas de las TIC?
Ventajas:
*Brindar grandes beneficios y adelantos en salud y educación.
*Desarrollar a las personas y actores sociales a través de redes de apoyo e
intercambio y lista de discusión.
*Apoyar a las personas empresarias, locales para presentar y vender sus productos
a través de la Internet.
*Permitir el aprendizaje interactivo y la educación a distancia.
*Repartir nuevos conocimientos para la empleabilidad que requieren muchas
competencias.
*Ofrecer nuevas formas de trabajo, como teletrabajo
*Dar acceso a la salida de conocimientos e información para mejorar las vidas de
las personas.
*Facilidades
*Exactitud
*Menores riesgos
Menores costos
Desventajas:
*Falta de privacidad
*Aislamiento
*Fraude
*Pérdida los puestos de trabajo
¿Cuáles son las características de las TIC?
*Son de carácter innovador y creativo, pues dan acceso ha nuevas formas de
comunicación.
*Tienen mayor dominio y beneficia en mayor proporción al área educativa ya que
la hace más accesible y dinámica.
*Son considerados temas de debate público y político, pues su utilización implica
un futuro prometedor.
*Se relacionan con mayor frecuencia con el uso de la Internet y la informática.
*Afectan a numerosos ámbitos de la ciencia humana como la sociología, la teoría de
las organizaciones o la gestión.
*En América Latina se destacan con su utilización en las universidades e
instituciones.
*Resultan un gran alivio económico a largo plazo. Aunque en el tiempo de ganancia
resulte una fuerte inversión.
*Constituyen medios de comunicación y ganancia de información de toda variedad,
inclusive científica, a los cuales las personas pueden acceder por sus propios
medios, es decir potencian la educación a distancia en la cual es casi una necesidad
del alumno poder llegar a toda la información posible.
Describir Grafica Y Teóricamente Al Modem
Módem: Es un aparato que permite a los PC intercambiar datos por las
líneas telefónicas. Es el dispositivo que se usa para navegar por Internet.
También sirve para enviar y recibir faxes desde el PC (por ello algunos lo
llaman fax-módem). La forma corriente de conectarse con Internet es a
través del teléfono, por lo tanto se necesitará de uno. Hay módem de todas
las formas y tamaños. Algunos son una cajita separada y se conocen como
módems externos, con cables que se conectan al computador y a la línea
telefónica. Algunos otros se encuentran dentro del computador con un sólo
cable para el teléfono; los más nuevos son pequeños objetos del tamaño de
una tarjeta de crédito que se insertan en la tarjeta madre.
Además de la variedad de tamaños físicos, hay también una enorme
variedad de características internas. La velocidad en la cual opera un
módem (es decir, la velocidad a la cual puede transferir información del
computador en la línea telefónica) va desde unos 2.400 bits por segundo, ya
obsoleto hoy, hasta los 56 kilobits y algunas velocidades mayores si la
conexión se realiza mediante cable (fibra óptica) o satelital.
Al comprar un módem es importante que escoja uno compatible con el
estándar V.90. Inicialmente, los módem de 56 kbps hacían parte de dos
bandos: los que usaban la tecnología k56 flex y los que empleaban X2; V90
es un estándar que acabó con esa rivalidad.
¿Para qué se utiliza un módem?
Un módem es un periférico utilizado para transferir información entre varios
equipos a través de un medio de transmisión por cable (por ejemplo las líneas
telefónicas). Los equipos funcionan digitalmente con un lenguaje binario (una serie
de ceros y unos), pero los módem son analógicos. Las señales digitales pasan de un
valor a otro. No hay punto medio o a mitad de camino. Es un "todo o nada" (uno o
cero). Por otra parte, las señales analógicas no evolucionan "paso a paso" sino en
forma continua.
Por ejemplo, un piano funciona más o menos de manera digital ya que no existen
"pasos" entre las notas. Por el contrario, un violín puede modular sus notas para
pasar por todas las frecuencias posibles.
Un equipo funciona como un piano y un módem como un violín. El módem
convierte la información binaria de un equipo en información analógica para
modularla a través de la línea telefónica que utiliza. Puede escuchar ruidos
extraños si sube el sonido del módem.
Por lo tanto, un módem modula información digital en ondas analógicas. En la
dirección opuesta, demodula datos analógicos para convertirlos en datos digitales.
La palabra "módem" es la sigla de "MOdulador/DEModulador".
La velocidad de transmisión del módem se expresa generalmente en baudios, en
honor a Emile Baudot (11 septiembre de 1845 - 28 marzo de 1903), un famoso
ingeniero francés que trabajó en el área de las telecomunicaciones. Esta unidad de
velocidad de transmisión caracteriza la frecuencia de (de)modulación, es decir, la
cantidad de veces que el módem hace que la señal cambie de estado por segundo.
Por lo tanto, el ancho de banda en baudios no es igual al ancho de banda en bits por
segundo porque el cambio de estado de señal puede ser necesario para codificar
un bit.
Estándares de comunicación
Al proliferar los módem, aumentó la necesidad de protocolos estandarizados para
la comunicación por módem, para que todos los protocolos pudieran utilizar un
lenguaje en común. Ésta es la razón por la que dos organizaciones desarrollaron
estándares de comunicación:


Los laboratorios BELL, precursores en el área de las telecomunicaciones.
El Comité Consultivo Internacional Telefónico y Telegráfico (CCITT),
conocido desde 1990 como la Unión Internacional de Telecomunicaciones
(UIT).
El objetivo de la ITU es definir estándares internacionales para las comunicaciones.
Los estándares para módem pueden dividirse en 3 categorías:



Estándares de modulación (por ejemplo CCITT V.21)
Estándares de corrección de error (por ejemplo CCITT V.42)
Estándares de compresión de datos (por ejemplo CCITT V.42bis)
Módem interno
Dispone de conexiones a la placa base, a la línea telefónica y a un teléfono.
Hablar de las generalidades y/o historia del teclado y monitor.
Introducción al teclado
El teclado, como en las máquinas de escribir, permite la introducción de caracteres
(como letras, números y símbolos). Es un dispositivo de entrada esencial para un
equipo, ya que es lo que permite ingresar comandos.
El término "QWERTY" (por las primeras seis letras del teclado) se refiere al tipo de
teclado que se utiliza en casi todos los equipos del mundo de habla inglesa. En
otros países, los diseños de los teclados son diferentes.
El teclado Qwerty fue diseñado en 1868 en Milwaukee por Christopher Latham
Sholes, quien colocó las teclas correspondientes a los pares de letras utilizados con
más frecuencia (en la lengua inglesa) en extremos opuestos del teclado buscando,
de esta manera, evitar que los martillos de las máquinas de escribir de la época se
atoraran entre sí como era habitual. En 1873 la compañía Remington fue la
primera en vender este teclado. Por lo tanto, el teclado Qwerty fue diseñado desde
una perspectiva puramente técnica, lo que obstaculizó su funcionalidad y
eficiencia. Se dice que la ubicación de las teclas a lo largo de la primera fila del
teclado Qwerty fue impulsada por los comerciantes de máquinas de escribir de la
época, que deseaban que todas las teclas necesarias para escribir la
palabra"typewriter" (máquina de escribir) estuvieran ubicadas convenientemente
a la hora de realizar una demostración del producto.
En 1936, August Dvorak (profesor de la Universidad de Washington) diseñó un
teclado cuyas teclas estaban dispuestas exclusivamente teniendo en cuenta la
eficiencia. En el teclado Dvorak, todas las vocales del alfabeto y las cinco
consonantes más comunes se encontraran en la fila central para poder acceder a
ellas con mayor facilidad y, a la vez, distribuir uniformemente, el trabajo entre la
mano derecha y la mano izquierda. Además, las letras más frecuentes del alfabeto
se ubicaron en el centro del teclado.
Diferentes estudios han demostrado que la eficiencia mejorada del teclado Dvorak
resultó insuficiente en la práctica y que el esfuerzo necesario para pasar del
teclado Qwerty al Dvorak resultaba demasiado exigente como para que valiera la
pena, lo que explica por qué todos los equipos de hoy en día aún tienen teclados
Qwerty.
Conector de teclado
Los teclados generalmente suelen conectarse a la parte trasera del CPU, en la placa
madre, con un conector PS/2:
Cómo funciona
Cada vez que se presiona una tecla, una señal específica se transmite al equipo. El
teclado a su vez, utiliza una red de barras cruzadas para identificar cada tecla en
función de su fila y columna
Al presionarse una tecla, se produce un contacto eléctrico entre la fila y la columna.
Las señales eléctricas son transmitidas a un microcontrolador, que envía un código
(BCD, ASCII o Unicode) al equipo describiendo el carácter que corresponde a dicha
tecla.
Tipos de teclados
Existen cuatro tipos de teclados para PC. Los primeros tres fueron inventados por
IBM, mientras que el último es el resultado de cambios realizados junto con el
lanzamiento de Microsoft Windows 95. Los cuatro tipos de teclados son:




El teclado de 83 teclas (PC/XT)
El teclado de 84 teclas (PC/AT)
El teclado de 102 teclas, llamado teclado extendido
El teclado de 105 teclas es compatible con Microsoft Windows 95.
Teclados PC/XT
Este fue el primer teclado para PC y, a diferencia de los otros equipos de la época
(como Apple II y Amiga), cuyos teclados estaban integrados, lo inusual era que
estaba separado del equipo.
Este teclado incluía 83 teclas, pero fue criticado por la disposición de las teclas y su
tamaño desproporcionado (especialmente las teclas de Mayús y Aceptar, que
resultaban demasiado pequeñas y estaban mal ubicadas). Además, la comunicación
entre el teclado y el CPU era unidireccional, lo que significaba que el teclado no
podía incluir un indicador LED.
Teclados PC/AT
El teclado PC/AT, que tenía 84 teclas, fue lanzado para el equipo PC/AT en 1984.
Este teclado corrigió los errores de sus antecesores, modificando
fundamentalmente el tamaño de las teclas Mayús y Aceptar. Además, el teclado era
bidireccional, lo que le permitía mostrar su estado mediante luces indicadoras
LED. Finalmente, la placa madre en el PC/AT incluía un controlador que permitía
ajustar la configuración:


La frecuencia de repetición (el número de caracteres enviados por segundo
cuando se liberaba una tecla)
Demora de repetición: El tiempo antes de que un equipo considerara que se
había liberado una tecla, para distinguir entre escribir un único carácter y
mantener una tecla presionada
Teclados extendidos
Los nuevos equipos compatibles con IBM lanzados en 1986 tenían un teclado de
102 teclas.
Este nuevo teclado incluía distintos bloques de teclas: A partir de ese modelo, las
teclas de funciones se desplazaron a la parte superior del teclado y se agregaron
teclas de control del cursor, representadas por flechas.
Teclados compatibles con Microsoft Windows
Microsoft ha definido tres teclas nuevas, que se usan para accesos directos a
ciertas características de Windows.
Estas tres teclas nuevas son, de izquierda a derecha:



La tecla Windows izquierda
La tecla Windows derecha
La tecla de Aplicación
Historia de los monitores
El monitor es el principal periférico de salida de una computadora. Estos se
conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o
tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una matriz de
puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un
píxel.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos
han ido evolucionando con el objetivo de ofrecer mayores prestaciones,
definiciones
y
mejorar
la
calidad
de
las
imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter”
surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos
popularmente por los monitores monocromáticos solo ofrecían textos, no
incorporaban
modos
gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente
verde. El mismo creaba irritación en los ojos de sus usuarios.
Características:
*Sin modo gráfico.
* Resolución 720_350 píxeles.
* Soporte de texto monocromático.
* No soporta gráfico ni colores.
* La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
*Soporta
subrayado,
negrita,
cursiva,
normal,
invisibilidad
para
textos
Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador
de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a
partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente
con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían
optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo
año existiendo competencia entre ellos. CGA fue el primero en contener sistema
gráfico a color.
Características:
*Resoluciones 160_200, 320×200, 640×200 píxeles.
*Soporte de gráfico a color.
*Diseñado principalmente para juegos de computadoras.
*La
tarjeta
gráfica
contenía
16
KB
de
memoria
de
vídeo.
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado
IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor
incorporaba
una
mayor
amplitud
de
colores
y
resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también
sería
sustituido
por
un
monitor
de
mayores
características.
Características:
*Resolución de 640_350 píxeles.
*Soporte para 16 colores.
*La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo
Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en
1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores
anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas
resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los
monitores anteriores no son compatibles a los VGA, estos incorporan señales
analógicas.
Características:
*Soporte
de
720×400
píxeles
en
modo
texto.
*Soporte de 640×480 píxeles en modo gráfico con 16 colores.
*Soporte de 320×200 píxeles en modo gráfico con 256 colores.
* Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también
conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron
desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su
antecesor
VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el
VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes
resoluciones.
Características:
*Resolución
de
800×600,
1024_768
píxeles
y
superiores.
* Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas
como:
ATI,
GeForce,
NVIDIA,
entre
otros.
Clasificación
según
tecnología
de
monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios
aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por
el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el
más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la
calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la
actualidad
también
se
realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la
pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el
brillo
instantáneo
en
ese
punto
de
la
pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante
no tendrá representando un píxel negro. Una amplitud máxima determina que ese
punto
tendrá
el
máximo
brillo.
Ventajas:
*Excelente calidad de imagen (definición, contraste, luminosidad).
*Económico.
*Tecnología robusta.
*Resolución de alta calidad.
Desventajas:
*Presenta parpadeo por el refrescado de imagen.
*Consumo de energía.
*Generación de calor.
*Generación de radiaciones eléctricas y magnéticas.
*Alto
peso
y
tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus
siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en
español.
Este
dispositivo
fue
inventado
por
Jack
Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas,
entre
otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten
las
propiedades
de
sólidos
y
líquidos
a
la
vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene
necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo
haría atravesar un cristal sólido pero a cada una de estas partículas se le puede
aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o
no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o
no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno
de
los
colores
básicos
rojo,
verde
y
azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes
niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones
en
el
voltaje
que
se
aplica
a
los
filtros.
Ventajas:
*Poco peso y tamaño.
*Buena calidad de colores.
*No contiene parpadeo.
*Poco consume de energía.
*Poca generación de calor.
*No genera radiaciones eléctricas y magnéticas.
Desventajas:
*Alto costo.
*Angulo limitado de visibilidad.
*Brillo limitado.
*Bajo tiempo de respuesta de píxeles.
*Contienemercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L.
Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear
la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas
se encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar
pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas
de plasma funcionan como las lámparas fluorescentes, en que cada píxel es
semejante
a
un
pequeño
foco
coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña
celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar
una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al
estado
de
plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material
fosforescente que recubre el interior de la celda. Cuando el material fosforescente
regresa
a
su
estado
energético
natural,
emite
luz
visible.
Ventajas:
*Excelente brillo.
*Alta resolución.
*Amplio ángulo de visión.
*No contiene mercurio.
*Tamaño de pantalla elevado.
Desventajas:
*Vida útil corta.
Coste de fabricación elevado, superior a los LCD.
*Consumo de electricidad elevado.
*Poca pureza del color.
*Consumo
energético
y
emisión
de
calor
elevada.
Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser
mostrada en la pantalla. Viene dada por el producto de las columnas (”X”), el cual
se coloca al principio y el número de filas (”Y”) con el que se obtiene una razón.
Descargar