Computadores y ordenadores

Anuncio
INTRODUCCION
Los grandes avances tecnológicos que se han presentado en las tres ultimas décadas han tomado por sorpresa
a muchos expertos, tecnologías que hasta hace algunos años se pensaban que eran solo parte de la ciencia
ficción hoy son una realidad, esto se debe en gran medida al gigantesco desarrollo de las ciencias de la
informática, estas tecnologías que según estudios realizado cada 18 meses se duplica, han hecho que los
profesionales de estas áreas se vean obligados a estar continuamente actualizándose sobre nuevos avances, las
épocas en las que pasaban años sin que hubiera un cambio tecnológico representativo han quedado en el
pasado, así como tambien lo hicieron las grandes computadoras, que consumían grandes cantidades de energía
y espacio, aunque como lo vamos haber mas adelante la arquitectura básica de esas grandes maquinas todavía
se conserva los avances tecnológicos han permitido considerables mejoras en la distribución de este tipo de
arquitectura.
Los nuevos dispositivos tanto de entrada como de salida han mejorado considerablemente nuestra vida diaria,
la capacidad de llevar una gran cantidad de información con uno mismo y el gran desarrollo que gracias a los
computadores ha tenido la industria de las telecomunicaciones han hecho que cada día veamos a nuestro
planeta mas pequeño y sea mas fácil y sencillo de explorar, los nuevos avances en la informática han servido
para que las nuevas tecnologías estén al alcance y al servicio de todos.
QUE ES UN COMPUTADOR
Es un sistema digital con tecnología microelectrónica capaz de procesar datos a partir de un grupo de
instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador
(CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la comunicación entre
ellos. En resumen la computadora es una dualidad entre hardware (parte física) y software (parte lógica), que
interactúan entre sí para una determinada función.
La característica principal que la distingue de otros dispositivos similares, como una calculadora no
programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que
los ejecute el procesador.
EVOLUCIÓN DEL TÉRMINO COMPUTADORA
Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento
bien definido. En un principio, la palabra era usada para describir a las personas que hacían cálculos
aritméticos, con o sin ayuda mecánica, pero luego se trasladó a las propias máquinas. Dentro de la definición
que acabamos de dar, entraría el uso de dispositivos mecánicos como la regla de cálculo, toda la gama de
calculadoras mecánicas desde el ábaco hacia adelante, además de todas las computadoras electrónicas
contemporáneas.
Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar
una función o un número determinado de funciones. Si pensamos en las computadoras modernas, la
característica más importante que los distingue de los aparatos anteriores es que tienen una programación
adecuada. Con cualquier computadora se puede emular el funcionamiento de otra (únicamente limitado por la
capacidad de almacenamiento de datos y las diferentes velocidades) y, de hecho, se cree que con las actuales
se puede emular a cualquier computadora que se invente en el futuro (aunque sean mucho más lentos). Por lo
tanto, en cierto sentido, esta capacidad crítica es una prueba muy útil, para identificar las computadoras de uso
general de los aparatos destinados a usos específicos(como las macrocomputadoras).
Esta característica de poderse emplear para un uso general se puede formalizar en una regla según la cual con
1
una máquina de estas características se debe poder emular el funcionamiento de una máquina de Turing
universal. Las máquinas que cumplan con esta definición son homologables a la máquina de Turing.
Originariamente, el procesamiento de la información estaba relacionado de manera casi exclusiva con
problemas aritméticos.
Sin embargo, en los últimos veinte años aproximadamente muchos aparatos domésticos, sobre todo las
consolas para videojuegos, a las que hay que añadir los teléfonos móviles, los vídeos, los asistentes personales
digitales (PDA) y un sinfín de aparatos caseros, industriales, para carros y electrónicos, tienen circuitos
homologables a la máquina de Turing (con la limitación de que la programación de estos aparatos está
instalada en un chip de memoria ROM que hay que remplazar cada vez que queremos cambiar la
programación).
Esta especie de computadoras que se encuentran dentro de otras computadoras de uso general son conocidos
como microcontroladores o computadores integrados. Por lo tanto, muchas personas han restringido la
definición de computadora a aquellas máquinas cuyo propósito principal sea el procesamiento de información
y que puedan adaptarse a una gran variedad de tareas, sin ninguna modificación física, excluyendo a aquellos
dispositivos que forman parte de un sistema más grande como los teléfonos, microondas o aviones.
TIPOS DE COMPUTADORAS
Tradicionalmente existen tres tipos de computadoras que cumplen con estos requisitos: las computadoras
centrales, las minicomputadoras y las computadoras personales. Las minicomputadoras, como tales, ya no
existen, habiendo sido reemplazadas por computadoras personales con programas especiales capaces de
manejar y distribuir recursos entre múltiples usuarios, como por ejemplo programas para servicio de correo;
las mismas computadoras centrales tienen características propias de la computadora personal, como el estar
basadas en microprocesadores.
Para finalizar, hay que decir que mucha gente que no está familiarizada con otras formas de computadoras,
usa el término para referirse exclusivamente a las computadoras personales.
Dentro de las computadoras personales, se suele distinguir entre la computadora de sobremesa, (desktop
computer, en inglés), la computadora portátil (notebook o laptop) y la computadora portátil de sobremesa,
semiportatil, (desk+note o desknote en inglés), híbrido de las dos anteriores.
CÓMO FUNCIONAN LAS COMPUTADORAS
Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron
los primeros computadores en los años 40, la mayoría todavía utilizan la arquitectura von Neumann, propuesta
a principios de los años 1940 por John von Neumann.
La arquitectura von Neumann describe un computador con 4 secciones principales: la unidad lógica y
aritmética (ALU), la unidad de control, la memoria, y los dispositivos de entrada y salida (E/S). Estas partes
están interconectadas por un conjunto de cables denominados buses.
En este sistema, la memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un
bit o unidad de información. La instrucción es la información necesaria para realizar, lo que se desea, con la
computadora. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con la
computadora. En general, la memoria puede ser rescrita varios millones de veces; se parece más a una libreta
que a una lápida.
El tamaño de cada celda y el número de celdas varía mucho de computadora a computadora, y las tecnologías
2
empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de
mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores
individuales a circuitos integrados con millones de celdas en un solo chip.
Con los circuitos electrónicos se simula las operaciones lógicas y aritméticas, se pueden diseñar circuitos para
que realicen cualquier forma de operación.
La unidad lógica y aritmética, o ALU, es el dispositivo diseñado y construido para llevar a cabo las
operaciones elementales como las operaciones aritméticas (suma, resta), operaciones lógicas (Y, O, NO), y
operaciones de comparación. En esta unidad es en donde se hace todo el trabajo computacional.
La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que la
computadora va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación
que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que
ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente
posición, a menos que la instrucción sea una instrucción de salto, informando a la computadora de que la
próxima instrucción estará ubicada en otra posición de la memoria).
Los dispositivos E/S sirven a la computadora para, obtener información del mundo exterior y devolver los
resultados de dicha información. Hay una gama muy extensa de dispositivos E/S como los teclados, monitores
y unidades de disco flexible o las cámaras web.
Las instrucciones que acabamos de discutir, no son las ricas instrucciones del ser humano. Una computadora
sólo se diseña con un número limitado de instrucciones bien definidas. Los tipos de instrucciones típicas
realizadas por la mayoría de las computadoras son como estos ejemplos: "...copia los contenidos de la
posición de memoria 123, y coloca la copia en la posición 456, añade los contenidos de la posición 666 a la
042, y coloca el resultado en la posición 013, y, si los contenidos de la posición 999 son 0, tu próxima
instrucción está en la posición 345...".
Las instrucciones dentro de la computadora se representan mediante números. Por ejemplo, el código para
copiar puede ser 001. El conjunto de instrucciones que puede realizar una computadora se conoce como
lenguaje de máquina o código máquina. En la práctica, no se escriben las instrucciones para las computadoras
directamente en lenguaje de máquina, sino que se usa un lenguaje de programación de alto nivel que se
traduce después al lenguaje de la máquina automáticamente, a través de programas especiales de traducción
(intérpretes y compiladores). Algunos lenguajes de programación representan de manera muy directa el
lenguaje de máquina, como los ensambladores (lenguajes de bajo nivel) y, por otra parte, los lenguajes como
Prolog, se basan en principios abstractos muy alejados de los que hace la máquina en concreto (lenguajes de
alto nivel).
Las computadoras actuales colocan la ALU y la unidad de control dentro de un único circuito integrado
conocido como Unidad central de procesamiento o CPU. Normalmente, la memoria de la computadora se
sitúa en unos pocos circuitos integrados pequeños cerca de la CPU. La gran mayoría de la masa de la
computadora está formada por sistemas auxiliares (por ejemplo, para traer electricidad) o dispositivos E/S.
Algunas computadoras más grandes se diferencian del modelo anterior, en un aspecto importante, porque
tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunas computadoras,
usadas principalmente para la investigación, son muy diferentes del modelo anterior, pero no tienen muchas
aplicaciones comerciales.
Por lo tanto, el funcionamiento de una computadora es en principio bastante sencillo. La computadora trae las
instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan los datos y se va a por la
siguiente instrucción. Este procedimiento se repite continuamente, hasta que se apaga la computadora. Los
3
Programas de computadora (software) son simplemente largas listas de instrucciones que debe ejecutar la
computadora, a veces con tablas de datos. Muchos programas de computadora contienen millones de
instrucciones, y muchas de esas instrucciones se ejecutan rápidamente. Una computadora personal moderna
(en el año 2006) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades
extraordinarias que tienen las computadoras no se deben a su habilidad para ejecutar instrucciones complejas.
Las computadoras ejecutan millones de instrucciones simples diseñadas por personas inteligentes llamados
programadores. Los buenos programadores desarrollan grupos de instrucciones para hacer tareas comunes
(por ejemplo, dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de
otros programadores.
En la actualidad, podemos tener la impresión de que las computadoras están ejecutando varios programas al
mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU
ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo
programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios
programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película
que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que controla el
reparto del tiempo generalmente.
El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de
computadora se usa en muchos tipos diferentes de programas durante muchos años, los programadores
llevarán dicha rutina al sistema operativo, al final.
El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes
(memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros
programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin
necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
En la actualidad se están empezando a incluir dentro del sistema operativo algunos programas muy usados
debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya
navegadores de internet, procesadores de texto, programas de correo electrónico, interfaces de red,
reproductores de películas y otros programas que antes se tenían que conseguir aparte
USOS DE LAS COMPUTADORAS
Las primeras computadoras digitales, de gran tamaño y costo, se utilizaban principalmente para hacer cálculos
científicos. ENIAC, una de las primeras computadoras, calculaba densidades de neutrón transversales para ver
si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer computador australiano, evaluó patrones de
precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que
la programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usaron las computadoras para
automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por
humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los
científicos de todos los campos empezaron a utilizar las computadoras para hacer sus propios análisis. El
descenso continuo de los precios de las computadoras permitió su uso por empresas cada vez más pequeñas.
Las empresas, las organizaciones y los gobiernos empiezan a emplear un gran número de pequeñas
computadoras para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La
reunión de varias pequeñas computadoras en un solo lugar se llamaba torre de servidores.
Con la invención del microprocesador en 1970, fue posible fabricar computadoras muy baratas. Las
computadoras personales se hicieron famosas para llevar a cabo diferentes tareas como guardar libros, escribir
e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo,
4
comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadoras y su
fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.
Al mismo tiempo, las pequeñas computadoras, casi siempre con una programación fija, empezaron a hacerse
camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores
integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de
funciones de control más complejas como los sistemas de freno antibloqueo en los carros. A principios del
siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las
líneas de producción de las fábricas funcionan con una computadora. La mayoría de los ingenieros piensa que
esta tendencia va a continuar.
HISTORIA Y EVOLUCIÓN DEL COMPUTADOR
La historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras
herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos
empezaron a formar naciones y el comercio era ya medio de vida.
La evolución histórica del procesamiento de datos se divide en cuatro fases:
1.− técnicas de registros
2.− dispositivos de cálculo
3.− programas de tarjetas perforadas
4.− computadores electrónicos
Una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos
(programación de computadoras), pues las computadoras procesan datos para producir información
significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar).
La información está constituida por los datos procesados; la información tiene significado , los datos no.
La computadora y sus programas llevan a cabo el procesamiento de la entrada; por lo tanto el programa
convierte los datos en información útil.
El Ábaco
Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea los dedos, piedras,
conchas, semillas. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en
el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme
rapidez y precisión.
En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las
investigaciones de Nappier, Gunther y Bissaker. John Napier (1550−1617) descubre la relación entre series
aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se encarga de marcar los
logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de Nappier y Gunter sobre un pedazo
de madera, creando de esta manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es
perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil.
5
Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas
representadas por la regla de cálculo, eran de uso común en toda Europa.
La Pascalina
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el
matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que
cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que
podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático
alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera
perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico
estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de
Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de
población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas
sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la
computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para
solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la
matemática británica Augusta Ada Byron (1815−1852), hija del poeta inglés Lord Byron, como a los
verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de
trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía
muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de
paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones
matemáticas y una impresora para hacer permanente el registro.
Primeros Ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos
realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las
aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros
métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero
mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el
manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr.
Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es
esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e
información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en
principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los
equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora.
La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la
Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la
computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el
comportamiento de las sociedades.
6
Durante la II Guerra Mundial (1939−1945), un equipo de científicos y matemáticos que trabajaban en
Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente
electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de
vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de
radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford
Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este
prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por
el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical
Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el
ordenador Atanasoff−Berry (en inglés ABC, Atanasoff−Berry Computer), obtuvo una patente que caducó en
1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por
minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó
un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del
matemático húngaro−estadounidense John Von Neumann. Las instrucciones se almacenaban dentro de una
llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel
durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos
lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los
transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el
nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda
generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la
fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios
transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito
integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El
microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del
circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de
integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores
interconectados soldados sobre un único sustrato de silicio.
GENERACIONES
Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las
siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se
enuncian a continuación.
Primera Generación (1951−1958)
Características Principales:
Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta.
Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas).
7
Alto consumo de energía. El voltaje de los tubos era de 300 v y la posibilidad de fundirse era grande.
Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su
interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban.
Continuas fallas o interrupciones en el proceso.
Requerían sistemas auxiliares de aire acondicionado especial.
Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la
programación resultaba larga y compleja.
Alto costo.
Uso de tarjetas perforadas para suministrar datos y los programas.
Computadora representativa UNIVAC y utilizada en las elecciones presidenciales de los E.U.A. en 1952.
Fabricación industrial. La iniciativa se aventuro a entrar en este campo e inició la fabricación de
computadoras en serie.
Segunda generación (1959−1964)
(Transistores)
Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más
pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos
motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes
podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio.
Características Principales:
Transistor como potente principal. El componente principal es un pequeño trozo de semiconductor, y se
expone en los llamados circuitos transistorizados.
Disminución del tamaño.
Disminución del consumo y de la producción del calor.
Su fiabilidad alcanza metas inimaginables con los efímeros tubos al vacío.
Mayor rapidez, la velocidad de las operaciones ya no se mide en segundos sino en ms.
Memoria interna de núcleos de ferrita.
Instrumentos de almacenamiento: cintas y discos.
Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de
células fotoeléctricas.
Introducción de elementos modulares.
Aumenta la confiabilidad.
8
Las impresoras aumentan su capacidad de trabajo.
Lenguajes de programación mas potentes, ensambladores y de alto nivel (fortran, cobol y algol).
Aplicaciones comerciales en aumento, para la elaboración de nóminas, facturación y contabilidad, etc.
Tercera generación (1964 − 1971)
Circuito integrado (chips)
Características Principales:
Circuito integrado desarrollado en 1958 por Jack Kilbry.
Circuito integrado, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip).
Menor consumo de energía.
Apreciable reducción de espacio.
Aumento de fiabilidad y flexibilidad.
Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
Generalización de lenguajes de programación de alto nivel.
Compatibilidad para compartir software entre diversos equipos.
Computadoras en Serie 360 IBM.
Teleproceso: Se instalan terminales remotas, que accesen la Computadora central para realizar operaciones,
extraer o introducir información en Bancos de Datos, etc...
Multiprogramación: Computadora que pueda procesar varios Programas de manera simultánea.
Tiempo Compartido: Uso de una computadora por varios clientes a tiempo compartido, pues el aparato puede
discernir entre diversos procesos que realiza simultáneamente.
Renovación de periféricos.
Instrumentación del sistema.
Ampliación de aplicaciones: en Procesos Industriales, en la Educación, en el Hogar, Agricultura,
Administración, Juegos, etc.
La mini computadora.
Cuarta generación (1971−1982)
(Microcircuito integrado)
El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas
microscópicas. La micro miniaturización permite construir el microprocesador, circuito integrado que rige las
9
funciones fundamentales del ordenador.
Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en
multitud de aparatos, sean instrumentos médicos, automóviles, juguetes, electrodomésticos, etc.
Memorias Electrónicas: Se desechan las memorias internas de los núcleos magnéticos de ferrita y se
introducen memorias electrónicas, que resultan más rápidas. Al principio presentan el inconveniente de su
mayor costo, pero este disminuye con la fabricación en serie.
Sistema de tratamiento de base de datos: el aumento cuantitativo de las bases de datos lleva a crear formas de
gestión que faciliten las tareas de consulta y edición. Lo sistemas de tratamiento de base de datos consisten en
un conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la
información
Características Principales
Microprocesador: Desarrollado por Intel Corporation a solicitud de una empresa Japonesa (1971).
El Microprocesador: Circuito Integrado que reúne en la placa de Silicio las principales funciones de la
Computadora y que va montado en una estructura que facilita las múltiples conexiones con los restantes
elementos.
Se minimizan los circuitos, aumenta la capacidad de almacenamiento.
Reducen el tiempo de respuesta.
Gran expansión del uso de las Computadoras.
Memorias electrónicas más rápidas.
Sistemas de tratamiento de bases de datos.
Generalización de las aplicaciones: innumerables y afectan prácticamente a todos los campos de la actividad
humana: Medicina, Hogar, Comercio, Educación, Agricultura, Administración, Diseño, Ingeniería, etc...
Multiproceso.
Microcomputador
Generación Posterior y La Inteligencia Artificial (1982− )
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la
capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la
Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente,
(programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el
procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos
originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores
tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la
próxima serie de soluciones.
Características Principales:
10
Mayor velocidad.
Mayor miniaturización de los elementos.
Aumenta la capacidad de memoria.
Multiprocesador (Procesadores interconectados).
Lenguaje Natural.
Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).
Máquinas activadas por la voz que pueden responder a palabras habladas en diversas lenguas y dialectos.
Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de lenguajes hablados y
escritos.
Elaboración inteligente del saber y número tratamiento de datos.
Características de procesamiento similares a las secuencias de procesamiento Humano.
La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:
Sistemas Expertos
Un sistema experto no es una Biblioteca (que aporta información), si no, un consejero o especialista en una
materia (de ahí que aporte saber, consejo experimentado).
Un sistema experto es un sofisticado programa de computadora, posee en su memoria y en su estructura una
amplia cantidad de saber y, sobre todo, de estrategias para depurarlo y ofrecerlo según los requerimientos,
convirtiendo al sistema en un especialista que está programado.
Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar,
exploración petrolera, etc... Se programa a la computadora para reaccionar en la misma forma en que lo
harían expertos, hacia las mismas preguntas, sacaba las mismas conclusiones iniciales, verificaba de la misma
manera la exactitud de los resultados y redondeaba las ideas dentro de principios bien definidos.
Lenguaje natural
Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin
ninguna dificultad de comprensión, ya sea oralmente o por escrito: hablar con las máquinas y que éstas
entiendan nuestra lengua y también que se hagan entender en nuestra lengua.
Robótica
Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Los Robots son dispositivos
compuestos de sensores que reciben Datos de Entrada y que están conectados a la Computadora. Esta recibe
la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente.
Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de
fabricación. ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc...
Reconocimiento De La Voz
Las aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una computadora,
11
de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier otro tipo de función.
ARQUITECTURA DEL COMPUTADOR
El termino de arquitectura se refiere bien sea al hardware o software o también la combinación de ambos
mejor conocido como firmware dentro del mundo de la computación.
Una arquitectura de un sistema siempre define su estructura y puede ser definida mediante mecanismos
precisos.
La arquitectura de un computador puede ser vista de varias maneras:
• En el hardware tendríamos una arquitectura compuesta por varios elementos o dispositivos físicos y
electrónicos que interactúan entre si.
• En el software la arquitectura esta compuesta por códigos que juntos dan instrucciones creando
programas.
ARQUITECTURA ABIERTA
Un sistema abierto es aquel que es capaz de hacer que todos los componentes del sistema del computador sean
compatibles en cualquier ambiente sin importar la compañía que lo haya producido, que posea un ambiente
estándar de aplicaciones disponibles por proveedores controlados por usuarios y la industria, es decir, se le
pueden implantar dispositivos periféricos de diferentes orígenes y combinarlos entre si.
La idea de sistemas abiertos se concibe de un proyecto que demuestra la forma que todos los sistemas
empresariales pueden funcionar juntos a tres niveles: mainframes, mini computadores y estaciones de trabajo,
sin importar que esos sistemas usen productos de diferentes proveedores.
Una arquitectura abierta también es toda aquella que puede ser modificada por un programador capacitado
que no pertenezca a la compañía que creo el código fuente, puede ser a su vez la información redistribuida y
compartida siempre y cuando el programador tenga la licencia para realizar dichos actos.
Para la arquitectura abierta los que se benefician mayormente son los clientes debido a que les ofrece mayor
diversidad de productos a la hora de comprarlos para su beneficio. También promueve la no monopolización
de grandes compañías favoreciendo la creación de mayor cantidad de compañías.
Los equipos de esta arquitectura son perfectos como servidores, ya que cuentan con sistemas de entradas y
salidas.
Para definir un sistema como abierto es necesario tener en cuenta los siguientes criterios:
• Que el sistema cumpla con una especificación bien definida y disponible para la industria.
• Que esta especificación sea cumplida por varios productos independientes de diferentes compañías es
decir, que haya varias implementaciones diferentes en el mercado.
• Que estas especificaciones no sean controladas por un grupo pequeño de compañías.
• Que esta especificación no esté atada a una arquitectura o tecnología específica.
ARQUITECTURA CERRADA
12
La arquitectura cerrada es aquella que es inmodificable por los programadores ajenos a la compañía
propietaria del código fuente, es decir, una persona, compañía, corporación, fundación, etc. posee los derechos
de autor sobre un software no otorgando, al mismo tiempo, los derechos de usar el programa con cualquier
propósito; de estudiar cómo funciona el programa y adaptarlo a las propias necesidades (donde el acceso al
código fuente es una condición previa); de distribuir copias; y de mejorar el programa y hacer públicas las
mejoras (para esto el acceso al código fuente es un requisito previo).
En consecuencia, un software sigue siendo no libre aún si el código fuente es hecho público, cuando se
mantiene la reserva de derechos sobre el uso, modificación o distribución.
A este sistema no se le pueden colocar dispositivos periféricos, es decir, solo se usa el hardware de la
compañía propietaria ya que dispositivos ajenos a dicha compañía no son compatibles por ende si se requiere
reparar o cambiar algún elemento del computador este tiene que ser de la compañía propietaria.
Características de la arquitectura abierta
• Son de gran utilidad en ambiente multiusuario.
• Poseen procesadores muy poderosos capaces de controlar un gran numero de terminales y
capacidades de almacenamiento que sobrepasan los Giga bites.
• Obtienen gran integración de subsistemas de información en una base de datos única.
• Menos costosos, complejidad mínima y más flexibles.
• No están atados a un solo tipo de hardware propietario.
• Poseen un ambiente integrado de información.
• Cumplen o generan estándares.
• Sus especificaciones son generales.
• El software poseen alto grado de portabilidad.
• Flexibilidad de los lenguajes de programación.
• Permite la conexión fácil a aparatos y programas hechos por otras compañias.
CARACTERÍSTICAS DE LA ARQUITECTURA CERRADA
• son de gran utilidad a nivel empresarial.
• Altos costos para su mantenimiento.
• Dependen de un hardware específico de la compañía propietaria.
• Este hardware posee un gran bajo grado de portabilidad.
• Los lenguajes de programación son determinados por la compañía específica creadora del programa.
• Estos equipos son inmodificables por cualquier programador.
13
• Sus espeficaciones no son generales.
• Esta arquitectura es ilimitada.
• Procesa mayor volumen de información.
• Tiene una mayor capacitada de memoria.
VENTAJAS DE LA ARQUITECTURA ABIERTA
En relación el usuario:
• Son menos costosos en cuanto a su mantenimiento como su adquisición
• Mayor provecho de tecnología.
• Múltiples proveedores de hardware y software.
• Ambiente estándar de aplicaciones.
• Múltiples soluciones disponibles de acuerdo con necesidades específicas.
• Una mayor protección de la inversión en equipos de cómputos.
• Mas disponibilidad de aplicaciones.
• Disponibilidad de una base amplia de donde obtener referencia.
• amplias variedades de software disponibles.
En relación a fabricantes:
• Crecimiento del mercado múltiple.
• Oportunidad de ventas de productos de diferentes proveedores.
• Mínimo rango de trabajo en el soporte.
• Amplio rango de herramientas de desarrollo.
• Una rápida introducción de las mejores tecnologías.
VENTAJAS DE LA ARQUITECTURA CERRADA
En relación al usuario:
• Procesan mayor cantidad de información.
• Tienen mayor capacidad de memoria.
• Es más seguro debido a que no todos los programadores tiene acceso.
14
En relación a los fabricantes:
• Le da ventajas a los fabricantes para monopolizar el mercado.
• Sus clientes están obligados a adquirir productos solo del fabricante.
• El fabricante determina el lenguaje de programación a utilizar.
DESVENTAJAS DE UNA ARQUITECTURA ABIERTA
• Es menos seguro debido a la disposición de muchas herramienta para poder acceder a los programas.
• Cada servidor procesa una información haciendo o convirtiendo esta arquitectura mas lenta
DESVENTAJAS DE UNA ARQUITECTURA CERRADA
• Su mantenimiento es mas costoso.
• Altos costo para su adquisición.
• Necesita de un personal calificado para su manejo.
• Ocupa grandes espacios.
• Necesita condiciones específicas como aire acondicionado, alta energía eléctrica etc.
• No es compatible con dispositivos periféricos ajenos a la compañía.
MICROPROCESADOR
El microprocesador, micro o "unidad central de procesamiento", CPU, es un chip que sirve como cerebro del
ordenador. En el interior de este componente electrónico existen millones de transistores integrados.
Suelen tener forma de prisma chato , y se instalan sobre un elemento llamado zócalo. Tambien, en modelos
antiguos solía soldarse directamente a la placa madre, y en modelos recientes el microprocesador se incluye
en un cartucho especial que se inserta en el zócalo y que suele incluír la conexión con un ventilador de
enfriamiento.
El microprocesador está compuesto por: registros, la Unidad de control, la Unidad aritmético−lógica, y
dependiendo del procesador, una unidad en coma flotante.
Cada fabricante de microprocesadores tendrá sus propias familias de estos, y cada familia su propio conjunto
de instrucciones. De hecho, cada modelo concreto tendrá su propio conjunto, ya que en cada modelo se tiende
a aumentar el conjunto de las instrucciones que tuviera el modelo anterior.
15
PRINCIPALES PARAMETROS
Los principales parámetros característicos de un microprocesador son su ancho de bus (medido en bits), la
frecuencia de reloj a la que trabajan (medida en hercios), y el tamaño de memoria caché (medido en
kilobytes).
Generalmente, el microprocesador tiene circuitos de almacenamiento (o memoria caché) y puertos de
entrada/salida en el mismo circuito integrado. Existen dos tipos de memoria caché cuyo funcionamiento es
análogo:
• L1 o interna (situada dentro del propio procesador y por tanto de acceso aún más rápido). La caché de
primer nivel contiene muy pocos kilobytes (unos 32 ó 64 Kb).
• L2 o externa (situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché L2
oscilan en la actualidad entre 256 kb y 4 Mb. La memoria caché L2 es ligeramente más lenta y con
más latencias que la L1, pero es más barata y de mayor cantidad de datos. En los primeros
microprocesadores, sólo la memoria caché L1 estaba integrada en el CPU, la caché L2 estaba en la
placa madre, pero actualmente todos los procesadores tienen la memoria caché L2 integrada dentro de
el mismo.
16
Funcionamiento
El microprocesador secciona en varias fases de ejecución la realización de cada instrucción:
• Fetch, lectura de la instrucción desde la memoria principal,
• Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe
hacer,
• Fetch de los datos necesarios para la realización de la operación,
• Ejecución,
• Escritura de los resultados en la memoria principal o en los registros.
17
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador,
y concretamente de su grado de supersegmentación. La duración de estos ciclos viene determinada por la
frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada
en un solo ciclo) de mayor coste temporal. El microprocesador dispone de un oscilador de cuarzo capaz de
generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo.
Velocidad
Actualmente se habla de frecuencias de Megaherzios (MHz) o de Gigaherzios (GHz), lo que supone millones
o miles de millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un
microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único. La cantidad de
instrucciones necesarias para llevar a cabo una tarea concreta, así como la cantidad de instrucciones
ejecutadas por ciclo ICP son los otros dos factores que determinan la velocidad de la CPU. La cantidad de
instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible,
mientras que el ICP depende de varios factores, como el grado de supersegmentación y la cantidad de
unidades de proceso o "pipelines" disponibles entre otros.
Bus De Datos
18
Los modelos de la familia x86 (a partir del 386) trabajan con datos de 32 bits, al igual que muchos otros
modelos de la actualidad. Pero los microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de
procesamiento por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día
microprocesadores gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no
son comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el
rendimiento de ambos no es comparable en el mismo ámbito.
La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones
especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de
información específica. Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las
extensiones 3DNow!, de AMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los
procesadores de arquitectura x86 a través de la extensión AMD64 y posteriormente con la extensión EM64T
en los procesadores AMD e Intel, respectivamente.
Zócalos
El zócalo es una matriz de pequeños agujeros ubicados en una placa base donde encajan, sin dificultad, los
pines de un microprocesador Esta matriz permite la conexión entre el microprocesador y el resto del equipo.
En los primeros ordenadores personales el microprocesador venía directamente soldado a la placa base, pero
la aparición de una amplia gama de microprocesadores llevó a la creación del zócalo.
En general cada familia de microprocesadores requiere un tipo distinto de zócalo, ya que existen diferencias
en el número de pines, su disposición geométrica y la interconexión requerida con los componentes de la
placa base. Por tanto, no es posible conectar un microprocesador a una placa base con un zócalo no diseñado
para él.
Puertos De Entrada Y Salida
El microprocesador tiene puertos de entrada/salida en el mismo circuito integrado. El chipset es un conjunto
de circuitos integrados que se encarga de realizar las funciones que el microprocesador delega en ellos. El
conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser conocido
como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se designa circuito
integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el funcionamiento
del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el
término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs.
Chipset
Este término fue usado frecuentemente entre 1970 y 1990 para designar los circuitos integrados encargados de
las tareas gráficas de los ordenadores domésticos de la época: el Commodore Amiga y el Atari ST. Ambos
ordenadores tenían un procesador principal, pero gran cantidad de sus funciones gráficas y de sonido estaban
incluidas en coprocesadores separados que funcionaban en paralelo al procesador principal.
Se ha comparado al Chipset con la médula espinal: una persona puede tener un buen cerebro, pero si la
médula falla, todo el cuerpo no sirve para nada. En los microprocesadores normales el chipset está formado
por 2 circuitos auxiliares al procesador principal:
• El puente norte se usa como puente de enlace entre el microprocesador y la memoria, controlando las
funciones de acceso hacia y desde el microprocesador, la memoria RAM, el puerto gráfico AGP, y las
comunicaciones con el puente sur.
• El puente sur controla los dispositivos asociados: la controladora de discos IDE, puertos USB,
Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN
19
y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. El
puente sur es el encargado de comunicar el procesador con el resto de los periféricos.
Síntesis Histórica
El primer microprocesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los
diseñadores jefe fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde de
ZiLOG).
Los microprocesadores modernos están integrados por millones de transistores y otros componentes
empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van
dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que
componen un microprocesador son, entre otras: unidad aritmético−lógica, registros de almacenamiento,
unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.
Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix, AMD. A lo
largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su
capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Itanium,
Transmeta Efficeon o Cell. Ahora los nuevos micros pueden tratar instrucciones de hasta 256 bits, habiendo
pasado por los de 128, 64, 32, 16, 8 y 4. Desde la aparición de los primeros computadores en los años cuarenta
del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador
surgiera por simple disminución del procesador.
Avances
Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la
Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de
muchos componentes. En los primeros procesadores gran parte de los componentes estaban ociosos el 90%
del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo
microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando.
Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto
con el gran número de transistores por microprocesador (debido en parte al uso de memorias cache) es lo que
hace que se necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en
comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de
ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centímetros
20
cúbicos.
MEMORIA
Memoria de ordenador, y, de vez en cuando Memoria se refiere a componentes de un ordenador, dispositivos
y medios de grabación que retienen datos informáticos durante algún intervalo tiempo. Las Memorias de
ordenador proporcionan una de las principales funciones de la computación moderna, la retención de
información. Es uno de los componentes fundamentales de todos los ordenadores modernos que, acoplados a
una Unidad Central de Proceso (CPU por su acrónimo en inglés), implementa lo fundamental del modelo de
ordenador de Von Neumann, usado desde los años 1940.
En la actualidad, memoria' suele referirse a una forma de almacenamiento de estado sólido conocido como
memoria de acceso aleatorio (RAM por sus siglas en inglés) y otras veces se refiere a otras formas de
almacenamiento rápido pero temporal. De forma similar, almacenamiento se refiere a formas de
almacenamiento masivo como Discos ópticos y tipos de almacenamiento magnético como discos duros y
otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas
distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en
general. Además, se refleja una diferencia técnica importante y significativa entre memoria y dispositivos de
almacenamiento masivo que se ha ido difuminando por el uso histórico de los términos "almacenamiento
primario" (a veces "almacenamiento principal"), para memorias de acceso aleatorio, y "almacenamiento
secundario" para dispositivos de almacenamiento masivo. Esto se explica en las siguientes secciones, en las
que el término tradicional "almacenamiento" se usan como subtítulo por conveniencia.
Elementos que la componen
Para efectuar una lectura se deposita en el bus de direcciones la dirección de la palabra de memoria que se
desea leer y entonces se activa la señal de lectura (R); después de cierto tiempo (tiempo de latencia de la
memoria), en el bus de datos aparecerá el contenido de la dirección buscada. Por otra parte, para realizar una
escritura se deposita en el bus de datos la información que se desea escribir y en el bus de direcciones la
dirección donde deseamos escribirla, entonces se activa la señal de escritura (W), pasado el tiempo de
latencia, la memoria escribirá la información en la dirección deseada. Internamente la memoria tiene un
registro de dirección (MAR, memory address register), un registro buffer de memoria o registro de datos (MB,
memory buffer, o MDR, memory data register) y, un decodificador. Esta forma de estructurar la memoria se
llama organización lineal o de una dimensión. En la figura cada línea de palabra activa todas las células de
memoria que corresponden a la misma palabra.
21
Por otra parte, en una memoria ROM programable por el usuario con organización lineal, las uniones de los
diodos correspondientes a lugares donde deba haber un "0" deben destruirse. También se pueden sustituir los
diodos por transistores y entonces la célula de memoria tiene el esquema de la figura 3−3. en este caso la
unión que debe destruirse para grabar un "0" es la del emisor.
En el caso de una memoria RAM estática con organización lineal cada célula de memoria toma la forma. En
este esquema las primeras puertas AND sólo son necesarias en el una de las células de cada palabra. Se debe
comentar la necesidad de la puerta de tres estados a la salida del biestable: esta puerta se pone para evitar que
se unan las salidas de los circuitos de las células de diferentes palabras a través del hilo de bit. Si esa puerta no
se pusiera (o hubiera otro tipo de puerta en su lugar, como una puerta AND) la información correspondiente a
la palabra activa entraría por los circuitos de salida de las demás células, lo que los dañaría.
Organizar 1a memoria de esta forma, tiene el inconveniente de que la complejidad del decodificador crece
exponencialmente con el número de entradas y, en una memoria de mucha capacidad, la complejidad del
decodificador la hace inviable. Esto hace necesaria una alternativa que simplifique los decodificadores. Esta
alternativa la constituye la organización en dos dimensiones en que los bits del registro de dirección se
dividen en dos partes y cada una de ellas va a un decodificador diferente. En este caso, las líneas procedentes
de ambos decodificadores (X e Y) se cruzan formando un sistema de coordenadas en que cada punto de cruce
corresponde a una palabra de memoria. Dado que en cada decodificador sólo se activa una línea, sólo se
activará la palabra correspondiente al punto de cruce de las dos líneas activadas. Fácilmente se puede
comprender que los decodificadores se simplifican mucho ya que cada uno tiene la mitad de entradas que en
el caso anterior. Hay que decir, sin embargo, que la célula de memoria se complica un poco porque hay que
añadir una puerta AND en cada palabra para determinar si coinciden las líneas X e Y.
La organización de la memoria en dos dimensiones también es útil para las memorias dinámicas ya que el
refresco de estas memorias se realiza por bloques y éstos pueden coincidir con una de las dimensiones (la que
corresponda a los bits de dirección de mayor peso).
En la práctica, las memo-rias diná-micas son más lentas que las es-táticas y además son de lectura destructiva,
pero resul-tan más baratas, aunque ne-cesiten cir-cuitos de refresco, si la memoria no es de mucha ca-pacidad.
Clasificación de memorias semiconductoras de acceso aleatorio
Las memorias se clasifican, por la tecnología empleada y, además según la forma en que se puede modificar
su contenido, A este respecto, las memorias se clasifican en dos grandes grupos:
1) Memorias RAM:
22
Son memorias en las que se puede leer y escribir, si bien su nombre (Random access memory) no representa
correctamente este hecho. Por su tecnología pueden ser de ferritas (ya en desuso) o electrónicas, Dentro de
éstas últimas hay memorias estáticas (SRAM, static RAM), cuya célula de memoria está basada en un
biestable, y memorias dinámicas (DRAM, dinamic RAM, en las que la célula de memoria es un pequeño
condensador cuya carga representa la información almacenada. Las memorias dinámicas necesitan circuitos
adicionales de refresco ya que los condensadores tienen muy poca capacidad y, a través de las fugas, la
información puede perderse, por otra parte, son de lectura destructiva.
2) Memorias ROM (Read 0nly Memory):
Son memorias en las que sólo se puede leer. Pueden ser:
♦ ROM programadas por máscara, cuya información se graba en fábrica y no se puede
modificar.
♦ PROM, o ROM programable una sola vez.
♦ EPROM (erasable PROM) o RPROM (reprogramable ROM), cuyo contenido puede borrarse
mediante rayos ultravioletas para regrabarlas.
♦ EAROM (electrically alterable ROM) o EEROM (electrically erasable ROM), que son
memorias que está en la frontera entre las RAM y las ROM ya que su contenido puede
regrabarse por medios eléctricos, estas se diferencian de las RAM en que no son volátiles. En
ocasiones a este tipo de memorias también se las denomina NYRAM (no volátil RAM).
♦ Memoria FLASH
23
Denominada así por la velocidad con la que puede reprogramarse, utilizan tecnología de borrado eléctrico al
igual que las EEPROM. Las memorias flash pueden borrarse enteras en unos cuantos segundos, mucho más
rápido que las EPROM.
Básicamente las memorias ROM se basan en una matriz de diodos cuya unión se puede destruir aplicando
sobre ella una sobretensión (usualmente comprendida ente −12.5 y −40 v.). De fábrica la memoria sale con 1's
en todas sus posiciones, para grabarla se rompen las uniones en que se quieran poner 0's. Esta forma de
realizar la grabación se denomina técnica de los fusibles.
Buses Del Sistema
Funciones que realiza
El bus se puede definir como un conjunto de líneas conductoras de hardware utilizadas para la transmisión de
datos entre los componentes de un sistema informático. Un bus es en esencia una ruta compartida que conecta
diferentes partes del sistema, como el microprocesador, la controladora de unidad de disco, la memoria y los
puertos de entrada/salida (E/S), para permitir la transmisión de información.
24
En el bus se encuentran dos pistas separadas, el bus de datos y el bus de direcciones. La CPU escribe la
dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria, teniendo
cada una de las líneas carácter binario. Es decir solo pueden representar 0 o 1 y de esta manera forman
conjuntamente el número de la posición dentro de la memoria (es decir: la dirección). Cuanto mas líneas haya
disponibles, mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. En
el bus de direcciones original habían ya 20 direcciones, ya que con 20 bits se puede dirigir a una memoria de 1
MB y esto era exactamente lo que correspondía a la CPU.
Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica, ya que aparte de los bus de
datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la
CPU y la memoria, a las cuales también se acude. Todas las tarjetas del bus escuchan, y se tendrá que
encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique a la CPU que es
responsable de la dirección que se ha introducido. Las demás tarjetas se despreocupan del resto de la
comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas.
Este mismo concepto es también la razón por la cual al utilizar tarjetas de ampliación en un PC surgen
problemas una y otra vez, si hay dos tarjetas que reclaman para ellas el mismo campo de dirección o campos
de dirección que se solapan entre ellos.
Los datos en si no se mandan al bus de direcciones sino al bus de datos. El bus XT tenía solo 8 bits con lo cual
sólo podía transportar 1 byte a la vez. Si la CPU quería depositar el contenido de un registro de 16 bits o por
valor de 16 bits, tenía que desdoblarlos en dos bytes y efectuar la transferencia de datos uno detrás de otro.
De todas maneras para los fabricantes de tarjetas de ampliación, cuyos productos deben atenderse a este
protocolo, es de una importancia básica la regulación del tiempo de las señales del bus, para poder trabajar de
forma inmejorable con el PC. Pero precisamente este protocolo no ha sido nunca publicado por lBM con lo
que se obliga a los fabricantes a medir las señales con la ayuda de tarjetas ya existentes e imitarlas. Por lo
tanto no es de extrañar que se pusieran en juego tolerancias que dejaron algunas tarjetas totalmente
eliminadas.
Estructuras de interconexión
Existen dos organizaciones físicas de operaciones E/S que tienen que ver con los buses que son:
Bus único
Bus dedicado
La primera gran diferencia entre estas dos tipos de estructuras es que el bus único no permite un controlador
DMA (todo se controla desde la CPU), mientras que el bus dedicado si que soporta este controlador.
El bus dedicado trata a la memoria de manera distinta que a los periféricos (utiliza un bus especial) al
contrario que el bus único que los considera a ambos como posiciones de memoria (incluso equipara las
operaciones E/S con las de lectura/escritura en memoria). Este bus especial que utiliza el bus dedicado tiene 4
componentes fundamentales:
◊ Datos: Intercambio de información entre la CPU y los periféricos.
◊ Control: Lleva información referente al estado de los periféricos (petición de
interrupciones).
◊ Direcciones: Identifica el periférico referido.
25
◊ Sincronización: Temporiza las señales de reloj.
La mayor ventaja del bus único es su simplicidad de estructura que le hace ser más económico, pero no
permite que se realice a la vez transferencia de información entre la memoria y el procesador y entre los
periféricos y el procesador.
Por otro lado el bus dedicado es mucho más flexible y permite transferencias simultáneas. Por contra su
estructura es más compleja y por tanto sus costes son mayores.
Tipos
El Bus Xt Y El Bus Isa (At)
Cuando en 1980 IBM fabricó su primer PC, este contaba con un bus de expansión conocido como XT que
funcionaba a la misma velocidad que los procesadores Intel 8086 y 8088 (4.77 Mhz). El ancho de banda de
este bus (8 bits) con el procesador 8088 formaba un tandem perfecto, pero la ampliación del bus de datos en el
8086 a 16 bits dejo en entredicho este tipo de bus (aparecieron los famosos cuellos de botella).
Dada la evolución de los microprocesadores el bus del PC no era ni mucho menos la solución para una
comunicación fluida con el exterior del micro. En definitiva no podía hablarse de una autopista de datos en un
PC cuando esta sólo tenía un ancho de 8 bits. Por lo tanto con la introducción del AT apareció un nuevo bus
en el mundo del PC, que en relación con el bus de datos tenía finalmente 16 bits (ISA), pero que era
compatible con su antecesor. La única diferencia fue que el bus XT era síncrono y el nuevo AT era asíncrono.
Las viejas tarjetas de 8 bits de la época del PC pueden por tanto manejarse con las nuevas tarjetas de 16 bits
en un mismo dispositivo. De todas maneras las tarjetas de 16 bits son considerablemente más rápidas, ya que
transfieren la misma cantidad de datos en comparación con las tarjetas de 8 bits en la mitad de tiempo
(transferencia de 16 bits en lugar de transferencia de 8 bits).
No tan solo se amplió el bus de datos sino que también se amplió el bus de direcciones, concretamente hasta
24 bits, de manera que este se podía dirigir al AT con memoria de 16 MB. Además también se aumentó la
velocidad de cada una de las señales de frecuencia, de manera que toda la circulación de bus se desarrollaba
más rápidamente. De 4.77 Mhz en el XT se pasó a 8.33 Mhz. Como consecuencia el bus forma un cuello de
botella por el cual no pueden transferirse nunca los datos entre la memoria y la CPU lo suficientemente
rápido. En los discos duros modernos por ejemplo, la relación (ratio) de transferencia de datos ya es superior
al ratio del bus.
A las tarjetas de ampliación se les ha asignado incluso un freno de seguridad, concretamente en forma de una
señal de estado de espera (wait state), que deja todavía mas tiempo a las tarjetas lentas para depositar los datos
deseados en la CPU.
Especialmente por este motivo el bus AT encontró sucesores de más rendimiento en Micro Channel y en el
Bus EISA, que sin embargo, debido a otros motivos, no han tenido éxito.
Local Bus
Teniendo en cuenta las mencionadas limitaciones del bus AT y la infalibilidad de los buses EISA y MCA para
asentarse en el mercado, en estos años se han ideado otros conceptos de bus. Se inició con el llamado Vesa
Local Bus (VL−Bus), que fue concebido y propagado independientemente por el comité VESA, que se
propuso el definir estándares en el ámbito de las tarjetas gráficas y así por primera vez y realmente tuviera
poco que ver con el diseño del bus del PC. Fueron y son todavía las tarjetas gráficas quienes sufren la menor
velocidad del bus AT. Por eso surgió, en el Comité VESA, la propuesta para un bus más rápido que fue el
VESA Local Bus.
26
AGP (Accelerated Graphics Port)
La tecnología AGP, creada por Intel, tiene como objetivo fundamental el nacimiento de un nuevo tipo de PC,
en el que se preste especial atención a dos facetas: gráficos y conectividad.
La especificación AGP se basa en la especificación PCI 2.1 de 66 Mhz (aunque ésta apenas se usa, dado que
la mayoría de las tarjetas gráficas disponibles tan sólo son capaces de utilizar la velocidad de bus de 33 Mhz),
y añade tres características fundamentales para incrementar su rendimiento: operaciones de lectura/escritura
en memoria con pipeline, demultiplexado de datos y direcciones en el propio bus, e incremento de la
velocidad hasta los 100 Mhz (lo que supondría unos ratios de transferencia de unos 800 Mbytes por segundo,
superiores en más de 4 veces a los alcanzados por PCI).
Pero el bus AGP es también un bus exclusivamente dedicado al apartado gráfico, tal y como se deriva de su
propio nombre, Accelerated Graphics Port o bus acelerado para gráficos. Esto tiene como consecuencia
inmediata que no se vea obligado a compartir el ancho de banda con otros componentes, como sucede en el
caso del PCI.
Otra característica interesante es que la arquitectura AGP posibilita la compartición de la memoria principal
por parte de la aceleradora gráfica, mediante un modelo que Intel denomina DIME (Direct Memory Execute,
o ejecución directa a memoria) y que posibilitará mejores texturas en los futuros juegos y aplicaciones 3D, al
almacenar éstas en la RAM del sistema y transferirlas tan pronto como se necesiten
Entrada y salida
Funciones que realiza
Vamos a señalar las funciones que debe realizar un computador para ejecutar trabajos de entrada/salida:
• Direccionamiento o selección del dispositivo que debe llevar a cabo la operación de E/S.
• Transferencia de los datos entre el procesador y el dispositivo (en uno u otro sentido).
• Sincronización y coordinación de las operaciones.
Esta última función es necesaria debido a la deferencia de velocidades entre los dispositivos y la CPU y a la
independencia que debe existir entre los periféricos y la CPU (por ejemplo, suelen tener relojes diferentes).
Se define una transferencia elemental de información como la transmisión de una sola unidad de información
(normalmente un byte) entre el procesador y el periférico o viceversa. Para efectuar una transferencia
elemental de información son precisas las siguientes funciones:
• Establecimiento de una comunicación física entre el procesador y el periférico para la transmisión de
la unidad de información.
• Control de los periféricos, en que se incluyen operaciones como prueba y modificación del estado del
periférico. Para realizar estas funciones la CPU gestionará las líneas de control necesarias.
Definiremos una operación de E/S como el conjunto de acciones necesarias para la transferencia de un
conjunto de datos (es decir, una transferencia completa de datos). Para la realización de una operación de E/S
se deben efectuar las siguientes funciones:
• Recuento de las unidades de información transferidas (normalmente bytes) para reconocer el fin de
operación.
• Sincronización de velocidad entre la CPU y el periférico.
• Detección de errores (e incluso corrección) mediante la utilización de los códigos necesarios (bits de
27
paridad, códigos de redundancia cíclica, etc.)
• Almacenamiento temporal de la información. Es más eficiente utilizar un buffer temporal específico
para las operaciones de E/S que utilizan el área de datos del programa.
• Conversión de códigos, conversión serie/paralelo, etc.
Dispositivos Externos
Una de las funciones básicas del computador es comunicarse con los dispositivos exteriores, es decir, el
computador debe ser capaz de enviar y recibir datos desde estos dispositivo. Sin esta función, el ordenador no
sería operativo porque sus cálculos no serían visibles desde el exterior.
Existe una gran variedad de dispositivos que pueden comunicarse con un computador, desde los dispositivos
clásicos (terminales, impresoras, discos, cintas, cte.) hasta convertidores A/D y D/A para aplicaciones de
medida y control de procesos, De todos los posibles periféricos, algunos son de lectura, otros de escritura y
otros de lectura y escritura (es importante resaltar que este hecho siempre se mira desde el punto de vista del
proceso). Por otra parte, existen periféricos de almacenamiento también llamados memorias auxiliares o
masivas.
La mayoría de los periféricos están compuestos por una parte mecánica y otra parte electrónica. Estas partes
suelen separarse claramente para dar una mayor modularidad. A la componente electrónica del periférico se le
suele denominar controlador del dispositivo o, también, adaptador del dispositivo. Si el dispositivo no tiene
parte mecánica (como, por ejemplo, la pantalla de un terminal), el controlador estará formado por la parte
digital del circuito. Frecuentemente los controladores de los dispositivos están alojados en una placa de
circuito impreso diferenciada del resto del periférico. En este caso es bastante habitual que un mismo
controlador pueda dar servicio a dispositivos de características similares.
El principal problema planteado por los periféricos es su gran variedad que también afecta a las velocidades
de transmisión. Por tanto, el mayor inconveniente que encontramos en los periféricos es la diferencia entre sus
velocidades de transmisión y la diferencia entre éstas y la velocidad de operación del computador.
Uso de interrupciones
Un computador debe disponer de los elementos suficientes para que el programador tenga un control total
sobre todo lo que ocurre durante la ejecución de su programa. La llegada de una interrupción provoca que la
CPU suspenda la ejecución de un programa e inicie la de otro (rutina de servicio de interrupción). Como las
interrupciones pueden producirse en cualquier momento, es muy probable que se altere la secuencia de
sucesos que el programador había previsto inicialmente. Es por ello que las interrupciones deber controlarse
cuidadosamente.
De esta forma, podemos resumir todos las etapas seguidas ante una interrupción en un sistema dotado de
vectorización. Estos pasos son los siguientes:
El dispositivo envía la solicitud de interrupción mediante la línea INTR.
El procesador termina la ejecución de la instrucción en curso y analiza la línea de petición de interrupción,
INTR. Si esta línea no está activada continuará normalmente con la ejecución de la siguiente instrucción, en
caso contrario se pasa a la etapa siguiente.
La CPU reconoce la interrupción, para informar al dispositivo de ello, activa la línea de reconocimiento de
interrupción, INTA.
El dispositivo que reciba la señal INTA envía el código de interrupción por el bus de datos.
28
La CPU calcula la dirección de memoria donde se encuentra la rutina de servicio de interrupción (vector de
interrupción).
El estado del procesador, y en particular el contador de programa, se salva en la pila de la misma forma que en
una llamada a procedimiento.
La dirección de la rutina de servicio de interrupción se carga en el contador de programa, con lo que se pasa el
control a la citada rutina.
La ejecución continúa hasta que el procesador encuentre la instrucción de retorno de interrupción.
Cuando se encuentre la instrucción de retorno de interrupción se restaura el estado del procesador, en especial
el contador de programa, y se devuelve el control al programa interrumpido.
Normalmente la primera instrucción de la rutina de servicio tendrá como fin desactivar las interrupciones para
impedir el anidamiento, por otra parte, antes de devolver el control al programa interrumpido se volverán a
habilitar si es necesario.
DISPOSITIVOS DE ENTRADA
Estos dispositivos permiten al usuario del ordenador introducir datos, comandos y programas en la CPU. El
dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información
introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Otros dispositivos de
entrada son los lápices ópticos, que transmiten información gráfica desde tabletas electrónicas hasta el
ordenador; joysticks y el ratón o mouse, que convierte el movimiento físico en movimiento dentro de una
pantalla de ordenador; los escáneres luminosos, que leen palabras o símbolos de una página impresa y los
traducen a configuraciones electrónicas que el ordenador puede manipular y almacenar; y los módulos de
reconocimiento de voz, que convierten la palabra hablada en señales digitales comprensibles para el
ordenador. También es posible utilizar los dispositivos de almacenamiento para introducir datos en la unidad
de proceso. Otros dispositivos de entrada, usados en la industria, son los sensores.
EL TECLADO
Un teclado de un computador es un periférico utilizado para la introducción de órdenes y datos en un
ordenador. Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El
tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de ordenador y
máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas
corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en
español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la
letra "ñ" y "Ñ" en su distribución de teclas,
Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como
mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas.
Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla
mayúsculas, etiquetada como "!". Para teclear un símbolo que se encuentra en la parte inferior derecha de una
tecla, se emplea la tecla Alt−Gr.
29
TECLAS DE INTERES
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los
caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se
presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se
debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia
aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra "a", obtendrá una "a"
acentuada ( á ). Sin embargo, si se presiona una tecla inerte y a continuación la tecla "t", no aparecerá nada en
la pantalla o aparecerán los dos caracteres por separado ( ´t ), a menos que la fuente particular para su idioma
incluya la "t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la
barra de espacio.
HISTORIA
Disposición de las teclas
30
La disposición de las teclas se remonta a las primeras máquinas de escribir. Aquellas máquinas eran
enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que
golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los
martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se
encallaban. Para que esto ocurriese lo menos posible, el diseñador del teclado QWERTY hizo una distribución
de las letras de forma contraria a lo que hubiese sido lógico con base en la frecuencia con la que cada letra
aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se encallaban menos veces.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también
eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras
más corrientes en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar
la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas
incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de los ordenadores
personales, que por aquel entonces se encontraban en pleno auge.
Estructura
Un teclado está realizado mediante un microcontrolador, normalmente de las familias 8048 u 8051 de Intel.
Estos microcontroladores ejecutan sus propios programas que están grabados en sus respectivas ROMs
internas. Estos programas realizan la exploración matricial de las teclas para determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en
la misma, sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición
física. Si no se hiciera así ese sistema sería muy dependiente de cada idioma, también hay que tener en cuenta
que idiomas como por ejemplo en francés tienen teclados AZERTY en lugar del que se tiene en Estados
Unidos QWERTY. Los teclados usados en América latina y España extienden la configuración básica del
teclado QWERTY con el fin de incluir la letra eñe y facilidades para letras acentuadas. Como el teclado
español debe servir para las diversas lenguas de la península ibérica se facilita sobre todo la escritura de
diversos acentos aún los no utilizados en el castellano. El teclado latinoamericano sólo da soporte con teclas
directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los inicios
de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una técla de
extensión de grafismos (<ALT−GR>). Por lo demás el teclado latinoamericano está orientado hacia la
programación, con fácil acceso al juego de símbolos de la norma ASCII.
Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama
Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código
diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado
la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en
128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de
teclado, que no es más que un programa de la BIOS y que determina qué carácter le corresponde a la tecla
pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por
hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria
ROM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa
de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se
pueden producir rebotes (Bouncing) que duplican la señal. Con el fin de eliminarlos, el teclado también
dispone de un circuito que limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es
necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador
(normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Keyboard Scan Code (Kscan
Code) y genera el propiamente dicho Scan Code. En cualquier caso ya sea teclado PS/2 ó AT el Scan Code es
entregado a la BIOS del PC para identificar la tecla pulsada.
31
La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el host
puede enviarle comandos al teclado para configurarlo, resetearlo, diagnósticos, etc.
Lápiz Óptico
El lápiz óptico es un periférico informático muy parecido a una pluma ordinaria que se utiliza sobre la pantalla
de un ordenador o en otras superficies para leer éstas o servir de dispositivo apuntador y que habitualmente
sustituye al ratón o con menor éxito, a la tableta digitalizadora. Está conectado a un cordón eléctrico y
requiere de un software especial para su funcionamiento. Haciendo que la pluma toque el monitor el usuario
puede elegir los comandos de las programas (el equivalente a un clic del ratón), bien presionando un botón en
un lado del lápiz óptico o presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por
ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son
refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad
al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un
espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz
óptico, el ordenador puede determinar la posición del lápiz en la pantalla.
El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla
táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo
llega a cansar al usuario. por lo que no tomo mucho auge
Joystick
Un joystick o palanca de mando es un dispositivo de control de dos o tres ejes que se usa desde un ordenador
o videoconsola al transbordador espacial o los aviones de caza, pasando por grúas.
Se suele diferenciar entre joysticks digitales (leen 4 interruptores encendido/apagado en cruceta situada en la
base + sus combinaciones y los botones de acción) y joysticks analógicos (usan potenciómetros para leer
continuamente el estado de cada eje, y además de botones de accción pueden incorporar controles
deslizantes), siendo estos últimos más precisos.
32
Joystick elementos:
1 Mango
2 Base
3 Botón de disparo
4 Botones adicionales
5 Interruptor de autodisparo
6 Palanca
7 Botón direccional
8 Ventosa
Primeros Joystick
Joystick En La Actualidad
33
Mouse
34
Mouse o ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado
como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detectar su movimiento
relativo en dos dimensiones por la superfice horizontal en la que se apoya, reflejándose habitualmente a través
de un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a
la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado
que tendrá todavía muchos años de vida útil. No obstante, el futuro podría ser mover el cursor o el puntero con
los ojos o basarse en el reconocimiento de voz de manera similar al software ViaVoice por ejemplo.
Habitualmente se compone de al menos uno, dos o tres botones principales y otros dispositivos opcionales
como una "rueda", más otros botones secundarios o de distintas tecnologías como sensores del movimiento
que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen
modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su
manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.
En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo
para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior
evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel
primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario o interesado
que escoja la más conveniente a sus gustos o tareas.
Historia
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Institute Research of Stanford,
un laboratorio de la Universidad de Standford, a poca distancia de Silicon Valley en California. Más tarde fue
mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su
invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba
aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición,
logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas
35
Primeros Mouse
Escáner
Un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la
luz, imágenes impresas a formato digital.
Hay varios tipos. Hoy en día los más extendidos son los planos.
Tipos:
• De rodillo. Como el escáner de un fax
• Planos. Como el de las fotocopiadoras.
• De mano. En su momento muy económicos, pero de muy baja calidad. Prácticamente extintos.
Además hay algunos especializados en negativos, y diapositivas. Los escaneres pueden tener otros accesorios
como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también
digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o
aplicaiciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras
multifunción
36
Tipos De Escáner
37
Reconocimiento De Voz
El Reconocimiento Automático del Habla (RAH) o Reconocimiento Automático de voz es una parte de la
Inteligencia Artificial que tiene como objetivo permitir la comunicación hablada entre seres humanos y
computadoras electrónicas. El problema que se plantea en un sistema de RAH es el de hacer cooperar un
conjunto de informaciones que proceden de diversas fuentes de conocimiento (acústica, fonética, fonológica,
léxica, sintáctica, semántica y pragmática), en presencia de ambigüedades, incertidumbres y errores
inevitables para llegar a obtener una interpretación aceptable del mensaje acústico recibido.
Software De Reconocimiento De Voz
DISPOSITIVOS DE SALIDA
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la
computadora. El dispositivo de salida más común es la unidad de visualización, que consiste en un monitor
que presenta los caracteres y gráficos en una pantalla similar a la del televisor. Por lo general, los monitores
tienen un tubo de rayos catódicos como el de cualquier televisor, aunque los ordenadores pequeños y
portátiles utilizan hoy pantallas de cristal líquido (LCD, acrónimo de Liquid Crystal Displays) o
38
electroluminiscentes. Otros dispositivos de salida más comunes son las impresoras, que permiten obtener una
copia impresa de la información que reside en los dispositivos de almacenamiento, las tarjetas de sonido y los
módem. Un módem enlaza dos ordenadores transformando las señales digitales en analógicas para que los
datos puedan transmitirse a través de las líneas telefónicas convencionales.
MONITOR
Un monitor es el dispositivo periférico de salida más importante de un ordenador, denominado también
pantalla. Su función es la de representar la información con la que estamos trabajando (formato del programa,
imágenes, texto, cursor). Se conecta al ordenador a través de una tarjeta gráfica, también denominada
adaptador o tarjeta de vídeo.
Parámetros de una pantalla
• Píxel Unidad mínima representable en un monitor.
• Paso (dot pitch): Distancia entre dos píxeles del mismo color o entre dos celdas LCD. Se usa para
medir la nitidez de la pantalla, y puede depender del tipo de rejilla utilizado. Se mide en milímetros, y
lo mínimo exigible son 0.28mm..
• Resolución: Número de píxeles representados en sentido horizontal y vertical. En la configuración de
los monitores se puede escoger entre varias resoluciones, siendo unos más aconsejables que otros
según el tamaño de la pantalla. A mayor resolución, mayor calidad de imagen. Hay que advertir de
que la tarjeta gráfica puede limitar la resolución máxima de un monitor.
• Tasa de refresco: Frecuencia a la que la imagen es dibujada en la pantalla. Se mide en Hz, y es
preferible que superen los 70Hz para que la vista no aprecie los parpadeos y no se canse tanto, aunque
es un valor que depende de la resolución. Estos refrescos son proporcionados por la tarjeta gráfica que
los fija una vez conocidas las capacidades del monitor, ya que si el número de refresco excede al
número máximo de refrescos soportables por el monitor, éste se podría dañar.
• Dimensión del tubo: Longitud de la diagonal de la parte frontal del tubo de imagen. Se suele medir en
pulgadas. Los monitores típicos son de 14, 15, 17, 19 o 21 pulgadas.
Tipos de Monitores
• Monocromáticos Son las de Blanco y Negro, actualmente están casi extintos ya que poseen baja calidad de
visualización y ofrece solo dos colores.
39
• A color Son la mayoría de los monitores existentes, son de muchos colores y tienen una excelente calidad
de visualización. Los monitores a color de plasma, no dañan la vista y eso las haces superiores a los
monitores a color normales.
Tipos de pantalla
Las pantallas se pueden dividir:
• Según la tecnología utilizada:
♦ Pantalla de tubo de rayos catódicos o CRT
♦ Pantalla de cristal líquido o LCD
◊ Monitor de matriz activa
⋅ Monitor TFT
◊ Monitor de matriz pasiva
• Según el estándar:
♦ Monitor numérico
◊ Monitor MDA
◊ Monitor CGA
◊ Monitor EGA
♦ Monitor analógico
◊ Monitor VGA
◊ Monitor SVGA
Características De Algunos Monitores
El tubo catódico (CRT o Cathode Ray Tube en inglés), fue inventado por Karl Ferdinand Braun y a su
desarrollo contribuyeron los trabajos de Philo Farnsworth.
Este componente es un dispositivo de visualización utilizado principalmente en pantallas de ordenadores,
televisiones y osciloscopios, aunque en la actualidad se tiende a ir sustituyéndolo paulatinamente por
tecnologías como plasma, LCD, DLP, etc.
MONITORES LCD
40
LCD (Liquid Crystal Display) son las siglas en inglés de Pantalla de Cristal Líquido, dispositivo inventado
por Jack Janning, quien fue empleado de NCR.
Se trata de un sistema eléctrico de presentación de datos formado por 2 capas conductoras transparentes y en
medio un material especial cristalino (cristal líquido) que tienen la capacidad de orientar la luz a su paso.
Cuando la corriente circula entre los electrodos transparentes con la forma a representar (por ejemplo, un
segmento de un número) el material cristalino se reorienta alterando su transparencia.
El material base de un LCD lo constituye el cristal líquido, el cual exhibe un comportamiento similar al de los
líquidos y unas propiedades físicas anisotrópicas similares a las de los sólidos cristalinos. Las moléculas de
cristal líquido poseen una forma alargada y son más o menos paralelas entre sí en la fase cristalina. Según la
disposición molecular y su ordenamiento, se clasifican en tres tipos: nemáticos, esméticos y colestéricos. La
mayoría de cristales responden con facilidad a los campos eléctricos, exhibiendo distintas propiedades ópticas
en presencia o ausencia del campo. El tipo más común de visualizador LCD es, con mucho, el denominado
nemático de torsión, término que indica que sus moléculas en su estado desactivado presentan una disposición
en espiral. La polarización o no de la luz que circula por el interior de la estructura, mediante la aplicación o
no de un campo eléctrico exterior, permite la activación de una serie de segmentos transparentes, los cuales
rodean al cristal líquido. Según sus características ópticas, pueden también clasificarse como: reflectivos,
transmisivos y transreflectivos.
Super Video Graphics Array o SVGA es un término que cubre una amplia gama de estándares de
visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores.
Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA
clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas
comienzan a crear tarjetas de video SVGA.
Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las
hacía incompatibles. Los programas tenían dos alternativas. Manejar la tarjeta de video a través de llamadas
estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta
directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc),
sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta. Poco
después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la
interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó
41
el manejo de la interface del programa hacia la tarjeta, también desarrolló un Bus con el mismo nombre para
mejorar el performance entre el computador y la tarjeta. Unos años después, este bus sería sustituido por el
PCI de Intel.
SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4
bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 ×
768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes.
Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en
contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA
o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al
monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se
aplica a cualquier monitor VGA o SVGA.
Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para
proporcionar estos voltajes de salida son enteramente digital. Para aumentar el número de colores que un
sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta
video necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio.
Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas
video del alta densidad de color apenas unos meses después de la aparición de SVGA.
Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto
abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de
visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA.
Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún
significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan
ampliamente el rendimiento de XGA o SXGA.
IMPRESORAS
Impresora, periférico para ordenador o computadora que traslada el texto o la imagen generada por
computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las impresoras se pueden
dividir en categorías siguiendo diversos criterios. La distinción más común se hace entre las que son de
impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de
42
margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo
las impresoras térmicas, de chorro de tinta e impresoras láser. Otros posibles criterios para la clasificación de
impresoras son los siguientes: tecnología de impresión, formación de los caracteres, método de transmisión,
método de impresión y capacidad de impresión.
Tecnología de impresión: en el campo de las microcomputadoras destacan las impresoras matriciales, las de
chorro de tinta, las láser, las térmicas y, aunque algo obsoletas, las impresoras de margarita. Las impresoras
matriciales pueden subdividirse según el número de agujas que contiene su cabezal de impresión: 9, 18, 24.
Formación de los caracteres: utilización de caracteres totalmente formados con trazo continuo (por ejemplo,
los producidos por una impresora de margarita) frente a los caracteres matriciales compuestos por patrones de
puntos independientes (como los que producen las impresoras estándar matriciales, de chorro de tinta y
térmicas). Aunque las impresoras láser son técnicamente impresoras matriciales, la nitidez de la impresión y
el tamaño muy reducido de los puntos, impresos con una elevada densidad, permite considerar que los trazos
de sus caracteres son continuos.
Método de transmisión: paralelo (transmisión byte a byte) frente a serie (transmisión bit a bit). Estas
categorías se refieren al medio utilizado para enviar los datos a la impresora, más que a diferencias mecánicas.
Muchas impresoras están disponibles tanto en versiones paralelo como en serie, y algunas incorporan ambas
opciones, lo que aumenta la flexibilidad a la hora de instalarlas.
Método de impresión: carácter a carácter, línea a línea o página a página. Las impresoras de caracteres son las
matriciales, las de chorro de tinta, las térmicas y las de margarita. Las impresoras de líneas se subdividen en
impresoras de cinta, de cadena y de tambor, y se utilizan frecuentemente en grandes instalaciones como
centros de cálculo o entornos industriales. Entre las impresoras de páginas se encuentran las
electrofotográficas, como las impresoras láser.
Capacidad de impresión: sólo texto frente a texto y gráficos. La mayoría de las impresoras de margarita y de
bola sólo pueden imprimir textos, aunque también existen impresoras matriciales y láser que sólo trabajan con
caracteres. Estas impresoras sólo pueden reproducir caracteres previamente grabados, ya sea en relieve o en
forma de mapa de caracteres interno. Las impresoras de textos y gráficos, entre las que se encuentran las
matriciales, las de chorro de tinta y las láser reproducen todo tipo de imágenes dibujándolas como patrones de
puntos.
Los distintos tipos de impresora se diferencian en la velocidad de impresión y en la calidad del producto
impreso. Así, las impresoras de caracteres, como las matriciales, imprimen en un rango de velocidad entre 200
y 400 cps (caracteres por segundo), lo que supone unas 90 a 180 lpm (líneas por minuto). Las impresoras de
línea presentan un amplio rango de velocidades que va de las 400 a las 2.000 lpm. La velocidad de las
impresoras de página oscila entre las 4 y las 800 ppm (páginas por minuto) para impresiones en blanco y
negro, y la décima parte si la impresión es en color.
En un entorno de oficina en el que se empleen formularios en papel continuo o de varias hojas de papel
autocopiativo, la impresora más adecuada es la de matriz de puntos, mientras que si se requiere una mayor
calidad de impresión, se utilizará una impresora láser. Las impresoras de tinta son las preferidas para el
entorno doméstico, ya que su precio es asequible y, en su mayor parte, imprimen en color.
43
IMPRESORA LASER
Impresora láser, impresora electrofotográfica que utiliza la misma tecnología que las fotocopiadoras. Para
dibujar la imagen de la página deseada se utilizan un rayo láser dirigido y un espejo giratorio, que actúan
sobre un tambor fotosensible. La imagen se fija en el tambor en forma de carga electrostática que atrae y
retiene el tóner. Se enrolla una hoja de papel cargada electrostáticamente alrededor del tambor, de forma que
el tóner depositado se queda pegado al papel. A continuación se calienta el papel para que el tóner se funda
sobre su superficie. Por último, se elimina la carga eléctrica del tambor y se recoge el tóner sobrante. Para
hacer varias copias de una misma imagen, se omite este último paso y se repiten sólo la aplicación del tóner y
el tratamiento del papel.
Una desventaja de las impresoras láser es que son menos versátiles que las matriciales, que trabajan con
distintos tipos de papel. Por ello suelen obtenerse mejores resultados si se utilizan impresoras matriciales o de
margarita para la impresión de formularios autocopiativos o en papel ancho.
44
IMPRESORA DE PUNTOS
Impresora matricial, cualquier impresora que imprime caracteres compuestos por puntos empleando un
cabezal de impresión formado por agujas accionadas electromagnéticamente. Los parámetros principales de
calidad de impresión de una impresora matricial son el número de puntos de la matriz de agujas y su
velocidad. Por el tipo de tecnología empleado para obtener el carácter impreso se clasifican como impresoras
de impacto. El número de agujas del cabezal de impresión suele ser 9, 18 o 24
IMPRESORA DE INYECCION
Impresora de chorro de tinta o Impresora de inyección de tinta, impresora que utiliza la propulsión de gotas de
tinta tecnología ink jet sobre un soporte sólido (papel o acetato) para obtener la copia de un documento.
Habitualmente la tinta se encuentra en estado líquido y llega al soporte por inyección térmica (tecnología
desarrollada por Canon, bubble jet) o por efecto piezoeléctrico (tecnología desarrollada por Epson).
En un principio, las impresoras de chorro de tinta imprimían en blanco y negro, pero en la actualidad la
mayoría lo hace en color. Suelen utilizar dos cabezales, uno con un cartucho de tinta negra y otro con tres
depósitos de tinta de color diverso (cyan, magenta y amarillo); son impresoras CMYK (acrónimo de Cyan,
45
Magenta, Yellow, blacK). Cada punto se imprime combinando los distintos colores en la cantidad adecuada,
lo que permite una gran precisión; si se utiliza un papel apropiado, se pueden obtener copias con calidad
fotográfica.
TARJETA DE SONIDO
Una tarjeta de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio
bajo el control de un programa informático.
Características generales
Una tarjeta de sonido típica incorpora un chip de sonido que por lo general tiene el convertidor
Digital−Análogo el cual cumple con la importante función de "traducir" formas de ondas grabadas o
generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para
audífonos) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc.
Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los
sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando
poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos
digitales para la reproducción.
Esto último se logra con DACs (por sus siglas en inglés Digital−Analog−Conversor o
Convertidor−Digital−Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a
diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la
reproducción digital de multi−canales puede ser usado para sintetizar música si es combinado con un banco de
instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido
de distintos instrumentos musicales. Otra forma de sintetizar música en las PC's es por medio de los "códecs
de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de
microprocesador.
La mayoría de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual puede
entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, casseteras entre otros
y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador.
46
Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está
diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de
entrada "Line−In".
TARGETAS DE SONIDO
MODEM
Módem es un acrónimo de MOdulador−DEModulador; es decir, que es un dispositivo que transforma las
señales digitales del ordenador en señal telefónica analógica y viceversa, con lo que permite al ordenador
transmitir y recibir información por la línea telefónica.
Los chips que realizan estas funciones están casi tan estandarizados como los de las tarjetas de sonido;
muchos fabricantes usan los mismos integrados, por ejemplo de la empresa Rockwell, y sólo se diferencian
por los demás elementos electrónicos o la carcasa.
Tipos de módems
47
La distinción principal que se suele hacer es entre módems internos y módems externos, si bien recientemente
han aparecido unos módems llamados "módems software" o Winmódems, que han complicado un poco el
panorama.
• Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes
componentes que forman el módem. Existen para diversos tipos de conector:
♦ ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se
utilizó en exclusiva este conector, hoy en día en desuso.
♦ PCI: el formato más común en la actualidad.
♦ AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por su bajo
rendimiento.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan
espacio sobre la mesa y toman su alimentación eléctrica del propio ordenador. Además, suelen ser algo más
barato debido a carecer de carcasa y transformador, especialmente si son PCI (aunque en este caso son casi
todos del tipo módem software. Por contra, son algo más complejos de instalar.
• Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el
ordenador. La conexión con el ordenador se realiza generalmente mediante uno de los puertos serie o
"COM", por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente
velocidad de comunicación; actualmente ya existen modelos para puerto USB, de conexión y
configuración aún más sencillas.
La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores, además de que
podemos saber el estado el módem (marcando, con/sin línea, transmitiendo...) mediante unas luces
que suelen tener en el frontal. Por el contrario, son un trasto más, necesitan un enchufe para su
transformador y la UART debe ser una 16550 o superior para que el rendimiento de un módem de
28.800 bps o más sea el adecuado.
48
• Módems PC−Card: son módems que se utilizan en portátiles; su tamaño es similar al de una tarjeta de
crédito algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los modelos
normales.
• Módems software, HSP o Winmódems: son módems internos (al menos no conozco ninguno externo,
y dudo que fuera posible construirlo) en los cuales se han eliminado varias piezas electrónicas,
generalmente chips especializados, de manera que el microprocesador del ordenador debe suplir su
función mediante software. Lo normal es que utilicen como conexión una ranura PCI (o una AMR),
aunque no todos los módems PCI son de este tipo.
La ventaja resulta evidente: menos piezas, más baratos. Las desventajas, que necesitan
microprocesadores muy potentes (como poco un Pentium 133 MHz), que su rendimiento depende del
número de aplicaciones abiertas (nada de multitarea mientras el módem funciona o se volverá una
auténtica tortuga) y que el software que los maneja sólo suele estar disponible para Windows 95/98,
de ahí el apelativo de Winmódems. Evidentemente, resultan poco recomendables pero son baratos...
• Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos el
rendimiento depende casi exclusivamente de la velocidad del módem y de la UART, no del
microprocesador.
DISPOSITIVOS DE ENTRADA/SALIDA
Los dispositivos de almacenamiento externos, que pueden residir físicamente dentro de la unidad de proceso
principal del ordenador, están fuera de la placa de circuitos principal. Estos dispositivos almacenan los datos
en forma de cargas sobre un medio magnéticamente sensible, por ejemplo una cinta de sonido o, lo que es más
común, sobre un disco revestido de una fina capa de partículas metálicas. Los dispositivos de almacenamiento
externo más frecuentes son los disquetes y los discos duros, aunque la mayoría de los grandes sistemas
informáticos utiliza bancos de unidades de almacenamiento en cinta magnética. Los discos flexibles pueden
contener, según sea el sistema, desde varios centenares de miles de bytes hasta bastante más de un millón de
bytes de datos. Los discos duros no pueden extraerse de los receptáculos de la unidad de disco, que contienen
los dispositivos electrónicos para leer y escribir datos sobre la superficie magnética de los discos y pueden
almacenar desde varios millones de bytes hasta algunos centenares de millones. La tecnología de CD−ROM,
que emplea las mismas técnicas láser utilizadas para crear los discos compactos (CD) de audio, permiten
capacidades de almacenamiento del orden de varios cientos de megabytes (millones de bytes) de datos.
49
También hay que añadir los recientemente aparecidos DVD que permiten almacenar más de 4 Gb de
información.
LA DISQUETERA O UNIDAD DE DISQUETES
Es la unidad lectora de disquetes, y ayuda a introducirlo para guardar la información.
Refiriéndonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos
físicos considerados como estándar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original sólo
contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los
disquettes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de
360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb. El formato
de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para
el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato,
también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad)
UNIDAD GRABADORA/LECTORA
Es un periférico hardware del ordenador que se utiliza para grabar datos (información) en un CD.
Las características de estos aparatos puede variar en velocidad y calidad. Actualmente permiten tanto la
lectura, grabado (CD−R) y regrabado (CD−RW) de CDs. El tiempo que requiere cada operación varía, ya que
para la lectura es prácticamente instantánea, pero en el caso de grabado y regrabado puede durar 5 minutos
(depende de la grabadora y el ordenador usado).
También se le conoce como Tostador de CD o quemador de Discos. Este término proviene de la expresión
quemar un CD. A su vez, quemar un CD viene del inglés, ya que en este idioma, la acción de grabar datos en
un CD se conoce como burn a CD.
Las grabadoras de CD's tienen una velocidad de giro de 400−1000 rpm (revoluciones por minuto). Todas
graban a 150 KB/s (Kilobytes por segundos). Para saber la velocidad a la que puede grabar una grabadora de
CD. Habrá que mirar la velocidad de Write (Escritura), por ejemplo; una grabadora soporta una velocidad de
grabación de 48X. Habrá que multiplicar, en este caso sería, 48*X(150KB/s)=48*150KB/s= 7200 KB/s.
CD−ROM
CD−ROM, acrónimo de Compact Disc−Read Only Memory. Estándar de almacenamiento de archivos
informáticos en disco compacto. Se caracteriza por ser de sólo lectura, con una capacidad de almacenamiento
para datos de 650 MB. Otros estándares son el CD−R o WORM (permite grabar la información una sola vez),
el CD−RW (permite grabar la información más de 1.000 veces sobre el mismo disco), el CD−I (define una
plataforma multimedia) y el PhotoCD (permite visualizar imágenes estáticas).
50
DISCO DURO
Se llama disco duro (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de
almacenar información de forma permanente en una computadora.
Los discos duros generalmente utilizan un sistema de grabación magnética analógica. En este tipo de disco
encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos
platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares
a la hora de comunicar un disco duro con la computadora. Los más utilizados son IDE/ATA, SCSI, y SATA,
este ultimo siendo de reciente aparición.
Tal y como sale de fábrica el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que
definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda
ser entendido por nuestro sistema.
También existen otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias
construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente
se limita a las supercomputadoras, por su elevado precio. Así, el caché de pista es una memoria de estado
sólido, tipo RAM, dentro de un disco duro de estado sólido.
El primer disco duro fue el IBM 350, inventado por Reynold Johnson y presentado en 1955 junto con el
ordenador IBM 305. Este disco tenía 50 platos de 61 cm cada uno, con una capacidad total de 5 millones de
caracteres. Se usaba un solo cabezal para acceder a todos los platos, por lo que el tiempo de acceso medio era
muy lento
51
MEMORIA USB
Una memoria USB o Pendrive (Universal Serial Bus) (en inglés USB flash drive) es un pequeño dispositivo
de almacenamiento que utiliza memoria flash para guardar la información sin necesidad de pilas. Estas
memorias son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento
portátil, como los CD y los disquetes.
Los sistemas operativos más modernos pueden leer y escribir en las memorias sin necesidad de controladores
adicionales. En los equipos antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar
un controlador de dispositivo (driver).
Todas las versiones de Linux que soportan dispositivos USB o SCSI soportan dispositivos USB Flash, aunque
algunos entornos de escritorio asumen que el dispositivo está particionado (estas suposiciones no son del todo
seguras).
SISTEMAS OPERATIVOS
52
Sistema operativo, software básico que controla una computadora. El sistema operativo tiene tres grandes
funciones: coordina y manipula el hardware del ordenador o computadora, como la memoria, las impresoras,
las unidades de disco, el teclado o el mouse; organiza los archivos en diversos dispositivos de
almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los
errores de hardware y la pérdida de datos.
Como Funcionan Los Sistemas Operativos
Los sistemas operativos controlan diferentes procesos de la computadora. Un proceso importante es la
interpretación de los comandos que permiten al usuario comunicarse con el ordenador. Algunos intérpretes de
instrucciones están basados en texto y exigen que las instrucciones sean tecleadas. Otros están basados en
gráficos, y permiten al usuario comunicarse señalando y haciendo clic en un icono. Por lo general, los
intérpretes basados en gráficos son más sencillos de utilizar.
Los sistemas operativos pueden ser de tarea única o multitarea. Los sistemas operativos de tarea única, más
primitivos, sólo pueden manejar un proceso en cada momento. Por ejemplo, cuando la computadora está
imprimiendo un documento, no puede iniciar otro proceso ni responder a nuevas instrucciones hasta que se
termine la impresión.
Todos los sistemas operativos modernos son multitarea y pueden ejecutar varios procesos simultáneamente.
En la mayoría de los ordenadores sólo hay una UCP; un sistema operativo multitarea crea la ilusión de que
varios procesos se ejecutan simultáneamente en la UCP. El mecanismo que se emplea más a menudo para
lograr esta ilusión es la multitarea por segmentación de tiempos, en la que cada proceso se ejecuta
individualmente durante un periodo de tiempo determinado. Si el proceso no finaliza en el tiempo asignado, se
suspende y se ejecuta otro proceso. Este intercambio de procesos se denomina conmutación de contexto. El
sistema operativo se encarga de controlar el estado de los procesos suspendidos. También cuenta con un
mecanismo llamado planificador que determina el siguiente proceso que debe ejecutarse. El planificador
ejecuta los procesos basándose en su prioridad para minimizar el retraso percibido por el usuario. Los
procesos parecen efectuarse simultáneamente por la alta velocidad del cambio de contexto.
Los sistemas operativos pueden emplear memoria virtual para ejecutar procesos que exigen más memoria
principal de la realmente disponible. Con esta técnica se emplea espacio en el disco duro para simular la
memoria adicional necesaria. Sin embargo, el acceso al disco duro requiere más tiempo que el acceso a la
memoria principal, por lo que el funcionamiento del ordenador resulta más lento.
Sistemas Operativos Actuales
Los sistemas operativos empleados normalmente son UNIX, Mac OS, MS−DOS, OS/2 y Windows−NT. El
UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un
método sencillo de organizar archivos y permite la protección de archivos. Sin embargo, las instrucciones del
UNIX no son intuitivas. Otros sistemas operativos multiusuario y multitarea son OS/2, desarrollado
inicialmente por Microsoft Corporation e International Business Machines Corporation (IBM), y
Windows−NT, desarrollado por Microsoft. El sistema operativo multitarea de las computadoras Apple se
denomina Mac OS. El DOS y su sucesor, el MS−DOS, son sistemas operativos populares entre los usuarios
de computadoras personales. Sólo permiten un usuario y una tarea.
El futuro de los sistemas operativos
Los sistemas operativos siguen evolucionando. Los sistemas operativos distribuidos están diseñados para su
uso en un grupo de ordenadores conectados pero independientes que comparten recursos. En un sistema
operativo distribuido, un proceso puede ejecutarse en cualquier ordenador de la red (normalmente, un
ordenador inactivo en ese momento) para aumentar el rendimiento de ese proceso. En los sistemas
53
distribuidos, todas las funciones básicas de un sistema operativo, como mantener los sistemas de archivos,
garantizar un comportamiento razonable y recuperar datos en caso de fallos parciales, resultan más complejas.
EL FUTURO DEL COMPUTADOR
La construcción de computadores no será tan estándar como lo es hoy. Se integrarán todas las herramientas al
PC del usuario, desde el proyector hasta la cámara digital. Además cada equipo será armado pensando en
quién lo usará, según las funciones que le correspondan, es decir tendremos PC personalizados también a
nivel de hardware. Así el equipo de un vendedor será físicamente distinto al del encargado de marketing.
Los fabricantes de hardware están desarrollando dispositivos de bolsillo con mayor capacidad de conectividad
y procesamiento. Por ejemplo, las PDAs han sido dotadas de teclado completo y pantalla a color, con
capacidad de crear, editar e intercambiar documentos por e−mail, puerto infrarrojo y fax, navegar en Internet,
reproducir archivos de video y audio, y hacer llamadas en conferencia.
MANTENIMIENTO PREVENTIVO DE UN COMPUTADOR
Lejos de lo que la mayoría de la gente cree, no es sólo una acción de limpieza del polvo, sino una dinámica
de métodos y sanas costumbres que ejercitándolas brindan grandes satisfacciones. Recomendación:
Descarga la corriente electrostática del cuerpo antes de manipular el hardware del PC.
1. Desconexión de los cables externos. El cable de entrada de energía eléctrica debe ser desconectado de la
fuente del PC. Todos los aparatos que se conectan al equipo deben estar apagados. Los cables que llegan de
los periféricos al PC también deben desconectarse. La manipulación de PC tanto para reparación o
mantenimientos preventivos debe hacerse en la medida de lo posible con zapatos aislantes o pulseras
antiestáticas. No es necesario APRETAR demasiado los conectores de los cables periféricos que se acoplan
por la parte de atrás al PC cuando se reconectan, pues eso propicia el desprendimiento de los tornillos de los
conectores del PC.
2.Limpieza de interior del PC. Para retirar el polvo te recomendamos utilizar un aparato soplador que sea
capaz de lanzar un chorro de aire. Si utilizas una aspiradora tienes que utilizar una brocha o pincel para ayudar
en la remoción de grumos (combinación de polvo y grasa o polvo y humedad) teniendo precaución en el
movimiento de los mismos para no dañar componentes o aflojar cables. Con el soplador inyecta aire POR
TODOS LOS SECTORES. La fuente de energía de la computadora retiene la mayor cantidad de polvo por lo
que hay que soplar por sus rejillas y por la cavidad del extractor del aire. Abre la ventana del floppy e
introduce aire por ahí. Hay que revisar los conectores internos del PC (puntos en donde se enchufan cables),
para asegurarse que no están flojos. Igual procedimiento es aplicable a las placas y módulos de memoria
RAM (los malos contactos pueden producir BLOQUEOS y RESETEO del PC).
3. Limpieza del monitor. Le puedes inyectar aire por sus rejillas sin abrirlo, pues la energía residual que
conserva después de apagado lo hace peligroso. Este debería destaparse solo en caso de necesitar reparación.
4. Limpieza del teclado. Voltéalo boca abajo e inyecta aire entre sus teclas para retirar el polvo y cuerpos
extraños. No es necesario retirar las tapas de las teclas del PC para lavarlas, su reposición genera bastantes
fallas mecánicas (se pueden limpiar pasando entre ellas un pañuelo humedecido con jabón líquido).
5. Mantenimiento de las impresoras. Tienen diferentes tratamientos según su tecnología. Las de matriz de
puntos requieren más atención (debido a su mayor porcentaje de trabajo mecánico que genera fricción, calor y
polvillo ). A estas hay que destaparlas para soplar en su interior dado que recogen bastante polvo y partículas
de papel. Luego hay que limpiar con varsol o disolvente el riel o eje por donde se desliza la cabeza impresora,
para retirar la grasa vieja. Lubrica el eje con aceite grueso, como el que se utiliza en los motores de los
54
automóviles. El cabezal de impresión puede retirarse para colocarlo boca abajo con la boquilla de las agujas
sumergidas en alcohol isopropílico a fin de disolver la tinta compactada. La boquilla debe ser lubricada por
debajo para minimizar la fricción de las agujas en dicha área. En las impresoras de inyección de tinta o
burbuja, el mantenimiento es simple, se limita a: conservar lubricado el eje por donde se desliza el soporte de
los cartuchos de tinta, retirar la grasa vieja en los rieles que soportan el deslizamiento de la cabeza y
asegurarse de que la banda censora de movimiento del cabezal, esta limpia de grasa o tinta. En algunas puede
ser necesario limpiar con alcohol los RODILLOS DE CAUCHO que arrastran el papel puesto que se vuelven
lisos a causa de la acumulación de las partículas de papel en su superficie.
6. Mantenimiento del mouse (ratón). Abre la tapa inferior del mouse y examina los ejes que entran en contacto
con la esfera. Si estan sucios (normalmente con un anillo de particulas de polvo y grasa) límpialos con un
pañuelo (o tela que no suelte pelusas) humedecido en alcohol o jabón líquido.
7. Limpieza de la unidad de disquete. Para limpiar los cabezales del FLOPPY utiliza un disquete de limpieza
para floppy. Si sospechas que un cuerpo extraño se ha quedado en su interior (como una etiqueta adhesiva,
grapa, clip o resorte de un disquete) tienes que abrirlo para extraer el cuerpo extraño. Si se trata de un Floppy
que trabaja en un ambiente polvoriento (a ras del piso por ejemplo), hay que abrirlo para limpiarlo y
LUBRICARLO.
8. Mantenimiento de la unidad óptica CD−ROM, CD−RW, DVD. Normalmente no se debe abrir salvo en los
casos que mencionaremos más adelante. La bandeja debería limpiarse con un paño humedecido para retirar el
polvo y suciedad a fin de disminuir la flotación de partículas cuando lee o escribe en un CD. Se puede
limpiar con un palillo medicinal con algodón en la punta humedecido con alcohol. Si el ambiente de trabajo
es polvoriento (o cuando hace mucho tiempo la unidad no ha recibido mantenimiento), será necesario abrirla
para LIMPIARLA y LUBRICARLA. La limpieza consiste en: LIMPIAR con cuidado el lente LASER (toma
nota que está sostenido por un SOPORTE FLOTANTE muy delicado). Esta operación es delicada y no debe
hacerse si no se tiene un pulso firme ya que una fuerza indebida en el lente lo puede estropear. Los rieles por
los que se desliza la bandeja deben lubricarse así como los piñones plásticos que están a la vista. Un capítulo
aparte lo constituye el problema de mala lectura / grabación: si la unidad presentaba este problema antes del
servicio de mantenimiento y después de efectuado este la anomalía continúa, las opciones son: 1. Que le hagas
un LAVADO a la unidad láser (solo si tienes experiencia y habilidad para desarmarla, o como un ultimo
recurso ante una unidad desahuciada), 2. Que reajustes el DIODO LASER para darle más ganancia a cambio
de disminuir su tiempo de vida (también deberás saber como ubicarlo y como ajustar su potenciómetro =
bases de electrónica de laboratorio).
9. Limpieza de la superficie exterior del PC y periféricos. Se recomienda utilizar una tela humedecida en
jabón líquido (ya que los equipos de computo usualmente se ensucian por el polvo ambiental y el contacto con
las manos de los operadores). No se recomiendan los disolventes o alcohol para limpiar cubiertas, carcasas o
gabinetes de PC y periféricos por su acción abrasiva y disolvente.
10. Los programas (Software). Considerando la devastadora acción de códigos malignos (virus, programas
espía, publicitarios, pornográficos, etc.) es necesario revisar periódicamente el disco duro con herramientas
anti virus y anti spyware. También es importante instalar un cortafuegos (firewall) para evitar el ataque de
intrusos a través de los puertos abiertos en el PC. Estas herramientas las encontráis en nuestra pagina de
Utilidades.
CONCLUSIONES
La arquitectura de computadores diseñada a mediados de la década de los 40 a sido el modelo fundamental de
lo grandes avances tecnológicos de los últimos años, ha sido tan fundamental este diseño que se dice que en
teoría un computador actual podría hacer las mismas operaciones que uno de 20 años en el futuro, solo que lo
haría mas lento, los avances que se han presentado en los computadores ha venido acompañado de otras
55
revoluciones tecnológicas, como son todos los dispositivos que se han inventado para acompañar al
computador, las impresoras, el Mouse, unidades de almacenamiento, y otro gran numero de dispositivos que
han hecho del computador una herramienta que dejo de ser de uso exclusivo de los ingenieros de sistemas y
programadores para convertirse en un herramienta de trabajo mas para todo tipo de profesionales.
BIBLIOGRAFIA
• www.wikipedia.com
• www.elrincondelvago.com
• www.monografias.com
• www.eltiempo.com
• Enciclopedia encarta 2006
• Arquitectura y estructura de computadores editorial
ANEXOS
Lenguaje de Programación
Lenguaje de programación, en informática, cualquier lenguaje artificial que puede utilizarse para definir una
secuencia de instrucciones para su procesamiento por un ordenador o computadora. Es complicado definir qué
es y qué no es un lenguaje de programación. Se asume generalmente que la traducción de las instrucciones a
un código que comprende la computadora debe ser completamente sistemática. Normalmente es la
computadora la que realiza la traducción
Software
Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina)
realice su tarea. Como concepto general, el software puede dividirse en varias categorías basadas en el tipo de
trabajo realizado. Las dos categorías primarias de software son los sistemas operativos (software del sistema),
que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas
tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan
esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración
de la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de
bases de datos y similares. Constituyen dos categorías separadas el software de red, que permite comunicarse
a grupos de usuarios, y el software de lenguaje utilizado para escribir programas
Hardware
Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los
componentes materiales de un sistema informático. La función de estos componentes suele dividirse en tres
categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están
conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU)
del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo.
El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador emplea para
manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse
y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se
utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de
almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software
llamado BIOS
GLOSARIO
56
Almacenamiento Primario
La memoria da al procesador almacenamiento temporal para programas y datos. Todos los programas y datos
deben transferirse a la memoria desde un dispositivo de entrada o desde el almacenamiento secundario
(disquete), antes de que los programas puedan ejecutarse o procesarse los datos. Las computadoras usan 2
tipos de memoria primaria
Almacenamiento Secundario
El almacenamiento secundario es un medio de almacenamiento definitivo (no volátil como el de la memoria
RAM). El proceso de transferencia de datos a un equipo de cómputo se le llama procedimiento de lectura. El
proceso de transferencia de datos desde la computadora hacia el almacenamiento se denomina procedimiento
de escritura. En la actualidad se pueden usar principalmente dos tecnologías para almacenar información
AMD El segundo más grande fabricante de microprocesadores, después de Intel. También fabrica memorias
flash y circuitos integrados para aparatos para redes, entre otros. Fue fundada en el año 1969 y ha contribuido
a que los precios de las PC sean menores por su alta calidad y buenos precios.
Aplicación
Cualquier programa que corra en un sistema operativo y que haga una función específica para un usuario. Por
ejemplo, procesadores de palabras, bases de datos, agendas electrónicas, etc
Archivo
Unidad significativa de información la cual puede ser manipulada por el sistema operativo de un ordenador
debido a que tiene una identificación única formada por un "nombre" y un "apellido". El nombre suele ser de
libre elección del usuario y el apellido debe identificar el contenido o el tipo de archivo. A manera de
información, los archivos word tienen el apellido .doc; los de excel tienen .xls; los ejecutables .exe, los de
texto .txt y así sucesivamente.
ASCII
American Standard Code for Information Interchange. Es de facto el estándar del World Wide Web para el
código utilizado por computadoras para representar todas las letras (mayúsculas, minúsculas, letras latinas,
números, signos de puntuación, etc.). El código estándar ASCII es de 128 letras representadas por un digito
binario de 7 posiciones (7 bits), de 0000000 a 1111111.
Backup
Copia de Respaldo o Seguridad. Acción de copiar archivos o datos de forma que estén disponibles en caso de
que un fallo produzca la perdida de los originales. Esta sencilla acción evita numerosos, y a veces
irremediables, problemas si se realiza de forma habitual y periódica.
Bluetooth
Estándar de transmisión de datos inalámbrico vía radiofrecuencia de corto alcance (unos 10 metros). Entre
otras muchas aplicaciones, permite la comunicación entre videocámaras, celulares y computadoras que tengan
este protocolo, para el intercambio de datos digitalizados (vídeo, audio, texto, etc.).
Bus
57
En una computadora, el bus es la ruta de data en el motherboard o tarjeta madre, que interconecta al
microprocesador con extensiones adjuntas conectadas en espacios o slots de expansión, por ejemplo disco
duro, CD−ROM drive y tarjetas de video.
Cache
Copia que mantiene una computadora de las páginas web visitadas últimamente, de forma que si el usuario
vuelve a solicitarlas, las mismas son leídas desde el disco duro sin necesidad de tener que conectarse de nuevo
a la red; consiguiéndose así una mejora muy apreciable en la velocidad.
Click
Cuando se oprime alguno de lo botones de un mouse el sonido es parecido a un "click". La palabra click
escrita, se usa generalmente para indicarle al usuario que oprima el botón del mouse encima de un área de la
pantalla
Dato
Unidad mínima que compone cualquier información
Disco duro
Disco de metal cubierto con una superficie de grabación magnética. Haciendo una analogía con los discos
musicales, los lados planos de la placa son la superficie de grabación, el brazo acústico es el brazo de acceso y
la púa (aguja) es la cabeza lectora/grabadora. Los discos magnéticos pueden ser grabados, borrados y
regrabados como una cinta de audio.
ENIAC
Electronic Numerical Integrator and Computer. Primera computadora digital, creada por pedido del Army
norteamericano para computar las tablas de balistica de la II guerra mundial. Se termino de ensamblar en
1945.
Hardware
Maquinaria. Componentes físicos de una computadora o de una red (a diferencia de los programas o
elementos lógicos que los hacen funcionar).
Impresora
Periférico que pasa la información de una computadora a un medio físico, que usualmente es el papel.
Intel
El fabricante líder de microprocesadores para PC. Los procesadores Intel fueron usados en las primeras
computadoras que incorporaban el sistema operativo DOS de Microsoft. Su línea de procesadores Pentium
incremento los niveles de desempeño de las computadoras a niveles superiores. Intel también fabrica tarjetas
madre (motherboards), procesadores de red y un sin fin de circuitos procesadores que están pavimentando el
futuro de la computación personal.
Interfaz (Interface)
58
Zona de contacto o conexión entre dos componentes de "hardware"; entre dos aplicaciones; o entre un usuario
y una aplicación. Apariencia externa de una aplicación informática.
Kilobyte
Unidad de medida equivalente a 1024 (dos elevado a la 10) bytes. Se usa frecuentemente para referirse a la
capacidad de almacenamiento o tamaño de un archivo.
LAN
Local Area Network. Red de área local. Red de computadoras personales ubicadas dentro de un área
geográfica limitada que se compone de servidores, estaciones de trabajo, sistemas operativos de redes y un
enlace encargado de distribuir las comunicaciones. Por ejemplo, computadoras conectadas en una oficina, en
un edificio o en varios. Se pueden optimizarse los protocolos de señal de la red hasta alcanzar velocidades de
transmisión de 100 Mbps .
LCD
Liquid Crystal Display. Monitor de Cristal Líquido. Los cristales líquidos se activan por campos eléctricos
para producir la imagen del monitor.
Macintosh
Serie de computadoras de Apple Computer cuyo sistema operativo fue el primero totalmente gráfico y basado
en ventanas.
Microprocesador
Microchip. Circuito integrado en un soporte de silicón el cual está formado por transistores y otros elementos
electrónicos miniaturizados. Es uno de los elementos esenciales de una computadora.
Multimedia
Información digitalizada que combina texto, gráficos, video y audio.
Nodo
Cada una de las computadoras individuales u otros dispositivos de la red.
Pentium
Microprocesador de 64 bits, sucesor del chip 80468, de la empresa Intel. Lo llamaron asi puesto que la corte
Norteamericana no aceptó 586 o 80586 como marca registrada. Fue lanzado al mercado en 1993. Al pasar los
años, Pentium ha evolucionado a P1, P2, P3 y P4, P4EE.
Periféricos
Aparatos o equipos electrónicos, (como impresoras, teclados, escaners, etc), adicionales a una computadora
(formada por memoria principal y CPU); se usa habitualmente para definir a los elementos que se conectan
externamente a un puerto de la computadora.
Píxel
59
Es la información guardada en un solo punto de una imagen. La imagen completa es la unión de píxeles.
Mientras más píxeles tenga la imagen mejor la calidad de la misma.
Plug and Play
Característica del sistema operativo de un PC en orden de reconocer los dispositivos hardware a él conectados
y ponerlos en funcionamiento de forma rápida y sencilla. Esta capacidad se popularizó a partir de la aparición
del sistema operativo Windows 95 de Microsoft, que la incorporaba.
Puerto
Número que aparece tras un nombre de dominio en una URL. Dicho número va precedido del signo (dos
puntos). Canal de entrada/salida de una computadora.
QWERTY
QWERTY es la forma como se le denomina al tipo de teclado que más se usa en la actualidad. El nombre
viene de la forma como están distribuidas las letras y los caracteres. Las teclas en la fila superior debajo de los
numeros forman la palabra QWERTY al leerlas de izquierda a derecha.
RAM
Random Access Memory (memoria de acceso aleatorio). Por lo general el término RAM es comprendido
generalmente como la memoria volátil (los datos e instrucciones se borran al apagarse la PC) que puede ser
escrita y leída. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas
que se están ejecutando en ese momento, los datos resultados del procesamiento y los datos que se preparan
para la salida.
Sector de arranque
Parte de un disco reservada para el bootstrap loader de un sistema operativo, un pequeño programa en
lenguaje de máquina que reside en la ROM y que se ejecuta automáticamente cuando la PC es reiniciada o
apagada, después de algunas pruebas básicas de hardware el programa llama a otros programas mayores que a
su vez llaman al sistema operativo.
Tarjeta Madre
Mother board en ingles. Es una tarjeta de circuitos integrados que contiene varios microchips, como lo son
normalmente: el microprocesador, circuitos electrónicos de soporte, ranuras para conectar parte o toda la
RAM del sistema, la ROM y ranuras especiales (slots) que permiten la conexión de tarjetas adaptadoras
adicionales (como por ejemplo, tarjetas de video y de sonido).
USB
Universal Serial Bus − Estándar utilizado en las PCs con el fin de reconocer los dispositivos hardware
(impresora, teclado, etc.) y ponerlos en funcionamiento de forma rápida y sencilla. Elimina la necesidad de
instalar adaptadores en la PC.
VGA
Video Graphics Array. Norma de visualización de gráficos para computadoras creada en 1987 por IBM. La
tarjeta gráfica VGA se ha convertido en el estándar más aceptado para PCs. Tienen varios modos de
60
visualización con resoluciones distintas. En ellas se puede elegir entre 16 colores a 640x480, o 256 colores a
320x200. Actualmente las tarjetas gráficas superan estas resoluciones, aunque siguen siendo compatibles con
ellas.
INDICE
• MARCO TEORICO
• OBJETIVOS
• EL COMPUTADOR
• GENERACIONES DEL COMPUTADOR
• ARQUITECTURA DE COMPUTADORES
• DISPOSITIVOS DE ENTRADA Y SALIDA
• SISTEMAS OPERATIVOS
• EL FUTURO DEL COMPUTADOR
• COMO HACER MANTENIMIENTO A UN COMPUTADOR
• CONCLUSIONES
• BIBLIOGRAFIA
• ANEXOS
• GLOSARIO
OBJETIVOS PRINCIPALES
El presente trabajo tiene como objetivo dar a conocer el funcionamiento del computador en su parte interna,
conocer que es la arquitectura de computadores, cuales son los diferentes tipos de computadores que podemos
encontrar en nuestro diario vivir.
OBJETIVOS SECUNDARIOS
• Conocer la historia del computador
• Cuales son sus componentes
• Cuales son los dispositivos mas comunes
• Como interactúa el computador con el ser humano
MARCO TEORICO
El termino de arquitectura de computadores se comenzó a utilizar en el año de 1945 cuando el matematico
john von neumann estableció el siguiente modelo el cual es el que se utiliza actualmente.
Los ordenadores con arquitectura Von Neumann constan de cinco partes: La unidad aritmético−lógica o ALU,
la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio
de transporte de los datos entre las distintas partes.
Un ordenador con arquitectura Von Neumann realiza o emula los siguientes pasos secuencialmente:
• Enciende el ordenador y Obtiene la siguiente instrucción desde la memoria en la dirección indicada por el
contador de programa y la guarda en el registro de instrucción.
• Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.
• Descodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de
61
componentes del ordenador para realizar una función determinada.
• Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así
operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición
aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de
complejidad, mediante la aritmética y lógica anteriores.
• Vuelve al paso 2.
93
62
Descargar