Estructura del Computador (66.70)

Anuncio
Estructura del
Computador (66.70)
Trabajo Practico Nº 1:
Historia de la
Computación
La historia de la computación puede ser dividida en
siete etapas características:
H isto ria d e la C o m p uta c io n
P re-H is toria
E ra M ec an ic a (S iglos X IV - X IX )
P rim era G en erac ion
S egu n da G en erac ion
T erc era G en erac ion
C u arta G en erac ion
Q u in ta G en erac ion
Pre-Historia
La Computación, y por tanto, las Ciencias de la
Computación, tienen su origen en el cálculo, es decir,
en la preocupación del ser humano por encontrar
maneras de realizar operaciones matemáticas de
forma cada vez más rápida y más fácilmente. Pronto
se vio que, con ayuda de diferentes instrumentos, las
operaciones podían realizarse de forma más rápida y
automática.
Desde que el hombre primitivo evolucionó en
"homo sapiens sapiens", se inclinó por las
estadísticas y las expresó en la forma de artes
gráficas, creando una incipiente modalidad de
cálculo. Graficaba la cantidad de animales que
habían cerca a su coto de caza y los guerreros de
otros grupos nómades enemigos.
Mediante los dedos,
marcas en maderas y
cuerdas, conjuntos de
pequeños objetos, etc.. el
hombre representaba
otros conjuntos de entes
equivalentes que necesitó
contar.
Los primeros vestigios de cálculo realizado por
medios mecánicos, por decirlo de algún modo, se
remontan a 3000 años antes de Cristo (AC).
Los Babilonios que habitaron en
la antigua Mesopotamia,
empleaban unas pequeñas
bolas hechas de semillas o
pequeñas piedras, a manera de
"cuentas" y que eran agrupadas
en carriles de caña.
Fueron los egipcios quienes alrededor del 500 AC
inventaron el primer dispositivo para calcular, basado
en bolillas atravesadas por alambres.
Posteriormente, a
principios del
segundo siglo DC, los
chinos perfeccionaron
este dispositivo y lo
llamaron Saun-pan,
posteriormente
conocido como
Ábaco.
Por otra parte, los matemáticos hindúes, árabes y
europeos fueron los primeros que desarrollaron
técnicas de cálculo escrito.
El matemático árabe
Al'Khwarizmi, alrededor del año
830 DC, escribe un libro de
Aritmética, traducido al latín como
Algoritmi de numero Indorum,
donde introduce el sistema
numérico indio (sólo conocido por
los árabes unos 50 años antes) y
los métodos para calcular con él.
De esta versión latina proviene la
palabra algoritmo.
El trabajo de Al'Khwarizmi permitió preservar y
difundir el conocimiento de los griegos e indios, pilares
de nuestra civilización.
La exposición clara de cómo
calcular de una manera
sistemática a través de
algoritmos diseñados para
ser usados con algún tipo de
dispositivo mecánico similar
a un ábaco, muestra la
intuición y el poder de
abstracción de
Al’Khwaritzmi.
Sus libros son intuitivos
y prácticos y su principal
contribución fue
simplificar las
matemáticas a un nivel
entendible por no
expertos. En particular
muestran las ventajas
de usar el sistema
decimal indio.
Luego de estos hechos destacables transcurrirían
muchísimos siglos antes de que se ocurriera una
innovación trascendental. Esto sucedió entre los
siglos VII y IX, cuando surgiera el sistema numérico
arábico, el mismo que empezó a difundirse lenta
pero exitosamente en toda Europa.
Era Mecánica
A finales del siglo XVI y comienzos del XVII comienza
lo que denominamos Era Mecánica, en la que se
intenta que aparatos mecánicos realicen operaciones
matemáticas de forma prácticamente automática.
En 1610, John Napier(1550-1617), inventor de
los logaritmos, desarrolla las Varillas de Napier,
que servían para simplificar la multiplicación.
Napier publicó su invención
de las varillas en su obra
Rhabdologia. Por este
método, los productos se
reducen a operaciones de
suma y los cocientes a
restas; al igual que con las
tablas de logaritmos,
inventadas por él mismo se
transforman las potencias
en productos y las raíces en
divisiones.
En 1641, el matemático y filósofo francés Blaise
Pascal (1623-1662) construyó una máquina
mecánica para realizar adiciones: la Pascalina.
El mecanismo estaba operado
por una serie de discos
asociados a ruedas, que
llevaban marcados los
números desde el cero al
nueve en sus circunferencias.
Cuando una rueda daba una
vuelta completa, avanzaba la
otra rueda situada a su
izquierda.
La Pascalina consistía en 2
contadores-registro con engranajes
superpuestos: uno para acumular
resultados y el otro para ingresar
los números a sumar mediante el
posicionamiento de sus diales
decimales.
Las ruedas del acumulador
estaban relacionadas de forma
tal que cuando una rueda
pasaba de 9 a 0, haciendo girar
una posición la rueda vecina de
la izquierda.
La maquina hacia restas por el
método del complemento a la
base (10) del minuendo.
Gottfried Leibniz nació el 1º de Julio de 1646 en
Leipzig, Alemania. Él estableció los fundamentos para el
cálculo integral y diferencial.
En 1670, Leibniz mejora la máquina
inventada por Pascal, al agregarle
capacidades de multiplicación,
división y raíz cúbica.
En 1679 crea y presenta el modo
aritmético binario, basado en "ceros"
y "unos", lo cual serviría unos siglos
más tarde para estandarizar la
simbología utilizada aplicada en el
procesamiento de la información en
las computadoras modernas.
Una mención especial requiere
el desarrollo de un telar
automático por el francés
Joseph Jacquard (1752-1834),
en 1801.
Analizando las operaciones repetitivas que requería la
producción de telas, este inventor imaginó conservar la
información repetitiva necesaria bajo la forma de
perforaciones en tarjetas. Estas perforaciones eran
detectadas mecánicamente, asegurando el
desplazamiento adecuado de las guías del hilado,
pudiendo una sola persona tejer complicados patrones
codificados en las perforaciones de las tarjetas.
Fue Charles Babbage (1791-18171) el que diseñó una
verdadera máquina procesadora de información, capaz
de autocontrolar su funcionamiento.
Dándose cuenta de que la mayoría de los cálculos
consistían en tediosas operaciones repetitivas
proyectó e inició la construcción de un nuevo tipo de
calculadora.
En 1821 presentó una
máquina capaz de resolver
ecuaciones polinómicas
mediante el cálculo de
diferencias sucesivas entre
conjuntos de números,
llamada Máquina
Diferencial.
La máquina contaba de registros contadores
mecánicos, constituidos por ruedas. Cada una
almacenaba un dígito de un nº decimal. Los registros
vinculados realizaban sumas con un mecanismo
similar al de Pascal.
Para hallar un resultado,
valores iniciales conocidos era
puestos en los registros. Cada
resultado era mostrado en una
chapa de cobre que era
perforada por agujas de acero.
Babbage desarrollo el concepto de una segunda
calculadora mecánica, la Maquina Analítica que fue
diseñada como un dispositivo de cómputo general.
Este equipo era totalmente
mecánico, usaba ejes,
engranajes y poleas para
poder ejecutar los cálculos.
Por este motivo los diseños
funcionaban en teoría pero en
la práctica las maquinarias y
herramientas de fabricación
de la época eran imprecisas y
no pudieron construir las
piezas con la necesaria
exactitud.
La Máquina Analítica estaba compuesta por 5 partes,
que tienen mucho en común con las modernas
computadoras:
 Dispositivo de entrada de la información: tarjetas
metálicas perforadas en miles de combinaciones.
 Unidad de almacenaje: tablero que contenía ejes y
piñones que podían registrar dígitos.
 Procesador: dispositivo con cientos de ejes verticales
y miles de piñones.
 Unidad de control: dispositivo en forma de barril con
filamentos y ejes (como cuerdas de piano).
 Dispositivo de salida: plantillas diseñadas para ser
utilizadas en una prensa de imprenta.
Ada Byron nació en Londres en 1815. Se interesó en las
ideas de Babbage acerca de su nueva máquina de
calcular y participó junto a él en la concepción. Es
considerada la primera programadora de la era de la
computación, ya que fue ella quien se hizo cargo del
análisis y desarrollo de todo el trabajo del inventor y la
programación de los cálculos a procesarse.
En 1854, George Boole publica “Las leyes del
pensamiento”. Boole aproxima la lógica en una nueva
dirección, reduciéndola a una álgebra simple.
Comenzaba el álgebra de la lógica llamada Algebra
Booleana. Su álgebra consiste en un método para
resolver problemas de lógica que recurre solamente a
los valores binarios 1 y 0 y a tres operadores: AND
(y), OR (o) y NOT (no).
Para tabular el censo de 1890, el gobierno de Estados
Unidos estimó que se invertirían alrededor de diez años.
Un poco antes, Herman Hollerith (1860-1929), había
desarrollado un sistema de tarjetas perforadas eléctrico y
basado en la lógica de Boole, aplicándolo a una máquina
tabuladora de su invención.
Las máquinas de Hollerith
clasificaban, ordenaban y
enumeraban las tarjetas
perforadas que contenían los
datos de las personas censadas,
logrando una rápida emisión de
reportes, a partir de los 6 meses.
Los resultados finales del censo de
1890 se obtuvieron en el tiempo
récord de 2 años y medio.
Hollerith empezó a
trabajar con el sistema
de máquinas
tabuladoras durante sus
días en el MIT, logrando
su primera patente en
1884.
Su prensa manual detectaba orificios en las tarjetas
perforadas. Tenía un alambre que pasaba a través de los
huecos dentro de una copa de mercurio debajo de la
tarjeta, cerrando de este modo el circuito eléctrico. Este
proceso disparaba unos contadores mecánicos y
ordenaba los recipientes de las tarjetas, tabulando así
en forma apropiada la información.
Primera Generacion
En 1924 la Computer Tabulating Machine CTR, que
devino de la TABULATING MACHINE COMPANY, fundada
en 1896 por Herman Hollerith, cambió su nombre por el
de International Business Machines Corporation (IBM),
que años más tarde se convertiría en el gigante de la
computación.
Pasaría casi dos décadas, cuando la Segunda Guerra
Mundial impulsó el desarrollo de dispositivos de cómputo
cuyos diseños habían empezado alrededor de 1933.
Aunque algunos hechos trascendentales, ocurrieron en
forma simultánea.
En 1936, Alan Turing (1912-1954) investiga los aspectos
teóricos de la lógica. Para resolver la cuestión, Turing
construyó un modelo formal de computador, la Máquina
de Turing.
La máquina de Turing es
el primer modelo teórico
de lo que luego sería un
computador programable.
Una máquina de Turing es
un dispositivo que
transforma un INPUT en
un OUTPUT después de
algunos pasos.
Durante 1936 y 1939, en Alemania, Konrad Zuse
construyó la primera computadora electromecánica
binaria programable, la cual hacía uso de relés eléctricos
para automatizar los procesos. Sin embargo, tan sólo
fabricó un prototipo para pruebas al cual llamó Z1.
En 1940, Zuse terminó su modelo
Z2, el cual fue la primera
computadora electromecánica
completamente funcional del
mundo. Al año siguiente, en 1941,
fabricó su modelo Z3 pare el cual
desarrolló un programa de control
que hacía uso de los dígitos
binarios.
Entre los años de 1937 y 1942, John V. Atanasoff diseñó y
construyó su famoso prototipo de computador (ABC Atanasoff-Berry Computer). El mismo estaba compuesto
de tubos al vacío, capacitores y un tambor rotatorio para el
manejo de los elementos de la memoria, así como un
sistema lógico para su operatividad. Esta computadora fue
usada para resolver ecuaciones matemáticas complejas.
En 1938, Claude Shannon demostró cómo las
operaciones booleanas elementales se podían
representar mediante circuitos conmutadores
eléctricos, y cómo la combinación de circuitos podía
representar operaciones aritméticas y lógicas
complejas. El enlace entre lógica y electrónica estaba
establecido.
En la Universidad de Harvard, Howard Aiken (19001973) en colaboración con IBM, empezó, en 1939, la
construcción del computador electromecánico Mark I. La
histórica Mark I, terminada en 1944, fue
conceptualmente muy semejante a la Maquina Analítica
de Babbage.
La Mark I era una
máquina impresionante,
medía unos 15.5 metros
de largo, unos 2.40
metros de alto y unos 60
centímetros de ancho ,
pesando unas cinco
toneladas.
Operaba internamente en el sistema decimal, con
números enteros de hasta 23 dígitos y signo. Cada nº se
podía almacenar en registros aritméticos de 24 ruedas
decimales (existían 72 de estos registros). Cada registro
se podía sumar o restar con el contenido de otro.
Las instrucciones de un programa estaban en forma
binaria en cintas de papel perforado (que oficiaba de
memoria externa).
Los datos se introducían en los
registros mediante tarjetas
perforadas de IBM y los
resultados podían salir por
tarjeta perforada o por
maquinas de escribir
comandadas.
La Mark I fue usada para resolver problemas de balística
y diseño naval durante el final de la Segunda Guerra
Mundial. Fue durante este tiempo que Aiken contó con la
colaboración de otro personaje legendario en la historia
de la computación: Grace Murray Hopper.
Ella creó el lenguaje
Flowmatic y en 1951
produjo el primer
compilador, denominado A0 (Math Matic). En 1960
presentó su primera
versión del lenguaje
COBOL (Common BusinessOriented Language).
John P. Eckert y John W. Mauchly construyeron en 1946
el ENIAC, primer computador electrónico, compuesto de
17.468 válvulas o tubos de vidrio al vacío (más
resistencias, condensadores, etc.). Para efectuar
diferentes operaciones, debían cambiarse las conexiones
(cables) como en las viejas centrales telefónicas, lo cual
era un trabajo que podía tomar varios días.
La ENIAC podía resolver
5,000 sumas y 360
multiplicaciones por
segundo, pero su
programación era
terriblemente tediosa y
debía cambiársele de tubos
continuamente.
En las últimas fases del diseño y construcción del ENIAC
actuó como consultor John Von Newmann.
Von Newmann escribió en 1946, en colaboración con
Arthur W. Burks y Herman H. Goldstine, uno de los
artículos más influyentes en la historia moderna de los
computadores.
Las ideas que contiene este
artículo, que de forma conjunta
se conocen con el nombre de
Máquina de Von Neumann o
Arquitectura Von Neumann, han
proporcionado los fundamentos
para la construcción y el
desarrollo de todos los
computadores hasta el
momento.
El concepto central en la Arquitectura Von Neumann es el
de programa almacenado, según el cual las instrucciones y
los datos tenían que almacenarse juntos en un medio
común y uniforme. De esta forma, no sólo se podían
procesar cálculos, sino que también las instrucciones y los
datos podían leerse y escribirse bajo el control del
programa. A partir de esta idea básica se sigue que un
elemento en la memoria tiene una calidad ambigua con
respecto a su interpretación. Además la Máquina de Von
Neumann presentaba como característica importante un
pequeño número de registros para mantener la instrucción
del programa en curso, y el registro de datos que se
estaban procesando. La máquina operaba en un ciclo
repetitivo de pasos para localizar y ejecutar en secuencia
las instrucciones del programa.
Con estos fundamentos, Eckel y Mauchly construyen en
Connecticut (EE.UU.), la EDVAC. Este fue el primer equipo
con capacidad de almacenamiento de memoria e hizo
desechar a los otros equipos que tenían que ser
intercambiados o reconfigurados cada vez que se usaban.
La memoria consistía en líneas de
mercurio dentro de un tubo de
vidrio al vacío, de tal modo que un
impulso electrónico podía ir y
venir en 2 posiciones, para
almacenar los ceros (0) y unos
(1). Esto era indispensable ya que
en lugar de usar decimales la
EDVAC empleaba números
binarios.
También por esta época Maurice Wilkes construye el
EDSAC tomando tambien como base la Arquitectura Von
Newmann.
El primer ordenador
electrónico en cuanto al uso,
por primera vez en el
cálculo, de la tecnología
electrónica de los tubos de
vacío y también a la
estructura funcional de un
sistema de cálculo versátil
con un programa
almacenado en memoria. El
EDSAC realizaba 714
operaciones por segundo.
A fines de esta generación, entre 1951 y 1958 Mauchly y
Eckert construyeron la famosa serie UNIVAC, la misma que
fue diseñada con propósitos de uso general y universal
pues ya podía procesar problemas alfanuméricos y de
datos.
UNIVAC I fue la primera computadora que se fabricó
comercialmente, así como la primera en utilizar un
compilador para traducir idioma de programa en idioma de
máquinas.
Era una máquina decimal con
12 dígitos por palabra,
instrucciones de una sola
dirección y dos instrucciones
por palabra. Su memoria era
todavía de líneas de retardo de
mercurio y tecnología a
válvulas.
El sucesor de UNIVAC I, el UNIVAC II, sustituiría aquella
memoria de mercurio por una de núcleos de ferrita.
El UNIVAC 1103 era una máquina de 36 bits, aritmética
por complemento a uno y de punto flotante y, por
primera vez, con capacidad de interrupciones.
En esa época, la máxima limitación de las computadoras
era la lenta velocidad de procesamiento de los relés
electromecánicos y la pobre disipación de calor de los
amplificadores basados en tubos de vacío.
En 1947, John Bardeen, Walter Brattain y W. Shocklev
inventan el transistor, recibiendo el Premio Nobel de Física
en 1956.
Un transistor contiene un material
semiconductor, normalmente silicio, que puede
cambiar su estado eléctrico. En su estado
normal el semiconductor no es conductivo, pero
cuando se le aplica un determinado voltaje se
convierte en conductivo y la corriente eléctrica
fluye a través de éste, funcionando como un
interruptor electrónico.
Los computadores construidos con transistores eran más
rápidos, más pequeños y producían menos calor.
Algunas de las máquinas que se construyeron en esta
época fueron la TRADIC, de los Laboratorios Bell (donde
se inventó el transistor), en 1954, la TX-0 del laboratorio
LINCOLN del MIT y las IBM 704, 709 y 7094. También
aparece en esta generación el concepto de
supercomputador, específicamente diseñados para el
cálculo en aplicaciones científicas y mucho más potentes
que los de su misma generación, como el Livermore
Atomic Research Computer (LARC) y la IBM 7030.
En el campo del “software”, John Backus, en 1957,
desarrolla el primer compilador para FORTRAN. En
1958, John MacCarthy propone el LISP, un lenguaje
orientado a la realización de aplicaciones en el ámbito
de la inteligencia artificial. Casi de forma paralela, Alan
Perlis, John Backus y Peter Naur desarrollan el lenguaje
ALGOL.
El personaje más importante en el avance del campo de
los algoritmos y su análisis, es Edsger Dijkstra (1930), que en 1956, propuso su conocido algoritmo para la
determinación de los caminos mínimos en un grafo, y
más adelante, el algoritmo del árbol generador
minimal.
Segunda Generacion
Se impone el transistor que es mas confiable, de menor
tamaño, de menor disipación de calor y más rápido que
la válvula electrónica para cambiar de estado.
También aumenta la velocidad de acceso a la memoria
principal, que pasa a ser de núcleos de ferrita.
En 1958 que Jack Kilby y Robert Noycea, de la Texas
Instrument, inventaron los circuitos integrados, que eran
un conjunto de transistores interconectados con
resistencias, dentro de un solo chip. Fue a partir de este
hecho que las computadoras empezaron a fabricarse de
menor tamaño, más veloces y a menor costo, debido a
que la cantidad de transistores colocados en un solo chip
fue aumentando en forma exponencial.
Vale decir de unos miles de
ellos a decenas de millones en
tan sólo un chip. Esta
tecnologia sería la base de la
tercera generacion de
computadoras.
Algunas caracteristicas de las computadoras de
segunda generacion:
Dispositivos de E/S: tarjetas perforadas, tinta de
papel perforado, teletipos, impresoras, cintas
magneticas de alta velocidad.
Memoria Aux.: cintas y discos magnéticos.
 Se generaliza el uso de los canales y aparecen
elaborados mecanismos de manejo de interrupciones.
 Aparecen los sistemas operativos y el tiempo
compartido. Se generalizan los lenguajes de alt nivel.
 Las máquinas disminuyen de tamaño y costo.
Algunos avances y exponentes:
 RCA 501 y NCR-GE 304, con UCP conteniendo
8000 diodos (20000 sumas/seg.)
 Serie 7000/IBM
 PDP/1 de DEC: primer intento de K. Olsen de
realizar una minicomputadora.
 ATLAS con memoria virtual para simular una
memoria principal mas grande que la fisicamente
real.
 B5000 de Burroughs, organizada en pilas,
alejada del modelo de Von Newmann.
 7094 de IBM con solapamiento de funciones en
la ejecucion de cada instrucción.
En 1960, S. Golomb y L. Baumet presentan las Técnicas
Backtracking para la exploración de grafos. Se publican
en 1962 los primeros algoritmos del tipo Divide y
Vencerás: el QuickSort de Charles Hoare y el de la
multiplicación de grandes enteros de A. Karatsuba e Y.
Ofman.
Tercera
Generacion
Si bien los circuitos integrados fueron inventados en
1958, tuvieron que transcurrir algunos años más
para que las grandes compañías aplicasen los
dispositivos que permitiesen desarrollar verdaderas
computadoras, mas completos y veloces.
En Abril de 1964 IBM presenta su generación de
computadores IBM 360. Las IBM 360 estaban basadas
en circuitos integrados, la alimentación de la
información era realizada por medio de tarjetas
perforadas, previamente tabuladas y su
almacenamiento se hacía en cintas magnéticas.
IBM lanzó muchos modelos de
esta serie como la IBM 360
20/30/40/50/65/67/75/85/90/195
. Su sistema operativo
simplemente se llama OS
(Operating System) y los
lenguajes que manejaron fueron
el FORTRAN, ALGOL y COBOL
Era una maquina microprogramada: la secuencia de
pasos necesaria para ejecutar una instrucción esta
almacenada en una ROM, en la UC. Tenia memoria de
ferite de un millon de celdas de 32 bits.
Su UCP presentaba 16 registros de uso general. Hacia
operaciones en binario, decimal codificado en binario y
binario punto flotante.
Poseia una proteccion
de zonas MP
reservada.
Se agregan la
memoria virtual y la
“antememoria”
cache.
Control Data Corporation introduce la CDC 6000, que
emplea palabras de 60-bits y procesamiento de datos
en paralelo.
Luego vino , en 1964, la CDC 6600, una de las más
poderosas computadoras por varios años y la primera
supercomputadora, diseñada por Seymour Cray. El CDC
6600, era capaz de realizar un millón de operaciones en
punto flotante por segundo.
En 1969 surge el CDC 7600, el primer procesador
vectorial, diez veces más rápido que su predecesor.
En 1971, Intel introduce el primer microprocesador. El
potentísimo 4004 procesaba 4 bits de datos a la vez,
tenía su propia unidad lógicoaritmética, su propia
unidad de control y 2 chips de memoria.
Este conjunto de 2.300
transistores que ejecutaba
60.000 operaciones por
segundo se puso a la venta
por 200 dólares. Muy pronto
Intel comercializaria el
8008, capaz de procesar el
doble de datos que su
antecesor.
En cuanto a los avances teóricos, a mediados de los
60, un profesor de Ciencias de la Computación,
Niklaus Wirth, desarrolla el lenguaje PASCAL, y en
Berkeley, el profesor Lotfi A. Zadeh, publica su
artículo Fuzzy Sets, que revoluciona campos como la
Inteligencia Artificial, la Teoría de Control y la
Arquitectura de Computadores.
En 1971 aparece el UNIX OS, de Bell. Es eficaz,
económico y mas sencillo que lo sistemas operativos
de IBM.
Cuarta Generacion
A partir de aquí nacieron las tecnologías de
integración a gran escala (LSI) y de integración a muy
gran escala (VLSI), con las que procesadores muy
complejos podían colocarse en un pequeño chip.
La verdadera industria de la
computación, en todos los
aspectos, empezó en 1974
cuando Intel Corporation
presentó su CPU (Unidad Central
de Procesos) compuesto por un
microchip de circuito integrado
denominado 8080.
Éste contenía 4,500 transistores y podía manejar 64k
de memoria aleatoria o RAM a través de un bus de
datos de 8 bits. El 8080 fue el cerebro de la primera
computadora personal Mits Altair, la cual promovió un
gran interés en hogares y pequeños negocios a partir
de 1975.
En 1973 los discos duros Winchester son
introducidos por IBM en los modelos 3340. Estos
dispositivos de almacenamiento se convierten en el
estándar de la industria. Está provisto de un
pequeño cabezal de lectura/escritura con un sistema
de aire que le permite movilizarse muy cerca de la
superficie del disco de una película de 18
millonésimas de pulgada de ancho.
El 3340 duplica la
densidad de los discos
IBM cercano a los 1.7
millones de bits per
pulgada cuadrada.
Gary Kildall y John Torode fundan en 1975 la Digital
Research que ingresa exitosamente al mercado con su
sistema operativo CP/M (Control Program for
Microcomputers), escrito por Gary Kildall para las
computadoras basadas en los microchips 8080 y Z80 y
que fueran muy populares en los finales de la década
de los 70.
La primera computadora personal comercial fue la
Altair 8800 fabricada por la empresa MITS en 1975,
diseñada por Ed Roberts y Bill Yates. El primer modelo
de estas computadoras no contaba con monitor ni
teclado, tan sólo con luces LED y pequeñas palancas o
switches para facilitar la programación.
La información era
almacenada en
cassettes de las
radio grabadoras y
era visualizada en
aparatos de
televisión.
Steven Wozniac y Steven Jobs, a raíz de ver el Altair
8800 en la portada de Popular Electronics,
construyen en 1976, la Apple I. Jobbs con una visión
futurista presiona a Wozniac para tratar de vender el
modelo y el 1 de Abril de 1976 nace Apple
Computer.
En 1977, con el
lanzamiento de la Apple
II, el primer
computador con
gráficos a color y
carcasa de plástico, la
compañia empezó a
imponerse en el
mercado.
En 1977 surge la TRS-80 de
Tandy/Radio Shack, con 4k de
memoria (aunque muy pronto
subió a 16k con el modelo de
Nivel II y al cual se le agregó
un teclado y posibilidad de
expansión de memoria a 32k).
El microprocesador empleado fue el Z-80 de 1.77
Mhz, con sistema operativo BASIC grabado en un
chip de 12k de memoria ROM. Se le podía agregar
periféricos tales como un televisor de 12", casetera o
un diskdrive de 89 o 102k, impresora con conexión
RS-232 y hasta un sintetizador de voz. Esta
computadora fue una de las más populares de la
época.
En 1978 se produce un evento importante: la
fabricación del microprocesador Intel 8086 el cual
provocó una demanda masiva y motivó a la IBM a
crear su flamante División de Computadoras
Personales.
Procesa internamente detos de 16 bits, que lee o
escxribe 16 bits en cada acceso a memoria. Presenta
29000 transistores. Utiliza “pipe line” para ejecutar
instrucciones.
El chip 8087 es el coprocesador matematico opcional
para operar en punto flotante.
En 1980 Commodore Inc.
presenta la VIC-20, un
modelo de computadora
personal muy barata,
dirigida a los
principiantes.
Usaba el microprocesador 6502 con una memoria de
apenas 5k de Ram. El sistema estaba diseñado para ser
conectado a un televisor y los programas se
almacenaban en una casetera, la cual debía ser
conectada a la VIC-20.
En 1981 la Commodore 64 reemplazó a la VIC-20 y
se vendió al igual que su predecesora, a muy bajo
precio. Este modelo empleó un microprocesador
ligeramente mejorado al 6502 y que costaba US $
20 al por mayor.
La Commodore 64 usó el
chip 6510 que permitía una
capacidad de procesamiento
de 64k y podía integrarse a
un disk drive fabricado por la
misma empresa, para
ejecutar los programas y el
almacenamiento de la
información.
En 1981, IBM estrena una nueva máquina, la IBM
Personal Computer, protagonista absoluta de una
nueva estrategia: entrar en los hogares. El corazón de
esta pequeña computadora, con 16 Kb de memoria
(ampliable a 256), era un procesador Intel, y su
sistema operativo procedía de una empresa recién
nacida llamada Microsoft (DOS 1.0).
Aunque ya existía un sistema operativo para la
computadora CP/M no pasó mucho tiempo para que
el DOS fuera aceptado como el estándar en el
mercado de computadoras de escritorio.
Y es cuando comienzan a aparecer las primeras
aplicaciones para la IBM-PC tales como VisiCalc (Hoja
electrónica), Easy Writer y algunos programas de
contabilidad. Después de esto la guerra de software
no se hizo esperar, el Easy Writer fue sepultado por
WordStar y este más tarde por WordPerfect.
Poco después apareció Lotus 1-2-3
En 1984, la compañía Apple lanzó una máquina que
introduciría nuevamente una revolución: el Macintosh.
Éste era el sucesor de un modelo llamado "Lisa”, que
no tuvo aceptación debido a su costo y escasa
capacidad.
En él se introducía por
primera vez el concepto de
interfaz gráfica, la analogía
del "escritorio" y un nuevo
periférico: el "mouse" o
ratón, como herramienta
para controlar al
computador.
 1985: 80386DX de Intel que procesa internamente
datos de 32 bits, que lee o escribe 32 bits en memoria.
Permite una memoria real de 4 Gb.
 1988: 30386SX de intel, que procesa internamente
datos de 32 bits, que lee o escribe 16 bits en memoria.
Permite una memoria real de 16 Mb. Aunque era
menos rapido que el 386DX, era mas barato. Mas tarde
sale el 80486DX que procesa internamente datos de 32
bits, que lee o escribe 32 bits en memoria. Permite
una memoria real de 4 Gb. Contiene dentro del chip
una memoria cache de 8 Kb y un coprocesador
matematico.
 1991: 80486 SX de Intel, similar al 80486DX, pero
sin coprocesador matematico inteno.
 1993: Pentium (80586) que procesa datos
internamente de 32 bits y que lee o escribe 64 bits
en memoria. Permite una memoria real de hasta 4
GB.Contiene dentro del chip una memoria cache de
16 Kb y un coprocesador matematico. Se
desarrollan las redes locaes en gran escala y los
servidores.
 1995: Arquitectura P6 de Intel, que en un mismo
chip adosa un cache externo de 512 Kb. Presenta 3
“pipe lines” pudiendo asi terminar 3 instrucciones
simples juntas.
 1996: Pentium Pro (200MHz) con arquitectura P6.
El 8 de Enero de 1997 Intel anuncia el lanzamiento del
microprocesador Pentium con tecnología MMX™, el
mismo que incorpora prestaciones para mejorar el
rendimiento en aplicaciones multimedia, gráficos 3D y
Virtual Reality.
El Pentium MMX está fabricado con una arquitectura de
0.35 micras y un proceso CMOS de alto rendimiento con
bajo consumo de poder. Tiene 4.5 millones de
transistores con memoria cache de 32Kb que rinde un
20% mas de productividad. MMX requiere de un
software especialmente desarrollado para esta
arquitectura, y que lamentablemente no tuvo mucha
acogida entre los desarrolladores.
El 25 de Octubre de
1999 Intel presenta
15 modelos de
Pentium III y
Pentium III Xeon con
la avanzada
arquitectura de 0.18
micrones.
AMD compite fuertemente con sus arquitecturas K62
y en el tercer trimestre de 1999 lanza su AMD Athlon
que amenaza a Pentium III de Intel con un ligero
rendimiento mayor, pero con precios sumamente más
bajos que los de Intel.
Fin
Fuentes: • Int. Gral a la Informatica - Ginzburg
• Internet
Descargar