Estructura del Computador (66.70) Trabajo Practico Nº 1: Historia de la Computación La historia de la computación puede ser dividida en siete etapas características: H isto ria d e la C o m p uta c io n P re-H is toria E ra M ec an ic a (S iglos X IV - X IX ) P rim era G en erac ion S egu n da G en erac ion T erc era G en erac ion C u arta G en erac ion Q u in ta G en erac ion Pre-Historia La Computación, y por tanto, las Ciencias de la Computación, tienen su origen en el cálculo, es decir, en la preocupación del ser humano por encontrar maneras de realizar operaciones matemáticas de forma cada vez más rápida y más fácilmente. Pronto se vio que, con ayuda de diferentes instrumentos, las operaciones podían realizarse de forma más rápida y automática. Desde que el hombre primitivo evolucionó en "homo sapiens sapiens", se inclinó por las estadísticas y las expresó en la forma de artes gráficas, creando una incipiente modalidad de cálculo. Graficaba la cantidad de animales que habían cerca a su coto de caza y los guerreros de otros grupos nómades enemigos. Mediante los dedos, marcas en maderas y cuerdas, conjuntos de pequeños objetos, etc.. el hombre representaba otros conjuntos de entes equivalentes que necesitó contar. Los primeros vestigios de cálculo realizado por medios mecánicos, por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC). Los Babilonios que habitaron en la antigua Mesopotamia, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" y que eran agrupadas en carriles de caña. Fueron los egipcios quienes alrededor del 500 AC inventaron el primer dispositivo para calcular, basado en bolillas atravesadas por alambres. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo y lo llamaron Saun-pan, posteriormente conocido como Ábaco. Por otra parte, los matemáticos hindúes, árabes y europeos fueron los primeros que desarrollaron técnicas de cálculo escrito. El matemático árabe Al'Khwarizmi, alrededor del año 830 DC, escribe un libro de Aritmética, traducido al latín como Algoritmi de numero Indorum, donde introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los métodos para calcular con él. De esta versión latina proviene la palabra algoritmo. El trabajo de Al'Khwarizmi permitió preservar y difundir el conocimiento de los griegos e indios, pilares de nuestra civilización. La exposición clara de cómo calcular de una manera sistemática a través de algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico similar a un ábaco, muestra la intuición y el poder de abstracción de Al’Khwaritzmi. Sus libros son intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema decimal indio. Luego de estos hechos destacables transcurrirían muchísimos siglos antes de que se ocurriera una innovación trascendental. Esto sucedió entre los siglos VII y IX, cuando surgiera el sistema numérico arábico, el mismo que empezó a difundirse lenta pero exitosamente en toda Europa. Era Mecánica A finales del siglo XVI y comienzos del XVII comienza lo que denominamos Era Mecánica, en la que se intenta que aparatos mecánicos realicen operaciones matemáticas de forma prácticamente automática. En 1610, John Napier(1550-1617), inventor de los logaritmos, desarrolla las Varillas de Napier, que servían para simplificar la multiplicación. Napier publicó su invención de las varillas en su obra Rhabdologia. Por este método, los productos se reducen a operaciones de suma y los cocientes a restas; al igual que con las tablas de logaritmos, inventadas por él mismo se transforman las potencias en productos y las raíces en divisiones. En 1641, el matemático y filósofo francés Blaise Pascal (1623-1662) construyó una máquina mecánica para realizar adiciones: la Pascalina. El mecanismo estaba operado por una serie de discos asociados a ruedas, que llevaban marcados los números desde el cero al nueve en sus circunferencias. Cuando una rueda daba una vuelta completa, avanzaba la otra rueda situada a su izquierda. La Pascalina consistía en 2 contadores-registro con engranajes superpuestos: uno para acumular resultados y el otro para ingresar los números a sumar mediante el posicionamiento de sus diales decimales. Las ruedas del acumulador estaban relacionadas de forma tal que cuando una rueda pasaba de 9 a 0, haciendo girar una posición la rueda vecina de la izquierda. La maquina hacia restas por el método del complemento a la base (10) del minuendo. Gottfried Leibniz nació el 1º de Julio de 1646 en Leipzig, Alemania. Él estableció los fundamentos para el cálculo integral y diferencial. En 1670, Leibniz mejora la máquina inventada por Pascal, al agregarle capacidades de multiplicación, división y raíz cúbica. En 1679 crea y presenta el modo aritmético binario, basado en "ceros" y "unos", lo cual serviría unos siglos más tarde para estandarizar la simbología utilizada aplicada en el procesamiento de la información en las computadoras modernas. Una mención especial requiere el desarrollo de un telar automático por el francés Joseph Jacquard (1752-1834), en 1801. Analizando las operaciones repetitivas que requería la producción de telas, este inventor imaginó conservar la información repetitiva necesaria bajo la forma de perforaciones en tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el desplazamiento adecuado de las guías del hilado, pudiendo una sola persona tejer complicados patrones codificados en las perforaciones de las tarjetas. Fue Charles Babbage (1791-18171) el que diseñó una verdadera máquina procesadora de información, capaz de autocontrolar su funcionamiento. Dándose cuenta de que la mayoría de los cálculos consistían en tediosas operaciones repetitivas proyectó e inició la construcción de un nuevo tipo de calculadora. En 1821 presentó una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo de diferencias sucesivas entre conjuntos de números, llamada Máquina Diferencial. La máquina contaba de registros contadores mecánicos, constituidos por ruedas. Cada una almacenaba un dígito de un nº decimal. Los registros vinculados realizaban sumas con un mecanismo similar al de Pascal. Para hallar un resultado, valores iniciales conocidos era puestos en los registros. Cada resultado era mostrado en una chapa de cobre que era perforada por agujas de acero. Babbage desarrollo el concepto de una segunda calculadora mecánica, la Maquina Analítica que fue diseñada como un dispositivo de cómputo general. Este equipo era totalmente mecánico, usaba ejes, engranajes y poleas para poder ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero en la práctica las maquinarias y herramientas de fabricación de la época eran imprecisas y no pudieron construir las piezas con la necesaria exactitud. La Máquina Analítica estaba compuesta por 5 partes, que tienen mucho en común con las modernas computadoras: Dispositivo de entrada de la información: tarjetas metálicas perforadas en miles de combinaciones. Unidad de almacenaje: tablero que contenía ejes y piñones que podían registrar dígitos. Procesador: dispositivo con cientos de ejes verticales y miles de piñones. Unidad de control: dispositivo en forma de barril con filamentos y ejes (como cuerdas de piano). Dispositivo de salida: plantillas diseñadas para ser utilizadas en una prensa de imprenta. Ada Byron nació en Londres en 1815. Se interesó en las ideas de Babbage acerca de su nueva máquina de calcular y participó junto a él en la concepción. Es considerada la primera programadora de la era de la computación, ya que fue ella quien se hizo cargo del análisis y desarrollo de todo el trabajo del inventor y la programación de los cálculos a procesarse. En 1854, George Boole publica “Las leyes del pensamiento”. Boole aproxima la lógica en una nueva dirección, reduciéndola a una álgebra simple. Comenzaba el álgebra de la lógica llamada Algebra Booleana. Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT (no). Para tabular el censo de 1890, el gobierno de Estados Unidos estimó que se invertirían alrededor de diez años. Un poco antes, Herman Hollerith (1860-1929), había desarrollado un sistema de tarjetas perforadas eléctrico y basado en la lógica de Boole, aplicándolo a una máquina tabuladora de su invención. Las máquinas de Hollerith clasificaban, ordenaban y enumeraban las tarjetas perforadas que contenían los datos de las personas censadas, logrando una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales del censo de 1890 se obtuvieron en el tiempo récord de 2 años y medio. Hollerith empezó a trabajar con el sistema de máquinas tabuladoras durante sus días en el MIT, logrando su primera patente en 1884. Su prensa manual detectaba orificios en las tarjetas perforadas. Tenía un alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la información. Primera Generacion En 1924 la Computer Tabulating Machine CTR, que devino de la TABULATING MACHINE COMPANY, fundada en 1896 por Herman Hollerith, cambió su nombre por el de International Business Machines Corporation (IBM), que años más tarde se convertiría en el gigante de la computación. Pasaría casi dos décadas, cuando la Segunda Guerra Mundial impulsó el desarrollo de dispositivos de cómputo cuyos diseños habían empezado alrededor de 1933. Aunque algunos hechos trascendentales, ocurrieron en forma simultánea. En 1936, Alan Turing (1912-1954) investiga los aspectos teóricos de la lógica. Para resolver la cuestión, Turing construyó un modelo formal de computador, la Máquina de Turing. La máquina de Turing es el primer modelo teórico de lo que luego sería un computador programable. Una máquina de Turing es un dispositivo que transforma un INPUT en un OUTPUT después de algunos pasos. Durante 1936 y 1939, en Alemania, Konrad Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1. En 1940, Zuse terminó su modelo Z2, el cual fue la primera computadora electromecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 pare el cual desarrolló un programa de control que hacía uso de los dígitos binarios. Entre los años de 1937 y 1942, John V. Atanasoff diseñó y construyó su famoso prototipo de computador (ABC Atanasoff-Berry Computer). El mismo estaba compuesto de tubos al vacío, capacitores y un tambor rotatorio para el manejo de los elementos de la memoria, así como un sistema lógico para su operatividad. Esta computadora fue usada para resolver ecuaciones matemáticas complejas. En 1938, Claude Shannon demostró cómo las operaciones booleanas elementales se podían representar mediante circuitos conmutadores eléctricos, y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas. El enlace entre lógica y electrónica estaba establecido. En la Universidad de Harvard, Howard Aiken (19001973) en colaboración con IBM, empezó, en 1939, la construcción del computador electromecánico Mark I. La histórica Mark I, terminada en 1944, fue conceptualmente muy semejante a la Maquina Analítica de Babbage. La Mark I era una máquina impresionante, medía unos 15.5 metros de largo, unos 2.40 metros de alto y unos 60 centímetros de ancho , pesando unas cinco toneladas. Operaba internamente en el sistema decimal, con números enteros de hasta 23 dígitos y signo. Cada nº se podía almacenar en registros aritméticos de 24 ruedas decimales (existían 72 de estos registros). Cada registro se podía sumar o restar con el contenido de otro. Las instrucciones de un programa estaban en forma binaria en cintas de papel perforado (que oficiaba de memoria externa). Los datos se introducían en los registros mediante tarjetas perforadas de IBM y los resultados podían salir por tarjeta perforada o por maquinas de escribir comandadas. La Mark I fue usada para resolver problemas de balística y diseño naval durante el final de la Segunda Guerra Mundial. Fue durante este tiempo que Aiken contó con la colaboración de otro personaje legendario en la historia de la computación: Grace Murray Hopper. Ella creó el lenguaje Flowmatic y en 1951 produjo el primer compilador, denominado A0 (Math Matic). En 1960 presentó su primera versión del lenguaje COBOL (Common BusinessOriented Language). John P. Eckert y John W. Mauchly construyeron en 1946 el ENIAC, primer computador electrónico, compuesto de 17.468 válvulas o tubos de vidrio al vacío (más resistencias, condensadores, etc.). Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cual era un trabajo que podía tomar varios días. La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debía cambiársele de tubos continuamente. En las últimas fases del diseño y construcción del ENIAC actuó como consultor John Von Newmann. Von Newmann escribió en 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, uno de los artículos más influyentes en la historia moderna de los computadores. Las ideas que contiene este artículo, que de forma conjunta se conocen con el nombre de Máquina de Von Neumann o Arquitectura Von Neumann, han proporcionado los fundamentos para la construcción y el desarrollo de todos los computadores hasta el momento. El concepto central en la Arquitectura Von Neumann es el de programa almacenado, según el cual las instrucciones y los datos tenían que almacenarse juntos en un medio común y uniforme. De esta forma, no sólo se podían procesar cálculos, sino que también las instrucciones y los datos podían leerse y escribirse bajo el control del programa. A partir de esta idea básica se sigue que un elemento en la memoria tiene una calidad ambigua con respecto a su interpretación. Además la Máquina de Von Neumann presentaba como característica importante un pequeño número de registros para mantener la instrucción del programa en curso, y el registro de datos que se estaban procesando. La máquina operaba en un ciclo repetitivo de pasos para localizar y ejecutar en secuencia las instrucciones del programa. Con estos fundamentos, Eckel y Mauchly construyen en Connecticut (EE.UU.), la EDVAC. Este fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba números binarios. También por esta época Maurice Wilkes construye el EDSAC tomando tambien como base la Arquitectura Von Newmann. El primer ordenador electrónico en cuanto al uso, por primera vez en el cálculo, de la tecnología electrónica de los tubos de vacío y también a la estructura funcional de un sistema de cálculo versátil con un programa almacenado en memoria. El EDSAC realizaba 714 operaciones por segundo. A fines de esta generación, entre 1951 y 1958 Mauchly y Eckert construyeron la famosa serie UNIVAC, la misma que fue diseñada con propósitos de uso general y universal pues ya podía procesar problemas alfanuméricos y de datos. UNIVAC I fue la primera computadora que se fabricó comercialmente, así como la primera en utilizar un compilador para traducir idioma de programa en idioma de máquinas. Era una máquina decimal con 12 dígitos por palabra, instrucciones de una sola dirección y dos instrucciones por palabra. Su memoria era todavía de líneas de retardo de mercurio y tecnología a válvulas. El sucesor de UNIVAC I, el UNIVAC II, sustituiría aquella memoria de mercurio por una de núcleos de ferrita. El UNIVAC 1103 era una máquina de 36 bits, aritmética por complemento a uno y de punto flotante y, por primera vez, con capacidad de interrupciones. En esa época, la máxima limitación de las computadoras era la lenta velocidad de procesamiento de los relés electromecánicos y la pobre disipación de calor de los amplificadores basados en tubos de vacío. En 1947, John Bardeen, Walter Brattain y W. Shocklev inventan el transistor, recibiendo el Premio Nobel de Física en 1956. Un transistor contiene un material semiconductor, normalmente silicio, que puede cambiar su estado eléctrico. En su estado normal el semiconductor no es conductivo, pero cuando se le aplica un determinado voltaje se convierte en conductivo y la corriente eléctrica fluye a través de éste, funcionando como un interruptor electrónico. Los computadores construidos con transistores eran más rápidos, más pequeños y producían menos calor. Algunas de las máquinas que se construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las IBM 704, 709 y 7094. También aparece en esta generación el concepto de supercomputador, específicamente diseñados para el cálculo en aplicaciones científicas y mucho más potentes que los de su misma generación, como el Livermore Atomic Research Computer (LARC) y la IBM 7030. En el campo del “software”, John Backus, en 1957, desarrolla el primer compilador para FORTRAN. En 1958, John MacCarthy propone el LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la inteligencia artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL. El personaje más importante en el avance del campo de los algoritmos y su análisis, es Edsger Dijkstra (1930), que en 1956, propuso su conocido algoritmo para la determinación de los caminos mínimos en un grafo, y más adelante, el algoritmo del árbol generador minimal. Segunda Generacion Se impone el transistor que es mas confiable, de menor tamaño, de menor disipación de calor y más rápido que la válvula electrónica para cambiar de estado. También aumenta la velocidad de acceso a la memoria principal, que pasa a ser de núcleos de ferrita. En 1958 que Jack Kilby y Robert Noycea, de la Texas Instrument, inventaron los circuitos integrados, que eran un conjunto de transistores interconectados con resistencias, dentro de un solo chip. Fue a partir de este hecho que las computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo, debido a que la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial. Vale decir de unos miles de ellos a decenas de millones en tan sólo un chip. Esta tecnologia sería la base de la tercera generacion de computadoras. Algunas caracteristicas de las computadoras de segunda generacion: Dispositivos de E/S: tarjetas perforadas, tinta de papel perforado, teletipos, impresoras, cintas magneticas de alta velocidad. Memoria Aux.: cintas y discos magnéticos. Se generaliza el uso de los canales y aparecen elaborados mecanismos de manejo de interrupciones. Aparecen los sistemas operativos y el tiempo compartido. Se generalizan los lenguajes de alt nivel. Las máquinas disminuyen de tamaño y costo. Algunos avances y exponentes: RCA 501 y NCR-GE 304, con UCP conteniendo 8000 diodos (20000 sumas/seg.) Serie 7000/IBM PDP/1 de DEC: primer intento de K. Olsen de realizar una minicomputadora. ATLAS con memoria virtual para simular una memoria principal mas grande que la fisicamente real. B5000 de Burroughs, organizada en pilas, alejada del modelo de Von Newmann. 7094 de IBM con solapamiento de funciones en la ejecucion de cada instrucción. En 1960, S. Golomb y L. Baumet presentan las Técnicas Backtracking para la exploración de grafos. Se publican en 1962 los primeros algoritmos del tipo Divide y Vencerás: el QuickSort de Charles Hoare y el de la multiplicación de grandes enteros de A. Karatsuba e Y. Ofman. Tercera Generacion Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos años más para que las grandes compañías aplicasen los dispositivos que permitiesen desarrollar verdaderas computadoras, mas completos y veloces. En Abril de 1964 IBM presenta su generación de computadores IBM 360. Las IBM 360 estaban basadas en circuitos integrados, la alimentación de la información era realizada por medio de tarjetas perforadas, previamente tabuladas y su almacenamiento se hacía en cintas magnéticas. IBM lanzó muchos modelos de esta serie como la IBM 360 20/30/40/50/65/67/75/85/90/195 . Su sistema operativo simplemente se llama OS (Operating System) y los lenguajes que manejaron fueron el FORTRAN, ALGOL y COBOL Era una maquina microprogramada: la secuencia de pasos necesaria para ejecutar una instrucción esta almacenada en una ROM, en la UC. Tenia memoria de ferite de un millon de celdas de 32 bits. Su UCP presentaba 16 registros de uso general. Hacia operaciones en binario, decimal codificado en binario y binario punto flotante. Poseia una proteccion de zonas MP reservada. Se agregan la memoria virtual y la “antememoria” cache. Control Data Corporation introduce la CDC 6000, que emplea palabras de 60-bits y procesamiento de datos en paralelo. Luego vino , en 1964, la CDC 6600, una de las más poderosas computadoras por varios años y la primera supercomputadora, diseñada por Seymour Cray. El CDC 6600, era capaz de realizar un millón de operaciones en punto flotante por segundo. En 1969 surge el CDC 7600, el primer procesador vectorial, diez veces más rápido que su predecesor. En 1971, Intel introduce el primer microprocesador. El potentísimo 4004 procesaba 4 bits de datos a la vez, tenía su propia unidad lógicoaritmética, su propia unidad de control y 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializaria el 8008, capaz de procesar el doble de datos que su antecesor. En cuanto a los avances teóricos, a mediados de los 60, un profesor de Ciencias de la Computación, Niklaus Wirth, desarrolla el lenguaje PASCAL, y en Berkeley, el profesor Lotfi A. Zadeh, publica su artículo Fuzzy Sets, que revoluciona campos como la Inteligencia Artificial, la Teoría de Control y la Arquitectura de Computadores. En 1971 aparece el UNIX OS, de Bell. Es eficaz, económico y mas sencillo que lo sistemas operativos de IBM. Cuarta Generacion A partir de aquí nacieron las tecnologías de integración a gran escala (LSI) y de integración a muy gran escala (VLSI), con las que procesadores muy complejos podían colocarse en un pequeño chip. La verdadera industria de la computación, en todos los aspectos, empezó en 1974 cuando Intel Corporation presentó su CPU (Unidad Central de Procesos) compuesto por un microchip de circuito integrado denominado 8080. Éste contenía 4,500 transistores y podía manejar 64k de memoria aleatoria o RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro de la primera computadora personal Mits Altair, la cual promovió un gran interés en hogares y pequeños negocios a partir de 1975. En 1973 los discos duros Winchester son introducidos por IBM en los modelos 3340. Estos dispositivos de almacenamiento se convierten en el estándar de la industria. Está provisto de un pequeño cabezal de lectura/escritura con un sistema de aire que le permite movilizarse muy cerca de la superficie del disco de una película de 18 millonésimas de pulgada de ancho. El 3340 duplica la densidad de los discos IBM cercano a los 1.7 millones de bits per pulgada cuadrada. Gary Kildall y John Torode fundan en 1975 la Digital Research que ingresa exitosamente al mercado con su sistema operativo CP/M (Control Program for Microcomputers), escrito por Gary Kildall para las computadoras basadas en los microchips 8080 y Z80 y que fueran muy populares en los finales de la década de los 70. La primera computadora personal comercial fue la Altair 8800 fabricada por la empresa MITS en 1975, diseñada por Ed Roberts y Bill Yates. El primer modelo de estas computadoras no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de las radio grabadoras y era visualizada en aparatos de televisión. Steven Wozniac y Steven Jobs, a raíz de ver el Altair 8800 en la portada de Popular Electronics, construyen en 1976, la Apple I. Jobbs con una visión futurista presiona a Wozniac para tratar de vender el modelo y el 1 de Abril de 1976 nace Apple Computer. En 1977, con el lanzamiento de la Apple II, el primer computador con gráficos a color y carcasa de plástico, la compañia empezó a imponerse en el mercado. En 1977 surge la TRS-80 de Tandy/Radio Shack, con 4k de memoria (aunque muy pronto subió a 16k con el modelo de Nivel II y al cual se le agregó un teclado y posibilidad de expansión de memoria a 32k). El microprocesador empleado fue el Z-80 de 1.77 Mhz, con sistema operativo BASIC grabado en un chip de 12k de memoria ROM. Se le podía agregar periféricos tales como un televisor de 12", casetera o un diskdrive de 89 o 102k, impresora con conexión RS-232 y hasta un sintetizador de voz. Esta computadora fue una de las más populares de la época. En 1978 se produce un evento importante: la fabricación del microprocesador Intel 8086 el cual provocó una demanda masiva y motivó a la IBM a crear su flamante División de Computadoras Personales. Procesa internamente detos de 16 bits, que lee o escxribe 16 bits en cada acceso a memoria. Presenta 29000 transistores. Utiliza “pipe line” para ejecutar instrucciones. El chip 8087 es el coprocesador matematico opcional para operar en punto flotante. En 1980 Commodore Inc. presenta la VIC-20, un modelo de computadora personal muy barata, dirigida a los principiantes. Usaba el microprocesador 6502 con una memoria de apenas 5k de Ram. El sistema estaba diseñado para ser conectado a un televisor y los programas se almacenaban en una casetera, la cual debía ser conectada a la VIC-20. En 1981 la Commodore 64 reemplazó a la VIC-20 y se vendió al igual que su predecesora, a muy bajo precio. Este modelo empleó un microprocesador ligeramente mejorado al 6502 y que costaba US $ 20 al por mayor. La Commodore 64 usó el chip 6510 que permitía una capacidad de procesamiento de 64k y podía integrarse a un disk drive fabricado por la misma empresa, para ejecutar los programas y el almacenamiento de la información. En 1981, IBM estrena una nueva máquina, la IBM Personal Computer, protagonista absoluta de una nueva estrategia: entrar en los hogares. El corazón de esta pequeña computadora, con 16 Kb de memoria (ampliable a 256), era un procesador Intel, y su sistema operativo procedía de una empresa recién nacida llamada Microsoft (DOS 1.0). Aunque ya existía un sistema operativo para la computadora CP/M no pasó mucho tiempo para que el DOS fuera aceptado como el estándar en el mercado de computadoras de escritorio. Y es cuando comienzan a aparecer las primeras aplicaciones para la IBM-PC tales como VisiCalc (Hoja electrónica), Easy Writer y algunos programas de contabilidad. Después de esto la guerra de software no se hizo esperar, el Easy Writer fue sepultado por WordStar y este más tarde por WordPerfect. Poco después apareció Lotus 1-2-3 En 1984, la compañía Apple lanzó una máquina que introduciría nuevamente una revolución: el Macintosh. Éste era el sucesor de un modelo llamado "Lisa”, que no tuvo aceptación debido a su costo y escasa capacidad. En él se introducía por primera vez el concepto de interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el "mouse" o ratón, como herramienta para controlar al computador. 1985: 80386DX de Intel que procesa internamente datos de 32 bits, que lee o escribe 32 bits en memoria. Permite una memoria real de 4 Gb. 1988: 30386SX de intel, que procesa internamente datos de 32 bits, que lee o escribe 16 bits en memoria. Permite una memoria real de 16 Mb. Aunque era menos rapido que el 386DX, era mas barato. Mas tarde sale el 80486DX que procesa internamente datos de 32 bits, que lee o escribe 32 bits en memoria. Permite una memoria real de 4 Gb. Contiene dentro del chip una memoria cache de 8 Kb y un coprocesador matematico. 1991: 80486 SX de Intel, similar al 80486DX, pero sin coprocesador matematico inteno. 1993: Pentium (80586) que procesa datos internamente de 32 bits y que lee o escribe 64 bits en memoria. Permite una memoria real de hasta 4 GB.Contiene dentro del chip una memoria cache de 16 Kb y un coprocesador matematico. Se desarrollan las redes locaes en gran escala y los servidores. 1995: Arquitectura P6 de Intel, que en un mismo chip adosa un cache externo de 512 Kb. Presenta 3 “pipe lines” pudiendo asi terminar 3 instrucciones simples juntas. 1996: Pentium Pro (200MHz) con arquitectura P6. El 8 de Enero de 1997 Intel anuncia el lanzamiento del microprocesador Pentium con tecnología MMX™, el mismo que incorpora prestaciones para mejorar el rendimiento en aplicaciones multimedia, gráficos 3D y Virtual Reality. El Pentium MMX está fabricado con una arquitectura de 0.35 micras y un proceso CMOS de alto rendimiento con bajo consumo de poder. Tiene 4.5 millones de transistores con memoria cache de 32Kb que rinde un 20% mas de productividad. MMX requiere de un software especialmente desarrollado para esta arquitectura, y que lamentablemente no tuvo mucha acogida entre los desarrolladores. El 25 de Octubre de 1999 Intel presenta 15 modelos de Pentium III y Pentium III Xeon con la avanzada arquitectura de 0.18 micrones. AMD compite fuertemente con sus arquitecturas K62 y en el tercer trimestre de 1999 lanza su AMD Athlon que amenaza a Pentium III de Intel con un ligero rendimiento mayor, pero con precios sumamente más bajos que los de Intel. Fin Fuentes: • Int. Gral a la Informatica - Ginzburg • Internet