Descargar

Anuncio
El ITAM Informa
Enero-Marzo 2004
No. 2 Año 1
Tecnología
Historia de la Computación
Por Begoña Albizuri Romero, Departamento Académico de Computación.
Por toda la historia, el desarrollo de las matemáticas ha
ido de la mano con el desarrollo de las computadoras.
Cada avance en unas es seguido inmediatamente por un
avance en las otras. Cuando la humanidad desarrolló el
concepto del sistema de conteo en base diez, el ábaco fue
una herramienta para hacerlo más fácil. Cuando las
computadoras electrónicas fueron construidas para
resolver ecuaciones complejas, campos como la dinámica
de fluidos, teoría de los números, y la física química
florecieron.
Las primeras computadoras eran capaces de ejecutar varios cientos de operaciones por
segundo, pero a medida que la electrónica ha evolucionado, eso ha cambiado
drásticamente, ya que actualmente son capaces de ejecutar millones de instrucciones
por segundo. ¿Pero de dónde viene toda esta corriente?, ¿en qué libro mágico se
encontraron las recetas?, ¿quién fue el genio que inventó este portento de máquina?
Como en todo gran desarrollo, nada se puede sacar de la chistera (como lo hace el
mago), todo es consecuencia de la suma de esfuerzos de científicos que, sin saberlo en
la mayoría de las veces, han contribuido con su granito de arena. En este trabajo se da
un breve relato de la historia de las computadoras, así como también las historias de
los lenguajes de programación y de los microprocesadores.
Antecedentes
Uno de los primeros dispositivos mecánicos para contar fue el ábaco. Se piensa que se
originó entre 600 y 500 a. C., en China o Egipto. El ábaco representa la primera
calculadora mecánica, aunque no se le puede llamar computadora porque carece de un
elemento fundamental: el programa. Como una indicación de su potencial, se usa el
ábaco todavía en muchas culturas orientales hoy en día [4].
El matemático escocés John Napier (mejor conocido por su invención de los
logaritmos), en 1617, desarrolló un juego de palitos, a los que llamó Napier Bones
(Huesos de Napier), para realizar cálculos. Los Huesos de Napier tuvieron una
influencia fuerte en el desarrollo de la regla deslizante o regla de cálculo y máquinas
calculadoras subsecuentes que contaron con logaritmos.
En 1621, la regla de cálculo fue inventada por el matemático William Oughtred. La
regla de cálculo (llamada en un principio Círculos de Proporción) era un juego de discos
rotarios que se calibraron con los logaritmos de Napier. La regla de cálculo es un
dispositivo analógico, en el cual los números se representan como longitudes medidas
sobre una escala. La regla de cálculo fue uno de los primeros aparatos de la
computación analógica y se usó normalmente hasta comienzos de 1970 cuando
salieron al mercado las calculadoras científicas.
En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en
Alemania. Esta calculadora, llamada El Reloj Calculador, incorporó los logaritmos de
Napier y haciendo rodar unos cilindros en un albergue grande ayudaba básicamente a
realizar multiplicaciones de varios dígitos [2].
Otro ingenio mecánico, que tampoco es una computadora, fue la primera sumadora
mecánica del mundo inventada por el matemático y filósofo francés Blaise Pascal en
1642. Se trata de una serie de engranajes en una caja, que proporcionan resultados de
operaciones de suma y resta en forma directa -mostrando un número a través de una
ventanita- y que por este simple hecho tiene la ventaja de que evita tener que contar,
como en el ábaco; además, presenta los resultados en forma más accesible y directa.
Pascal desarrolló esta máquina, llamada Pascalina, originalmente para simplificar a su
padre los cálculos de impuestos. Aunque la Pascalina nunca fue un éxito comercial
como Pascal había esperado, el principio de los cambios que implicó fue útil en las
generaciones subsecuentes de las computadoras mecánicas.
La primera calculadora de propósito general fue inventada por el matemático alemán
Gottfried von Leibniz en 1673. El aparato usaba un cilindro de dientes (llamado La
Rueda de Leibniz) en lugar de los engranajes utilizados por la Pascalina. Era una
máquina rudimentaria para mecanizar el cálculo de tablas matemáticas, siendo la
primera máquina que multiplicaba y dividía directamente.
Charles Mahon, Conde de Stanhope, inventó en 1777 la primera máquina lógica,
llamada Demostrador Lógico. Era una aparato tamaño bolsillo que resolvía silogismos
tradicionales y preguntas elementales de probabilidad. Mahon es considerado el
precursor de los componentes lógicos de las computadoras modernas.
En 1820 nació la primera calculadora de producción masiva, creada por Charles
Thomas de Colmar. Principalmente se vendió a las casas de seguros de París. El
Aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Se
vendieron más de mil aritmómetros y recibió la medalla de la Exhibición Internacional
de Londres en 1862.
La computadora nace, de hecho, en 1822, con la invención de la Máquina Analítica de
Charles Babbage. Este diseño, que nunca se llevó por completo a la práctica, contenía
todos los elementos que configuran una computadora moderna, y que la diferencian de
una calculadora. La máquina analítica estaba dividida funcionalmente en dos grandes
partes: una que ordenaba y otra que ejecutaba las órdenes. La que ejecutaba las
órdenes era una versión muy ampliada de la máquina de Pascal, mientras que la otra
era la parte clave. La innovación consistía en que el usuario podía, cambiando las
especificaciones del control, lograr que la misma máquina ejecutara operaciones
complejas, diferentes de las que había hecho antes. Esta verdadera antecesora de las
computadoras contaba también con una sección en la que se recibían los datos con los
que se iba a trabajar. La máquina seguía las instrucciones dadas por la unidad de
control, las cuales indicaban qué hacer con los datos de entrada, para obtener luego
los resultados deseados. La aplicación fundamental para la que Babbage desarrolló su
máquina era elaborar tablas de funciones matemáticas usuales (logaritmos,
tabulaciones trigonométricas, etc.) que requerían mucho esfuerzo manual. Esta
primera computadora "leía" los datos (argumentos) de entrada por medio de las
tarjetas perforadas que había inventado el francés Joseph M. Jacquard, y que habían
dado nacimiento a la industria de los telares mecánicos durante la Revolución
Industrial. Desgraciadamente, a pesar de las cuantiosas contribuciones del gobierno, la
visión de Babbage nunca se materializó. Las fábricas de la Inglaterra victoriana no
eran capaces de producir los elementos correctos necesarios para construir su Máquina
Analítica. Cuando Babbage murió, en 1871, dejó una colección de planos detallados,
dibujos e instrucciones para su ingeniosa máquina, proporcionando a la posteridad un
auténtico y valioso caudal de conocimiento sobre los principios funcionales de las
computadoras ([3], [7], [9]) .
En 1931 la primera computadora analógica capaz de resolver ecuaciones diferenciales
fue desarrollada por Vannevar Bush y su grupo de investigación del MIT. El Analizador
Diferencial, como se llamaba, tenía unos engranajes diferenciales que rotaban por
medio de unos motores eléctricos y los grados de rotación se interpretaban como
cantidades. Los resultados de los cálculos que realizaba el analizador estaban limitados
por la falta de precisión en la medida de los ángulos.
El alemán Konrad Zuze presentó en 1941 una computadora de propósito general
electromecánica, llamada Z1, que utilizaba relevadores electromagnéticos. La Z1 fue
destruida por una bomba durante la Primera Guerra Mundial, y antes de que se
terminara la guerra Zuze desarrolló dos computadoras más (Z2 y Z3). Zuze no pudo
convencer al gobierno nazi para que le apoyara económicamente por lo que tuvo que
utilizar lo que le sobró de la Z3 para crear la Z4.
Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir
el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin
embargo en el antiguo edificio de Física de la Universidad Estatal de Iowa aparece una
placa con la siguiente leyenda: "La primera computadora digital electrónica de
operación automática del mundo, fue construida en este edificio en 1939 por John
Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió
la idea, y por Clifford Edward Berry, estudiante graduado de física." Esta afirmación
recibió apoyo en 1973 cuando una antigua patente de un dispositivo que mucha gente
creyó que era la primera computadora digital electrónica (ENIAC), se invalidó por
orden de un tribunal federal de Estados Unidos, y oficialmente se le dio el crédito a
John V. Atanasoff y su computadora ABC (Atanasoff Berry Computer).
Si la bomba atómica fue el secreto mejor guardado por los norteamericanos durante la
Segunda Guerra Mundial, su equivalente en Inglaterra fue Colossus, una computadora
electrónica que se diseñó explícitamente para poder descifrar los mensajes secretos de
los nazis. Esto marcó el inicio de la escuela inglesa de cómputo electrónico que le dio al
mundo la primera computadora con programa almacenado de la historia, la primera
unidad de control microprogramada y muchas otras valiosas contribuciones a la
computación moderna. Colossus fue creada en 1943 por Alan Turing y su grupo de
investigadores de Bletchley Park. Aparentemente se destruyeron ocho de las 10
máquinas Colossus de Bletchley Park en 1946, por orden directa de Winston Churchill.
Una más sobrevivió hasta los 1950s, y la última fue desmantelada en 1960 cuando
todos los diagramas de sus circuitos y sus planos fueron quemados. Se sabe que varios
científicos norteamericanos vieron funcionar a Colossus en visitas secretas a Bletchley
Park después de la guerra, pero el gobierno británico vetó toda la información sobre la
máquina durante 30 años. Las razones no fueron sólo militares, sino también políticas,
pues se sabe que hubo al menos un bombardeo alemán a una ciudad inglesa que pudo
haberse evitado gracias a Colossus, pero que se dejó proceder (a costa de un
sinnúmero de muertes) para proteger uno de los secretos mejor guardados durante la
Segunda Guerra Mundial.
En 1944 se construyó en la universidad de Harvard, en los Estados Unidos, la
computadora IBM Mark I, diseñada por un equipo encabezado por Howard H. Aiken. El
funcionamiento de esta conocida máquina estaba basado en dispositivos
electromecánicos, llamados relevadores, y no era de propósito general.
Después de varias conversaciones con Atanasoff, leer apuntes que describían los
principios de la computadora ABC y verla en persona, John W. Mauchly colaboró con
J.Presper Eckert, Jr., ambos de la Universidad de Pennsylvania, para desarrollar una
máquina que calculara tablas de trayectoria para el ejército estadounidense. El
producto final, una computadora electrónica completamente operacional a gran escala,
se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer).
La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en
30 meses por un equipo de científicos que trabajaban bajo reloj. Esta máquina era
enorme: ocupaba todo un sótano en la universidad, tenía más de 18,000 bulbos,
consumía 200 kilowatts de energía y requería todo un sistema de aire acondicionado
industrial. Era capaz de efectuar alrededor de cinco mil operaciones aritméticas en un
segundo, dejando para siempre atrás las limitaciones humanas de velocidad y
precisión, e inaugurando una nueva etapa en las capacidades de procesamiento de
datos. El proyecto, auspiciado por el Departamento de Defensa de Estados Unidos,
culminó dos años después cuando se integró a ese equipo el ingeniero y matemático
húngaro naturalizado norteamericano, John von Neumann.
Este equipo de trabajo, con von Neumann a la cabeza, diseñó en 1952 una
computadora llamada EDVAC (Electronic Discrete Variable Automatic Computer); tenía
cerca de cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de
mercurio por donde circulaban señales eléctricas sujetas a retardos ([6], [8]). La
nueva idea fundamental resulta muy sencilla: permitir que en la memoria coexistan
datos con instrucciones, para que entonces la computadora pueda ser programada de
manera "suave", y no por medio de alambres que eléctricamente interconectaban
varias secciones del control, como en la ENIAC. Esta idea, que incluso obliga a una
completa revisión de la arquitectura de las computadoras, recibe desde entonces el
nombre de modelo de von Neumann. Alrededor de este concepto gira toda la evolución
posterior de la industria y la ciencia de la computación.
De 1947 a la fecha las cosas han avanzado muy rápido, posiblemente más que
cualquier otro proceso en la historia de la ciencia y la tecnología; a tal grado que en la
actualidad hay computadoras mucho más poderosas que la ENIAC y que no ocupan
sino un circuito de silicio sumamente pequeño.
Como contraste inicial, antes de proceder a describir lo que ha sucedido en los sesenta
años desde la invención de la computadora, compararemos dos máquinas, la ENIAC y
uno de los primeros microprocesadores (ya obsoleto):
Año
ENIAC
Intel 8080
1947
1973
Componentes electrónicos 18 000 bulbos
Un circuito integrado con más de 100
000 transistores.
Tamaño
Decenas de m2
Menos de 1 cm2
Requerimientos de
potencia
200 kilowatts
Pocos miliwatts
Velocidad
5 000
150 000 sumas/segundo
sumas/segundo
Costo
Varios millones de
dólares
Cincuenta dólares (en 1974)
El desarrollo de las computadoras suele dividirse en generaciones. El criterio para
determinar cuándo se da el cambio de una generación a otra no está claramente
definido, pero resulta aparente que deben cumplirse al menos dos requisitos
estructurales [5]:
a. Forma en que están construidas: que haya tenido cambios sustanciales.
b. Forma en que el ser humano se comunica con ellas: que haya experimentado
progresos importantes.
Primera generación de computadoras
En esta generación había un gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio que determinó que con veinte
computadoras se saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos.
La primera generación de computadoras abarcó la década de 1950. Las máquinas de
esta generación cumplían los requisitos antes mencionados de la siguiente manera:
a. Están construidas con circuitos de bulbos.
b. Se programan utilizando lenguaje de máquina (lenguaje binario)
Estas máquinas eran grandes y costosas (del orden de decenas o cientos de miles de
dólares).
En 1951 aparece la primera computadora comercial, es decir, fabricada con el objetivo
de ser vendida en el mercado: la UNIVAC I (UNIVersAl Computer). Esta máquina, que
disponía de mil palabras de memoria central y podía leer cintas magnéticas, se utilizó
para procesar los datos del censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada estaban por completo
dominadas por las tarjetas perforadas, retomadas a principios de siglo por Herman
Hollerith, quien además fundó una compañía que con el paso de los años se conocería
como IBM (International Business Machines).
A la UNIVAC I siguió una máquina desarrollada por la compañía IBM, que apenas
incursionaba en ese campo; es la IBM 701 (de la que se entregaron 18 unidades entre
1953 y 1956), la que inaugurará la larga serie por venir.
Posteriormente, la compañía Remington Rand produjo el modelo 1103, que competía
con la 701 en el campo científico, por lo que IBM fabricó la 702, que no duró mucho en
el mercado debido a problemas con la memoria.
La más exitosa de las computadoras de la primera generación fue el modelo 650 de
IBM, de la que se produjeron varios cientos. Esta máquina usaba un esquema de
memoria secundaria llamado tambor magnético, antecesor de los discos duros que
actualmente se emplean.
La competencia contestó con los modelos UNIVAC 80 y 90, que pueden situarse ya en
los inicios de la segunda generación. También de esta época son los modelos IBM 704
y 709, Burroughs 220 y UNIVAC 1105.
Segunda generación de computadoras
Se acercaba la década de 1960 y las computadoras seguían en constante evolución,
reduciendo su tamaño y aumentando sus capacidades de procesamiento. Al mismo
tiempo se iba definiendo con mayor claridad toda una nueva ciencia: la de comunicarse
con las computadoras, que recibiría el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
a.
Están construidas con circuitos de transistores.
b. b) Se programan en nuevos lenguajes llamados lenguajes de alto nivel (LISP,
Fortran, Cobol y Algol).
En general, las computadoras de la segunda generación son de tamaño más reducido y
de costo menor que las anteriores.
En la segunda generación hubo mucha competencia y muchas compañías nuevas, y se
contaba con máquinas bastante avanzadas para su época, como la serie 5000 de
Burroughs y la máquina ATLAS de la Universidad de Manchester.
Los programas eran hechos a la medida por un equipo de expertos: analistas,
diseñadores, programadores y operadores. El usuario final de la información no tenía
contacto directo con las computadoras. Entre los primeros modelos se puede
mencionar la Philco 212 (esta compañía se retiró del mercado de computadoras en
1964) y la UNIVAC M460. Una empresa recién formada, Control Data Corporation,
produjo la CDC 1604, seguida por la serie 3000. Estas máquinas comenzaron a
imponerse en el mercado de las grandes computadoras.
IBM mejoró la 709 y produjo la 7090 (luego ampliada a la 7094), siendo
comercializada durante la primera parte de la segunda generación. UNIVAC continuó
con el modelo 1107, mientras que NCR (National Cash Register) empezó a producir
máquinas más pequeñas, para proceso de datos de tipo comercial, como la NCR 315.
RCA (Radio Corporation of America) introdujo el modelo 501, que manejaba el
lenguaje COBOL, para proceso administrativo y comercial. Más tarde introdujo el
modelo RCA 601.
La segunda generación no duró mucho, sólo unos cinco años, y debe ser considerada
como una transición entre las recién inventadas máquinas electrónicas, que nadie
sabía con precisión para qué podrían ser útiles, y el actual concepto de computadora,
sin el cual el funcionamiento de las modernas sociedades industriales sería difícil de
concebir.
Tercera generación de computadoras
Con la aparición de nuevas y mejores maneras de comunicarse con las computadoras,
junto con los progresos en la electrónica, surge la que se conoce como tercera
generación de computadoras, a mediados de la década de 1960. Se puede decir que se
inaugura con la presentación, en abril de 1964, de la serie 360 de IBM.
Las características estructurales de la tercera generación consisten en:
a.
Su fabricación electrónica está basada en circuitos integrados (chips), los cuales
son agrupamientos de circuitos de transistores grabados en pequeñísimas placas de
silicio.
b. Se difundieron sistemas operativos que utilizaban técnicas tales como
multiprogramación, multiprocesamiento, dispositivos de entrada/salida virtuales
("spool"), etc.
Las computadoras de la serie IBM 360 (11 modelos) manejan técnicas especiales de
utilización del procesador, unidades de cinta magnética de nueve canales, paquetes de
discos magnéticos y otras características que ahora son estándares. El sistema
operativo de la serie 360, llamado simplemente OS, incluía un conjunto de técnicas de
manejo de memoria y del procesador que pronto se convirtieron en estándares.
Esta serie alcanzó un éxito enorme, a tal grado que la gente en general, el ciudadano
común y corriente, pronto llegó a identificar el concepto de computadora con el
nombre IBM. Sin embargo, sus máquinas no fueron las únicas, ni necesariamente las
mejores. También en 1964, CDC introdujo la serie 6000, con la máquina modelo 6600,
que durante varios años fue considerada como la más rápida.
Esta fue una época de pleno desarrollo acelerado y de competencia por los mercados
internacionales, pues la industria de la computación había crecido hasta alcanzar
proporciones insospechadas.
Para esta época la computadora ya estaba plenamente identificada en la mente del
"hombre de la calle" de los países avanzados como un omnipresente aunque misterioso
agente tecnológico, imprescindible para el funcionamiento de las grandes
corporaciones. En las películas y los programas de televisión de esos años la gran
computadora aparecía como respaldo de aventuras de todo tipo.
IBM, UNIVAC y CDC producen computadoras, al inicio de la década de 1970, tan
potentes y veloces que se convierten ya en un asunto de estado y de seguridad
nacional para el país que las produce, y se cuida, ya en los más altos niveles
gubernamentales, su exportación y comercialización internacional.
A finales de la década de 1970, en Japón la compañía Fujitsu produce computadoras
poderosas, que van desde máquinas relativamente pequeñas hasta verdaderos
gigantes (de la serie FACOM), comparables sólo con los más grandes sistemas de CDC
o IBM:
Las grandes computadoras reciben en inglés el nombre de mainframes, que significa,
precisamente, gran sistema.
Entre las máquinas de la tercera generación hay algunas dedicadas a procesos
especiales, que manejan cientos de millones de números en representación decimal y
requieren diseños específicos para ser resueltos.
A mediados de la década de 1970 (en plena tercera generación) surge un gran
mercado para computadoras de tamaño mediano, o minicomputadoras, que no son tan
costosas como las grandes máquinas, pero que ya disponen de una gran capacidad de
proceso. En un principio, el mercado de estas nuevas máquinas estuvo dominado por
la serie PDP-8 de DEC (Digital Equipment Corporation).
Otras minicomputadoras populares son la serie PDP-11 de DEC, reemplazada por las
nuevas máquinas VAX (Virtual Address eXtended) de la misma compañía, los modelos
Nova y Eclipse de Data General, las series 3000 y 9000 de Hewlett-Packard y el
modelo 34 de IBM, que luego fue reemplazado por los modelos 36 y 38.
En la ex Unión Soviética fueron de amplio uso las computadoras de la serie SU
(Sistema Unificado, Ryad), que también han pasado por varias generaciones. La
primera de estas máquinas era, en cuanto a la arquitectura, una copia de la serie 360
de IBM [1].
Asimismo, los ex países socialistas desarrollaron una serie de computadoras dedicadas
al control industrial, además de las máquinas de la serie Minsk y BESM.
Cuarta generación de computadoras
El adelanto de la microelectrónica prosigue a una velocidad impresionante, y por el año
de 1981 surge en el mercado una nueva familia de circuitos integrados de alta
densidad, que recibe el nombre de microprocesadores. Las microcomputadoras que se
diseñan con base en estos circuitos de semiconductores eran extremadamente
pequeñas y baratas, por lo que su uso se extendió al mercado de consumo industrial.
Hoy día hay microprocesadores en muchos aparatos de uso común, como relojes,
televisores, hornos, juguetes, teléfonos celulares, y naturalmente en toda una nueva
generación de máquinas.
Se empiezan a crear en forma masiva las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en general sobre la llamada
"revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera
microcomputadora de uso masivo y más tarde forman la compañía conocida como
Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por
IBM.
En 1979 aparece el primer programa procesador de palabras (Word Star) y la primera
hoja de cálculo electrónica (VisiCalc). Posteriormente se diseña el sistema operativo
MS-DOS (1980), la hoja de cálculo Multiplan (1982), el procesador de palabras Word
(1983), la hoja de cálculo Lotus 1-2-3 (1984), el sistema operativo Windows (1985),
etc. El software empieza a tratar de alcanzar el paso del hardware. El usuario pasa de
estar totalmente desconectado de las computadoras grandes a utilizar las PC, las
cuales son una pieza clave en el diseño tanto del software como del hardware. Se
ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de
cualquier persona un experto en los programas comerciales. Aunque el problema era
que cada nuevo programa requería aprender nuevos controles, nuevos trucos, nuevos
menús. Esto provoca que se empiece a sentir que la relación usuario-PC no estaba
acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una
relación amistosa entre el usuario y la PC.
Con el uso masivo de Internet ya también podría hablarse de un cambio sustancial en
la forma en que el ser humano se comunica con las computadoras, ya que la
comunicación entre nosotros y las máquinas se ha desplazado del modo independiente
y centralizado (standalone, en inglés) al modo compartido en red, mediante esquemas
cliente-servidor o a través de sistemas de información basados en el Web. Fue en 1972
cuando se introdujo la primera aplicación "estrella": el correo electrónico.
Los criterios, entonces, son:
a.
Microelectrónica de alta integración y distribución de tareas específicas
mediante microprocesadores acoplados.
b. Acceso a la red desde una computadora personal, tanto en forma local como
global.
Quinta generación de computadoras
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha
dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas
para manejar las computadoras. Aunque existe un apabullante fenómeno de
competencia internacional por el dominio del gigantesco mercado de la computación,
aún no se ha podido alcanzar el nivel deseado: la capacidad de comunicarse con la
computadora mediante el lenguaje natural y no a través de códigos o lenguajes de
control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras",
con los objetivos explícitos de producir máquinas con innovaciones reales en los dos
criterios mencionados, aunque a su término en 1993 los resultados fueron bastante
más pobres de lo prometido, por lo que se considera una "generación perdida".
En Estados Unidos estuvo en actividad un programa de desarrollo que perseguía
objetivos semejantes, que pueden resumirse de la siguiente forma:
a.
Procesamiento en paralelo mediante arquitecturas y diseños especiales y
circuitos de gran velocidad.
b. Manejo de lenguaje natural y sistemas de inteligencia artificial.
Conclusiones
Actualmente la velocidad a la que corren las computadoras ya se mide en GHz. (Giga
Hertz) y se ha estimado que la eficiencia del mejor procesador (top performance) está
por arriba de los 150 MIPS (millones de instrucciones por segundo). En el sistema
métrico esta unidad se ha normado y ahora se denomina SPECint92 (Sistem
Performance Evaluation Corporation integer calculations), así que los 150 MIPS se
denominan como 150 SPECint92. A este ritmo se espera que próximamente se puedan
alcanzar los 1000 SPECint92. Pero no será el final ya que, a medida que se incrementa
la velocidad, aparecen nuevas aplicaciones que demandan mayor velocidad. No hay
duda que estamos ante la presencia de un verdadero Gargantúa. ¿Pero, podrá la
industria soportar este tren de desarrollo? ¿Existirá algún límite en el cual no pueda ya
darse más un crecimiento de la capacidad de cálculo y de almacenamiento de las
computadoras personales?
Si analizamos la forma en que ha crecido la velocidad de cálculo en los últimos años,
vemos que dicho crecimiento ha sido en forma exponencial y que no tardaremos en
alcanzar la meseta de la curva en que no se pueda seguir aumentando la velocidad a
este ritmo, es decir, no se podrá seguir con la misma eficiencia de velocidad/costo.
Quiere decir esto que en un futuro no muy lejano tendremos que conformarnos con la
misma velocidad de la máquina, como rezan los cuentos de hadas, ¿por siempre
jamás?. No lo creo así, ya que en primer lugar estamos hablando de diferentes
arquitecturas de computadoras y estas pueden cambiar, de hecho han cambiado
cuando se ha dado la situación de que, por el crecimiento exponencial que estas han
tenido, ha sido necesario recurrir a diferentes arquitecturas. Por ejemplo, la vieja y
conocida arquitectura de "tuberías" (pipeline) fue remplazada por la CISC (Complex
Instruction Set Computer), la cual, a su vez, fue remplazada por la arquitectura RISC
(Reduced Instruction Set Computer), la cual no tardará en ser remplazada por otra
más eficiente. Así que podemos decir que la tan temida meseta en la curva de nuestra
gráfica no será necesariamente la muerte de los microprocesadores. Los próximos
años demandarán de una mejor eficiencia aunada a mejores algoritmos y técnicas de
cálculo. Así que, en el futuro, veremos cada vez más cosas como algoritmos genéticos
y programación evolutiva, lógica difusa, redes neuronales, caos, etc.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta
ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en
conjunto.
Bibliografía
[1] Davis, N. C. y S. E. Goodman, The Soviet Bloc\"s unified system of computers,
Computing Surveys, Association for Computing Machinery, vol. 10, núm. 3, junio,
1978.
[2] De Freitas, Christian G., Marco histórico de las computadoras,
http://www.monografías.com/trabajos/marcohistocomp/marcohistocomp.shtml
[3] Goldstine, H. Herman, The Computer from Pascal to von Neumann, Princeton
University Press, New Jersey, 1972.
[4] Historia resumida de la computación,
http://www.prodigyweb.net.mx/intecoc/generaciones.html
[5] Levine Guillermo, Introducción a la Computación y a la Programación Estructurada,
McGraw-Hill Interamericana de México, México, 1989.
[6] Lukoff, Herman, From Dits to Bits. A Personal History of the Electronic Computer,
Robotics Press, Oregon, 1979.
[7] Pylyshyn, Zenon (ed.), Perspectivas de la revolución de los computadores, Alianza
Editorial, Col. Alianza Universidad, núm. 119, Madrid, 1975.
[8] Ralston, Anthony y C. L. Meek (eds.), Encyclopedia of Computer Science,
Petrocelli/Charter, Nueva York, 1976.
[9] Slater, Robert, Portraits in Silicon, MIT Press, Massachusetts, 1987.
Descargar