Capítulo 4. Historia de la Informática

Anuncio
Introducción a la Informática. Estudios GAP, facultad Derecho
Capítulo 4. Historia de la Informática
Contacte
Inicio
Divulgación
Escepticismo
Avisos
Asignaturas
¿Te interesa la historia y divulgación de la
Informática?
Antecedentes
Cálculo
matemático
Puedes
acceder
a más contenidos relacionados
Las generaciones
de ordenadores
en:Informática:
apuntes
y divulgación.
Historia de los ordenadores personales
Yainternet
he leído, cierra la ventana
Historia de
Selecciona un texto y
pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño ampliado pulsando
sobre ellas, para salir pulsar en la esquina inferior derecha
4.1 Antecedentes
El ser humano desde épocas remotas ha necesitado medios para efectuar
cálculos y procesar la información. Su complejidad se ha ido acrecentando
con el tiempo, conforme surgían nuevas necesidades, y ha estado
subordinada al progreso de la tecnología. Primero surgieron los
instrumentos aritméticos, como el ábaco, desde los cuales se ha llegado a
las calculadoras y ordenadores actuales.
El origen del procesamiento automático de la información, se remonta al
año 1896 cuando Herman Hollerith (1860-1929) fundó una empresa que
posteriormente daría lugar a IBM.
Es difícil determinar el punto de inicio para una síntesis histórica
de la informática, por cuanto son muchos los trabajos y
descubrimientos que trajeron como consecuencia la construcción
de los primeros ordenadores. Desde tiempo inmemorial los hombres se han
valido de instrumentos para realizar cálculos y para almacenar y procesar
información. La primer herramienta que servía para contar y al mismo
tiempo para representar las cantidades contadas fueron los dedos, dando
origen al sistema decimal de numeración.
Aquí puedes cambiar el
tamaño y color del texto
Página Rafael
Barzanallana
Informática Aplicada a
la Gestión Pública.
Actualizado Introducción
Bases de Datos
Informática Aplicada a
la Gestión Pública.
Actualizado Metodologías de
Desarrollo
Informática Aplicada al
Trabajo Social.
Actualizada presentación
asignatura
Introducción
Informática.
Corregidas duplicidades
Actualización en
Divulgación Informática.
Actualizado: Gasto de
electricidad en Stand-By
-- sponsor -Recommended: Click here to
check for outdated drivers
Biografías de
informáticos
Von Neumann
Grace Murray Hopper
El hombre primitivo usó piedrecillas para
representar números y hacer sumas
sencillas. 500 años a.n.e., surgió el
ábaco inventado y reinventado por
culturas distintas en el espacio y en el
tiempo, como los aztecas y los
sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en
cada columna. En el chino el tablero está dividido en dos zonas, "cielo" y
"tierra", con dos y cinco bolas respectivamente. En la página Molecular
Expressions se muestra un ábaco en el que es posible simular operaciones
reales.
Charles Babbage
Konrad Zuse
Jack Kilby
Claude Shannon
Enlaces de interés
Mi página personal
Divulgación
Física
EL ÁBACO
Religiones
Considerado como el instrumento más antiguo de cálculo,
adaptado y apreciado en diversas culturas. El origen del
ábaco esta literalmente perdido en el tiempo. En épocas
muy tempranas el hombre primitivo encontró materiales
para idear instrumentos de contar. Es probable que su
inicio fuera una superficie plana y piedras que se movían
sobre líneas dibujadas con polvo. Hoy en día se tiende a
Fraudes médicos
Fraudes nutrición
Informática
Fraudes en
psicología
pensar que el origen del ábaco se encuentra en China,
donde el uso de este instrumento aun es notable al igual
que en Japón.
La palabra ábaco es latina y tiene sus orígenes del griego
"abax" o "abakon", que significa "superficie plana" o
"tabla", es posible que se ha originado de la palabra
Semítica Abaq que significa "polvo". Otros nombres son:
del ábaco Chino es "Suan Pan", el Japonés es "Soroban",
en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban
Tien", en Rusia "Schoty", Turquía "Coulba" y Armenia
"Choreb".
Debido a que gran parte de la aritmética se realizaba en el
ábaco, el término ábaco ha pasado a ser sinónimo de
aritmética, y encontramos tal denominación en Leonardo
de Pisa Fibbonacci (1170-1250) en su libro "Liber Abaci"
publicado en 1202, que trata del uso de los números indoarábigos.
Muchas culturas han usado el ábaco o el tablero de
conteo, aunque en las culturas europeas desapareció al
disponerse de otros métodos para hacer cálculos, hasta tal
punto que fue imposible encontrar rastro de su técnica de
uso. Las evidencias del uso del ábaco son comentarios de
los antiguos escritores griegos. Por ejemplo, Demóstenes
(384-322) escribió la necesidad del uso de piedras para
realizar cálculos difíciles de realizar en la cabeza. Y los
métodos de calculo encontrados en los comentarios de
Herodoto (484-425), hablando de los egipcios decía: “Los
Egipcios mueven su mano de derecha a izquierda en los
cálculos, mientras los Griegos lo hacen de izquierda a
derecha".
Algunas de la evidencias físicas de la existencia del ábaco
se encontraron en épocas antiguas de los Griegos por las
excavaciones arqueológicas. En 1851, se encontró una
gran ánfora de 120 cm. de alto, se la denominó como
"Vaso de Darío" y entre los dibujos tiene una figura que
representa un contador que realiza los cálculos. La
segunda muestra arqueológica es un auténtico tablero de
conteo encontrado en 1846 en la isla de Salamis, el tablero
de Salamis probablemente usado en Babilonia 300 a.n.e.,
es una gran pieza de mármol de 149 cm. de largo por 75
cm. de ancho, con inscripciones que se refieren a ciertos
tipos de monedas de la época, este tablero esta dividido
en dos partes.
Se sabe que los Romanos empleaban su ábaco con piedra
caliza o mármol, para las cuentas a las que denominaron
"calculi" esta palabra es la raíz de la palabra cálculo".
En el siglo XIII se estandarizó una mesa de ábaco en
Europa, consistiendo en una mesa cubierta de paño en la
que se dibujaban unas líneas con tiza o tinta. Existieron
dos intentos por reemplazar la mesa de ábaco por otros
más modernos. El primero fue ideado por el filósofo
romano Boethuis, quien escribió un libro sobre geometría
dedicando un capítulo al uso del ábaco, describió como en
lugar de emplear cuentas se podía representar el numero
con sólo una cuenta que tuviese los dígitos del 1 al 9
marcados. El segundo intento fue realizado por el monje
Gerbert de Avrillac (945-1003), quien fue papa con el
nombre de Silvestre II. Tomó ideas del libro de Boethius, y
Los psicólogos de lo
paranormal (abduciones)
L.A. Gámez
Teoría de recuperación
de recuerdos y síndrome
de falso recuerdo. John
Hochman
La psicología científica
y las pseudopsicologías.
Carlos Álvarez González
Psicología para
escépticos
La psicología científica
y los cuestionamientos
al psicoanálisis
Enciclopedia de las
alegaciones, fraudes y
engaños de lo oculto y
lo sobrenatural
El ruido
electromagnético y los
lugares embrujados
Laberinto postmoderno
Escepticismo en
España
Foro RazónCrítica
ARP-SAPC
Círculo escéptico
Magonia
Escepticismo
en América
Pensar. Argentina
Escépticos. Colombia
Arev. Venezuela
James Randi. EE.UU.
CSI. EE.UU.
Sugerencias
y consultas
Nombre:
eMail:
Tel (opcional):
Consulta o sugerencia:
describió el uso de una nueva forma de ábaco en el año
1000. Ninguno de estos dos ábacos fueron populares.
La mesa de ábaco fue usada extensamente en Bretaña, al
igual esta fue abandonada por la mayoría de la gente. El
libro "The Grounf of Artes" escritopor Robert Recorde
(1510-1558) en 1542, claramente muestra el método de
aritmética con la mesa de ábaco.
Conforme los numerales indo-arábigos aparecieron en
Europa el uso de la mesa de ábaco desapareció por
completo, cuando los soldados de Napoleón invadieron
Rusia en 1812, trajeron ábacos como trofeos o recuerdos
del país.
En otras partes del mundo, se encuentra en China la
primera evidencia del inicio del ábaco chino que se
descubrió, fueron cuentas de cerámica hechas en el
occidente de la Dinastía Zhou1 con más de 3000 años.
Respecto a los materiales históricos a mano, el libro que
registra el comienzo del cálculo con un ábaco se llama
Crónica Aritmética escrito por Xu Yue en el oriente de la
Dinastía Han (206-220), hace 2000 años. Esto indica que
el ábaco tenia una cuenta en la parte superior y cuatro en
la inferior.
Los ábacos modernos existieron en la Dinastía Song (9601279) lo que puede ser verificado por alguna evidencia, por
ejemplo, en una pintura de Wang Xhenpeng's, muestra el
uso extenso entre la gente del sur de la Dinastía Song.
Durante la Dinastía (mongol) Yuan (1279-1368) los ábacos
tuvieron una etapa donde se fueron popularizando
paulatinamente en todo el país, posteriormente entró en la
etapa en la que su uso ya era algo común a mediados de
la Dinastía Ming (1368-1644) y la técnica de uso paso a
ser un sistema algorítmico completo. Un libro escrito por
Wu Ching-Hsin-Min en 1450, tiene descripciones acerca de
el ábaco, así como una gran numero de libros publicados a
finales de la Dinastía Ming, que aseguran el hecho que el
ábaco entró en el uso popular. Existen dos trabajos
representativos en el cálculo del ábaco en la Dinastia
Ming. Uno fue Wang Wensu's Principios matemáticos
1524, y el otro es Cheng Dawei's reglas generales del
método de conteo 1592, los cuales plantearon un mayor
papel en extender el uso del ábaco. Durante el período de
la Dinastía Ming, el ábaco chino se propagó hacia Corea
en el 1400 y en Japón en el 1600, así como al sureste de
Asia.
Durante la Dinastia Ming había un solo tipo de ábaco en
China, con una cuenta en la parte superior y cinco en la
parte inferior, fue encontrado en la tumba de Lu Weizhen
(1543-1610). Después de la Dinastía Qing (1644-1912), el
ábaco contó con dos cuentas en la parte superior y cinco
en la parte inferior, fue extensamente usado como
actualmente ha sido, mientras que el ábaco japonés se
diseñó empleando una cuenta en la parte superior (cielo) y
cuatro en la inferior (tierra).
A finales de la edad media los mongoles propagaron el uso
del ábaco en Rusia, que provenía de los chinos y los
tártaros.
Protección de datos: los datos
proporcionados sólo se utilizan para
responder. No se almacena ninguna
información
Submit
Un hecho muy importante del uso y la potencia del ábaco
fue que el 12 de Noviembre de 1946, una competencia,
entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés
de comunicaciones utilizando un ábaco japonés y el
americano Thomas Nathan Wood de la armada de
ocupación de los EE.UU. con una calculadora
electromecánica, fue llevada a cabo en Tokyo, bajo
patrocinio del periódico del ejército americano (U.S. Army),
Stars and Stripes. Matsuzaki utilizando el ábaco japonés
resultó vencedor en cuatro de las cinco pruebas, perdiendo
en la prueba con operaciones de multiplicación.
El 13 de Noviembre de 1996, los científicos Maria Teresa
Cuberes, James K. Gimzewski, y Reto R. Schlittler del
laboratorio de IBM de Suiza de la división de investigación,
construyeron un ábaco que utiliza como cuentas moléculas
cuyo tamaño es inferior a la millonésima parte del
milímetro. El "dedo" que mueve las cuentas moleculares
es similar a una aguja cónica que en su extremo más
puntiagudo alberga un átomo.
1) Las fechas de inicio de la dinastía Zhou son dudosas, y
varían entre los años 1122, 1050 y 1027 a.n.e., cuando al
parecer expulsaron a la débil dinastía Shang. En cuanto a
la fecha de su fin, casi todo el mundo coincide en señalar
el año 221 a.n.e.
Artículo escrito por Manuel Bernal
Antes de aparecer las calculadoras surgieron otros dispositivos de entre los
que cabe comentar dos, en los que el matemático escocés J ohn Neper
(1550-1617) tuvo un papel destacado. Es conocido por la invención de los
logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad
es tema de controversia, no obstante el primero en usarla, en 1621, fue el
sacerdote inglés William Oughtred (1575-1660). En 1617 Neper dio a
conocer un instrumento sencillo para realizar multiplicaciones basándose
en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes
en libros árabes.
La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica
es una especie de ábaco, pero con ruedas dentadas en lugar de varillas y
bolas, dotada de un mecanismo para el transporte de las unidades que se
lleven, de una posición digital a la siguiente más significativa.
Hasta hace pocas décadas se creía que el
filósofo francés Blas Pascal (1623-1662) había
sido el creador de la calculadora. Pascal diseñó
su "machina arithmetica", posteriormente
denominada Pascalina, a la edad de 19 años,
para que su padre que era recaudador de impuestos tuviera tiempo libre
para jugar con él a la paume.
Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida
en 1967 a partir de uno de sus códices. En 1935 el historiador Franz
Hammer, revisando la correspondencia del astrónomo Johannes Kepler
descubrió que el alemán Whilem Schickard (1592-1635) había inventado
una calculadora que era una combinación de los rodillos de Neper con una
sumadora-restadora similar a la de Pascal, obviamente no sólo era superior
a la pascalina, sino que se construyó el año en que nació Pascal.
El primero en construir una calculadora, en 1671, fue el filósofo y
matemático alemán Gottfried Leibniz (1646-1716), inventor junto con Isaac
Newton del cálculo infinitesimal, aunque de
forma
independiente.
Fue
denominada
calculadora universal, su elemento característico
era un tambor cilíndrico con nueve dientes de
longitud variable, llamado rueda escalonada, que
se encuentra en prácticamente todas las
calculadoras mecánicas posteriores, incluso las
del siglo XX. Las técnicas de producción tan
poco eficientes de aquella época, impidieron que
el invento de Leibniz se fabricara masivamente. Se llegaron a construir
1500 unidades, pero hubo que esperar hasta 1820 para que el francés
Charles Thomas de Colmar (1785-1870), director de una aseguradora,
diseñara un modelo capaz de ser producido a bajo coste y a escala
industrial, el conocido como aritmómetro de Colmar, cuya producción fue
masiva para aquella época.
En 1872 el estadounidense Frank Baldwin (1838-1925) construyó una
calculadoraa la que años más tarde le añadió la denominada rueda Odhner.
Esta fue la antecesora de la clásica calculadora de sobremesa, con
manecilla lateral, difundida universalmente desde 1910 y que todavía se
encuentra en rastros, fabricadas por la empresa Monroe. De ella deriva la
popular caja registradora inventada en 1879 por James Ritty (1837-1918), y
patentada en 1883, comercializada bajo la marca National y una sumadora
provista de impresora inventada por William Borroughs (1855-1898) en
1884, fundador de la empresa que llevó su apellido.
En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea
García (1833-1899) patentó en Nueva York una calculadora por la que se le
otorgó la medalla de oro de la exposición de Matanzas (Cuba). Aseguraba
que no había fabricado la máquina para patentarla y venderla, sino para
demostrar que era posible que un español pudiera inventar tan bien como
un norteamericano. A partir de entonces sólo se dedicó al periodismo,
combatiendo la política de colonialismo de EE.UU., por lo que tuvo que
exiliarse en Guatemala y posteriormente en Argentina.
4.2 Cálculo matemático
Una calculadora no es un dispositivo automático, lo cual implica que
requiere la acción constante de un operador, que es un obstáculo para la
velocidad y fiabilidad de los resultados.
En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo
constatado que las tablas trigonométricas
estaban plagadas de errores al haber sido
calculadas a mano, concibió la denominada
máquina de diferencias, un instrumento
mecánico para calcular e imprimir tablas de
funciones. En realidad se trataba de una
máquina que calculaba el valor numérico de una
función polinómica sobre una progresión
aritmética, pues las funciones se pueden
aproximar por polinomios.
Tras una serie de fracasos, en 1832 Babbage desarrolló el proyecto de la
máquina analítica. Se trataba de un ordenador mecánico de propósito
general, preparado para realizar cualquier tipo de cálculo mediante un
programa adecuado. Sus elementos fundamentales serían: una memoria
para 1000 números de 50 cifras, una unidad aritmético lógica para los
cálculos, una unidad de control para que las operaciones se realizasen en
el orden correcto, lectoras de fichas perforadas (que ya se usaban desde
hace un siglo en los telares) para la entrada de datos y una impresora para
la salida de resultados.
Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852),
condesa de Lovelace, publicó una serie de
programas para resolver ecuaciones trascendentes
e integrales definidas, con la máquina analítica. En
dichos programas se hacía uso de bifurcaciones,
hacia delante y atrás y de bucles. Fue la primera
programadora de la historia, por eso el
departamento de Defensa de EE.UU. denominó
A DA al lenguaje de programación oficial en sus
dependencias.
Es sorprendente que a alguien se le ocurriera
diseñar un ordenador hace más de un siglo y medio. Aunque nunca se
llegó a construir esta máquina por falta de precisión en algunas piezas.
Babbage tenía manía a los organilleros, y al morir los periódicos
londinenses destacaron ese detalle.
Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres
Quevedo (1852-1936). Logró renombre universal gracias a sus inventos.
Construyó transbordadores (uno en las cataratas del Niágara), un aparato
teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por
franceses e ingleses durante la Primera Guerra Mundial y un sinfín de
máquinas para cálculo científico. De estos destacan los aritmómetros en
los que introdujo la aritmética de punto flotante, eran máquinas de cálculo
matemático sobre la base de relés, y dotadas de memoria, que se
gobernaban a distancia mediante una máquina de escribir, la cual servía
para entrar operandos, operaciones y para obtener los resultados.
Asimismo realizó estudios sobre los hoy denominados robots, y sus
aplicaciones en la industria, por lo cual no sólo es considerado un
precursor de la informática sino también de la cibernética; como ejemplo
práctico construyó una máquina de jugar al ajedrez, un autómata capaz de
dar mate de rey y torre contra rey y que reaccionaba ante las jugadas
irreglamentarias del contrario.
En los años 1920 tuvo en sus manos de dar a España la primacía en la
informática, si no sucedió fue porque en aquella época no hacía falta. La
necesidad de un ordenador surgió con la Segunda Guerra Mundial, por lo
que se construyeron los primeros ordenadores basándose en los trabajos
de Babbage y de Torres Quevedo.
4.3 Las generaciones de ordenadores
La informática se puede considerar como "tratamiento automatizado de
la información" y la primera persona que construyó una máquina (que
todavía no era un ordenador) con esta finalidad fue Herman Hollerit (18601929). En 1886, cuando trabajaba para la oficina del censo en EE.UU. se
percató de que el procesamiento de los datos del censo del año 1880, no
se había terminado en el momento de hacer el de 1890. Para resolver el
problema diseñó una tarjeta que se debía perforar con los datos de cada
uno de los encuestados. Estas fichas se introducían en una lectora que
detectaba las perforaciones mediante un baño de mercurio (Hg), que al
introducirse por los agujeros provocaba contactos eléctricos. Finalmente
los datos se registraban en una tabuladora. Con ello se multiplicó por 100 la
velocidad de proceso, 200 fichas por minuto.
Hollerit fundó su propia empresa, la Tabuling Machine Co. (1896)
posteriormente convertida en la Computing Tabulating Recording (1911),
tras pasar a manos de Thomas Watson (1874-1956) se denominó en 1924
International Bussiness Machines (IBM).
Otra gran empresa, Unisys, tiene su remoto origen
en esta época. Al dejar Hollerit la Oficina del
Censo, lo sustituyó James Powers, quien fundó en
1911 la Powers Accounting Machine Co., que pasó
a formar parte en 1927 de la Remington-Rand
Corporation. Esta empresa años más tarde
construyó los primeros ordenadores Univac.
Hasta 1950 las empresas fundadas por Hollerit y
Powers se dedicaron a la fabricación de tabuladoras
para la gestión de grandes empresas y organismos
oficiales. La primera tabuladora llegó a España en 1925 y se instaló en la
entonces denominada Compañía Telefónica Nacional de España
(actualmente Telefónica de España S.A.). En 1926 se instaló otra en el
ayuntamiento de Barcelona. A finales de los años 1950 había unas 70 en
toda España.
Ordenadores de Primera Generación
Los primeros ordenadores fueron electromecánicos (en
base a relés). Aunque Jorge Stibz construyó en 1949 en
los laboratorios Bell una máquina programable que
trabajaba
con
números
complejos,
el Complex
Calculator, se considera que el primer ordenador fue
desarrollado en 1941, el Z3 del alemán Konrad Zuse
(1910-1995), cuya empresa fue adquirida por Siemens. Le
siguió en 1944 el Mark I de Howard Aiken (1900-1973) y
Grace Hopper (1906-1992), construido en la Universidad de Hardward con la
colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000
piezas y 800 km de cable.
Durante la década de 1950 Aiken trabajó activamente con investigadores
españoles del Instituto de Electricidad y Automática del CSIC, fundado por
Torres Quevedo.
La sustitución de los relés por tubos de vacío dio lugar a la Primera
Generación de ordenadores electrónicos. El primero fue fabricado en
1945,el ENIAC (Electronic Numerical Integrator
and Calculator) de los estadounidenses John
Eckert (1919-1995) y John Mauchly (1907-1980)
que se usó en el cálculo de trayectorias de
proyectiles. Acabada la guerra se utilizó para
calcular el número pi con unos 2000 decimales,
y para hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000
tubos y pesaba 30000 kg. Era 300 veces más rápido que el Mark I y
costaba 400000 dólares frente a los cinco millones del Mark I. Sin embargo
sólo tenía 20 registros de memoria, de 10 dígitos; estaba pues muy lejos
de cualquier ordenador personal. En un test de prueba en febrero de 1946
el Eniac resolvió en dos horas un problema de física nuclear que
previamente habría requerido 100 años de trabajo humano. Lo que lo
caracterizaba como a los ordenadores modernos no era simplemente su
velocidad de cálculo sino el hecho de que combinando operaciones
permitía realizar tareas que previamente eran imposibles.
Antes del ENIAC, en 1940 se crearon otras máquinas
electrónicas, un pequeño calculador del físico John Atanasoff
(1903-1995) que no era automático ni
programable y varias máquinas británicas
para descifrar los mensajes del ejército
alemán, por ejemplo, en 1943 el
Colossus. La batalla legal por la palabra
"Computer" la ganó en el año 1973
póstumamente Atanasoff.
Echerk y Mauchly crearon la Electronic
Control Co, que en 1950 fue adquirida por la Remington-Rand, allí diseñaron
el primer ordenador electrónico de gestión, el UNIVAC (UNIversal
Automatic Computer). El aparato tuvo gran éxito y copó el mercado, que
hasta entonces había sido feudo de IBM. En respuesta IBM creó una serie
de ordenadores excelentes, como el IBM 705, en 1952, desbancando a
Univac, mediante una publicidad agresiva. El UNIVAC II no salió hasta
1958, cuando IBM ya había recobrado el liderato. De poco les había servido
una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand
Corporation.
En 1945 mientras se
construía el ENIAC, se
incorporó al equipo el
prestigioso matemático
húngaro Johannes Von
Neumann (1903-1957),
quien propuso que los
programas se almacenasen en la memoria como si
fuesen datos, y no en una memoria especial, como se
hacía desde el diseño de Babbage, equipo que se iba a
llamar EDVAC. Los informes fueron tan precisos que
otros se adelantaron y así el primer ordenador tipo Von
Neumann fue el EDSAC (Electronic Delay Storage Automatic Calculator)
construido el año 1949 por Maurice Wilkes (1913-) en la Universidad de
Cambridge. De esta generación sólo llegó uno a España, un IBM 650,
contratado por RENFE en 1958.
Ordenadores de segunda generación
Se considera el inicio en 1958 con la sustitución de los tubos de vacío por
los transistores. Los primeros ordenadores transistorizados fueron dos
pequeños modelos de NCR y RCA. Los
primeros de IBM y Sperry Rand fueron
el IBM 7070 (1960) y el UNIVAC 1107
(1962),
respectivamente. Bull
comercializó los Gamma 30 y 60.
Durante esta época se introdujeron las
unidades
de
cinta
y
discos
magnéticos, y las lectoras de tarjetas perforadas e impresoras de alta
velocidad. Así mismo aparecieron algunos lenguajes de programación,
COBOL (1959), Algol (1960), el LISP(1962) y FORTRAN que fue creado en
1954 para IBM, por John Backus (1924-2007).
El segundo ordenador instalado en España, y primero de la segunda
generación llegó en 1959, era un UNIVAC UCT, contratado por la antigua
Junta de Energía Nuclear, actualmente CIEMAT. La era de la informática
llegó realmente a nuestro país en 1961, en la Feria de Muestras de
Barcelona, se presentó un IBM 1401.
Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del
grupo ENDESA), Galerías Preciados (Actualmente propiedad de El Corte
Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donó a la Universidad
Complutense de Madrid un ordenador científico, modelo 7094.
Ordenadores de tercera generación
La principal característica de esta generación fue el uso del circuito
integrado, que se incorporó a mediados de los años 1960.
Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000
millones de dólares de aquella época (1964) y sobre todo la IBM 370
(1970), el producto más famoso de esta generación. Sperry Rand, en 1965
introdujo la famosa serie 1100.
Durante esta época surgieron la multiprogramación y el tiempo compartido.
También tuvo lugar la denominada "crisis del software" Se intentó la
creación de lenguajes universales, el PL/1 (1964) y se estandarizaron los
lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970).
También datan de esta generación el BASIC (1964) y el Pascal (1971).
En España durante el trienio 1964-67 las tabuladoras fueron sustituidas
masivamente por ordenadores, y prácticamente desaparecieron al entrar en
la década de los 70. En 1970 el parque de ordenadores e distribuía así:
Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del
norte y algunas cajas de ahorros.
Los miniordenadores surgieron a finales de los 60, como elemento de
transición entre las generaciones tercera y cuarta, con los circuitos
integrados de media escala (MSI). Sus destinatarios fueron grandes y
medianas empresas. Disponían de varias terminales y se organizaban en
redes. Destaca la familia PDP 11 de la desparecida Digital Equipment
Corporation.
Ordenadores de cuarta generación
El elemento que provocó el nacimiento de esta generación se considera
habitualmente, aunque con cierta controversia, el
microprocesador Intel 4004, desarrollado por Intel
en 1971. El primer ordenador personal en EE.UU.
fue el Altair 8800 (1974) de la desaparecida
empresa MITS. Microsoft tuvo el acierto de
construir un intérprete BASIC para él, MITS
sobrevivió un par de años, pero Microsoft inició un
despegue imparable, dando un gran salto al facilitar a IBM el sistema
operativo MS-DOS para el PC, que a su vez lo adquirió a otra empresa. Las
imágenes siguientes muestran microprocesadores bajo distintas escalas de
ampliación.
En
1971 apareció el PET 2001 de Commodore, empresa absorbida por la
holandesa Tulip muy conocida por su marca Conceptronics (y vuelta a
vender en 2005 a Yeahronimo Media Ventures que está actualmente
próxima a la bancarrota), el TRS 80 de Radio Shack y el Apple II, fabricado
en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-) y
Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de
marcas. Destaca el Sinclair ZX80, precedente del ZX81 y del Spectrum,
fabricante absorbido por Amstrad, que consiguió gran éxito vendiendo
productos de muy baja calidad fabricados en Corea. Amstrad, como es
lógico, abandonó la informática, aunque sigue
con equipos musicales y antenas de
televisión, de muy baja calidad. En Agosto de
1981 se presentó el IBM PC, que dio lugar a
la difusión masiva de la informática personal.
Sin
embargo
la
microinformática,
contrariamente a lo que se cree, no comenzó
en EE.UU, pues en el año 1973 se creó en
España, con la invención del primer ordenador personal, el Kentelek 8, a
cargo de la empresa Distesa (de la editorial Anaya), el creador fue Manuel
Puigbó Rocafort. Jordi Ustrell diseño posteriormente otro ordenador
personal par la empresa catalana EINA. Por esta época también surgieron
en Francia los microordenadores Micral
Como se ha visto, desde el ábaco hasta las primeras calculadoras
mecánicas pasaron 12 siglos, desde estas últimas al primer ordenador
transcurrieron dos siglos y desde el Mark I al primer microordenador
pasaron 28 años. Desde entonces la velocidad de desarrollo es difícil de
imaginar.
Ordenadores de quinta generación
En octubre de 1981 el mundo de los ordenadores se vio sacudido por el
anuncio hecho en Japón, de una iniciativa de investigación y desarrollo
orientada a producir una nueva generación de ordenadores en la primera
década de los años de los 90, a los que se les dio el nombre de
ordenadores de quinta generación. Los ordenadores de esta generación
deberían de ser capaces de resolver problemas muy complicados, algunos
de los cuales requieren toda la experiencia, capacidad de razonamiento e
inteligencia de las personas para ser resueltos. Deberían de ser capaces
de trabajar con grandes subconjuntos de los lenguajes naturales y estar
asentados en grandes bases de conocimientos. A pesar de su complejidad
los ordenadores de esta generación se están diseñando para ser
manejados por personas no expertas en informática.
Para conseguir estos fines tan ambiciosos estos equipos no tendrán un
único procesador, sino un gran número agrupado en tres subsistemas
fundamentales: un sistema inteligente, un mecanismo de inferencia y una
interfaz de usuario inteligente. Los avances se sitúan en materia de
teleinformática, y una progresiva disminución de tamaño y coste del
equipo, así como de técnicas de programación y desarrollo de inteligencia
artificial, y de control de procesos (robotización).
A los 10 años, se vio el fracaso del proyecto, actualmente no están
desarrollados estos ordenadores, aunque se trabajó en distintos países,
cuyos programas de investigación más importantes fueron:
EE.UU.: Proyectos DARPA y MCC
Unión Europea: Proyecto Sprit
Reino Unido: Proyecto Alvey
Japón: Proyecto ICOT
4.4 Historia de los ordenadores personales
Diseño del primer PC de IBM
El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era
el mercado doméstico, con lo cual se comprenderán fácilmente las
limitaciones existentes en la primera generación. Externamente estaba
integrado por tres piezas, la unidad central, de sobremesa y de gran
tamaño, la pantalla, monocroma y de modo texto y un teclado. A esto se
podía añadir una impresora de nueve agujas, con la marca IBM pero
fabricada por la japonesa Epson.
Por lo que respecta
al microprocesador
se trataba del Intel
8088, una versión,
con el bus recortado
a la mitad de ancho,
del 8086. Esta CPU
suponía un avance
respecto
a
los
microordenadores
comercializados en
esa época, pues
todos eran de 8 bit, a
excepción del Olivetti
M20, que incluía una
CPU Zilog 8000 de
16 bit, aunque el
8088 no era un auténtico 16 bit.
El usar la CPU Intel 8088, con bus externo de 8 bit, tenía una explicación,
poder emplear todos los "chips" de acompañamiento (que en aquella época
eran bastantes) existentes en el mercado, a precio barato, de 8 bit. Si se
hubiera empleado la CPU Intel 8086, como hicieron de inmediato otras
empresas como Olivetti en su M24 y la desaparecida Victor, todos estos
chips habrían de ser de 16 bit, con un precio muy elevado en aquella
época.
Así se concluye que IBM, buscó el fabricar un equipo novedoso en su
CPU, aunque limitando al máximo el precio de sus componentes, para
mantener un producto de calidad alta, prestaciones superiores frente a los
productos domésticos de la competencia, y a un precio que le permitiera
mantener los grandes márgenes comerciales de aquella época.
La configuración básica estaba integrada por:
CPU Intel 8088 a 4.77 MHz de frecuencia
64 kO de memoria RAM
Controladora de vídeo modo texto
Controladora de impresora (Centronics)
Monitor exclusivamente de modo texto
Cinta de casette para almacenar datos y programas
Lenguaje BASIC en ROM
Teclado, de 84 teclas
Sin embargo esta versión no se llegó a comercializar pues se sustituyó la
unidad de casette por una de disco flexible de 160 kOctetos de capacidad,
y como es lógico con su controladora. A su vez se introdujo el sistema
operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en
aquella época sólo era conocida por su lenguaje BASIC) a IBM.
La gran ventaja de este equipo era su facilidad de ampliación debido a los
"slots" o zócalos de que disponía, lo cual dio origen a que un gran número
de empresas independientes crearan tarjetas electrónicas adaptables, que
realizaban funciones no disponibles en el PC o que mejoraban las
existentes. Estos zócalos constituyen el tan conocido BUS de expansión
del PC, que dio lugar al BUS AT, un estándar a nivel microinformático,
conocido como Bus ISA. Se define como ancho de banda del bus, la
cantidad de bits que puede transportar por unidad de tiempo, siendo inferior
a 4 MO/s.
El éxito de este equipo fue superior al previsto por IBM, prueba de ello es
que no estuvo disponible en Europa hasta casi dos años después de su
lanzamiento en EE.UU., momento en que se empezó a fabricar en Escocia
(R.U.). Este éxito se debió a la gran fama de IBM, pués en esa
época había equipos muy superiores, como los antes citado de
Olivetti y Victor, y a precios más asequibles.
Dado que las especificaciones técnicas fueron hechas públicas por IBM,
esto dio origen, como se ha comentado previamente, al nacimiento de gran
cantidad de empresas que crearon tarjetas adaptables al bus. Entre ellas
se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC
perdía la hora al apagarlo, tajetas de vídeo con posibilidades gráficas y que
por lo tanto soportaban un monitor gráfico y a veces en colores, tarjetas de
comunicaciones como por ejemplo tipo modem o telex, y otras muchas
posibilidades.
IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC,
conocido como IBM PC XT, en el que incorporó un disco duro de 20 MO
con interface MFM (actualmente desaparecida), con su controladora, y una
tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una
resolución baja (640*200 puntos), que para lo único que servían era para
destrozar la vista de los usuarios. A su vez incluyó disqueteras para
soportes con capacidad de 360 kO.
Simultáneamente aparecieron los primeros microordenadores clónicos y
compatibles. Por ejemplo, en EE.UU. Olivetti Docutel presentó el Olivetti
PC, una copia casi idéntica del IBM PC XT, aunque con mejores
prestaciones y precio más bajo; en Europa apareció el Olivetti M24, con
CPU Intel 8086, y buses de 16 bit, lo cual lo hizo muy superior al XT de
IBM, siendo un gran éxito a nivel mundial (se comercializó con otras
marcas: AT&T, Toshiba, Logabax, Xerox, Hermes ...). A su vez la francesa
Bull presentó un clónico del IBM PC XT, copia exacta, aunque lo raro es
que tenía prestaciones inferiores al de IBM; cosa incomprensible. De esta
forma fueron apareciendo equipos que intentaban superar a los de IBM,
pero aun no había dado comienzo la época de los clónicos a bajo precio y
montados en base a piezas fabricadas en Formosa y otros países
asiáticos. La gran difusión de estos equipos, hizo que aparecieran gran
cantidad de programas, lo cual reforzó el liderazgo de los PC's de IBM.
También surgió un equipo de IBM conocido como portable (no portátil), que
además de ser bastante voluminoso, no tenía autonomía eléctrica, es decir
había que enchufarlo a la red. Otro inconveniente fue que la pantalla era de
tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de
pequeñas dimensiones, pero con toda la roblemática que conllevan para su
transporte. Este equipo no era muy asequible ni en precio ni en portabilidad,
por lo que otras empresas intentaron mejorarlo, así surgió, con este
propósito, Compaq, empresa comprada por Hewlett Packard.
El PC AT de IBM
Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y
poco a nivel doméstico, y que por otra parte la competencia ofrecía
equipos con más prestaciones más baratos y totalmente compatibles,
decidió sacar una versión mejorada de sus PC's, que denominó AT
(Tecnología Avanzada). Este incluía una CPU de 16 bit, superior a la 8086,
era la 80286 de Intel, cuya principal diferencia repecto a la 8086 era el bus
de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha
más memoria, aunque en aquella época no era una gran necesidad.
Otra diferencia fundamental, era que los "slots" de expansión constituían
un bus de 16 bit, lo cual permitía utilizar las tarjetas de los XT, a 8 bit, y
las nuevas que se crearan para él. Este bus AT se ha convertido en un
estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez
la frecuencia de reloj pasó a ser de 6 u 8 MHz, frente a los 4.77 del PC
original.
Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras
empresas (Fujitsu, Siemens, AMD, Harris, ...), se abarataron los costes de
tal forma, que apareció el fenómeno de los clónicos tal como lo conocemos
actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se
distribuía entre IBM y las marcas de prestigio que comercializaban
compatibles (Olivetti, Bull, Compaq, Xerox, AT&T, Philips, NCR y algunas
otras), sino que empresas con pocos medios y con gastos nulos de
investigación, pues gran parte del producto lo copiaban ilegalmente, podían
ofrecer equipos clónicos a precios imbatibles, aunque la mayoría de las
veces con una calidad y seguridad para el usuario ínfimas.
La arquitectura de un ordenador AT estaba compuesta por:
Fuente de alimentación conmutada
Placa base o placa madre, que incorpora:
CPU Intel 80286 con frecuencia de reloj desde 6 hasta 20 MHz
Memoria RAM de 1 MO. ampliable
Conjunto de chips (ChipSet), que gestionan el sistema
Tarjeta controladora de vídeo, gráfico y color (640*200)
Tarjeta comunicaciones RS 232C
Tarjeta controladora impresora (Centronics)
Tarjeta controladora de dos discos duros MFM y dos disqueteras
Tarjeta para ampliación de memoria
Bus con los "slots" de expansión
Bus Local PC Reloj en tiempo real, con batería
Teclado mejorado de 104 teclas
Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que
las incluyeron el la placa base, dejando así más zócals libres en le BUS
AT, para posteriores ampliaciones.
Los IBM PS/2
Ante la situación de competencia en la que se vió inmersa IBM, actuó de
dos formas, la primera fue exigir a todos los fabricantes que le habían
copiado sus productos el pago de los "royalties" corrspondientes, a lo cual,
dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una
nueva línea de equipos, legalmente muy difíciles de copiar por su gran
detalle de patentes. De esta forma nacieron los IBM PS/2.
Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir
CPU Intel 386, muy mejorado, en el que se introducian las tarjetas de
expansión, pues IBM lo cambió por completo, llamándole "Microchannel",
lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura
Microcanal). Otra innovación fue el cambio de tipo de monitores, y por lo
tanto de controladora, se introdujeron los monitores analógicos, con una
resolución superior a los previamente empleados (digitales) y con una
variedad de colores muy superior. Estas dos innovaciones supusieron que
no valía nada de lo anterior y que además los clónicos, en principio se
verían desplazados del mercado.
A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con
mejoras significativas frente a sus predecesoras.
La arquitectura MCA fue comercializada por algunos fabricantes aparte de
IBM, como por ejemplo Olivetti, pero con muy poco éxito. Además dado
que estos equipos, incluso los de IBM se difundieron poco todas las
tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de
esta arquitectura un producto poco atractivo.
Simultáneamente a la aparición de estos equipos se comercializó un nuevo
sistema operativo denominado OS/2, desarrollado entre IBM y Microsoft,
aunque las versiones posteriores fueron creadas por IBM; actualmente ya
no se comercializa.
A su vez Compaq creó un bus específico para sus equipos de gama alta, el
denominado Triflex, que comprende tres buses interconectados, uno de 128
bit para la memoria, otro de 64 bit para uno o dos microprocesadores 486 (a
267 MO/s) y un bus EISA (que se describirá en el apartado siguiente).
El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM,
está claro, pués una nueva generación de equipos que comercializó
posteriormente, para uso doméstico, los PS/1, no utilizaban arquitectura
MCA. A su vez como no logró frenar el avance de los clónicos, IBM
decidió comercializar clónicos de países asiáticos, con la marca Ambra, lo
cual acabó en fracaso al poco tiempo.
Actualmente IBM ha vendido la división de PC's a la empresa china
Lenovo, debido a los bajos márgenes de beneficios.
EL BUS EISA
Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de
microordenadores, AST Research, Compaq Computer, Epson, HewlettPackard, NEC, Olivetti, Tandy, WYSE y Zenith Data Systems, decidieron
crear un bus con prestaciones superiores al ISA, pero que a su vez fuera
compatible con él, esto dio origen al bus EISA (Extendido ISA). Sus
características eran: 32 bit, ancho de banda de 33 MO/s y frecuencia de
reloj 8 MHz. EISA sólo se ha usado en los microordenadores de gama alta
y ha tenido poca difusión, a pesar de sus ventajas sobre ISA y a valer las
tarjetas de expansión existentes, lo cual repercutió en que no se abarataran
los precios.
De forma que en el año 1992 la situación era la siguiente:
Bus ISA, un auténtico cuello de botella
Bus MCA, muy restringido y sin difusión al gran público
Bus EISA, sólo usado en equipos de gama alta
Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo
cual daría origen a otros buses.
Bus Local VESA
Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA
era cuello de botella, la solución es conectar algunos dispositivos
directamente a la CPU, mediante un bus conocido como bus local. Este ha
de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX
y 32 bit en un 386DX o 486), por lo que eran realidad las velocidades
elevadas. Lo ideal es conectar a este bus las controladoras de vídeo y de
disco duro, mientras que otras tarjetas que no requieren grandes
velocidades se mantienen en el bus ISA.
Surgieron algunos problemas, pues la CPU no puede soportar la conexión
directa de más de dos o tres tarjetas, además el diseño de la placa base ha
de hecerse de forma que las distancias sean mínimas para evitar retrasos.
También es conveniente usar memorias caché.
Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133
MO/s.
VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de
Vídeo (Video Electronics Standars Association), que agrupa a más de 120
fabricantes, y fueron los que lo propusieron, disponible desde finales de
1992 y desde 1996 fuera de uso.
Este bus va a la misma velocidad que el procesador, siendo una solución
sencilla, que no incluye soporte de DMA ni de interrupciones, lo que obliga
a la mayoría de las tarjetas a estar conectadas a los dos buses, el ISA y el
VESA, para aprovechar del primero las caracteristicas de E/S y del
segundo el ancho de banda.
Al salir al mercado las placas madre con bus VESA, su precio era algo
superior al de las con bus ISA, hubo una época en que dominaron el
mercado, pero han desaparecido del mercado, frente al bus PCI. Para
equipos Pentium sólo se llegaron a fabricar algunas placas VESA.
Bus Local PCI
Introducción
PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel.
En 1992 Intel y otras compañías formaron el PCI Special Interest Group
para promocionar, supervisar y mejorar el desarrollo de PCI como estándar
de bus local abierto y no propietario. Este grupo cuenta con más de 160
fabricantes. Es una solución completa, dado que a diferencia del VESA
incluye ventajas como el soporte de interrupciones y DMA. Lo cual
implicaba que necesita tres chips específicos, y por lo tanto un coste
superior.
Las especificaciones del bus local PCI ofrecen un número de beneficios
clave:
Altas prestaciones
Compatibilidad
Independencia del procesador.
Flexibilidad de plataforma
Bus Local PC rentabilidad
Soporte futuro
Que se describen seguidamente en
detalle:
Altas prestaciones
Al contrario del bus local VESA que sólo está pensado para acelerar las
aplicaciones gráficas, PCI es una solución de sistema global. Proporciona
mayores prestaciones para los adaptadores de redes, unidades de disco
duro, vídeo animado, gráficos y otros periféricos que requieren gran
velocidad.
Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de
datos de 32 bit y ancho de banda de 132 MO/s, frente a 5 MO/s del bus
ISA.
Otras características para permitir operaciones simultáneas, mantener el
bus lleno de datos y minimizar los estados de espera de la CPU, son:
Ráfagas Lineales.
Es un método de transferencia de datos que asegura que el
bus siempre tenga datos. Estas ráfagas permiten utilizar más
ancho de banda para enviar datos en vez de direcciones.
Además PCI es único, pues soporta tanto lecturas como
escrituras en ráfaga, muy importante con aceleradores
gráficos, cuando más del 90% de los accesos de datos de la
CPU, son escrituras a la memoria de vídeo desde la memoria
principal. Aunque en los nuevos diseños se está dando otro
tratamiento más eficaz a los sistemas gráficos.
Baja latencia de acceso
Los dispositivos diseñados para soportar PCI tienen una baja
latencia de acceso, lo que reduce en más de un orden de
magnitud el tiempo requerido para que un periférico obtenga el
control del bus después de requerir el acceso. Por ejemplo
una tarjeta de red Ethernet, puede tener grandes ficheros de
datos llegando a su tampón. Esperando acceder al bus, la
tarjeta no puede transferir los datos de los ficheros a la CPU
lo bastante rápido para evitar una sobrecarga del tampón, lo
que obliga a almacenar en una RAM adicional los contenidos
de los ficheros. Como los dispositivos PCI soportan tiempos
de acceso, la tarjeta de red puede envBus Local PCiar datos
más rapidamente a la CPU, redundando en un precio inferior
al no necesitarse RAM adicional.
Concurrencia y Maestros de Bus
Las mejoras de prestaciones también se logran mediante la
posibilidad de PCI de ser maestro de bus y permitir la
concurrencia. En la mayoría de los buses existe el dominio
de bus, que permite a cualquiera de un número de periféricos
inteligentes tomar l control del bus para acelerar las tareas de
proceso intensivo de alta prioridad. La posibilidad de
concurrencia, única de PCI, asegura que el microprocesador
opera simultáneamente con estos maestros, en vez de
esperarlos.
Compatibilidad
Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y
a veces también se encuentran placas que incluyen el VESA. A su vez
cualquier tarjeta PCI funcionará con cualquier sistema compatible PCI, sin
que importe el tipo de bus de expansión o Bus Local PCde CPU en uso.
Independencia del procesador
La arquitectura independiente del procesador de PCI dispone de un diseño
único de tampón intermediario entre el subsistema de la CPU y los
periféricos. Lo normal es que si se añaden a la CPU más dispositivos, se
degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a
los usuarios ampliar su sistema al añadir múltiples dispositivos periféricos
e introducir variaciones de prestaciones a diferentes velocidades de reloj.
El diseño independiente del microprocesador aseguran que los diseños de
las placas no se quedarán obsoletos.
Soporte de plataforma flexible
PCI proporciona una solución de bus local económica para cualquier tipo de
equipo, no sólo los normales, sino para los servidores y los portátiles
Rentabilidad
PCI se diseñó con un objetivo de bajar los costes globales de los
desarrollos. Utiliza "chips", ya sean fabricados por Intel o por otras
empresas como VIA y Opti, altamente integrados, para incorporar
funciones de sistema como controladores de DRAM y caché, eliminando
costes y espacio asociados con la circuitería de soporte, Frente a los chips
VESA con 80 patillas, los PCI son más pequeños, pues multiplexan los
buses de datos y direcciones.
Desarrollos posteriores del bus PCI
Dado que la arquitectura de este bus es muy flexible, se efectuó un
desarrollo específico para equipos de aplicaciones industriales. Empresas
de dicho entorno crearon unas especificaciones dando lugar al denominado
Compact PCI, que ofrece la posibilidad de diseñar ordenadores con
dimensiones reducidas, (placas de 160 * 100 mm) soportando ambientes
agresivos. Otra de las ventajas es que se pueden crear puentes con otros
buses estándares en la industria, como VME y STD.
La versión 2.2 de las especificaciones, ofrece como novedad más
importante, que los nuevos equipos de acuerdo con esta versióm, permiten
el intercambio de placas en el bus, sin necesidad de apagar el ordenador.
La última versión está operativa desde junio de 2004 y se denomina PCI
Express, siendo muy superior en prestaciones respecto al bus AGP, que
se creó para mejorar la velocidad de acceso de los controladores gráficos
al micrprocesador del ordenador.
Comparación entre buses
Bus 1394 FireWire
Nombre
Nº
V.
Ancho
Bus 1394 FireWire
En 1995 el "Institute of Electrical and
Electronics Engineers (IEEE)" estableció
las bases de un nuevo estándar, el bus
serie
de
elevadas
pretaciones
IEEE1394. Desde 1986 se ha tendido a
unificar los diferentes buses en serie, la
aparición
de
nuevos
dispositivos
grandes consumidores de un gran ancho
de banda, como los DVD, ha dado lugar
al nacimiento de las especificaciones del
b u s Firewire. Esta norma se puede
resumir en los siguientes puntos:
bit
MHz
MO/s
ISA
16
8
<4
MCA
32
10
33
VESA
64
=CPU
133
PCI
32
33
133
PCI-E
32
>33
8
GO/s
Transferencia de datos en tiempo real para aplicaciones multimedia.
Flujos de transferencia de hasta 200 MO/s, ampliable en el futuro
hasta 800 MO/s.
Conexión en caliente (sin desconectar la alimentación eléctrica), sin
pérdida de datos.
Topología de red flexible, incluyendo al de bus y en grafo.
Sin necesidad de terminadores en los extremos.
Conectores comunes para todos los componentes
Posibilidad de conectar entre sí hasta 63 dispositivos
Presenta ventajas frente al resto de buses, incluso frente al USB, aunque
no puede competir en precio. Frente al bus PCI, de momento es más lento.
Los productos más usuales con este bus son, cámaras digitales, cámaras
de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape),
CD's, ZIP's, sistemas de almacenamiento magnetoópticos e impresoras.
Tutoriales y recursos sobre IEEE1394
Fundamentos de Firewire. Proporcionados por Embedded Systems
Programming. Ofrece una visión de esta tecnología.
IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas
Teener of Zayante (formato PDF).
P1394a & P1394b Sumario.
IEEE 1394 visión técnica. Proporcionada por Texas Instruments.
1394 Open Host Controller Interface.
Visión de FireWire/1394 . Proporcionada porAdaptec.
USB - Universal Serial Bus
Este bus serie, creado por un amplio consorcio de empresas, permite
conectar más que ordenadores y periféricos. Puede conectarse con hasta
127 dispositivos como fotografía digital, monitores, teclados, ratones
impresoras y escáneres. Está reemplazando rapidamente a otras interfaces
como la centronics y la serie RS 32C.
El estándar más reciente es el 2.0, que permite una velocidad de
transmisión desde 12 Mb/s hasta 480 MB/s y es compatible con la versión
previa. La conexión se transmite mediante un par de cables, de hasta cinco
metros de longitud, mientras que por otro par circula la información de
retorno.
4.5 Historia de Internet
La agencia ARPA y su misión
En 1958 se organizó en los EE.UU. la agencia gubernamental de
investigación, ARPA (Advanced Research Projects Agency) creada en
respuesta a los desafíos tecnológicos y militares de la U.R.S.S. de la cual
surgirán una década mas tarde los fundamentos de la futura red Internet. La
agencia, bajo control del Departamento de Defensa se organizó en forma
independiente de la comunidad de investigación y desarrollo militar.
Su misión durante las próximas décadas la llevará a desarrollar y proveer
aplicaciones tecnológicas no convencionales para la defensa de EE.UU.
ampliando la frontera tecnológica a favor de una organización reducida en
número, pero flexible, libre de condicionamientos y dotada de científicos de
elite. ARPA será la responsable de una gran parte de la investigación en
ordenadores y comunicaciones de carácter innovador en EE.UU. durante
los próximos años.
Inicio. Los grandes ordenadores
Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas
grandes e inmóbiles, no podían comunicarse entre ellas y la transmisión
entre usuarios tampoco era posible. Para usar un ordenador diferente del
propio, el usuario debía trasladarse físicamente al otro o usar soportes de
almacenamiento con los programas y datos a usar. Científicos de
diferentes universidades estaban frustrados, compartir información con sus
colegas era una labor muy ardua y compleja. Los investigadores más
afortunados eran capaces de comunicarse mediante terminales que usaban
modems. Pero el uso de teléfono era costoso, y los científicos trataron de
encontrar mecanismos más eficientes de usar las líneas telefónicas para
transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener
una fracción de tiempo en la línea telefónica.
1962 Se pueden enviar mensajes.
Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y
sus colaboradores en Rand Corporation mantenían sus mentes fijas en un
problema: Si las redes de ordenadores fueran dañados por una guerra
nuclear,
¿cómo
podría
el
ejército
estadounidense
continuar
comunicándose?
Una de las respuestas fue mediante una nueva forma de multiplexor que
debería descomponer cada comunicación en pequeños segmentos
llamados "mensajes". Una red - consistente en ordenadores conectados
por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada
mensaje debería contener información de la ruta a seguir, de modo que
cada máquina del sistema debería saber a donde enviar cada mensaje.
Esta combinación de mensajes titulados más componentes de red
pequeños permitiría que la información siempre estaría disponible y que la
red siempre se mantendría funcionando.
El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la
noción de que el camino más corto entre dos puntos es la línea recta, en
cambio, estuvo diseñado para el mejor servicio posible, lo más duradero
posible, para el mayor número de usuarios posible y bajo las peores
condiciones imaginables.
Esta técnica se denominó "conmutación de paquetes". Los primeros
nodos de conmutación fueron creados bajo la dirección de Donald Davies
en el Laboratorio Nacional de Física, Inglaterra. Los laboratorios de red en
1960 eran locales, operaban solamente en un edificio. Grandes
aplicaciones empezaron a aparecer con el nuevo invento.
1963 La Red Intergaláctica de ordenadores.
J.C.R. Licklider (1915-1990), pionero de la computación, tuvo por primera
vez una visión de algo parecido a un sistema Internet. El líder de la Oficina
de tecnología de procesamiento de Información de la Agencia Americana
de Proyectos de Investigación Avanzados (ARPA) envió un memorando
premonitorio a los "Miembros y afiliados de la Red Intergaláctica de
Computadoras"
En esta comunicación Licklider sostenía que los ordenadores podrían
ayudar a los investigadores a compartir información. También predijo un
día en el que comunidades de personas con intereses comunes podrían
comunicarse con otros - Presentaba una visión nueva.
En el laboratorio de Lincoln en Massachussets el experto en ordenadores
Larry Roberts (1937-) tuvo una visión similar. Roberts vislumbró los
beneficios potenciales de las redes de ordenadores trabajando juntos; como
Licklider, él creía que el trabajo de red debería constituir una comunidad de
uso de sistemas informáticos.
Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada
para conectar su computador TX-2 al ordenador de Systems Development
Corporation en Santa Mónica. Mientras este enlace rudimentario permitió a
su ordenador ingresar en el otro y ejecutar programas en este, se hizo,
pero con costos prohibitivos y no prácticos. Pero era sólo el inicio.
1969 Cuestiones clave
En 1966 la oficina de Tecnología de procesamiento de Información de
ARPA proporcionó facilidades a 17 centros en todo EE.UU. Para una
afortunada minoría ARPA cubría los costos de líneas telefónicas a larga
distancia para que los investigadores clave puedan usar recursos de
ordenadores directamente desde sus oficinas. Bob Taylor uno de aquellos
pocos afortunados.
Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres
terminales en su oficina. Cada con una línea telefónica separada que
conectaba a un ordenador distante. Las tres terminales de Taylor lo
conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas
en Santa Mónica, respectivamente.
Pero Taylor no estaba conforme. Un día, sentado frente a sus tres
ordenadores, se preguntó ¿Por qué necesitaba él todo aquello? Por qué no
se hacía que un terminal pudiera conversar a todos los ordenadores a
través del país o una red que conecte a ellos. ¿Porqué un terminal no
podría hacer todo esto?
Las bases de Internet fueron planteadas.
1969 - Nacimiento de ARPANET
ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la
construcción de una red de ordenadores experimental. Basados en la
tecnología de intercambio de paquetes de Paul Baran, esta Red de la
Agencia de Projectos de Investigación Avanzada (Advanced Research
Projects Agency Network) o ARPANET, ayudaría a los investigadores a
trabajar más eficazmente y explorar rumbos para las redes de
computadoras.
Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman
ganó el contrato para construir los conmutadores de paquetes, o Interface
Message Processors (IMPs), que serían usados como nodos de
ordenadores para esta nueva RED.
En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de
investigación fundado por ARPA. Los científicos de Computadoras Len
Kleinrock y los estudiantes graduados Vinton Cerf llamaron a la matriz de
UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación
del Centro de Medición de Red de ARPA. EL equipo haría el seguimiento
de todo lo que podría hacer la comunidad ARPA
Pocas semanas después los IMPs fueron cambiados al Instituto de
Investigación Stanford en Menlo Park, California. El cual proveía el nuevo
Centro de Información de Red; la Universidad de California en Santa
Bárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la
Universidad de Utah en Salt Lake City, donde ordenadores para gráficos
estaban en su inicio. Una vez que ellas hubieron conectado por medio de
líneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar
paquetes a larga distancia y nació ARPANET
Las cosas ya no volverían a ser las mismas
1972 Comienza la fiesta de Arpanet
La Red ARPANET inicialmente brindó tres servicios: acceso a ordenadoras
remotos y otros dispositivos como un terminal de usuario remoto
(actualmente denominado Telnet), compartir información a través de la
transferencia de archivos, e impresión remota o salida a impresoras en
otras ubicaciones.
Sorprendentemente, el e-mail entre ordenadores conectados no estuvo
entre la oferta inicial. "No sabíamos que e-mail era importante" confesó
después Vint Cerf de UCLA "No estábamos seguros de qué es lo que
ocurriría con el tiempo", no fue sino hasta años después que primer
mensaje de e-mail de ARPANET fue enviado.
A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos
y en 1972 incluía 37, los miembros no estaban satisfechos.
ARPANET tuvo su presentación en octubre del año siguiente, cuando
ARPANET IMP y un terminal multiplexor fueron configurados en la
Conferencia Internacional en Comunicaciones de Computadora. En
Washington DC. "Esta fue la primera demostración en público de los que
podía hacer la conmutación de paquetes, y esto haría que la gente tome
esta tecnología seriamente", dijo Bolt, Beranek and Newman's Alex
McKenzie.
El evento fue un éxito, los expertos dijeron que el potencial de la Red
estaba en crecimiento. En la década siguiente en un ordenador se
conectaba a la red cada 20 días con la posibilidad de que cientos o miles
de personas compartieran una de cualquiera de esos equipos.
La comunidad informática se empezó a hablar abiertamente de una red
global.
1981 El clan del ARPANET
Las dos redes más importantes formadas para centros de educación y
enseñanza fueron CSNET (Computer Science NETwork; posteriormente the
Computer+ Science Network), and BITNET ("Because It's Time" or
"Because It's There" NETwork). Muchas otras redes para propósitos
especiales se desarrollaron en todo el mundo como la red de paquetes por
satélite, paquetes para la comunicación de la voz y las paquetes de radio.
Por enlazar usuarios con intereses comunes, ARPANET y sus redes
compañeras tuvieron un importante impacto técnico y social. Quienes
compartían entusiasmos extracurriculares formaron la "comunidad virtual
de interés", usuarios con una curiosidad común dentro de Internet misma
que formaron los "net communities" para explorar todo desde algoritmos de
rutas hasta la demografia de la red.
Los científicos empezaron a comunicarse colectivamente por medio de las
listas de correo electrónico rápidamente desarrolladas. Miles de
discusiones florecieron sobre todos los tópicos inimaginables. A nadie
sorprendió que uno de los primeros y mejor enterados grupos de discusión
fue los "sf-lovers" conformado por los admiradores de la red de ciencia
ficción.
1983 TCP/IP: el Esperanto de la computación.
El desarrollo de redes fuera de ARPANET creó nuevos competidores.
Tenían dificultades en interconectarse, debido no precisamente al hardware
(diferentes ordenadores podían utilizar ARPANET) sino más bien a la
incompatibilidad en los protocolos de comunicación. Aun el satélite del
propio ARPA y las redes de paquetes de radio no podían conectarse a
ARPANET
Ante esto ARPA auspició el desarrollo de un nuevo estándar de
comunicación
llamado Transmission Control Protocol/ Protocol
Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían la
conexión de las redes, ordenadores de diferentes redes podrían ahora
comunicarse una con otra. Cada red utilizó IP para comunicarse con las
otras. Debido a que los científicos se referían a la "red de redes" como
"Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser
conocido como Internet.
El Nacimiento de "Internet
A finales de la década de 1970 muchas redes de investigación,
gubernamentales y educativas utilizaban TCP/IP. Pero ARPANET y la red
de información de defensa no realizaron el cambio oficialmente hasta el uno
de enero de 1983, fecha del nacimiento oficial de internet
Tanto ARPANET como internet continuaron su desarrollo en tamaño e
importancia. Proporcionaron medios para la comunicación y cierta forma de
convivencia entre los científicos de todo el mundo, permitiéndoles trabajar
juntos, compartir información y la utilización de fuentes distantes.
1988 Intrusos en internet.
A pesar de su gran crecimiento, internet permaneció siendo desconocida
para el publico hasta Octubre de 1988 cuando un programa intruso o
"worm" originó algo devastador.
Internet worm empezó su vida como un simple programa lanzado por el
estudiente Robert Morris Jr. Más destructivo que un virus de computadora
el "worm" activaba el envío de copias de si mismo por Internet a otros
ordenadores donde a su vez cada copia se multiplicaba. Antes que el
"worm" fuera exterminado miles de ordenadores habían sido sobrecargadas
o fueron deliberadamente desactivadas por cuestiones de seguridad.
Por primera vez, pero difícilmente la ultima, Internet apareció en las
noticias.
Desde ese entonces programadores y expertos en seguridad crean nuevas
herramientas para combatir cualquier escalada de guerra tecnológica y en
búsqueda de informes y problemas de abuso de la red.
1990 Archie aparece en escena
Como es de suponer el crecimiento del número de usuarios y el volumen
de información disponible había originado una especie de jungla de
información, en la que no existía mapa o referencia alguna. A finales de los
80 y principios de los 90 desconcertados usuarios idearon herramientas
para localizar y ordenar la información. Estos lineamientos ayudaron a su
vez a otros usuarios a encontrar el camino y transformaron a Internet en un
mundo amigable para el usuario.
"Archie fue el primero de estos programas que permitía a los usuarios
obtener una lista de direcciones de Internet "FPT holdings" con una simple
consulta.
1990 FIN DE ARPANET
El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde
ARPANET había sido originalmente conectado fueron reemplazados por
otras redes nuevas en internet.
1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se
convirtió en el "Navegador en Internet" más popular. Les permitía a los
propietarios de la información organizar sus datos en menús.
Los usuarios podían entonces ver, desplazarse y hacer selecciones desde
ese menú
El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher
se unieron a la red en todo el mundo, cada uno con su colección de
directorios, archivos y punteros a información en otros Gophers. Pero su
éxito creaba un problema obvio: ¿Cómo encontrar algo en el
"gopherespacio" ya que el plan original no contemplaba un índice?
La solución fue una solución similar al Archie, llamado Verónica (Very Easy
Rodent Oriented Net-wide Index to Computarized Archieves) desarrollado
por dos estudiantes, la base de datos Verónica tenía hacia 1993 más de un
millón de entradas desde el menú Gopher.
1992 Tejiendo la Red
Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la
información basada en Internet y los recursos que él necesitaba para sus
investigaciones . Llamó a su sistema el World Wide Web, conocida también
como WWW o W3.
Para conectar piezas individuales de información, Berners-Lee usó
hipertextos, que contienen punteros y direcciones a otros temas.
Señalando un hipertexto el usuario le dice a su ordenador "toma la
dirección asociada y vamos para allá") Las direcciones en un documento
Web, llamados URL (Universal Resource Locator) apuntan a enlaces en
cualquier lugar de Internet.
Berners-Lee diseñó la Web para investigadores en alta energía. El WWW
también empezó a ser usado para navegar y ver su propia información en
Línea.
1993 Mosaic
Marc Andersen, del National Center for Supercomputing Applications
(NCSA) diseñó MOSAIC, un navegador por el Web que hizo más accesible
y amigable,que permite a los usuarios recuperar elementos multimedia con
una simple pulsación de ratón y no necesitan elaborar documentos
complicados para publicar gráficos, imágenes, etc.
La combinación de Web y Mosaic y programas similares como Netscape
(recientemente desaparecido), Firefox, Internet Explorerr y Opera han
transformado la apariencia de la red, formando una red mundial de texto y
recursos multimediar.
Desde 1997. La red hoy
A lo largo de su historia, Internet se ha transformado a sí mismo no sólo
para las necesidades y deseos de sus usuarios, sino la visión de sus
pioneros como Paul baran, J.C.R. Licklider y (más recientemente) Tim
Berners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través
del mundo formar parte de esta comunidad Global.
Durante los últimos años, Internet se ha ido haciendo virtualmente
accesible para cualquier persona. Más del 80% de los estadounidenses
puede tener acceso a internet por 20 US$ mensuales, este uso está
incrementándose exponencialmente. Se han creado abundantes empresas
proveedoras de acceso a Internet, quienes ofrecen el acceso con tarifa
plana.
En España ha disminuido de forma considerable el precio de las
conexiones teléfonicas a Internet y se ha mejorado la calidad con la
implantación de operadoras de cable por televisión.
Internet se ha convertido en una oportunidad de negocio. Las empresas
están tratando de determinar cuál será el modo en que este mundo virtual
recibirá los productos y usuarios mañana. A su vez se ha convertido en un
intercambio anárquico de información, es un fenómeno cultural vertiginoso
del cambio del mismo mundo.
Unos 446 millones de personas usaban internet a fines de 2001 a nivel
mundial y cerca de la cuarta parte estaba en Estados Unidos mientras que
sólo el 4% en América Latina. Existen 133.4 millones de internautas en
América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9
millones en Asia Pacífico (32%), 22 millones en América Latina (4%) y 5.3
millones en Africa (1.2%), según el estudio de la empresa eMarketer. Cerca
de 119 millones de ellos (26%) están en EE.UU. Las estadísticas
actualizadas de toda América se encuentran en el enlace: Éxito exportador.
En España, la Asociación de Usuarios de Internet , mantiene datos
actualizados sobre uso en España.
Lo más reciente
En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet
en el trayecto a Washington, gracias a la incorporación de servicios
inalámbricos de banda ancha en los aviones. No pasó de ser algo
experimental. En abril de 2008 la aerolínea francesa Air France ha
incorporado en algunas rutas estas prestaciones de forma experimental,
aunque recientemente las autoridades de la Unión Europea han dado la
autorización para su implantación con caracter general.
Actualmente se empieza a difundir un nuevo concepto de internet, la web
2.0, se refiere a la transición desde las webs tradicionales a aplicaciones
web residentes en sevidores y destinadas a usuarios. Los propulsores de
este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las
aplicaciones de escritorio en muchos usos. Actualmente ya se están dando
los primeros pasos para la implantación de la web semántica, que se
concoe como Web 3.0
Enlaces recomendados:
- Web 2.0 Enlaces de interés
- Las 20 herramientas Web imprescindibles
Primer
apretón
de
manos a través de
Internet
Por Glenys Álvarez
El mundo virtual se anota un rotundo éxito con el primer
El mundo virtual se anota un rotundo éxito con el primer
experimento sobre tecnología háptica. Esta nueva ciencia
se encarga del estudio del tacto y su manipulación a
través de aparatos electromecánicos. Uno de los primeros
laboratorios hcpticos se originó en el Instituto de
Tecnología de Massachussets (MIT) y fue fundado por
Mandayam Srinivansan, quien lo bautizó como el
Laboratorio del Tacto. Srinivansan ha estado trabajando
con unos nuevos aparatos llamados "fantasmas", creados
por la compañía Sensable Technologies. Los fantasmas
tienen como misión transmitir seccales táctiles entre
personas que comparten el mismo espacio virtual. Estos
robots logran semejante hazaña transmitiendo impulsos
pequeños en frecuencias sumamente altas a través de la
red. En mayo pasado, el doctor Srinivansan, junto a un
equipo de la Universidad de Londres dirigido por el profesor
Mel Slater, consiguió darse el primer apretón de manos en
el mundo virtual. Un evento bastante precoz dado el corto
tiempo que tenemos utilizando el Internet.
Sin embargo, a veces parece que los científicos trabajan
con resultados que se parecen más al mundo del futuro
que a la realidad actual. Este novedoso ensayo es el
comienzo triunfante de una nueva era en Internet que aún
nos parece rústica, como las pantallas verdes de los
primeros ordenadores. A pesar de que este nuevo avance
tecnológico fue un éxito contundente, los investigadores
aseguran que aún es muy temprano para comercializarlo
ya que se necesitan elementos que aún no están
disponibles para el público en general. Entre estos
obstáculos se encuentran las limitaciones en la velocidad,
en la anchura de la banda y en el tipo de fibra óptica que
se utilizó para este peculiar ensayo. No obstante, una vez
se sobrepasen todos estos obstáculos, las personas del
futuro serán capaces de sentir y tocar a través del
Internet.
Mientras tanto, la nueva tecnología aún está en pañales,
pero en paños que han funcionado muy bien hasta el
momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda
extremadamente ancha. Pero lo más importante era la
velocidad, la rapidez con que pudiesen ser enviados los
datos a través de estas fibras. Los científicos necesitaban
un retraso de nO más de 130 milisegundos para que
ambos participantes pudiesen sentir los impulsos enviados
por el otro. Los equipos utilizaron una computadora y un
aparato que se asemeja a un brazo robótico y que
sustituyó al ratón clásico de ordenador. Este brazo tiene al
final una pieza que se asemeja a un lapicero o lápiz que el
usuario tiene que agarrar para sentir lo que está pasando
en el mundo virtual. El robot lo que hace es enviar
impulsos de tacto que recoge la fuerza precisa de los
dedos de la persona que lo sostiene. Estos impulsos son
enviados lo más rápido posible hasta el otro lado, en datos
que el fantasma del usuario receptor puede leer e
interpretar.
"La persona no sólo es capaz de sentir el toque del otro
sino que además podrá destacar ciertas cualidades del
objeto que está tocando. Sabrá si su textura es suave o
dura, si usted está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que
necesitaron los equipos para funcionar fue una fibra óptica
diferente con banda extremadamente de madera el objeto o
si es carnoso", explicó para la BBC el profesor británico,
Mel Slater. Durante el experimento, el objetivo no sólo fue
un apretón de manos virtual sino que también se llevó a
cabo una actividad cibernética a través del tacto. Los
investigadores crearon una habitación virtual que iban a
investigadores crearon una habitación virtual que iban a
compartir los científicos en Londres y en Boston. Dentro
de esta "ciberhabitación" se encontraba un cubo negro
enorme que los investigadores tencan que levantar y
mover utilizando el brazo robótico.
"La persona del otro lado siente si estoy halando o
empujando el cubo y el secreto principal de todo esto es la
velocidad. Si los datos no son enviados de forma continua,
el robot no entenderá los impulsos como son lute;n está en
pañales, pero en paños que han funcionado muy bien
hasta el momento. Lo primero que necesitaron los equipos
para funcionar fue una fibra óptica diferente con banda
extremadamente eídos por el fantasma que los envía. Es
interesante lo que hemos logrado ya que el sentido del
tacto ha sido el más difícil de reproducir en el Internet. Se
ha conseguido utilizando una velocidad de más de 1000
Hertz. Así, de la misma forma en que el cerebro interpreta
imágenes fijas como si estuvieran en una película en
movimiento, similarmente los fantasmas integran los
impulsos recibidos para producir una sensación continua
de tacto", explicó Slater.
A pesar de que el experimento se llevó a cabo por primera
vez el pasado mayo, fue sólo en esta semana que los
científicos lo hicieron úblico durante una conferencia. La
reunión se lleva a cabo en Estados Unidos,
específicamente en la Universidad del Sur de California y
está dirigida por el proyecto Internet2. Internet2 es un
esfuerzo tecnológico de 200 universidades para mejorar la
tecnología, está en pañales, pero en paños que han
funcionado muy bien hasta el momento. Lo primero que
necesitaron los equipos para funcionar fue una fibra óptica
diferente con banda extremadamente gía virtual, el mundo
tridimensional cibernético y la interacción entre hombre y
máquina a través de la red. Actualmente, el proyecto está
poniendo mucho énfasis en el desarrollo de técnicas para
la manipulación háptica a través de sistemas
computacionales.
El cubo negro y la habitación
cibernética
Para probar sus brazos robóticos, los equipos crearon un
cuarto virtual donde ambos usuarios realizarían el
experimento. Dentro del cuarto, los investigadores crearon
un cubo negro y grande que los sujetos tenían que levantar
y mover. El truco estaba en que los movimientos iban a
ser originados por lo que la otra persona sentía que el
compañero estaba haciendo. Los usuarios entraron al
cuarto virtual y, cada uno desde su escritorio, agarró el
brazo robótico o fantasma, por la parte posterior donde
tiene el pequeño lapicero, y comenzón está en pañales,
pero en paños que han funcionado muy bien hasta el
momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda
extremadamente te; a trabajar. En seguida, la otra persona
sentía si su compañero de juego estaba empujando el
cubo o si lo jalaba, de esta forma, éste está en pañales,
pero en paños que han funcionado muy bien hasta el
momento. Lo primero que necesitaron los equipos para
funcionar fue una fibra óptica diferente con banda
extremadamente l podría coordinar sus movimientos de
acuerdo con lo que el otro hacía. Así, ambos equipos
consiguieron manipular el enorme cubo a través de
sensaciones táctiles que llegaban desde casi cinco mil
kilómetros de distancia. Los investigadores también se
saludaron utilizando el tacto que leían sus fantasmas. Mel
Slater, director del equipo londinense aseguró que no sólo
es posible sentir el toque de la persona desde el otro
es posible sentir el toque de la persona desde el otro
ordenador, sino que también es posible diferenciar
cualidades de los objetos. "Puedes sentir si la cosa es de
madera o si es de carne, si es suave o dura, si empuja o
no. Ha sido una experiencia extraordinaria", concluyó
Slater.
Sindioses.org
Se permite la reproducción de este ensayo para fines
educacionales y/o científicos siempre y cuando se
mencione claramente nuestro sitio web, así como el
nombre del(a) autor(a) del mismo. Se prohibe su
reproducción con fines comerciales. /font>
Internet
multiplica
por
3500
velocidad de transmisión de datos
veces
la
Por primera vez en la historia se ha conseguido enviar
mediante fibra óptica 6.7 gigas de información, que es el
equivalente a dos películas de DVD, un total de cuatro
horas de visionado, a través de 11000 kilómetros en
menos de un minuto.
Según relata la revista Wired, la información fue enviada
sin comprimir a 923 megabits por segundo durante 58
segundos desde California hasta Holanda, lo que supone
una velocidad 3500 veces superior a la conexión
doméstica de banda ancha.
Aunque desde 1984 se duplica cada año la velocidad de
transmisión de datos a través de Internet, en esta ocasión
se ha producido un salto sin precedentes que centuplica
las posibilidades operacionales de la red de redes.
Para los científicos del Centro de Acelerador Lineal de
Stanford, artífices de la proeza, en el futuro las
aplicaciones de este sustancial aumento de la velocidad
de transmisión tendrá múltiples aplicaciones prácticas.
Colectivos beneficiados
Entre ellas destacan la posibilidad de que un equipo de
médicos pueda discutir en tiempo real, a través de
Internet, el diagnóstico de un paciente en situación de
riesgo e incluso analizar sus radiografías.
También tendrá aplicaciones en el campo de la física de
partículas, toda vez que diferentes grupos de investigación
podrán colaborar entre ellos sin necesidad de realizar viaje
alguno, utilizando esta velocidad de transmisión para la
transferencia de datos.
Otros campos que se beneficiarán directamente de esta
tecnología son las investigaciones que se desarrollan en el
marco del Genoma Humano, así como en astronomía.
El Proyecto Genoma Humano podría transferir sus
enormes bases de datos más rápidamente sobre Internet.
De la misma forma, los astrónomos podrán compartir
datos de telescopios localizados en diferentes partes del
mundo y los físicos de partículas intercambiar en tiempo
real datos de laboratorios muy distantes entre sí.
Impacto generalizado
El impacto también puede ser generalizado, ya que la
demanda de banda ancha en Internet tiene grandes
expectativas a las que el experimento de Stanford podría
dar satisfacción.
Un estudio de IDC revela al respecto que el crecimiento de
las conexiones de banda ancha podría duplicarse en los
próximos cinco años, lo que supondría pasar de los 180
petabits actuales a los 5200 petabits en 2007.
Para hacernos una idea de lo que esto significa, IDC
desvela que en la actualidad la Biblioteca del Congreso de
Estados Unidos, accesible desde Internet, representa una
capacidad de memoria de 10 Terabytes y que, si sus
previsiones se cumplen, en 2007 el tráfico diario de
Internet será 64000 veces mayor que el peso que
representa hoy la Biblioteca del Congreso.
Dado que la carga necesaria para soportar este tráfico será
colosal, han surgido dudas sobre la capacidad de Internet
para aceptarla, por lo que el experimento de Stanford
puede venir en ayuda de esta hipótesis de desarrollo de la
red de redes.
Premiados los creadores de internet
Internet ha revolucionado completamente los procesos de
transmisión de la información, permitiendo que ésta fluya
sin restricción por todo el mundo. Este trascendental
proceso de investigación y desarrollo ha sido liderado por
diferentes personas y equipos que, con una gran visión de
futuro, han diseñado y establecido los protocolos, la
tecnología de interconexión y los servicios de accesibilidad
que han hecho posible lo que hace sólo unos años era una
utopía. Los trabajos de Lawrence Roberts, Robert Kahn,
Vinton Cerf y Tim Berners-Lee constituyen, en este
sentido, un definitivo avance al servicio de la humanidad.
El jurado del Premio Príncipe de Asturias de Investigación
Científica y Técnica 2002, reunido en Oviedo, concedió
dicho premio a los creadores de internet.
Vinton Cerf (1943-)
Fue el creador, junto con Robert Khan, del protocolo
TCP/IP, usado actualmente para la conexión de
ordenadores en internet, sin el cual no habrían alcanzado
el desarrollo actual las redes de ordenadores. Vinton
diseñó entre 1982 y 1986 el primer servicio de correo
electrónico de internet, denominado MCI MAIL, precursor
de los sistemas actuales.
Actualmente colabora con la NASA (EE.UU.) en el diseño
de una ampliación de internet a nivel interplanetario.
Lawrence Roberts (1937-)
Fue el responsable de la sistematización de las fórmulas
que permiten el enrutamiento y localización de los
servidores en las redes. Trabajó en una de las primeras
empresas que usaron la conmutación de paquetes,
desarrollando el protocolo X25.
Actualmente dirige la empresa Caspian Networks,
dedicada a la investigación sobre redes. Sus proyectos
están dirigidos a la optimización y mejora de internet.
Robert Khan (1938-)
Fue coinventor de los protocolos TCP/IP que simplificaron
la conexión de ordenadores de muy distintas
características. Fue el responsable de la puesta en marcha
de la Agencia de Proyectos Avanzados para la Defensa de
EE.UU: (DARPA). Organizó la primera demostración
pública de Arpanet, en Octubre de 1972, en Washington
D.C, Este mismo año pasó a ser director del IPTO,
dependiente de DARPA; desde este lugar inició el
programa multimillonario del gobierno norteamericano:
Strategic Computing Program, lo que supondrá el mayor
paso dado hasta aquel entonces en la investigación
informática.
Actualmente trabaja en la tecnología IP, en su nuevo
formato IPv6, que permite un rango muy superior, frente a
la actual, de direcciones.
Tim Berners-Lee (1955-)
Físico del Reino Unido, cuando trabajaba en el CERN en
Ginebra (Suiza), en un laboratorio de partículas
elementales, se le ocurrió en 1990 aplicar las ideas del
hipertexto a las redes de ordenadores, dando lugar a
"World Wide Web", dando lugar a la gran difusión que ha
logrado internet.
Desde 1994 trabaja en la organización W3C (World Wide
Web Consortium) que dicta estándares sobre la red.
Enlaces de interés dentro de esta web:
Historia de los primeros lenguajes de programación
La prehistoria de la informática
Los primeros ordenadores
Historia de la Informática. La era electrónica
Historia de los miniordenadores
Historia de la microinformática
La informática en un garage
Historia de la microinformática 1981-1983
El nacimiento de la informática en Gran Bretaña
Lenguaje FORTRAN
Enlaces de interés:
An Illustrated History of Computers.
Asociación Técnicos de Informática. Una breve historia de internet
Arroyo Galán, Luis. Hitos, museos y referencias.
AúnMás.com. Enciclopedia Latinoamericana.
Bernal, Manuel. Encicloperdia personal de computación
Brian RANDELL. Le projet COLOSSUS et la Seconde Guerre
mondiale
Ciberhábitat. Ciudad de la informática. México
Creadores de los lenguajes de programación
Lurueña Jiménez, Sonia. Historia de la informática
Marco Such, Manuel. Historia de la informática y metodología de la
ciencia. Universidad de Alicante
Portilla, Jorge. Informática empresarial *
Red Iris. Universidades españolas
Sitios donde se originaron los lenguajes de programación (mapa en
Google Maps).
Serrano Cinca, Carlos. Universidad de Zaragoza
Wikipedia. Enciclopedia libre
Yo NO odio a Bill Gates (I) (Kriptópolis)
Yo NO odio a Bill Gates (II) (Kriptópolis)
fresqui
del.icio.us
meneame
Buscar en la web
Búsqueda escéptica
Búsqueda en todas mis páginas
Imprimir
Rafael Menéndez-Barzanallana Asensio
Departamento Informática y Sistemas. Universidad de Murcia
Bajo Licencia Creative Commons
Actualizado 2009/03/22
Opos ic iones Mas ters
Descargar