Subido por Gabriel Ferrario

004 Maquinas de Computos (1996 02)

Anuncio
Pasado
6
El astrolabio
John D. North
18
Galileo y el primer instrumento
mecánico de cálculo
Stillman Drake
28
La computadora mecánica de Charles Babbage
72
Semiconductores
de arseniuro de galio
Marc H. Brodsky
82
Electrónica de silicio-germanio
ultrarrápida
Bernard S. Meyerson
90
Futuro de la industria
de los semiconductores
G. Dan Hutcheson y Jerry D. Hutcheson
Doron D. Swade
34
El computador del Dr. Atanasoff
Allan R. Mackintosh
Presente
44
Pantallas planas
Steven W. Depp y Webster E. Howard
52
Representación visual de biomoléculas
Arthur J. Olson y David S. Goodsell
62
La retina de silicio
Misha A. Mahowald y Carver Mead
Futuro
100
El ordenador del siglo xxi
Mark Weiser
110
Microprocesadores del año 2020
David A. Patterson
114
Ordenadores de base proteínica
Robert R. Birge
120
Computación mecánico-cuántica
Seth Lloyd
Notas
42
Pinceladas históricas
88
Silicio encantado
58
Reventando el polvo
98
Pastillas de silicio-germanio
70
Cuestión de peso
128
Ordenador óptico
INVESTIGACION Y CIENCIA
DISTRIBUCION
DIRECTOR GENERAL Francisco Gracia Guillén
EDICIONES José María Valderas, director
ADMINISTRACIÓN Pilar Bronchal, directora
PRODUCCIÓN M.a Cruz Iglesias Capón
para España:
Bernat Peso Infante
Carmen Lebrón Pérez
SECRETARÍA Purificación Mayoral Martínez
EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1.a
08021 Barcelona (España)
Teléfono (93) 414 33 44 - Telefax (93) 414 54 13
SCIENTIFIC AMERICAN
EDITOR John Rennie
BOARD OF EDITORS Michelle
Press, Managing Editor;
Marguerite Holloway, News Editor;
Ricki L. Rusting, Timothy M. Beardsley,
Associate Editors; John Horgan, Senior Writer;
Corey S. Powell; W. Wayt Gibbs;
Kristin Leutwyler; Madhusre Mukerjee;
Sasha Nemecek; David A. Schneider;
Gary Stix; Paul Wallich; Philip M. Yam;
Glenn Zorpette.
PRODUCTION Richard Sasso
CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley
PUBLISHER John J. Moeling, Jr.
MIDESA
Carretera de Irún, km. 13,350
(Variante de Fuencarral)
28049 Madrid Tel. (91) 662 10 00
para los restantes países:
Prensa Científica, S. A.
Muntaner, 339 pral. 1.a – 08021 Barcelona
Teléfono (93) 414 33 44
Copyright
©
PUBLICIDAD
GM Publicidad
Francisca Martínez Soriano
Menorca, 8, bajo, centro, izquierda.
28009 Madrid
Tel. (91) 409 70 45 – Fax (91) 409 70 46
Cataluña y Baleares:
Miguel Munill
Muntaner, 339 pral. 1.a
08021 Barcelona
Tel. (93) 321 21 14
Fax (93) 414 54 13
1996 Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España)
Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio
mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o
transmisión para uso público o privado, sin la previa autorización escrita del editor del libro.
ISSN: 1135-5662
Dep. Legal: B-32.350-1995
Filmación y fotocromos reproducidos por Scan V2, S.A., Avda. Carrilet, 237 – 08907 l'Hospitalet (Barcelona)
Imprime ROTOCAYFO, S.A. Ctra. de Caldes, km 3-Santa Perpètua de Mogoda (Barcelona)
Printed in Spain ­­- Impreso en España
PASADO
El astrolabio
John D. North
Es un instrumento científico utilizado en la Edad Media
para realizar observaciones astronómicas y terrestres.
También servía como calculadora analógica
para determinar la hora local
E
l astrolabio fue el instrumento
astronómico de uso más común
durante la Edad Media. Su ori­
gen se remonta a la antigüedad y toda­
vía era habitual en el siglo xvii. Una
de sus funciones era observacional: se
empleaba para determinar el ángulo
del Sol, la Luna, los planetas y las
estrellas sobre el horizonte o a partir
del cenit. Se utilizó también para
me­dir la altura de montañas o torres,
la profundidad de pozos y en agrimen­
sura en general. Mucho más impor­
tante, sin embargo, fue la utilidad que
tuvo el astrolabio como una calcula­
dora auxiliar. Facilitaba al astrónomo
los cálculos relativos a la posición del
Sol y de las principales estrellas, res­
pecto del meridiano y del horizonte, le
permitía hallar su latitud geográfica y
la dirección del norte verdadero
(in­cluso de día, cuando no son visibles
las estrellas) y posibilitaba su entrega
a quehaceres tan prestigiosos y lucra­
tivos como levantar horóscopos. En
tiempos en los que no eran habituales
los relojes fiables, el astrolabio propor­
cionaba a su poseedor un medio de
saber la hora, tanto de día como de
noche, siempre que pudiera verse el
Sol o alguna de las estrellas en él
representadas.
Un nombre más exacto para el ins­
trumento que estoy describiendo es el
de astrolabio planisférico. Existen
otros tres tipos de astrolabio: el astro­
labio lineal, el astrolabio esférico y el
astrolabio náutico. El astrolabio lineal
JOHN D. NORTH, profesor de historia
de las ciencias exactas, es autor de di­
versos libros y preparador de una edición
de la obra de Richard of Wallingford.
Este astrónomo y matemático del siglo
xiv construyó para la Abadía de St. Al­
bans el reloj astronómico más antiguo
del que existe información detallada,
cuya reconstrucción dirigió el autor.
6
era un instrumento tan difícil de
en­tender como de utilizar y se constru­
yeron pocos. El astrolabio esférico
tampoco fue muy corriente; tenía la
forma de un globo y muchas caracte­
rísticas en común con el astrolabio
planisférico. El astrolabio náutico es
un instrumento relativamente tardío;
parece ser que se empezó a utilizar
solamente un poco antes de la época
de Colón. Era un aparato tosco, que
servía sobre todo para hallar la altura
del Sol, de la Luna y las estrellas sobre
el horizonte, del mismo modo que se
utilizaría el sextante en siglos poste­
riores. Básicamente consistía en una
alidada o regla recta que pivotaba en
el centro de un pesado disco. En cada
extremo de la alidada había una pínula
perforada con un agujero. El marinero
colgaba el instrumento de su dedo pul­
gar y ajustaba la alidada de modo que
pudiera ver el cuerpo celeste a través
de los agujeros de las dos pínulas.
Entonces podía leer la altura del astro
sobre la escala graduada existente en
el borde del disco. (En las observacio­
nes solares se hacía proyectar la som­
bra de una pínula sobre la otra para
evitar la perjudicial visión directa del
Sol.) El astrolabio náutico estaba
hecho con un grueso disco de latón
perforado, de modo que pudiera colgar
de su anilla sin mecerse y el viento lo
afectara lo menos posible.
Desde ahora llamaremos simple­
mente astrolabio al astrolabio planis­
férico, pues fue, con mucho, el tipo de
astrolabio más común. Para poder
comprender bien incluso sus usos más
sencillos, es necesario empezar por
examinar sus partes constituyentes y
revisar cómo adquirió su forma final.
Podía obtenerse información va­lio­sa
de ambas caras del astrolabio. En gene­
ral la alidada pivotaba en la par­te pos­
terior, donde se hallaban registrados
datos que, en principio, po­drían haberse
almacenado en cualquier otra parte,
como escalas y tablas cuyo contenido
tendía a cambiar de siglo en siglo.
Una escala presente en la mayoría
de los astrolabios es la del calendario,
con la representación de los días y de
los meses y la correspondencia de la
posición del Sol con la fecha anual.
Si pudieran verse las estrellas
du­rante el día, sería más fácil apreciar
el recorrido aparente anual del Sol por
el firmamento. Como es sabido, este
mo­vimiento es consecuencia de la tras­
lación de la Tierra alrededor del Sol; a
medida que la Tierra avanza en su
órbita, el Sol parece desplazarse por el
fondo estelar. Pero a menudo resulta
conveniente referirse al tema como si
la Tierra se encontrara en reposo en el
centro de una gran esfera en la que
estuvieran situados todos los cuerpos
celestes. Las estrellas, e in­cluso los
planetas, se hallan a distancias tan
enormes, en comparación con el
tamaño de la Tierra, que resulta razo­
nable adoptar la idea de una es­fera
celeste, sobre todo en lo que concierne
a las direcciones en las que aparecen
los cuerpos celestes respecto del obser­
vador.
E
l camino que recorre el Sol sobre
la esfera celeste es la eclíptica; el
Sol tarda un año en completar este
circuito. Los planetas parecen moverse
en una franja de varios grados por
en­cima y por debajo de la eclíptica;
esta franja es lo que llamamos el
zodíaco. Es posible conocer la posición
aproximada del Sol en la eclíptica (su
lugar en el zodíaco) para cada día del
año. Los años bisiestos presentan un
pe­queño problema, pero su efecto es
despreciable, pues la precisión reque­
rida no supera una fracción relativa­
mente grande de grado.
La escala del calendario en el astro­
labio contiene grabados los días y los
meses; también hay una escala zodia­
cal, habitualmente concéntrica con la
TEMAS 4
escala de las fechas, gracias a las que
se puede relacionar la posición del Sol
en la eclíptica con la fecha. Ac­tual­
men­te se expresa la posición del Sol
como una longitud celeste de 0 a 360
grados calculada a partir de un deter­
minado punto de origen. En la Edad
Media se utilizaba una variante de
este sistema: el zodíaco se encontraba
dividido en 12 signos, cada uno de los
cuales recibía su nombre de una impor­
tante constelación que contuviera;
cada signo estaba, a su vez, dividido
en 30 grados de longitud. En la actua­
lidad las constelaciones se han despla­
zado a los signos próximos como con­
secuencia de la lenta precesión de los
equinoccios, debida a un movimiento
cónico del eje de la Tierra. En parte por
la precesión de los equinoccios y en
parte porque el tiempo que emplea la
Tierra en recorrer su órbita no es exac­
tamente de 365 días y cuarto, hay
pequeñas desviaciones en la posición
del Sol calculada para un día del año
a medida que los años transcurren.
Estas desviaciones pueden tenerse en
cuenta por las reglas de elaboración de
los calendarios. Pero en un astrolabio
no es fácil realizar correcciones y así
nos encontramos con que un calenda­
rio medieval puede estar desfasado
unos 10 u 11 días con respecto a uno
actual.
E
l anverso de un astrolabio es más
importante que el reverso. En la
parte frontal encontramos dos elemen­
tos fundamentales: el primero, la
araña, es una plancha calada (que,
co­mo el resto del astrolabio, suele ser
de la­tón), apoyada sobre una plancha
circular maciza. La araña o rete (red)
es una representación de los cielos: las
puntas de los agudos indicadores indi­
can las posiciones de las estrellas más
brillantes; un círculo excéntrico repre­
senta la eclíptica y también hay frag­
mentos de otros tres círculos, que
representan el ecuador y los trópicos
1. DIAGRAMA DEL ANVERSO DE UN ASTROLABIO. Son visibles
las partes esenciales para utilizarlo como instrumento de cálculo.
La red calada, llamada también araña, o rete en latín, es una representación de los cielos en la que las agudas puntas recortadas
indican las posiciones de las estrellas. El círculo excéntrico situado en la parte alta es la eclíptica, el camino anual que recorre el
MÁQUINAS DE CÓMPUTO
de Cáncer y de Capricornio. Por el cen­
tro de la araña discurre el eje alrededor
del cual puede girar. Este eje, que tam­
bién sostiene la alidada de la parte
posterior, se mantiene en su lugar por
una cuña que lo atraviesa por un agu­
jero rectangular situado en uno de sus
extremos. La parte más ancha de dicha
cuña adoptaba tradicionalmente la
forma de una cabeza de caballo, por lo
que pasó a ser denominada “el caballo”.
Si a la sazón hubiera existido al­gún
material transparente de suficiente
duración, probablemente se le habría
utilizado para construir la araña;
quienquiera que hoy desee construirse
un astrolabio sencillo puede usar una
hoja de plástico transparente para
hacer el mapa de las estrellas.
La otra parte principal del astrola­
bio es la lámina situada bajo la araña.
Está trazada con una serie de círculos
y líneas rectas que representan las
coordenadas, fijas respecto de un
observador dado. El centro del astrola­
Sol en el firmamento. La araña puede girar sobre un eje central
que la une a la lámina situada tras ella. La posición del eje corresponde al polo norte celeste y las líneas trazadas sobre la lámina
representan las coordenadas, que dependen de la situación del
observador terrestre. El giro de la araña muestra el desplazamiento diario de las estrellas en relación al observador.
7
CABALLO
ARAÑA
LAMINAS
(CLIMAS)
MATER
ALIDADA
PINULA
EJE
PUNTO
DE MIRA
8
2. DESPIECE de un astrolabio para ver
la relación existente entre sus diversas
partes. La mater (madre) es el cuerpo
principal. Las láminas son diversas planchas grabadas con líneas de coordenadas, diferentes para cada latitud geográfica, normalmente las frecuentadas por
el observador. La alidada es una regla
que se usaba para apuntar a los objetos
celestes y determinar su altura. Se hallaba en el reverso (véase la figura 12) y
podía girar libremente, como la araña.
Esta se sitúa encima de las láminas, contenidas en el interior de la mater. El eje
atraviesa el centro de todas estas piezas
y se fija con una cuña, labrada normalmente en forma de cabeza de caballo.
Algunos astrolabios no tenían láminas;
el trazado se realizaba entonces directamente sobre la mater.
bio, donde se halla el eje en el que gira
la araña, representa el polo norte
ce­leste, alrededor del cual se produce
el giro aparente de las estrellas. Cen­
tra­dos en el polo están el trópico de
Cán­c er, el ecuador y el trópico de
Ca­p ri­c ornio. Algunas veces estos
círculos aparecen representados en la
lámina y en la araña. En la lámina
existe otra línea que representa el
horizonte del observador y un punto
que es su cenit. Sobre el horizonte y
rodeando el cenit hay un conjunto de
almucántares o círculos de igual
altura. También es­tán las líneas de
igual acimut, representadas como
arcos de círculo que parten del cenit y
descienden hasta el horizonte.
Es obvio que la distancia que separa
el polo norte celeste y el cenit del obser­
vador en la lámina del astrolabio
de­pende de la latitud geográfica del
observador. Si se encontrara en el polo
norte, ambos puntos coincidirían,
mien­t ras que si estuviera sobre el
ecuador los dos puntos estarían sepa­
rados por el equivalente de 90 grados
en la lámina del astrolabio. La necesi­
dad de disponer de una lámina dife­
rente para cada latitud geográfica en
la que se fuera a usar el apa­rato era
una complicación que te­nían que asu­
mir los usuarios. El aparato debía
tener una lámina para la latitud habi­
tual del observador y tantas otras
co­mo se previese que iba a necesitar
en sus viajes.
A tales láminas se las solía llamar
climas, por extensión evidente del sig­
nificado del término. Un astrolabio
po­d ía tener como cuatro, cinco, o
in­cluso más climas; cada lámina estaba
grabada por ambos lados y el conjunto
se almacenaba en el interior de la
mater o cuerpo principal del astrola­
bio. Las láminas se instalaban bajo la
araña y se mantenían fijas en su sitio
por el eje y el caballo (véase la figura
TEMAS 4
3. ASTROLABIO HISPANO-ÁRABE de principios del siglo xi,
conocido con el nombre de “Astrolabio de Alfonso el Sabio”
(anverso y reverso). Obsérvese la austeridad de los perfiles de
la araña. Copia galvanoplástica del original que se conserva
en el Museo de Historia de la Ciencia de Florencia. (Museo
Naval de Madrid.)
4. ASTROLABIO CONSTRUIDO EN GRANADA en 1265 por
Ahmad Ibn Husayn Ibn Baso (anverso y reverso). Tiene algunas
protuberancias para facilitar la rotación de la araña. (Real
Academia de la Historia de Madrid.)
MÁQUINAS DE CÓMPUTO
9
5. PROYECCION estereográfica del ecuador y de los trópicos, donde se muestra el
modo de proyectar estos círculos de la
esfera celeste (arriba) sobre la superficie
plana del astrolabio (abajo), es decir, sobre la mater, o sobre una de las láminas,
y sobre la araña. En la mayor parte de los
astrolabios el plano de proyección es el
plano del ecuador u otro plano paralelo a
él. Se traza una línea desde el polo sur
celeste hasta cualquier punto de la esfera,
en este caso los correspondientes a los
trópicos y el ecuador, y el punto en el que
la línea interseca el plano de proyección
será el lugar correspondiente a dicho punto celeste sobre el mapa. Se proyectan
muchos de ellos para trazar las lí­neas de
las coordenadas. El ecuador y los trópicos
están situados en ángulo recto respecto al
eje de proyección, por lo que aparecerán
sobre el mapa como círculos concéntricos;
su centro es el punto correspondiente al
polo norte celeste (abajo), a través del cual
discurrirá el eje de giro del astrolabio.
ver entonces a través de este cañamazo
las estrellas del cielo nocturno, que se
desplazarían por entre las líneas a
causa de la rotación diaria de la Tierra.
Si el observador hiciese una fotografía
de larga exposición, los puntos lumi­
nosos de las estrellas trazarían arcos
de círculos concéntricos centrados en
el polo norte celeste. Al modo medie­
val, pasemos por alto las necesidades
y modos de ver las cosas de los habi­
tantes del hemisferio sur.
I
2). Exis­tieron astrolabios que podían
utilizarse en cualquier latitud con una
sola lámina, pero no eran fáciles de
usar ni abundaron en ninguna época.
¿Cómo se representan sobre la araña
y los climas las estrellas y las líneas
10
de las coordenadas? Supon­ga­mos que
el observador estuviera en el centro de
una gran cúpula hemisférica en la que
se hubieran trazado los almucántares
y las coordenadas de igual acimut a
intervalos de 5 o 10 grados. Podríamos
gual que puede trazarse un mapa
plano del globo terrestre, puede
ha­cerse otro de las dos esferas de las
que tratamos: el cañamazo de las coor­
denadas fijas y la móvil esfera del fir­
mamento. Hay ciertos condicionantes
de índole práctica a tener en cuenta si
los mapas van a trazarse sobre latón
y si han de ser útiles indefinidamente.
Si los dos mapas van a quedar unidos
de tal modo que uno pivote sobre un
punto fijo del otro, como ocurre en el
astrolabio, entonces dicho punto tiene
que ser uno de los polos, preferible­
mente el norte si el instrumento va a
utilizarse sobre todo en el hemisferio
norte. Además las proyecciones de
ambos mapas deben corresponderse
para todas las posiciones de la araña
y de la lámina. Sería completamente
inútil un mapa que exigiese deformar
la araña a medida que rotara.
La proyección estereográfica se
adaptaba perfectamente a las
ne­cesidades del constructor de astro­
labios por sus características de que
los círculos de la esfera siguen siendo
círcu­los tras ser proyectados sobre un
plano y que los ángulos formados por
la intersección de dos de ellos no cam­
bian de magnitud al ser proyectados.
Aunque hay razones para sospechar
TEMAS 4
6. PROYECCION estereográfica de almucántares, o círculos de igual altura, que
son concéntricos con el cenit del observador y paralelos al horizonte; también se
convierten en círculos en el plano de proyección, pero no tienen un centro común.
La ilustración muestra el cenit del observador situado a 40 grados al norte del
ecuador. Su horizonte y los almucántares
se muestran primero como aparecen en la
esfera celeste (arriba). La proyección estereográfica tiene la propiedad de que los
círculos de la esfera siguen siendo círculos cuando se proyectan sobre una superficie plana. Los centros de los almucántares se hallan sobre la línea NS, que pasa
por los polos y el cenit del observador y
que también es la proyección del meridiano del observador.
que en los primeros tiempos se usaron
otros métodos, el que se siguió casi sin
excepción en los astrolabios pequeños
fue el de usar la proyección estereográ­
fica tomada desde el polo sur de la
esfera celeste y proyectada sobre el
plano del ecuador. Se trazaba una
lí­nea desde el polo sur al objeto esco­
gido de la esfera celeste; el punto en el
que dicha línea intersecaba el plano de
proyección era el lugar correspon­
diente al objeto celeste en el mapa. A
base de estos puntos se trazaban las
líneas de coordenadas.
Según la proyección estereográfica,
cuanto más cerca del polo sur esté una
estrella, tanto más lejos del polo norte
aparecerá en el plano de proyección, es
decir, en la araña. La proyección de la
esfera celeste completa se extendería,
pues, hasta el infinito. En la práctica
la araña no llega más que un poco más
allá del Trópico de Capricornio, casi
sin excepción. Las estrellas se
re­p resentan en la araña mediante
finas puntas de latón. Cabía la posibi­
lidad de doblarlas al cabo de un tiempo,
para acomodarlas al movimiento pre­
cesional del eje de la Tierra (a pesar
de que tal movimiento sólo es percep­
tible por períodos de medio siglo como
mínimo), aunque parece más probable
que la torcedura de los finos indicado­
res ocurriera más por accidente que
por expreso deseo; los indicadores se
solían construir tan rígidos como se
podía. Los círculos de los trópicos y del
ecuador no son necesarios en la araña,
pues ya aparecen en la lámina situa­da
debajo, pero servían fundamental­
mente para sostener los indicadores
estelares.
El ecuador y los trópicos forman
ángulos rectos con el eje de proyección.
Por consiguiente aparecen en ella como
círculos concéntricos con la ara­ña y con
centro en el polo norte (el eje del astro­
labio). Es más, si se dividiera el ecua­
dor de la esfera celeste en grados, éstos
MÁQUINAS DE CÓMPUTO
quedarían repartidos uniformemente
en el ecuador proyectado. Ninguna de
estas propiedades puede aplicarse al
círculo más importante de la araña,
que es el anillo que represen­ta la eclíp­
tica. Su centro di­fiere del centro del
ecuador y de los trópicos a causa de que
el plano del ecuador celeste está incli­
nado con un ángulo de 23,5 grados con
respecto al plano de la órbita terrestre.
Las longitudes sobre la eclíptica se tra­
zan a partir del equinoccio vernal, que
11
7. PROYECCION estereográfica de las
líneas de igual acimut. Se trata de una
serie de círculos máximos que abarcan
desde el cenit hasta el horizonte (arriba),
al que cortan en ángulo recto así como a
los almucántares (no representados). Los
ángulos formados por las intersecciones
de círculos no cambian al ser proyectados
estereográficamente sobre una superficie plana. Por consiguiente las líneas de
igual acimut serán en las láminas del
astrolabio arcos de círculo que cortan en
ángulo recto las líneas del horizonte y los
almucántares. La mayo­ría de los astrolabios contienen solamente las líneas de
igual acimut que aparecerían sobre el
horizonte del observador (abajo).
es uno de los dos puntos en los que la
eclíptica corta al ecuador. El equinoccio
vernal se halla al principio del signo de
Aries. Cuando el Sol se en­cuentra en el
“primer punto de Aries” el día y la
noche tienen la misma duración.
12
En el equinoccio vernal el Sol está
pasando del sur del ecuador al norte y
se dirige a través de Aries hacia el
signo de Tauro en su progresión alre­
dedor de la eclíptica. Cuando alcanza
el punto de la eclíptica situado más al
norte, en el solsticio de verano, 23,5
gra­d os al norte del ecuador, deja
Gé­m inis y penetra en el signo de
Cáncer, del que procede el nombre
dado al trópico del hemisferio norte
situado a la latitud de 23,5 grados.
Continuando con el recorrido del Sol
por la eclíptica, entra en Libra al atra­
vesar de nuevo el ecuador en dirección
de norte a sur, lo que ocurre en el equi­
noccio de otoño, cuando los días y las
noches vuelven a ser de igual duración.
El Sol alcanza el solsticio de invierno
al entrar en Capricornio, 23,5 grados
al sur del ecuador, de donde toma su
nombre el trópico del hemisferio sur
situado a dicha latitud. El recorrido
anual completo del Sol por la eclíptica
viene indicado en la araña por la arista
exterior del anillo de la eclíptica.
¿Cómo se traza el anillo de la eclíp­
tica sobre la araña? Todo lo que hay que
hacer es señalar los puntos de los sols­
ticios de verano y de invierno (véase la
figura 10). Dado que en la proyección
estereográfica los círculos siguen siendo
círculos en el plano, estos dos puntos
definen el diámetro del círculo de la
eclíptica. El centro geométrico de la
eclíptica está situado a medio camino
entre ambos puntos. El círculo de la
eclíptica, una vez traza­do, cruzará el
ecuador en los puntos correspondientes
a los equinoccios. (El centro geométrico
de la eclíptica así determinado va a
parar a un punto tal que el ángulo for­
mado en los equinoccios entre el centro
de la eclíptica y el centro de la araña es
de dos veces 23,5 grados o, para ser más
exactos, el doble del ángulo que se haya
determinado que forma la eclíptica con
el plano ecuatorial.)
Los almucántares se trazan sobre la
lámina del astrolabio situada bajo la
araña de un modo muy parecido. El
horizonte del observador está inclina­do
respecto al ecuador celeste en 90 gra­dos
menos la latitud geográfica del obser­
vador (véase la figura 7). Para estable­
cer los dos puntos que determinan
cada uno de los almucántares, hay que
TEMAS 4
8. Los ángulos horarios constituye
el último grupo de coordenadas de la lámina del astrolabio. El ciclo diario completo se divide en 24 horas. Cuando el
tiempo se contaba en horas desiguales,
como sucede aquí, el período diurno y el
nocturno se dividían ambos en 12 partes
iguales, independientemente de su duración, de modo que las horas del día no
eran iguales que las de la noche. Las líneas de las horas se solían trazar bajo la
línea del horizonte. Los fragmentos de los
círculos concéntricos del ecuador y de los
trópicos situados bajo el horizonte se dividían en 12 partes iguales, numeradas a
partir del punto de intersección con el
horizonte oeste. Los puntos correspondientes se unían luego mediante curvas.
recordar que estas curvas ya no son
círculos máximos cuyos planos pasen
por el centro de la Tierra, sino círculos
menores paralelos al horizon­t e. El
resultado de la proyección será una
serie de círculos que rodean el cenit del
observador, pero que no son concéntri­
cos con el mismo. Sus centros están
todos sobre el meridiano.
Las líneas de igual acimut son
mucho más difíciles de delinear. Se
trata de una serie de círculos máximos
que se extienden desde el ecuador
hasta el cenit y cortan el círculo del
ecuador y los almucántares en ángulo
recto. Como la proyección estereográ­
fica no cambia el valor de los ángulos,
las líneas de igual acimut del astrola­
bio serán arcos de círculo que conser­
van dicha propiedad. Los astrolabios
no suelen contener más que los frag­
mentos de las líneas de igual acimut
situadas por encima del horizonte del
observador (véase la figura 8).
A
ntes de pasar a exponer algunos
usos del astrolabio debemos pre­
guntarnos por su historia. La teoría de
la proyección estereográfica se re­mon­ta
a uno de los más grandes astrónomos
griegos, Hiparco. Nació en Nicea, cerca
del moderno Estambul, hacia el año
180 a.C. y realizó observaciones desde
Rodas y Alejandría. Por desgra­cia la
mayor parte de lo que sabemos sobre
él nos ha llegado por fuentes indirec­
tas. Una de las más importantes es el
astrónomo alejandrino Pto­l omeo,
cuyos escritos son unos cuatro siglos
posteriores. Ptolomeo fue quizás el
más grande astrónomo del mundo
antiguo; su obra más importante,
conocida actualmente con el nombre
de Almagesto, no menciona el astrola­
bio planisférico. Sin embargo hay refe­
rencias a la “araña” del “instrumento
horoscópico” en su obra Pla­nisferio, lo
que induce a pensar que en su tiempo
se conocía un instrumento que tenía
algunas semejanzas con lo que más
MÁQUINAS DE CÓMPUTO
tarde sería un astrolabio. El Planisferio
no es un tratado sobre el astrolabio,
sino sobre la proyección estereográ­
fica, y nos ha llegado a través de la
traducción latina de Hermann de
Carintia (1143 d.C.).
Además de Ptolomeo, hay otros eru­
ditos que se refieren al astrolabio, pero
muchas de las referencias son crípti­
cas. El tratado más antiguo supervi­
viente sobre la construcción y usos del
instrumento fue escrito en el siglo vi
13
9. LA PROYECCION estereográfica de la
eclíptica va emplazada en la araña y no en
la lámina. La eclíptica es el trayecto aparente anual del Sol a través de la bóveda
celeste, tal como lo vemos desde la Tierra.
El ecuador terrestre está inclinado con un
ángulo de 23,5 grados respecto al plano de
la eclíptica; este ángulo se conserva en la
araña del astrolabio. Todo lo que hay que
hacer para dibujar la eclíptica es señalar
el punto del solsticio de verano sobre el
trópico de Cáncer y el punto del solsticio
de invierno sobre el trópico de Capricornio. Estos dos puntos definen el diámetro
del círculo de la eclíptica, cuyo centro
está situado en su punto medio. La eclíptica cruza el ecuador en los puntos correspondientes al equinoccio vernal (primer
día de primavera) y al equinoccio de otoño
(primer día de otoño). La eclíptica se divide en los 12 signos del zodíaco, empezando
en el punto del equinoccio vernal. Las líneas divisorias de la eclíptica tienen su
origen en el polo norte celeste.
Mucho más conocida en la Europa
medieval fue una obra escrita en árabe
por Masallah, que se cree que fue un
judío egipcio. Se tradujo al latín en
1276 y sirvió de base para el único
buen tratado antiguo sobre el astrola­
bio que existió en inglés, es decir, el
que escribiera un siglo más tarde nada
menos que Geoffrey Chaucer.
S
por Juan Filopón de Alejandría. Se­vero
Sebokt escribió al respecto en lengua
siria un siglo más tarde. Después de
esta época el instrumento pasó a ser
razonablemente bien conocido, a juz­
gar por los muy variados tratados que
14
se le dedicaron en los mundos is­lá­mi­co
y cristiano. Quizás el primer tratado
europeo fuera el que escribió Hermann
de Reichenau o Hermann de Lame, un
monje de Reichenau que murió en
1054.
u obra, titulada Tratado sobre el
astrolabio, está fechada hacia
1392 y existen más de dos docenas de
manuscritos antiguos. En algunos se
añade el subtítulo de Pan y leche para
niños. Este subtítulo fue probable­
mente añadido por algún copista sor­
prendido por las puntualizaciones que
Chaucer hacía en la introducción de
una obra que los adultos solían consi­
derar difícil. En versión moderna, la
obra empieza así: “Lewis, hijito mío,
he notado señales de tu habilidad para
aprender las ciencias de los números
y de las proporciones y no olvido tu
especial deseo de conocer el contenido
del tratado del astrolabio.” Chaucer
continúa exponiendo el contenido del
tratado, que no parece que llegase a
acabarse. Explica la necesidad de una
obra en inglés y reconoce su deuda con
los astrónomos antiguos. Es una lás­
tima que su inglés sea casi tan difícil
para el lector actual como lo fuera el
latín para Lewis.
Hacia el siglo xvi la difusión de la
imprenta y la creciente mejora de las
técnicas de grabado de ilustraciones
produjeron cierto número de magnífi­
cos nuevos tratados sobre el astrola­
bio; a ellos se debieron, en parte, algu­
nas mejoras importantes en el arte de
la construcción del instrumento. Los
astrolabios se hicieron mayores, más
ornamentados y estaban grabados con
TEMAS 4
finura y precisión mayores. Pero,
aparte de las diferencias en la nomen­
clatura de las inscripciones, poco o
nada había en el típico astrolabio de
principios del siglo xvii que no le resul­
tara familiar a un usuario de un mile­
nio atrás. El astrolabio más antiguo
que ha llegado hasta nosostros se cree
que data del año 927/8 y contiene una
firma difícil de descifrar; podría ser
una forma arábiga de un nombre
griego (Bastulos o Nastulos).
A finales del siglo xiii se conocía y se
usaba el astrolabio planisférico desde
la India, en oriente, hasta la Es­paña
árabe, en occidente, y desde los trópicos
hasta el norte de Inglaterra y
Escandinavia. Según el país y el perío­do
de origen, se pueden apreciar ciertas
diferencias características en el estilo
general y la decoración de los astrola­
bios. Los indicadores de las estrellas de
las arañas de los primeros astrolabios,
por ejemplo, solían tener una forma
sencilla de flecha, grabada sólo con el
nombre de la estrella. Por el contrario,
los tardíos constructores indo-persas de
astrolabios convirtieron a menudo la
araña en un dibujo complicado, simé­
trico y foliado, cosa difícil de conseguir
con lo que esencialmente es un mapa
de estrellas de disposición asimétrica
por naturaleza. Los constructores de
astrolabios orientales a menudo damas­
quinaban sus instrumentos con plata y
oro. Es interesante reseguir, a través
de las obras firmadas que nos han lle­
gado de ellos, las sucesivas generacio­
nes de la misma familia. Toda la fami­
lia, por ejemplo, pudo haber trabajado
en un centro como Lahore, pudiendo
haber tenido conexiones con la corte
mogol. Los instrumentos persas tien­
den a estar extremadamente ornamen­
tados con delicados filetes.
E
l estilo de las arañas occidentales
suele ser un trasunto de los estilos
de la arquitectura religiosa contempo­
ránea. El estilo de las inscripciones se
parece normalmente al de los manus­
critos occidentales, lo que caracteriza
muy bien el período en el que fueron
grabados. Hay pruebas de que muchos
astrónomos de todo el mundo fabrica­
ban sus propios instrumentos, aunque
todos los centros intelectuales impor­
tantes tuvieron, en una u otra época,
talleres profesionales especializados
en la fabricación de astrolabios. Los
instrumentos europeos de la Edad
Media pocas veces fueron firmados por
sus autores, pues en aquella época el
anonimato no se consideraba un
defecto. Los astrolabios del siglo xvi ya
fueron firmados con regularidad.
El tamaño físico de la mayor parte de
los astrolabios se halla entre 8 y 45 cm
MÁQUINAS DE CÓMPUTO
10. LAMINA DE ASTROLABIO COMPLETA. Incluye todas las líneas de coordenadas
correspondientes a una latitud, es decir, todas las proyecciones tratadas individualmente en los gráficos precedentes.
de diámetro, aunque pueden encon­
trarse algunos mucho mayores en varias
formas especiales, como en las esferas
de los relojes astronómicos. La inclusión
de un astrolabio en la esfera del reloj se
remonta a la antigüedad clásica, cuando
se hacía que la araña girase una vuelta
al día por me­dios hidráulicos. Tras la
invención del es­cape mecánico a finales
del siglo xiii, se instalaron relojes astro­
nómicos en las mayores catedrales euro­
peas. Una disposición típica era la que
intercambiaba los papeles del mapa de
estrellas y del cañamazo de coordenadas
del astrolabio clásico, con las coorde­
nadas representadas en la araña y las
estrellas pintadas en la lámina de
debajo. Habitualmente se hacía girar
las estrellas mientras la araña perma­
necía fija, pero también se hizo a veces
a la inversa. Sobre la eclíptica del mapa
de estrellas se puede encontrar, en oca­
siones, un modelo del Sol que se des­
plaza, manualmente o por un meca­
nismo, de manera que completa una
vuelta a la eclíptica en un año. Para
saber la hora gracias a un reloj de este
tipo se debe estar familiarizado con los
principios básicos de la utilización del
astrolabio, por lo menos.
El uso principal del astrolabio fue
para saber la hora. En primer lugar se
tomaba la altura del Sol o de una estre­
lla, empleándolo como instrumento de
observación. A continuación, y supo­
niendo que el observador conocía la
posición del Sol o de la estrella en la
araña, se la hacía girar hasta que aquel
punto coincidiera con el almucántar de
la altura determinada. (Se supone que
el observador había emplazado bajo la
araña la lámina apropiada para su
latitud geográfica y que sabía en qué
lado del meridiano se encontraba el
objeto observado.) Se ignoraba la
refracción de la atmósfera, que cambia
la posición aparente de los astros en el
firmamento y que se acrecienta a
medida que éstos se aproximan al hori­
zonte. La posición aproximada del Sol
sobre la eclíptica para cada día del año
se consultaba en las escalas del calen­
dario situado en el reverso del instru­
mento.
Una vez situada la araña en la posi­
ción correcta, el observador puede
de­ter­minar la hora local por diversos
métodos. Si la circunferencia del astro­
labio está dividida en grados, 15 grados
corresponden a una hora. El me­diodía
15
avanza en su rotación. Normalmente el
ángulo horario se expresa en horas,
minutos y segundos en lugar de hacerlo
en grados de arco. El astrolabio puede
indicar diferentes clases de horas. La
primera es la hora sidérea o la hora de
las estrellas, definida como el ángulo
horario del primer punto de Aries. Si el
día se divide en 24 horas, empezando
en la medianoche, hay que añadir 12
horas a la cuenta de la hora sidérea, ya
que el equinoccio vernal o primer punto
de Aries (que a la sazón es la posición
en la que se encuentra el Sol) cruzará
el meridiano al mediodía local.
O
11. EL REVERSO DEL ASTROLABIO incluye la alidada y determinados datos que el
observador necesita. A lo largo del borde de este ejemplo hay una escala graduada
para medir la altura de los objetos celestes con la ayuda de la alidada. La escala siguiente contiene los 12 signos del zodíaco, cada uno de ellos dividido en 30 grados. Las
escalas de los días y los meses, interiores a la del zodíaco, sirven para relacionar la
posición del Sol en la eclíptica con la fecha correspondiente. No son concéntricas con
los otros círculos debido al movimiento no uniforme del Sol por la eclíptica. El diseño
del sector interno del reverso del astrolabio varía mucho de uno a otro. En este caso
el cuadrante superior izquierdo contiene una serie de líneas horizontales que parten
de unas divisiones de grados; sus distancias al diámetro horizontal corresponden al
seno de la altura de un objeto sobre el horizonte. El cuadrante superior derecho incluye líneas para convertir la hora equinoccial en horas desiguales directamente. Los dos
cuadrantes inferiores contienen las “escuadras de las sombras”, usadas junto con un
gnomon para obtener la tangente o la cotangente de la altura de un objeto sobre el
horizonte. Si están trazadas cuidadosamente y con precisión, lo que no suele ocurrir,
sirven para medir alturas con más fiabilidad que apuntando con la alidada.
se establece cuando el Sol se halla hacia
la parte alta del instrumento y la
medianoche cuando el Sol está hacia la
parte más baja, las seis de la mañana
cuando está hacia la izquierda y las seis
de la tarde cuando está hacia la dere­
cha. Imaginemos ahora un círculo
máximo que una un objeto del firma­
mento con el polo norte celeste. El
ángulo que forma dicho círculo máximo
con el meridiano es el ángulo horario
16
del objeto. Como consecuencia de la
proyección estereográfica, una regla
que descanse sobre la línea que pasa
por el centro del astrolabio y por la
posición del objeto representada en la
lámina, forma un ángulo con el diáme­
tro vertical (la línea meridiana) igual
al ángulo horario del objeto. Se llama
ángulo horario porque puede servir
para medir el tiempo, ya que va cam­
biando de valor a medida que la Tierra
tro tipo de horas son las del tiempo
solar verdadero: el ángulo horario
del Sol con independencia de su posi­
ción respecto a las estrellas. Más
corriente es el llamado tiempo solar
medio, basado en un “Sol medio” que
se desplaza por el ecuador, en lugar de
hacerlo por la eclíptica, y a una veloci­
dad uniforme, completando una vuelta
entera en un año, igual que el Sol ver­
dadero. La Tierra se mueve alrededor
del Sol trazando una elipse, en uno de
cuyos focos se halla el Sol, y traza su
órbita más deprisa cuanto más cerca se
halla del Sol. Por consiguiente, visto
desde la Tierra, el Sol verdadero parece
que acelere o frene su velocidad en
distintos trayectos de la eclíptica. El
Sol verdadero y el Sol medio no sólo se
mueven, pues, por diferentes trayectos,
sino que lo hacen a diferentes velocida­
des. El tiempo solar verdadero, que es
el observado, puede convertirse en
tiempo solar medio, más útil, aplicando
una corrección conocida como la ecua­
ción del tiempo, basada en el conoci­
miento que tenemos del movimiento de
la Tierra en su órbita y que puede con­
sultarse en libros de referencia. Esta
operación no se aplicó casi nunca antes
del siglo xvii. Para convertir el tiempo
solar medio a tiempo solar local, el
observador necesita conocer su longi­
tud geográfica, otra corrección que
raramente se efectuó.
Una tercera clase de tiempo es el
expresado en horas desiguales. En la
Edad Media se dividía el período
diurno en 12 partes iguales y el noc­
turno en otras 12 partes iguales, sin
tener en cuenta la verdadera y cam­
biante duración del día y de la noche,
lo que implica que las horas diurnas y
las nocturnas sólo erán iguales en los
equinoccios. Muchos astrolabios con­
tienen las líneas de las horas desigua­
les, si bien, para evitar confundirlas
con los almucántares, solamente se
trazan por debajo de la línea del hori­
zonte (véase la figura 9).
Aunque el astrolabio se usase bási­
camente para determinar la hora, fue
TEMAS 4
un elemento esencial de la práctica
astrológica. Para establecer el horós­
copo para un momento determinado el
astrólogo necesita conocer los siguien­
tes puntos de la eclíptica: el que se
encuentra en el horizonte este (“el
ascendente”), el que lo hace en el hori­
zonte oeste (“el descendente”), el que
cruza el meridiano (“el grado del
medio-cielo”) y el que cruza la prolon­
gación del meridiano por el norte, lla­
mada la línea de la medianoche (“el
medio-cielo inferior”).
Todos estos datos se leen fácilmente
en el anillo de la eclíptica una vez se
ha situado la araña correctamente
según la hora del día de que se trate:
quizás el momento de la concepción, o
los del nacimiento, la muerte o algún
otro acontecimiento importante, como
una coronación. Una vez se han esta­
blecido los cuatro puntos clave de un
horóscopo, pueden situarse en posición
las 12 casas astrológicas (que no hay
que confundir con los signos) y los pla­
netas pueden ser asignados a ellas. Sin
embargo hay diferentes sistemas de
realizar la división del firmamento en
las 12 casas, algunos de los cuales se
pueden encontrar en el tratado del
astrolabio de Chaucer.
Como les sucede hoy día a las moder­
nas computadoras electrónicas, en la
Edad Media el astrolabio fue motivo
de admiración y de entretenimiento,
de fastidio y de incomprensión. A pesar
de sus imprecisiones, fue un instru­
mento muy útil. Conocerlo ha de ser­
virnos a nosotros para apreciar mejor
el nivel de desarrollo de una época en
la que se le usó tanto y se le compren­
dió tan bien.
BIBLIOGRAFIA COMPLEMENTARIA
Libros del Saber de Astronomía del
Rey D. Alfonso X de Castilla. Manuel
Rico y Sinobas, Madrid 1863-66.
A Treatise on the Astrolabe. Geoffrey
Chaucer, dirigido por Walter W. Steak.
Oxford University Press, 1872.
Astrolabes of the World. Robert T. Gun­
ther. Oxford University Press, 1932.
(Reim. Holland Pro, Londres, 1976.)
Catálogo Crítico de Astrolabios Existentes en España. Salvador García Franco. C.S.I.C., Madrid 1945.
Traité de l’Astrolabe. Henri Michel. Ed.
Gauthier-Villars, París, 1947. (Reim.
Alain Brieux, París, 1976.)
The Principle and Use of the Astrolabe
in “Oriens-Occidens”. Willy Hartner. G.
Olms, Hildesheim, 1968.
A computerised checklist of astrolabes. S. L. Gibbs, J. A. Henderson, D. J.
Price. Yale University Press, New Haven,
1973.
MÁQUINAS DE CÓMPUTO
17
Galileo y el primer instrumento
mecánico de cálculo
Stillman Drake
Se trata del sector, empleado para resolver mecánicamente
varios problemas matemáticos. Galileo lo inventó para abordar
un problema insoluble y luego percibió su utilidad para otros más sencillos
L
a gente ha recurrido a muchos
tipos de dispositivos mecánicos
para ahorrarse cálculos aritmé­
ticos. De todos ellos, el más antiguo es
el ábaco, con su conjunto de cuentas
en­sartadas en alambres paralelos; si
se mueven las cuentas siguiendo cier­
tas reglas determinadas, puede obte­
nerse el mismo resultado que operan­do
con números escritos en un papel. Hoy
en día apretamos los botones de una
calcu­ladora siguiendo otras determi­
nadas reglas. Como los matemáticos
descubrieron hace mucho tiempo
maneras de reducir a números la geo­
metría y la física, cualquier problema
práctico en que intervengan las mate­
máticas puede resolverse hoy sin rea­
lizar te­d iosos cálculos con papel y
lápiz.
Hasta hace no muchos años se usaba
la lenta máquina de calcular mecá­
nica, apretando botones que po­nían en
movimiento ruedas numeradas. Medio
siglo atrás, antes de que se utilizara el
motor eléctrico, las máquinas de este
tipo se manipulaban mo­viendo una
manivela y desplazando un carro. El
mecanismo básico se re­monta al siglo
xvii, cuando Blaise Pas­cal puso dígitos
alrededor de va­r ias ruedas, que
engarzó de modo que se produjese el
arrastre de cifras. En el mismo siglo
vivió Gottfried Wil­helm von Leibniz,
quien introdujo el carro móvil para
acelerar la multiplicación. Pero el
mérito de haber dado con la idea básica
de una máquina de calcular se debe a
John Napier, o Neper, más que a Pascal.
STILLMAN DRAKE, autor de nume­
rosos libros y artículos sobre la obra de
Galileo, fue profesor de Historia en el
Institute for the History and Philosophy
of Science and Technology de la Univer­
sidad de Toronto.
18
En lugar de utilizar rue­das, Napier
grababa los números en varillas móvi­
les de hueso.
La merecida fama de Napier se debe
fundamentalmente a su invención de
los logaritmos en 1611, que le convier­te
en el creador de la idea bá­sica de la
regla de cálculo, el principal instru­
mento alternativo para evitar cálculos
aritméticos en la época mo­d erna.
Pronto se le ocurrió al inglés Edmund
Gunter disponer los logaritmos de
Napier en una línea y medir a lo largo
de ella con una regla normal. La “línea
de Gunter” permitía obtener aproxi­
maciones rápidamente, evitando la
molestia de sumar y restar números
tomados de tablas. Pronto aparecieron
las reglas de cálculo, primero de forma
circular y luego las más habituales de
regleta deslizante.
Las pequeñas calculadoras electró­
nicas han convertido en poco tiempo a
la regla de cálculo y a la calculadora
mecánica en piezas de museo. Había
pasado menos de un siglo desde que
ellas mismas hicieran lo propio con
otro instrumento mecánico de cálculo
que se había inventado algo antes y se
codeó honrosamente con ellas hasta
que se añadieron motores a las máqui­
nas de cálculo y la educación técnica
moderna extendió el uso de la regla de
cálculo. Este instrumento más antiguo
es el sector. Galileo fue el inventor,
alrededor de 1597, de la primera ver­
sión de este instrumento que despertó
interés.
La estructura básica del sector son
dos brazos unidos en un extremo por
un pivote. Los brazos son de la misma
longitud (de 10 a 30 centímetros) y
llevan escalas numéricas idénticas.
Con él se puede abordar el problema
geométrico de inscribir un polígono de
lados iguales en un círculo de diámetro
dado. Se abren los brazos del sector
hasta que las puntas de sus extremos
libres estén separadas por el diámetro
del círculo. Luego, si la fi­gura que hay
que inscribir en el círcu­lo es un pentá­
gono, por ejemplo, se mide la distancia
que hay desde el 5 de un brazo del
sector al 5 del otro, distancia que será
la longitud de cada lado del pentágono
(véase la figura 4). Este problema, sin
embargo, no requiere llevar a cabo
cálculo alguno, posibilidad que el ins­
trumento adquirió pos­teriormente.
U
na de las ventajas del sector era
la facilidad con que se aprendía a
usarlo, por lo que resultaba accesible a
gente con poca instrucción. Otra era
que, en muchos problemas prácticos
corrientes, el que utilizaba el sector ni
siquiera tenía que pensar en términos
de números. De hecho, uno de los fac­
tores que condujeron a Galileo a con­
cebir el sector como una calculadora
universal para todos los propósitos
prácticos fue un problema que supe­
raba a las matemáticas de su tiempo.
El antiguo sector era un bello ins­
trumento, normalmente hecho de
latón o de plata. En museos y coleccio­
nes privadas se conservan no menos
de un millar de ejemplares. Una ver­
sión más modesta formaba parte del
utillaje básico del carpintero, del arte­
sano o del dibujante todavía en el siglo
pasado, siendo la madera o el hueso
los materiales utilizados para su pro­
ducción industrial. Pero hoy en día
casi nadie ha oído siquiera hablar del
sector y la historia de su invención ha
sido objeto de conjeturas y de contro­
versias, pero no de investigación his­
tórica seria.
La historia que contaré se basa en un
examen de las instrucciones ma­nus­
critas para el uso del sector redactadas
por Galileo antes de 1606, año en que
las publicó por primera vez, en versión
revisada. También he analizado muchos
sectores antiguos. Mi interés por el
TEMAS 4
1. EL “COMPAS GEOMETRICO Y MILITAR” DE GALILEO,
tal y como se construyó a partir de 1598. Se muestran sus dos
caras; los números no pueden distinguirse debido al desgaste y a que la fotografía no reproduce el tamaño real del instrumento. Este ejemplar, que se construyó probablemente en
Florencia, procede de la colección del autor. Galileo diseñó
su compás, que posteriormente se conoció como el sector,
para resolver el problema que llamó de «calibrado», consistente en determinar la carga apropiada para una pieza de
artillería de un calibre dado, según el material de que estuviese hecha la bala. Las escalas del instrumento se muestran
en las figuras 8 y 9.
2. EL COMPAS CON EL CUADRANTE. El cuadrante permitía
que el instrumento se utilizara para observaciones astronómicas y trabajos de topografía. Galileo diseñó el cuadrante de
forma que pudiese separarse, facilitando el transporte del ins-
trumento. También se le ocurrió la idea de introducir una escala que va de cero en cada extremo a 100 en el centro. Al
añadir el cuadrante, el compás geométrico y militar podía utilizarse para determinar alturas, distancias e inclinaciones.
MÁQUINAS DE CÓMPUTO
19
3. EL MARQUES GUIDOBALDO DEL MONTE, amigo de Galileo, inventó un precursor del sector. Estos dos dibujos aparecen en un libro publicado en Venecia en 1598. La tinta de la
otra cara se trasluce por el papel, haciendo aparecer las líneas
menos marcadas que cruzan los dibujos y no pertenecen a ellos.
En una de las caras del instrumento (izquierda) había escalas
tema se reavivó cuando Anahid Iskian,
un especialista neoyorquino en graba­
dos y libros antiguos, llamara mi aten­
ción sobre una copia manuscrita de las
instrucciones de Galileo hecha en 1605,
que terminé comprando. Las instruc­
ciones diferían de las que se encuentran
en el libro de Galileo, Operaciones del
compás geométrico y militar, publicado
en 1606. Yo había descubierto anterior­
mente, en la colección Rocco-Watson
del Ins­tituto Tecnológico de California,
una versión manuscrita diferente, que
puede fecharse hacia 1599. Estos dos
manuscritos, junto con las otras cinco
versiones conocidas (conservadas en la
Biblioteca Ambrosiana de Milán y que
pueden datarse entre 1597 y 1600), han
hecho posible la reconstrucción de la
20
que proporcionaban los lados de polígonos regulares que podían inscribirse en un círculo de diámetro igual a la distancia
que separe las dos puntas del instrumento. Con las escalas de
la otra cara (derecha) el instrumento podía utilizarse para
dividir en varias partes iguales una línea de longitud igual a
la separación de las puntas del instrumento.
evolución del instrumento que Galileo
inventó. Su historia resulta bastante
diferente de lo que se había supuesto.
La primera descripción publicada
del uso del sector como instrumento
mecánico de cálculo se debe a Thomas
Hood. Se contiene en un texto inglés
aparecido en 1598, fecha en la que
Hood no sabía nada de un sector ita­
liano, mientras que en 1597 Galileo no
había oído hablar del instrumento
inglés, el cual es probable que ya se
usase normalmente algunos años antes
de la publicación del libro de Hood.
Invenciones y descubrimientos simul­
táneos independientes no son raros en
la historia de la ciencia y de la técnica.
Lo extraño en este caso es que los dos
inventores tenían una formación muy
diferente: Galileo era un profesor de
matemáticas y Hood un científico prác­
tico. En la invención del sector, cada
uno de ellos había partido de un punto
distinto y tenía un objeti­vo diferente.
El sector de Hood tenía tres escalas.
El modelo de 1597 de Galileo tenía
siete, de las cuales sólo una (la desti­
nada a construir polígonos regulares)
podía encontrarse en el de Hood.
Galileo la eliminó de su sector un año
después, cuando incluyó por primera
vez una escala para obtener proporcio­
nes ordinarias, aunque era la escala
más simple de todas y había desempe­
ñado desde el comienzo el papel prin­
cipal en el sector de Hood.
Los accesorios del sector de Hood
hacen pensar en que originalmente era
TEMAS 4
un instrumento topográfico. Incluyen
pares de visores removibles, una plo­
mada y un cuadrante graduado ligado
a uno de los brazos. La escala de divi­
siones iguales que había en cada brazo
probablemente se utilizaba original­
mente para dibujar mapas a cualquier
escala. La abertura variable modifica
las distancias entre los puntos corres­
pondientes de los dos brazos y con­
vierte al instrumento en una ayuda
mecánica sencilla para la resolución
de problemas de proporcionalidad.
En un libro de instrumentos publi­
cado en Venecia en 1598 se muestra
un tipo de sector que no está concebido
como instrumento de cálculo. El ins­
trumento había sido inventado no
mucho antes por el marqués Gui­do­
baldo del Monte, amigo de Galileo de
muchos años, como una ayuda sencilla
y barata para dos problemas comunes
de dibujo y diseño. En uno de ellos se
trataba de dividir un círculo en un
número dado de arcos iguales o de
inscribir un polígono regular en un
círcu­lo. El otro era dividir una línea
recta de longitud dada en un número
exacto de partes iguales.
El sector de Guidobaldo consolidaba
y mejoraba dos instrumentos de dibujo
que se llevaban utilizando en Italia
desde el decenio de 1560. Uno de ellos,
el compás proporcional ordinario,
todavía se usa hoy; tenía puntas en
ambos extremos y un pivote móvil. El
otro era el compás de reducción, cuyo
pivote era fijo y tenía dos puntas fijas
y dos deslizantes perpendiculares a los
brazos. Los modelos posteriores se
construyeron de modo que las cuatro
puntas tocaran el papel perpendicu­
larmente. Ambos instrumentos eran
caros y requerían un reajuste frecuente
de las partes móviles. La única parte
móvil del sector de Guidobaldo era una
simple bisagra y además el instru­
mento tenía escalas permanentes que
proporcionaban directamente lecturas
del número de partes de un círculo o
una línea.
El origen del “compás militar” de
Galileo ha sido objeto de diversas con­
jeturas, que lo han relacionado de
varias maneras con el compás propor­
cional, el compás de reducción y el
sector de Guidobaldo. Siempre se ha
supuesto que Galileo añadió escalas
más complicadas a un instrumento de
cálculo ya conocido. El problema de
esta suposición es que no se ha encon­
trado ningún sector adaptado para el
cálculo que se utilizara en Italia antes
de que Galileo inventara su “compás
militar” en 1597. Ahora puede aña­
dirse otra objeción: antes de que se
incorporara la escala más simple, el
sector de Galileo era ya un instru­
MÁQUINAS DE CÓMPUTO
mento bastante complejo. Repasemos
su historia.
Los predecesores del sector de cálcu­lo
de Galileo son dos instrumentos de una
clase bastante diferente, inven­tados
sesenta años antes por Niccolò
Tartaglia, un matemático interesado
en la dimensión práctica de su disci­
plina, con vistas a sus aplicaciones
militares. Galileo los combinó en uno
solo, añadiendo mejoras, antes de que
se le ocurriera la idea de utilizarlo
como instrumento mecánico de
cálculo.
T
artaglia publicó en 1537 y en Ve ­necia un libro, La ciencia nue­va, en
el que se aplicaban las matemáticas a
la artillería. Presentaba un instru­
men­to con el que el artillero po­día
de­ter­mi­nar la elevación de la pieza,
consistente en una especie de escuadra
de carpintero con un brazo más largo,
que se si­tuaba en la boca del cañón, y
un cuadrante fijo dividido en doce par­
tes iguales llamadas puntos (véase la
figura 5). Una plomada que colgaba del
vértice indicaba la elevación del cañón,
de manera que a un disparo con eleva­
ción nula se le llamaba “disparo a nivel”
y al tiro con 45 grados de elevación se
le denominaba “disparo a seis puntos”.
El instrumento se adoptó rápidamente
en toda Europa.
Tartaglia trataba también de cómo
determinar la altura y la distancia de
los blancos, visualmente y mediante
triangulación, para lo que inventó un
segundo instrumento, que también se
basaba en la escuadra. Entre su época
y la de Galileo, hubo otros inventores
que propusieron instrumentos más
útiles y apropiados para triangulación
sobre el terreno.
Muchos de los alumnos que Galileo
tuvo en Padua a partir de 1592 eran
jóvenes nobles destinados a carreras
militares. Les dio clases particulares
de arquitectura militar y de fortifica­
ción, lo que le llevó a mejorar y consoli­
dar los dos instrumentos inventados por
Tartaglia. En primer lugar, reparó en
el peligro que supone situarse delante
de la pieza para ajustar su elevación,
bajo el fuego enemigo. Esta y otras
razones le hicieron pensar en un medio
de calcular la elevación mi­dien­do cerca
de la recámara, lo cual podría hacerse
si se colocaban los extremos de los
brazos del instrumento encima del
cañón, y se leían puntos de elevación
desde el centro del cuadrante y no
desde un ex­tremo. Galileo diseñó el
instrumento de forma que los brazos
fueran de igual longitud. Como el
ca­ñón es más grueso en la recámara,
había que compensarlo alargando de
alguna manera el brazo delantero del
instrumento. Galileo dotó a su instru­
mento con un “pie móvil” para conse­
4. EL POLIGONO inscrito en el círculo
muestra un uso típico del instrumento
inventado por Guidobaldo y del sector. El
problema es inscribir un pentágono regular en un círculo de diámetro igual a la
distancia entre las dos puntas del instrumento. Establecida esa distancia (parte
superior) se mide la que hay (línea de color) entre el 5 de una escala y el 5 de la
opuesta. Esa distancia es la longitud del
lado del pentágono buscado. El polígono
inscrito (parte inferior) divide además el
círculo en arcos iguales de 72 grados.
21
guirlo, una pieza móvil que se mante­
nía en posición mediante un tornillo
de fijación.
P
5. EL MATEMATICO ITALIANO NICCOLO TARTAGLIA inventó, a comienzos del
siglo xvi, un instrumento de medida para uso del artillero. Fue uno de los instrumentos modificados por Galileo para construir su compás militar. El brazo más largo
(izquierda) se situaba en la boca del cañón; la elevación del cañón podía entonces
leerse en “puntos” en el cuadrante por medio de la plomada. Se decía que un cañón
apuntado con elevación cero “disparaba a nivel”, F en la figura.
6. EL INSTRUMENTO DE TRIANGULACION, el segundo invento de Tartaglia que
Galileo adaptó, se muestra tal como aparece en otra ilustración del libro de Tartaglia
La ciencia nueva. El instrumento servía para ayudar a los artilleros a determinar la
altura y distancia de los blancos, visualmente y por triangulación. Galileo construyó
su compás militar combinando los dos instrumentos inventados por Tartaglia, cambiando la escuadra por un cuadrante y añadiendo un clinómetro.
22
osteriormente Galileo añadió graduaciones al cuadrante, que se
extendían hasta 90 grados. Con esta
modificación el instrumento resultaba
útil para observaciones astronómicas
en marchas largas. Añadió también
una escala clinométrica, que propor­
cionaba lecturas en unidades de tanto
por ciento de gradiente; los arquitectos
militares podían utilizarla para deter­
minar la inclinación de las escarpas.
La escala, que proporcionaba las uni­
dades de altura por unidad de avance
horizontal, sugería, a su vez, una sim­
plificación en la determinación visual
de la altura y la distancia. Galileo divi­
dió su cuadrante en 200 partes iguales,
que se leían desde cero en cada extremo
a 100 en el centro, esto es a 45 grados.
Cada unidad correspon­día, pues, a un
uno por ciento del gradiente 1:1, lo que
permitía prescindir de algunos cálculos
corrientes y convertía otros en una
cuestión de aritmé­tica mental sencilla.
El instrumento resultante era venta­
joso para los artilleros, puesto que eli­
minaba la necesidad de utilizar dos
instrumentos distintos, al tiempo que
resultaba útil para topógrafos y cartó­
grafos civiles.
Es probable que fuese en 1595
cuando Galileo escribió un breve tra­
tado sin título dedicado a los usos del
instrumento combinado. La última
parte, dedicada a la triangulación, se
copió al final de un antiguo manuscrito
que contenía sus primeras instruccio­
nes (1597) para el uso el sector. Los
añadidos hechos a este apéndice sobre
triangulación posteriormente mues­
tran que Galileo lo escribió antes de
que hubiera perfeccionado su sector de
cálculo.
El grado de desarrollo que el instru­
mento inventado por Galileo había
alcanzado en 1595 o 1596 puede perci­
birse en un dibujo hecho por un estu­
diante alemán, que está incluido en el
manuscrito antes mencionado (véase
la figura 7). El tamaño del cuadrante
es exactamente el mismo que el del
sector de Galileo conservado en Flo­
rencia. También están dibujados el
cursor y el tornillo de fijación para el
“pie móvil”, así como el soporte y la
junta universal utilizados para mon­
tar el instrumento de forma que
pu­diera emplearse en trabajos de topo­
grafía. Este es el único dibujo conocido
de los accesorios, pero los libros de
cuentas de Galileo muestran que cons­
truyó por encargo una nocella (junta
universal) para encajar el instrumento
en un trípode.
TEMAS 4
El cuadrante de Tartaglia era parte
integrante del instrumento que había
inventado para determinar la eleva­
ción. Mientras sólo lo utilizaron los
artilleros, ni su gran tamaño ni su tosca
forma constituían un problema. Pero
cuando Galileo incorporó la es­cuadra
para triangulación, de manera que
también pudiesen utilizarlo los topó­
grafos, separó el cuadrante y articuló
los brazos para que pudiera transpor­
tarse más cómodamente. Esta modifi­
7. ESTE DIBUJO DE LOS ACCESORIOS del compás militar de
Galileo, hecho por un estudiante, se encuentra en un manuscrito del siglo xvii propiedad del autor. El manuscrito contiene
las instrucciones de Galileo para el uso del sector. Es probable
que el dibujante fuese uno de los muchos estudiantes alemanes
de Galileo y que lo hiciera antes de que se añadieran escalas
al instrumento. En la parte superior del dibujo se representa
el cuadrante. Debajo, a la derecha, está el cursor que se ajus-
MÁQUINAS DE CÓMPUTO
cación creó automáticamente un sector.
El siguiente paso natural era marcar
cerca de sus bordes interiores las dos
escalas del sector de Gui­do­baldo, pues
ambas eran útiles para cartógrafos y
arquitectos militares.
taba a un brazo del compás para incorporar un “pie móvil”,
que Galileo diseñó con el fin de compensar el estrechamiento
de la pieza, de modo que su elevación pudiera leerse al pie del
cañón en lugar de en la boca. Debajo está el soporte que servía
para montar el instrumento en una “junta universal” (abajo en
el centro), cuya base cónica ajustaba en un trípode, y (abajo a
la izquierda) los brazos del instrumento, plegados en la forma
en que se transportaba el compás.
23
No se conoce ningún ejemplar del
sector de Galileo de 1597, pero es fácil
reconstruir el instrumento siguiendo
las primeras instrucciones que propor­
cionó para su uso. He dibujado un
diagrama esquemático del mismo con
las escalas rotuladas; el dibujo es la
base de las figuras 8 y 9 y será útil para
comparar la primera versión del ins­
trumento de Galileo con la versión
posterior. Las dos escalas empleadas
por Guidobaldo (G-1 para construir un
polígono regular y G-2 para dividir una
línea en segmentos iguales) estaban
en el modelo de 1597, pero no en los
posteriores. Galileo añadió una escala,
que he designado V, la cual resultaba
todavía más útil para los arquitectos
militares, porque facilitaba la cons­
trucción de un polígono regular sobre
una línea de longitud dada. Era fre­
cuente que el diseño de las fortificacio­
nes incluyera partes de polígonos
regulares; la longitud de sus lados
venía a menudo determinada por
alguna característica del terreno o por
parte de otra fortificación previa.
Entre V y G-1 Galileo situó otra línea
(VI), que llamó “tetragónica”. Esta
escala proporcionaba directamente,
pa ra cualquier polígono regular, el
lado de otro polígono de la misma área.
8. LAS ESCALAS QUE INTRODUJO GALILEO se representan
aquí esquemáticamente, tal como aparecían en el modelo de
su sector de 1597 (izquierda) y en el que se construyó después
de 1598 (derecha). Cada escala estaba inscrita en ambos brazos del sector. No reproducimos los números más que una vez;
la escala del otro brazo se indica mediante líneas discontinuas en el caso de las escalas interiores. Los números escritos
al pie de los brazos, que identifican las escalas, han sido aña-
24
Las mismas escalas servían para obte­
ner la cuadratura aproximada de cual­
quier círculo y para comparar áreas en
medidas cuadradas. (Mediante la
reducción de cualquier figura lineal a
triángulos, su área total puede equi­
pararse a la de un cuadrado.)
Las escalas V y VI señalan la apari­
ción de un instrumento mecánico dedi­
cado específicamente al cálculo, aun­
que limitado aún a comparaciones
geométricas básicas. El siguiente paso
de Galileo fue resolver mecánicamente
un problema práctico importante de
artillería, para el que no había solu­
ción conocida y que implicaba aspectos
didos por el autor. Las escalas I y II ayudan a resolver el
problema de “calibrado” que se le presentaba al artillero. I
daba los volúmenes de pesos iguales de varios metales y piedras. II proporcionaba un medio de obtener raíces cúbicas y
III de obtener raíces cuadradas. IV, que apareció por primera vez en 1598, proporcionaba divisiones iguales de una línea;
la H significa que un sector inventado independientemente
por Thomas Hood tenía una escala parecida. V servía para
TEMAS 4
aritméticos, geométricos y físicos. Sin
embargo, incluso tras haberlo resuelto,
su sector no podía todavía resolver
problemas planteados por la vida ordi­
naria, sencillos problemas de propor­
cionalidad del tipo regla de tres. Aún
no se le había ocurrido la idea de un
solo instrumento útil para todo.
Veamos cómo evolucionó en sus manos
la primera calculadora mecánica de
uso general.
Galileo observó que se aplicaban a
pesos y medidas los mismos nombres
en lugares distintos, aunque las canti­
dades descritas fueran muy diferen­
tes. Un capitán de artillería tenía que
saber cómo cargar un cañón de un cali­
bre cualquiera con balas de cualquier
material, sin recurrir a otra cosa que
sus conocimientos sobre las cargas
adecuadas para un calibre específico
con balas de un material determinado.
Esto era necesario, pues frecuente­
mente los capitanes tenían que actuar
en lugares extraños y también porque
cuando se capturaban piezas de arti­
llería al enemigo era necesario saber
cómo utilizarlas contra él. Disparos
desperdiciados y peligrosos errores
serían el resultado de utilizar unida­
des de medida equivocadas, incluso en
el caso de que los datos necesarios para
cargar el cañón estuvieran inscritos en
una pieza cuyo manejo no fuera fami­
liar. El único modo de evitar explosio­
nes del cañón, artilleros heridos o
muertos y disparos desperdiciados era
poder resolver rápidamente, en el
campo de batalla, el problema que
Galileo llamó “calibrado”.
La solución del problema requería
las escalas I y II, que daban, respecti­
vamente, los volúmenes relativos de
pesos iguales de determinados metales
y piedras y las relaciones de volúme­
nes esféricos correspondientes a igua­
les incrementos del radio. Sirviéndose
de estas escalas, incluso un artillero
sin instrucción matemática podía
resolver cualquier problema de cali­
brado en unos segundos. En 1597 toda­
vía no se había aplicado el álgebra a la
geometría, y mucho menos a la física,
de modo que ni el mismo Galileo
hubiera sido capaz de escribir una
fórmula práctica para resolver el pro­
blema. Incluso si lo hubiera hecho, a
los artilleros no les hubiera servido de
nada, ni siquiera a los oficiales, pues
sus conocimientos matemáticos eran
bastante limitados.
L
construir un polígono regular dado en
una línea de longitud dada. VI da, para
cualquier polígono, el lado de otro de
igual área. G-1 y G-2 coinciden con las
escalas de Guidobaldo: G-1 sirve para
inscribir un polígono regular en un
círculo y G-2 para dividir una línea en
partes iguales.
MÁQUINAS DE CÓMPUTO
a solución mecánica que Galileo
consiguió para este problema le
sirvió de inspiración para utilizarlo en
otros. Que esto constituía para él una
prioridad resulta claro porque, en todas
las versiones de las instrucciones ante­
riores a 1600, el primer problema que
se abordaba era el del calibrado. Pero
en 1600 escribió una nueva versión de
las mismas que comenzaba con una
escala diferente (la IV), que proporcio­
naba divisiones lineales iguales enfren­
tadas, como si se tratara de dos reglas.
Esta escala ni siquiera aparecía en el
modelo de 1597; se añadió alrededor de
un año después. Hacia 1600, Galileo
había descubierto tantos usos del sec­
tor que, desde entonces, el problema
del calibrado pasó a explicarse en el
capítulo 20.
Los manuscritos muestran lo equi­
vocados que han estado los historiado­
res al confiar en que el sentido común
y la versión definitiva del manual de
instrucciones publicado por Galileo
podían revelar su forma de inventarlo.
Es de sentido común que hubiese
comenzado con algo sencillo (la escala
de divisiones iguales, como la del sector
de Hood) y que luego se diese cuenta
de que podía aplicarse a problemas
más complejos, tal y como explicaba
posteriormente en sus instrucciones.
En realidad lo primero que inventó fue
un medio mecánico de resolver un pro­
blema que no podía resolverse con las
matemáticas de su época: el problema
del calibrado, que era una función de
dos variables independientes. Sólo más
tarde se le ocurrió que también los pro­
blemas de simple proporcionalidad
podían resolverse mecánicamente.
¿Por qué habían de preocupar a un
profesor de matemáticas problemas
que no suponían dificultad alguna ni
para él ni para sus alumnos? Galileo
terminó ocupándose de este tipo de
problemas en beneficio de la gente
corriente, que no podía calcular raíces
cuadradas y que hasta tenía dificulta­
des con la multiplicación y la división.
Se había dado a los artilleros sin edu­
cación matemática la posibilidad de
trabajar con precisión; ahora, por pri­
mera vez, los civiles que tampoco
tenían educación matemática podían
aprender a hacer incluso trabajos de
topografía.
Los añadidos al apéndice sobre trian­
gulación hechos después de 1600 refle­
jan la evolución del interés de Galileo
por tratar mecánicamente problemas
matemáticos sencillos. Originalmente,
en 1595 o 1596, el texto proporcionaba
cálculos aritméticos detallados para
realizar triangulaciones. En el manus­
crito de 1605 y en su libro, cada ejemplo
de este tipo va acompañado por un
pasaje que muestra cómo, utilizando el
sector, puede obtenerse rápidamente
una aproximación a la misma respuesta
sin recurrir a la aritmética. Abría
dichos pasajes con frases como “Para
los que no pueden hacer cálculos arit­
méticos...” o “Si se desea evitar tediosos
cálculos...”
Las pruebas proporcionadas por
declaraciones juradas archivadas en
1607, la datación de manuscritos con­
servados en Milán y la forma y el con­
tenido de los otros dos manuscritos de
las instrucciones de Galileo indican
que el modelo definitivo de su sector
se diseñó un año o dos después del
instrumento de 1597. Hizo dos cam­
bios fundamentales y otros de menor
importancia. Introdujo uno de los cam­
bios fundamentales porque consideraba
que el instrumento sería imperfecto
mientras no permitiera determinar el
25
área de cualquier figura limitada por
líneas rectas y arcos circulares en una
combinación cualquiera. Para este
problema inventó una escala que pro­
porcionaba el área de cualquier seg­
mento de un círculo. Es la escala que
he llamado VII. Requiere dos conjun­
tos de números, uno a cada lado de la
línea. Para que pudiera leerse con
mayor facilidad, tenía que situarse
cerca de los bordes exteriores, donde
había estado la escala V. Ya que V era
de utilidad inmediata en problemas de
fortificación, Galileo abandonó G-1 y
puso V en su lugar, añadiendo una
ex­p licación que mostraba cómo los
polígonos inscritos calculables
me­diante G-1 podían obtenerse fácil­
mente utilizando V en su lugar.
El otro cambio importante introdu­
cido en 1598 consistió en reemplazar
la escala G-2 por otra más sencilla (la
IV), de divisiones iguales iniciadas en
el pivote. Reglas idénticas, articuladas
en un punto común, proporcionaban la
solución inmediata de todos los proble­
mas de proporcionalidad, lo cual equi­
vale a resolver todas las ecuaciones
lineales. Junto con las escalas III y II,
que de hecho aumentaban las posibi­
lidades del sector hasta conseguir que
resolviera algunas ecuaciones cuadrá­
ticas y cúbicas, la escala IV convertía
la versión final del aparato en un ins­
trumento que podía resolver mecáni­
camente mu­chos problemas algebrai­
cos. La verdad es que el sector permitía
dominar todos los problemas matemá­
ticos prácticos de la época.
H
acia 1606, año en que Galileo
pu­ blicó su libro sobre el “compás
geométrico y militar”, se habían fabri­
cado unos cien instrumentos, que se
habían vendido a estudiantes o rega­
lado a amigos y dignatarios de Italia y
del extranjero. Los libros de cuentas
de Galileo muestran que al menos 20
ejemplares estaban en Alemania,
Austria, Francia y Polonia. Su libro se
publicó en italiano para que pudiera
ser leído por todos. Al cabo de unos
meses, un estudiante paduano plagió
el libro en latín y pretendió que Galileo
le había robado el invento. Como
Galileo había dedicado su libro al prín­
cipe Cosimo de’ Medici, al que entonces
estaba solicitando empleo, la cuestión
era seria y adoptó medidas legales con­
tra el plagiario. Una traducción latina
autorizada se publicó en Ale­mania en
1613, cuando los sectores ya se usaban
en toda Europa.
Un alud de pretensiones de priori­
dad en el invento aparecieron en otros
países y en otros idiomas hasta casi
1640. Durante todo este tiempo se
construyeron sectores con gran varie­
26
dad de combinaciones de escalas. Yo he
ido coleccionado copias de los libros y
ejemplares del instrumento a lo largo
de muchos años. Dejando a un lado la
invención hecha por Hood de un sector
de cálculo con menos aplicaciones, sólo
una de tales pretensiones me parece
algo fundada. Se trata de la afirmación
hecha en 1610 por el matemático belga
Michel Coignet, corresponsal de
Guidobaldo y de Galileo hacia 1580,
según la cual él había utilizado desde
esa época su “escala pantométrica”,
que consistía en líneas graduadas
similares a las del último modelo del
sector. Las líneas estaban grabadas en
una lámina metálica sin partes móvi­
les. El instrumento inventado por
Coignet se utilizaba, junto con un com­
pás de dividir ordinario, para resolver
problemas parecidos, pero mediante
construcción y medida, no por cálculo
mecánico, como era el caso del instru­
mento inventado por Galileo.
Lo que caracteriza a las calculadoras
mecánicas es su capacidad para hacer
varias cosas: abreviar cálculos largos,
permitir que los matemáticos expertos
resuelvan problemas que sin ellas que­
darían fuera de su alcance y permitir
que personas sin formación matemá­
tica utilicen métodos de cálcu­lo que no
dominan. Lo importante es que el sec­
tor de Galileo hizo estas tres cosas
desde el principio, como lo haría luego
la regla de cálculo. Me parece que el
sector de Hood y la máquina de calcu­lar
que se desarrolló en el siglo xvii a par­
tir de las ideas de Pascal y de Leib­niz
son instrumentos algo diferentes, pues
estaban limitados a problemas que
podían resolverse utilizando métodos
conocidos (aunque con menos
co­modidad). Con el instrumento mecá­
nico de su invención, Galileo atacó un
problema que no podía resolver de nin­
guna otra manera. Al hacerlo, com­
prendió que se podían utilizar medios
mecánicos para resolver todos los pro­
blemas matemáticos prácticos de su
tiempo, de la misma manera que ahora
resolvemos nuestros problemas mate­
máticos prácticos me­diante máquinas
electrónicas.
BIBLIOGRAFIA COMPLEMENTARIA
The Instruments of Galileo. Silvio A.
Bedini en Galileo: Man of Science, dirigido por Ernan McMullin. Basic Books,
Inc., 1967.
Les Instruments Scientifiques aux xviie
et xviiie Siècles. Maurice Daumas, París,
1953.
Gli Strumenti. Vol. 1 de Storia delle
Scienze, dirigida por Gerard L’E. Turner.
Einaudi. Turín, 1991.
TEMAS 4
La computadora mecánica
de Charles Babbage
Doron D. Swade
La construcción, coronada con éxito, de uno de los ingenios calculadores
de Babbage, un artilugio de tres toneladas, hace pensar que la historia
ha juzgado erróneamente al precursor de la computación automática
C
harles Babbage es tenido por el
gran precursor de las ciencias
de cómputo. Babbage, empero,
no tuvo éxito en sus esfuerzos por
materializar sus proyectos. Las histo­
rias de la computación afirman inde­
fectiblemente que los tropiezos de
Babbage se debieron a que sus artilu­
gios exigían más de lo que la ingenie­
ría mecánica de la era victoriana
po­día permitir. Resulta curioso, sin
embargo, que ninguna prueba res­
palde tal juicio.
Con mis colegas del Museo de la
Ciencia londinense, me propuse arro­
jar algo de luz sobre la cuestión. Para
ello pensamos en construir a escala
natural uno de los ingenios de cómputo
de Babbage, basándonos en los diseños
originales. Era el año 1985. Nuestra
empresa culminaría con éxito en
no­viembre de 1991, sólo un mes antes
de cumplirse el bicentenario del naci­
miento de Babbage. En esa fecha, el
dispositivo, conocido por el nombre de
Ingenio de diferencias n.o 2, ejecutó
im­pecablemente su primer cómputo de
importancia. El éxito de nuestra la­bor
permitió comprobar que los fracasos
de Babbage no se debieron al di­seño,
sino a una deficiente ejecución prác­
tica.
El ansia de Babbage por mecanizar
los cálculos nació de la exasperación
que le provocaban las inexactitudes de
las tablas matemáticas impresas. Cien­
tíficos, banqueros, actuarios, navegan­
tes y similares se valían de ellas para
realizar aquellos cálculos que exigie­
DORON D. SWADE es ingeniero elec­
trónico, historiador de la computación
y conservador jefe de la sección de com­
putación y control del Museo de la Cien­
cia de Londres. Dirigió la reconstrucción
de la calculadora de Babbage.
28
ran exactitudes mayores que dos o tres
cifras. Pero la producción de tablas era
penosa y propensa a errores en cada
una de sus fases, desde el cálculo hasta
la transcripción y la composición tipo­
gráfica. Dyonisius Lardner, divulgador
científico de la época, escribió en 1834
que una selección de 40 volúmenes de
tablas matemáticas efectuada al azar
contenía 3700 correcciones de erratas,
algunas de las cuales, a su vez, conte­
nían errores.
Babbage era un tenaz analista de los
errores tabulares. En cierta ocasión
co­laboró con el astrónomo John Herschel
en la verificación de dos conjuntos de
cálculos para tablas astronómicas, pre­
parados por separado; ambos queda­ron
desalentados ante la multitud de discre­
pancias. “¡Desearía, en el nombre de
Dios, que estos cálculos hubieran sido
ejecutados por una máquina de vapor!”,
exclamó Babbage en 1821.
1. CHARLES BABBAGE posó para este
daguerrotipo hacia 1847, año en que comenzó a trabajar en el Ingenio de diferencias n.o 2.
Babbage consideró que las calcula­
doras mecánicas ofrecerían un medio
para eliminar todas las fuentes de
errores de las tablas matemáticas.
Imaginaba una máquina que no sólo
calculase impecablemente, sino que
también fuese capaz de erradicar los
errores de transcripción y de composi­
ción tipográfica.
C
onstruyó en 1822 un modelo experimental que sirviera para enca­
minarle hacia su objetivo. Bautizó a
su calculadora “ingenio de diferencias”
porque está basada en un principio
matemático conocido por método de
diferencias finitas, que permite deter­
minar valores sucesivos de funciones
polinómicas utilizando únicamente la
operación de adición. La multiplica­
ción y la división, mucho más difíciles
de traducir a procesos mecánicos, no
son necesarias. Dado que el valor de
la función en cada paso se calcula a
partir del valor precedente, si el resul­
tado final es correcto podemos tener
gran confianza en que todos los valores
de la serie lo son.
Los ingenios de diferencias de Bab­
bage se valen del sistema de numera­
ción decimal. Cada una de las cifras de
un número polidígito se sitúa en una
rueda dentada, la rueda de dígitos, que
lleva grabados los dígitos decimales.
El valor de cada uno está representado
por la rotación angular de la rueda
asociada. El mecanismo de control del
ingenio garantiza que sólo sean váli­
dos ciertos giros correspondientes a
valores numéricos enteros, a los que
corresponden posiciones definidas de
las ruedas numéricas. Bab­bage se jac­
taba de que sus máquinas producirían
resultados correctos o se bloquearían,
pero jamás darían resultados falsos.
El esfuerzo más ambicioso por cons­
truir un dispositivo de cálculo a plena
escala estuvo consagrado al malha­
TEMAS 4
2. EL INGENIO DE DIFERENCIAS N.o 2 se construyó cara al
público en el Museo de la Ciencia de Londres. Vemos a los dos
ingenieros constructores, Barrie Holloway (izquierda) y Reg
dado Ingenio de diferencias n.o 1. Sus
empeños se hicieron añicos en 1833,
tras diez años dedicados al proyecto,
desarrollo y manufactura de compo­
nentes, por no hablar de los enormes
gastos. El proyecto se vino abajo tras
una disputa con su ingeniero jefe,
Joseph Clement, sobre el pago por la
reubicación del taller mecánico. La
desavenencia no parece que tuviera un
fundamento técnico, al menos vista
desde fuera. Pero durante todo este
tiempo ha habido una pregunta que ha
permanecido sin respuesta: las cir­
cunstancias que rodearon el hundi­
miento del proyecto ¿ocultaban la
imposibilidad, técnica o lógica, de los
proyectos de Babbage?
E
l Ingenio de diferencias n.o 1 consiste en un elemento sumador
básico, repetido muchas veces en un
montaje que materializa el método de
diferencias. El tamaño y la compleji­
dad del ingenio son monumentales: el
diseño incluye unas 25.000 piezas; la
máquina, montada y en orden de mar­
cha, mediría casi dos metros y medio
de alta, más de dos metros de larga y
casi un metro de profundidad; pesaría
MÁQUINAS DE CÓMPUTO
Crick (derecha), efectuando ajustes. Babbage proyectó además
un mecanismo de impresión para el ingenio de diferencias, no
construido todavía por falta de tiempo y presupuesto.
varias toneladas. El proyecto, finan­
ciado por el gobierno británico, resultó
también costosísimo. Cuando le fue
abonada a Clement la última factura,
en 1834, la inversión ascendía ya a
17.470 libras. Por mor de comparación:
el coste total de la locomotora de vapor
de John Bull, construida en 1831, fue
de 784 libras.
Clement llegó a dejar listas unas
12.000 de las 25.000 piezas necesarias
para el Ingenio de diferencias n.o 1,
casi todas las cuales serían posterior­
mente achatarradas y fundidas. El
gobierno acabó retirándose definitiva­
mente del proyecto en 1842, en parte
a causa de la opinión de George Biddell
Airy, astrónomo real, quien declaró
que el ingenio “carecía de va­lor”. El
fracaso de no poder terminar el ingenio
de diferencias constituyó el trauma
fundamental de la vida científica de
Babbage.
Los años de trabajo en el Ingenio de
diferencias n. o 1 sí produjeron un
re­sultado tangible y notable. En 1832
Clement ensambló una pequeña por­
ción del ingenio, compuesta por unas
2000 piezas, que debía servir como
pieza de exhibición. Esta porción ter­
minada del artilugio constituye un
excelente ejemplo de la ingeniería
mecánica de precisión de aquella época
y sigue funcionando a la perfección en
el día de hoy.
L
a pieza de exhibición constituye la
primera calculadora automática
conocida. A diferencia de las calcula­
doras de sobremesa de aquel entonces,
el aparato, una vez preparado, no
re­q uería la intervención de un
entendi­do. Quien la manejase podía
conseguir resultados exactos sin com­
prender para nada los principios lógi­
cos o me­cánicos utilizados.
A pesar de su impresionante capa­
cidad, el ingenio de diferencias sólo
podía realizar una tarea fija. La repu­
tación de Babbage como adelantado de
la informática descansa en otro dispo­
sitivo, mucho más refinado, el Ingenio
analítico, concebido en 1834. Pre­ten­día
que el Ingenio analítico fuese una
má­quina computadora universal y pro­
gra­m able, de rasgos sorprenden­t e­
men­t e parecidos a los ordenadores
electrónicos modernos. Disponía de un
repertorio de operaciones básicas (adi­
ción, sustracción, multiplicación y
29
di­visión) que podía ejecutar en una
secuencia arbitrariamente dada. La
or­ga­ni­za­ción interna de la máquina
presentaba un “almacén” y un “molino”
independientes, equivalentes a la
memoria y al procesador de un orde­
nador mo­d er­n o. La separación de
almacén y molino ha sido un factor
predominante en el diseño de las com­
putadoras modernas desde mediados
de los años cuarenta.
El Ingenio analítico se programaba
mediante tarjetas perforadas, técnica
utilizada con anterioridad en el telar
de Jacquard para organizar los moti­
vos de los tejidos de punto. Era capaz de
optar entre diversas líneas de ac­tua­
ción según el resultado de un cálcu­lo,
lo que le facultaba para ejecutar fun­
ciones complejas. Babbage pretendía
que la máquina pudiese recibir datos
de hasta 50 dígitos y dar resultados de
hasta 100 dígitos; la salida podía ser
impresa, perforada en cartulina o
representada gráficamente.
A
unque los historiadores suelen
referirse al Ingenio analítico co­mo
si de una máquina tangible se trata­ra,
en realidad consiste en una serie de
diseños que no llegaron a construirse
y que Babbage fue refinando y perfec­
cionando en distintos períodos, desde
1834 hasta su fallecimiento en 1871.
Desmoralizado por la suerte del In­ge­
nio de diferencias n.o 1, no em­prendió
ninguna tentativa seria de construc­
ción de un ingenio analítico a plena
escala. Los únicos restos interesantes
de sus grandiosos diseños son una
pequeña parte experimental del
mo­lino, todavía incompleta al morir
Bab­bage, y otro fragmento construido
posteriormente por su hijo, Henry
Prevost Babbage.
Los trabajos en el Ingenio analíti­co
indujeron a Babbage a meditar so­bre
el diseño de mecanismos capaces de
realizar automáticamente la mul­ti­
plicación y la división, regulados to­dos
ellos por un complejo sistema de con­
trol. Las soluciones a esos problemas
le animaron a proyectar un in­genio de
diferencias más elegante, el Ingenio de
diferencias n.o 2. Aunque tal má­quina
habría de calcular con una precisión
de 31 cifras, diez más que las proyec­
tadas para el primer modelo, conten­
dría la tercera parte de piezas que éste.
Delineó planos de­tallados para esta
segunda máquina entre 1847 y 1849,
que ofreció al gobierno británico en
1852, pero no recibió apo­yo alguno. Y
Funcionamiento de los ingenios de diferencias
V
emos uno de los veinte planos principales del Ingenio de
diferencias n.° 2, que Babbage delineó a partir de 1847.
La máquina, accionada mediante la manivela de la derecha, provoca, al girar, la rotación de una pila vertical de
catorce pares de levas, que determinan la acción y el sincronismo de los ciclos de cálculo. Los números se almacenan
en ocho columnas verticales, cada una de las cuales dispone
de 31 ruedas portadígitos, que llevan grabados los números de 0 a 9. El menor dígito significativo de cada número
es almacenado en la parte baja de la columna; el mayor,
en lo más alto. Los valores iniciales necesarios para cada
cálculo se introducen desbloqueando las ruedas de dígitos
y haciéndolas girar a mano hasta el guarismo adecuado.
Por debajo de las ruedas de dígitos se encuentra un sistema
de cremalleras y palancas que, accionadas por enlaces con
las levas, alzan, bajan y hacen girar los ejes ver
30
ticales, efectuando de este modo la adición de diferencias.
El Ingenio de diferencias n.° 2 no realiza en secuencia la
adición de números de derecha a izquierda, sino que, durante la primera mitad del ciclo, suma los valores almacenados en las columnas impares a los registrados en las
pares; después, en el segundo semiciclo, se suman las columnas pares a las impares. Tal técnica reduce el tiempo
requerido para el cálculo. Una técnica similar, la técnica
de bombeo (pipelining), es utilizada en los ordenadores
electrónicos. El mecanismo de impresión, dibujado a la
izquierda, está acoplado a la última columna de ruedas
de dígitos, que registran el resultado final del cómputo.
Cada vuelta de la manivela produce un nuevo valor de la
tabla de diferencias con una precisión de 30 dígitos, y deja
automáticamente a la máquina preparada para generar el
número siguiente.
TEMAS 4
así siguie­ron las cosas du­rante casi un
siglo y medio.
En el curso de diversas visitas a
Londres, que comenzaron en 1979,
Allan G. Bromley, de la Universidad de
Sidney en Australia, examinó los dibu­
jos y cuadernos de Babbage en la
Biblioteca del Museo de la Ciencia y se
convenció de que el Ingenio de diferen­
cias n.o 2 era técnicamente realizable.
E
n 1985, poco después de haber sido
yo nombrado conservador de com­
putación del Museo de la Ciencia, se
presentó Bromley allí con una pro­
puesta de dos páginas pidiendo que se
averiguase la causa del fracaso de
Babbage en la construcción de sus
máquinas. Proponía también que el
Museo se esforzase en dejar a punto la
máquina en 1991, bicentenario del
na­cimiento de Babbage. La propuesta
de Bromley señaló el comienzo de un
proyecto de seis años de duración. Los
avatares de nuestro empeño por cons­
truir el ingenio de diferencias fueron
dignos del mismísimo Babbage. Nos
embarcamos en un complejo proyecto
de ingeniería que nos condujo a
terrenos técnicos desconocidos y nos
obligó a afrontar rompecabezas mecá­
nicos, crisis financieras y las intrigas
inherentes a toda iniciativa de cierto
vuelo.
El Ingenio de diferencias n.o 2 era a
todas luces el más idóneo para el pro­
yecto. El juego de planos correspon­
diente se halla intacto, mientras que
los planos del Ingenio de diferencias
n. o 1 ofrecen lagunas lamentables.
Además el diseño del Ingenio de dife­
rencias n.o 2 es más económico. Las
li­mitaciones financieras y de tiempo
pesaban en favor de prescindir de la
impresora para concentrarnos en el
resto del aparato. La impresora está
compuesta por unas 4000 piezas y
constituye por sí misma un problema
de ingeniería no poco ambicioso.
La documentación correspondiente
al Ingenio de diferencias n.o 2 consiste
en 20 planos principales delineados y
en varios esbozos. El estudio detallado
de los dibujos nos llevó a descubrir
varios errores de concepción en los
planos, amén de los detectados por
Bromley. Uno de los montajes princi­
pales parece ser redundante; faltan en
el proyecto, en cambio, otros mecanis­
mos. Por ejemplo, los valores iniciales
necesarios para comenzar el cálculo
se introducen desbloqueando las
columnas y haciendo girar a mano
cada una de las ruedas de dígitos
recién liberadas hasta las posiciones
apropiadas. Babbage no previó ningún
medio para bloquear las columnas ya
preparadas, por lo que el procedi­
MÁQUINAS DE CÓMPUTO
3. LA SECCION OPERATIVA del Ingenio de diferencias n.o 1, ensamblada por Joseph Clement en 1832, constituye la primera calculadora automática conocida. Su
impecable funcionamiento respalda la convicción que Babbage tenía de que la construcción de un ingenio calculador completo era realizable en la práctica.
miento de puesta en servicio se corrom­
pía por sí mismo.
E
l fallo de diseño más grave atañía
al mecanismo de acarreo, el
en­cargado de “llevar” en las sumas.
Este componente crucial tiene la fun­
ción de hacer que la rueda de dígitos
de orden siguiente (cuyos dígitos indi­
can números diez veces mayores)
avance una unidad cada vez que la
suma parcial de una rueda es mayor o
igual que 10. El mecanismo de arras­
tre sufre su prueba extrema cuando se
le suma 1 a una hilera de nueves.
Babbage resolvió el problema del
arrastre de forma muy original.
Durante la primera mitad del ciclo de
cálculo, el ingenio realiza una suma de
31 dígitos sin arrastrar las unidades
de orden superior (los dieces), pero
cada rueda digital que pasa de 10
activa un dispositivo de muelles a
modo de advertencia. En la segunda
parte del ciclo, cada uno de los dispo­
sitivos activados se en­carga de que un
brazo giratorio haga avanzar un paso
a la rueda digital de orden siguiente.
Pero la configuración del mecanismo
de arrastre que muestran los dibujos
de Babbage no es viable. El sentido de
giro de las ruedas digitales es inco­
rrecto y el mecanismo de advertencia
y arrastre no podría funcionar cual fue
delineado. El porqué de tales deficien­
cias ha suscitado muchas conjeturas.
Examinamos la posibilidad de que se
hubieran introducido errores delibera­
damente como medida de seguridad
frente al espionaje industrial. Lo más
verosímil es que algunos fallos se
debieran a omisiones del diseño y otros
fueran errores inevitables de delinea­
ción y trazado.
Ninguno de los problemas que halla­
mos en el Ingenio de diferencias n.o 2
31
ponía en entredicho sus principios
lógicos u operativos globales; con­
seguimos hallar solución para todos.
Se suprimieron los mecanismos inne­
ce­s arios; ideamos los montajes de
bloqueo de las ruedas indicadoras y,
cuan­do hizo falta, dedujimos su movi­
miento de los de piezas vecinas.
Bromley resolvió el problema del
mecanismo de arrastre invirtiendo los
elementos incorrectamente dibujados,
como si se reflejasen en un espejo, y
alterando adecuadamente su orienta­
ción. La introducción de un engranaje
reduc­tor 4:1 en el eje motor disipó las
dudas que había sobre si el voluminoso
Ingenio de diferencias n.o 2 podría
accionarse a mano. Esta modificación
disminuye por cuatro el es­f uerzo
requerido para girar la manivela; a
cambio, la máquina se torna cuatro
veces más lenta.
La traducción práctica de las solu­
ciones halladas planteaba un pro­
blema. ¿Podríamos efectuar dichas
alteraciones sin desvirtuar la autenti­
cidad histórica del resultado y sin
poner en entredicho la misión de
de­mostrar que los ingenios de Bab­bage
eran lógica y prácticamente viables?
Resolvimos el problema adoptando
métodos de diseño característicos de
Babbage y limitándonos estrictamente
a los procedimientos técnicos y a los
dispositivos de que podía disponer en
su tiempo. Las modificaciones a los
diseños originales se proyectaron ade­
más de suerte tal que cada mecanismo
añadido por nosotros pudiera ser reti­
rado sin dificultad.
En 1989 construimos un montaje
experimental en miniatura para veri­
ficar la lógica del elemento sumador
básico y confirmar que el mecanismo
Principios matemáticos de los ingenios de diferencias
L
os ingenios de diferencias de Babbage reciben tal nombre porque se valen del método de diferencias finitas para hallar el valor de ciertas expresiones matemáticas. Tal método ha sido utilizado al pie con el fin de generar la tabla de cubos (y = x3). Las diferencias primeras se hallan restando
los sucesivos pares de cubos. Se aplica después el mismo procedimiento
a los pares de diferencias primeras, con lo que se obtienen las diferencias
segundas. Repetido una vez más el proceso con las diferencias segundas,
resulta que las diferencias terceras son constantes e iguales a 6. Esta información permite generar, invirtiendo el proceso de generación de las diferencias, el resto de la tabla de cubos. Por ejemplo, al sumar 6 a la diferencia
segunda (18) se obtiene la nueva diferencia segunda (24); sumada esta cantidad a la diferencia primera (37) resulta la nueva diferencia primera (61);
por fin, sumada ésta al último cubo calculado (64), se obtiene el número
siguiente de la serie de cubos, a saber, 125 = 53. El procedimiento puede ser
repetido indefinidamente y generar así tantos términos como se quiera por
mera adición reiterada.
El método de las diferencias finitas es igualmente aplicable a las funciones matemáticas denominadas polinomios, cuya expresión general es
y = anxn + an-1xn-1 + ... + a1x + a0. La diferencia n-ésima de un polinomio de
grado n será siempre una constante, la cual sirve de base para el cálculo de
valores por el método de diferencias. Son muchas las relaciones de la física
y la ingeniería representadas mediante polinomios, que sirven además para
aproximar funciones más complicadas, como las funciones trigonométricas
y logarítmicas. En los ingenios de diferencias de Babbage, cada columna de
ruedas de dígitos representa la posición de un número polidígito de la tabla.
El Ingenio de diferencias n.° 2 es capaz de tabular polinomios de grado 7 con
una precisión de 31 dígitos, logro admirable incluso con criterios modernos.
32
de arrastre operaba bien. El artilugio
suma dos números de dos cifras y tiene
en cuenta los arrastres de unidades a
decenas y de decenas a centenas. El
dispositivo, finamente terminado,
supuso un gran paso para convencer a
patrocinadores y colegas de que nues­
tro proyecto no sólo comportaba una
cuestión histórica sin resolver, sino
que, además, constituía una obra de
arte ingenieril. El mecanismo experi­
mental resultó más tarde ser de
inapreciable ayuda para mostrar el
funcionamiento de la máquina y para
ensayar las primeras muestras de las
piezas.
La construcción del Ingenio de dife­
rencias n.o 2 y la estimación del costo
de fabricación requerían planos a
escala natural de todas sus piezas. A
finales de 1989 contratamos con una
empresa de ingeniería la preparación
de un juego de planos a partir de los
originales de Babbage. Era preciso
suministrar además la información no
disponible en los originales: dimensio­
nes precisas, elección de materiales,
tolerancias, métodos de fabricación y
otras muchas cuestiones de detalle.
L
as dimensiones de cada una de las
piezas se obtuvieron por medición
sobre los planos originales, tras de­ter­
minar la escala. La empresa de inge­
niería produjo 50 nuevos planos que
especificaban cada una de las 4000
piezas del ingenio. Los montajes mecá­
nicos que han sobrevivido muestran
que Babbage construía sus piezas en
bronce, hierro fundido y acero. Brom­
ley y Michael Wright, del Museo de la
Ciencia, asesoraron sobre los materia­
les a utilizar para cada pieza. Nues­tros
colegas del Colegio Imperial de Ciencia
y Tecnología analizaron la composi­
ción de los elementos del Ingenio de
diferencias n.o 1 para que nos sirviera
de guía en la selección de bronces
modernos adecuados.
No se hizo ningún intento de utilizar
maquinaria de época para la construc­
ción de las piezas. Los 4000 componen­
tes del ingenio suponen sólo unos mil
tipos de piezas diferentes, por lo que
hay mucha repetición. Nos servimos
sin pudor de las técnicas de manufac­
tura modernas para producir todas las
piezas idénticas. También procedimos
a soldar piezas que Bab­bage hubiera
tenido que forjar. De lo que sí nos ase­
guramos es de que él hubiera podido
producir componentes de la misma
precisión, aunque seguramente por
otros medios.
La especificación de la precisión con
que habrían de construirse las piezas
resultó menos problemática de lo que
temíamos al principio. Bromley y
TEMAS 4
4. PARA LA CONSTRUCCION del Ingenio de diferencias n.o 2
fue preciso resolver ciertos problemas de ingeniería. Los técnicos del Museo de la Ciencia construyeron en 1989 parte del
mecanismo de cómputo (a la izquierda) con el fin de comprobar
Wright midieron piezas tomadas del
Ingenio de diferencias n.o 1; compro­
baron que Clement conseguía que las
piezas repetidas coincidieran con un
margen de 35 a 50 milésimas de milí­
metro, en contradicción con el habitual
prejuicio de que la ingeniería mecá­
nica de mediados del siglo pasado no
alcanzaba la precisión suficiente para
construir los artilugios de Babbage.
Adoptamos las normas de la ingeniería
moderna, sabiendo que no superaban
los límites de lo que los artesanos del
siglo xix podían conseguir. El proceso
de preparación de los 50 planos mecá­
nicos nuevos requirió unos seis
meses.
Estábamos decididos a firmar un
contrato de construcción y montaje a
precio fijo, para no repetir la triste
historia de Babbage y echar dinero en
un saco sin fondo. El Museo de la
Ciencia y la compañía especializada
llegaron a un acuerdo; pero en junio de
1990, a punto de firmarse el contrato
definitivo, la compañía quebró. A
menos que lográsemos concretar los
pedidos a nuestros proveedores antes
de que terminase la jornada comercial
del día siguiente incurriríamos en
penalización por demora y tendríamos
que embarcarnos en otra ronda de
negociaciones, que comprometería
nuestra meta de tener concluido el
proyecto a tiempo para el bicentenario
de Bab­b age. A mediodía del día 8,
Crick y Holloway eran ya empleados
del Mu­seo. Nos pasamos ese día sus­
cribiendo frenéticamente pedidos de
piezas y esbozando contratos.
Cumplimos por minutos.
El Ingenio de diferencias n.o 2 se
construyó a la vista del público en el
Museo de la Ciencia. Las tareas de
MÁQUINAS DE CÓMPUTO
el correcto diseño del elemento sumador básico. Construyeron
asimismo 210 complicadas palancas de bronce (a la derecha,
sobre el plano que detalla su construcción) necesarias para el
mecanismo de acarreo.
ajuste y montaje comenzaron en
noviembre de 1990 y quedaron con­
cluidas en mayo del año siguiente. El
ingenio se convirtió en la pieza cen­
tral de la exposición que, dedicada a
Babbage, se abrió al público el 27 de
junio de 1991. Incluso entonces nos
tuvo con el alma en vilo. El Ingenio
de diferencias n.o 2, con sus tres tone­
ladas de peso, no había realizado aún
ni un solo cómputo completo; se blo­
queaba sin cuento. Pusimos a punto
técnicas de depuración para localizar
la fuente de los atascos y continua­
mos trabajando en la máquina
durante la exposición. En noviembre
de 1991, un mes antes de cumplirse
el bicentenario del nacimiento de
Babbage, la máquina completó por
primera vez un cálculo a plena escala.
Produjo los 100 primeros valores de
la tabla de potencias de 7 y ha funcio­
nado sin el menor fallo desde enton­
ces. El ingenio acabó costando menos
de 300.000 libras (unos 50 millones
de pesetas).
L
os historiadores de la técnica han
debatido si las estrictas normas de
precisión exigidas por Babbage resul­
taban necesarias. Se ha señalado que
se construyeron ingenios mucho más
burdos, que dieron buenos resultados.
Georg y Edvard Scheutz, padre e hijo,
inspirados por una descripción del tra­
bajo de Babbage, construyeron tres
ingenios de diferencias, de diseño pro­
pio en su mayor parte. El primero de
los tres, terminado en 1843, tenía un
bastidor de madera y en su construc­
ción utilizaron sencillas herramientas
de mano y un torno rudimentario. A
pesar de su tosquedad, la máquina de
los Scheutz funcionó satisfactoria­
mente ante la Real Academia de
Ciencias de Suecia.
Pero los ingenios de diferencias de
Babbage eran mayores y más refina­
dos. La experiencia que nosotros
adquirimos mientras construíamos el
Ingenio de diferencias n.o 2 subraya la
importancia de la adopción de estric­
tas normas de calidad. Esperábamos
que las piezas repetidas, construidas
con máquinas herramientas computa­
rizadas, serían lo bastante idénticas
como para que fuesen intercambia­
bles. Sin embargo, resultó necesario el
retoque fino de los componentes hasta
las centésimas de milímetro, sobre
todo para que el mecanismo de acarreo
funcionase. La insistencia de Babbage
en que las piezas fuesen de la máxima
precisión se fundaba en sólidos princi­
pios de ingeniería.
BIBLIOGRAFIA COMPLEMENTARIA
Charles Babbage: Pioneer of the Computer. Anthony Hyman. Princeton University Press, 1982.
D iference and A nalytical E ngines .
Allan G. Bromley en Computing before
Computers. Dirigido por William Aspray. Iowa State University Press,
1990.
Glory and Failure: The Difference Engines of Johann Müller, Charles Babbage and Georg and Edvard Scheutz.
Michael Lindgren. MIT Press, 1990.
Charles Babbage and His Calculating
Engines. Doron Swade. Science Museum, Londres, 1991.
A Modern Difference Engine: Software
Simulators for Charles Babbage’s
Difference Engine No. 2. James Donnelly. Armstrong Publishing Company,
1992.
33
El computador del Dr. Atanasoff
Allan R. Mackintosh
La paternidad del ordenador electrónico digital
se ha atribuido erróneamente durante mucho tiempo.
Tal honor corresponde al físico John V. Atanasoff, otrora olvidado
L
a historia hizo justicia por fin a
John V. Atanasoff. Tras decenios de oscuro anonimato, este
profesor jubilado de física comenzó a
recibir a los 84 años el reconocimiento
de las ciencias del cómputo por algo
que realizó casi medio siglo antes: la
invención de la primera computadora
digital electrónica. Hasta hace poco los
textos de historia de la informática
atribuían a otros ese logro.
En tales relatos se afirma que los
ordenadores actuales tuvieron sus orígenes en el decenio de 1930 y en los
primeros años cuarenta, época en que
abundaron los intentos independientes y enfrentados para automatizar,
acelerar y, en general, eliminar el fastidio y la monotonía de los procesos de
cálculo largos. Así, por ejemplo, Van­ne­
bar Bush, del Instituto de Tecno­logía
de Massachusetts, acabó en 1932 una
computadora mecánica que efectuaba
cálculos por medio de engranajes y ejes
giratorios. El alemán Konrad Zuse,
George R. Stibitz, de los La­bo­ratorios
Bell Telephone, y Howard H. Aiken,
de la Universidad de Harvard (este
último con la colaboración de la
International Business Machines
Corporation, IBM) desarrollaron,
hacia finales de los años treinta y cada
uno por su parte, ordenadores “electromecánicos”, en los que se utilizaban
relés para la representación de los
números. Las posiciones “cerrado” y
“abierto” de los contactos del relé
representaban los dígitos 0 y 1 del
ALLAN R. MACKINTOSH es profesor
de física experimental del estado sólido
de la Universidad de Copenhague y dirige nordita , instituto escandinavo
dedicado al estudio de la física teórica.
Empezó a interesarse por la historia de
Atanasoff en 1983, durante una visita
a la Universidad estatal de Iowa; desde
entonces ha estudiado a fondo las primeras etapas históricas de los ordenadores electrónicos.
34
sistema de numeración binaria, cuya
base es 2. (A diferencia del sistema de
numeración normal, de base 10 y que
para expresar los números se vale de
los dígitos 0 al 9, en el sistema binario
los números se representan me­diante
combinaciones de ceros y unos.)
En esos mismos textos se afirma
luego que las primeras computadoras
electrónicas se inventaron a mediados
de los años cuarenta. A diferencia de
sus predecesoras mecánicas o electromecánicas, las computadoras elec­
trónicas operan con dispositivos electró­
nicos fundamentalmente: válvulas
termoiónicas, transistores y, en nuestros días, microcircuitos; son los electrones y no las piezas del ordenador
los que realizan casi todos los movimientos. Suele considerarse que la
primera de esas máquinas fue
Colossus, construida por los matemáticos Alan M. Turing y M. A. H.
Newman y sus co­legas del Bletchey
Research Esta­blishment, en Inglaterra.
Colos­sus entró en servicio hacia 1943
y contribuyó a descifrar el código
“Enigma” de los alemanes, lo que pesó
decisivamente en el curso de la
Segunda Gue­rra Mundial. El Electronic
Numerical Integrator and Computer,
eniac, se considera el segundo ingenio.
Fue construido por John W. Mauchly
y J. Presper Eckert y sus colaboradores de la Universidad de Pennsylvania
y entró en servicio hacia 1945.
En realidad, entre 1937 y 1942, bastante antes de concebirse ninguna de
las impresionantes e importantes
máquinas mencionadas, Atanasoff
había diseñado y fabricado dos ordenadores electrónicos menores. El primero fue prototipo de otro mayor que
ha dado en denominarse AtanasoffBerry Computer o, brevemente, abc.
Berry era Clifford E. Berry, discípulo
de Atanasoff e íntimo colaborador suyo
desde 1939 hasta 1942.
El tardío reconocimiento del logro
de Atanasoff no es fruto de una investigación académica, sino el resultado
incidental de un litigio jurídico que dio
comienzo en 1967 entre la Sperry
Rand Corporation y Honeywell, Inc.
Sperry había comprado la patente del
eniac y cobraba derechos de licencia a
otros fabricantes de ordenadores electrónicos. Honeywell se negó a pagar y
Sperry la demandó; por su parte
Honeywell demandó a Sperry por violación de la legislación antimonopolio
y por tratar de imponer una patente
inválida.
H
oneywell sostenía que la patente
no era válida porque, al preparar
el contencioso contra Sperry, sus abogados habían tropezado con una mención a Atanasoff. Cuando le localizaron,
Atanasoff, que no había par­ti­cipado en
la construcción del eniac ni conocía su
funcionamiento en detalle, comparó la
máquina con la suya propia. Se percató de que ciertas partes de la patente
del eniac (que cubrían esencialmente
todos los aspectos de la computación
electrónica) se deducían del abc y de
la información que había compartido
con Mauchly a principios de los años
cuarenta.
El testimonio de Atanasoff hizo
mella en el juez Earl R. Larson, de la
Audiencia Territorial de Minneapolis,
quien sentenció el 19 de octubre de
1973 que la patente del eniac era inválida. Según los considerandos de la
sentencia, “Mauchly y Eckert no
in­ventaron por sí mismos el ordenador
digital electrónico automático, sino
que obtuvieron la materia objeto de
litigio de un tal Dr. John Vincent Ata­
nasoff”. Tanto durante la vista como
posteriormente Mauchly se negó a
admitir que hubiera aprendido nada
importante de Atanasoff. La viuda de
Mauchly, Eckert y otras personas
siguen compartiendo esa opinión pero,
a mi juicio, los testimonios prestados
durante la vista contradicen lo sostenido por Mauchly.
La decisión de Larson, que Sperry
aceptó sin apelar, no trajo fama inmeTEMAS 4
diata a Atanasoff, debido en parte a
que los medios de información norteamericanos se encontraban a la sazón
inmersos en el escándalo del Wa­tergate,
que obligaría a dimitir al presidente
Richard M. Nixon. El reconocimiento
de la importancia de las contribuciones realizadas por Ata­nasoff se fue
difundiendo lentamente por la comunidad científica y hoy ya se acepta que
Atanasoff fue el primero que diseñó y
construyó un ordenador electrónico
digital. Ese reconocimiento se debe en
buena medida a los esfuerzos de Arthur
W. Burks, quien participó en el desarrollo del eniac, y de su esposa Alice.
Ambos investigaron a fondo el trabajo
de Atanasoff en el abc y lo describieron
—junto con el juicio sobre la patente—
en un artículo que tuvo mucha repercusión. Poste­rior­mente escribieron un
libro sobre el asunto.
La senda que lleva hasta el ordenador Atanasoff-Berry se inició cuando
Atanasoff preparaba el doctorado en
física teórica por la Universidad de
Wisconsin, en Madison, a finales de los
años veinte. Su tesis sobre la estructura electrónica del helio requería
laboriosos cálculos, que duraban semanas con una de las calculadoras de
sobremesa de la época, lo que le hizo
soñar con un método de cómputo más
automatizado. Continuó dándole vuel-
1. COMPUTADORA ABC (Atanasoff-Berry Computer), construida entre 1937 y 1942 por Atanasoff, a la sazón profesor de física
del Colegio estatal de Iowa (que pasó luego a ser universidad),
con ayuda de su alumno Clifford E. Berry. abc no fue el primer
ordenador digital; le precedieron varias máquinas que manipulaban números directamente en lugar de representarlos mediante magnitudes físicas. Sí fue, sin embargo, el primero que utilizó
MÁQUINAS DE CÓMPUTO
tas a la idea después de doctorarse en
1930 y de comenzar su actividad
docente en el Colegio estatal de Iowa
(que sería el embrión de una futura
universidad).
A
tanasoff siguió reflexionando va ­rios años sobre el modo de lograr
tal automatismo. Al acabar 1937 tenía
ya establecidos algunos principios
generales. Por ejemplo, había determi­
nado que la función de memoria, esto
es, el almacenamiento de datos, tenía
que ser independiente de la función de
cálculo y que el método de cómputo
habría de ser digital y no analógico; la
máquina debería expresar los núme-
la electrónica (en forma de válvulas termoiónicas) para hacerlo
funcionar y abordar operaciones aritméticas; abajo, a la derecha,
se distinguen algunas de esas válvulas. Presentaba otra novedad:
los elementos de cómputo estaban separados de los elementos de
memoria. Estos se realizaban mediante condensadores montados
en los grandes tambores de la parte trasera. Las bandejas situadas a la izquierda son lectoras de tarjetas perforadas.
35
era que los condensadores tienden a
descargarse solos. En su situación
relajada, Atanasoff dio con la idea de
regenerar la memoria, proceso al que
llamó “jogging” (“refresco”). Habría que
regenerar la carga del condensador, de
tal modo que si se encontraba, pongamos por caso, en estado 1, permaneciera así, sin alterarse con el tiempo ni
degradarse a 0.
Tras llegar a esas conclusiones,
rememoró Atanasoff, “avanzada la
noche volví al automóvil y regresé a
casa con más calma”.
Los ordenadores modernos siguen
manipulando dígitos binarios almacenados electrónicamente de acuerdo
con las reglas de la lógica y separan
las funciones de cómputo y de memoria
(regenerativa); vale la pena, pues, examinar con más detalle aquellas primeras decisiones de Atanasoff. ¿Por qué,
por ejemplo, es preferible para la computación una máquina digital a otra
de tipo analógico?
2. ATANASOFF durante la celebración de su octogésimo aniversario, en 1983, en la
Universidad estatal de Iowa. En primer plano aparece un tambor de memoria del
abc, el único componente importante de su máquina que ha sobrevivido. Cada anillo
de condensadores del tambor almacenaba un número de hasta 50 dígitos binarios,
corrientemente llamados bits. El tambor almacenaba 1500 bits.
ros con dígitos y no por analogía con
una magnitud física, como la distancia
sobre la corredera de una regla de
cálculo. Atanasoff tanteó también la
idea de calcular en bases de numeración distintas de 10. Sin embargo, y
según sus propias palabras, las ideas
no parecían “cuajar” ni veía ninguna
salida. Por fin una noche de aquel sombrío invierno Atanasoff realizó varios
avances decisivos.
La velada no había empezado muy
prometedora, sino todo lo contrario.
Atanasoff se sentía tan frustrado que
abandonó el laboratorio, se subió al
co­che y se puso a conducir a gran veloci­
dad, saliendo de la ciudad hacia el este.
Trató de concentrarse en la carretera
para distraerse de las preocupaciones.
Horas después se encontraba a unos
300 kilómetros, en el estado de Illinois,
y se detuvo en un establecimiento muy
iluminado a tomar una copa.
“Hacía un frío espantoso. Me quité
el abrigo”, rememoró en su testimonio
judicial. “Llevaba un abrigo muy
pesado; lo colgué, me senté y pedí una
bebida; mientras me la preparaban me
di cuenta de que ya no estaba tan nervioso y volví a pensar en las máquinas
de cómputo.”
“Ahora bien, sin saber por qué, mi
mente empezó a funcionar entonces,
cuando no había querido hacerlo an­tes;
36
todo estaba en orden, el lugar era tranquilo y agradable; sospecho que tal vez
había tomado un par de copas.
Entonces me di cuenta de que fluían
los pensamientos y de que disponía de
algunos resultados positivos.”
¡Y tan positivos! Para realizar las
funciones de control y de cálculo aritmético de su computadora Atanasoff
decidió utilizar conmutadores electrónicos (dispositivos electrónicos que
dirigen el flujo de las señales eléctricas) en vez de mecánicos. En este
punto fue un auténtico pionero. Nin­
guna de las máquinas concebidas
hasta entonces para resolver problemas matemáticos complejos se había
basado en elementos electrónicos.
También decidió que su máquina
digital manipularía números binarios
y que operaría con ellos según las
reglas de la lógica y no por recuento
directo (véase la figura 5). Esa misma
tarde Atanasoff resolvió un problema
específico relativo al almacenamiento
de números en base 2. Había considerado ya antes la posibilidad de utilizar
condensadores, que son dispositivos
capaces de almacenar carga, para desempeñar el papel de memoria del
ordenador. Por ejemplo, una carga
positiva en uno de los bornes del condensador representaría el número 1 y
la ausencia de carga el 0. El problema
S
e valorará mejor la finura intelectual de Atanasoff en este punto si
se compara el abc con el analizador
diferencial de Bush, la computadora
científica más avanzada de aquella
época. De naturaleza esencialmente
mecánica, el analizador era además
una computadora analógica; en ella,
los resultados quedaban representados por la rotación de un eje.
Los ordenadores analógicos tienen
muchas aplicaciones, pero como proceden por medición de magnitudes y no
por operaciones sobre números, se produce una pérdida de precisión inevitable. A la computadora digital de
Atanasoff no le resultaba difícil conseguir una precisión mil veces mayor que
la posible con el analizador diferencial.
Y también era fácil aumentarla más
todavía, añadiendo dígitos, si se requería. En el caso de las computadoras
analógicas el aumento de precisión es
difícil y superlativamente caro.
Pensemos, por ejemplo, que para
incrementar la precisión de una regla
de cálculo en un factor de 10 sería
preciso aumentar su longitud en la
misma proporción.
La computación digital de nuestros
días se funda en el sistema binario. Es
evidente que no fue Atanasoff el único
en pensar así, pues las computadoras
electromecánicas solían ser binarias,
pero sí fue el primero en atinar con un
medio electrónico de manipulación de
los dígitos binarios. ¿Qué aspecto tiene
un número escrito en base 2? En base
10, cada dígito del número representa,
de derecha a izquierda, cierto número
de unidades, decenas, centenas, millares, etcétera. Así, la cifra 237 repreTEMAS 4
senta en realidad 2 veces 102, más 3
veces 101, más 7 veces 100 (cualquier
número, elevado a potencia 0 es igual
a 1). En base 2, cada dígito binario
(brevemente, bit) representa cierto
número de unos, doses (21), cuatros
(22), ochos (23) y así sucesivamente. Por
consiguiente, el número denario 237 se
representaría en base 2 como 11101101;
contando de izquierda a de­recha, el
número “contiene” sendas uni­dades de
27 (128 en el sistema denario), de 26
(64), 25 (32), 23 (8), 22 (4) y 20 (1) y
ninguna unidad de 24 ni de 21.
Como es natural, el sistema de base
2 resultaría poco práctico para un uso
cotidiano. Mas por hallarse representados todos los números mediante 0 y
1, ofrece la decisiva ventaja de permitir a los programadores la representación de cualquier número mediante
una serie de elementos que se encuentren en uno de dos estados o modos:
estados de carga o descarga de los condensadores de Atanasoff, o las magnetizaciones hacia “arriba” o hacia
“abajo” de un disco magnético.
Tras considerar diversas alternativas (válvulas termoiónicas y materiales ferromagnéticos, que permiten
modificar las orientaciones de diminutos imanes elementales mediante campos magnéticos), Atanasoff decidió
almacenar los dígitos binarios en condensadores. Optó por ellos por razones
económicas, al ser bastante baratos, y
porque podrían enviar sus señales a la
unidad de cómputo sin necesidad de
amplificación. Tanto esta decisión
como la solución que dio a la recarga
de los dispositivos de memoria siguen
aplicándose en la computación contemporánea. En nuestros días los condensadores son parte crucial de los
microcircuitos que componen las
memorias dinámicas de los ordenadores modernos y el “refresco” ideado por
Atanasoff reviste vital importancia
para su funcionamiento.
Decidió construir la caja negra
valiéndose de válvulas termoiónicas.
Las válvulas recibirían señales procedentes de los condensadores de las
memorias, a las que bautizó con los
nombre de ábaco de teclado y ábaco
contador, por analogía, respectivamente, con las teclas y el carro móvil
—el contador— de las calculadoras
mecánicas de sobremesa utilizadas en
aquella época. Las válvulas recibirían
asimismo señales procedentes de otros
condensadores que almacenarían los
dígitos de arrastre (los que se “llevan”
al ir sumando o restando). “Tras haber
sido instruido por una persona provista de un soldador”, el circuito lógico
procedería a elaborar la respuesta
correcta y a reemplazar el contenido
del contador con el resultado. La operación de las válvulas electrónicas
sobre la información sería tan rápida
que podría encargárseles que sumasen
o restasen repetidamente los diversos
dígitos de dos números cualesquiera
almacenados en los ábacos. En nuestros días, los circuitos lógicos están
empaquetados en pastillas diminutas
(“chips”), muchísimo más céleres que
las válvulas termoiónicas; pero realizan, en esencia, las mismas funciones
que les asignó Atanasoff.
¿Qué ha sido de su otra gran decisión,
a saber, la de separar las funciones de
memoria y de procesamiento? También
ese legado pervive. Los ordenadores
modernos, como pueda ser un microordenador de sobremesa, poseen tres elementos distintos: el sistema de entrada/
salida, que comprende el te­clado, la
pantalla de visualización y la impresora (Atanasoff optó por que la entrada
y la salida se efectuasen mediante tarjetas perforadas, utilizadas ya en las
E
l descubrimiento de un método
para conservar los datos en condensadores resultó decisivo, pero quizá
el máximo logro de Atanasoff fuese el
desarrollo de un complejo conmutador
electrónico: el circuito lógico.
Hallándose en el hostal de Illinois imaginó dos unidades de memoria, dos
ábacos, como los llamó. Concibió entonces (son sus palabras) una “caja negra”
—el circuito lógico— en la que penetrarían los números alojados en la
memoria; basándose en reglas lógicas
materializadas en el montaje, la caja
negra produciría los resultados
correctos de una adición o de una sustracción de los números y los presentaría por los terminales de salida.
MÁQUINAS DE CÓMPUTO
3. PROTOTIPO DEL ABC, construido en 1939 para poner a prueba dos ideas fundamentales. Atanasoff proyectaba recargar, es decir, regenerar, constantemente los
condensadores de memoria, para que no perdieran su carga de modo impredecible.
También planeó realizar los cálculos por medio de circuitos lógicos, esto es, sistemas
de válvulas termoiónicas capaces de sumar o restar números binarios según reglas
lógicas y no por recuento. El prototipo constituyó un éxito. Una vuelta del disco de
memoria (rueda rosa), cuyos condensadores almacenaban por cada lado un número
binario de 25 dígitos, determinaba que el único circuito lógico sumase o restase el
número almacenado en una de las caras del disco al número de la otra cara. Mientras
el circuito calculaba (almacenando o recobrando en el proceso los dígitos de arrastre positivo o negativo de un condensador encargado del arrastre o acarreo), el
circuito regenerador refrescaba la memoria.
37
calculadoras de su tiem­po); en segundo
lugar, la unidad central de proceso, que
realiza las operaciones de control y el
proceso de los datos; y por último la
memoria, que consta de componentes
internos y ex­ternos (unidades de disco,
por ejemplo).
A
tanasoff estaba convencido de
haber hallado los principios
correctos de la computación electrónica, pero sabía perfectamente que
llevarlos a la práctica exigiría un gran
esfuerzo. En ese empeño le ayudó
Berry, cuya obsesión por el tema no
era inferior a la del propio Atanasoff.
Este recordaría luego que, aun es­tando
ambos muy ocupados, ni una sola vez
les faltó tiempo para la computadora:
“Teníamos el corazón puesto por completo en esa aventura”, dijo.
Comenzaron por construir un proto­
tipo en miniatura para poner a prueba
los elementos esenciales de la concepción de Atanasoff: los circuitos de
lógica electrónica y la memoria binaria
regenerativa. Se dieron prisa en la
tarea. El prototipo se encontraba listo
en octubre de 1939.
Portaba dos ábacos de memoria,
montados en las dos caras de un disco
de plástico (baquelita). Cada ábaco
constaba de 25 condensadores; tenía,
por consiguiente, capacidad para
albergar un número binario de 25
ci­fras, el equivalente de un número
de­cimal de ocho. Atanasoff y Berry
in­troducían los números binarios en
los ábacos cargando a mano los con­
den­s adores que representaban el
nú­m ero 1 y dejando sin cargar los
co­rres­pon­dientes al 0. Al pulsar un
4. COMPONENTES DEL ABC, diseñado para que la máquina
resolviera sistemas de 29 ecuaciones lineales, cada una con
29 in­cógnitas, de x1 a x29. Tales ecuaciones pueden resolverse
sumando (o restando) repetidamente una ecuación de otra,
hasta que se elimina una de las incógnitas. Se repite el proceso hasta obtener la solución, esto es, los valores de todas las
incógnitas. Para llevar a cabo tales operaciones, el abc leía los
coeficientes de las incógnitas (como el 2 del término 2x1) en
tarjetas previamente perforadas, las traducía a base 2 y cargaba los coeficientes de una ecuación en el tambor “teclado” de
38
interruptor, el disco daba una vuelta
y el circuito de lógica electrónica,
dotado de ocho válvulas termoiónicas,
leía los números de los ábacos. Con
ayuda de un condensador que alojaba
los dígitos de acarreo, el circuito procedía a sumar los números y depositaba la suma en el ábaco designado
como contador, donde se leía manualmente. Al pro­pio tiempo, un circuito
de regeneración refrescaba el número
del ábaco teclado.
El prototipo no era una computadora impresionante, claro está; el viejo
sistema de lápiz y papel corría más.
Pero venía a ser ya, comparado con la
actual computación electrónica, lo que
el aeroplano de los hermanos Wright
a la aeronáutica de nuestros días. Al
poner de manifiesto la viabilidad de
los principios ideados por Atanasoff, el
la memoria, mientras que los coeficientes de la otra se cargaban
en el tambor “contador” . En cada rotación de los tambores, los
circuitos lógicos (a razón de siete válvulas por circuito) sumaban o restaban un par de coeficientes y situaban el resultado
en el contador. Al mismo tiempo, los circuitos de regeneración
de la memoria recargaban los condensadores del tambor teclado. Cuando el abc eliminaba una variable designada, la máquina almacenaba los números restantes de la ecuación en tarjetas perforadas, para utilizarlos posteriormente. (Los dibujos
del artículo son obra de George Retseck.)
TEMAS 4
prototipo inició el camino que conduce
al ordenador moderno.
Lo tenía ya todo para construir el
abc , cosa que ocurrió entre 1939 y
1942. La máquina fue proyectada para
realizar a gran escala una tarea computacional específica, muy frecuente
en ingeniería y en física: la resolución
de sistemas de ecuaciones lineales.
Ejemplo de tales ecuaciones es el par
2x + 5y = 9 y x + 2y = 4, siendo x e y las
incógnitas. Llamemos a a la primera
ecuación y b a la segunda.
Como sin duda recordarán quienes
hayan estudiado los principios elementales del álgebra, los sistemas de
ecuaciones pueden resolverse por un
método sistemático llamado reducción
escalonada por filas, o método de
re­ducción de Gauss, que viene a consistir en sumar o restar dos ecuaciones
hasta que se anula el coeficiente de
una de las incógnitas y, por consiguiente, ésta desaparece. En el ejemplo que nos ocupa, al restar por dos
veces sucesivas a de b, el coeficiente 2
del término 2x se reduce a 0, quedando
así la ecuación y = 1. Al sustituir y por
1 en la ecuación a de partida resulta
x = 2. Fijémonos en que el proceso de
res­tar por dos veces b de a equivale al
de multiplicar b por 2 y restarla de a
una vez; después de todo, la multiplicación no es más que una repetición de
sumas.
P
or supuesto que Atanasoff tenía
puestas sus miras en un problema
más complejo: pretendía resolver un
sistema de n ecuaciones con n incógnitas; en concreto, de 29 ecuaciones con
29 incógnitas, x1 a x29. La solución de
tales sistemas obedece al mismo
esquema que el ejemplo anterior: se
toman dos ecuaciones (sean, por ejemplo, 2x1 + 5x2 – 3x3 + 7x4 + ... + 6x29 =
9 y x1 + 2x2 + 4x3 – 2x4 + ... + 8x29 = 4)
y se le resta a una de ellas un múltiplo
de la otra hasta que se elimine una de
las incógnitas. Para eliminar x1, pongamos por caso, habría que multiplicar
la segunda ecuación por 2 y restarla
de la primera, con lo que se obtendría
la ecuación x2 – 11x3 + 11x4 + ... – 10x29
= 1, llamada la eliminante.
Repitiendo el proceso con pares de
ecuaciones diferentes se generan 28
ecuaciones de las que se ha eliminado
la incógnita x1. La iteración del procedimiento con estas 28 ecuaciones permite obtener otras 27 ecuaciones desprovistas de las incógnitas x1 y x2; se
prosigue así hasta dejar solamen­te
una ecuación con una incógnita.
Llegados a este punto se rehace el
camino en sentido inverso por la serie
de ecuaciones hasta determinar el
valor de todas las incógnitas.
MÁQUINAS DE CÓMPUTO
Se trata de un método directo y
sencillo, pero que requiere una gran
cantidad de cálculos aritméticos. Ata­
nasoff estimó, muy sensatamente, que
la resolución de un sistema de 29 ecuaciones con 29 incógnitas con una de las
clásicas calculadoras de sobremesa
llevaría unas diez semanas de penoso
afán, capaz de aturdir a la mente más
despierta; consideraba, en cambio, que
su ingenio realizaría la tarea en una
semana o dos.
Al objeto de llevar a la práctica su
propósito de resolver sistemas de
muchas ecuaciones, situó los ábacos
teclado y contador sobre grandes tambores, en lugar de sobre un disco. Cada
tambor contenía 30 números binarios,
especificados cada uno con precisión
de hasta 50 dígitos.
La máquina abc efectuaba la eliminación de Gauss correspondiente a dos
ecuaciones cada vez. Los coeficientes
de las mismas, previamente perforados
en tarjetas en notación decimal, se
pasaban a base 2 mediante un tambor
especialmente diseñado al efecto y se
almacenaban en la memoria. En el
tambor contador se guardaban los
coeficientes de una de las ecuaciones y
en el tambor teclado los coeficientes de
la otra. En cada revolución completa de
los tambores, que tardaba un segundo,
los circuitos lógicos efectuaban una adición o una sustracción de los dos conjuntos de coeficientes. En particular,
uno de los circuitos lógicos, que constaba ahora de siete válvulas, sumaba o
restaba el coeficiente de x1, pongamos
por caso, depositando la suma o la diferencia en el contador. Al propio tiempo,
los otros circuitos procesaban igualmente los otros pares de coeficientes.
(Esta tarea, mediante la cual se realizan simultánea y paralelamente cierto
número de operaciones idénticas, se
conoce por operación vectorial; los ordenadores que las realizan se denominan
procesadores vectoriales.) A la par,
otros circuitos repasaban el ábaco
teclado y refrescaban la memoria.
Posteriormente, una vez realizadas
múltiples adiciones y sustracciones y
eliminado un coeficiente determinado,
la abc perforaba en notación binaria
el conjunto de coeficientes restantes
(la eliminante) sobre tarjetas, que se
guardaban hasta su requerimiento en
una etapa posterior, en la que una
lectora de tarjetas binarias transfería
a la memoria la información que contenían. Calculadas todas las incógnitas en forma binaria, la lectora de tarjetas decimales funcionaba a la
inversa, al objeto de traducir los datos
binarios en números ordinarios.
El sistema de entrada y salida
mediante tarjetas perforadas funcionó
correctamente en los primeros ensayos; sin embargo, al incorporarlo al
abc producía un error cada diez mil
operaciones de perforación o de lectura
aproximadamente. Así no podrían
manejarse satisfactoriamente grandes
sistemas de ecuaciones (es decir, sin
tener que efectuar amplias comprobaciones y repeticiones de los cálcu­los),
si bien los sistemas pequeños podrían
resolverse sin dificultad. Atanasoff y
Berry estaban tratando de resolver ese
problema relativamente sencillo
cuando la Segunda Guerra Mundial
les obligó a abandonar los trabajos
sobre el ordenador. Berry pasó a ocupar un puesto que retrasaba su incorporación a filas y Atanasoff fue destinado al Naval Ordnance La­boratory,
de la Marina de los Estados Unidos.
Suele tomarse por incompleta la
computadora que hubieron de abandonar. Más exacto sería definirla como
un ordenador capaz de funcionar, aunque falible, cuya sección de computación electrónica —los circuitos lógicos— constituyó un gran éxito. Habida
cuenta de la celeridad con que se proyectó y construyó el abc, puede aventurarse que el problema surgido en el
sistema de tarjetas binarias se habría
solventado rápidamente. Es más,
podría haber funcionado con un sistema de entrada/salida desarrollado
muchos años antes por IBM y que
luego se incorporó al eniac. Además,
de haber tenido ocasión de exhibir la
potencia del ordenador, Atanasoff
habría recibido el apoyo económico
necesario para rematar el proyecto.
Si él y Berry hubieran tenido la posibilidad de continuar su proyecto, a
buen seguro el abc hubiera estado en
pleno servicio en 1943. Pero sufrió, por
contra, la suerte de casi todos los equipos envejecidos: víctima del canibalismo, sus piezas se aprovecharon para
otros fines y terminó desguazado sin
enterarse Atanasoff.
S
i el abc permaneció durante tanto
tiempo en el olvido, ¿cómo han
influido las ideas de Atanasoff en las
ciencias de cómputo modernas? La respuesta apunta hacia Mauchly y tiene
que ver también con la introducción de
las innovaciones de Atanasoff en el
eniac. El eniac difería considerablemente de la computadora abc. Fue el
primer ordenador electrónico de aplicación general, mientras que el abc se
había diseñado como máquina especializada en una sola tarea. (El eniac
podía programarse para abordar problemas distintos modificando en
debida forma las interconexiones de
un panel de control.) La máquina de
Mauchly y Eckert era mucho mayor
39
24
(16)
24
(8)
24
(4)
24
(2)
24
(1)
DATO EN CONTADOR
1
0
0
1
1
(19)
TECLADO
0
1
0
1
1
(+11)
SALIDA EN CONTADOR
1
1
1
1
0
(=30)
ACARREO A LA
COLUMNA SIGUIENTE
0
0
0
1
1
0
a
que la de Atanasoff; utilizaba millares
de válvulas, no sólo unos pocos centenares, y era mucho más rápida, pues
su memoria, que también era electrónica, no dependía de tambores giratorios. Además el eniac calculaba por
recuento directo y no por medios lógicos; cálculos que efectuaba en base
10.
Sin embargo salta a la vista que
Mauchly y Eckert incorporaron al
eniac los elementos básicos de la computación electrónica digital ideados
por Atanasoff y que hicieron lo mismo
en una computadora posterior, la
edvac. Lo más obvio es que la eniac y
la edvac se valían de conmutación
electrónica para gobernar el funcionamiento de la computadora; la edvac,
por su parte, utilizaba también circuitos lógicos para realizar las operaciones aritméticas, que se efectuaban en
base 2; asimismo recurría a la memoria regenerativa. Mauchly recibió también de Atanasoff la idea de que la
electrónica digital posibilitaría la
construcción de una máquina que efectuase cálculos con mayor velocidad y
precisión que el analizador diferencial
de Bush.
b
SALIDA
ENTRADA
CONTADOR
TECLADO
ACARREO
CONTADOR
ACARREO
0
0
0
0
1
1
1
1
0
0
1
1
0
0
1
1
0
1
0
1
0
1
0
1
0
1
1
0
1
0
0
1
0
0
0
1
0
1
1
1
c
CONTADOR
10011
(19)
0
1
1
1
1
(=30)
TECLADO
01011
(+11)
DIGITOS
DE REMPLAZO
A
ACARREO
0
DIGITOS
DE REMPLAZO
1
1
0
0
0
CIRCUITO LOGICO
1+1+0
1+1+1
0+0+1
0+1+0
1+0+0
5. CADA CIRCUITO LOGICO de la abc sumaba dos números por vez, como los que
vemos en este ejemplo (a), de acuerdo con las reglas establecidas en una tabla (b).
Supóngase que deban sumarse el equivalente del número 19, situado en el contador,
con el equivalente del 11, en el teclado. Tras convertir los números al sistema de
numeración binaria, que los expresa en combinaciones de potencias de 2 (como 20,
21, 22, 23, o sea, 1, 2, 4, 8) los sumandos se escribirían 10011(16 + 0 + 0 + 2 + 1) y 01011
(0 + 8 + 0 + 2 + 1). El circuito lógico operaría sobre esos números sumando en primer
lugar los situados en la columnas de la derecha (20). Para hacerlo, determinaría que
la configuración de los dígitos de las memorias contador, teclado y arrastre (a saber,
1, 1, 0) coincidían con la antepenúltima línea de la sección “entrada” de la tabla. (El
dígito de arrastre inicial siempre es 0.) A partir de la correspondiente sección de
“salida”, el circuito procedería entonces (c) a enviar un 0 (negro) al contador (donde
se registraban los resultados), que remplazaría el 1 que allí estaba situado. También
se enviaría un 1 (rojo) a la memoria designada para el arrastre o acarreo. El procedimiento equivale a determinar por recuento que 1 más 1 es igual a 2 y que el
nú­me­ro 2, escrito en base 2, es 10. A continuación el circuito sumaría de igual modo
los dígitos de las restantes columnas.
40
tanasoff, que hacia mayo de 1941
“sabía que podríamos construir
una máquina capaz de hacerlo casi
todo, en lo que a computación se
refiere”, decidió que el abc podía convertirse en un analizador diferencial
electrónico a raíz de que un colega del
Instituto de Tecnología de Massa­
chusetts (MlT) le comentara que los
investigadores de ese centro estaban
considerando la posibilidad de introducir elementos electrónicos en una
nueva versión del analizador. Ata­
nasoff le escribió a Mauchly sobre este
asunto; ambos analizaron pormenorizadamente la cuestión cuando Mau­
chly visitó a Atanasoff durante casi
una semana, en junio de 1941. Du­rante
aquella visita Atanasoff le mostró el
abc, que estaba casi listo para funcionar. Cuatro años más tarde, el eniac
hacía realidad el sueño de Atanasoff.
eniac y Colossus, que también era
programable, prepararon el camino al
paso siguiente del desarrollo del ordenador electrónico: la incorporación de
un programa residente en la memoria.
Este avance de los ordenadores de
aplicaciones generales simplificó su
programación y permitió que el programa actuase de distinto modo en
función de los resultados de los pasos
intermedios.
Desde que se introdujeron los primeros ordenadores de programa almacenado, a finales de los años cuarenta,
los computadores han multiplicado su
TEMAS 4
potencia y su velocidad. La estructura
no ha cambiado tanto, sin embargo. Se
adivina la impronta del pasado en los
usos a que se destinan algunos ordenadores. Así, por ejemplo, ha revivido
el interés por las computadoras para
aplicaciones especiales, sobre todo
entre los investigadores que tienen
problemas muy específicos que resolver. La verdad es que resulta asombrosa la semejanza entre el abc y una
computadora moderna para la resolución de sistemas de ecuaciones lineales
aunque, claro está, éstas son enormemente más veloces.
N
o cabe duda de que se hubiera
reconocido mucho antes la contribución de Atanasoff a la informática si
hubiera patentado sus trabajos. Como
señalan los Burk, pudo reclamar para
sí la noción misma de cómputo digital
electrónico, así como la conmutación
electrónica en los ordenadores, los circuitos para la adición y la sustracción
lógica, la separación de las funciones
de procesado y memoria, las memorias
de tambor de condensadores, la regeneración de la me­moria, la utilización
del sistema binario de numeración en
la computación, las unidades modulares, el procesamiento vectorial y el control sincronizado de las operaciones
electrónicas, entre otras innovaciones.
Afirmar que se hubiera tratado de
una de las patentes más importantes
jamás concedidas no sería más que
subestimar su trascendencia. Por desgracia, la confusión creada por la guerra y la ineficacia de las personas a
quienes se confió la obtención de una
patente impidieron que llegara a cumplimentarse una solicitud formal de
patente para ninguna de las innovaciones de Atanasoff. Tampoco él
emprendió los pasos necesarios para
obtenerla porque se le hizo creer que
el eniac se fundaba en principios muy
diferentes de los del abc y que tal
máquina constituiría el modelo de las
futuras computadoras, con lo que la
patente sobre cualesquier idea o dispositivo de la abc carecería de valor.
Por si fuera poco, estaba enfrascado en
otros proyectos y, más tarde, en fundar
su propia empresa de ingeniería.
Además de aclarar uno de los grandes logros de la técnica, la historia de
Atanasoff invita a unas cuantas
reflexiones sobre la investigación científica. De entrada, la suerte del inventor no es siempre ni fácil ni cómoda. A
pesar de sus muchos esfuerzos,
Atanasoff sólo logró reunir 6000 dólares para construir el abc, mientras que
la financiación del eniac contó con un
presupuesto de medio millón de dólares, dado su valor militar (entre otras
MÁQUINAS DE CÓMPUTO
funciones, con el eniac se prepararon
tablas de tiro para la artillería).
Invita también a pensar sobre la
crea­tividad científica. El gran avance
de Atanasoff en aquella noche invernal
de 1937 ilumina el proceso creativo con
notable claridad. Durante mucho
tiem­po estuvo luchando a brazo partido
con su problema, sufriendo de­cepciones
y sin apenas avanzar; pero su mente
continuaba absorbiendo y elaborando
información. Entonces, ha­l lándose
de­dicado a una actividad to­talmente
diferente, le llegó la solución.
Los profanos podrían muy bien considerar que los 300 kilómetros de carretera que Atanasoff hizo hasta llegar al
hostal no son más que un método estéril de echar un trago; en realidad, Ata­
nasoff sabía muy bien lo que hacía. Se
dio cuenta de que la mente necesita
va­riedad y descanso para funcionar
creativamente. Tras concebir ciertos
principios fundamentales, dejó que
entrase en juego “una especie de cognición”. Tal confianza en la intuición
puede no concordar con la noción común
de que la investigación científica es una
actividad estrictamente racional, pero
constituye un camino seguido por
muchos científicos e investigadores.
F
inalmente, no es coincidencia que
grandes progresos técnicos sean
obra de investigadores de temas básicos. La actividad científica suele
re­querir la invención de herramientas
nuevas y los investigadores, profundamente dedicados a la resolución de
problemas científicos, tienen motivos
poderosísimos para afrontar el reto.
Importa que comprendan con claridad
esa conexión entre ciencia y técnica
quienes defienden que puede limitarse
el apoyo a la investigación básica sin
que se frene el desarrollo tecnológico.
BIBLIOGRAFIA COMPLEMENTARIA
The eniac: First General-Purpose Electronic Computer. Arthur W. Burks y
Alice R. Burks en Annals of the History
of Computing, vol. 3, n.o 4, págs. 310-399,
1981.
Advent of Electronic Digital Computing. John Vincent Atanasoff en Annals
of the History of Computing, vol. 6, n.o 3,
págs. 229-282; julio de 1984.
The First Electronic Computer: The
Atanasoff Story. Alice R. Burks y Ar­
thur W. Burks. University of Michigan
Press, 1988.
Atanasoff: Forgotten Father of the
Computer. Clark R. Mollenhoff. Iowa
State University Press, 1988.
The First Electronic Computer. Allan
R. Mackintosh en Physics Today, vol. 40,
n.o 3, págs. 25-32; marzo de 1988.
41
Pinceladas históricas
E
l ENIAC (Electronic Numerical Integrator and
Computer) fue el primer ordenador electrónico conocido por el público, aunque sus comienzos estuvieron
velados por el secreto de guerra. Se construyó entre 1943
y 1946 en el departamento de ingeniería eléctrica de la
universidad de Pennsylvania (EE.UU.), bajo la dirección de
J. Presper Eckert, Jr. y John W. Mauchly, para el Estado
Ma­yor del ejército norteamericano. Utilizaba 18.000 lámparas de vacío, manejaba números decimales de un
máximo de diez cifras, hacía los cómputos en paralelo y
su reloj batía a 100 kHz. La programación consistía en
modificar manualmente las
conexiones según el problema a resolver.
Las estimaciones de la
demanda existente para la
nueva máquina que realizaron por aquella época las
grandes compañías norteamericanas de equipos de
oficina (entre ellas IBM) no
eran muy optimistas: se consideraba que bastarían dos
docenas de ejemplares para
cubrir todas las necesidades
de cómputo de los sectores
público y privado de Estados
Unidos.
Marvin Minsky, uno de los
fundadores del campo de
estudio de la inteligencia
artificial, encargó a un estudiante de licenciatura que
conectase una cámara de
televisión a un computador
e hiciese que éste describiese
lo que veía. Esto sucedía en
1966. Le concedió un verano
para realizar la tarea, tiempo
que Minsky consideraba suficiente para resolver el tema
de la visión artificial. Han
pasado treinta años y se está
todavía lejos de conseguirlo.
“microordenadores”, consistentes por lo general en conjuntos de componentes que los aficionados a la electrónica
montaban por sí mismos. Inicialmente no tenían teclado
ni pantalla: las instrucciones y los datos se introducían
mediante series de conmutadores situados en un panel
frontal y los resultados se obtenían leyendo otra serie de
indicadores luminosos. La memoria interna era muy reducida y la externa inexistente.
Cuando se añadieron teclado, pantalla y dispositivos de
almacenamiento externo (cintas y discos magnéticos) fue
necesario contar con pro­
gramas encargados de mane­
jar estos recursos, lo que se
conocía como “sistema operativo”. El primero de ellos
que alcanzó cierta popularidad se llamaba CP/M (Control
Program/Monitor) y había
sido desarrollado por Gary
Kildall en 1973.
El tipo de máquina que hoy
se conoce como PC fue inicialmente un producto
pues­to a la venta por IBM en
1981. No tenía disco rígido,
sino sólo una o dos unidades
de disco flexible de 5 1/4 pulgadas (que no actuaban inicialmente más que por una
cara) y ninguna capacidad
gráfica en su monitor monocromo. IBM no tenía puestas
en él muchas expectativas. Su
precio era algo superior a un
millón de pesetas de las de
entonces.
El sistema operativo del PC,
en cambio, no fue elaborado
por IBM, sino que se encargó
a una pequeña empresa de
programación, entonces desconocida, llamada Microsoft.
La precipitada adaptación de
Anuncio de microordenador (1977)
CP/M que Microsoft realizó se
convirtió en la primera versión del famoso PC-DOS,
Hacia 1970 se convierte en
MS-DOS o simplemente DOS. El inesperado éxito comercial
realidad el primer “microprocesador” físico: una pastilla
del PC enriqueció a Microsoft y le permitió iniciar su vertique puede funcionar por sí sola como unidad central de
ginosa carrera posterior en el ámbito de la programación.
proceso (CPU). Intel y Texas Instruments son las compañías
que disputan su paternidad. Encuentra sus primeros usos
Todavía a principios de los años ochenta, la mayor parte
en calculadoras portátiles y relojes electrónicos.
de los particulares que deseaban tener un acceso directo
a los ordenadores lo hacían por medio de aparatos que
La calculadora científica HP-35, presentada por Hewletthoy parecen poco más que juguetes. La serie constituida
Packard en 1972, significó el paso a la historia de la regla
por los modelos ZX-80, ZX-81 y finalmente Spectrum, de
de cálculo. Su sucesora programable, la HP-65, fue el inicio
Sinclair, tuvo especial aceptación. Las ventas mundiales
de la informática personal para muchos ingenieros, cienfueron tales que la reina de Inglaterra concedió el título
tíficos y contables a partir de 1974.
de Sir a Clive Sinclair, su promotor, por el impulso que
supusieron para las exportaciones británicas.
En 1975 algunas firmas comerciales empezaron a ofrecer
42
TEMAS 4
PRESENTE
Pantallas planas
Steven W. Depp y Webster E. Howard
Gracias a los últimos progresos en microelectrónica
y cristales líquidos ya son posibles
las pantallas murales y las de pulsera
L
a técnica más utilizada para la
exhibición de imágenes en pantalla sigue siendo la del tubo de
rayos catódicos (TRC). Sin embargo,
es difícil obtener con ella pantallas
portátiles que consuman poca energía
y, pese a ello, ofrezcan imágenes de
calidad. Siempre que se ha intentado
construir una pantalla plana con un
TRC, se han conseguido imágenes de
calidad mediocre y los diseños han sido
demasiado complejos o de muy cara
fabricación. La tentativa más reciente
en ese sentido reemplaza el cañón electrónico de barrido por una serie de
diminutos emisores de electrones,
montados sobre una placa y recubiertos por otra. Entre ambas placas hay
que colocar unos separadores que
deberán ser, para resistir el vacío
intermedio, o grandes o numerosos; en
cualquier caso oscurecerán la imagen.
Todavía no se ha encontrado una solución satisfactoria a este problema.
Una pantalla plana ideal ha de producir imágenes con buena luminosidad, marcado contraste, gran resolución, rápida respuesta, numerosos
matices de gris y todos los colores del
arco iris. También debe ser resistente,
duradera y barata. Las tres técnicas
que han logrado cierta aceptación
comercial —la de los paneles de
plasma, la de las pantallas electroluminiscentes y la de las pantallas de
cristal líquido— se quedan cortas en
alguna de estas cualidades, pero una
cuarta, de reciente introducción en el
STEVEN W. DEPP y WEBSTER E.
HOWARD, del Centro de Investigación
Thomas J. Watson de IBM en Yorktown
Heighs, estudian las técnicas de reproducción de imágenes en pantalla. Depp,
que dirige el grupo de sistemas de entrada, se doctoró en física en la Universidad de Illinois en 1972. Howard, doctor en física por Harvard, encabeza la
investigación sobre física de semiconductores, electroluminiscencia de capa
delgada y pantallas de cristal líquido
con matriz activa.
44
mercado, ofrece imágenes que rivalizan con las de los TRC y en algunos
casos las superan: se trata de las pantallas de cristal líquido (PCL) con
matrices activas; ninguna otra suma
hoy más recursos de investigación y
desarrollo ni mayores inversiones
para su fabricación.
Cuando empezaron a desarrollarse
las primeras pantallas planas, nadie
había pensado todavía en los dispositivos de cristal líquido con matrices
activas. Se ensayaron muchos sistemas de producción o modulación de la
luz según patrones controlados. La
primera técnica empleada (a finales de
los años sesenta) recurría a los plasmas, que son descargas en gas.
La pantalla de plasma consta fundamentalmente de dos láminas de vidrio
1. EL CRISTAL LIQUIDO está sellado por dos placas de vidrio. Una lleva los transistores que gobiernan los electrodos de cada célula; la otra porta los filtros de color y un
electrodo que cierra todos los circuitos. Polarizadores delanteros y traseros completan
el sistema, que se ilumina desde atrás. En la microfotografía, obtenida por barrido con
efecto túnel, se aprecian las moléculas de cristal líquido, fijas al sustrato.
TEMAS 4
en las que se han imbricado respectivas
series de cintas paralelas de película
conductora; las láminas están dispuestas de manera que dichas series de
líneas se crucen. Entre una y otra
lámina hay un espacio lleno de una
mezcla de gases, donde no suele faltar
el neón. Un voltaje suficientemente
elevado en cualquier punto de intersección producirá una descarga en el gas;
éste se descompondrá en un plasma de
electrones y iones, que, excitado por la
corriente, emitirá luz. El sis­tema se
comporta como una red de lám­paras de
neón en miniatura y, por tanto, constituye una pantalla “emisora”.
Como la ionización del gas se produce cuando se le aplica un voltaje bien
determinado, es fácil controlar qué
intersecciones se iluminan y cuáles no.
Para ello basta con aplicar un voltaje
igual a la mitad del umbral de encendido a una fila y una columna dadas,
porque así sólo donde éstas se corten
habrá voltaje suficiente para que la
MÁQUINAS DE CÓMPUTO
descarga se produzca. Con el barrido
de una fila tras otra, y repitiendo el
proceso al menos 60 veces por segundo,
se puede conseguir que el ojo perciba
una imagen estable. Esta imagen será
necesariamente poco luminosa, debido
a que cada punto concre­to sólo puede
brillar durante una pequeña fracción
de tiempo. Pese a tal inconveniente,
este diseño se ha aplicado en los ordenadores portátiles y en otros muchos
productos.
E
n esa misma línea se consiguen
imágenes más brillantes por
medio de la corriente alterna. H. Gene
Slottow y Donald L. Bitzer, de la
Universidad de Illinois, descubrieron
que la corriente alterna producía un
efecto de memoria inherente, puesto
que una celdilla recién excitada retiene
brevemente parte de la carga en sus
electrodos aislados. Cuando se invierte
el voltaje, esta carga se añade a cualquier nueva diferencia de potencial
que se aplique y, en consecuencia, desencadena otra vez la descarga. Como
los elementos que constituyen la imagen (los píxeles) se encienden cada vez
que el voltaje se invierte, la emisión de
luz tiene lugar durante una proporción
de tiempo mucho mayor. En un principio los plasmas de co­rriente alterna
despertaron el interés por su efecto de
memoria, pero hoy en día, que las
memorias de semiconductores son tan
económicas, las virtudes que aún cuentan de estas pantallas son su luminosidad, robustez y fiabilidad. Resultan
muy adecuadas para uso militar.
La mayoría de las pantallas de
plasma son de color naranja. No es
fácil modificar su diseño de manera
que se obtengan imágenes polícromas,
característica que hoy en día los usuarios esperan encontrar en el producto
(más del 80 % de los monitores que se
venden actualmente son de color). La
generación de color requiere tres fuentes diferentes, una de las cuales emite
45
en rojo y las otras en azul y verde. Pero
no sería práctico conseguir esos colores
llenando cada píxel con un gas diferente. De ahí que se haya optado por
emular el proceso que tiene lugar en
los tubos fluorescentes: se genera una
emisión de luz de un tipo determinado,
que da a continuación lugar a luz de
distintos colores por medio de revestimientos fosforescentes. Un único gas,
el mismo para todo el conjunto, emite
luz ultravioleta y esta radiación invisible provoca que cada celdilla radie
luz de color rojo, azul o verde, según la
naturaleza del pigmento fosfórico que
la recubra.
L
as pantallas de plasma consumen
gran cantidad de energía; por ello
se las utiliza principalmente en aplicaciones que no requieran un gran
rendimiento energético ni facilidad de
transporte. Pero podemos construir
con ellas paneles de hasta 1,5 metros
de diagonal, dimensiones suficientes
para una pantalla de televisión de alta
definición que se colgase en la pared.
Si los paneles de plasma en color
alcanzaran un precio razonable y una
gran fiabilidad, podrían destinarse a
tal fin.
Otra importante técnica del tipo de
la pantalla emisora plana se basa en el
fenómeno de la electroluminiscencia de
capa delgada. Al principio se esperaba
aprovechar la electroluminiscencia
para el alumbrado de viviendas, hasta
que se comprobó el pobre rendimiento
de la técnica. Estos dispositivos terminaron utilizándose en la fabricación de
pantallas alfanuméricas, en competencia con las pantallas de plasma.
Al igual que los dispositivos de descarga gaseosa, una pantalla electrolu­
miniscente se asemeja a un emparedado. El emisor de luz, una sus­­tancia
fosforescente —generalmente sulfuro
de cinc dopado con manganeso—, se
co­loca entre dos capas aislantes portadoras de electrodos ortogonales.
Cuando el voltaje supera un valor
umbral bien definido, el emisor se descompone y conduce corriente. Esta
corriente excita los iones de manganeso, que emiten una luz de color amarillo, análoga al brillo del neón de la
pantalla de plasma.
Aunque estas pantallas duran bastante, presentan dos inconvenientes
importantes: no pueden producir imágenes a todo color y consumen casi
tanta energía como las pantallas de
plasma. La obtención de colores
requiere una sustancia fosforescente
que sea buena emisora de azul, pero
hasta ahora no se ha encontrado ninguna que ofrezca la luminosidad, eficiencia y longevidad adecuadas.
Asimismo requiere una escala de grises de gradación progresiva, cualidad
que ha resultado difícil de controlar.
Por otra parte, la eficacia de estos
paneles disminuye a medida que
aumenta el número de elementos de
imagen que los constituyen. Cada uno
de estos elementos se comporta como
un condensador y la simple carga y
descarga de todos ellos precisa cantidades de energía apreciables. Este
problema dificulta el uso de paneles
electroluminiscentes que contengan
mucha información en aplicaciones
alimentadas por baterías.
L
a tecnología no emisora primaria
se vale de las propiedades electroópticas de los cristales líquidos
(CL), un tipo de moléculas orgánicas.
Como su nombre indica, se trata de
compuestos que fluyen igual que los
líquidos, si bien presentan una ordenación cristalina. Esta fase de la materia no es tan rara como podría creerse.
Se ha estimado que un químico orgánico que sintetizara compuestos al
azar produciría moléculas con propiedades de cristal líquido en uno de cada
mil experimentos. Las moléculas de
este tipo, conocidas desde hace unos
cien años, aparecen bajo numerosas
formas, desde la de membranas celulares hasta la de espuma jabonosa.
2. LAS PANTALLAS EMISORAS brillan
con luz propia cuando se comunica energía a un plasma o a una sustancia fosforescente. Las pantallas de plasma (izquierda) consisten en una red de
lámparas de neón en miniatura, que se
descargan una a una al combinarse los
voltajes aplicados a su fila y a su columna. Los diseños de corriente alterna (no
representados) retienen carga en electrodos aislados, creando un efecto de
memoria. Las pantallas electroluminiscentes de película delgada (derecha) reemplazan el gas del diseño anterior por
una película de sustancia fosforescente
sólida.
46
TEMAS 4
Los CL más importantes son los
compuestos nemáticos, con forma de
trenzas. Cada una de sus alargadas
moléculas con aspecto de vara tiene
libertad de moverse con respecto a las
demás, si bien existen sutiles fuerzas
intermoleculares que tienden a mantener alineados sus ejes; el efecto
recuerda un tanto el modo en que se
mueve un banco de peces. Puede fijarse
la dirección de alineación de las moléculas o mediante su exposición a un
campo eléctrico o colocándolas en las
proximidades de una superficie preparada para ello. El control de dicha alineación permite regular, asimismo,
las propiedades ópticas del material y
muy especialmente el efecto que tiene
sobre la transmisión de luz.
Una configuración habitual consiste
en emparedar uno de estos compuestos
de cristal líquido entre dos láminas de
vidrio con diferentes alineaciones moleculares. Para obtener semejante CL,
del tipo “nemático torcido”, se reviste
la cara interior de cada una de las
láminas con una película transparente
que sea conductora eléctrica: de óxido
de indio y estaño, por ejemplo. A continuación se añade una capa delgada
de un polímero orgánico y finalmente
se lo “cepilla” en la dirección deseada.
El “cepillado” alinea el polímero por la
combinación de sus cadenas, mediante
diminutos raspados o por ambas cosas.
Estos fenómenos de superficie se
transmiten a sí mismos a las moléculas adyacentes del cristal líquido a
través de un mecanismo todavía no
aclarado. El trenzado de las hebras
moleculares se consigue colocando las
láminas de vidrio de forma tal que sus
orientaciones preferentes se crucen
ortogonalmente.
C
uando se dirige un haz de luz polarizada sobre una célula de cristal
líquido, la dirección de polarización
tenderá a seguir la rotación del trenzado y saldrá del emparedado ha­biendo
girado, por lo tanto, 90 grados. Los
polarizadores cruzados que están a un
lado y otro de la célula dejan pasar la
luz en vez de bloquearla, al contrario
de lo que sucedería si la célula no estuviera presente: es el llamado estado de
transmisión (“on”); el estado de no
transmisión (“off ”) se produce al aplicar un campo eléctrico a través de los
dos conductores transparentes, lo cual
orienta las moléculas del cristal líquido
de manera que sus ejes sean paralelos
a las líneas del campo. Esta realineación deshace la anterior configuración
de trenzado y, por tanto, la célula en
cuestión no hará girar la polarización
de la luz incidente. La célula no ejerce
ya ningún efecto óptico apreciable y los
MÁQUINAS DE CÓMPUTO
3. EL OBTURADOR POR ROTACION DE LA LUZ se utiliza en la mayoría de las pantallas planas no emisoras. Las moléculas de cristal líquido nemáticas, con forma de
trenzas, se disponen de manera que gire el plano de polarización de la luz. Los píxeles
no activados dejan pasar la luz hacia un segundo polarizador (izquierda). Cuando se
aplica un voltaje, se deshace la rotación, y la luz queda bloqueada (derecha).
polarizadores cruzados bloquean,
como sucede normalmente, el paso de
la luz. En una célula real la transmisión varía gradualmente con el voltaje
aplicado.
Hasta aquí hemos descrito lo que
sucede en un píxel. La pantalla de cristal líquido consta de un gran número
de ellos. Se colocan los electrodos de
filas en uno de los sustratos de vidrio y
los de columnas en el otro; de esa
manera cada punto de intersección
define la dirección de un píxel diferente.
Dado que la luz proviene de un reflector
o fuente luminosa, la matriz se comporta como una red de minúsculos obturadores gobernados electrónicamente.
La simplicidad del diseño y los moderados valores de voltaje y energía que
requiere su funcionamiento determinan que estas PCL de “matriz pasiva”
sean las pantallas planas más vendidas
en la actualidad.
Sin embargo, la misma simplicidad
de la técnica marca un límite infle­xible
a sus prestaciones. Como Paul M. Alt
y Peter Pleshko de IBM han de­mostrado,
sólo puede mejorarse la resolución de
estos dispositivos si se sacrifica el contraste. El problema tiene su origen en
el entrecruzamiento de voltajes, inherente al sistema de excitación de los
píxeles. En efecto, primero se aplica un
voltaje a una sola fila y se ajustan los
voltajes de las columnas de forma tal
que produzcan un gran voltaje total
sobre los píxeles seleccionados de dicha
fila; los que no están seleccionados
reciben un voltaje menor.
El proceso continúa con la alimentación de la fila siguiente, en un proceso que barre de arriba abajo en una
sexagésima de segundo, y a continuación se repite para el cuadro siguiente.
Durante la proyección de un cuadro de
vídeo, cada píxel seleccionado recibe
un pulso de voltaje elevado cuando se
activa su fila, los no seleccionados reciben voltajes moderados y todos los
pí­xeles sufren pulsos entrecruzados de
menor magnitud procedentes de las
demás filas, cuando éstas se activan.
Dado que este entrecruzamiento
aumenta con el número de filas, la
diferencia de voltaje efectivo entre los
píxeles seleccionados y los no seleccionados va disminuyendo a medida que
crece el tamaño de la red. Si hay 240
filas —menos de la mitad que la pantalla de un televisor corriente—, dicha
diferencia descenderá hasta un 6,7%
solamente. Por el contrario, la obtención de un contraste aceptable para
una célula nemática girada 90 gra­dos
exige una diferencia de voltajes de un
50%, por lo menos.
H
ay tres formas para soslayar el
conflicto entre contraste y resolución. En primer lugar se puede
intentar que la curva de transmisiónvoltaje tenga una pendiente mayor, de
manera que unas diferencias de voltaje pequeñas produzcan grandes
variaciones en la transmisión de luz.
Este objetivo se consigue con las PCL
“nemáticas con supertorcedura” al
retorcer 180 grados o más el cristal
47
líquido. En segundo lugar cabe usar
cristales líquidos que muestren efecto
de memoria, lo que permite controlar
muchas filas sin que se pierda contraste. Los cristales líquidos ferro­
eléctricos poseen esta propiedad y con
ellos se han montado pantallas de
1000 filas o más. Estos dispositivos
son, sin embargo, algo lentos. Además,
como sólo admiten dos estados de
transmisión estables, no reproducen
con facilidad las diversas tonalidades
de grises. Por todo ello la tecnología de
matrices pasivas resulta menos adecuada para la reproducción de vídeos
o de imágenes realistas.
L
a tercera forma, mucho más radical, divide las funciones de control
y de transmisión, de forma tal que
cada una de ellas pueda optimizarse
por separado. Este control por medio
de “matrices activas” se basa en el
empleo de un conjunto de transistores,
cada uno de los cuales activa un píxel
diferente. Cada píxel recibe un voltaje
de su línea de columna sólo cuando se
enciende el correspondiente transistor. Se puede actuar sobre las otras
filas cuando el transistor está apagado; entretanto, el píxel mantiene el
voltaje que se le había suministrado
inicialmente. Dado que este método
aísla del entrecruzamiento a los píxeles, el número de filas controlables
puede ser altísimo. Además esta técnica genera colores con facilidad. Los
píxeles y sus respectivos transistores
se agrupan en tríadas, en las cuales
cada píxel posee un filtro de uno de los
tres colores primarios.
Una vez se ha actuado sobre todas
las filas, la pantalla entera se reescribe. Este proceso de restauración
(“refreshing”) impide que aparezcan
distorsiones, obligadas por la pérdida
gradual de carga de las células de cristal líquido, que iría reduciendo sus
voltajes y variando su transmisión de
luz. Y lo que es más importante, al
restaurarse sesenta veces por segundo,
los píxeles pueden reproducir imágenes de vídeo y otras imágenes que exijan cambios de pantalla rápidos.
Las pantallas de matriz activa se
parecen mucho a las pastillas de
memoria dinámica de acceso aleatorio
(DRAM, dynamic random-access
memory). Tanto aquéllas como éstas
son circuitos integrados complejos que
almacenan cargas en aproximadamente un millón de posiciones discretas, cada una de ellas controlada por
un solo transistor. Sin embargo, el
ordenador lee en una pastilla DRAM
una fila cada vez nada más, detectando la carga existente en cada posición, mientras que el ojo humano lee
la pantalla entera de una vez.
Otra diferencia consiste en que las
DRAM almacenan datos digitales y las
pantallas de matriz activa, da­tos analógicos. En las primeras, cada célula
debe hallarse en estado de transmisión
(“on”) o de corte (“off”); en las últimas,
los voltajes de las cé­lulas han de variar
en una escala continua de grises. Esta
cualidad re­q uiere que la pantalla
“codifique” mucha más información
4. PASIVO FRENTE A ACTIVO: en las matrices de cristal líquido pasivas (izquierda) se envía un impulso de dirección a
todos los píxeles de una fila, y se suma o resta el voltaje de
una columna. En las células no seleccionadas se cruzan voltajes, cuyo valor medio aumenta con el número de columnas;
se crea así un conflicto entre contraste y resolución. Las matrices activas (derecha) lo evitan dirigiendo cristales líquidos
50
que la que admite una pastilla DRAM
de un tamaño parecido.
Este requisito se ha podido cumplir
merced a un diseño cuidadoso y al control de las tolerancias de fabricación.
Para nuestra fortuna, éstas sólo han
de aplicarse a pequeña escala, de un
píxel al contiguo, y ello se debe a que,
pese a ser sensible a las variaciones
locales que se producen en los bordes
de los objetos, el ojo apenas percibe las
variaciones que van creciendo de forma
gradual a medida que barre la pantalla de un lado a otro.
Las pantallas de matriz activa se
gobiernan mediante transistores de
película delgada (TPD), técnica que ha
desarrollado su potencialidad sólo en
los últimos diez años y cuyo origen está
en la fabricación de células solares. Se
construyen en grandes conjuntos a
coste comparativamente reducido. Su
único inconveniente —su menor capacidad de transporte de corriente— apenas tiene importancia cuando se los
utiliza en pantallas, ya que se necesita
muy poca corriente para controlar un
cristal líquido.
E
n el transistor de película delgada
se utilizan capas depositadas de
diferentes materiales para formar el
semiconductor, los aislantes y los electrodos. Igual que sucede en los transistores habituales, dos terminales conducen la corriente y un tercero activa y
desactiva el transistor. Sin embargo,
cuando se trata de transistores clásicos,
la mayoría de esos elementos se forman
en la superficie de un cristal semicon-
mediante transistores de película delgada. Mientras los transistores están activados, las celdillas de cristal líquido asociadas se cargan a los voltajes de las líneas de columna,
también llamadas líneas de datos; desactivados, los voltajes
se mantienen constantes. De este modo, se puede formar una
imagen fila por fila, que persistirá hasta el siguiente “ciclo de
restauración”.
TEMAS 4
ductor único, cuyas propiedades eléctricas en determinadas regiones se modifican mediante la adición de átomos
donadores de cargas (“dopantes”). En
cambio los TPD se pueden fabricar casi
sobre cualquier superficie, incluso
sobre vidrio común.
Fueron precisos veinte años para
convertir los TPD en productos comerciales. Cuando Paul K. Weimer, de la
compañía RCA, inventó esa técnica en
1962, se confiaba en que encontraría
aplicación en los circuitos electrónicos
corrientes. Sin embargo, enseguida
fue desplazada por otros dispositivos
electrónicos, lo que apartó del trabajo
en ella a la mayoría de los investigadores. En 1974, T. Peter Brody y su
equipo, de la empresa Westinghouse,
demostraron que los TPD podían utilizarse como interruptores en las pantallas de cristal líquido. Incluso este
uso era difícil en aquella época, porque
con los materiales y procesos disponibles no podían obtenerse grandes
series de dispositivos estables y libres
de defectos.
Se probó con diversos semiconductores. El silicio policristalino fue el
primero en emplearse en un producto
comercial. Ocurría en 1984 y el aparato, un televisor de bolsillo fabricado
por Seiko-Epson, tenía una pantalla
de cinco centímetros. Pero ésta se
fabricaba mediante costosos procesos
de circuitos integrados y tratamiento
de materiales a elevadas temperaturas. El futuro apuntaba hacia otro
ma­terial, el silicio amorfo. En 1979 el
gru­po encabezado por P. G. LeComber,
de la Universidad de Dundee, vio que
el silicio amorfo, ya por entonces en
desarrollo para uso en células solares
de poco costo, era adecuado para TPD
destinados a las pantallas.
S
on varios los procesos clave en la
fabricación de los TPD. En primer
lugar, se forma el sustrato con un
vidrio purificado de metales alcalinos,
que podrían contaminar los transistores o el cristal líquido. El vidrio fundido se vierte, en un proceso ideado por
Corning y cuidadosamente controlado,
para crear una lámina tan plana que,
si la imaginásemos del tamaño de un
campo de fútbol, su espesor variase
menos que el grosor de un lápiz.
A continuación, se deposita la capa
de semiconductor mediante un proceso
de plasma que utiliza gas silano, SiH4,
a baja presión. Una descarga eléctrica
ioniza el gas y disgrega las moléculas
en fragmentos, que se condensan sobre
el vidrio, donde forman una red aleatoria de silicio, rica en hidrógeno. La
presencia de hidrógeno es crucial,
puesto que cierra los enlaces rotos que,
MÁQUINAS DE CÓMPUTO
si no, atraparían electrones y destruirían el semiconductor. Finalmente se
depositan los electrodos metálicos, los
aislantes y demás elementos del TPD
de forma similar a la habitual en la
fabricación de circuitos integrados,
con la diferencia de que el área a cubrir
es mucho mayor.
Unas dos docenas de compañías,
japonesas en su mayoría, desarrollaron
la técnica de TPD/PCL a mediados de
los ochenta. A finales de ese decenio,
IBM/Toshiba, Sharp, Hitachi y otras
firmas obtenían imágenes de excelente
calidad sobre pantallas de color de 25
centímetros de diagonal. Por primera
vez una pantalla plana podía competir
con un tubo de rayos catódicos en contraste, luminosidad y saturación de
color (o viveza). De hecho, quienes contemplan a la vez los dos tipos de pantallas suelen preferir la imagen nítida,
sin distorsión y exenta de fluctuaciones
que ofrece la TPD/PCL.
L
a pantalla de matriz activa está
alcanzando ya los niveles de calidad de imagen impuestos por la pantalla de TRC, pero su coste es muy su­perior
al de ésta. Los fabricantes irán ganando
experiencia en todos esos campos donde
ya es indispensable el empleo de pantallas planas. Se espera que hacia 1995
tengan un mercado de unos quinientos
mil millones de pesetas. La producción
a tal escala deberá reducir los costes
por unidad, hasta el punto de que las
pantallas planas sean competitivas con
los TRC en televisores, ordenadores
personales y otros ar­tículos de uso
común. A finales de esta década, los
ingresos procedentes de la venta de
pantallas planas deberían superar los
generados por los TRC.
BIBLIOGRAFIA COMPLEMENTARIA
Flat-Panel Displays and CRTs. Dirigido
por Lawrence E. Tannas, Jr. Van Nostrand
Reinhold Company, 1985.
Liquid Crystal TV Displays: Principles
and Applications of Liquid Crystal
Displays. E. Kaneko. D. Reidel Publi­
shing Company, 1987.
Liquid Crystals: Applications and Uses,
vol. 1. Dirigido por Birendra Bahadur.
World Scientific, Singapur, 1990.
Flat Panel Displays using Amorphous
and Monocrystalline Semiconductor
Devices. K. Suzuki en Amorphous and
Microcrystalline Semiconductor Devices: Optoelectronic Devices. Dirigido
por Jerzy Kanicki. Artech House, Boston,
1991.
Thin-Film-Transistor/Liquid Crystal
Display Technology: An Introduction. W. E. Howard en IBM Journal of
Research and Development, vol. 36, n.o 1,
págs 3-10, enero de 1992.
51
Representación visual
de biomoléculas
Arthur J. Olson y David S. Goodsell
La generación de imágenes por ordenador
agiliza la investigación de la estructura molecular
y contribuye a elucidar la química de la vida
“E
l ojo, al que se llama ventana del alma, constituye el medio principal por cuya virtud el entendimiento logra apreciar más plena y abundan­
temente las obras infinitas de la naturaleza.” Las palabras
de Leonardo da Vinci expresan con elocuencia la íntima
relación entre visión y comprensión. A pesar de lo cual, la
ciencia moderna se enfrenta no pocas veces a objetos invisibles para el ojo humano. Químicos y bioquímicos hallan
entorpecida su tarea por la imposibilidad de observar las
moléculas que estudian. Los componentes atómicos de las
moléculas no son discernibles ni siquiera a través del
microscopio electrónico.
Pero la tecnología informática permite elaborar imágenes
convincentes y científicamente exactas de las moléculas
construidas por las células. El grafismo por ordenador contribuye a desvelar, por ejemplo, la forma en que los anticuerpos buscan moléculas extrañas, la manera en que las
enzimas proporcionan el ambiente exacto y adecuado para
iniciar una reacción química. A veces las imágenes cobran
gran peso conceptual; piénsese en el diagrama de la estructura en doble hélice del ADN, publicada por James Watson
y Francis Crick, que revolucionó nuestra comprensión de la
herencia humana y de las enfermedades genéticas.
Varias son las formas de recoger los datos en bruto para
la confección de imágenes. Por su éxito, destaca la cristalografía de rayos X. En esta técnica se irradia con un haz
intenso de rayos X un cristal compuesto por una molécula
determinada; los rayos X se dispersan según pautas características, pautas que se analizan matemáticamente para
descubrir la distribución espacial de los electrones y, por
extensión, la ubicación de cada átomo de la molécula.
La espectroscopía por resonancia magnética nuclear
(RMN) ofrece otra vía para la determinación de la estructura de una molécula. En un campo magnético intenso se
sitúa una disolución que contenga la molécula de interés.
A continuación, sometemos la muestra a impulsos de ondas
de radio; los núcleos de ciertos átomos de la molécula responden emitiendo ondas de radio propias, cuyas frecuencias dependen de los ambientes químicos locales. La interpretación de estas frecuencias revela las distancias
aproximadas entre los átomos de las moléculas. Al combinar estas restricciones con propiedades químicas conocidas
de la molécula, inferimos las posiciones de los átomos constituyentes.
1. IMAGENES SIMULADAS del mundo molecular, creadas me­
diante grafismo informático. Una imagen del virus de in­
munode­ficiencia humana (abajo), basada en datos obtenidos
mediante microscopía electrónica por U. Skoglund y por S.
Höglund, muestra un núcleo de forma cónica que contiene
material genético, rodeado por una envoltura esférica. A la
derecha tenemos una vista de una droga ligándose al ADN,
trazada a partir de datos de cristalografía de rayos X recopila­
dos por R. E. Dickerson. La droga es la región de elevada den­
sidad electrónica (verde y amarillo) que rellena el estrecho
surco del ADN (esferas oscuras).
ARTHUR J. OLSON y DAVID S. GOODSELL trabajan para
ampliar el papel del grafismo informático en el estudio de la
función y la estructura de macromoléculas biológicas. Olson,
que se doctoró en la Universidad de California en Berkeley,
fundó en 1981 el laboratorio de grafismo molecular en el Instituto de Investigación de la Clínica Scripps. Goodsell se doctoró en 1987 por la Universidad de California en Los Angeles,
donde también estudió cristalografía por rayos X. Ingresó seguidamente en el laboratorio de Olson, donde desarrolla técnicas de presentación de imágenes moleculares y métodos
computacionales para el diseño de medicamentos.
52
TEMAS 4
MÁQUINAS DE CÓMPUTO
53
2. LA CRISTALOGRAFIA por dispersión de rayos X proporcio­
na la información necesaria para simular la imagen de una
molécula. Un cristal de ADN dispersa los rayos X según pautas
características (izquierda). El análisis computarizado de la
pauta de dispersión puede revelar la distribución de electro­
nes en cada molécula de ADN. Una red de líneas trazada en
torno a las regiones de elevada densidad electrónica (derecha)
ilustra las demarcaciones de los átomos de la molécula; lo que
estamos viendo corresponde a un insólito desemparejamiento
adenina-guanina. Una imagen por píxeles (arriba) da mejor
sensación de la disposición tridimensional de los átomos, pero
su computación requiere más tiempo.
La ciencia de los materiales ha desarrollado un tercer
método de observación de los átomos en las moléculas: la
microscopía por sonda exploradora. Se inmoviliza una
molécula sobre una superficie plana, explorada por una
aguja cuya punta tiene sólo unos pocos átomos de anchura.
Un bucle de realimentación permite que la aguja siga el
contorno exacto de cada átomo, trazando y describiendo su
forma. Repetidos pases de la aguja delimitan un contorno
tridimensional de un lado de la molécula.
Las tres técnicas suministran inmensas cantidades de
datos, cuya interpretación resulta mucho más sencilla
vertidos a forma visual. Antes de que los ordenadores llegaran a los laboratorios, se cernía laboriosamente información en diagramas de barras, oscilogramas y fotografías,
para luego construir modelos de latón o plástico basados
en tales resultados. Ante la enorme cantidad de trabajo
requerido, los científicos se veían limitados a estudiar
micromoléculas que no contuvieran arriba de unas pocas
docenas de átomos. Pero las moléculas biológicas constan
de centenares a cientos de miles de átomos.
En 1947, Raymond Pipinsky, de la Universidad estatal
de Pennsylvania, ideó y puso a punto una máquina analógica, la XRAC, para transformar los datos cristalográficos
que obtenía por dispersión de rayos X en una imagen molecular inteligible. A la par de los avances en informática
ha crecido también la magnitud de los problemas a que es
aplicada. Los ordenadores digitales, utilizados en conjunción con sistemas de representación gráfica computarizada,
permiten crear imágenes detalladas de macromoléculas:
enzimas, anticuerpos e incluso virus completos.
Dos métodos, conceptualmente distintos, son los predominantes en la creación de imágenes de moléculas. En uno
de ellos, la imagen se construye a partir de conjuntos de
líneas trazadas de un punto a otro. El segundo genera la
imagen a partir de un mapa denso de puntos, llamados
elementos de imagen, o píxeles. Cada técnica tiene ventajas
e inconvenientes característicos. Dado que para determinar
una recta basta especificar dos posiciones, los equipos de
representación diseñados para gráficos “esqueléticos” (“gráficos vectoriales”) permiten la manipulación interactiva de
la imagen. La generación de imágenes en equipos pensados
para el trazado de puntos (el monitor en color) requiere
mucho más tiempo, porque a cada elemento de imagen hay
que asignarle un valor de color; un monitor típico contiene
más de un millón de puntos. Pero las pantallas de trazado
por puntos admiten la simulación de efectos de gradación y
sombra, que dan mayor realismo a las imágenes.
Para construir una imagen molecular, se empieza por
recopilar información sobre la estructura de la molécula;
casi siempre, por medios roentgenocristalográficos. Los
rayos X sufren máxima dispersión allí donde mayor es la
densidad electrónica, vale decir, en torno a los átomos de
la molécula. Por tanto, las regiones que exhiben elevadas
densidades electrónicas son átomos; las regiones de baja
densidad corresponden a espacio vacío. (También la microscopía electrónica puede proporcionar mapas tridimensionales de densidad electrónica; aunque son parecidos, no
alcanzan a resolver átomos individuales.)
De igual manera que los cartógrafos se valen de líneas
de nivel para separar valles de montes, los cristalógrafos
se valen del grafismo informático para trazar una superficie límite en los datos que separe del espacio vacío los
átomos. La superficie puede representarse mediante una
espesa malla de líneas que recuerdan la jaula de un canario. Armado de un programa de gráficos, el científico sitúa
y acomoda una cadena de átomos en el interior de la superficie siguiendo las convoluciones indicadas por los datos de
densidad electrónica.
Las imágenes basadas en píxeles proporcionan una
visión más clara de los resultados cristalográficos.
54
TEMAS 4
Podemos, por ejemplo, asignar colores y propiedades ópticas específicas a diversos valores de los datos. En el mapa
de densidades electrónicas del ADN, las regiones de la
molécula que poseen valores elevados de densidad aparecen opacos y en color, mientras que las regiones de baja
densidad se muestran transparentes. Merced a un proceso
denominado “rendición volumétrica”, los programas de
graficación construyen imágenes que remedan la forma en
que viajaría la luz a través de objetos que poseyeran tales
propiedades ópticas. Desdichadamente, la presentación de
objetos tridimensionales exige tiempos de cómputo mucho
mayores que los necesarios para la presentación de imágenes esqueléticas. La ganancia en claridad se logra a costa
de menor velocidad de manipulación de la vista de la
mo­lécula.
Una vez conocidas las coordenadas de los átomos constituyentes, la computadora ofrece una pléyade de técnicas
para el análisis de la molécula. El infografismo molecular
puede centrarse en la preparación y simplificación de la
imagen de la molécula al tiempo que salvaguarda toda la
información pertinente. Aclara muchas cosas la forma en
que se pliega una cadena proteínica. Jane S. Ri­chardson,
de la Universidad de Duke, ha popularizado una representación gráfica sencilla y efectiva, que sigue el plegamiento
general de la proteína pero elimina el confuso revoltillo de
los átomos individuales El diagrama resultante, similar a
una cinta, facilita la clasificación de muchos y diversos
tipos de estructuras proteínicas, reduciéndolos a un número
limitado de distintos motivos de replegado.
Los ordenadores facilitan también el estudio de la forma
de una molécula biológica, la cual, a su vez, determina la
manera en que interactúa con otras. El modo más sencillo
de mostrar la topografía exterior de una molécula consiste
MÁQUINAS DE CÓMPUTO
en crear un diagrama de ocupación del espacio. En este
procedimiento, el ordenador dibuja los átomos de las moléculas dándoles forma esférica, cuyos radios reflejan en qué
medida pueden aproximarse unos a otros. Al colocar todas
las esferas en sus posiciones correctas se logra una imagen
lúcida de la molécula entera. Y al colorear cada átomo de
acuerdo con su naturaleza química se aporta más información.
Las imágenes producidas por rellenado del espacio nos
muestran la molécula cual se nos ofrecería si se ampliara
hasta tamaño visible. B. K. Lee y Frederic M. Richards
adoptaron un método diferente y calcularon qué aspecto le
ofrecería una molécula a una molécula de agua. Se valieron
de un programa de ordenador para hacer rodar una molécula de agua en torno a todas las caras y recovecos de cierta
molécula, señalando aquellos lugares donde el agua establecía contacto. Dedujeron así una imagen que muestra la
superficie de la molécula, pero omite las regiones inaccesibles a las moléculas de agua circundantes. Tal imagen
contribuye a elucidar, por ejemplo, de qué forma interaccionan las proteínas con el agua que se halla siempre
presente en los sistemas biológicos.
La disposición geométrica de los átomos constituye un
aspecto de la naturaleza de una molécula; también son
importantes las propiedades físicas y químicas de cada
átomo, como su carga, tamaño e interacciones con otros
átomos. Peter J. Goodford ha desarrollado un procedimiento para determinar de qué forma interactúa químicamente una molécula con los átomos de otras moléculas.
Goodford va colocando sucesivamente un átomo de prueba
simulado por ordenador en diversas demarcaciones de la
inmediatez de la molécula. El ordenador calcula en cada
punto la interacción química entre sonda y molécula, gene55
rando un catálogo de ubicaciones favorables y desfavorables al átomo de sondeo. Las imágenes producidas mediante
este tipo de análisis pueden hacer destacar los “puntos
calientes” químicos donde es verosímil que se enlacen nuevos átomos.
El grafismo electrónico permite también captar la escurridiza conducta dinámica de las moléculas biológicas. Las
moléculas vibran, giran y se retuercen en billonésimas de
segundo. Sus movimientos resultan invisibles en el análisis
por dispersión de rayos X o en la resonancia magnética
nuclear, porque la ejecución de tales experimentos puede
exigir horas e incluso días. Las simulaciones dinámicas
computarizadas, en cambio, permiten seguir los movimientos de una molécula a través de millares de pasos temporales, generando el correspondiente número de instantáneas de la cambiante estructura. Podemos entonces revisar
la simulación entera, fotograma a fotograma, deteniéndonos en las fases temporales más importantes. Los fotogramas más conseguidos se pueden combinar para montar con
ellos una especie de corto cinematográfico que describe la
dinámica de la molécula.
Encontramos una de las aplicaciones más apasionantes
de las nuevas técnicas de grafismo en el diseño molecular
asistido por ordenador. Conforme se ha avanzado en el
conocimiento de las moléculas biológicas, se ha hecho más
apremiante la capacidad de modificar moléculas específicas
para adecuarlas a necesidades concretas. El diseño de
antibióticos, la construcción de nuevas proteínas y la inge-
niería genética de microorganismos constituyen un mínimo
inventario de las metas perseguidas por la bioingeniería
para mejorar la salud humana y la calidad de vida.
El grafismo informático ha entrado en el diseño de drogas
contra la hipertensión, los enfisemas, el glaucoma y diversas formas de cáncer. Permite ensayar una amplia gama
de potenciales medicamentos antes de emprender el laborioso proceso de síntesis en el laboratorio. Un empeño
particularmente prometedor consiste en el diseño de agentes antivíricos capaces de controlar los efectos del virus de
inmunodeficiencia humana (VIH). Se han aislado cierto
número de proteínas de tal virus y han conseguido determinar sus estructuras; entre ellas, la transcriptasa inversa
del VIH, la molécula que traduce ARN en ADN con el fin
de incorporarlo al ADN de la célula hospedadora, y también
la proteasa del VIH, molécula crucial que permite la maduración del virus y da ocasión a éste para provocar ulteriores
infecciones.
Se ha conseguido cristalizar la proteasa del VIH, tanto
libre como ligada a diversas moléculas inhibidoras, lo que
ha permitido su estudio cristalográfico mediante rayos X.
El ulterior análisis por medios informáticos de las estructuras de las moléculas ha facilitado la identificación de
una lista cada vez mayor de posibles compuestos medicamentosos. Algunos de ellos parecen mostrar efectividad
en ensayos químicos de laboratorio, siendo capaces de
detener el crecimiento del VIH en un cultivo celular.
Aunque están pendientes de solución los problemas de
3. EL DISEÑO MOLECULAR es una de las aplicaciones de los
gráficos moleculares computerizados en más veloz crecimien­
to. La proteasa del VIH (arriba), una molécula crucial para la
maduración del virus, constituye una atractiva diana en el
diseño de medicamentos. Se muestra en azul el espinazo de la
proteína; el sitio de actividad catalítica aparece en verde. Una
droga inhibidora (violeta) se engarza en el sitio activo de la
proteasa, impidiendo la función vírica normal. Los datos de
este modelo han sido tomados de A. Wlodawer, adscrito al nor­
teamericano Instituto Nacional del Cáncer.
56
TEMAS 4
4. LA ESTRUCTURA Y FUNCION molecular pueden ser estu­
diadas con facilidad, claridad y precisión merced a los gráficos
informáticos. Las imágenes de la hilera superior fueron traza­
das con equipos de gráficos vectoriales, mientras las de la
inferior corresponden a imágenes por píxeles. Los investiga­
dores pueden examinar la forma de un anticuerpo valiéndose
de una superficie puntilleada (arriba, izquierda) o de una
serie de esferas sombreadas para hacerlas parecer macizas
(abajo, izquierda). Los ordenadores permiten representar la
ligadura de un antígeno mostrando flechas indicadoras de la
dirección del campo electrostático de la molécula (arriba,
centro) o valiéndose de técnicas de rendición volumétrica
para mostrar la intensidad de las interacciones entre carbo­
nos; el verde indica regiones favorables al carbono (abajo,
centro). Los movimientos internos, extremadamente rápidos,
de un anticuerpo pueden representarse a través de una imagen
múltiple (derecha, arriba) o mediante una serie de instantá­
neas de momentos físicamente interesantes (abajo, derecha).
toxicidad y eficacia en pacientes humanos, al menos uno
de los inhibidores de la proteasa del VIH, el Ro31-8959,
se ha mostrado bastante prometedor y está siendo objeto
de evaluación clínica.
Animados por lo mucho que se ha progresado en la comprensión de la estructura y función proteica, Richard A.
Ler­ner y sus colegas de la Clínica Scripps se han embarcado
en un proyecto especialmente ambicioso: el diseño de enzimas “a la medida” para catalizar (vale decir, facilitar)
ciertas reacciones químicas. Modifican anticuerpos para
que actúen de catalizadores. Los anticuerpos poseen una
notable capacidad para reconocer y distinguir diversas
moléculas, por lo que podría ser construido un anticuerpo
catalítico al objeto de facilitar una reacción cuidadosamente seleccionada. Quizá llegue el día en que anticuerpos
catalíticos diseñados específicamente logren atacar un
virus o fragmentar un coágulo sanguíneo sin causar daño
a las células sanas del paciente.
En colaboración con Victoria A. Roberts, John A. Tainer
y Elizabeth D. Getzoff, también de Scripps, Lerner ha
mo­dificado un anticuerpo para crear un sitio químico susceptible de enlazar átomos metálicos. Se han apoyado en
el grafismo informático. La posibilidad de añadir metales
a los anticuerpos constituye un paso importante hacia la
síntesis de catalizadores “a la carta”, pues son muchas las
reacciones que son catalizadas por mediación de átomos
metálicos.
Apenas si adivinamos el futuro que el grafismo molecular
informatizado nos ofrece. La velocidad y la capacidad de
almacenamiento de la maquinaria informática se están
duplicando cada 18 meses, lo que da pie a mejoras proporcionales en la versatilidad de los programas. Los equipos
de simulación de la realidad —la llamada “realidad virtual”— capaces de sumergir al investigador en un mundo
molecular tangible se están haciendo realidad. Existen ya
cascos dotados de pantallas de vídeo que mueven la imagen
obedeciendo a los movimientos de la cabeza; dispositivos
de realimentación de fuerzas permiten al sujeto “percibir”
de forma táctil las fuerzas que actúan sobre la molécula
que están examinando.
En un prototipo que se está desarrollando en la
Universidad de Carolina del Norte bajo la dirección de
Frederick P. Brooks Jr., se recurre a un simulador computarizado para ensayar posibles drogas “palpando” cómo
encajan en una molécula diana. Un proyecto muy novedoso
desarrollado en esas mismas instalaciones ha conectado un
microscopio de barrido por efecto túnel con un sistema de
realidad virtual. Tal sistema se propone capacitar al experto
para ver y sentir los detalles atómicos de una molécula
examinada bajo el microscopio. Tales sistemas podrán
facultarnos para interactuar con el mundo submicroscópico, como si se tratara de los sentidos corporales.
Quizá la máxima virtud del grafismo molecular informatizado resida en su potencial para facilitar la comunicación. Las redes de transmisión de datos a alta velocidad permitirán el examen simultáneo de los últimos
resultados en investigación molecular. El vídeo interactivo posibilitará el estudio de la estructura y función
molecular. Y simulaciones refinadas, conjuntadas con
gráficos realistas, consentirán adquirir la percepción
personal del complejo mundo químico que hay en nuestro
interior.
MÁQUINAS DE CÓMPUTO
BIBLIOGRAFIA COMPLEMENTARIA
Macromolecular Graphics. A. Olson y D. Goodsell, en Current
Opinion in Structural Biology, vol. 2, págs. 193-201; abril de 1992.
57
Reventando el polvo
Philip E. Ross
S
on pegajosas como la goma. Es inútil tratar de lavarlas. O atacarlas con chorros de gas. Pero esas molestas motas, del tamaño de un virus, tienen que desaparecer. Cuando las líneas de los circuitos integrados se
estrechan a menos de un micrometro, las partículas contaminantes provocan defectos y convierten los beneficios
esperados en pérdidas seguras para los fabricantes.
Las fábricas de semiconductores brillan hoy como los
chorros del oro. Sematech, consorcio manufacturero de
circuitos integrados en la texana Austin, tiene una sala
rutilante, donde la densidad de polvo es la de un guisante
en cuatro kilómetros cúbicos de aire. Pero la limpieza, por
sí sola, no resuelve el problema de los desperdicios generados en la impresión de circuitos en obleas de silicio. Los
contaminantes que se originan en el proceso causan casi
la mitad de los defectos de los microcircuitos.
¿Qué producto de limpieza poseerá potencia suficiente
para eliminar las partículas sin estropear la oblea? Varios
investigadores están explorando técnicas que usan haces
de luz láser que borre el polvo de las obleas semiconductoras. “No hay procedimientos alternativos para librarse
de las motas”, dice Susan D. Allen, química de la Universidad
de Iowa, que está patentando un método que se sirve del
láser para la limpieza de los microcircuitos.
Hay otras técnicas que dan buen resultado, siempre y
cuando el tamaño de las partículas a eliminar superen el
medio micrometro. Pero los componentes del tamaño inferior al micrometro podrían verse afectados por granos que
miden 0,1 micrometro o menos. Con tales proporciones,
las fuerzas de van der Waals adhieren las partículas a las
superficies de los circuitos con intensidad pareja a la de
un enlace químico. Los chorros de gas, demasiado débiles,
son incapaces de vencer esas fuerzas. Los chorros de gas
reforzados con partículas de hielo logran desalojar algunas
partículas, pero esos chorros son, a su vez, proclives a la
contaminación.
El lavado por líquidos agitados por ultrasonidos no
puede filtrarse en escalas submicroscópicas; o lo que es lo
MOTAS SUBMICROSCOPICAS que tapan parcialmente las
falsillas empleadas para imprimir circuitos en obleas de silicio
(arriba). IBM está desarrollando un sistema con un láser excímero que las elimina (abajo).
58
mismo: añade tanta suciedad como quita. Los plasmas, o
gases ionizados, eliminan las partículas al reaccionar químicamente con ellas, pero reaccionan también con los
substratos. La atracción electrostática puede transferir la
suciedad de un microcircuito a una lámina en contacto con
él; mas, de nuevo, la lámina no se deja limpiar bien.
Los láseres presentan una doble ventaja: no rozan el
microcircuito y emiten longitudes de onda que algunas
substancias absorben mejor que otras. La técnica de Allen
se funda en tal absorción diferencial. Somete las obleas
de silicio a vapor de agua libre de polvo, que se acumula
en las hendiduras que subyacen bajo las partículas. Ataca
luego las obleas con láseres cuya emisión infrarroja coincide con las bandas de absorción del vapor de agua, pero
no del silicio. El agua explota en forma de vapor, lanzando
las partículas lejos de las obleas para que las arrastre la
corriente de aire.
El nuevo método ha logrado así eliminar el polvo de
superficies de silicio lisas, sin estropear el substrato. Texas
Instruments está interesada en la técnica de Allen. Es lógico
para ella y para todas las empresas de microcircuitos: la
limpieza por láser podría ahorrar parte de los más de 300
millones de dólares que se invierten en limpieza en las
instalaciones de fabricación de circuitos integrados. Hoy,
los fabricantes occidentales de microelectrónica desechan
un 40 por ciento de los centenares de microcircuitos producidos de cada oblea de silicio de 15 cen­tímetros. Se sospecha que las empresas japonesas desperdician sólo el 10
por ciento de sus microcircuitos.
Allen no limita su sistema al vapor de agua. “En principio, podríamos incluso usar argón”, añade. Naturalmente,
ello requeriría emplear un láser que emita una longitud
de onda absorbible por el argón.
Por su parte, el grupo de Werner Zapka, del Centro
Alemán de Tecnología de IBM en Sindelfingen, interviene
directamente sobre la suciedad. Al dirigir un potente haz
ultravioleta de un láser excímero sobre las partículas, las
hace saltar de la oblea. Andrew C. Tam, del Centro de
Investigación Almadén de IBM en la ciudad californiana
de San José, está ahondando en la técnica de Zapka; según
sus palabras, el láser elimina las partículas incluso de substratos con puntos de fusión similares.
Esto es importante, continúa Tam, porque la carencia
de daños al substrato indica que el láser no puede estar
vaporizando las partículas. Cree que el calor, por sí solo,
provoca que las partículas salten, como al tostar maíz.
Robert J. Baseman y Douglas W. Cooper, del Centro de
Investigación Thomas J. Watson de IBM en Yorktown
Heights, han visto bailar las partículas bajo el impulso de
un láser excímero. “Mi impresión es que se podrían eliminar partículas del substrato sin dañarlo”, asegura
Baseman.
En cualquier caso, ningún sistema lasérico resuelve los
problemas de limpieza que tiene planteados el Valle del
Silicio. “Hay millones de partículas formadas por diferentes
substancias”, resume Tam. “Quién sabe cuál podrá eliminarse y cuál no.” Pero se ha de encontrar alguna solución,
o el microcircuito, cada vez más chico, se sofocará en su
propio polvo.
TEMAS 4
La retina de silicio
Misha A. Mahowald y Carver Mead
Un microcircuito basado en la arquitectura
nerviosa del ojo proporciona una forma
nueva y más poderosa de realizar cálculos
E
l ojo es la ventana a través de la
cual percibimos el mundo que
nos rodea. El ojo es también la
ventana a través de la cual discerni­
mos la forma en que actúa el cerebro.
La retina, capa delgada de tejido que
tapiza la órbita del ojo, convierte la luz
que le llega en señales nerviosas que
el cerebro interpreta como imágenes
visuales. Este pequeño apéndice del
sistema nervioso central debe extraer
todos los rasgos esenciales de una ima­
gen visual con gran rapidez y fiabili­
dad bajo condiciones de iluminación
que varían desde la oscuridad de una
noche sin luna hasta la luminosidad
extrema del sol de mediodía.
La capacidad de la retina para llevar
a cabo estas tareas es mayor que la de
los más potentes superordenadores.
Ahora bien, una por una, las neuronas
de la retina son del orden de un millón
de veces más lentas que los dispositi­
vos electrónicos y consumen una ener­
gía diez millones de veces menor.
También operan con mucha menos
precisión que los ordenadores digita­
les. El estudio de la forma en que la
retina desempeña su cometido propor­
cionará una valiosa información sobre
los principios computacionales de
otras regiones del cerebro menos acce­
sibles.
El cálculo biológico debe, pues, diferir
bastante de su contrapartida digital.
Con el objeto de estudiar esta diferen­
cia, decidimos construir un microcir­
MISHA A. MAHOWALD y CARVER
MEAD trabajan en circuitos analógicos
a gran escala en el Instituto de Tecno­
logía de California. Mahowald diseña
sistemas de visión que remedan la or­
ganización nerviosa. Mead es profesor
de informática y figura destacada en el
campo del desarrollo de métodos de di­
seño de circuitos integrados a gran es­
cala. Trabaja ahora en la creación de
modelos de silicio de la cóclea, la retina
y otras estructuras corporales.
62
cuito de silicio inspirado en la arqui­
tectura nerviosa y en el funcionamiento
de la retina. Esta retina artificial
genera, en tiempo real, unas señales
de salida que son una réplica de las
que se producen en la retina humana.
Nuestro éxito nos ha demostrado que
esta iniciativa no sólo es capaz de
esclarecer la naturaleza del cálculo
biológico, sino que sirve también para
demostrar que los principios del pro­
cesado neural de la información ofre­
cen un nuevo paradigma técnico de
extraordinaria potencia.
L
os sistemas de procesado de imágenes por medios electrónicos
habituales no guardan especial pare­
cido con la retina humana. Suelen
estar constituidos por un dispositivo
fotosensible que emite señales propor­
cionales al valor absoluto de la ilumi­
nación en cada punto de la imagen,
respaldado por un potente ordenador
que intenta extraer las características
geométricas del objeto a partir de los
datos digitales resultantes.
La retina presenta cinco capas de
células. A través de ellas fluye la infor­
mación en un sentido vertical (de cada
una de las capas a la siguiente) y en
sentido horizontal (entre las células
vecinas de una misma capa). La detec­
ción de los fotones y el procesamiento
de toda la información que éstos con­
tienen se combinan de forma muy com­
pleja. Creemos que esta arquitectura
es crucial para la formación de imáge­
nes visuales.
Las tres capas superiores de la
retina (fotorreceptores, células hori­
zontales y células bipolares) son las
que mejor se conocen. Se trata, tam­
bién, de las capas externas que hemos
simulado en la retina de silicio.
La primera capa consta de conos y
bastones, que convierten la luz inci­
dente en señales eléctricas. Las célu­
las horizontales —la segunda capa—
establecen conexiones con fotorreceptores y células bipolares a través
de la sinapsis triádica. Cada célula
horizon­tal se conecta con sus vecinas
a través de las llamadas uniones de
intervalo, por las que se difunden los
iones. En razón de esa configuración,
el potencial de una célula horizontal
viene determinado por el valor medio
ponderado espacialmente de los poten­
ciales de las células que la rodean. La
mayor contribución corresponde a las
células inmediatas; las más distantes
contribuyen relativamente menos.
Cada célula bipolar recibe sendas
señales de entrada procedentes de un
fotorreceptor y de una célula horizon­
tal y emite una señal que es proporcio­
nal a la diferencia entre estas dos. La
información procedente de la célula
bipolar atraviesa la capa celular ama­
crina, llega hasta los ganglios celula­
res y, finalmente, se transmite hasta
el nervio óptico.
La misión principal que cumplen
esas tres capas es la de adaptación.
Los fotorreceptores, las células hori­
zontales y las células bipolares reciben
una cantidad muy variable de la luz
incidente y adaptan su respuesta para
producir una señal con un intervalo
dinámico mucho más estrecho que, sin
embargo, capta toda la información a
destacar en un cuadro determinado.
La adaptación es necesaria para que
el sistema pueda responder con sensi­
bilidad a los pequeños cambios locales
de la imagen en relación con un fondo
cuya intensidad puede variar en un
factor del orden de un millón entre el
mediodía y la noche.
La retina cubre este enorme inter­
valo mediante una serie de etapas
diferentes. La primera de las respues­
tas biológicas se basa en la utilización
de dos tipos de receptores diferentes:
los bastones son sensibles a los niveles
luminosos de baja intensidad y los
conos a los niveles luminosos de inten­
sidad más alta. Por otra parte, los
conos están facultados para alterar el
intervalo de las intensidades lumino­
sas a las que responden, según el brillo
TEMAS 4
medio a largo plazo de la es­cena per­
cibida. (Estos mecanismos de adapta­
ción explican por qué, cuando una
persona pasa de una zona de sol intenso
a otra de semioscuridad, ve de­saparecer
las imágenes como si hubieran sido
obtenidas en condiciones de sobreex­
posición.)
Las células bipolares cuentan con
un intervalo dinámico más estrecho
que los de conos y bastones. El ele­
mento principal para reforzar su res­
puesta en relación con los aspectos
principales de una imagen es la si­nap­
sis triádica. La sinapsis triádica media
la retroalimentación entre las células
1. ASI VE UNA RETINA DE SILICIO un gato en movimiento.
Quedan con ello patentes las etapas iniciales del procesamiento de imágenes biológico. (Las zonas de la imagen que
son más oscuras que sus alrededores aparecen de color azul;
las que son más claras, de color rojo.) La retina responde con
MÁQUINAS DE CÓMPUTO
horizontales y los conos. En virtud de
ello, las células bipolares no tienen que
responder al brillo absoluto de una
escena; responden sólo a la diferencia
entre la señal procedente del fotorre­
ceptor y la señal media local, tal como
viene calculada por la red de células
horizontales.
mayor fuerza a las imágenes en movimiento: la cabeza del
gato y las patas delanteras sobresalen con un relieve más
acusado, mientras que las partes del cuerpo que se encuentran en reposo se confunden con el fondo. (Fotografía de
Jessie Simmons.)
63
Modelo de estructuras neuronales en silicio
L
a retina humana consta de células
que conducen las señales nerviosas de una capa a otra y por el interior
de cada capa. La retina de silicio reproduce las funciones de las tres capas
exteriores de la retina humana: los fotorreceptores (conos y bastones), las
células horizontales y las células bipolares. Los conos y bastones transforman la luz en señales eléctricas; las
células horizontales responden a la
intensidad luminosa media existente en
su proximidad; las bipolares transmiten
una señal que corresponde a la relación
entre las señales de los bastones y las
células horizontales a través de las
células ganglionares.
L
os fotorreceptores de silicio imitan la
función de los conos de la retina.
Cada uno consta de un fotosensor y un
circuito de adaptación que ajusta su
respuesta a los niveles luminosos variables. Una red de resistencias variables
simula la capa de células horizontales
y proporciona una respuesta basada en
la cantidad media de energía luminosa
que incide sobre los fotorreceptores
más próximos. Los circuitos de las células bipolares amplifican la diferencia
existente entre la señal procedente del
fotorreceptor y el valor medio local.
Todos los circuitos que se integran en
la pastilla se disponen en bloques
superpuestos. Las zonas de silicio contaminado con impurezas (verde) son las
bases de los transistores y de los fotosensores; el polisilicio (rojo) constituye
los cables y los resistores; las líneas
metálicas (azul) actúan como conductores de baja resistencia. El diagrama
(izquierda) muestra la disposición del
circuito del receptor y la red hexagonal
de resistores variables que forma la red
de células horizontales.
64
TEMAS 4
Las señales emitidas por fotorrecep­
tores y células horizontales son de tipo
logarítmico; por tanto, la señal de salida
de las células bipolares —diferencia
entre ambas—corresponderá al cociente
entre la intensidad de luz lo­cal y la
intensidad del fondo, cualquie­ra que
sea el valor absoluto del nivel luminoso.
El procesamiento posterior de esa infor­
mación en función del cociente entre
intensidades permite que la retina per­
ciba con detalle lo mis­mo las zonas cla­
ras que las oscuras encerradas en una
misma escena.
La adaptación local no se limita a
asegurar la obtención de señales ade­
cuadas para cambios pequeños del
brillo de las imágenes; suprime tam­
bién los elementos irrelevantes y
refuerza los pertinentes. Las zonas
grandes y uniformes producen sólo
señales vi­suales débiles, porque los
impulsos procedentes de un determi­
nado fotoreceptor quedan cancelados
por la señal promediada espacialmente
que procede de la red de células hori­
zontales. El perfil de los objetos pro­
duce señales intensas porque los
receptores situados a ambos lados del
perfil reciben niveles de luz que difie­
ren notablemente del promedio local.
La respuesta temporal, relativa­
mente lenta, de la red de células
ho­rizontales refuerza la respuesta del
sistema óptico a las imágenes en
mo­vimiento. Las señales de las imáge­
nes de los objetos en movimiento que
producen los fotorreceptores se obtie­
nen en un tiempo en que las señales
producidas por las células horizontales
(con las que tienen que compararse)
corresponden todavía a un nivel de
in­tensidad anterior. Al contrario de lo
que sucede en una cámara fotográfica,
que produce una sola instantánea de
una imagen, buena parte del trabajo de
la retina se dedica a registrar cambios.
A
mediados de la década de los ochen­ta, los neurocientíficos sabían ya
lo suficiente sobre el modo de operar de
las neurona: su funcionamiento no
encerraba ningún misterio. Desde el
punto de vista de un diseñador de sis­
temas, no había ninguna misión cum­
plida por un elemento neuronal que no
pudiera repetirse con dispositivos elec­
trónicos. Nuestro objetivo al construir
una retina de silicio no plantea­ba en
absoluto una reproducción biológica de
este órgano en sus últimos detalles,
sino la creación de una versión simpli­
ficada del mismo que contuviera la
estructura mínima necesaria para
remedar el funcionamiento biológico.
Cada píxel de nuestro modelo de
retina consta de tres partes: un fotorre­
ceptor, una serie de conexiones de
MÁQUINAS DE CÓMPUTO
células horizontales y una célula bipo­
lar. El fotorreceptor comprende un
elemento fotosensible y un bucle de
retroalimentación que imita el meca­
nismo lento de adaptación de los conos
en la retina biológica. El fotosensor
consiste en un transistor bipolar que
produce una corriente proporcional al
número de fotones que absorbe. El
bucle de retroalimentación amplía la
diferencia existente entre la fotoco­
rriente instantánea y su nivel medio a
largo pla­zo. El voltaje de salida de este
circuito es proporcional al logaritmo
de la intensidad luminosa.
En el clímax de su sensibilidad, el
fotorreceptor puede formar imágenes
con flujos luminosos del orden de
100.000 fotones por segundo, un valor
que correspondería a la intensidad de
la luz existente en un paisaje bañado
por la luz de la luna, enfocada sobre el
microcircuito con la ayuda de la lente
de una cámara fotográfica ordinaria.
(Este valor se halla también próximo
al límite operativo de los conos de la
retina en los vertebrados.) Los cambios
de intensidad elevados saturan la res­
puesta del fotorreceptor hasta que éste
se adapta al nuevo nivel luminoso.
Para imitar las células horizontales
construimos una red hexagonal senci­
lla de resistencias y condensadores.
Cada vértice de la red se conecta a un
determinado fotorreceptor y, a través
de resistencias idénticas variables, a
los seis vértices más próximos. Los con­
densadores corresponden a la ca­pacidad
de almacenamiento de cargas de las
membranas celulares horizontales,
cuyas finas ramificaciones presentan
una gran superficie para almacenar las
cargas iónicas procedentes del fluido
extracelular. Por su parte, las resisten­
cias constituyen una ré­plica de las
uniones de intervalo que emparejan
células horizontales adyacentes en la
retina de los vertebrados.
El voltaje, en cada vértice de la red
celular horizontal, presenta, pues, un
valor medio espacialmente ponderado
de las señales de entrada de los foto­
2. RETRATO DE LINCOLN (arriba) y su
difuminación gradual conforme la retina
de silicio se va adaptando a una imagen
inmóvil. Cuando la retina se ha adaptado
a esta imagen evanescente, la sustitución
de una hoja de papel en blanco produce
una imagen residual en negativo, de forma análoga a lo que sucede cuando el
sistema visual humano percibe estas
imágenes residuales al dejar de mirar
una escena con objetos muy brillantes.
La banda luminosa que recorta la cabeza
de Lincoln en la primera imagen se produce como consecuencia de que la retina
de silicio refuerza el contraste de los limites entre zonas claras y oscuras.
65
3. IMAGENES DE UN BALON EN MOVIMIENTO para mostrar de
qué modo la respuesta retardada de la red celular horizontal afecta a la percepción de la retina del hombre. El balón deja tras de sí
receptores a la red. Variando los valo­
res de estas resistencias, podemos
modular la superficie efectiva sobre la
que se promedian tales señales: a
ma­yor resistencia, se necesitará menos
superficie sobre la que se distribuyan
las señales. Las células horizontales
sirven también para alimentar a los
fotorreceptores y reducir su respuesta
en zonas de intensidad uniforme.
L
a señal de salida final de cada píxel
de la retina de silicio procede de un
amplificador que detecta la diferen­cia
de potencial que existe entre la sa­lida
de una unidad de fotorreceptor y el
vértice correspondiente de la red de
células horizontales. El amplificador se
asemeja, en su comportamiento, a las
células bipolares de los vertebrados.
El resultado es una pastilla de semi­
conductor (“chip”) que contiene unos
2500 píxeles (los fotorreceptores y los
circuitos de procesado de imágenes
asociados con ellos), dispuestos en
forma de una matriz de 50 por 50. Esta
pastilla retiniana incorpora, además,
todas las conexiones por cable y circui­
tos amplificadores que nos permiten
estudiar las señales de salida de cada
píxel o proceder a un barrido de las
salidas de todos los píxeles y llevarlas
hasta un monitor de televisión, que
muestra así globalmente la imagen
procesada por todo el sistema. (El pro­
ceso de diseño y construcción de esta
retina de silicio ha requerido 20 en­sayos
diferentes, cada uno de los cuales ha
costado varios meses de trabajo. La
investigación continúa para crear nue­
vos diseños, específicos para determi­
nadas tareas, y comprobar las hipóte­
sis relacionadas con el proceso de
formación de imágenes.)
El comportamiento de esta retina
artificial adaptativa muestra un estre­
cho parecido con el de los sistemas
66
una cola o estela de excitación, con zonas brillantes en los lugares
por los que han pasado las partes oscuras del mismo y con zonas
oscuras en los lugares por los que han pasado las partes claras.
biológicos. Comenzamos por examinar
la forma en que las señales de salida
de los píxeles responden a los cambios
de la intensidad luminosa cuando las
células que los rodean se encuentran
sometidas a una iluminación de fondo
constante. La forma de la curva de
respuesta es similar a la de las células
bipolares de la retina de los vertebra­
dos. Los cambios de la iluminación de
fondo modifican el potencial de la red
de células horizontales; y así, la curva
de respuesta de la retina de silicio se
desplaza de la misma manera en que
lo hacen las retinas biológicas.
La respuesta temporal de la retina
de silicio se parece también mucho a
la de las células bipolares. Cuando la
intensidad de la luz aumenta de
repente, existe un gran salto en el vol­
taje de salida, igual a la diferencia que
se aprecia entre la nueva señal de
entrada y el voltaje medio almacenado
previamente en la red de resistencias.
La respuesta disminuye hasta alcan­
zar un valor estable, para el que la red
calcula un nuevo voltaje medio.
Cuan­do la luz disminuye bruscamente
hasta alcanzar su intensidad original,
el vol­ta­je de salida adquiere un valor
inferior al original, dado que la red
posee ahora un potencial medio mayor
que el que tenía. Cuando la red vuelve
a recuperar el valor medio original, la
salida torna también a su estado del
principio. En una retina biológica, la
respuesta lenta de las células horizon­
tales asegura que los cambios bruscos
de la intensidad —que podrían corres­
ponder, por ejemplo, a la sombra de un
predador pasando sobre un animal—
atraviesen las células bipolares sin
sufrir ninguna atenuación.
En las pruebas subsiguientes, en­con­
tramos que nuestra retina de silicio
estaba sujeta a muchas de las mismas
ilusiones ópticas que perciben los
hu­manos. Recordemos una de las más
conocidas, la del contraste simultáneo:
un cuadrado gris parece ser más oscuro
cuando se coloca sobre un fondo blanco
que cuando se coloca sobre un fondo
negro. Otras ilusiones ópticas se refie­
ren a las bandas de Mach (bandas apa­
rentes claras y oscuras adyacentes a
transiciones de la oscuridad a la luz) y
a la red de Herring, en la que apa­recen
unos puntos grises en la intersección
de una red de líneas blancas.
T
odas estas ilusiones ópticas aportan datos de interés sobre el papel
de la retina biológica en la reducción
de la anchura de banda de la informa­
ción visual para extraer los rasgos
esenciales de una imagen determi­
nada. Las ilusiones se producen en
virtud de la codificación selectiva, por
parte de la retina, de la información
visual que recibe. El hecho de que
nuestro modelo de retina proporcione
en ocasiones ilusiones ópticas nos con­
firma en nuestra interpretación de los
principios según los cuales opera la
retina biológica.
El comportamiento de la retina arti­
ficial demuestra el poderío del para­
digma de cálculo analógico en que se
basan los circuitos nerviosos. El para­
digma digital que domina la computa­
ción supone que la información debe
digitalizarse para reducir al máximo
el nivel de ruido y la degradación. En
un dispositivo digital, los voltajes
si­tuados dentro de cierto intervalo se
transforman en bits con un valor de
uno, por ejemplo, mientras que los vol­
tajes situados en un intervalo dife­
rente se convierten en ceros. Todos los
dispositivos que están situados a lo
largo del camino de cálculo recuperan
los valores de sus voltajes, retornando
a sus valores correctos. La digitali­
zación impone precisión sobre sis­
TEMAS 4
Ilusiones ópticas y retina de silicio
S
i el comportamiento de la retina de silicio sufre percepciones erróneas propias del sistema visual, es legítimo
pensar que domina principios biológicos esenciales. La parrilla de Herring es una ilusión óptica que se caracteriza por la
aparición de manchas grises en las intersecciones de un
reticulado de cuadrados negros sobre un fondo blanco. Estas
manchas se producen como consecuencia de que la res-
puesta de la retina en un punto dado del campo visual depende
de la intensidad de la luz en los puntos próximos. Porque las
zonas de las intersecciones contienen más espacio blanco,
se reduce el brillo aparente de la propia intersección. Ocurre
así en la ilusión óptica de contraste simultáneo (abajo), en la
que un cuadrado gris aparece más oscuro o más claro según
el brillo del fondo sobre el que destaca.
La ampliación de la red o parrilla pone de manifiesto que no se produce ningún cambio ilusorio
en el brillo: tanto el centro como los alrededores
del campo de recepción son menores que el
espacio existente entre los cuadrados.
Cuando el tamaño del centro de recepción es
comparable al espacio existente entre los cuadrados, se produce la ilusión óptica.
La ilusión desaparece de nuevo cuando el reticulado se ve desde cierta distancia: la intensidad
media correspondiente a los alrededores es casi
la misma en todas las zonas.
Los cuadrados pequeños que existen en estas
dos figuras tienen la misma tonalidad de gris. Sin
embargo, dado que la retina percibe el brillo de
un objeto relacionándolo con el fondo en que se
encuentra dicho objeto, el cuadrado de la derecha nos parece más claro.
MÁQUINAS DE CÓMPUTO
67
4. UN CUADRADO EN ROTACION produce una cola de píxeles oscuros (color azul)
a medida que va girando. Este efecto síguese de la disminución lenta del voltaje en
la red de células horizontales de la retina; el cuadrado brillante aumenta el potencial
de esta red de células y provoca que los píxeles del fondo aparezcan más oscuros en
términos relativos. Entretanto, la zona circular del centro del cuadrado se muestra
del mismo color que el fondo, dado que su intensidad no cambia con el tiempo y, por
consiguiente, la retina se adapta a ella.
temas físicos que, por naturaleza, son
imprecisos.
Por el contrario, las neuronas son dis­
positivos analógicos: sus cálculos están
basados en corrientes de iones variables
de forma continua y no en bits que repre­
sentan valores discretos de ceros y unos.
A pesar de ello, los sistemas neuronales
son procesadores de información alta­
mente eficientes. Ello se explica por el
trabajo de los sistemas nerviosos, que se
basan en la física fundamental y no
intentan oponerse a ella.
Aunque la naturaleza no sabe nada
de bits, del álgebra de Boole o de la
teoría de sistemas lineales, muchos
fenómenos físicos cumplen importan­
tes funciones matemáticas. Por ejem­
plo, el principio de conservación de la
carga determina que las corrientes
eléctricas se sumen o resten. Las pro­
piedades termodinámicas de los iones
dan lugar a que las corrientes que flu­
yen hacia el interior de una célula sean
una función exponencial de la diferen­
cia de potencial que existe a ambos
lados de su membrana.
68
La física ayuda a explicar por qué
los circuitos integrados digitales más
eficientes que se puedan imaginar con­
sumirán del orden de 10–9 joules por
cada operación, mientras las neuronas
sólo consumen 10–16 joules. En los sis­
temas digitales, las operaciones con
datos y los cálculos deben llevarse a
cabo convirtiéndolos en un código
binario, un proceso que requiere unos
10.000 cambios de voltaje digitales por
cada operación. Los dispositivos ana­
lógicos ejecutan esta misma operación
en un solo paso y, por tanto, disminu­
yen el consumo de potencia de los cir­
cuitos de silicio en un factor del orden
de 10.000.
De mayor trascendencia resulta que
la capacidad de los circuitos neurales
analógicos para trabajar en medios
impredecibles dependa de su habilidad
para representar la información en su
conjunto. Estos circuitos responden a
las diferencias existentes en la ampli­
tud de las señales, y no a sus valores
absolutos; eliminan así, en buena
parte, la necesidad de proceder a ope­
raciones de calibrado muy precisas. El
contexto para una señal neurológica
puede ser la intensidad luminosa
me­dia local, como sucede cuando la
señal del fotorreceptor se compara con
la señal procedente de una red de célu­
las horizontales en la sinapsis triádica.
Puede tratarse también del comporta­
miento previo del propio circuito neu­
ronal, como ocurre en el proceso de
adaptación a largo plazo de un fotorre­
ceptor ante los cambios de nivel lumi­
noso. El contexto de una señal puede
estar formado también por un conjunto
algo más complejo de pautas nerviosas,
incluidas todas las que constituyen los
procesos de aprendizaje.
La interrelación existente entre el
contexto y la adaptación es un princi­
pio fundamental del paradigma neu­
ronal. Este principio condiciona los
circuitos inspirados en la neurología.
Dado que la información se basa siem­
pre en cambios y diferencias, los cam­
bios constantes son una necesidad
para los sistemas neuronales y no una
fuente de dificultades, como sucede en
los sistemas digitales. Por ejemplo,
cuando se muestra una imagen a una
retina digital, es necesario que la man­
tengamos siempre en movimiento; en
caso contrario, la retina se adaptará a
ella y dejará de percibirla. Esta exigen­
cia de cambios sitúa firmemente a los
circuitos neuronales en el mundo que
observan, en contraste con los circuitos
digitales, cuyo diseño parte de la sepa­
ración entre el sistema y el mundo
exterior.
H
emos andado ya los primeros pa ­s os en la simulación de los
cálculos que realiza el cerebro para
procesar una imagen visual. ¿Cómo
generalizar esa misma estrategia a
otros tipos de cálculos cerebrales? A
primera vista, puede parecer que la
naturaleza básicamente bidimensio­
nal de los circuitos integrados actuales
constituya un freno limitante de nues­
tro esfuerzo por modelizar el tejido
nervioso. Ahora bien, muchas partes
del sistema nervioso central están
constituidas por láminas delgadas que
soportan representaciones bidimen­
sionales de toda la información rele­
vante a efectos de los cálculos. La
retina es sencillamente el ejemplo más
obvio de esta disposición. Y, lo mismo
en el sistema nervioso que en el de
silicio, los dispositivos activos —sean
sinapsis o transistores— ocupan no
más allá del 1 o 2 por ciento del espa­
cio; los “cables” de conexión ocupan la
superficie restante. En consecuencia,
podemos asegurar que la limitación
que representan las conexiones ha for­
zado el diseño de muchas de las partes
TEMAS 4
del cerebro hasta proporcionarle una
configuración peculiar.
Las formas de conexión especializa­
das constituyen una adaptación evi­
dente a las situaciones en que el
nú­m ero de elementos de procesa­
miento viene limitado por la cantidad
total de cable de conexión que se nece­
sita para acometer una operación de
cálculo. Por ejemplo, las conexiones
cerebrales se disponen de forma tal
que permitan asegurar que toda la
información que está estrechamente
relacionada se almacena en grupos de
neuronas que se encuentran muy
próximas entre sí. En particular, las
zonas corticales que llevan a cabo las
primeras fases del procesamiento de
las informaciones visuales mantienen
constantes las relaciones espaciales de
la imagen. Esta forma cartográfica de
organización de la corteza cerebral
posibilita que la mayoría de las conexio­
nes del cerebro sean de corta longitud
y muy ramificadas. Siguiendo esta
misma disposición, en nuestra retina
de silicio las resistencias de la red celu­
lar horizontal realizaban los cálculos
para todo el circuito y no sólo los
correspondientes a las células adya­
centes más inmediatas.
El desarrollo futuro de la retina de
silicio y otros microcircuitos, similares
a éste e inspirados también en las
neuronas, discurrirá por dos caminos
po­tencialmente divergentes. Consiste
el primero en la creación de una
máquina de visión mejorada. Al fin y
al cabo, una pastilla (“chip”) que aloje
un conjunto de circuitos analógicos,
más o menos sencillos, puede realizar
las mismas funciones que un sistema
de muchas pastillas que contenga un
sensor de imágenes, muchos micro­
procesadores potentes y pastillas con
gran capacidad de memoria. Algo se
ha he­cho en este sentido; me refiero al
diseño de circuitos binoculares, forma­
dos por la asociación de dos retinas de
silicio, con el fin de determinar la dis­
tancia entre dos objetos de una misma
escena.
La visión real (o algo que se le
aproxime) exigirá probablemente la
utilización de microcircuitos de retina
que centupliquen el número de píxeles
de los actuales, amén de otros circuitos
capacitados para reproducir, de la
mejor manera posible, el trabajo de las
funciones que son sensibles al movi­
miento y que refuerzan los perfiles de
las imágenes. En última instancia,
estos sistemas deberán incorporar
también ciertos circuitos nerviosos
que reconozcan las imágenes produci­
das por la retina.
El otro camino conducirá hacia un
objetivo todavía más ambicioso: la
MÁQUINAS DE CÓMPUTO
comprensión del cerebro. Durante
años, los biólogos han dado por
su­puesto que el funcionamiento del
cerebro se entendería del todo cuando
se supiera de qué modo operan todas
las moléculas integrantes de una
membrana nerviosa. Pero el modelo
del cálcu­lo digital y el del cálculo ana­
lógico han demostrado la falsedad de
esa suposición. Después de todo, los
ordenadores se construyen partiendo
de un sistema de dispositivos perfec­
tamente establecido cuyo funciona­
miento se conoce en sus más mínimos
detalles. Lo que no empece que,
mu­c hísimas veces, sea imposible
demostrar que un simple programa de
ordenador calculará cierto resultado o
incluso si el correspondiente cálculo
llegará a su fin.
D
ejando al margen la perfección que
se alcance en la reproducción de
esa arquitectura del cerebro, este
di­seño, por sí solo, no nos proporcio­
nará una visión global de los principios
y representaciones que rigen la orga­
nización del sistema nervioso. Las
interacciones entre los cálculos corres­
pondientes son demasiado complejas.
No obstante, si los investigadores son
capaces de fabricar sistemas de silicio
que reproduzcan adecuadamente un
sistema biológico, pueden contribuir a
hacer progresar nuestros conocimien­
tos actuales del sistema nervioso.
El éxito de esta aventura puede ten­
der un puente entre la neurobiología y
las ciencias de la información, amén
de permitir un conocimiento más
hondo del cálculo como proceso físico.
Todos estos planteamientos fructifica­
rán en una visión totalmente nueva
del procesamiento de la información
que canalice la potencia de los siste­
mas analógicos colectivos para resol­
ver problemas que son inabordables
con los métodos digitales al uso.
BIBLIOGRAFIA COMPLEMENTARIA
The Retina: An Approachable Part of
the Brain. John E. Dowling. Belknap
Press of Harvard University Press, 1987.
Adaptive Retina. Carver Mead y Mohammed Ismail. Kluwer Academic Publishers, 1989.
An Electronic Photoreceptor Sensi­
tive to Small Changes in Intensity.
T. Del­bruck y C. A. Mead en Advances in
Neural Information Processing Systems
I. Dirigido por David Touretzky. Morgan
Kaufmann Publishers, 1989.
Silicon Retina. M. A. Mahowald y Carver
Mead en Analog VLSI and Neural Systems. Dirigido por Carver Mead. Addison-Wesley, 1989.
69
Cuestión de peso
Deborah Erickson
L
as tarjetas de memoria constituyen el nervio
de los ordenadores portátiles. Pero, ¿por qué
tienen éstos que pesar tres kilos? Se responderá que la mitad del peso se lo llevan las baterías
que alimentan la operación del control mecánico
del disco que permite almacenar datos. Cabe, sin
embargo, otra vía alternativa. Los fabricantes de
circuitos integrados y de ordenadores están empeñados en crear una forma de memoria permanente, libre de los inconvenientes que presentan
los soportes de registro magnético.
La solución podría venir de las tarjetas de memoria, que son paquetes de microcircuitos de silicio.
Del tamaño de una tarjeta de crédito, aunque algo
más gruesas, las tarjetas de memoria almacenan
programas y datos. Son menores, más rápidas y
más ligeras que los controles mecánicos de disco
empleados por los ordenadores portátiles y de
sobremesa. Los datos almacenados en los microcircuitos se pueden recuperar rápidamente con
muy poco consumo de energía. Con las nuevas
normas de diseño de equipos y programas, las
tarjetas de memoria compatibles transformarán
radicalmente el significado de “portátil”.
Conforme las tarjetas vayan almacenando y procesando mayor información, ensancharán el radio
de aplicación de los ordenadores personales.
Aparte de las hojas de cálculo y los programas de
tratamiento de textos, los ingenieros sueñan con
módulos conectables que ofrezcan mapas de
carreteras, listas de restaurantes y hasta periódicos. Las tarjetas de memoria a medida han hallado
ya aplicaciones industriales en vuelos de pruebas
de aviones y control de inventarios. No hace
muchos años se introdujeron en sintetizadores de
música, cartuchos de videojuegos, aprendizaje de
pronunciación y agendas.
El primer escollo grave que ha habido que superar ha sido el de la normalización, estándar que
se resume en el acrónimo PCMCIA, que en inglés
designa la asociación internacional de ordenadores personales con tarjeta de memoria. Cada uno
iba al comienzo por libre, pero ya se ha logrado
la estandarización.
Bajo la norma de PCMCIA, los conectores en las
tarjetas de memoria tendrán todos 68 agujas; cada
una corresponde a una señal discreta de almacenamiento de datos. Se reserva alguna para futuros
usos, tales como funciones periféricas, como los
módems. No es casualidad que la norma de distribución de agujas coincida con la propuesta por la
70
Asociación de Desarrollo de la Industria Electrónica
del Japón (JEIDA) en 1985. Los fabricantes occidentales querían un acuerdo y lograr que cualquier máquina que emplease el sistema operativo
corriente MS-DOS (por ejemplo, los PC de IBM)
pudiera usar cualquier tarjeta.
De la misma manera que se están desarrollan­do
diferentes funciones para las tarjetas de
me­moria y de entrada y salida, los fabricantes
de semiconductores están ensayando diversos
métodos de almacenamiento de datos. Los
circui­tos integrados de memoria usados en la
mayoría de los ordenadores, conocidos como
DRAM (“Dynamic Random Access Memory”, o
memoria de acceso aleatorio dinámico), no son
apropiados para almacenamiento permanente
porque no retienen los datos cuando se desconecta el ordenador.
La estrella ascendente entre los sistemas de
almacenamiento de datos es la memoria relámpago, o Flash; muchos lo consideran el mejor sistema para las tarjetas de memoria. No necesita
batería para mantenerla y se puede reprogramar
eléctricamente.
El inconveniente de Flash es que hay que
borrarlo por sectores. En lugar de variar un mensaje de “Hola Sara, ¿cómo estás?” a “Hola, Sito...”
simplemente cambiando el nombre, Flash guardará un documento entero, consumiendo valioso
espacio. Algunas compañías se esfuerzan en salvar
esa limitación borrando bloques cada vez menores; otras fían en los programas para que se cuiden
de borrar lo sobrante cuando el usuario está trabajando en otra zona de la tarjeta.
Cada clase de pastilla requiere su propio modo
de almacenamiento de datos. A fin de superar
este obstáculo para la intercambiabilidad, PCMCIA
y JEIDA se pusieron de acuerdo en normalizar un
“Metaformato”, o indicador lógico que describe,
para cualquier máquina adaptada al mismo, el
contenido del disco y su organización interna. El
problema estriba, sobre todo, en la compatibilidad de medios entre las versiones antiguas y las
más modernas de MS-DOS.
Todavía hay dificultades que allanar, pero es
seguro que el campo avanzará con el perfeccionamiento de las tarjetas de memoria. Las empresas agresivas y rápidas ganarán dinero a corto
plazo, hasta que los costes de fabricación inevitablemente se conviertan en el más exigente criterio
de supervivencia.
TEMAS 4
MÁQUINAS DE CÓMPUTO
71
Semiconductores
de arseniuro de galio
Marc H. Brodsky
No se trata de que sustituyan a los de silicio.
Su velocidad y sus propiedades ópticas permiten muchas aplicaciones
en el campo de los ordenadores y de las comunicaciones optoelectrónicas
L
a era de la electrónica se asienta
sobre la explotación de circuitos microscópicos grabados
sobre láminas de silicio. El éxito actual
y las perspectivas futuras del silicio en
los sistemas electrónicos domésticos,
comerciales, industriales y militares
explica la actitud crítica de quienes
trabajan con él ante la aparición de
otro semiconductor prometedor, el
arseniuro de galio. “El arseniuro de
galio”, dicen con sorna, “es la técnica
del futuro, siempre lo ha sido y siempre lo será”.
Al cabo de casi treinta años de ser
la técnica del futuro, el arseniuro de
galio ha empezado a abrirse su propio
camino, no para desbancar al silicio,
sino para servirle de complemento en
nuevas aplicaciones. Sus ventajas
específicas se centran en la velocidad
con que los electrones se mueven a su
través, en las operaciones con señales
débiles y en la generación y detección
de la luz. Estas ventajas revisten especial interés en muchas aplicaciones
relacionadas con los ordenadores, con
la recepción de señales de televisión y
con la transmisión optoelectrónica de
datos a través de redes de fibras ópticas (la fotónica, como se denomina esta
técnica). Los láseres y diodos emisores
MARC H. BRODSKY ha dirigido muchos trabajos de investigación sobre las
propiedades fundamentales y las aplicaciones de los semiconductores, en el
Centro de Investigación Thomas J. Wat­
son de la empresa IBM en Yorktown
Heights. Estuvo al frente del laboratorio de tecnología avanzada de arseniuro de galio hasta su nombramiento como
director de planificación técnica en la
división de investigación de esta empresa. Brodsky cursó todos sus estudios
de física en la Universidad de Pennsylvania.
72
de luz de arseniuro de galio, que se
utilizan en los equipos de reproducción
de discos de audio y en las técnicas de
producción de imágenes vi­s uales,
alcanzan una importante cifra de ventas. Cada año se venden cientos de
miles de antenas receptoras de las
señales procedentes de satélites en las
que se utilizan detectores de arseniuro
de galio. Se prevé que el empleo de
circuitos de gran velocidad que utilicen transistores de arseniuro de galio
alcanzará una difusión similar dentro
de muy pocos años. En una economía
y una sociedad que dependen del intercambio rápido de información y de su
procesado subsiguiente, se exigirá que
muchos de los dispositivos basados en
el silicio incorporen una proporción
considerable de componentes de arseniuro de galio para realizar adecuadamente su trabajo.
L
a tecnología del arseniuro de galio
ha seguido las huellas del curso
de desarrollo que los científicos trazaron en su día para el silicio. Desde la
invención del transistor, en 1948, por
John Bardeen, Walter H. Brattain y
William B. Shockley, de la compañía
Bell Telephone, los investigadores han
intentado mejorar los semiconductores siguiendo dos caminos diferentes.
En primer lugar, los físicos e ingenieros electrónicos buscan materiales que
sean capaces de conectar y desconectar un circuito con la mayor rapidez
posible, y que lleven a cabo además
otras operaciones, tales como la detección y producción de luz. La verdad es
que la preparación del arseniuro de
galio —un material que no existe en la
naturaleza— se llevó a cabo, en los
años cincuenta, gracias a Heinrich
Welker, de los Laboratorios Siemens,
con la intención de cubrir estos objetivos. Welker investigó, con idéntico
pormenor, otros semiconductores rela-
cionados con este material, derivados
de elementos situados en las columnas
del sistema periódico adyacentes a la
del silicio y germanio, que fueron los
elementos constituyentes de los primeros transistores.
En segundo lugar, los ingenieros se
han preocupado por mejorar las técnicas de fabricación de los semiconductores. Este trabajo exige que las propiedades físicas y químicas de los
semiconductores estén bien definidas
y que se desarrollen los procesos y los
materiales auxiliares compatibles con
ellos, para fabricar los aislantes, conductores, conexiones externas y otros
componentes esenciales de los correspondientes circuitos. Los materiales
semiconductores han de purificarse
con sumo cuidado, combinarse con
otras sustancias en proporciones precisas y producirse en forma de cris­
tales perfectos; las imperfecciones
originadas durante el proceso de fabricación de los transistores y circuitos
deben eliminarse sin comprometer las
propiedades electrónicas deseadas. Ni
siquiera hoy es fácil el cumplimiento
de ninguno de estos requisitos; mucho
menos lo fue en un principio, cuando
tuvo que crearse una nueva ciencia de
los materiales conjugando una serie de
estudios fundamentales de física, química, metalurgia y otras disciplinas.
Intentaré guiar al lector a través de
estos campos atractivos, e interrelacionados, de la física, la ingeniería, los
materiales y la electrónica, para
demostrar por qué el arseniuro de
galio es un material cuya comercialización constituye un reto y se nos
ofrece, a la vez, tan prometedora.
La propiedad más interesante del
arseniuro de galio es la gran facilidad
con que los electrones se mueven en su
seno: a igualdad de condiciones, los
circuitos de arseniuro de galio son más
rápidos que los circuitos de silicio para
TEMAS 4
potencias iguales o incluso inferiores.
Como el arseniuro de galio consume
me­n os energía, el calor que ha de
ex­traer­se del circuito resulta menor.
Esta propiedad adquiere toda su
im­por­tancia si se tiene en cuenta la
relación que existe entre la velocidad
de un se­mi­conductor y la energía que
consume.
Un ingeniero tiene que prestar
atención al problema de la velocidad
en el contexto de un dispositivo concreto y no en un cristal puro de un
determinado elemento o compuesto.
En la actualidad se utilizan diferentes tipos de transistores como elementos de conexión y desconexión en circuitería electrónica (véanse las figuras
2 y 3). La realización de cálculos o el
procesamiento de datos se llevan a
cabo efectuando ciertos cambios en
estos dispositivos. Estos cambios no
pueden ser más rápidos que la velocidad de conexión o desconexión, es
decir, el tiempo que un electrón
invierte en atravesar la región del
semiconductor gobernada por las
señales eléctricas procedentes de otra
parte del circuito.
La velocidad de conexión o desconexión de un semiconductor depende
de la velocidad media con que los electrones se mueven en su seno; esta velocidad es del orden de un millón o más
de centímetros por segundo. Los electrones encuentran muchos obstáculos
en su movimiento a través de un transistor; como consecuencia de las
muchas colisiones que tienen con los
átomos, los iones o con otros electrones, los electrones en cuestión adquieren una distribución de velocidades
característica, cuya forma viene determinada por el campo eléctrico bajo el
que se mueven y por la manera en que
resultan difundidos por los átomos que
constituyen el semiconductor y las
impurezas existentes en el mismo. Los
electrones se mueven en todas direcciones y pierden, a menudo, una parte
de su energía, disminuyendo su flujo
neto en la dirección del campo eléctrico
aplicado.
Una analogía mecánica nos ayudará
a explicar de qué modo influyen las
propiedades físicas sobre el movimiento de un electrón en un semiconductor. Podemos representar dos
1. DISPOSICION ANIDADA de los átomos de arsénico (naranja) y de galio (verde) que constituyen el arseniuro de galio, en
MÁQUINAS DE CÓMPUTO
materiales semiconductores diferentes mediante sendos tubos, recubiertos
de obstáculos, vibrantes y estacionarios, e igualmente inclinados respecto
a la horizontal. Los obstáculos simbolizan el mecanismo de difusión, mientras que la inclinación proporciona un
campo gravitatorio correspondiente al
campo eléctrico; unas bolitas que caen
por el interior de los tubos representan
a los electrones. En este símil la velocidad de conexión es el tiempo que
tardan las bolas en alcanzar el extremo
inferior de los tubos, mientras que la
movilidad de los electrones está representada por la facilidad con que salvan
los obs­táculos. También podemos considerar esta cualidad como una consecuencia del tamaño de las bolas: cuanto
menores sean, menos chocarán e irán
más rápidas.
Los electrones de los semiconductores se mueven a través de un conjunto
de átomos constituyentes que se disponen en una red cristalina determinada. Como los electrones de conducción se comparten entre todos los
átomos presentes, dicha red tiene el
carácter electrónico de un simple tubo
una microfotografía obtenida por Randall M. Feenstra y Joseph A. Stroscio, de la compañía IBM.
73
respecto al paso de los mismos. Las
estructuras formadas por átomos de
galio y de arsénico que se pueden
observar en la imagen de microscopía
electrónica que reproducimos en la
figura 1 atraen a los electrones móviles
con menor intensidad de lo que lo
hacen las de los átomos de silicio. Por
esta razón los físicos consideran que la
masa efectiva de los electrones resulta
menor en el arseniuro de galio que en
el silicio. Hay factores adicionales que
contribuyen a proporcionar mayor
movilidad, de modo que los electrones
alcanzan mayores velocidades en el
primero; la distancia recorrida entre
dos colisiones consecutivas resulta ser
también mayor.
Se puede evitar por completo la
di­fusión haciendo que los recorridos
crí­ticos sean más cortos que la distancia media entre las colisiones sucesivas de los electrones. Se aseguraría así
que la mayoría de los electrones
atrave­sasen la zona crítica realizan­do
re­corridos balísticos (véase “Elec­trones
ba­l ísticos en semiconductores”, por
Mor­d ehai Heiblum y Lester F.
Eastman, Investigación y Ciencia,
abril de 1987). Sin embargo no se
pien­sa que este principio pueda tener
aplicación práctica hasta que hayan
transcurrido algunos años desde que
los transistores de arseniuro de galio
ordinarios encuentren su lugar adecuado en el menú tecnológico.
La analogía de las esferas y los tubos
con las colisiones de los electrones sólo
puede aplicarse a las aceleraciones
resultantes de la acción de campos
eléctricos inferiores a 10.000 volt por
centímetro. La aplicación de campos
superiores origina efectos físicos adicionales que producen saturación,
situación en la que los electrones se
hacen realmente más pesados; en tal
caso la ventaja del arseniuro de galio
sobre el silicio se reduce y puede llegar
a invertirse. Los voltajes óptimos de
trabajo del arseniuro de galio son de
hecho inferiores a los del silicio, circunstancia que dificulta la interconexión de circuitos de uno y otro tipo.
La coexistencia de ambos semiconductores impone adoptar voltajes de compromiso.
L
a movilidad tiene también importancia en las operaciones a alta
frecuencia y con bajo nivel de ruido.
Puede reducirse el ruido (es decir, las
fluctuaciones aleatorias del voltaje
que determinan el valor mínimo utilizable de la señal), para frecuencias
elevadas, aumentando todo lo posible
la movilidad de los electrones, tanto en
el propio transistor como en sus
conexiones al resto del circuito. La
utilización de circuitos de arseniuro de
galio de bajo nivel de ruido es muy
ventajosa para la detección de señales
de televisión y de microondas.
2. ESTE TRANSISTOR BIPOLAR sirve para abrir y cerrar un circuito que se conecte entre su emisor y su colector, dos regiones en las que existen electrones suministrados por donantes (contaminación de tipo n). Estas zonas están separadas por una
región controlada, la base, que contiene algunos agujeros (contaminación de tipo p).
Cuando a esta base se aplica una corriente, los electrones inyectados por el emisor
atraviesan el transistor y llegan hasta el colector, cerrando el circuito. Estos dispositivos se fabrican sobre obleas de silicio utilizando procedimientos fotolitográficos
y otros métodos de crecimiento y elaboración. El arseniuro de galio que se utiliza
en dispositivos bipolares se deposita formando tres capas diferenciadas; una o varias
de estas capas pueden contener cantidades variables de aluminio.
74
El otro motivo principal de la superioridad del arseniuro de galio sobre
el silicio estriba en la enorme facilidad
con que pueden modificarse las separaciones entre sus bandas electrónicas
o niveles de energía. Esta “ingeniería
del intervalo entre bandas” puede originar ciertas propiedades optoelectrónicas muy versátiles y permite diseñar transistores más flexibles. Una
banda electrónica define el intervalo
de energías que posee un electrón y
representa una forma ensanchada del
estado energético de un electrón en un
átomo. En un semiconductor puro la
banda de valencia (que contiene a los
electrones responsables del enlace
químico) está fundamentalmente
llena o completa; el nivel de energía
mayor inmediatamente siguiente, la
banda de conducción, está fundamentalmente vacía. Mediante un proceso
de contaminación se crean algunas
cargas móviles en las bandas; este
proceso consiste en una adición cuidadosa de trazas de impurezas en el
semiconductor de base. Las regiones
que poseen electrones en la banda de
conducción reciben el nombre de semiconductores de tipo n; se preparan
contaminando el material básico con
átomos que se comportan como donantes de electrones; las regiones de tipo
p se forman añadiendo agujeros cargados positivamente (cada uno de
estos agujeros consiste, en realidad,
en la ausencia de un electrón en la
banda de valencia).
La diferencia de energías entre la
parte superior de la banda de valencia
y la parte inferior de la banda de conducción se denomina intervalo o separación entre las bandas. Este intervalo es mayor en el arseniuro de galio
que en el silicio, pero su anchura
puede aumentarse o reducirse sustituyendo los átomos que lo constituyen
por otros diferentes (aleación). Por
ejemplo, si el galio se sustituye por
aluminio, para dar lugar al arseniuro
de aluminio, la anchura del intervalo
entre las bandas resulta mucho
mayor. Las sustituciones parciales de
átomos producen intervalos de bandas cuya anchura guarda proporción
directa con la cuantía de aluminio en
la aleación. Se pueden crear otras
aleaciones útiles sustituyendo algunos átomos de galio por indio, de arsénico por fósforo o recurriendo a ambas
sustituciones a la vez.
Los espaciados interatómicos de las
aleaciones de arseniuro de galio y aluminio se ajustan tan bien a los del
arseniuro de galio puro que pueden
unirse átomo a átomo ambos materiales sin que aparezcan defectos. Esto
permite utilizar capas muy delgadas
TEMAS 4
de dos o más aleaciones alternadas
para crear heterouniones, es decir,
estructuras cuyos intervalos entre
bandas varían de una capa a otra. Un
ejemplo de esta posibilidad es la
su­perred de semiconductor, inventada
por Leo Esaki y sus colaboradores en
la empresa IBM. Esta estructura singular consiste en un depósito de una
serie de capas sucesivas y alternas de
arseniuro de galio y aluminio y de
ar­seniuro de galio, depositadas sobre
un sustrato de este último. Los electrones que se mueven paralelamente
a los planos de las capas que constituyen esta especie de “bocadillo” resultarán confinados normalmente en el
intervalo de bandas más bajo de las
capas de arseniuro de galio. Para que
se muevan en sentido perpendicular
deben penetrar y atravesar las barreras de los intervalos de bandas del
arseniuro de galio y aluminio. Va­riando
el número, la anchura y la composición de dichas capas se pueden manipular las propiedades físicas y electrónicas de las heterouniones semiconductoras.
E
l crecimiento de cristales perfectos
constituye un requisito esencial
para aprovechar las ventajas que
representa la variabilidad del intervalo de bandas del arseniuro de galio.
Por desgracia los espaciados atómicos
de muchas aleaciones que poseen las
propiedades electrónicas adecuadas
resultan inapropiados; sus redes cristalinas no se entremezclan, ni tampoco
lo hacen con las del arseniuro de galio.
Si se procede a laminar dos cristales
mal ajustados, algunas filas de átomos
saltarán a través de las caras adyacentes, creando defectos que pueden propagarse a lo largo de la capa correspondiente y arruinar su aprovechamiento electrónico. Este efecto
limita la lista de sustancias que pueden unirse. Se puede aceptar cierto
desajuste entre las redes siempre que
una de las capas cristalinas sea muy
delgada, pero así se restringen también las posibilidades del diseño.
En algunos casos se consiguen modificaciones importantes de la anchura
del intervalo entre bandas utilizando
un sustrato diferente. Por ejemplo, en
los láseres de fosfuro y arseniuro de
galio e indio se utilizan sustratos de
fosfuro de indio; esta clase de láseres
resulta muy indicada en las comu­
nicaciones a grandes distancias
me­diante fibras ópticas.
A veces se evitan los desajustes
directos entre dos capas cristalinas
que posean las propiedades electrónicas requeridas separándolas mediante
unas superredes amortiguadoras diseMÁQUINAS DE CÓMPUTO
3. LOS TRANSISTORES DE EFECTO DE CAMPO regulan el paso de electrones a
través de un canal situado bajo un electrodo: la puerta. Cuando se aplica una carga
positiva a ésta, atrae a los electrones hacia la parte superior del sustrato, creando
un canal conductor con contaminación de tipo n. Este canal conduce a los electrones
desde una región de tipo n, la fuente, hasta otra región de tipo n conocida como
sumidero o drenador, cerrando el circuito al que estos terminales están conectados.
En la versión de silicio (parte inferior) se utiliza el óxido natural de este elemento
como capa aislante entre la puerta y el sustrato. Por contra, el diseño normal con
arseniuro de galio tiene ambos conectados (parte superior).
ñadas al efecto. Estos materiales
amortiguadores están constituidos por
varias aleaciones cuyos cristales
poseen espaciados atómicos intermedios a los de las capas activas, siendo
capaces de absorber de forma gradual
las tensiones mecánicas generadas en
ellas. Los materiales amortiguadores
permiten también aislar los circuitos
de cualquier defecto residual que esté
presente en el sustrato de arseniuro
de galio. La utilización de estas super­
redes ha permitido mejorar bastante
las cualidades de ciertos láseres y
transistores.
Raymond Dingle y sus colabora­
dores, de los Laboratorios Bell, pusieron a punto en 1979 un nuevo diseño
para transistores de efecto de campo
heterounión, basado en la colocación
de un canal de arseniuro de galio bajo
una capa de arseniuro de galio y aluminio. Estos autores descubrieron
que, cuando un átomo contaminante
75
situado en una capa de arseniuro de
galio cede un electrón a la banda de
conducción, se convierte en un ion
positivo que produce la dispersión de
otros electrones. En consecuencia procedieron a separar los átomos donantes de electrones presentes en el arseniuro de galio introduciendo ciertos
contaminantes en una capa adyacente
de arseniuro de galio y aluminio. Los
electrones que proporcionan los átomos contaminantes se mueven hacia
la banda de conducción más baja de
la capa de arseniuro de galio más
próxima y, por tanto, se mueven más
deprisa de lo que lo harían si los átomos donantes ionizados permanecieran en el canal, bloqueando su camino.
Esta técnica de contaminación modulada no tardó en incorporarse en los
transistores de efecto de campo de
arseniuro de galio fabricados por las
firmas Fujitsu y Thomson-CSF.
Gracias a ella se au­men­ta la movilidad
de los electrones en un veinte por
ciento a temperatura ambiente.
Cuando se en­frían a temperaturas de
77 grados Kelvin (es de­cir, 77 grados
centígrados por en­cima del cero absoluto), los transistores de este tipo trabajan con una movilidad tres veces
mayor que la de los dispositivos contaminados según las técnicas habituales.
O
tro aspecto material del arseniuro
de galio que podría acelerar la
velocidad de los circuitos es que sus
obleas pueden actuar como semiaislantes. Dichas obleas sirven de sustrato sobre el que se construyen los
dispositivos y circuitos. Los sustratos
de silicio presentan siempre cierta conductividad eléctrica, debido a que su
intervalo entre bandas es menor y a
que las cantidades de contaminantes
residuales activos (no deseados) es
mayor; en consecuencia su utilización
introduce cierta capacitancia en los
correspondientes circuitos, reduciendo
la velocidad con que los electrones los
atraviesan. La mayor anchura del
intervalo de bandas del arseniuro de
galio permite prepararlo en forma
semiaislante, bien manteniendo los
sustratos completamente libres de
contaminantes activos, bien incorporando ciertos contaminantes especiales autocompensantes para cancelar,
casi del todo, el efecto de los residuales.
Estas ventajas sobre el silicio desaparecen cuando los niveles de integración
superan algunos miles de circuitos por
pastilla, en cuyo caso es la capacitancia entre las numerosas conexiones,
muy poco separadas, la que determina
el límite crítico de la velocidad de la
señal.
76
Además de la movilidad de los electrones y de la flexibilidad del intervalo
entre bandas, la tercera y más importante ventaja del arseniuro de galio
sobre el silicio es su capacidad de emitir y detectar radiación en el infrarrojo
próximo. La energía potencial de un
electrón que se mueva desde la banda
de conducción hasta la de valencia en
el arseniuro de galio puede emitirse en
forma de un cuanto de radiación electromagnética o fotón. En el caso del
silicio esta misma reacción suele desarrollarse mediante un proceso no
radiante, una colisión por ejemplo,
para conservar el momento. Esta diferencia en las propiedades del intervalo
entre bandas explica por qué el arseniuro de galio puede realizar funciones
optoelectrónicas y el silicio no.
U
na fuente de radiación de arseniuro de galio consiste en un
dio­do en el que existen dos regiones
con contaminaciones opuestas; en la
región de tipo p existen muchos agujeros (en la banda de valencia) y en la
región de tipo n existen muchos electrones (en la banda de conducción). La
aplicación de un voltaje a este diodo
p/n produce una inyección de agujeros
y electrones en la zona que separa las
dos regiones, creando un exceso de
ambos. La combinación de un electrón
y un agujero origina su aniquilación;
la energía correspondiente al intervalo
de bandas de los electrones se emite
en forma de un fotón.
Esta recombinación electrón-agujero es de una gran eficiencia (en
ciertas condiciones puede convertir
la mayor parte de la energía eléctrica
en energía luminosa) y puede utilizarse muy fácilmente para producir
un componente electrónico familiar:
el diodo emisor de luz (conocido por
las iniciales de estas palabras en
inglés, led). Los led de arseniuro de
galio y fósforo o de arseniuro de galio
y aluminio se encuentran en la mayoría de los aparatos electrónicos, en
forma de lucecitas de color amarillo
o rojo, respectivamente, fabricándose
anualmente decenas de millones de
ellos.
Los diodos de láser producen radiación más concentrada. Las caras del
cristal que forma estos dispositivos son
perfectamente paralelas y se comportan como espejos semitransparentes.
La luz que se refleja en ellas atraviesa
una y otra vez la región de recombinación, donde estimula la emisión de
radiación de la misma longitud de
onda y dirección. El haz resultante
presenta una gran coherencia. Los
láseres de diodo semiconductor se
fabricaron por vez primera a partir de
uniones p/n de arseniuro de galio en
sendos ensayos llevados a cabo de
manera independiente por las empresas IBM y General Electric en 1962.
Los diseños modernos, basados en el
intervalo entre bandas, dependen de
estructuras que contienen capas de
composiciones diferentes. Por ejemplo,
los láseres de arseniuro de galio emiten radiación de longitud de onda
situada en el infrarrojo próximo,
de­bido a que el intervalo entre bandas
del arseniuro de galio corresponde a
una energía situada por debajo mismo
de los fotones visibles. Si se mezcla el
arseniuro de galio con otros elementos
(aluminio, indio, fósforo) varía la
anchura de dicho intervalo aumentando o disminuyendo, lo cual produce
una salida que, según los casos, se
sitúa en el infrarrojo más lejano o en
la región visible.
La capacidad del arseniuro de galio
y de sus aleaciones para detectar la
luz, invirtiendo la reacción en que se
basa el funcionamiento de los led y de
los diodos láser, reviste también interés. Los fotodetectores resultantes se
pueden ajustar a una determinada
longitud de onda por medio de las mismas técnicas basadas en el intervalo
entre bandas que se utilizan para ajustar los diodos láser. Por su gran rendimiento, la respuesta de los fotodetec­
tores de arseniuro de galio es mucho
más rápida que la de los de silicio. Y
presentan otra ventaja adicional: su
fácil integración en los circuitos de alta
velocidad de arseniuro de galio.
L
a posibilidad de integración constituye un factor fundamental por
razones económicas y funcionales. En
primer lugar, como en todos los procesos basados en la miniaturización, la
integración abarata los costes unitarios de estos dispositivos, pues con una
simple oblea se fabrican un gran
número de pastillas y cada pastilla
contiene, a su vez, miles de circuitos.
En segundo lugar, si se coloca un fotodetector muy cerca del circuito que
primero ha de amplificar su señal, se
puede diseñar la conexión entre ambos
de forma tal que se reduzca al mínimo
la captación de señales no deseadas
procedentes de los circuitos próximos;
este fenómeno, llamado intermodulación, constituye un problema serio en
los circuitos que usan detectores no
integrados conectados mediante conductores normales. Otra posibilidad
más especulativa es la de fabricar pastillas en las que una señal óptica
module directamente a otra. Se han
propuesto muchos dispositivos de este
tipo, pero todavía se está lejos de
hacerlos realidad.
TEMAS 4
Además de poder producir y detectar luz, el arseniuro de galio posee
otras muchas cualidades que pueden
tener interés en determinadas aplicaciones. Por ejemplo, su amplio intervalo de temperaturas de trabajo y su
gran resistencia a la radiación de alta
energía le hacen idóneo para la automoción y la industria militar, respectivamente.
No basta con determinar las propiedades del arseniuro de galio ni con
desarrollar las formas de utilizarlas;
es necesario, además, poder fabricar
los productos pertinentes y hacerlo con
mucha calidad y bajo coste. El problema de las técnicas de producción,
de las que nos vamos a ocupar a continuación, es, en muchos sentidos, el
más difícil de todos.
Como sucede en el caso del silicio,
el arseniuro de galio forma elementos
electrónicos de acuerdo con ciertas
condiciones impuestas por sus pe­culia­res características físicas y químicas. Estas condiciones se complican por el hecho de que en los circuitos integrados se requieren muchos
componentes que no son semiconductores. Cabe ci­tar entre ellos a los conductores metálicos de interconexión,
a los aislantes, a las resistencias y
condensadores que controlan el flujo
de la corriente y a los contaminantes
que proporcionan los electrones y los
huecos.
Uno de los principales inconvenientes del arseniuro de galio y de las alea­
ciones con él relacionadas es la inexistencia de un óxido natural útil, como
el que forma el silicio cuando se calienta
en el aire. El óxido de silicio forma un
recubrimiento electrónico y mecánico
que tiene muchas aplicaciones. El
óxido de silicio proporciona el aislamiento necesario entre la puerta y el
4. PASTILLA OPTOELECTRONICA de
arseniuro de galio: recibe luz infrarroja
sobre su fotodetector (detalle) a razón de
mil millones de bits por segundo y la
convierte en una señal eléctrica débil. El
fotodetector y los circuitos de amplificación y procesado electrónico están montados en la misma pastilla. Un conductor
cuya longitud resulta demasiado corta
para recoger las señales espurias procedentes de los circuitos próximos conecta
el detector con el primero de una serie
de amplificadores. Un conjunto de circuitos adicionales que contienen miles
de transistores distribuyen los datos en
paquetes de ocho bits (bytes) y los introducen a continuación en los orde­nadores
digitales. Esta pastilla forma parte de un
grupo de tres, que pueden recibir y
transmitir datos mediante funciones optoelectrónicas; este dispositivo ha sido
fabricado en la unidad de investigación
del arseniuro de galio de IBM.
MÁQUINAS DE CÓMPUTO
77
canal de los transistores de efecto de
campo (véase la figura 3). En los circuitos que usan transistores bipolares
aporta el aislamiento entre transistores adyacentes. Se emplea también
para la fabricación de transistores y
microcircuitos, pues crea una capa
protectora en la que se pueden practicar ventanas con diversas finalidades:
para permitir que actúen los reactivos
químicos y graben pautas, para depositar metales y producir láminas conductoras o para añadir contaminantes
y activar determinadas regiones del
material.
En el caso del arseniuro de galio, en
cambio, los técnicos tienen que produ­
cir los aislantes y las estructuras de
apantallamiento mediante otros
me­dios, que, con frecuencia, resultan
me­nos adecuados. Un diseño frecuente
en los transistores de efecto de campo
con­siste en colocar una puerta metálica
en contacto directo con el arseniu­ro de
galio, lo cual origina un canal con­
trolable gracias a un efecto conocido
como formación de una barrera de
Schottky (véase la figura 3). Otros
en­foques se basan en la utilización de
capas cristalinas delgadas de arseniuro
de galio y aluminio como barreras aislantes. El arseniuro de galio y aluminio
presenta una gran flexibilidad para la
contaminación modulada, como hemos
explicado anteriormente, pero ni esta
técnica ni la de las barreras de Schottky
permiten alcanzar los valores de voltajes operativos que proporcionan los aislantes de óxido de silicio.
O
tra desventaja importante del
arseniuro de galio y de sus productos derivados se refiere al carácter
compuesto de todos ellos. Mientras
que los defectos del silicio puro pueden
eliminarse con sólo templarlo, para
agitar sus átomos y obligarlos a que se
alineen, en el caso del arseniuro de
galio este proceso entra en competencia con la vaporización selectiva del
arsénico. Los defectos se producen en
muchas de las fases de fabricación de
los circuitos integrados. Por poner un
caso concreto, los contaminantes suelen incorporarse acelerando los iones
correspondientes para implantarlos
en el semiconductor. En el caso del
silicio, el daño que produce este proceso se puede reparar y situar todos
los contaminantes incorporados en los
lugares adecuados del cristal, calentándolo a temperaturas de unos 1000
grados Celsius durante algunos minutos. (El recubrimiento de óxido de silicio impide que los contaminantes escapen del material durante esta
operación.) En cambio el arseniuro de
galio con iones implantados no admite
78
tal recocido, ni aunque la temperatura
no supere los 800 grados. Las precauciones especiales adoptadas para retener el arsénico y los contaminantes no
han logrado más que un éxito parcial:
sólo entre el 90 y el 95 por ciento de los
contaminantes originalmente implantados resultan activos.
Se están ensayando otras técnicas,
basadas en ciclos de templado muy
breves (que duran segundos) y en
capas de recubrimiento especiales
(que forman una estructura hermética); mas, por ahora, no existe una
solución viable para ejecutar un templado completo del arseniuro de galio.
Por cuya razón las propiedades de
estos dispositivos tienden a no ser uniformes dentro de una pastilla, lo que,
junto con otros factores, impone ciertos
límites prácticos sobre el nivel de integración alcanzable. En tanto que un
microcircuito de silicio de un centímetro cuadrado puede albergar más de
un millón de transistores, las pastillas
de arseniuro de galio sólo admiten
algunas decenas de miles de componentes, en el mejor de los casos. Puesto
que el coste de fabricación de una oblea
de arseniuro de galio es igual o mayor
que el de una de silicio (cada una de
las cuales contiene muchas pastillas),
este bajo nivel de integración constituye una seria desventaja. Otra dificultad adicional desde el punto de
vista económico es que el tamaño de
las obleas de arseniuro de galio que se
pueden fabricar en la actualidad es
relativamente menor: suelen tener un
diámetro de entre siete y diez centímetros, mientras que las de silicio tienen
diámetros comprendidos entre doce y
veinte centímetros.
Las aplicaciones actuales del arseniuro de galio se concentran en los
dispositivos que permiten asumir su
mayor coste unitario por sus funciones
únicas. Se utiliza mucho en las primeras etapas de los receptores que requieren una respuesta rápida y un bajo
nivel de ruido, así como en el cam­po de
la generación óptica, pues no existe un
material sustitutivo. Se están abriendo
paso las aplicaciones a los circuitos
digitales instalados en los ordenadores, pensándose en usarlo en los microprocesadores futuros.
Quizá su aplicación más conocida
sea la fabricación de los detectores
situados en los focos de las antenas
parabólicas. Los satélites de comunicación utilizan microondas con frecuencias de hasta 12 gigahertz, una
región espectral en la que la velocidad
del arseniuro de galio no tiene rival.
El arseniuro de galio no sólo es capaz
de convertir estas longitudes de onda
en señales electrónicas claras, sino que
también puede ampliar las débiles
señales eléctricas iniciales sin introducir apenas ruido. Los amplificadores
de silicio sólo pueden llevar a cabo esta
tarea mediante disposiciones de transistores que introducen el ruido suficiente para ahogar las débiles señales
recibidas. Los avances experimentados en el proceso de integración deberían permitir la utilización futura de
estos dispositivos en sintonizadores de
televisión y otros productos comerciales; la viabilidad económica de esta
posibilidad se ha demostrardo por diferentes empresas japonesas y europeas.
Se espera que estos sintonizadores
proporcionen imágenes más claras en
zonas donde la recepción de las señales
plantea dificultades.
L
a aplicación más importante y prometedora del arseniuro de galio
pertenece al dominio de la transmisión
fotónica de información. La propagación de la luz a través de fibras ópticas
puede transportar mucha más información y llevarla mucho más le­jos que
lo que permiten las señales eléctricas
en los conductores metálicos ordinarios. La interconexión de sistemas
digitales y de otro tipo mediante fibras
ópticas avanza con gran rapidez. Se
utilizan ya estas fibras en comunicaciones transcontinentales y transoceánicas; su uso está llegando también a
los sistemas telefónicos y de televisión
por cable de nuestros hogares y oficinas. Y a las fibras ópticas se recurre
para extender la distancia y velocidad
de las conexiones entre ordenadores.
Estas conexiones se convertirán paulatinamente en una parte del propio
sistema de procesamiento digital.
Algunos analistas creen que la importancia de la optoelectrónica para la
sociedad del futuro será similar a la
que poseen los actuales sistemas de
cálculo digital.
Los láseres de diodo representan
frente a los láseres de gases lo que son
los transistores respecto a las válvulas
de vacío; la misma analogía se puede
hacer extensiva cuando comparamos
los led con las bombillas incandescentes. En cada uno de estos casos, los
semiconductores son mucho más
pequeños, más eficientes y más económicos de fabricar y operar que sus
contrapartidas. Las ventajas que presentan no se miden en términos de
algunos puntos porcentuales, sino en
órdenes de magnitud. Estas diferencias hacen posible aplicaciones tan
nuevas como el reproductor de discos
compactos. Este producto tan familiar
para los consumidores utiliza un láser
de arseniuro de galio y aluminio en la
lectura de los datos codificados en
TEMAS 4
forma de marcas grabadas sobre un
disco en rotación. Un láser idéntico,
pero de mayor potencia, es el componente esencial de otro dispositivo parecido, la unidad de almacenamiento de
datos informáticos por medio de un
disco óptico.
Los láseres de estado sólido son los
candidatos más apropiados para la
ingeniería basada en el intervalo entre
bandas. Esta técnica garantiza el control preciso de la longitud de onda que
emite un láser. Los láseres obtenidos
a partir de capas de fosfuro de indio,
galio y aluminio depositadas en sustratos de arseniuro de galio emiten luz
visible con una longitud de onda
situada en la región del rojo. Estos
dispo­sitivos han reemplazado a los
láseres gaseosos, mucho más complicados, en lectores de los códigos de
barras, que se usan para registrar los
productos en las cajas de algunos
comercios o las piezas componentes en
las líneas de montaje de las fábricas.
Los láseres de fosfuro y arseniuro de
indio y galio hallan generalizada aplicación en las comunicaciones a grandes distancias, porque puede ajustarse
su salida a las longitudes de onda infrarrojas de 1,3 o 1,55 micrometros,
que son las menos absorbidas por las
fibras ópticas.
H
asta ahora la mayoría de las
investigaciones optoelectrónicas
se han centrado en mejorar el funcionamiento de dispositivos específicos y
no en integrarlos en pastillas. Este
planteamiento es consecuencia, en
parte, del papel hegemónico desempeñado por las compañías telefónicas,
que necesitan disponer de los enlaces
ópticos adecuados en aplicaciones en
las que el coste unitario es un factor
de importancia secundaria, dado que
su repercusión se reparte entre muchas
conversaciones telefónicas. En consecuencia, láseres, detectores y transistores de los dispositivos comerciales
utilizan pastillas separadas.
La conexión progresiva de ordenadores mediante fibras ópticas exigirá
grandes cantidades de dispositivos
optoelectrónicos mucho menos caros.
No se los puede fabricar a unos precios
unitarios razonables más que si se
utilizan técnicas de integración a gran
escala. Los enlaces optoelectrónicos
acabarán por transmitir datos a razón
de mil millones de bits por segundo o
más, velocidades que pueden conseguirse, en principio, me­diante transistores de arseniuro de galio bipolares o
de efecto de campo. Los modernos
transistores de silicio bipolares también podrían cubrir este objetivo. Se
prefieren, sin embargo, los dispositiMÁQUINAS DE CÓMPUTO
5. LOS DIODOS DE LASER inyectan los agujeros procedentes de una capa de tipo p
de arseniuro de galio y aluminio en una capa activa de arseniuro de galio. Los electrones proceden de una capa de arseniuro de galio y aluminio de tipo n situada
debajo. Los agujeros y los electrones se aniquilan entre sí; la diferencia de energía
entre la banda de conducción de los electrones y la banda de valencia de los agujeros
se libera en forma de un cuanto de luz. Los cuantos que se mueven en una dirección
paralela a las caras verticales reflectantes son reenviados a la capa activa, donde
estimulan la emisión de otros cuantos cuyas longitud de onda y orientación son
iguales que las suyas.
vos de arseniuro de galio de efecto de
campo porque disipan menos energía
y porque en el futuro podrían alcanzar
velocidades de operación todavía más
elevadas.
Amnon Yariv y sus colaboradores
del Instituto de Tecnología de Ca­li­
fornia fabricaron en 1979 el primer
transistor y láser interconectados utilizando un microcircuito de arseniuro
de galio. La empresa Matsushita y los
Laboratorios Centrales de Inves­
tigación NEC, en Japón, han desarrollado unos dispositivos similares basados en el fosfuro de indio; en muchos
otros laboratorios se están realizando
nuevas investigaciones con diferentes
compuestos. El reto mayor consiste en
superar los problemas que plantea la
fabricación de las versiones óptimas
de transistores y láseres en una sola
pastilla.
En los laboratorios americanos y
europeos IBM se construyó un trío de
microcircuitos con capacidad para
transmitir mil millones de bits por
se­gundo. De esta velocidad no se perderá nada: la velocidad de las conexiones de transmisión ha de decuplicar la
de los ordenadores que conectan,
debido a que los datos se transmiten
en serie, en tanto que los ordenadores
los procesan en bloques de ocho bits, o
bytes, (más los dos bits añadidos para
comprobar la presencia de errores en
la transmisión). Los ordenadores más
rápidos producen ya un flujo de datos
tal que excede, en mucho, la capacidad
de transporte de los conductores de
cobre para distancias superiores a los
200 metros (a la que las señales eléctricas poco espaciadas entre sí comienzan a mezclarse). Los sistemas opto­
electrónicos, con su anchura de banda
considerablemente mayor, están reem­
plazando a los cables para distancias
cada vez más cortas; andando el
tiempo, estos mismos sistemas transportarán información en el interior de
los propios ordenadores.
Este circuito está formado por tres
pastillas y por las fibras ópticas de
co­n exión. La primera pastilla, un
transmisor de arseniuro de galio,
serializa los bytes que le llegan a razón
de 100 millones por segundo, enviándolos hacia la segunda pastilla, constituida por un conjunto de láseres de
arseniuro de galio y aluminio.
Uno de sus cuatro láseres envía la
señal a una fibra óptica, con una velocidad de mil millones de bits por
79
nes realizadas. Siempre se concede
preferencia al silicio, salvo que su funcionamiento sea mucho peor que el del
arseniuro de galio. Por otra parte, la
mayoría de los fondos dedicados a la
investigación de semiconductores
todavía van a parar al silicio, que sigue
demostrando gran vitalidad. Las ventajas del arseniuro de galio en velocidad, bajo nivel de ruido y optoelectrónica deben ser valoradas en sus justos
términos para que se pueda afrontar
el reto de producirlo con un coste bajo
y vencer así al silicio.
L
6. VELOCIDADES MEDIAS DE LOS ELECTRONES del arseniuro de galio. Quintuplican de lejos las del silicio bajo la acción de campos eléctricos cuya intensidad sea
inferior a 1000 volt por centímetro.
se­gundo. Esta señal llega a la tercera
pastilla, un receptor de arseniuro de
galio, uno de cuyos cuatro fotodetectores la convierte en un impulso electrónico. Los impulsos alimentan directamente una serie de transistores de
arseniuro de galio, que la amplifican
(véanse los detalles en la figura 4).
Otros circuitos de la pastilla receptora
deserializan la señal en bytes. En cada
uno de los dos extremos del puente
optoelectrónico, las pastillas del transmisor y del receptor, constituidas por
arseniuro de galio, conectan este dispositivo con el circuito de silicio, que
es el que procesa realmente los bytes
como parte de un ordenador. Sin
embargo, a medida que las velocidades del procesamiento de datos se
incrementen, cabe esperar que el uso
del arseniuro de galio se vaya extendiendo también a los circuitos digitales de los diferentes sistemas que
están interconectados entre sí.
E
sa circuitería constituye el corazón de los ordenadores digitales,
un campo de extraordinaria importancia en el que el arseniuro de galio ha
encontrado pocas aplicaciones hasta la
fecha. Las aplicaciones digitales más
comunes exigen la utilización de circuitos con niveles de integración más
elevados (y, por tanto, con costes por
unidad de circuito más bajos) que lo
que permite el arseniuro de galio. La
ventaja que representa la velocidad
del arseniuro de galio sólo se ha explotado en ciertas aplicaciones digitales
80
especiales de redes de ordenadores y
superordenadores, es decir, en sistemas en los que interesan más las prestaciones que el coste. Por otra parte,
estas aplicaciones especializadas no
resultan tan sensibles a los requisitos
de miniaturización del silicio, dado
que los transistores de silicio más
potentes generan mucho calor y su
densidad debe limitarse con gran cuidado. En consecuencia, los circuitos
deben disponerse sobre una serie de
pastillas diferentes, exigencia que crea
un nuevo cuello de botella en forma de
retrasos en la transmisión entre dichas
pastillas. Los especialistas en ingeniería informática intentan reducirlos al
mínimo montando lo más cerca posible
unas de otras todas las pastillas relacionadas.
El silicio seguirá siendo el componente primordial de los ordenadores
digitales hasta que se logren mayores
niveles de integración y de compatibilidad de empaquetamiento en los productos hechos con arseniuro de galio.
También habrá que mejorar las demoras entre las diferentes pastillas, para
que las ventajas conseguidas en cada
una de ellas no se pierdan al pasar al
sistema entero.
No todas las desventajas competitivas del arseniuro de galio son de tipo
técnico. Aunque la tecnología del arseniuro de galio ha utilizado muchos de
los métodos que se desarrollaron, en
un principio, para el silicio, tales como
la fotolitografía, esta ventaja ha sido
compensada por las enormes inversio-
os progresos técnicos que pudieran
permitir que el arseniuro de galio
dominara algún día el campo del
cálcu­lo digital pueden ejemplificarse
en el sistema de cálculo con instrucciones reducidas (conocido por las siglas
risc), una técnica que incrementa las
velocidades de cálculo de las pastillas
utilizando un número reducido de elementos para llevar a cabo ciertas funciones especializadas. Diversas compañías han proyectado sistemas risc
de unas velocidades que sólo permite
el arseniuro de galio. Las pastillas de
los sistemas risc existentes utilizan
transistores de silicio que procesan
unos 35 millones de instrucciones por
segundo. La tecnología del silicio puede
ya aceptar hasta tres veces este valor.
Las velocidades superiores a 100 millones de instrucciones por segundo sólo
se alcanzan con transistores de arseniuro de galio. Por razones de tipo
económico es necesario montar al
menos 40.000 transistores en cada
pastilla, un nivel de integración que
ya ha sido alcanzado por diferentes
compañías en la californiana “Quebrada
del Galio”, por lo que no debería tardarse mucho en disponer comercialmente de los correspondientes circuitos plenamente comprobados. Quizás
en ese momento, cuando los ordenadores, los enlaces entre ordenadores, los
televisores y los discos compactos contengan todos ellos arseniuro de galio,
podremos decir, al fin, que la técnica
del futuro se ha convertido ya en realidad.
BIBLIOGRAFIA COMPLEMENTARIA
M olecular B eam E pitaxy and H e ­
terostructures. Dirigido por Leroy L.
Chang y Klaus Ploog. Kluwer, 1985.
Semiconductor Devices, Physics and
Technology. S. M. Sze. John Wiley
& Sons, Inc., 1985.
IEEE GaAs IC [Gallium Arsenide In­
tegrated Circuits] Symposium. IEEE,
6-9 de noviembre de 1988.
TEMAS 4
Electrónica de silicio-germanio
ultrarrápida
Bernard S. Meyerson
Estos nuevos dispositivos electrónicos
aventajan a los tradicionales de silicio sin requerir
métodos de fabricación distintos de los ya normalizados
L
os microprocesadores realizados
en pastillas de silicio se
han asentado en la vida
moderna hasta tal punto que ya nadie
se asombra de que las muñecas hablen,
las tarjetas de felicitación canten y
otras mil lindezas por el estilo. Pese a
su gran difusión, hay voces que llevan
años afirmando que la técnica del silicio se acerca a sus límites físicos; no es
posible, afirman, alcanzar mayores
velocidades sino a costa de achicar las
dimensiones hasta extremos que impedirán el funcionamiento de los dispositivos. Si esto es así, para que el progreso continúe habrá que encontrar
una alternativa al silicio y, cuando
llegue el momento, la industria electrónica se enfrentará a un período de
transición durísimo. Pero, ¿será verdad que la era del silicio está llegando
a su ocaso?
En colaboración con un equipo de
investigación y fabricación de IBM, el
autor ha explorado modos de conseguir prestaciones superiores a las que
ofrece la técnica del silicio, modificando la composición de las pastillas.
Las mejoras de velocidad y de versatilidad del pasado se debieron a la
miniaturización de los circuitos. En
vez de seguir ese camino, nuestro
grupo se concentró en el uso de materiales en los que los electrones se desplazan a velocidades mucho mayores,
logrando así un funcionamiento más
BERNARD S. MEYERSON ha ideado
la técnica de deposición química de vapor en vacío ultraelevado, que permitió
fabricar los transistores ultrarrápidos
de silicio-germanio. Tras doctorarse por
la Universidad Metropolitana de Nueva
York en 1981, ingresó en el Centro de
Investigación Thomas J. Watson de
IBM, donde dirige el grupo de materiales electrónicos.
82
rápido. Hemos demostrado que, partiendo de una aleación de silicio y germanio, dos elementos semiconductores harto conocidos, pueden obtenerse
transistores de altísima velocidad.
Como es bien sabido, el transistor es
un sencillo conmutador sobre el que se
construye la electrónica moderna.
Los dispositivos recientemente desarrollados pueden fabricarse además
en las actuales líneas de producción de
micropastillas, rentabilizando así las
enormes inversiones que tales medios
fabriles representan. Espe­r amos,
pues, que la técnica del silicio continúe
dominando el diseño electrónico y nos
atrevemos a predecir que volverá a
reclamar para sí funciones que habían
sido cedidas a otros materiales más
exóticos.
En colaboración con un grupo de
diseñadores de Analog Devices, IBM
puso en el mercado los primeros productos comerciales que incorporaban
transistores de silicio-germanio de elevadas prestaciones. En unos pocos
años, estos transistores y otros dispositivos de silicio-germanio hallarán
probable aplicación en una amplia
gama de productos, entre ellos los aparatos de comunicaciones personales y
los conversores electrónicos de señales, los cuales extraen datos digitales
de la red de cables de fibra óptica.
Un factor esencial y determinante
de la capacidad de los ordenadores y
de otros equipos electrónicos es la velocidad de operación de los componentes; su espectacular aumento en los
últimos tiempos se ha logrado merced
a la miniaturización. El elemento
básico de los circuitos electrónicos
modernos es el transistor, cuya actuación se reduce a una sencilla conmutación todo-nada en la que reside el
fundamento de los ordenadores digitales. Mirándolo más de cerca se puede
entender cómo funciona y por qué al
achicar su tamaño se consigue mejorar
sus prestaciones. Además se descubre
la razón de que ese proceso de reducción no pueda prolongarse indefinidamente.
En la electrónica del silicio intervienen dos tipos principales de transistores: el bipolar y el de efecto de campo.
En los transistores de efecto de campo,
la corriente eléctrica entra por un electrodo (fuente) y sale por otro (drenador). La región del dispositivo atravesada por la corriente recibe el nombre
de canal. Otro electrodo del transistor,
la puerta, regula el flujo de corriente
a través de dicho canal. Compete a la
puerta crear un campo eléctrico capaz
de llenar o de vaciar de cargas eléctricas el canal, con lo cual inicia o detiene
la circulación de corriente, respectivamente. Cuando pasa corriente por el
canal, el transistor está activado, y
desactivado cuando no pasa.
E
l transistor de efecto de campo presenta una ventaja significativa: su
moderado consumo de energía. Para
hacerlo funcionar basta con cargar el
electrodo de puerta a cierta tensión
crí­tica. Una vez que la puerta adquiere
la carga adecuada, no se necesita
co­rriente adicional para mantenerlo
activado o desactivado. Así, a no ser
du­r ante la misma conmutación, el
tran­sistor de efecto de campo no consume potencia. Son, por tanto, ideales
para aplicaciones en las que el
consu­mo de potencia ha de ser bajo,
como los ordenadores portátiles, por
ejemplo.
1. TRANSISTOR DE NUEVO TIPO, constituido por una mezcla de silicio y aleación de silicio-germanio. Este ingenio
demostró hace pocos años una nueva
técnica que superaba, de lejos, la velocidad de los dispositivos electrónicos de
silicio tradicionales.
TEMAS 4
Los ordenadores de grandes prestaciones prefieren los transistores bipolares, que pueden trabajar a mayores
velocidades pero consumen bastante
más energía. En la clase común de transistor bipolar, el NPN (negativo-positivo-negativo), los electrones van desde
la zona del emisor hacia la del colector.
El transistor se activa inyectando una
pequeña corriente en la zona llamada
base, corriente que re­baja una barrera
energética inherente al material y que
normalmente bloquea el paso de electrones. Cuando esta barrera cae,
empieza a circular co­rriente por el transistor, que se conmu­ta entonces al
estado activo. La intensidad de esta
corriente es proporcional a la de la
corriente inyectada en la base, aunque
de valor muy superior.
La base de un transistor bipolar
debe contener una carga eléctrica
constante de valor suficiente para
mantener elevada la barrera energética, de forma que el transistor permanezca desactivado cuando no se aplica
corriente a la base. Se crean estas cargas introduciendo en el silicio átomos
de impurezas específicas (dopantes)
durante el proceso de fabricación.
Dependiendo de la naturaleza de estos
átomos, la carga será positiva o negativa. Así el silicio impurificado será de
tipo n cuando predominen las cargas
negativas y de tipo p cuando sean las
positivas las que lo hagan.
L
a función de un transistor bipolar
depende de las propiedades eléctricas de la frontera entre el silicio de
ti­pos n y p. Si relaciona dos regio­nes
del mismo material semiconductor
—si­licio, en la mayoría de los ca­sos—
pero de tipos de impureza opuestos, se
la denomina homounión. En cambio,
se llamará heterounión cuando los
materiales sean de diferente naturaleza. Las homouniones son mucho más
fáciles de fabricar y predominan en los
diseños de circuito actuales.
El tamaño de un transistor, ya sea
de efecto de campo o bipolar, determina su velocidad de operación. El
tiempo que tardan los electrones en
atravesar la base de un transistor
bipolar constituye un importante fac-
tor limitante de la velocidad. Toda
reducción del espesor de la base disminuirá el trayecto que han de recorrer
los electrones, aumentando así la velocidad a la que el transistor puede activarse y desactivarse. Además, si la
base es más fina, podrá achicarse el
área superficial del transistor entero,
lo que a su vez permitirá un empaquetamiento más denso. Con ello me­jorará
el comportamiento de la pastilla, ya
que se acortarán las distancias que
recorren las señales eléctricas desde
un transistor a otro. La reducción de
tamaño de los transistores de efecto de
campo conduce a similares mejoras de
las prestaciones.
Estas razones han alentado el desarrollo de transistores cada vez más
diminutos, siguiendo el principio de la
reducción de escala: potenciar la función de un dispositivo mediante la disminución de sus dimensiones críticas.
Aunque este enfoque ha hecho progresar la velocidad y la flexibilidad de la
electrónica del silicio durante mu­chos
años, la tendencia no puede prose­guir
indefinidamente. Y el motivo de tal
2. TRANSISTOR DE EFECTO DE CAMPO (izquierda); trabaja
por modulación de la intensidad de campo eléctrico en la puerta. Dependiendo del diseño del transistor, ese campo puede
permitir, o detener, el paso de corriente a través del canal, de
la fuente al drenador. Cuando pasa corriente, el transistor
está activado. El transistor bipolar (derecha) se activa cuando
limitación se desprende de la propia
naturaleza del transistor bipolar.
La reducción de escala conlleva la
disminución del grosor y el volumen de
la base del transistor; por tanto, la
densidad de impurezas habrá de crecer para mantener constante la carga
total de la base. En términos sencillos,
habrá que apiñar el mismo número
total de átomos dopantes en volúmenes cada vez menores de la base. Por
desgracia una homounión de silicio con
grandes concentraciones de impurezas
a uno y otro lado sufre fugas de
corriente. Si se continúa achicando la
escala del transistor bipolar NPN, la
concentración de impurezas en la base
terminará por alcanzar un grado tal
que seguirá pasando corriente por el
transistor aunque se encuentre desactivado; esto le hace completamente
inservible.
Los diseños de pastillas empiezan a
rozar los límites naturales de la reducción de escala. Se buscan soluciones
al­ternativas para aumentar la velocidad de los dispositivos. De hecho, la
limitación física que impone la escala
es un argumento fundamental a favor
de otros materiales semiconductores
más raros, como el arseniuro de galio.
Pero es el caso que se han invertido
sumas ingentes en utensilios e instalaciones para la fabricación de dispositivos de silicio; convendría mucho hallar
un medio para hacerlo funcionar más
aprisa sin tener que abandonarlo.
Gran parte de nuestro esfuerzo se
ha centrado en desarrollar estas técnicas nuevas del silicio, dando cuerpo a
una antigua idea. Mediados los años
cincuenta hubo quienes señalaron que
las heterouniones ofrecían un camino
para aumentar la velocidad de conmutación de un transistor, no por reducción de su tamaño sino por alteración
de sus propiedades electrónicas. Los
campos eléctricos generados de un
modo natural en los dos materiales
que forman una heterounión pueden
84
los electrones se desplazan de emisor a colector. Una barrera
de energía intrínseca impide tal movimiento, pero cuando se
inyecta corriente a la base la barrera cae y los electrones circulan por el transistor. El aquí ilustrado incorpora una capa
de silicio-germanio que acelera los electrones y así aumenta la
velocidad del dispositivo.
confinar las cargas negativas o positivas en sus dos lados. Si la composición
del material de la unión varía gradualmente, en esa región de transición
progresiva podrá establecerse un
campo eléctrico intensificado.
Herbert Kroemer propuso luego que
se utilizase el campo generado en una
heterounión progresiva para hacer que
los electrones atravesaran rápidamente la base de un dispositivo bipolar.
Al obligarles a moverse con mayor
presteza, las heterouniones operarían
mucho más aprisa que las homouniones de tamaño comparable. Kroemer
imaginó varias parejas posibles de
materiales semiconductores que acelerasen el funcionamiento de los transistores; la más prometedora era la formada por silicio a un lado y germanio
al otro. La idea parecía acertada, pero
el problema práctico de construir una
heterounión práctica de silicio-germanio resultó tremendamente difícil.
E
n los años sesenta se produjo un
suceso esperanzador: el desarrollo
de la técnica epitaxial, que parecía
muy adecuada para la delicada fabricación microelectrónica. El proceso
epitaxial consiste en depositar capas
de átomos sobre un material cristali­no.
El cristal, o sustrato, sirve de plantilla
para que las capas de acumulación
reciente adopten la misma disposición
atómica que el propio cristal.
Dado que el silicio y el germanio
tienen la misma estructura cristalina,
puede depositarse una capa de un
material sobre el otro, manteniendo
un orden atómico coherente. Sin
embargo la separación natural de los
átomos de un cristal de germanio es
un cuatro por ciento mayor que la de
los átomos de otro de silicio. Por sí
mismos los átomos de germanio se
situarían a su separación normal,
pero, al ser colocados sobre un sustrato
de silicio mucho más grueso, se quedan
enclavados en posiciones forzadas por
el silicio subyacente. La capa de átomos de germanio depositada sobre un
sustrato grueso de silicio experimenta,
pues, una tensión enorme, que va en
aumento al acumularse capas suplementarias.
Finalmente se forman defectos en el
germanio que alivian la tensión.
Cuando se produce un defecto, hileras
completas de átomos de germanio escapan de la retícula, dejando así separarse más a los restantes átomos de la
capa. Para que la estructura al­cance
un estado de relajación total, deben
abandonar la retícula cuatro de cada
cien átomos de germanio que hayan
crecido a lo largo de la juntura germanio-silicio. Pero esta exclusión de átomos de germanio originaría billones de
defectos en la superficie de una sola
pastilla, que son demasiados para que
pueda funcionar correctamente.
Una forma de mitigar la tensión del
cristal consiste en desarrollar sobre el
sustrato de silicio una aleación de
silicio-germanio, en vez de capas de
germanio puro. Esta aleación presenta
una separación atómica característica,
intermedia entre la del silicio y la del
germanio. Se requiere, no obstante, un
gran cuidado al preparar la capa de
aleación, ya que incluso con una composición mixta de silicio y germanio
aparecen defectos si la capa es demasiado gruesa o excesivamente rica en
germanio.
No había forma de superar el desajuste reticular, o disparidad entre las
separaciones atómicas, de los cristales
de silicio y germanio. En los primeros
años ochenta, la mayoría de los trabajos dedicados a ese objetivo se apoyaron en la técnica denominada epitaxia
de haz molecular, por el que la película
cristalina se desarrolla (o crece) dentro
de una cámara de acero en la que se
ha practicado el vacío has­ta una presión interior menor de una billonésima
(10–12) de atmósfera. El sustrato de
silicio se monta en la cámara y se
TEMAS 4
calienta a 1100 oC por lo menos. Esta
achicharrante temperatu­ra evapora
los contaminantes del silicio y deja una
superficie limpia sobre la cual puede
formarse la película.
Tras esta limpieza, se deja enfriar un
tanto la superficie y luego se deposita
una capa tampón de silicio puro sobre
el sustrato, para enterrar cualquier
contaminación residual. Unas cu­betas
de silicio y germanio fundidos, que se
encuentran en la base del apara­to, proporcionan la fuente de átomos; para
formar la película deseada se dirigen
haces de tales átomos hacia el sustrato
de silicio, sobre el cual inciden y se
acumulan en capas cristalinas.
Para reducir al mínimo la tensión
debida al desajuste reticular, el trabajo se centró en construir capas de
aleación silicio-germanio con un contenido de germanio menor del treinta
por ciento. Gracias a la epitaxia de haz
molecular pudo conseguirse fabricar
estas heterouniones, sin apenas defectos, aunque sólo valieron como muestras de laboratorio.
E
n vista de ello algunos investigadores abandonaron la epitaxia de
haz molecular por otra técnica alternativa: la deposición química en fase
vapor. En ella se utilizan moléculas de
gas que incorporan los átomos deseados, es decir, silicio y germanio en
este caso. El flujo de gas los transporta
a la superficie del sustrato, donde se
agrupan y forman las nuevas capas
cristalinas. Esta vieja técnica es, en
muchos aspectos, más sencilla que la
epitaxia de haz molecular.
Su mayor inconveniente son las eleva­
das temperaturas requeridas: 1100 oC
para la limpieza inicial y 1000 oC para
el crecimiento de las películas.
So­metidos a un calor tan intenso, unos
materiales ya fatigados, como los de la
aleación silicio-germanio, acusan muy
pronto defectos. Por otra parte, la adición de impurezas no puede hacerse
con precisión a temperaturas muy elevadas. Por encima de los 800 oC los
átomos de impurezas se difunden por
el silicio o el germanio, apartándose de
su posición inicial. La deposición química en fase vapor no permitía obtener
heterouniones utilizables entre silicio
y germanio mientras exigiera temperaturas tan altas.
Había que encontrar un medio para
realizar la deposición química en va­por
a temperaturas más bajas. No­so­tros
nos centramos en dos etapas esenciales del proceso que aparentemente
exigían temperaturas altas: la limpie­za
de la superficie de silicio antes de crecer la película y el propio desarrollo de
una película exenta de defectos.
La finalidad primaria de la limpieza
es desalojar los óxidos de silicio que se
forman cuando el silicio puro entra en
contacto con el aire o la humedad. Los
óxidos de silicio no tienen estructura
cristalina, por lo que perturbarían la
epitaxia de no ser eliminados. Además
absorben el boro del aire, un material
3. SEPARACION INTERATOMICA de un cristal de germanio
(morado) y de silicio (rojo); es ligeramente mayor en aquél.
Este desajuste reticular (izquierda) ha hecho fracasar las tan
buscadas uniones entre silicio y germanio, muy deseadas por
sus propiedades electrónicas. Los átomos de germanio depositados sobre el silicio siguen inicialmente la disposición atómi-
MÁQUINAS DE CÓMPUTO
utilizado para impurificar el silicio, y
lo atrapan en la superficie de éste a
concentraciones peligrosamente elevadas. A temperatura ambiente el
óxido de silicio crece sobre la superficie
hasta un espesor de unas diez ca­pas
atómicas; a partir de ahí actúa como
una barrera que lo protege de nuevas
reacciones con el aire.
E
s harto conocido que la inmersión
de una oblea de silicio en ácido
fluorhídrico elimina el revestimiento de
óxido, pero el saber tradicional sostenía
que los óxidos volvían a formarse instantáneamente en cuanto se exponía
nuevamente la oblea al aire. En consecuencia, todos los métodos de epitaxia
incluían la exposición del silicio a elevadas temperaturas dentro del horno,
aun cuando ya se hubiera eliminado el
óxido por medios químicos (ácido fluorhídrico). Algo me hizo sospechar que el
saber tradicional se equivocaba.
Cuando era alumno de doctorado y
practicaba con obleas de silicio, no pude
evitar que alguna se me cayera. Observé
que, al enjuagarlas en agua, las obleas
no se quedaban mojadas, sino que toda
el agua se escurría de su superficie.
Ahora bien, el óxido de silicio atrae el
agua; por tanto, si la oblea no podía
mojarse, tal vez ello indicara la ausencia
de óxido; en muchos casos esto sucedía
al cabo de varias horas de haberlas limpiado en un baño de fluorhídrico. Parecía,
pues, que el óxido de silicio tardaba bastante en volver a formarse.
ca de éste, pero en cuanto vuelven a su separación natural dan
origen a defectos (marcados con X) que crean cortocircuitos y
desbaratan la unión. El crecimiento de capas de aleación silicio-germanio libres de defectos sobre sustratos de silicio (derecha) ha permitido obtener cristales híbridos, base de un
nuevo tipo de dispositivos electrónicos ultrarrápidos.
85
D
entro ya de IBM, me enfrasqué en
los primeros trabajos sobre el
asunto y descubrí el origen de la idea
falsa de la formación instantánea del
óxido de silicio. Los investigadores
em­p leaban entonces toscas sondas
ópticas y creyeron haber detectado
óxido de silicio cuando en realidad
habían ob­servado la delgada capa de
hidrógeno que se forma después de
haber lim­pia­do el silicio en ácido fluorhídrico. El uso de sondas modernas,
químicamente selectivas, ha confirmado que el silicio puede mantenerse
libre de óxido mu­chas horas después
del ba­ño en fluorhí­drico. La capa de
hidrógeno adheri­da al silicio protege
del aire la superficie y retrasa la formación de óxido.
Esa capa protectora permite suprimir una etapa preparatoria de la epitaxia a temperaturas altas. La limpieza con ácido fluorhídrico no sólo
admite las temperaturas bajas sino
que las exige, puesto que un calor
de­masiado intenso eliminaría la capa
de hidrógeno.
El siguiente desafío fue encontrar el
medio de desarrollar una película de
gran calidad a baja temperatura. Los
primeros trabajos en epitaxia del silicio indicaban que el número de defectos de la película depositada aumentaba espectacularmente al descender
la temperatura. Las impurezas presentes durante la deposición química
en fase vapor —oxígeno y agua— se
in­corporan por sí mismas a las películas con facilidad mucho mayor a
tempera­turas bajas que a temperaturas altas. Dichas impurezas pueden
agruparse en el seno de una capa en
crecimiento, produciendo defectos en
el material.
Para remediar el problema hay que
reducir al mínimo la concentración de
átomos extraños en la cámara donde
se verifica la deposición en vapor. Los
experimentos de laboratorio han indicado que el crecimiento de películas
sin contaminar a temperaturas inferiores a 700 oC exigiría un vacío rigurosísimo, aunque todavía menos perfecto que el requerido para la epitaxia
de haz molecular.
¿Cómo podrían eliminarse los posibles focos de contaminación del interior de un aparato de crecimiento cristalino? En IBM logramos suprimirlos
con bombas de vacío especiales y cierres de sellado hermético. Con­se­gui­
mos un vacío ultraelevado dentro de
un tubo de vidrio, rodeado por un
hor­no que suministra el calor requerido por la epitaxia. Este montaje
garantiza que el aparato no aporte
impurezas que obstruyan el crecimiento de la película. Una esclusa
neumática especial permite cargar la
cámara de crecimiento principal sin
tener que exponerla a la atmósfera
circundante. Esto es importante porque los contaminantes del aire se agarran tenazmente al interior de la
cámara y se tarda mucho tiempo en
desecarlos y bom­bearlos al exterior.
Los gases que portan silicio y germanio y circulan por el aparato du­rante
la deposición química pueden también
ser fuente de contaminación. Por ello
mantenemos muy baja la presión en el
reactor, del orden de una millonésima
4. VELOCIDADES DE CONMUTACION de los transistores bipolares de silicio; han
aumen­tado con los años (izquierda). La técnica del silicio-germanio acelera esa tendencia y alcanza niveles de prestación que con el silicio se creían irrealizables. Un novedoso sistema de crecimiento cristalino (derecha) ha convertido esta técnica en realidad.
86
de atmósfera, para que la cantidad de
material extraño introducido por ese
conducto sea mínima. Con razón llamamos a nuestro método técnica de
deposición química en vapor al vacío
ultraelevado.
Gracias a la suma limpieza del
ambiente de la cámara obtenida por
estos procedimientos, el horno puede
trabajar a temperaturas muy inferiores a las utilizadas en la epitaxia habitual. Nuestro grupo de IBM ha descubierto que unas temperaturas de 400
a 500 oC son suficientes para preparar
películas de silicio y de aleación siliciogermanio de gran calidad.
La posibilidad de fabricar una heterounión a temperaturas moderadas
permite crear pastillas refinadas y
flexibles. Por ejemplo, puede hacerse
crecer la capa de silicio-germanio sobre
una oblea de silicio ya configurada en
todas las regiones químicas adecuadas
a los dispositivos electrónicos que
finalmente vaya a llevar la pastilla.
Merced a tales patrones químicos
im­presos podrá obtenerse una pastilla
con una enorme densidad de transistores u otros dispositivos. Las temperaturas que emplea la epitaxia tradicional distorsionarían cualquier
patrón preexistente.
E
n 1988, tras haber desarrollado
gran parte del proceso de deposición antes referido, empecé a colaborar
con otros especialistas en una ta­rea
más ambiciosa: construir así transistores bipolares manejables y de alta
velocidad.
Comenzamos por utilizar la epitaxia
a baja temperatura para construir
homouniones de silicio puro. Estos dispositivos funcionaron: nuestra técnica
era correcta. Desde 1989 se fabricaron
en IBM los primeros transistores bipolares NPN que materializaban el concepto de Kroemer: la heterounión progresiva entre silicio y silicio-germanio.
Aunque la aleación tenía menos del
cuatro por ciento de germanio, dichos
transistores superaban ya las posibilidades atribuidas a la tecnología del
silicio. Su campo eléctrico inherente
(unos 30.000 volt por centímetro a través de la base) aceleraba los electrones
hasta el punto de que el tiempo invertido en atravesar la base se reducía a
la mitad del requerido en los transistores de silicio sin alear.
Una medida normal del comportamiento de un transistor bipolar viene
dada por la dependencia que muestra
su ganancia (relación de la corriente
conmutada por el transistor a la
corriente que se necesita para activarlo) con respecto a la frecuencia de
conmutación. En una aplicación típica
TEMAS 4
5. TECNICA DE CRECIMIENTO CRISTALINO ideada por el autor.
Evita las devastadoras, por elevadas, temperaturas de los métodos anteriores. Las bombas de vacío, válvulas especiales y juntas
herméticas impiden la entrada de contaminantes en el horno, en
de un ordenador, el transistor bipolar
podría tener una ganancia en torno de
100. A mayores frecuencias de conmutación, la ganancia va cayendo progresivamente. Cuando la ganancia cae a
uno, el transistor pierde su razón de
ser, porque entrega una corriente igual
a la corriente que se le introduce para
activarlo, y entonces funciona como un
sencillo hilo conductor.
La velocidad del transistor puede
calibrarse por la rapidez con que puede
conmutarse a uno y otro estado, antes
de que su ganancia caiga a uno. Las
primeras heterouniones progresivas
que construimos en 1989 conmutaban
a 75 gigahertz (miles de millones de
ciclos por segundo), casi el doble de la
velocidad de los dispositivos de silicio
más rápidos comparables. Posteriores
trabajos en IBM han hecho avanzar
las heterouniones hasta velocidades
de 110 a 117 gigahertz, un nivel que
se consideraba imposible de alcanzar
con silicio. En pruebas de revisión mis
colegas y yo hemos incorporado esos
dispositivos en circuitos completos que
funcionaron a velocidades hasta
en­tonces nunca conseguidas; la prueba
era decisiva, pues los transistores muy
veloces suelen serlo mucho menos en
condiciones prácticas, cuando forman
parte de circuitos reales.
IBM y Analog Devices comercializan
ya circuitos de este tipo. Uno de ellos
es un conversor digital-analógico,
pieza clave de la electrónica de consumo. Este conversor de silicio-germanio transforma datos numéricos en
corrientes electrónicas a la velocidad
récord de mil millones de conversiones
MÁQUINAS DE CÓMPUTO
el cual se deposita la aleación de silicio-germanio sobre las obleas
de silicio. El proceso de deposición se produce en un vacío casi
absoluto, con mínimas concentraciones de átomos extraños que
puedan alterar la operación electrónica correcta.
por segundo. Con ello iguala la velocidad de los más rápidos conversores
fabricados con uniones de arseniuro de
galio, pero consumiendo solamente
una pequeña parte de la potencia que
éstos requieren.
L
a aparición de circuitos integrados
comerciales de silicio-germanio
marca un hito en la búsqueda de
medios para mejorar las prestaciones
que no se basen en la miniaturización.
En Analog Devices se barajaban otras
aplicaciones del silicio-germanio; por
ejemplo, teléfonos inalámbricos digitales capaces de manejar un flujo de
datos de inusitada rapidez. Es conocido el papel esencial de los conversores digital-analógicos en la traducción
de datos digitales recibidos por fibra
óptica en señales analógicas destinadas al teléfono o la televisión; cuanto
antes se disponga de unos conversores
muy rápidos, antes llegarán al hogar
y a la empresa las redes digitales de
datos. También serán indispensables
en equipos portátiles de comunicación,
de uso cada vez más difundido.
La tecnología del silicio-germanio
está todavía en pañales. Para aprovechar la velocidad de los nuevos dispositivos han de modificarse multitud de
diseños de circuito existentes. Hasta
ahora IBM es la única compañía que
ha demostrado tener capacidad para
integrar en circuitos un número apreciable de transistores bipolares de alta
prestación basados en heterounión.
Nuestro grupo ha demostrado que los
materiales de silicio-germanio pueden
mejorar también el comportamiento
de los transistores de efecto de campo,
pero no se han integrado esos dispositivos en circuitos más amplios.
An­dando el tiempo, la técnica deberá
abrir paso a la combinación de múltiples funciones (transmisión, conversión de señales, recepción) en una sola
pastilla. De esa manera, podrían
hacerse realidad muchas fantasías
como los televisores interactivos en
forma de reloj de pulsera.
Leybold-A.G. comenzó a fabricar
ha­ce unos años una versión comercial de nuestro aparato de deposición
química en vapor al vacío ultraelevado. Una vez que ya se tiene un
equipo estándar con el que trabajar,
los ingenieros pueden concentrarse
en el desarrollo de circuitos cada vez
más complejos y en buscar caminos
para ampliar la gama de dispositivos
de heterounión silicio-germanio susceptibles de combinarse en una sola
pastilla.
BIBLIOGRAFIA COMPLEMENTARIA
P hysics of S emiconductor D evices . S.
M. Sze. Wiley Interscience, 1981.
E volution of the MOS T ransistor :
From Conception to VLSI. Chih-Tang
Sah en Proceedings of the IEEE, volumen
76, número 10, páginas 1280-1326; octubre de 1988.
UHV/CVD Growth of Silicon and Silicon-Germanium Alloys: Chemistry,
Physics, and Device Applications. Bernard S. Meyerson en Proceedings of the
IEEE, vol. 80, n.o 10, págs. 1592-1608;
octubre de 1992.
87
Silicio encantado
Elizabeth Corcoran
L
as pastillas de silicio que emiten luz en respuesta a un
estímulo eléctrico (y no óptico) podrían, en teoría,
sellar el matrimonio de la óptica con la electrónica y
crear una familia de nuevas generaciones de conmutadores relámpago y otros componentes para telecomunicaciones y ordenadores. No suenan todavía las campanas nupciales, pero se percibe con toda nitidez la llegada del
silicio poroso.
El silicio emisor de luz salió a la palestra en el congreso
de la Sociedad de Investigación de Materiales (MRS) de
1991. Leigh T. Canham y sus colegas, de la Oficina de
Investigación de la Defensa en Great Malvern, Inglaterra,
sostuvieron allí que las obleas de silicio, reducidas a estructuras afiladas de unas decenas de angstroms de anchura
mediante un baño de ácido fluorhídrico y excitadas por
la luz, emitían luminiscencia en cierta gama de colores.
La comunicación planteó muchas más preguntas que respuestas aportó. Los británicos afirmaron también haber
creado obleas capaces de emitir electroluminiscencia
(emisoras de luz si se excitaban mediante electricidad),
pero suministraron pocas pruebas. Y no pasaron de la
especulación cuando se les solicitó la razón de que el
silicio fuera capaz de dar luz.
El debate ganó fuerza con los meses. En una reunión
de la MRS posterior al congreso, el Instituto de Tecnología
del Estado Sólido de Munich y la Universidad de Agricultura
y Tecnología de Tokio presentaron pruebas de electroluminiscencia. Por su parte, las empresas IBM y Spire expusieron la fabricación de diodos de silicio que actuaban
como diodos emisores de luz. Pero no es fácil fabricar
esos dispositivos: hay que crear emparedados de capas
cargadas positiva y negativamente de silicio y silicio
poroso y después superponer un contacto eléctrico sin
dañar el material.
ENTRE LOS SEMICONDUCTORES insolitos de emisión de luz
hemos de citar el germanio, esculpido en forma de “alambres
cuánticos” por investigadores del Instituto del Triángulo de
Investigación.
88
Extrapolando de su trabajo en células fotovoltaicas, los
expertos de Spire añadieron una capa cargada negativamente de óxido de indio y zinc (ITO) encima del silicio
poroso. El ITO es transparente a la luz visible; por tanto,
aplicaron una tensión y percibieron una luz anaranjada
que salía de la parte superior del dispositivo. Los expertos
de IBM construyeron un diodo más tradicional que emitía
luz desde el borde. Rodearon el silicio poroso de capas de
silicio convencional cargadas negativa y positivamente, y
después grabaron el material.
A efectos prácticos, no basta con que el silicio poroso
transforme la electricidad en luz; debe hacerlo de manera
rentable. Pero nadie quiere pronunciarse sobre los rendimientos que haya logrado. El material de Namavar, por
ejemplo, necesita unos 10 volts para producir luz “visible”.
Eso dice mientras confía rebajar el voltaje preciso a dos
volts mejorando los contactos.
Trabajo experimental aparte, no existe una explicación
racional del comportamiento insólito del silicio poroso. De
acuerdo con la hipótesis que capitanea Canham, el silicio
poroso estaría formado por “cables cuánticos”, estructuras
que confinan los movimientos de los electrones a una dimensión, con lo que favorecen la recombinación de electrones
y cargas positivas. Esas recombinaciones producirían la luz.
Por contra, los físicos del Instituto Max Planck de Investigación
del Estado Sólido de Stuttgart atribuyen la fotoluminiscencia al siloxeno, compuesto de silicio, oxígeno e hidrógeno.
El siloxeno se caracteriza por las propiedades que asociamos
hoy al silicio poroso. Se acaba de demostrar que la superposición de siloxeno sobre silicio cristalino (con una capa
intermedia de disiliciuro de calcio) emitía también luminiscencia; y se supone que ese material se dejaría manipular
mucho mejor que el quebradizo silicio poroso.
El grupo de Rama Venkatasubramanian, del Instituto del
Triángulo de Investigación, en Carolina del Norte, decidió
abordar la cuestión desde otro frente. “Si el efecto era válido
en el silicio, pensaron, debería poder reproducirse en otros
semiconductores.” Para someter a prueba esa condición,
recurrieron a la fotolitografía, técnica de alta precisión que
se emplea para grabar en germanio cables cuánticos.
En la Reunión Internacional de Dispositivos Electrónicos,
de diciembre de 1991, el grupo del Triángulo hizo público
que, excitado con luz, el germanio emitía una luminiscencia rojiza. Pero ni siquiera esos resultados apuntan concluyentemente a un efecto cuántico; queda todavía allí flúor
que podría causar la luminiscencia.
Tampoco acaba de entenderse la paradoja de que esas
técnicas de grabado no hayan producido silicio emisor de
luz y sí lo ha hecho el tratamiento con ácido fluorhídrico,
menos controlado. Venkatasubramanian ve la explicación
en las diferencias entre las estructuras electrónicas (o intervalo de banda) del silicio y el germanio. Confía, sin
embargo, en que, si consigue que el germanio emita luminiscencia con electricidad, dé con el método para lograr
idéntico resultado con el silicio.
Por último, sabido es que el silicio ópticamente excitado
emite una gama amplia de colores; la gama del silicio
eléctricamente excitado es todavía menor. Canham ha
apreciado colores anaranjados y amarillos en sus experimentos de electroluminiscencia, pero no verde.
TEMAS 4
Futuro de la industria
de los semiconductores
G. Dan Hutcheson y Jerry D. Hutcheson
Tal vez estén contados los días de desarrollo vertiginoso,
pero puede que el resultado sea una mayor variedad
L
a capacidad de almacenar y proce ­sar información de mil maneras
ha sido esencial para el progreso de la humanidad. Desde las
re­motas incisiones en arcilla de las
tablillas sumerias hasta la imprenta
de Gu­tenberg, el sistema decimal de
Dewey y los semiconductores, el almacenamiento de la información ha
constitui­do el catalizador de sistemas
legales, políticos y sociales de complejidad creciente. También la ciencia
moderna está estrechamente vinculada al proce­samiento de la información, con el cual mantiene cierta simbiosis. Los avances científicos han
permitido almacenar, extraer y procesar cada vez más información, gracias
a cuyo bagaje se han producido nuevos
progresos.
La fuerza motriz de este empeño
decisivo, la que abrió una nueva era
en los últimos decenios, fue la electró­
ni­ca de semiconductores. Los circuitos
integrados originaron no sólo orde­
nado­res personales que han transformado el mundo empresarial, sino también sistemas de control para el mejor
funcionamiento de las máquinas y sistemas de ayuda médica que salvan
vidas humanas. De paso han hecho
brotar industrias que cifran sus ingresos en billones de pesetas y dan trabajo
a millones de personas. Estas y otras
G. DAN HUTCHESON y JERRY D.
HUTCHESON han consagrado su vida
profesional al progreso de la fabricación
de semiconductores. Jerry, físico de formación, trabajó desde 1959 en RCA,
Motorola y otras empresas. En 1976
fundó la compañía consultora VLSI Research, Inc. Su interés se centra en las
interacciones de la técnica y la economía
en la fabricación de semiconductores.
Su hijo Dan es economista. En 1981
desarrolló el primer modelo de simulación basado en costos del proceso de
fabricación para orientar a las empresas
en la elección del equipo necesario.
90
muchas ventajas derivan, en buena
parte, de la capacidad de integrar cada
vez más transistores en una pastilla,
a unos costes en continuo descenso.
Esa capacidad, que no tiene precedentes en ningún otro sector industrial, se halla tan arraigada en el de
los semiconductores que se toma como
una auténtica ley. No obstante, de vez
en cuando se expresan temores de que
los obstáculos técnicos y económicos
lleguen pronto a frenar la evolución.
Son muchas las veces que los expertos
han vaticinado el inminente fin del
espectáculo, pero la creatividad y el
ingenio de otros colegas han echado
por tierra sus predicciones.
En este momento, cuando el coste de
construir una nueva planta de semiconductores roza el billón de pesetas y
la densidad de transistores se aproxima
a los límites teóricos impuestos por las
técnicas utilizadas, muchos se preguntan qué va a hacer esta industria
cuando finalmente tropiece con barreras de veras insalvables.
En 1964, a los seis años de la invención del circuito integrado, Gordon
Moore observó que el número de transistores que podían integrarse en una
pastilla se duplicaba a un ritmo anual.
Moore, uno de los fundadores de Intel
Corporation en 1968, predijo con
acierto que esa tasa se mantendría en
el futuro inmediato, lo que ha venido
a llamarse ley de Moore y ha tenido
importantes consecuencias.
Dado que la densidad doble no
implicaba mayor inversión, el coste
por transistor se reducía a la mitad en
cada tanda de duplicación. Al multiplicar por dos los transistores, una
pastilla de memoria puede almacenar
el doble de datos. Con mayores niveles
de integración se puede aunar un
mayor número de funciones en la pastilla; una disposición espacial comprimida de los componentes, de los transistores por ejemplo, facilita una
interacción más célere. Los usuarios
han podido así obtener por el mismo
dinero una potencia informática acrecentada, lo que ha estimulado tanto
las ventas de microcircuitos como la
demanda de potencias de procesamiento crecientes.
Para asombro de muchos expertos,
incluso del propio Moore, la integración continuó creciendo a un ritmo sorprendente. Cierto es que, al final de los
setenta, se había desacelerado el paso;
el número de transistores se duplicaba
cada dieciocho meses. Pero desde
entonces el ritmo se ha mantenido y
hoy en día existen en el mercado circuitos integrados con más de seis millones de transistores y componentes
electrónicos de 0,35 micrometros de
dimensión transversal. Se espera que
se vendan pronto pastillas con diez o
más millones de transistores y de 0,25
e incluso de 0,16 micrometros.
No vaya a creerse que ha sido fácil
llegar hasta los microcircuitos actuales;
los fabricantes han tenido que superar,
en una carrera erizada de obstáculos,
notables limitaciones en sus equipos y
procesos de producción. Ninguno de
estos problemas resultó ser la temida
barrera final cuya superación exigiera
costes tan elevados como para detener
o por lo menos frenar el avance de la
técnica y, por tanto, el desarrollo de
este sector industrial. Los sucesivos
impedimentos, empero, han sido cada
vez más imponentes por razones ligadas a las técnicas en que se funda la
fabricación de semiconductores.
Se construye un microcircuito
crean­do e interconectando transistores
so­bre una lámina de silicio para formar sistemas electrónicos complejos.
El proceso de fabricación consta de
una serie de etapas, o capas de máscara, en las que se depositan sobre el
silicio pelícu­las de diversos materiales
—algunos de ellos fotosensibles— y se
exponen luego a la luz. Tras la deposición y el tratamiento litográfico, se
procesan dichas capas para “grabar”
TEMAS 4
1. MAQUETA DE CIRCUITOS. Registra
el diseño de una pastilla. Las distintas
capas de la pastilla se muestran en colores diferentes. La imagen ilustra parte
de los planos del futuro microprocesador Power PC 620 de Motorola.
los patrones que, en alineación exacta
y combinados con los de las capas sucesivas, producen los transistores y sus
conexiones. Suelen obtenerse 200 o
más pastillas a la vez sobre un delgado
disco u oblea de silicio.
En el primer juego de capas de máscara, se depositan películas aislantes
de óxido para formar los transistores.
A continuación se extiende sobre esas
películas un revestimiento fotosensible. Mediante una máquina posicionadora por pasos, similar a una
am­pliadora fotográfica, se expone ese
polímero fotosensible. La máquina
posicionadora emplea un retículo o
máscara para proyectar un patrón
sobre el polímero fotosensible. Una vez
expuesto, el polímero se revela, perfilándose así los espacios —ventanas de
contacto— donde se interconectan las
diferentes capas conductoras. Un
agente grabador ataca entonces la
película de óxido al objeto de que puedan establecerse los contactos eléctricos con los transistores. Se elimina el
polímero fotosensible.
Más juegos de capas de máscara, con
etapas de deposición, litografía y ataque muy similares, crean las películas
conductoras de metal o polisilicio necesarias para enlazar los transistores. La
fabricación de una pas­tilla requiere
unas 19 capas en total.
L
a física subyacente a estos procesos fabriles induce a imaginar posibles obstáculos que se opondrían a un
progreso continuo. En primer lu­gar, el
relacionado con el límite de resolución
de Rayleigh, así llamado en honor del
premio Nobel John William Strutt, tercer barón de Rayleigh. En virtud de ese
límite, el tamaño de las características
más pequeñas que puede distinguir un
sistema óptico de abertura circular es
proporcional a la longitud de onda de la
fuente luminosa dividida por el diámetro de la abertura del objetivo. En otras
palabras, cuanto más corta sea la longitud de onda y mayor la abertura, más
fina será la resolución.
Dicho límite constituye una ley fundamental de este sector industrial,
puesto que sirve para determinar el
tamaño mínimo de los transistores
materializables en una pastilla. En la
litografía de los circuitos integrados la
fuente de luz al uso es la lámpara de
mercurio. Sus rayas espectrales más
útiles para estos fines se producen a
MÁQUINAS DE CÓMPUTO
los 436 y 365 nanómetros, las llamadas
rayas g e i del mercurio. La primera
de ellas es visible para el ojo humano
y la última apenas sobrepasa la visibilidad en el ultravioleta. Las aberturas
numéricas varían desde un extremo
bajo cercano a 0,28 micrometros para
lentes industriales corrientes hasta un
valor de unos 0,65 para las de herramientas litográficas de pun­t a.
Considerando estos valores jun­to con
otros aspectos derivados de las demandas de la fabricación en masa, se
obtiene una resolución límite en torno
a 0,54 micrometros para lentes de raya
g y de 0,48 para las de raya i.
Hasta mediados de los ochenta se
aceptó como límite práctico el funcionamiento en la raya g. Pero uno tras
otro se fueron allanando los obstáculos
que impedían el funcionamiento en la
raya i. Ocurrió de una manera que
ilustra las complejas relaciones existentes entre economía y técnica en esta
industria. No sólo se salvaron las
barreras de orden técnico, sino que
resultó que algunas otras no eran sino
simples consecuencias del nivel de
riesgo tolerado por la empresa. Esta
historia tiene mucho que ver con la
actual situación del sector, próxima a
los límites prácticos del funcionamiento en la raya i.
Una de las dificultades para el funcionamiento en la raya i estribaba en
que casi todos los vidrios de las lentes
son opacos a esas frecuencias, lo que
obligaba a utilizar el cuarzo. Aunque
las lentes de cuarzo eran realizables,
se aducía que sería difícil comprobar
la alineación de configuraciones que
no son visibles. Además sólo un se­tenta
por ciento de la radiación en raya i
atraviesa el cuarzo; el resto calienta la
91
1
OBLEA DE SILICIO
PREPARADA
POLIMERO
FOTOSENSIBLE
LUZ
PROYECTADA
CAPA DE DIOXIDO
DE SILICIO
CAPA DE NITRURO
DE SILICIO
SUSTRATO
DE SILICIO
RETICULO
(O MASCARA)
2
REPETICION DE UN CICLO SIMILAR
PARA FORMAR UNIONES METALICAS
ENTRE TRANSISTORES
6
OBJETIVO
PROYECCION REPETIDA
DE PATRONES SOBRE LA OBLEA
CONECTOR
METALICO
5
NUEVO POLIMERO FOTOSENSIBLE
SOBRE LA OBLEA. SE REPITEN
LOS PASOS 2 A 4
DOPADO POR BOMBARDEO IONICO
DE LAS ZONAS ATACADAS
3
ELIMINACION
DEL POLIMERO
FOTOSENSIBLE
EXPUESTO
4
REGION
DOPADA
ATAQUE POR GASES
DE LAS ZONAS NO PROTEGIDAS
POR POLIMERO FOTOSENSIBLE
2. LAS PASTILLAS SE FABRICAN en ciclos de etapas repetidas
hasta veinte veces. De una oblea de silicio con recubrimiento
fotosensible se obtienen muchas pastillas a la vez (1). En cada
ciclo se proyecta repetidamente un patrón distinto en la oblea
(2), formándose una pastilla en cada posición de la imagen. El
lente, con la posible distorsión consiguiente de la imagen.
Y no acababan ahí los problemas. El
límite de Rayleigh fija también el intervalo dentro del cual se mantiene enfocado el patrón proyectado por la lente.
La restricción de la profundidad de
enfoque, llamada profundidad de
campo, va en contra de los límites de
resolución; a mejor resolución, menor
profundidad de campo. La profundidad
de campo de las lentes aludidas es de
unos 0,52 micrometros en las mejores
lentes de raya g y de 0,50 en las de raya
i. Profundidades tan exiguas exigen
que la superficie de la oblea sea extremadamente plana, mucho más de lo
92
recubrimiento fotosensible se elimina (3); se atacan con gases
las zonas expuestas a la luz (4). Dichas zonas se bombardean
con iones (“dopado”), creando transistores (5). Estos se conectan luego al añadir capas de metal y de aislante en sucesivos
ciclos (6).
que hace pocos años podía conseguirse
a lo largo de la diagonal de una pastilla
grande con el mejor equipo disponible.
Para superar tales inconvenientes se
idearon soluciones nuevas; por ejemplo,
métodos de acabado que aseguraban
superficies perfectamente planas.
Mediante ajustes finos de los bordes de
los patrones del retículo se pudo desplazar de fase la radiación de raya i
entrante. Se lograba así una de­finición
más nítida de los bordes y, por tanto,
dimensiones menores, con lo que se
soslayaba el límite de Rayleigh. Uno de
los últimos retoques consistió en aceptar un valor más bajo de la constante
de proporcionalidad, que guarda rela-
ción con el grado de contraste de la
imagen proyectada sobre la oblea
durante la litografía. Para el funcionamiento en raya i los fabricantes se
armaron de coraje y aceptaron una
constante de proporcionalidad inferior
a la que hasta entonces se había considerado práctica. Esto im­plicaba unos
márgenes más reducidos durante la
fabricación y exigía controles más rígidos sobre los procesos de litografía,
deposición y ataque para que el número
de pastillas aceptables por oblea (el
rendimiento) se mantuviese elevado.
Gracias a tales innovaciones, hoy es
pura rutina manejar dimensiones de
0,35 micrometros en raya i.
TEMAS 4
o que realmente se discutía en este
último caso era la pérdida de contraste que el fabricante estaba dispuesto a tolerar. Con un contraste
perfecto, la imagen creada en el polímero fotosensible es nítida. Lo mismo
que tantas otras limitaciones del sector, la relación de contraste parecía
una barrera técnica cuando en realidad entrañaba una decisión arriesgada. Se comprobó que con una menor
relación de contraste no disminuían
los rendimientos, siempre que en otras
partes del proceso se aplicasen controles más estrictos.
Es difícil predecir cuándo se agota­rá,
si es que ello ocurre, esta vena de mejoras creativas. No obstante, antes de
topar con auténticas barreras técni­cas
se dejará sentir la repercusión económica de esa aproximación a las mismas. Sabido es que los costes implicados en la consecución de niveles más
elevados de prestaciones de la pastilla
crecen con gran rapidez conforme nos
acercamos a los límites de determinada técnica de fabricación, sobrepasados luego. Los costes en aumento
podrían arrastrar los precios hasta
más allá de lo que los compradores
es­t arían dispuestos a tolerar,
provocan­do el estancamiento del mercado antes de tropezar con las barreras
técnicas.
Pero cuando por fin se asienta una
nueva técnica de fabricación, los costes
de las pastillas comienzan a descender. En ese momento la industria ha
pasado de una curva coste-prestaciones asociada a la técnica antigua a otra
curva propia del nuevo proceso. En
efecto, el salto de una técnica a otra
hace que la curva de costes descienda
y aleja más los límites técnicos. Cuando
tal cosa sucede se pueden conseguir
niveles de prestaciones más altos sin
elevar los costes, lo cual mueve a los
compradores a sustituir sus viejos
equipos. Lo sabe muy bien la industria
electrónica, donde los productos suelen quedarse anticuados antes de su
total desgaste.
Los principios hasta aquí expuestos
se aplican a toda clase de pastillas,
pero las de memoria son las que cubren
un mayor volumen de negocio y, por
varios conceptos, son las más representativas. En veinticinco años el precio de un megabyte de memoria de
semiconductores ha descendido desde
70 millones a menos de 5000 pe­setas.
Pero en el mismo período el costo de
construir una fábrica para producir
las pastillas se ha elevado desde menos
de 500 millones hasta los 150.000
millones de pesetas, con lo que sólo
unas pocas firmas muy importan­tes
pueden abordar esta actividad. La
MÁQUINAS DE CÓMPUTO
imparable ascensión de estos costes, léctrica; por consiguiente, las DRAM y
sobre todo disparada por los gastos otras pastillas similares requieren
que implica superar barreras técnicas materiales con una constante dielécca­da vez más formidables, obli­ga de trica elevada.
nue­vo a centrar la aten­ción en los límia búsqueda de nuevas fuentes de
tes de la in­dustria de los semiconducluz para litografía es asimismo
tores.
No es probable que su­fra un parón a impresionante. La mayor finura de
corto pla­zo. Pero nos acercamos a barre- re­solución exige longitudes de onda
ras tan elevadas que el superarlas pro- más cortas. Pero la luz de mercurio al
bablemente exigirá cambios mucho más uso emite muy poca energía en longidrásticos que en ocasiones anteriores. tudes de onda inferiores a los 365
Un breve análisis de los obstáculos per- nanómetros de raya i. Los láseres excímeros descienden hasta unos 193
mitirá comprender las razones.
En su mayor parte provienen de las nanómetros, pero por debajo de esa
estructuras de película delga­da que longitud de onda generan muy poca
componen el circuito integrado o de las energía. En los últimos años se ha
fuentes de luz necesarias para formar aplicado la litografía por láser excílas finísimas pistas conductoras, o de mero para fabricar pastillas de aplicala propia an­chura de dichas pistas. En ción especial, de grandes prestaciones,
ciertos casos se relacionan con la cons- en pequeños lotes. Para longitudes de
tante dieléctrica de la película ais- onda aún más cortas las fuentes de
lante. La constante dieléctrica nos rayos X constituyen el último recurso.
indica la capacidad que posee una pelí- Sin em­bar­go, los resultados producidos
cula aislante para evitar corrientes de por 20 años de investigación sobre la
fuga entre las pistas conductoras, litografía con rayos X sólo han sido
sumamente próximas, de la pastilla. modestos y no existen en el mercado
Cuantos más transistores se integren pastillas fabricadas por tal procedien la pastilla, más densamente agru- miento.
Al aparecer obstáculos técnicos crepadas estarán estas pistas, con lo que
cen también las barreras económicas,
aumentará la diafonía entre ellas.
Para evitarlo podría reducirse el usualmente manifestadas en elevaciovalor de la constante dieléctrica, lo que nes de coste de los equipos, sobre todo
haría más impermeable a la
diafonía el aislante. Pero
RELACION PRECIO A PRESTACIONES
esto, a su vez, origina una
doble búsqueda: por un lado,
CURVAS DE COSTE
DE FABRICACION
de materiales nuevos de más
baja constante dieléctrica y,
por otro, de nuevas estructuras peliculares capaces de
SALTO
TECNICO
reducir todavía más la constante dieléctrica total. Se
está investigando la posibilidad de sembrar la película
aislante con diminutos huecos para aprovechar la bajíLIMITE SUPERIOR
DE PRECIOS
sima constante dieléctrica
del aire o del vacío.
En otros lugares de la pastilla se necesitan materiales
con la propiedad opuesta:
una elevada constante dieléctrica. La mayoría de los
E1
E2 T1
T2
circuitos integrados requieBarreras
Barreras
económicas técnicas
ren condensadores. En una
memoria dinámica de acceso
PRESTACIONES DEL PRODUCTO
aleatorio (DRAM) cada bit se
FUENTE: VLSI Research, Inc.
almacena en un condensador, dispositivo capaz de rete- 3. UNA CURVA DE COSTES caracteriza un sistema de
ner la carga eléctrica. (Un fabricación determinado. En las barreras técnicas T1
condensador cargado repre- y T2 una pequeñísima mejora de prestaciones requiere un enorme aumento de coste. Pero mucho antes se
senta el 1 binario; uno des- tropieza con las barreras económicas, E y E , en la
2
cargado, el 0.) Lo normal es intersección de las curvas con la línea que1 representa
que la capacitancia disponi- los precios máximos tolerados por los usuarios. Los
ble en la pastilla se quede saltos técnicos hacen descender la curva a la posición
corta. La capacitancia es pro- de color más oscuro. Entonces mejoran las prestacioporcional a la constante die- nes y las barreras pasan a ser E2 y T2.
L
PRECIO
L
93
¿Cuánto rinde el dinero?
D
muchos— que en absoluto son linea­
les. Desde un punto de vista econó­
mico, el carácter no lineal distingue a
la industria de los semiconductores de
cualquier otra gran industria; no sólo
eso: también hace inadecuados todos
los demás modelos.
Las inversiones en equipos e inves­
tigación que periódicamente necesita
este sector son bastante grandes y
crecen exponencialmente. Además,
como en toda empresa, las inversio­
nes en estos conceptos y otros análo­
gos deben generar un beneficio
saneado. Pero hoy día las firmas de
semiconductores carecen de medios
para determinar con precisión qué
parte de su rendimien­to financiero
procede de sus inversio­
1971-75
1976-84
1985-94
nes en equi­p o, lo que les
plantea un grave pro­
blema. Des­de hace años
venimos trabajando en
métodos descriptivos del
sector que tengan en
cuenta los elementos no
lineales, con miras a
4
modificar el modelo
1973
ROI.
3
En el modelo clásico
1974
se acude a inversiones
1976
de capital adicionales
2
cuando la capacidad real
1993
1987
de un fabricante no
alcanza la capacidad
1979
1994
1
prevista (entendida ésta
1981
como la capacidad que
1971
1986
la empresa cree nece­sa­
0
ria para satisfacer la
0
demanda en un futuro
INVERSION CRECIENTE
inmediato). Estas dife­
RELACION DE INVERSION
rencias suelen deberse
EN PLANTA Y EQUIPO A I+D
al envejecimiento del
FUENTES:
Research,
Inc. la relación entre beLA
CARTA VLSI
DE FASE
muestra
equipo y a la pérdida de
neficios e inversiones en nuevas técnicas a lo largo
personal experto. En el
de distintas épocas de Intel. Uniendo los puntos
sector de los semicon­
señalados se trazan bucles que representan ciclos
ductores no sólo hay que
de alrededor de seis años (en diferentes colores). En
anticiparse constante­
cada ciclo se pasa de un período de escasa rentabimente a los aumentos de
lidad con fuertes inversiones a otro de muy buenos
capacidad, sino que tam­
rendimientos en efectivo a partir de inversiones
bién se deben prever y
mucho menores. Las flechas verdes señalan el año
planificar los grandes
de cada ciclo en que Intel obtuvo mayores ganancias
y gastó menos en equipo.
avances en la propia téc­
nica de fabricación.
Para dar cuenta de
este efecto de frenado
cimiento y de avance técnico relati­ técnico, empezamos por considerar la
vamente pequeños. Los autores no relación del efectivo generado en cual­
tienen noticia de que el modelo se quier año determinado con las inver­
haya comportado bien en el sector de siones en nuevas técnicas del año
los semiconductores, en el que hay anterior. En este contexto entendemos
numerosos índices de variación por nuevas técnicas los nuevos equi­
—prestaciones del producto y coste pos de fabricación y la investigación y
del equipo de fabricación, entre otros desarrollo. El efectivo generado
RENTABILIDAD CRECIENTE
94
RELACION DE NUEVO BENEFICIO
GENERADO A INVERSION
EN EQUIPO E I+D
urante sesenta años la mayoría
de las empresas se sirvieron del
mismo modelo para registrar los ren­
dimientos financieros de sus inversio­
nes en equipos, investigación, gestión
de mercados y todos los demás con­
ceptos. Desarrollado por Donal­d­son
Brown de Du Pont en el umbral de la
primera guerra mundial, la primera
empresa en aplicarlo fue Ge­n e­ral
Motors en su esfuerzo por so­bre­pasar
a Ford Motor Company como líder del
mercado de automóviles.
Desde su adopción universal, el
modelo en cuestión, llamado de ren­
dimiento de la inversión, o ROI (return
on investment), ha mantenido su vali­
dez en industrias con índices de cre­
durante el año es el beneficio bruto
resultado de las operaciones, inclu­
yendo el dinero destinado a la reinver­
sión en investigación y desarrollo.
Esta relación nos indica el incre­
mento de beneficios por incremento
de inversión con un año de desfase.
Constituye un exponente real del
grado de rentabilidad que alcanza una
compañía gracias a sus inversiones
en técnicas cada vez más costosas. El
ROI, por el contrario, mide los benefi­
cios incrementales durante el año pro­
cedentes de todas las inversiones, no
solamente de las del año anterior.
Hasta aquí no hemos hecho más
que incluir en las nuevas técnicas el
equipo de fabricación incorporado y la
investigación y desarrollo. Pero el
efecto del frenado técnico se hace
más acentuado cuando se separan
estas dos categorías y se dilucidan los
flujos y reflujos entre ellas. Una manera
de conseguirlo es calcular año tras
año la razón entre estas dos inversio­
nes y después representarla en fun­
ción de la relación antes mencionada
entre efectivo generado en el año y las
inversiones en nuevas técnicas del
año anterior, como ilustra el adjunto
diagrama o carta de fase para la com­
pañía Intel.
Conectando los puntos marcados
en el diagrama se trazan bucles
correspondientes a ciclos de unos seis
años. En cada uno de ellos, Intel pasa
desde un período de operaciones no
rentables causadas por fuertes inver­
siones de capital hasta otro período
en el que se consiguen grandes bene­
ficios derivados de inversiones de
capital mucho más ligeras. En el grá­
fico se ve que Intel entra ahora en otro
período de fuerte inversión de capital.
Otras empresas de semiconductores
(y asimiladas) recorren ciclos pareci­
dos, si bien varían de una a otra los
períodos de rentabilidad y de fuertes
inversiones.
La parte inferior de cada bucle es
más baja que la del bucle precedente.
Esto quizá sea la información más
interesante que ofrece la ilustración:
significa que los beneficios de Intel,
con relación a los gastos que los han
generado, descienden en cada ciclo
sucesivo. Al mostrar el ciclo completo
entre las inversiones en técnica y su
rentabilidad, la carta de fase es un
poderoso instrumento para observar
y gestionar los ciclos de inversión
peculiares de esta singular y dinámica
industria.
—G.D.H. y J.D.H
TEMAS 4
MÁQUINAS DE CÓMPUTO
109
AMBITO TEMPORAL
DE LOS SISTEMAS LITOGRAFICOS
256M
ALINEADORES POR CONTACTO
ALINEADORES POR PROXIMIDAD
108
64M
ALINEADORES POR PROYECCION
PRIMERAS POSICIONADORAS
DE RAYA G
NUMERO DE TRANSISTORES POR PASTILLA
de litografía. Las mejoras del equipo
litográfico adquieren especial importancia porque determinan las dimensiones mínimas que pueden materializarse en una pastilla. Aun­que esta
posible dimensión mínima se haya ido
achicando un 14 por ciento anual desde
los inicios del gremio, el precio del
equipo ha subido cada año un 28 por
ciento.
Al principio el coste se decuplicaba
con cada nueva generación de equipo
litográfico. De entonces acá se ha
logrado reducir un aumento tan fuerte
a una simple duplicación de precios
entre una generación y otra de alinea­
dores de posición. Otros tipos de equipos utilizados en la fabricación de
semiconductores han conocido un comportamiento similar.
Esta es la razón de que los costes
generales de la creación de fábricas de
semiconductores hayan crecido a la
mitad del ritmo predicho por Moore,
duplicándose cada tres años. Intel se
gasta el equivalente de más de 140.000
millones de pesetas en cada nueva
planta que abre en EE.UU.; Samsung
y Siemens construyen factorías que
costarán cerca de 180.000 millones y
Motorola proyecta una planta que
podría llegar a los 300.000 millones.
Aunque pueden construirse fábricas
más pequeñas por menos dinero, su
rendimiento es menor.
Estos enormes costes de las fábricas
confirman que nos aproximamos a
barreras técnicas imponentes. Sin
embargo, nos parece infundado el
temor de que sean insalvables y fuercen a un parón del sector. Lo que sí
puede suceder es que los precios de los
semiconductores aumenten y se desacelere el ritmo de cambio.
Ello además tendría algún precedente. Entre 1985 y 1988 el coste por
bit de memoria creció un 279 por ciento
sin consecuencias catastróficas; antes
bien, 1988 fue uno de los mejores años
en la industria de semiconductores.
Cuando el coste por bit inicie una
su­b ida incesante, probablemente
sobrevendrá una transformación
industrial que altere los modelos de
empresa.
En la práctica, toda industria que
perdure algunos decenios habrá pa­sado
por tales transformaciones. Pese a su
carácter singular, la industria de los
semiconductores se rige también por los
principios económicos de la oferta y la
demanda. Podemos, pues, acudir a la
historia de sectores más antiguos, como
la aviación, los ferrocarriles y la automoción, para buscar episodios ilustrativos de lo que cabe esperar.
Como en los semiconductores, los
comienzos de la industria aeronáutica
16M
POSICIONADORAS AVANZADAS
DE RAYA G
107
80786
POWER PC 620
PRIMERAS POSICIONADORAS
DE RAYA I
4M
POSICIONADORAS AVANZADAS
DE RAYA I
POWER PC 601
PRIMERAS POSICIONADORAS
DEL UV PROFUNDO
PENTIUM
PRO
POWER PC 604
PENTIUM
68040
1M
106
80486
256K
68030
80386
68020
64K
105
80286
68000
16K
104
8086
4K
8080
6800
1K
MICROPROCESADOR INTEL
MICROPROCESADOR MOTOROLA
CAPACIDAD DE MEMORIA
(DRAM) EN BITS
4004
103
1970 ’72
’74
’76
’78
’80
’82 ’84 ’86 ’88 ’90
AÑO DE DISPONIBILIDAD
’92
’94
’96
’98
2000
FUENTE: VLSI Research, Inc.; Integrated Circuit Engineering Corporation
4. LAS DENSIDADES DE TRANSISTORES en los circuitos integrados han crecido
exponencialmente, como indica la gráfica logarítmica. Para sostener tal ritmo se
han utilizado en la fabricación sucesivos sistemas litográficos que proyectan en las
obleas los patrones de circuitos. La mayor regularidad y simplicidad del diseño han
conseguido elevar las densidades de las pastillas de memoria.
fueron muy rápidos. En menos de cuarenta años se pasó del monoplano de
los hermanos Wright al Clipper de Pan
Am y a las Flying Fortress y Super­for­
tress. También el sector atendió primeramente a los mercados militares antes
de dedicarse a la aviación comercial.
La in­dustria aeronáutica sostuvo su
crecimiento disminuyendo los costes
por pasajero y kilómetro recorrido, a la
par que reducía los tiempos de vuelo.
Los dos objetivos son equiparables a los
tenaces esfuerzos por aumentar la densidad de transistores en una pastilla y
mejorar así las prestaciones, reduciendo además los costes.
La aviación progresó du­r ante
de­cenios concentrando su investiga-
ción y desarrollo en aumentar la
capaci­dad de pasajeros y la velocidad.
Final­mente se llegó a un máximo de
capacidad con el Boeing 747 y a un tope
de ve­locidad con el Concorde. El 747
tuvo un gran éxito, pero sus numerosas plazas sólo se llenaban en las rutas
más largas. El Concorde, por su par­te,
vio limitada su utilización por la contaminación acústica que creaba. Pero
ambos representaron un límite, en el
sentido de que la técnica no permitía
en condiciones realistas obtener velocidades y capacidades mayores. Pese
a ello la aviación no cayó en barrena,
sino que entró en una segunda fase en
la cual se diseñaron aviones más
pequeños y diversos, construidos para
95
mercados específicos. El foco de
la investigación y desarrollo ya
no se centraba en la velocidad
y la capacidad, sino en un fun­
cio­na­miento eficaz y silencioso
y en la comodidad del pasajero.
miento y la diversidad de productos, de modo similar a lo que
empieza a verse en la fabricación de microcircuitos. Las
empresas aplican ahora la técnica a potenciar las líneas de
productos más que a reducir los
costes de fabricación. Hay que
ubo en los ferrocarriles tendestacar que estas industrias
dencias similares. Desde el
han prosperado pese a la subida
siglo pasado hasta bien entrade los costes.
dos los setenta la potencia de
Puede no faltar mucho para
tracción de las locomotoras fue
que la industria de los semiconaumentando continuamente
ductores toque techo. El ritmo
con el fin de reducir los costes
de la integración de transistores
del transporte de mercancías.
declinará y los costes de fabricaLa inversión de capital en las
ción empezarán a disparar­se.
locomotoras era cuantiosa,
Pero como sugiere la experienpero la potencia de tracción
cia de la aviación, el ferrocarril
crecía más deprisa que los cosy el automóvil, los semiconductes. Sin embargo se llegó a un
tores pueden prosperar aunque
punto en que los altos costes de
encuentren nuevas barreras
desarrollo forzaron a la unión
económicas y técnicas, en gran
5. El CIRCUITO INTEGRADO, o dado, del microprocede fabricantes y usuarios. La
medida infranqueables. En una
sador Power PC 620 de Motorola contiene cerca de
Union Pacific Railroad, el
industria más madura, el desiete millones de transistores. Se encapsula en cerámica. Se destina a estaciones de trabajo de ordenador y
mayor ferrocarril de su época,
sarrollo provendrá de productos
servidores de ficheros.
se asoció con la División de
refinados con una diversificaElectromoción de General
ción mayor.
Motors para crear el EMD DD-40, un del color que se quisiera, siempre que
El almacenamiento de la informamonstruo que resultó ser demasiado fuera negro.
ción, y las funciones sociales que de él
Las tendencias en la fabricación de dependen, continuarán su avance. En
grande e inflexible para todo lo que no
fuese transportar grandes cargas a automóviles se orientaron a ofrecer realidad, moderar el ritmo del protravés de los Estados Unidos. Tras su más facilidades, prestaciones y mode- greso en los semiconductores podría
fracaso, la industria ferroviaria volvió los. Alfred E. Sloan, de General Mo­tors, acarrear inesperadas ventajas, como
a emplear máquinas más pequeñas se dio cuenta de que el rendimiento ya la de dar tiempo a los programas y
que trabajasen por separado con car- no aumentaba con el tamaño de la ar­quitecturas informáticas para que
gas pequeñas y fueran capaces de aco- fábrica y que las grandes plantas eran asimilen los grandes saltos en prestaplarse para el transporte de otras buenas para producir grandes series ciones de los microcircuitos. También
del mismo producto. Por tan­to, dis- en la industria de los semiconductores
mayores.
La situación actual de la industria de gregó la empresa en divisiones con la veteranía puede ser un grado.
semiconductores no difiere mucho de la mercados claramente definidos y fábrireseñada a propósito de las em­presas cas especializadas que las respal­dasen.
ferroviarias antes del EMD DD-40. Los clientes prefirieron la mayor varieCuesta tanto el desarrollo de nuevas dad de di­seños resultante y General
BIBLIOGRAFIA COMPLEMENTARIA
factorías para las futuras ge­ne­raciones Mo­tors empezó muy pronto a ganar
Is Semiconductor Manufacturing Equide pastillas de memoria que las empre- mercado a costa de Ford.
pment Still Affordable? Jerry D. Hutsas han empezado a aliarse en diferencheson y D. Dan Hutcheson en Procee­
l desarrollo de los microcircuitos
dings of the 1993 International Symposium
tes grupos, cada uno de los cuales ataon Semiconductor Manufacturing. Instisigue pasos semejantes. Intel
cará a su manera el tremen­do problema
tute of Electrical and Electronics Engide la fabricación económica de pastillas diversificó en más de 30 variedades su
neers, septiembre de 1993.
oferta del microprocesador 486, miende elevadísima densidad.
SIA 1994 National Technology RoadDe la fabricación de automóviles tras que a principios de los ochenta
map for Semiconductors. Semiconducpue­den también extraerse lecciones. sólo ofrecía tres versiones del 8086 y
tor Industry Association, 1994.
En los años veinte Henry Ford fue nada más que dos del 8088. Las pastiLitography and the Future of Moore’s
construyendo factorías cada vez más llas de memoria dinámica siguen esa
Law. Gordon E. Moore en SPIE Procee­
dings on Electron-Beam, X-Ray, EUV,
eficientes, hasta culminar en la planta pauta diversificadora. Toshiba, por
and Ion Beam Lithographies for Manu­
gigantesca de Rouge, donde empezó a ejemplo, posee actualmente quince
facturing, vol. 2437; febrero de 1995.
fa­bricarse el modelo A en 1928. Par­ veces más configuraciones DRAM de
Hacia el “Cero coma uno”. Gary Stix en
tía­se allí del propio mineral de hierro cuatro megabit que las de 64 kilobit
Investigación y Ciencia, n.o 223, págs.
para producir casi todas las piezas del que tenía en 1984.
70-75, abril de 1995.
En su fase inicial todas las induscoche. Pero el sector automovilístico
Affordability Concerns in Advanced
había cambiado ya y el esfuerzo de trias señaladas, desde las ferroviarias
Semiconductor Manufacturing: The
Nature of Industrial Linkage. Donald
Ford por reducir los costes de fabrica- a las de semiconductores, se han esforA. Hicks y Steven Brown en Proceedings
ción mediante la construcción de fac- zado por mejorar prestaciones y reduof the 1995 International Symposium on
torías mayores y de mejor rendimiento cir costos. Las tres industrias del
Semiconductor Manufacturing. Institute
hubo que pagarlo sacrificando la diver- transporte, considerablemente más
of Electrical and Electronics Engineers,
sidad de productos. Como decía el maduras, han pasado a una segunda
septiembre de 1995.
chiste, podía comprarse un coche Ford fase en la que se persigue el refina-
H
E
96
TEMAS 4
Pastillas de silicio-germanio
Gary Stix
L
os fabricantes electrónicos nunca han sentido simpatía
por el arseniuro de galio, material que da mayores
ve­locidades que la vieja materia prima de la industria,
el silicio. Pero por mucho que valoren la celeridad, los
fabricantes de pastillas se resisten a abandonar inversiones
de miles de millones de pesetas en factorías de semiconductores de silicio para emprender un proceso de fabricación completamente diferente. La llegada al mercado
de una aleación de silicio y germanio significa que quizá
no tengan que hacerlo.
Investigadores de IBM y Analog Devices han hecho saber
que de su colaboración ha surgido el primer dispositivo
comercial hecho de tal aleación. «Marcará el camino del
silicio durante los próximos cinco, diez o quince años»,
dice Bernard S. Meyerson, del Centro de Investigación
Thomas S. Watson de IBM.
Meyerson y sus colaboradores describen un transistor
bipolar cuya base está constituida por la aleación de silicio
y germanio. La base conecta y desconecta esos conmutadores en miniatura. El objeto del dispositivo es convertir
una señal digital en su equivalente analógica al ritmo de
mil millones de ciclos por segundo (un gigahertz). El convertidor digital-analógico de 12 bits opera más rápidamente que cualquier convertidor de silicio construido
hasta la fecha. Consume menos y su velocidad es comparable a la de los más rápidos convertidores de señal basados en el arseniuro de galio.
A diferencia del arseniuro de galio, los dispositivos de
silicio y germanio se pueden fabricar mediante los mismos
procesos que los circuitos integrados habituales. Dada la
larga experiencia de los fabricantes de pastillas con el
silicio, la electrónica del silicio-germanio puede alcanzar
velocidades más altas sin costar más que los circuitos de
silicio bipolares corrientes.
Cada convertidor de silicio-germanio fabricado por IBM
contiene 3000 transistores y otros 2000 elementos (condensadores, resistencias). Este número es pequeño comparado con el millón largo de transistores que puede
llegar a contener una pastilla digital, pero para un circuito
analógico es un alto nivel de integración.
IBM ha tratado de aprovechar que los electrones se
mueven más deprisa dentro de la base gracias al elevado
campo eléctrico de la aleación. Causa ese campo el
aumento gradual de la cantidad de germanio a lo ancho
de la base, que crea una diferencia de potencial eléctrico,
una especie de pendiente por la cual se aceleran los electrones.
El futuro del germanio parece prometedor. IBM
informó el pasado ve­ra­no que las máximas frecuencias
de los transistores sueltos de germanio-silicio iban de
110 a 117 gigahertz. Son más de dos veces superiores a
las alcanzables con un transistor de silicio y pueden compararse favorablemente con las de muchas pastillas de
arseniuro de galio. Analog Devices está considerando
introducir la aleación silicio-germanio en la parte electrónica de un teléfono digital sin cable que funciona a
frecuencias nada menos que de
tres gigahertz (la velocidad tasada
de los circuitos que usan transistores es siempre mucho menor
que la de funcionamiento libre
de un transistor suelto). La circuitería para transmitir y recibir
radioseñales podría reducirse, de
una amalgama de transistores y
condensadores separados, a una
sola pastilla.
Los investigadores de IBM
hablan también de integrar los
transistores bipolares de germanio-silicio en una pastilla portadora de una tecnología de semiconductor de metal-óxido (CMOS)
complementaria, es decir, los
baratos dispositivos lógicos y de
memoria que constituyen la base
de la mayor parte de la electrónica
de los ordenadores personales y
equipos de comunicaciones. Los
componentes CMOS servirían
como microprocesadores y memoria; los circuitos bipolares, como
procesadores de alta velocidad de
señales de radio que fuesen, por
Bernard S. Meyerson, investigador de IBM, inspecciona una máquina de ultraalto ejemplo, de un teléfono manual
vacío para la deposición química de vapor, técnica que él mismo ideó para depositar a una estación base de telecomucapas atómicas de aleación de silicio-germanio sobre pastillas de silicio.
nicaciones.
98
TEMAS 4
FUTURO
El ordenador del siglo xxi
Mark Weiser
Programas y dispositivos físicos especiales,
conectados entre sí mediante cables, ondas de radio o infrarrojos,
abundarán tanto que su presencia pasará inadvertida
L
as técnicas que calan más hondo
son las que se pierden de vista;
su imbricación en la vida diaria
es tan íntima que terminan por pasar
inadvertidas. Pensemos en la escritura, quizá la primera técnica de la
información. La posibilidad de representar el lenguaje hablado mediante
símbolos para su almacenamiento prolongado liberó a la información de las
limitaciones de la memoria humana.
Hoy en día se la encuentra por doquier
en los países industrializados. No son
sólo libros, revistas o periódicos los que
transmiten información escrita; también lo hacen las señales de tráfico, los
carteles de los comercios, las vallas
publicitarias e incluso los graffiti. La
constante presencia de estos productos de la “tecnología literaria” en el
trasfondo no requiere ningún esfuerzo
de atención; la información que transmiten puede usarse de un solo vistazo.
Es difícil imaginar la vida moderna de
otro modo.
Las técnicas de la información basadas en el silicio, en cambio, están lejos
de haberse incorporado al entorno. El
hecho de que se hayan vendido decenas
de millones de ordenadores personales
no ha sido suficiente para sacarlos de
su propio mundo, al que sólo se accede
MARK WEISER dirige el laboratorio
de ciencias del cómputo en el Centro de
Investigación de Xerox en Palo Alto
(PARC). Trabaja sobre la nueva revolución del mundo de los ordenadores, posterior a las estaciones de trabajo, cono­
cida como computación ubicua o
virtualidad incorporada. Doctor por la
Universidad de Michigan en 1979, antes
de comprometerse con PARC enseñó
informática en la Universidad de
Maryland. Disfruta escribiendo programas. Ha investigado la aplicación de
nuevas teorías sobre la recuperación
automática de memoria en los ordenadores, lo que en el gremio se conoce
como “recogida de basura”.
100
utilizando una jerga complicada y
carente de relación con las tareas para
las que se los utiliza. Algo así como si,
para escribir, tuviéramos que saber
además fabricar tinta o cocer barro.
El aura de misterio que envuelve a
los ordenadores personales no es sólo
un problema de relación, o interfaz,
con el usuario. La propia idea de que
el ordenador sea “personal” es ya errónea. Las mismas ensoñaciones sobre
ordenadores portátiles, agendas y
otros accesorios habituales constituyen una etapa transitoria hacia la consecución del verdadero potencial de las
técnicas informáticas. Ninguna de
estas máquinas puede convertir la
computación en parte integral e imperceptible de nuestras vidas. Lo que
nosotros estamos intentando, pues, es
concebir un nuevo modo de pensar
sobre los ordenadores, que tenga en
cuenta el mundo humano y permita
que las máquinas se difuminen en su
trasfondo.
E
s la psicología humana, y no la tecnología, la que requiere tal desaparición. Cuando aprendemos algo
hasta dominarlo, dejamos de prestarle
atención; al mirar una señal de tráfico,
absorbemos su información sin darnos
cuenta de que estamos leyendo. Her­
bert A. Simon, economista, ex­per­to en
ordenadores y premio Nobel, llama a
este fenómeno “compilación”; el filóso­fo
Michael Polanyi, “dimensión tá­ci­ta”;
los también filósofos Hans Georg
Ga­damer y Martin Heidegger, “horizonte” y “lo a la mano”, respectivamen­te;
el psicólogo J. J. Gibson, “invariantes
visuales”, y John Seely Brown, colega
mío en el Centro de Inves­tigación de
Xerox en Palo Alto (PARC), “periferia”.
Lo que todos ellos quieren decir en el
fondo es que sólo cuando las cosas
sufren este tipo de desaparición podemos usarlas sin pensar en ellas y concentrarnos en otras metas.
Pensar en integrar los ordenadores
de forma imperceptible con el mundo
exterior es algo que va contra ciertas
corrientes actuales. En tal contexto,
para que el ordenador sea “ubicuo” no
basta con que se le pueda llevar a la
playa, a la selva o a un aeropuerto. El
ordenador de bolsillo más potente, que
tuviese acceso a un sistema de información universal, seguiría centrando
nuestra atención sobre una caja individual. Si continuamos con la analogía
de la escritura, llevar un superordenador portátil es como no tener más que
un libro muy importante. Ni el hecho
de poder configurarlo a nuestro gusto,
ni siquiera el de que refleje millones
de otros libros, dan una idea adecuada
de las verdaderas posibilidades de la
alfabetización.
En la misma línea de razonamiento,
que los ordenadores ubicuos puedan
incorporar sonido e imagen a los gráficos y textos, no los equipara con
“ordenadores multimedia”, ya que
éstos, en su forma actual, siguen
haciendo de la pantalla un centro de
atención tiránico, en vez de permitir
su integración con el entorno.
Puede que lo más diametralmente
opuesto a nuestras ideas sea el concepto de realidad virtual, que pretende
crear un mundo dentro del ordenador.
El usuario se coloca unas gafas especiales que proyectan una escena artificial sobre sus ojos; quizá también
guantes e incluso ciertas prendas que
captan sus movimientos y gestos de
modo que pueda moverse dentro de ese
mundo y manipular sus objetos virtuales. Aunque su propósito sea el de
abrirnos la exploración de reinos inaccesibles —el interior de las células, la
superficie de planetas lejanos, la
trama de información de las bases de
datos—, la realidad virtual es sólo un
mapa, no es el territorio. No incluye
las mesas, las oficinas, la otra gente
que no lleve los anteojos o la vestimenta apropiada, el tiempo, los árboles, los paseos, las posibilidades de
encuentro ni, en general, la infinita
riqueza del universo. La realidad virTEMAS 4
1. LA COMPUTACION UBICUA empieza a aparecer en forma
de pizarras activas, que reemplazan a las tradicionales, y
otros dispositivos. En el Centro de Investigación de Xerox en
Palo Alto, los técnicos se reúnen a trabajar en torno a una de
MÁQUINAS DE CÓMPUTO
ellas. El esfuerzo de construir e integrar todas estas herramientas les permite aclarar su idea de la computación ubicua.
Estas pizarras pueden amoldar al usuario la información que
presentan.
101
2. REDES CABLEADAS E INALAMBRICAS enlazan los ordenadores y permiten compartir programas. El conjunto aquí
representado incluye terminales corrientes, servidores de ficheros, máquinas de bolsillo (llamadas marcas) y otras de ta-
tual utiliza un enorme aparato para
simular el mundo, pero no potencia, de
la forma más discreta posible, el mundo
ya existente.
Es más, la contraposición entre las
nociones de realidad virtual y de computación ubicua e invisible es tan
grande que algunos de nosotros usamos el término “virtualidad incorporada” para referirnos al proceso de
sacar a los ordenadores de sus carcasas electrónicas. La “virtualidad” de
los datos informáticos —las mil diferentes formas en que pueden alterarse,
procesarse y analizarse— se lleva al
mundo físico.
¿Cómo se difuminan las técnicas en
el entorno? El caso de los motores eléctricos puede servirnos de ejemplo instructivo. A comienzos de siglo, un
taller o fábrica típicos poseían un solo
motor que impulsaba docenas o quizá
cientos de máquinas distintas a través
de un sistema de ejes y poleas. La aparición de motores eléctricos pequeños,
baratos y eficaces, hizo posible, en un
primer paso, que cada herramienta
tuviese su propia fuente de fuerza
motriz y, más tarde, que una sola
máquina contase con muchos motores.
Un vistazo al manual de uso y mantenimiento de, por ejemplo, un automó­
vil hace aparecer unos 22 motores y 25
relés, con los que se arranca el motor,
102
maño folio, denominadas tabletas. Las redes del futuro habrán
de trabajar con cientos de estos dispositivos alojados en una
misma sala, así como con otros que podrán cambiar de ubicación.
se limpian los parabrisas, se abren y
cierran puertas, etc. Si el conduc­tor
prestase especial atención, podría darse
cuenta del momento en que activa cada
uno de estos motores, aunque no obtendría gran ventaja de ello.
L
a mayoría de los ordenadores que
participen en lo que hemos llamado “virtualidad incorporada” serán
real, y no sólo metafóricamente, invisibles. Esto ya sucede con los procesadores incorporados en los mandos de
luminosidad, termostatos, equipos de
música y hornos, que pueblan y automatizan el mundo doméstico. Estas
máquinas, junto con otras, estarán
interconectadas en un sistema ubicuo.
Mis colegas y yo nos hemos centrado
en aquellos dispositivos que transmiten y presentan la información de
forma más directa. Y hemos visto que
hay dos cuestiones básicas: la ubicación y el tamaño. Pocas cosas resultan
tan fundamentales a la percepción
humana como la disposición física, por
lo que los ordenadores ubicuos deberán saber dónde están (mientras que
los actuales no tienen ni idea de dónde
se encuentran ni de lo que les rodea).
Basta con que un ordenador sepa en
qué habitación se halla para que pue­da
adaptar su comportamiento, sin que
esto requiera ni una pizca de inteligencia artificial.
Los ordenadores ubicuos serán de
distintos tamaños, según la tarea
específica a que se destinen. Nosotros
hemos construido los que llamamos
“marcas”, “tabletas” y “pizarras” (tabs,
pads y boards, respectivamente). Las
marcas son máquinas de unos cuantos
centímetros, que podrían equipararse
a etiquetas adhesivas activas; las
ta­bletas, de algunos decímetros, tienen una función parecida a una hoja
de papel (a un libro o una revista); y,
por último, las pizarras tienen el
tamaño y funciones usuales de un
encerado o tablón de anuncios.
¿Cuántas superficies comparables
se encuentran en una habitación normal? Para saberlo, mire a su alrededor; en el primer grupo deberá incluir
los avisos de las paredes, los títulos del
lomo de los libros, los rótulos de mandos, termostatos y relojes, sin olvidar
las anticuadas notas en trocitos de
papel. Depende de la habitación, pero
puede que encuentre más de 100 marcas, de 10 a 20 tabletas y una o dos
pizarras. Esto nos proporciona una
idea del despliegue de máquinas necesario para nuestros propósitos de virtualidad incorporada: cientos de ordenadores por habitación.
Puede que sintamos cierto desasosiego inicial al oír hablar de cientos de
ordenadores en una estancia, parecido
al que produjeron en su día los cientos
TEMAS 4
de voltios en los cables eléctricos de las
paredes. Pero, como en este último
caso, los ordenadores acabarán por
resultar imperceptibles. La gente se
limitará a utilizarlos de manera
inconsciente para realizar las tareas
cotidianas.
Las marcas son los componentes
mínimos de la virtualidad incorporada.
Su interconexión aumentará la utilidad
de los ordenadores actuales de su
misma escala, las calculadoras y agendas de bolsillo, al tiempo que ejecutarán
funciones que ningún ordenador realiza hoy en día. Por ejemplo, en PARC
y en laboratorios de investigación de
otros lugares del mundo ha empezado
a trabajarse con insignias activas,
pequeños ordenadores pinzables del
tamaño de las fichas de identificación
de un empleado, desarrollados inicialmente en el laboratorio de investigación de Olivetti en Cam­brid­ge. Estas
tarjetas se dan a conocer a los receptores distribuidos por un edificio, lo que
permite seguir la pista de las personas
u objetos que los portan.
En nuestra instalación experimental, las puertas se abren solamente
ante las personas adecuadas, las habitaciones les dan la bienvenida por su
nombre, las llamadas telefónicas se
reciben automáticamente allí donde se
encuentre su destinatario, los recepcionistas saben dónde está cada cual,
los terminales de ordenador se amoldan a las preferencias del usuario y las
agendas se actualizan solas. El caso de
la agenda automática revela las diversas ventajas que puede proporcionar
algo tan simple como saber dónde se
encuentra cada uno: una reunión, por
ejemplo, consiste en que varias personas pasan cierto tiempo en una misma
habitación, mientras que su temática
tendrá que ver muy probablemente
con los ficheros que se ha hecho apare­
cer en la pantalla allí existente. No se
requiere ninguna revolución en inteligencia artificial; basta con ordenadores imbricados en la vida cotidiana.
Mi colega Roy Want ha diseñado
una marca que incorpora una pequeña
pantalla, gracias a la que puede servir
a la vez como insignia activa, calendario y agenda. También puede funcionar como extensión de las pantallas de
ordenadores: en lugar de concentrar la
ventana de un programa en un pequeño
icono de pantalla, el usuario podrá
traspasarla a la presentación de una
marca, quedando así más libre la pantalla principal y pudiendo disponerse
los trabajos informáticos alrededor de
los terminales al modo en que ahora
se distribuyen los documentos de papel
sobre los escritorios. Llevar un asunto
a otro despacho para comentarlo es
MÁQUINAS DE CÓMPUTO
cosa para la que basta con recoger las
marcas que lo forman; los programas
y ficheros asociados pueden reclamarse desde cualquier terminal.
E
l tamaño siguiente es la tableta,
algo así como un híbrido entre un
folio y los actuales ordenadores que
caben en el regazo o en la palma de la
mano. Robert Krivacic, de PARC, ha
construido un prototipo de tableta que
utiliza dos microprocesadores, una
pantalla como las de las estaciones de
trabajo habituales, una pluma multibotón y una red de comunicación por radio
que tiene canales suficientes para que
puedan funcionar cientos de dispositivos por persona y habitación.
Las tabletas difieren de los ordenadores portátiles al uso en un aspecto
crucial. Mientras estos últimos van de
un lado a otro con sus propietarios, una
tableta que deba llevarse consigo es un
fracaso. Las tabletas se han concebido
como ordenadores mostrencos, equiparables al papel en blanco disponible en
las mesas de reunión; carecen de identidad y relevancia y se las encuentra y
usa allí donde se necesite.
También pueden concebirse las
tabletas como una especie de antídoto
contra las “ventanas”. Las ventanas se
inventaron en PARC, y Apple las popularizó con el Macintosh; su propósito
era permitir la convivencia simultánea de varias actividades diferentes en
el pequeño espacio que ofrece la pantalla de un ordenador. En los últimos
veinte años, las pantallas no han crecido de modo apreciable. Se dice que
los sistemas de ventanas son un trasunto de los escritorios; pero, ¿quién
La insignia activa
E
ste precursor de los ordenadores mínimos contiene un
microprocesador y un emisor de
infrarrojos. La insignia actúa radiando la identidad de su portador, de modo que puede abrir
puertas automáticamente, traspasar llamadas telefónicas o
amoldar la información presentada en una pantalla a la persona
que la consulta. Pertenece al grupo de pequeños ordenadores llamados marcas.
103
usaría nunca una mesa de 25 cm de
largo por 18 de fondo?
Por el contrario, las tabletas utilizan
un escritorio real. Extienda usted
muchas tabletas electrónicas sobre su
mesa de trabajo, igual que lo hace con
sus papeles. Tenga a la vista varias
tareas y utilice las tabletas como recordatorio. Y no se limite a la mesa; colóquelas en cajones, estanterías, mesas
auxiliares. Disponga frente a sí las
diversas partes de los asuntos de la
jornada de la forma más adecuada a
cada uno y a su comodidad, sin verse
constreñido por un vidrio fosforescente. Puede que algún día las tabletas
se vuelvan tan delgadas y ligeras como
las actuales hojas de papel, pero entretanto pueden desempeñar las funciones de los folios mucho mejor que las
pantallas de los ordenadores.
Las presentaciones mayores todavía,
nuestras pizarras, sirven para multitud de propósitos: en el hogar, como
monitores de vídeo y tablones de anuncios; en la oficina, como tablones de
anuncios, encerados o expositores.
También podrían usarse como estantería electrónica a la que acudir para
cargar textos en una tableta o en una
marca. A pesar de todo, la posibilidad
de coger un libro y colocarlo cómodamente en nuestro regazo sigue siendo
uno de los principales atractivos del
pa­pel. Objeciones similares pueden
plantearse a la utilización de una pizarra como mesa de trabajo. Tendremos
que acostumbrarnos a ver tabletas y
mar­cas depositadas sobre la mesa como
accesorios de la pantalla de ordenador
antes de que pueda pretenderse extender más la virtualidad incorporada.
E
n varios laboratorios de investigación de la empresa Xerox se
utilizan prototipos de pizarras, construidos por Richard Bruce y Scott
Elrod de PARC. Miden aproximadamente 100 por 150 cm y presentan
1024 por 768 píxeles en blanco y negro.
Para manejarlas se utilizan trozos de
“tiza” electrónica inalámbrica, que
funcionan unas veces por contacto con
la superficie de la pizarra y otras a
cierta distancia. Varios investigadores
se han prestado a hacer de conejillos
de Indias y celebran reuniones electrónicamente asistidas con sus colegas o
ensayan otras formas de colaboración
en torno a una pizarra activa. Hay
3. USO DE LAS TABLETAS para ampliar la pantalla normal de
un ordenador. Estos prototipos están conectados al ordenador
104
quienes prueban con ellas mejoras de
los dispositivos físicos de presentación, nuevas tizas electrónicas o programas interactivos.
Existen razones, evidentes algunas
y otras más sutiles, para que la programación que gobierna una gran pantalla colectiva y su tiza electrónica se
distinga de la empleada en una estación de trabajo. La alternancia entre
el uso de la tiza y el teclado puede
requerir varios pasos, lo que la aleja
cualitativamente de la habitual coexistencia entre teclado y ratón. Tam­bién
hay que tener en cuenta la altura del
usuario: porque no todo el mundo llegará a la parte superior de la pizarra,
las barras de opciones deberán aparecer en la inferior.
Hemos construido los suficientes de
estos ingenios como para permitir su
uso despreocupado: se han colocado en
salas de reuniones y zonas comunes y
no se requieren autorizaciones o avisos
previos para utilizarlos. Su construcción y manejo hace que los investigadores empiecen a vivir y a com­prender
un mundo en el que la interacción
informal con los ordenadores realza
cualquier espacio. Las pizarras activas
mediante cables, ya que hasta ahora tan sólo se han construido
unos cuantos modelos inalámbricos.
TEMAS 4
no sólo pueden compartirse dentro de
una misma habitación, sino también
desde varias al tiempo. Experimentos
dirigidos por Paul Dou­rish, de Euro
PARC, y Sara Bly y Frank Halasz, de
PARC, han permitido a grupos situados en lugares muy alejados reunirse
en torno a pizarras que presentaban
todas la misma imagen y elaborar planos y dibujos conjuntamente. Se ha
llegado a compartir pizarras a ambos
lados del Atlántico.
Las pizarras sirven de tablón de
anuncios. Ante la avalancha de información escrita que nos rodea, Marvin
Theimer y David Nichols, de PARC,
han diseñado y construido un sistema
prototipo que adapta su información
pública a la persona que la está
leyendo. Para conseguirlo, lo único que
tiene que hacer el usuario es llevar
puesta su correspondiente insignia
activa y mirar.
Los prototipos de marcas, tabletas y
pizarras son sólo el comienzo de lo que
será la computación ubicua. Las verdaderas posibilidades de la idea no
residen en ninguno de estos dispositivos, sino más bien en su interacción.
Los cientos de procesadores y visualizadores no son una interfaz con el
usuario comparable a ratones y ventanas, sino un ámbito cómodo y eficaz
donde hacer las cosas.
Más novedosa y útil será la capacidad
de las marcas para animar objetos hasta
ahora inertes, ya que podrían ayudar a
localizar, mediante pitidos, papeles,
libros o cualquier otro objeto descabalado. Los archivadores se abrirían solos
y mostrarían la carpeta deseada sin
necesidad de búsqueda. Su utilización
en los catálogos de las bibliotecas podría
crear mapas activos que guiasen al
usuario hasta el libro solicitado, aunque
no se halle en su correspondiente estante
porque el último lector descuidado lo
olvidó sobre una mesa.
E
n conferencias e informes públicos
no habrá que conjeturar el ta­maño
que deba tener el texto de las transparencias proyectadas, el volumen de la
voz amplificada o el nivel de luz
ambiental, ya que serán los deseos de
los asistentes quienes los determinen.
Algunas salas de reuniones electrónicas de grandes compañías disponen ya
de programas para el recuento instantáneo de votos y la comprobación de
mayorías; las marcas pueden contribuir a difundirlo.
La técnica requerida para la ubicuidad de los recursos informáticos consta
de tres partes básicas: ordenadores
baratos y de bajo consumo con visualizadores parejos; programas de ejecución ubicua y una red que lo unifique
MÁQUINAS DE CÓMPUTO
4. UN TRANSCEPTOR DE RADIO sirve
de enlace entre las tabletas y demás
dispositivos móviles y la red cableada.
Esta unidad, pensada para su instalación en el techo, tiene antenas en sus
brazos cruzados; dos diodos emisores de
luz indican su estado.
todo. Las tendencias que se perciben
hoy en día hacen pensar que el primer
requisito será fácil de lograr. Los
visualizadores planos con una resolución de 640 × 480 puntos ya resultan
habituales; es el tamaño estándar de
los ordenadores personales y también
puede aceptarse para pantallas de
televisión. La creciente popularidad de
los ordenadores portátiles y de bolsillo
abaratará los precios de los visualizadores, a la vez que aumentarán su
calidad y resolución. Hacia finales de
siglo se dispondrá de pantallas de gran
contraste, reso­lución de 1000 × 800
puntos, grosor in­ferior al centímetro y
peso de unos 100 gramos. Una pequeña
batería será suficiente para conseguir
varios días de uso ininterrumpido.
Los visualizadores mayores son
harina de otro costal. Para que la pantalla de un ordenador interactivo
pueda desempeñar las funciones de
una pizarra debe poderse contemplar
de cerca y de lejos. La visión cercana
requiere que la densidad de los elementos de la imagen no sea inferior a
la de una pantalla corriente de ordenador, que tiene unos 30 por centímetro. Conservar esta relación en un área
de más de un metro cuadrado supone
la presentación de decenas de millones
de píxeles. La mayor pantalla fabricada hasta la fecha no va más allá de
un cuarto de tal magnitud.
Alimentar a estos visualizadores
grandes exigirá microprocesadores
avanzados. La velocidad de las unidades de proceso alcanzó el millón de
instrucciones por segundo en 1986 y
sigue duplicándose anualmente.
Algunos especialistas piensan que el
crecimiento exponencial de la velocidad bruta de estos circuitos puede llegar a detenerse algún día no lejano,
aunque otras características de funcionamiento, como el consumo y las funciones auxiliares, no cesarán de mejorar. Cabe, pues, que la pantalla plana
de 100 gramos sea gobernada por un
microprocesador capaz de ejecutar mil
millones de operaciones por segundo,
que disponga de 16 megabytes de
memoria incorporada y de interfaces
para sonido, vídeo y red. El consumo
medio del procesador sólo sería una
pequeña fracción de la potencia requerida por la pantalla.
Dispositivos adicionales de almacenamiento aumentarán la capacidad de
la memoria principal. De acuerdo con
el estado actual de la técnica, las predicciones más conservadoras permiten
suponer que discos duros extraíbles (o
pastillas de memoria no volátil), del
tamaño de una caja de cerillas, puedan
almacenar hasta 60 megabytes. Serán
normales discos mayores, dispuestos
para contener varios gigabytes, e
incluso dispositivos en los que quepan
terabytes —más o menos toda la información de la biblioteca del Congreso
estadounidense— no constituirán ninguna rareza. Tam­poco se requerirá
que tan enormes almacenes contengan
sólo información útil. Por el contrario,
la abundancia de espacio permitirá
enfoques muy diferentes de los actuales sobre su gestión; así por ejemplo,
una capacidad de un terabyte hará
prácticamente innecesario borrar los
ficheros antiguos.
P
rocesadores y visualizadores deberían ofrecernos un uso ubicuo de
los recursos informáticos dentro de
pocos años, pero la previsible evolución de los programas y de la tecno­
logía de redes resulta más problemática. Todo lo que han conseguido las
actuales realizaciones de computación
distribuida ha sido hacer que servidores de ficheros, impresoras y otros dispositivos parezcan estar conectados
directamente al ordenador de cada
usuario, sin que esta perspectiva haga
nada por aprovechar las oportunidades que ofrecen los ordenadores diseminados por el espacio, ni la información resultante de saber dónde está un
elemento.
Han de producirse modificaciones
drásticas de los sistemas operativos de
los ordenadores y de los programas de
presentación organizados por medio
105
5. COMPONENTES CLAVE de la computación ubicua son las tabletas y marcas que
se están desarrollando en PARC. La tableta es del tamaño de un folio; las fotogra­fías
superiores ofrecen su aspecto exterior e interior. Tiene dos microprocesadores, una
memoria de acceso aleatorio de cuatro millones de bytes, un enlace de radio rápido,
una interfaz de gran resolución para lápiz electrónico y una pantalla monocroma
de 1024 por 768 píxeles. Utiliza una programación de ventanas estándar, por lo que
puede comunicarse con la mayoría de estaciones de trabajo. La marca (a la izquierda) es mucho más pequeña, 7 por 8 cm, y tiene tres botones de control, un lápiz
electrónico, un emisor de sonido y un enlace de infrarrojos para comunicarse a
través de una sala. El autor opina que las habitaciones y oficinas del futuro contendrán cientos de estos pequeños ordenadores.
de acuerdo con las cambiantes necesidades de la computación ubicua.
de ventanas. El diseño de los sistemas
operativos corrientes, digamos DOS y
Unix, suele dar por su­puesto que la
configuración física y lógica del ordenador no sufrirá cambios importantes
mientras esté funcionando; aunque
esto sea razonable en el caso de los
ordenadores personales y de las grandes unidades centrales al uso, carece
de sentido en el marco de la computación ubicua. Marcas, tabletas y hasta
pizarras pueden entrar y salir de cualquier habitación en cualquier momento
y será imposible desconectar todos los
computadores de una estancia para
instalar un nuevo programa en uno de
ellos, entre otras cosas porque puede
que sea imposible localizarlos a
todos.
Una posible solución serían los sistemas operativos de “micronúcleo”,
como los desarrollados por Rick
Rashid, de la Universidad Carnegie
Mellon, o A. S. Tanenbaum, de la
Universidad Vrije de Amsterdam.
Estos sistemas experimentales presentan un mínimo andamiaje de programación fija; los módulos adicionales que realizan funciones específicas
se añaden o eliminan con facilidad. Si
los futuros sistemas operativos siguiesen este principio, su tamaño aumentaría o se reduciría automáticamente
106
L
os actuales sistemas de presentación basados en ventanas tampoco se adaptan a ellas, ya que suelen
dar por sentado que toda la información correspondiente a una aplicación
concreta aparecerá en la pantalla de
un solo ordenador. Por ejemplo, los
sistemas X Windows y Windows atienden a varias pantallas, pero no funcionan bien con aplicaciones que arranquen en una para pasar luego a otra,
por no hablar de las que quieran cambiar de ordenador o de habitación.
Las soluciones a este problema
están en mantillas. Ningún sistema
actual funcionaría bien si hubiera de
trabajar con toda la variedad de
es­tructuras de entrada y salida que
exi­g e la virtualidad incorporada.
Hacer que tabletas, marcas y pizarras
cooperen armoniosamente requerirá
cambios en los tipos de protocolos usados por los programas de aplicación y
por las presentaciones en pantalla
para comunicarse.
Exigencias adicionales se le plantean a la red que ha de conectar
má­quinas y programas ubicuos. Las
veloci­d ades de transmisión de las
re­des, tanto cableadas como inalámbricas, crecen rápidamente. Ya puede
accederse a redes cableadas que mueven gigabits por segundo; son caras,
pero se irán abaratando con el tiempo.
Estas redes veloces raramente dedicarán todo su ancho de banda a un solo
haz de datos; facilitarán, por contra,
un gran número de transmisiones
simultáneas a menor velocidad.
Pe­q ueños sistemas inalámbricos,
basados en los principios de la telefonía digital celular, ofrecen ahora velocidades de transmisión entre 2 y 10
megabit por segundo y un alcance de
algunos cientos de metros. En el futuro
el mercado ofrecerá redes inalámbricas de pequeña potencia capaces de
transmitir 250.000 bits por segundo a
cada estación.
Pero el problema de vincular de
modo flexible y sencillo los sistemas
con y sin cables sigue sin encontrar
solución. Aunque se han desarrollado
algunos métodos ad hoc, los ingenieros
habrán de elaborar nuevos protocolos
de comunicaciones que admitan explícitamente el concepto de máquinas
que se mueven en el espacio físico. Es
más, el número de canales previstos
en la mayoría de los esquemas de
redes inalámbricas es todavía muy
reducido, mientras que el alcance
excesivo (de 50 a 100 metros) restringe
mucho el número total de dispositivos
móviles permisibles. En suma, tales
sistemas no tienen ninguna posibilidad de asimilar cientos de máquinas
en cada habitación. Hay redes para
cubrir una sala que utilizan radiación
TEMAS 4
infrarroja o las más recientes técnicas
electromagnéticas; ofrecen suficientes
canales para la computación ubicua,
pero de momento sólo funcionan de
puertas adentro.
La tecnología actual requeriría que
cualquier dispositivo móvil incorporase conexiones a tres redes diferentes: una inalámbrica de corto alcance;
otra, también inalámbrica, de largo
alcance; y una tercera, con cable, de
gran velocidad. Todavía está por in­ven­
tarse un modo de conexión que atien­da,
él solo, las tres funciones.
N
i la explicación de los principios
de la computación ubicua ni la
enumeración de las técnicas que
implica pueden darnos una idea de lo
que sería vivir en un mundo lleno de
artilugios invisibles. Si tratásemos de
extrapolar a partir de los rudimentarios fragmentos de virtualidad incorporada de que hoy disponemos, sería
algo así como intentar predecir la
publicación de Cinco horas con Mario
justo después de haber garabateado la
primera tableta de arcilla. Hagámoslo,
sin embargo; puede que el esfuerzo
merezca la pena:
Sole abre los ojos y puede oler el
aroma del café. Hace pocos minutos
que su despertador, alertado por sus
intranquilos movimientos previos a la
vigilia, le había preguntado en voz
baja: “¿café?”, y ella había murmurado
“sí”. “Sí” y “no” son las palabras que el
despertador reconoce.
Sole echa una mirada a las ventanas
que tiene cerca. A través de una de
ellas ve la luz del sol y una valla; otras
le muestran los rastros electrónicos
dejados por el ir y venir de sus vecinos
esta mañana. Las normas re­lativas a
la intimidad personal, así como razones prácticas de coste, excluyen una
representación completa en vídeo,
pero los marcadores de tiempo y las
trazas electrónicas sobre el mapa del
vecindario hacen que Sole se sienta
cómoda en su calle.
Un vistazo a las ventanas de las
ha­bitaciones de los niños le permite
saber que hace entre 15 y 20 minutos
que se han levantado y que están ya
en la cocina. Al darse cuenta de que
ella también está despierta, empiezan
a hacer más ruido.
Durante el desayuno Sole lee los
periódicos. Como la mayoría de la
gente, los prefiere en su versión de
papel. Encuentra un párrafo interesante en la sección de negocios. Saca
el bolígrafo y lo pasa por el nombre del
periódico, la fecha, la sección y el
número de página; y acaba rodeando
la información con un círculo. El bolíMÁQUINAS DE CÓMPUTO
grafo envía un mensaje al periódico,
quien deriva la información a la oficina
de Sole.
Le llega un envío electrónico de la
compañía que fabricó el mecanismo de
apertura de la puerta del garaje. Había
perdido el manual y les pidió ayuda.
Le envían uno nuevo junto con algo
inesperado: la forma de encontrar el
anterior. Según la nota, si introduce
cierto código en el mando automático,
el manual se encontrará a sí mismo.
En efecto, una vez dentro del garaje,
un pitido la conduce hasta el punto en
que el viejo manual manchado de
aceite cayó detrás de unas cajas. Desde
luego, allí está también la pequeña
marca que el fabricante adosó a la
cubierta en un intento de evitarse
reclamaciones como la suya.
De camino al trabajo, echa una
ojea­da al previsor para saber cómo
está el tráfico. Se percata de que le
espera un embotellamiento y también
del rótulo de una nueva cafetería en
una calle lateral. Decide tomar la
próxima salida y saborear una taza de
café al tiempo que evita la retención.
Llegada a su destino, el propio previsor le ayuda a encontrar rápidamente un sitio donde estacionar. A
medida que avanza por el edificio, las
máquinas de su oficina se van preparando para su llegada, pero no completan la secuencia de operaciones hasta
que pisa el despacho. Por el camino, se
para junto a las oficinas de cuatro o
cinco colegas para intercambiar saludos y noticias.
Sole mira sus ventanas. Las predicciones meteorológicas son de un día
gris, con el 75 por ciento de humedad
y un 45 por ciento de probabilidad de
chaparrones esta tarde. La oficina
principal, situada en el otro extremo
del continente, ha tenido una mañana
tranquila; lo habitual es que, a estas
horas, el indicador de actividades
señale al menos una reunión urgente
e imprevista.
Toma en sus manos una marca y la
apunta hacia su amigo Juan, del grupo
de diseño. Participan en un trabajo
conjunto y han estado compartiendo
una oficina virtual durante algunas
semanas. La colaboración puede adoptar diferentes formas, pero, en este
caso, la realizan mediante el acceso
indistinto a los respectivos detectores
de localización y al contenido de sus
pantallas. Ella prefiere tener a la vista
una versión en miniatura de todas las
marcas y tabletas de Juan gracias a
una pequeña colección tridimensional
de marcas dispuesta en el rincón de su
mesa. Los detalles son indiscernibles,
pero se siente más implicada en su
actividad al notar que los visualizado-
res cambian; si le interesa, en cualquier momento puede ampliar lo que
desee.
Una marca libre emite un pitido y
muestra la palabra “Juan”. Sole la
coge y apunta con ella hacia la pizarra.
Juan quiere comentar con ella un
documento, que aparece en la pizarra
mientras suena la voz de Juan:
—He estado luchando con el tercer
párrafo toda la mañana, pero sigue sin
gustarme. ¿Te importaría leerlo?
Reclinada en su silla, Sole lee el
párrafo en cuestión y quiere destacar
una palabra. Utiliza de nuevo la marca
“Juan” para activar una tableta accesible y traza una curva alrededor de la
palabra con su lápiz, mientras dice:
—Creo que es este término: ubicuo.
No es muy corriente y hace que todo
suene demasiado serio. ¿No podríamos
cambiar la frase?
—Lo intentaré. Por cierto, Sole, ¿has
tenido noticias de María Rey?
—No. ¿Quién es?
—Haz memoria. Estuvo en la reunión
de la semana pasada. Me dijo que
in­tentaría ponerse en contacto contigo.
Sole no consigue acordarse de Ma­ría,
pero tiene un vago recuerdo de la reunión. Inicia una búsqueda entre las
reuniones que tuvieron lugar en las
dos últimas semanas con más de seis
personas que ella no conociera de
al­guna reunión anterior, y encuentra
la adecuada. Aparecen los nombres de
los asistentes y, entre ellos, el de
María.
Como suele hacerse en las reuniones,
María proporcionó a los restantes asistentes un pequeño esbozo biográfico de
sí misma, que le ofrece a Sole una base
para enviarle una nota y ver de qué se
trata. Es de agradecer que esta información continúe disponible, no como
la de otros compañeros que sólo puede
consultarse durante la propia reunión...
Esta escenificación apunta algunas
de las formas en que los ordenadores
podrían incorporarse a la vida cotidiana de modo imperceptible, pero
también deja entrever algunas cuestiones litigiosas generadas por la virtualidad incorporada. Quizá la fundamental sea la de la intimidad: cientos
de ordenadores en cada habitación,
capaces de reconocer la presencia de
seres humanos en sus proximidades y
conectados unos a otros por sistemas
de gran velocidad, pueden hacernos
pensar que lo que hoy consideramos
totalitarismo no es sino un juego de
niños. Del mismo modo que puede programarse una estación de trabajo de
una red local para que intercepte men107
COLABORADORES
DE ESTE NUMERO
Traducción:
Eduard Farré: El astrolabio; José Romo: Galileo
y el primer instrumento mecánico de cálculo;
Luis Bou: La computadora mecánica de Charles
Babbage, El computador del Dr. Atanasoff,
Representación visual de biomoléculas,
Microprocesadores del año 2020, Ordenadores
de base proteínica y Computación mecánicocuántica; Amando García: Pantallas planas, La
retina de silicio y Semiconductores de arseniuro
de galio; Sonia Porta: El ordenador del siglo xxi;
M. Puigcerver: Reventando el polvo, Cuestión de
peso, Silicio encantado, Pastillas de silicio-germanio y Ordenador óptico.
Página
Fuente
7-8
9
George V. Kelvin
Real Academia de la Historia de Madrid
(arriba), Museo Naval de Madrid (abajo)
George V. Kelvin
Ben Rose
Ilil Arbel
Ben Rose
Ilil Arbel
Doron D. Swade (David Exton/Science
Museum Photostudio)
Johnny Johnson
Doron D. Swade (David Exton/Science
Museum Photostudio)
Tom Molesworth
Allan R. Mackintosh
George Retseck
John S. Foster, Jane Frommer y Jacquelin
K. Spong, IBM Thomas J. Watson Research
Center (izquierda), Michael Goodman
(derecha)
Photonics (arriba, izda.), Planar Systems
(arriba, dcha.), Michael Goodman (abajo)
Michael Goodman
Laurie Grace
Arthur J. Olson y David S. Goodsell
Richard E. Dickerson (izquierda), Teresa
Larsen (centro), Arthur J. Olson y David
S. Goodsell (derecha)
Arthur J. Olson
Arthur J. Olson (arriba, izda.), Elizabeth
D. Getzoff y John A. Tainer, Scripps Clinic
(arriba, centro), Michael Pique, Scripps
Clinic y David S. Goodsell (arriba derecha),
Arthur J. Olson y David S. Goodsell (abajo,
izda. y centro), Arthur J. Olson y I. Siara
Mian, Scripps Clinic (abajo, derecha)
Jessie Simmons
Andrew Christie
Jessie Simmons
Andrew Christie, Jessie Simmons (inserción
fotográfica)
Jessie Simmons
Randall M. Feenstra y Joseph A. Stroscio,
IBM
George V. Kelvin
IBM
George V. Kelvin
Edward Bell
Cortesía de IBM Corporation
Ian Worpole
IBM (izquierda), Johnny Johnson (derecha)
Ian Worpole
Scot Hill
Jared Schneidman Design
Lisa Burnett
Lisa Braiman
Scot Hill
Matthew Mulbry
Ian Worpole
Ian Worpole, Matthew Mulbry (foto
recuadro)
Matthew Mulbry
Charles O’rear
Henryk Temkin AT&T Bell Laboratories
Barrie Rokeach (fotografía); Rick Gross
y Deshan Govender (inserto); Tomo
Narashima (dibujo)
Tomo Narashima (arriba); Michael Goodman
(abajo)
Michael Goodman
Boris Starosta
Michael Goodman
Geoffrey Wheeler (izquierda); Inst. Nacional
de Pesos y Medidas (derecha)
10-16
19-20
21
22-23
24-25
28-31
32
33
35
36
37-40
44-45
46
47
50
52-53
54-55
56
57
63
64
65-66
67
68
73
74-75
77
79
80
83
84-85
86
87
91
92
93
94-95
96
101
102
103
104-106
110-112
113
114-115
116-117
118-119
120-121
122-124
125
108
sajes destinados a otros, bastaría con
que hubiera una sola marca alcahueta
en una sala para registrar todo lo que
en ella ocurriera.
Incluso las actuales insignias y
agendas activas, tan convenientes
para su dueño, pueden convertirse en
armas peligrosas en manos inadecuadas. Aparte de los jefes o subordinados
de la empresa, otros entes mercantiles
o funcionarios públicos que se excedan
en sus atribuciones podrían hacer uso
inapropiado de la misma información
que hace útiles los ordenadores invisibles.
Por fortuna, ya existen métodos
criptográficos que permiten asegurar
los mensajes que se envían de un ordenador ubicuo a otro y proteger la información privada contenida en las redes.
Si se cuenta con ellas desde el comienzo
del diseño, estas técnicas garantizan
que los datos privados no se harán
públicos. Una versión bien realizada
de la computación ubicua podría proporcionar una protección a la intimidad aún mejor que la actual.
La virtualidad incorporada, al relegar los ordenadores al trasfondo, hará
resaltar la individualidad de quienes
se encuentran en los extremos del
entramado informático, lo que podría
contrarrestar las malsanas fuerzas
centrípetas inducidas por los ordenadores personales en la vida y el trabajo
cotidianos.
Y
a en la actualidad, la gente se mete
en una oficina sin ventanas, pone
en marcha su ordenador y puede que
no vea a los compañeros de trabajo en
todo el día. La realidad virtual hace
que el mundo exterior y todos sus habitantes dejen de existir. Los computadores ubicuos, por el contrario, residen
en el mundo humano y no imponen
barreras a las relaciones humanas. Es
más, la sencillez de las conexiones que
ofrecen entre distintos lugares y
momentos puede ayudar a aproximar
las comunidades humanas.
Nosotros creemos que lo que designamos como computación ubicua se irá
convirtiendo en la forma predominante de acceso al ordenador en los
próximos veinte años. No se trata de
nada radicalmente nuevo, como no lo
eran los ordenadores personales, pero
modificará nuestras ideas sobre lo que
es posible, ya que todo resultará más
rápido y más fácil al exigir menos tensión y contorsiones mentales. La llamada edición electrónica, por ejemplo,
no difiere mucho de la composición
ayudada por ordenador, que se
re­m on­t a a mediados de los años
sesenta; es la distinta facilidad de uso
lo que las singulariza tanto.
Cuando casi todos los objetos contengan un ordenador o se les pueda
adherir una marca, obtener información será muy sencillo. “¿Quién ha
hecho este vestido? ¿Hay en la tienda?
¿De qué diseñador era el traje aquél
que me gustó la semana pasada?” Un
entorno de ordenadores puede saber
cuál es el traje que uno estuvo mirando
tanto rato la semana pasada, ya que
dispone de las ubicaciones de ambos,
y puede encontrar el nombre del diseñador aunque entonces no se solicitase
tal información.
Desde el punto de vista sociológico,
el ordenador ubicuo podría significar
el declive del adicto a los ordenadores,
del mismo modo que, tras el furor suscitado por los receptores de galena en
los decenios segundo y tercero de este
siglo entre quienes querían participar
en la nueva alta tecnología de la radio,
la disponibilidad general de aparatos
de calidad acabó con el arte de pinchar
galenas. Por otro lado, puede que la
virtualidad incorporada lleve el ordenador hasta los presidentes de empresas y países, quizá por vez primera. El
acceso a los ordenadores se extenderá
a todos los grupos sociales.
Tal vez lo más importante sea que
la computación ubicua ayudaría a
superar el problema de la sobrecarga
de información. Un paseo por el bosque nos ofrece más información que
cualquier sistema informático, a pesar
de lo cual la caminata nos parece relajante y los ordenadores frustrantes.
Las máquinas que consigan ajustarse
al entorno humano en lugar de obligar
a las personas a entrar en el mundo de
la computación harán que su uso
resulte tan agradable como un paseo
entre los pinos.
BIBLIOGRAFIA COMPLEMENTARIA
The Tacit Dimension. Michael Polanyi.
Doubleday & Company, 1966.
Toward Portable Ideas. Mark Stefik y
John Seely Brown en Technological Support for Work Group Collaboration.
Dirigido por Margrethe H. Olson.
Lawrence Erlbaum Associates, 1989.
Recent Developments in Operating Systems. Volumen monográfico de Computer (IEEE Computer Society) vol. 23, n.o
5; mayo de 1990.
Activity-Based Information Retrieval:
Technology in Support of Human Memory. Mik Lamming y William Newman.
Disponible como Rank Xerox EuroPARC Technical Report 91-03; febrero de
1991.
LCDs and Beyond. Nick Baran en Byte
vol. 16, n.o 2, págs. 229-236; 1991.
A Talk with Intel. Kenneth M. Sheldon
en Byte, vol. 16, n.o 4, págs. 131-140; abril
de 1991.
TEMAS 4
Microprocesadores
del año 2020
David A. Patterson
Dentro de un cuarto de siglo,
la potencia de cualquier ordenador igualará
a la de todos los existentes hoy en el Valle del Silicio
A
diferencia de otras muchas técnicas que se esfumaron al poco
de haber ilusionado nuestra
imaginación, la informática ha transformado nuestra sociedad. La loco­
motora de esta revolución en marcha
es el microprocesador. Estas lami­
nillas de silicio han originado un sinfín
de inventos, como los ordenadores por­
tátiles y los aparatos de telefax, y han
aportado “inteligencia” a los auto­
móviles modernos y a los relojes de
pulsera. Es increíble que su rendimiento haya mejorado 25.000 veces
desde su invención, hace sólo un cuarto
de siglo.
Dos fueron los inventos que prendieron la mecha de la revolución informática. Consistió el primero en la noción
de programa almacenado. Todos los
sistemas de cómputo construidos
desde los años cuarenta se han adhe-
rido a este modelo, que prescribe un
procesador para triturar números y
una memoria para el almacenaje de
datos y de programas. La ventaja de
tal sistema estriba en que, por la facilidad con que pueden intercambiarse
los programas almacenados, un mismo
equipo material realiza tareas diversas. Sin esa versatilidad, los ordenadores no se hubieran generalizado.
Además, en los últimos años de ese
decenio, se inventó el transistor. Estos
conmutadores de silicio eran muchísimo menores que las válvulas termoiónicas utilizadas en los primeros
circuitos, por lo que permitieron la
creación de dispositivos electrónicos
mucho más rápidos.
Hubieron de transcurrir más de diez
años antes de que los transistores y los
programas almacenados se aunaran
en la misma máquina. Y hubo que
esperar hasta 1971 para que se produjera la conjunción más importante,
representada en el microprocesador
Intel 4004. Este procesador fue el primero de los construidos en una sola
laminilla de silicio. Por su diminuto
tamaño, se dio en llamarlo microprocesador.
El método que desde entonces han
seguido los fabricantes para la producción en masa de microprocesadores se
parece mucho al de hornear una pizza:
la masa —de silicio— empieza siendo
fina y redonda. Se depositan sobre ella
ciertos aderezos químicos y se lleva el
montaje a un horno. El calor transforma los aderezos en transistores,
conductores y aislantes. No es de sorprender que el proceso, repetido quizá
veinte veces, sea más exigente que la
cochura de una pizza. Una mera partícula de polvo puede deteriorar los
DAVID A. PATTERSON es titular de
la cátedra E. H. y M. E. Pardee de la
Universidad de California.
minúsculos transistores. Incluso las
vibraciones producidas por un camión
al pasar pueden desalinear los ingredientes, echando a perder el producto
final. Pero suponiendo que nada de
esto ocurra, la oblea resultante se
di­vide en piezas individuales, las laminillas o pastillas.
Aunque todavía se sigue utilizando
esta vieja receta, con el transcurso del
tiempo la línea de producción ha ido
fabricando microcircuitos cada vez
más veloces y más baratos, eructando
obleas cada vez mayores y transistores
cada vez más pequeños. Esta tendencia pone de relieve un importante principio de la economía de los microprocesadores: cuantos más microcircuitos
por oblea, menor su costo. Los microcircuitos grandes son más veloces que
los pequeños porque pueden albergar
mayor número de transistores. El
reciente procesador P6 de Intel, sea
por caso, contiene cinco millones y
medio de transistores y es mucho
mayor que el Intel 4004, que alojaba
2300. Pero, cuanto mayor es el microcircuito, mayor es también la probabilidad de que tenga defectos.
D
esde hace muy poco los microprocesadores han adquirido mayor
potencia merced a un cambio de enfoque en su diseño. Los ingenieros de
microcircuitos adoptan ahora un
método cuantitativo para establecer la
organización de los ordenadores. El
desarrollo de los equipos va precedido
de cuidadosos experimentos y se utilizan procedimientos de evaluación muy
finos para juzgar sus éxitos. Los fabricantes fueron adoptando concertadamente esta metodología de diseño
durante los años ochenta; gracias a
ello la tasa de perfeccionamiento de la
técnica de microprocesadores se ha
elevado desde el 35 por ciento anual de
hace sólo un decenio a cosa de un 55
por ciento al año, o sea, casi un 4 por
ciento cada mes. Los procesadores triplican ahora la celeridad pronosticada
a comienzos de los ochenta; es como si
nuestro deseo nos hubiera sido conce-
1. LAS OBLEAS DE SILICIO actuales
(fondo de la imagen) son mucho mayores
que las que albergaron el primer microprocesador, el Intel 4004 (en primer plano). Una de las razones que permiten
hacerlas mayores es que el proceso de
manufactura es más limpio (recuadro).
MÁQUINAS DE CÓMPUTO
dido y dispusiéramos de máquinas
venidas del año 2000.
Además de las mejoras conseguidas
en las líneas de producción y en las
técnicas de tratamiento del silicio, los
microprocesadores también se han
beneficiado de cambios en los sistemas
de diseño, avances que, en un futuro
cercano, desembocarán en nuevos progresos. Una de las técnicas clave es el
procesamiento concurrente por etapas
(conocido en la jerga por pipelining, o
“canalización”). Quienquiera que haya
tenido que hacer la colada ha utilizado
de forma intuitiva esta táctica. En un
proceso no concurrente se procede
como sigue: se llena la lavadora con
una carga de ropa sucia; terminado el
lavado, la colada húmeda se lleva a la
secadora y cuando la secadora acaba,
se plancha la ropa. Terminada esta
tarea, se empieza otra vez. De esta
forma, si para dejar lista una carga se
necesita una hora, para veinte cargas
harán falta veinte horas.
E
l proceso de canalización es mucho
más rápido. En cuanto la primera
carga se encuentra en la secadora, se
introduce en la lavadora una segunda,
y así en lo sucesivo. Todas las fases del
proceso se desarrollan concurrentemente. Resulta paradójico que se
tarde lo mismo en lavar por uno y otro
método un solo calcetín sucio. Pero la
canalización es más rápida, en el sentido de que son más las cargas terminadas por hora. Suponiendo que cada
fase requiera el mismo tiempo, el
tiempo ahorrado por este método es
proporcional al número de etapas en
que se descomponga la tarea. En el
ejemplo de la colada, el lavado concurrente consta de cuatro fases, por lo
que sería casi cuatro veces más rápido
que la colada doméstica habitual.
El proceso concurrente se encarga
de que los microprocesadores sean
mucho más veloces. Por así decirlo,
los proyectistas de microcircuitos
“bombean” por conductos distintos
las instrucciones de bajo nivel enviadas al equipo físico. Los primeros
microprocesadores de esta técnica
utilizaban una división en cinco etapas. (El número de etapas ejecutadas
por segundo está dado por la “velocidad de reloj”. Un ordenador personal
provisto de un reloj de 100 megahertz
ejecuta, pues, 100 millones de etapas
por segundo.) Dado que la aceleración
por canalización es igual al número
de etapas, los microprocesadores han
adoptado sistemas de ocho o más etapas. Un microprocesador fabricado en
1995 se vale de este recurso para
alcanzar una velocidad de reloj de 300
megahertz. Conforme avanzan las
2. LAS SALAS BLANCAS, en las que se
construyen las obleas, están diseñadas
para reducir al mínimo la manipulación
por seres humanos y protegerlas de las
partículas que flotan en el aire.
máquinas hacia el siglo venidero, son
de esperar mayores números de etapas y velocidades de reloj más elevadas.
Buscando la forma de fabricar microcircuitos más rápidos, los ingenieros
han empezado a incluir más circuitería, para ejecutar más tareas en cada
fase del proceso por etapas. Este
método ha recibido el apodo de procesamiento “superescalar”. Una lavadora superescalar, por ejemplo, utilizaría máquinas industriales, capaces
de lavar, digamos, triple carga de una
vez. Los microprocesadores superescalares modernos tratan de realizar de
tres a seis instrucciones en cada etapa.
Por tanto un microprocesador superescalar de cuatro vías, con reloj de 250
megahertz, puede ejecutar 1000 millones de instrucciones por segundo. Un
microprocesador del si­glo xxi podría
lanzar docenas de instrucciones en
cada etapa.
A
unque factibles, las mejoras en circuitos de proceso resultarán inútiles si no van a la par con ganancias
similares en los elementos de memoria. Desde que a mediados de los años
setenta quedaron disponibles las pastillas de memoria de acceso aleatorio
(RAM), la capacidad de éstas ha
venido cuadriplicándose cada tres
años. Pero la velocidad de las memo-
111
Los límites de la litografía
A
unque los microprocesadores continuarán mejorando con rapidez, no
es seguro que tal progreso mantenga un paso constante. No está claro
cómo construir transistores más pequeños y más rápidos. Los métodos
fotolitográficos en uso están encontrando limitaciones serias. Si no se con­
sigue resolver este problema, el progreso que venimos disfrutando desde
hace decenios se detendrá chirriando.
En fotolitografía se utiliza luz para transferir las configuraciones circuita­
les desde una plantilla de cuarzo, llamada máscara, a la superficie de una
laminilla de silicio. La técnica actual permite trazar en esta lámina elemen­
tos cuya anchura no baje de unas 0,35 micras. Si esta anchura pudiera
acortarse a la mitad, los transistores podrían ser cuatro veces más peque­
ños, pues se trata de dispo­
sitivos esencialmente bidi­
mensionales. Pero parece
imposible construir elemen­
tos tan diminutos mediante
la luz: las ondas luminosas
son demasiado anchas.
Muchas compañías han
investigado la posibilidad de
emplear rayos X, hasta la
fecha sin éxito.
No faltan propuestas de
otros tipos; por ejemplo, uti­
lizar los haces de electrones
con los que se crean las
REDUCCION DE LAS MASCARAS y su proyecmáscaras de cuarzo em­plea­
ción sobre obleas para fabricar circuitos.
das para configurar las
obleas de silicio. El fino
chorro de partículas cargadas podría ir trazando directamente sobre la lami­
nilla, una por una, las líneas de un diagrama circuital. Aunque se trata de
una solución factible, resulta lentísima y, en consecuencia, muy costosa.
Además de los obstáculos de índole técnica, el perfeccionamiento de los
microprocesadores está amenazado también por el costo de las plantas de
manufactura. Estos complejos cuestan hoy mil veces más que hace treinta
años. Tanto los compradores como los vendedores de equipos para semi­
conductores se atienen a la regla de que la reducción a la mitad del tamaño
del elemento mínimo provoca la duplicación del precio. Como es obvio,
aunque se descubran métodos innovadores, los ingresos generados por la
venta de láminas menores habrán de duplicarse para asegurar la continuada
inversión en nuevas líneas. Esta regla solamente podrá cumplirse creando
más laminillas o encareciéndolas. (D.A.P.)
rias no ha podido mantener este ritmo.
Y el vacío entre la velocidad máxima
de los procesadores y la velocidad
máxima de las memorias se está
ensanchando.
Un recurso habitual consiste en instalar un tampón o antememoria (cache
memory) en el propio procesador. La
antememoria alberga aquellos segmentos de programa que se emplean
con mayor frecuencia, lo cual evita en
muchas ocasiones que el procesador
haya de recurrir a la memoria externa.
Algunos microprocesadores dedican
ya tantos transistores a la antememoria como al procesador. Los microprocesadores del futuro asignarán todavía
más recursos a antememoria, para
112
mejor salvar la diferencia de velocidades.
El santo grial de la informática se
esconde en el “procesamiento en paralelo”, que proporciona todos los beneficios de un solo procesador rápido
haciendo funcionar simultáneamente
muchos procesadores de bajo costo. En
nuestro símil, podríamos ir a una
lavandería y utilizar a la vez 20 lavadoras y 20 secadoras para hacer simultáneamente 20 cargas de colada. Como
es obvio, el proceso en paralelo constituye una solución poco económica para
cargas pequeñas. Y la construcción de
un programa capaz de utilizar 20 procesadores a la vez es mucho más difícil
que la distribución de colada entre 20
lavadoras, puesto que tales programas tienen que especificar qué instrucciones han de ejecutarse en cada
momento por cada uno de los procesadores.
El procesamiento superescalar
guarda semejanzas con el procesamiento en paralelo y es más popular,
porque el propio equipo determina
automáticamente las instrucciones
lanzables al mismo tiempo. Pero carece
de su potencial de proceso. Si la confección de los programas necesarios no
resultara tan difícil, los procesadores
en paralelo podrían adquirir toda la
potencia que uno pudiera permitirse.
La cruda realidad es que el proceso en
paralelo sólo resulta práctico para unos
cuantos tipos de programa.
R
epasando viejos artículos me he
topado con fantásticas predicciones sobre los ordenadores de 1995. No
pocos afirmaban que la electrónica
cedería el paso a los dispositivos ópticos; otros, que los ordenadores serían
de materiales biológicos; que se abandonaría la noción de programa almacenado. Tales visiones demuestran
cuán imposible resulta prever qué
inventos cuajarán y revolucionarán el
sector informático. En mi carrera profesional he visto el asentamiento de
sólo tres nuevas técnicas: los microprocesadores, las memorias de acceso
aleatorio y las fibras ópticas. Decenios
después de su puesta de largo, su
influjo no se ha debilitado.
No cabe duda de que en los próximos
25 años se producirán algunos inventos que modificarán la informática. Mi
conjetura es, sin embargo, que la
noción de programa almacenado es
demasiado elegante para que pueda
prescindirse de ella fácilmente. Estoy
convencido de que los ordenadores
futuros serán muy similares a las
máquinas del pasado, aun cuando se
construyan con materiales muy distintos. No creo que el microprocesador del
año 2020 deje boquiabiertas a las personas de nuestro tiempo, aunque los
microcircuitos más rápidos puedan ser
mucho mayores que la primera oblea
de silicio y pese a que los más económicos puedan ser mucho más diminutos que el Intel 4004 original.
Las técnicas de canalización, de
antememoria y la organización superescalar continuarán desempeñando
papeles principales en el progreso de
la técnica de microprocesadores y, si
las esperanzas se materializan, a ellas
se sumará el procesamiento en paralelo. Lo que va a resultar pasmoso es
que habrá microprocesadores en todo,
desde los interruptores de la luz hasta
los pedazos de papel.
TEMAS 4
¿Y después del año 2020?
L
os diseños microelectrónicos actuales, que tienen en sus
entrañas una formidable capacidad innovadora, domi­
narán buena parte del siglo xxi. Esto no impide que muchos
laboratorios exploren técnicas novedosas, aplicables tal vez
al diseño de nuevas generaciones de ordenadores y de
dispositivos microelectrónicos. En ciertos casos dichas
técnicas permitirían que los diseños de microcircuitos
alcanzasen una miniaturización imposible de obtener por
técnicas parecidas a las litográficas al uso. Entre las líneas
de investigación acometidas destacan:
Puntos cuánticos. Los puntos cuánticos son disposicio­
nes moleculares que permiten atrapar electrones individua­
les y registrar sus movimientos. En teoría, estos dispositivos
pueden servir de registros binarios en los que la presencia
o ausencia de un electrón sirve para representar el 0 o el
1 de un bit de datos. Una variante de este esquema consiste
en que, al incidir luz láser sobre átomos, podría hacerlos
saltar de su estado electrónico fundamental a un estado
excitado, cambiando así el valor del bit. Pero al hacer tan
extremadamente pequeños los transistores y los conduc­
tores, ocurre que los efectos cuánticos comienzan a per­
turbar su función. Los componentes lógicos mantienen con
menor fiabilidad sus valores 0 y 1, porque resulta difícil
especificar las ubicaciones de electrones individuales. Sin
embargo, podría sacarse partido de esta propiedad: Seth
Lloyd y otros están estudiando la posibilidad de desarrollar
técnicas cuánticas de computación que capitalicen el com­
portamiento no-clásico de los dispositivos.
Computación molecular. En lugar de construir compo­
nentes de silicio, algunos investigadores están tratando de
desarrollar sistemas de almacenamiento de datos con
moléculas biológicas. Robert L. Birge estudia el potencial
computacional de moléculas relacionadas con la bacterio­
Los microprocesadores y las memorias se fabrican actualmente en líneas
de manufactura distintas, pero no es
obligado que sea así. Quizás en un
futuro cercano ambos queden asociados
en una misma micropastilla, igual que
el microprocesador casó los diversos
componentes de un procesador en una
sola pieza. Para reducir el vano entre
los rendimientos de los procesadores y
de las memorias, para aprovecharse del
procesamiento en paralelo, para amortizar los costos de manufac­tura y, sencillamente, para sacar partido pleno
del fenomenal número de transistores
que caben en una laminilla, pronostico
que, en el año 2020, el microprocesador
de gama alta constituirá por sí solo un
ordenador completo.
Podríamos llamarlo IRAM (“memoria inteligente de acceso aleatorio”),
pues la mayoría de los transistores de
este microcircuito estarán dedicados
a memoria. Mientras que los microprocesadores actuales han de recurrir
a centenares de líneas de conexión
con las memorias externas, los IRAM
MÁQUINAS DE CÓMPUTO
rodopsina, un pigmento que altera su configuración en
respuesta a la luz. Una ventaja de tal molécula es que podría
emplearse en un computador óptico, en el cual chorros de
fotones desempeñarían el papel de los electrones. Otra
consiste en que muchas de estas moléculas podrían sinte­
tizarse por microorganismos. Según ciertas estimaciones,
las biomoléculas fotóni­
c a m e n t e a c t i va d a s
podrían quedar concate­
nadas en un sistema de
memoria tridimensional
cuya capacidad llegaría
a ser 300 veces mayor
que los CD-ROM actua­
les.
Puertas lógicas na­­
no­mecánicas. En estos
sistemas, para realizar
opera­ciones lógicas se
pro­cedería a desplazar UN PUNTO CUANTICO (violefísicamente diminutos ta) atrapa electrones en este
haces o filamentos de un semiconductor.
átomo de espesor.
Puertas lógicas re­­
versi­bles. Conforme aumen­ta la densidad de componentes
de los microcircuitos, más difícil se torna la disipación del
calor generado en los cómputos. Se está valorando la posi­
bilidad de reponer las capacitancias a su estado original
cuando acaba un cálculo. Dado que las puertas lógicas
reversibles recapturarían parte de la energía consumida,
en ellas se disiparía menos calor.
ne­cesitarán sólo las conexiones a una
red informática y a una toma de
co­rriente. Los dispositivos de en­tra­da/
salida estarán enlazados a ellos a
través de redes. Si necesitan más
memoria, obtendrán al mismo tiempo
mayor capacidad de proceso, y viceversa; esta organización mantendrá
equilibrada la capacidad de memoria
y la velocidad del procesador. Los
IRAM serían también módulos ideales para el proceso en paralelo. Puesto
que serán tan pocas las conexiones
externas que requieran, estos procesadores podrían ser además pequeñísimos. Es muy posible que veamos
“picoprocesadores” baratos y menores
que el antiguo 4004 de Intel. Si el
proceso en paralelo tiene éxito, este
mar de transistores podría utilizarse
también para constituir múltiples
procesadores sobre una sola laminilla, proporcionándonos un micromultiprocesador.
Los microprocesadores actuales son
casi cien mil veces más veloces que sus
troglodíticos antepasados de los años
La Redacción
cincuenta y cuestan mil veces menos;
estos extraordinarios hechos explican
el enorme papel que la informática
desempeña ahora en nuestro mundo.
Mirando hacia el futuro, es bastante
posible que también en el próximo
siglo el rendimiento de los microprocesadores siga duplicándose cada año y
medio.
BIBLIOGRAFIA COMPLEMENTARIA
Microprocessors: From Desktops to
Supercomputers. F. Baskett y J. L. Hennesy. Science, vol. 261, págs. 864-871;
1993.
Computer Organization and Design:
The Hardware/Software Interface. J.
L. Hennesy y D. A. Patterson. Morgan
Kaufmann Publishers, 1995.
Computing Perspectives. M. V. Wilkes.
Morgan Kaufmann Publishers, 1995.
Siga la referencia en la World Wide Web
http://cra.org:80/research.impact/ y mire
bajo el epígrafe “RISC” para saber más
sobre el rápido aumento del rendimiento
de los procesadores.
113
Ordenadores de base proteínica
Robert R. Birge
Ciertos dispositivos fabricados a partir de moléculas biológicas prometen
tamaño más reducido y almacenaje de datos más rápido.
Pueden servir para ordenadores de procesamiento
en paralelo y redes neuronales
E
l superordenador más avanzado
del mundo no necesita ningún
microcircuito semiconductor.
El cerebro humano está formado por
moléculas orgánicas que, combinadas,
tejen una red sumamente complicada
y perfecta, capaz de calcular, percibir,
manipular, repararse a sí misma, pen­
sar y sentir. Es cierto que los ordena­
dores digitales pueden efectuar
cálculos con una velocidad y precisión
mucho mayores que las personas, pero
en los otros cinco campos, hasta los
organismos elementales aventajan a
los ordenadores. Quizá nunca lleguen
a crearse máquinas que posean todas
las facultades del cerebro. Aun así,
muchos opinamos que se puede sacar
ROBERT R. BIRGE, experto en dispo­
sitivos electrónicos de base proteínica y
en ordenadores híbridos, enseña quími­
ca en la Universidad de Syracusa.
114
partido de ciertas propiedades especia­
les de las moléculas biológicas —en
es­pecial de las proteínas— para la
construcción de componentes informá­
ticos que sean más pequeños, potentes
y veloces que cualesquiera dispositivos
electrónicos que hasta ahora se hayan
paseado por los tableros de diseño.
La cuestión del tamaño es acuciante.
Desde los años sesenta este sector
industrial se ha visto compelido a
reducir cada vez más los componentes
de los microcircuitos semiconductores,
para fabricar memorias mayores y
procesadores más potentes. Tales
microcircuitos consisten, en esencia,
en matrices de conmutadores, puertas
lógicas normalmente, que van to­man­do
uno de dos estados (0 y 1) en respuesta
a cambios en la corriente eléctrica que
pasa a su través. (Lo típico es repre­
sentar toda la información mediante
tales dígitos binarios, o bits.) De pro­
seguir la tendencia hacia la miniatu­
rización, el tamaño de una puerta
lógica será, antes de 40 años, el de una
molécula.
Pero existe un grave obstáculo. Cada
vez que se duplica la miniaturización,
el costo de fabricación del microcir­
cuito se multiplica por cinco. Puede
llegar el punto en que la búsqueda de
dispositivos electrónicos cada vez
menores se vea limitada más por con­
sideraciones económicas que por con­
sideraciones físicas. Por otra parte, es
posible que al utilizar moléculas bioló­
gicas con carácter de componentes
activos de la circuitería de los ordena­
dores aparezcan opciones técnicas
menos caras.
Las moléculas pueden actuar de
conmutadores lógicos porque sus áto­
mos son móviles y cambian de posición
de forma predictible. Si logramos diri­
gir ese movimiento atómico y generar
sistemáticamente en cada molécula al
menos dos estados, podremos valernos
de cada uno para representar, ora 0,
ora 1. Tales conmutadores ofrecen
TEMAS 4
reducciones del tamaño de los equipos
porque son intrínsecamente pequeños:
una milésima del tamaño de los tran­
sistores de semiconductor utilizados
hoy como puertas (cuyo diámetro ron­da
la micra, o sea, una millonésima de
me­tro). De hecho, un ordenador biomo­
le­c ular podría, en teoría, ser la
quincua­gésima parte de un ordenador
ac­tual de semiconductores que contu­
viera similar número de elementos
lógicos. La reducción del tamaño de las
puertas desemboca en dispositivos
más veloces; los ordenadores de base
proteí­nica podrían, en teoría, operar a
velocidades mil veces mayores que los
ordenadores modernos.
Nadie propone todavía un ordena­
dor puramente molecular. Es mucho
más probable, al menos en un futuro
cercano, que se utilice una tecnología
híbrida, que combine moléculas y
semiconductores. Tal proceder debería
proporcionar ordenadores cincuenta
veces menores que los actuales y cen­
tuplicar su velocidad.
Las moléculas biológicas también
resultan atractivas porque pueden
diseñarse átomo a átomo, confiriendo
así a los ingenieros el control necesario
para crear puertas que funcionen de
acuerdo con los requerimientos de una
aplicación. Los ordenadores bioelectró­
nicos facilitarían además la búsqueda
de prototipos más adaptables. Se está
reforzando la versatilidad de los dis­
positivos electrónicos con equipos de
nueva configuración o, como se dice en
la jerga, de nueva arquitectura.
Se han introducido arquitecturas de
procesamiento en paralelo, que permi­
ten la manipulación simultánea de
múltiples sistemas de datos. Para
ampliar la capacidad de las memorias
se están ideando elementos que alma­
cenen datos en tres dimensiones, en
lugar de las dos habituales. Y se han
construido redes neuronales que reme­
dan la facultad de aprendizaje por aso­
ciación que posee el cerebro, facultad
que es necesaria para lograr avances de
importancia hacia la inteligencia arti­
ficial. La capacidad de ciertas proteínas
para cambiar sus propiedades en res­
puesta a la luz debería simplificar los
equipos físicos necesarios para llevar a
la práctica dichas arquitecturas.
A
unque todavía no existen en el
mercado componentes informáti­
cos formados, en todo o en parte, por
proteínas, los continuados esfuerzos
de la investigación se están abriendo
paso hacia esa meta. Parece razonable
pronosticar que la técnica híbrida, que
conjuga microcircuitos semiconducto­
res y moléculas biológicas, pasará bas­
tante pronto del dominio de la fantasía
científica a las aplicaciones comercia­
les. Las pantallas de cristal líquido
ofrecen un espléndido ejemplo de sis­
tema híbrido que ha triunfado. Casi
todos los ordenadores portátiles de
nuestros días se basan en pantallas de
cristal líquido, que combinan dispo­
sitivos semiconductores con moléculas
orgánicas para controlar la intensidad
de la imagen en la pantalla.
Son varias las moléculas biológicas
que se están estudiando con vistas a
su utilización en componentes infor­
máticos, pero ha sido una proteína
bacteriana, la bacteriorrodopsina, la
que ha suscitado mayor interés. A lo
largo de los diez últimos años, mi labo­
ratorio, y otros de Norteamérica,
Europa y Japón, han construido proto­
tipos de dispositivos de procesamiento
en paralelo, elementos de almacena­
miento volumétrico y redes neuronales
que se basan en esta proteína.
El interés por la bacteriorrodopsina
se remonta a los años setenta, cuando
Walther Stoeckenius y Dieter Oester­
helt descubrieron que exhibía insólitas
propiedades al ser expuesta a la luz.
La bacteriorrodopsina, que se en­cuen­
tra en la membrana de Halo­bacterium
salinarium, permite el crecimiento de
la bacteria cuando la concentración de
oxígeno es insuficiente para mantener
al microorganismo. Al incidir la luz
sobre ella, la proteína modifica su
estructura y transporta un protón a
través de la membrana, aportando así
energía para alimentar el metabolismo
celular.
Los científicos soviéticos reconocie­
ron y abordaron las posibilidades que
la bacteriorrodopsina ofrece en compu­
tación. Al poco de su descubrimiento,
1. LAS AGUAS SALOBRES del californiano lago de Owens (izquierda) presentan un
matiz azulado, causado por bacterias (inserto) que contienen bacteriorrodopsina.
Esta proteína, aquí representada por una cinta (centro), porta un cromóforo (estructura esquelética de esferas y enlaces lineales) que absorbe la luz. Cuando este seg­
mento se excita por la luz, su estructura cambia (derecha) alterando la configuración
del resto de la proteína. Puesto que la bacteriorrodopsina responde a la luz adop­
tando estados diferentes y fácilmente detectables, puede servir para puertas lógicas,
o conmutadores, en ordenadores ópticos de base proteínica.
MÁQUINAS DE CÓMPUTO
115
2. FOTOCICLO de la bacteriorrodopsina: se­
cuencia de cambios estructurales inducidos por
la luz. El fotociclo permite el almacenamiento de
datos en la memoria. La luz verde transforma el
estado inicial de reposo, conocido por bR, convir­
tiéndolo en el intermedio K. A continuación, K se
relaja, formando primero M y luego O. Al expo­ner
a la luz roja el intermedio O, se produce una rea­
cción de ramificación. La estructura O pasa al
estado P, que rápidamente se relaja al Q, forma
que permanece estable. Sin embargo, la luz azul
devolverá Q al estado bR. Se les pueden asignar
los valores binarios 0 y 1 a dos estados cuales­
quiera de larga duración, lo que permite alma­
cenar información mediante series de molé­culas
de bacteriorrodopsina en uno u otro estado.
dos los detalles de su logro más impre­
sionante: un procesador para radares
militares.
E
Yuri A. Ovchinnikov organizó un
equi­p o de expertos procedentes de
cinco insti­t uciones soviéticas, que
habría de trabajar en bioelectrónica,
integrados en el “proyecto Rodopsina”.
Ovchin­nikov consiguió que los altos
mandos militares le escucharan y les
convenció de que, al explorar la bio­
electrónica, la ciencia soviética se ade­
lantaría a la tecnología informática del
Oeste.
Son muchos los aspectos de este
ambicioso proyecto que permanecen
bajo secreto militar. Sabemos de cierto
que el ejército rojo hizo películas de
microfilmación, llamadas biocromo, a
partir de bacteriorrodopsina. Informes
extraoficiales de antiguos científicos
soviéticos hoy residentes en los Es­tados
Unidos indican que se construyeron
también procesadores ópticos de datos
con técnicas proteínicas. Siguen veda­
3. LA ESCRITURA DE INFORMACION en cubos de bacteriorro­
dopsina (violeta) y la lectura de tal información se consiguen
mediante haces de láser. El proceso de escritura comienza
disparando haces de láser de color verde a través de un plano
116
mpecé a interesarme por la bacteriorrodopsina en los años setenta,
mientras estudiaba las bases bioquí­
micas de la visión en la Universidad
de California en Riverside. Mi trabajo
se había centrado en una proteína afín,
la rodopsina, presente en la retina de
los mamíferos. Tanto la rodopsina
como la bacteriorrodopsina son pro­teí­
nas complejas que contienen un com­
ponente que absorbe la luz, que recibe
el nombre de cromóforo. El cromóforo
absorbe energía de la luz, desencade­
nando una serie de movimientos inter­
nos que modifican la estructura de la
proteína que lo contiene. Dichas modi­
ficaciones alteran las características
ópticas y eléctricas de la proteína. Por
ejemplo, en el interior del ojo humano,
cuando la rodopsina absorbe luz, su
cambio de estructura libera energía,
que sirve de señal eléctrica para el
transporte de información visual has­ta
el cerebro.
Al principio, me interesaba cómo se
del cubo (1); este paso inicia el fotociclo de la proteína. A con­
tinuación se disparan láseres rojos (2) sobre el conjunto de
moléculas de dicho plano (verde) que han de convertirse al es­
tado binario 1; las moléculas restantes representan el estado 0.
TEMAS 4
producían en la rodopsina tales cam­
bios activados por la luz. Pero muy
pronto dirigí la mirada hacia la bacte­
riorrodopsina. Había decidido aplicar
mi conocimiento de sus propiedades al
diseño de memorias y procesadores de
ordenador que se basaran en esa pro­
teína. Albert F. Laurence me conven­
ció de las posibilidades de la bioelec­
trónica. Se incorporó durante un año
a mi laboratorio para explorar la uti­
lización de materiales biológicos en
memorias ópticas.
Nos centramos en la bacteriorrodop­
sina, y no en la rodopsina, porque la
pri­mera posee mayor estabilidad y
me­jo­res propiedades ópticas. Podía,
ade­más, prepararse en grandes canti­
dades. Los componentes de los ordena­
dores han de poder soportar cambios de
su am­biente sin estropearse. En con­
diciones naturales la bacterio­rro­dop­
si­na opera en las marismas, cuyas tem­
peraturas pueden superar los 65 gra­dos
y donde la molécula queda expuesta
muchas veces a la luz intensa.
Las aplicaciones estudiadas con
miras a obtener procesadores de orde­
nador y las memorias sobre las que
éstos operan se apoyan en el fotociclo,
serie de cambios estructurales que
experimenta la bacteriorrodopsina en
respuesta a la luz. (En estado de re­poso
la molécula se denomina bR; cada
estado intermedio de la serie se iden­
tifica mediante una letra del alfabeto.)
Los distintos intermedios —abrevia­
tura de estados intermedios— pueden
utilizarse para la representación de
bits de datos.
Los intermedios absorben luz en dis­
tintas regiones del espectro. Podemos,
en consecuencia, leer los datos ilumi­
nando las moléculas con haces de láser
y observando qué longitudes de onda
no pasan hasta el detector. Puesto que
podemos alterar la estructura de la
bacteriorrodopsina con un láser y
de­terminar después, con otro láser, qué
estados intermedios se han formado,
disponemos de la base necesaria para
grabar la memoria y después leerla.
L
a mayoría de los dispositivos se
basan en el estado de reposo y en
un intermedio de la bacteriorrodopsina.
Uno de los estados se designa 0, y el
otro, 1; la conmutación entre estados se
controla mediante un haz de láser.
Muchos de los primeros dispositivos de
memoria basados en la bacteriorrodop­
sina sólo podían operar a la tempera­
tura, bajísima, del nitrógeno líquido, a
la cual resultaba controlable la transi­
ción entre la estructura bR inicial y un
estado K intermedio. Dichos dispositi­
vos eran rápidos en comparación con
los conmutadores de semiconductores
(la transición de bR a K se produce en
pocas billonésimas de segundo —pico­
segundos— frente a las milmillonési­
mas —nanosegundos— que requieren
los dispositivos ordinarios de semicon­
ductores). Pero la necesidad de tan
bajas temperaturas impedía que fue­
ran de aplicación general.
Hoy la mayoría de los dispositivos
basados en bacteriorrodopsina funcio­
nan a la temperatura ambiente o cer­
cana a ella, condición en la cual es
es­table otro estado intermedio, llama­do
M. Aunque casi todos los dispositivos
de memoria basados en la bacterio­
rodopsina incorporan el conmu­tador bR
a M, puede que para sistemas de cóm­
puto de base proteínica resulten más
útiles en la práctica otras estructuras.
Las moléculas diana forman el estado P (3), relajándose en la
estructura Q (4). La lectura desde la memoria de base proteíni­
ca comienza activando el plano con luz verde (5). Se disparan
láseres rojos de baja intensidad. Las moléculas en el estado bR
MÁQUINAS DE CÓMPUTO
De los estados intermedios que se
producen tras la exposición inicial de
la bacteriorrodopsina a la luz, algunos
pasan a adoptar estructuras insólitas
cuando absorben energía procedente
de un segundo haz de láser, en un
proceso de arquitectura secuencial
monofotónica. Se producen, por ejem­
plo, reacciones de ramificación de este
tipo a partir del intermedio O, formán­
dose P y Q. Estas estructuras las gene­
ran dos pulsos consecutivos de luz
láser, primero verde y después roja.
Aunque el estado P es bastante efí­
mero, se re­laja a una forma conocida
por Q, que es estable durante períodos
largos, in­c lu­s o de algunos años. A
causa de su prolongada estabilidad, el
estado Q es de gran relevancia en la
búsqueda de me­morias no volátiles de
alta densidad.
Los estados intermedios P y Q, que
se forman en el proceso secuencial
monofotónico, revisten particular uti­
lidad para el procesamiento en para­
lelo. Al objeto de escribir datos en
pa­ralelo, nuestro método incorpora
otra innovación: el almacenamiento
tridimensional de datos. Un cubo de
bacteriorrodopsina está rodeado por
dos matrices de haces de láseres, dis­
puestas perpendicularmente. Una de
las matrices de láser, de elementos
sintonizados todos en luz verde, la lla­
mada matriz de paginación, activa el
fotociclo de la proteína en la sección
transversal cuadrada que se seleccione
en el interior del cubo (una “página”).
Transcurridas algunas milésimas de
segundo, cuando el número de estados
intermedios O está próximo al má­ximo,
se dispara la otra matriz de láseres,
rojos esta vez.
Esta segunda matriz está progra­
mada de forma que sólo ilumine la
absorben la luz roja, mientras que las moléculas en el estado P
o Q dejan pasar los bajos niveles luminosos. La configuración
resultante de luz y oscuridad puede recogerse en un detector
situado frente a la matriz de láser rojo (6).
117
4. LOS ORDENADORES del futuro podrían ser equipos híbri­
dos, consistentes en tarjetas dotadas de proteínas (púrpura) y
región del cuadrado activado en el que
se habrán de escribir bits de datos,
conmutando a la estructura P las mo­lé­
culas que hay en ellas. Segui­da­mente,
el intermedio P relaja su estructura,
formando el estado Q, muy estable. Si
asignamos la estructura bR al estado
binario 0 y tanto la P como la Q al
estado binario 1, el proceso es análogo
a la conmutación binaria que tiene
lu­gar en las memorias de semiconduc­
tores o magnéticas. Dado que la matriz
de láser puede activar moléculas en
diversos lugares, cualquiera que sea
su posición en la página iluminada
elegida, es posible escribir simultánea­
mente —o sea, en paralelo— múltiples
localizaciones de datos, a las que se
denomina direcciones.
N
uestro sistema para la lectura
de lo almacenado en la memoria
—sea durante el procesamiento o
du­r ante la extracción de un resul­
tado— se basa en la absorción selec­
tiva de luz roja por el estado interme­
dio O. Para leer en paralelo múltiples
bits de datos, se empieza igual que en
el proceso de escritura. Primero, se
dispara un haz verde de paginación
contra el cuadrado de proteína que ha
de leerse, iniciando el fotociclo normal
de las moléculas en el estado bR. Al
cabo de dos milisegundos la matriz
entera de láser se activa a una inten­
sidad muy baja de luz roja. Las molé­
culas que se encuentran en el estado
binario 1 (estados intermedios P y Q)
no absorben los haces, ni cambian de
estado.
Pero las moléculas que partían del
estado binario original 0 (bR) sí absor­
ben los haces (aunque sin modificación
de su estructura), porque han realiza­do
el ciclo al estado intermedio O, que
absorbe la luz roja. Un detector crea
una imagen de la luz que atraviesa el
cubo de memoria y registra las ubica­
ciones de las estructuras O y de las P
o Q; en términos de código binario, el
detector lee ceros y unos. El proceso
tarda unos 10 milisegundos en lle­
118
de semiconductores. Las que vemos aquí, no construidas aún,
podrían proporcionar memoria asociativa (a) y memoria volu­
varse a cabo, lo que significa una tasa
de 10 megabytes por segundo y página
de memoria.
Además de facilitar el proceso en
paralelo, los cubos tridimensionales de
bacteriorrodopsina proporcionan
mu­cho más espacio de memoria que
las memorias ópticas bidimensionales.
Cierto sistema de memoria no biológi­ca
incorpora una delgada película de
material magnético que se graba
me­d iante un haz láser y se borra
me­dian­te un campo magnético. Estas
memorias son bidimensionales, por­
que los datos se almacenan sobre la
superficie del disco. Tales memorias
bidimensionales tienen una capacidad
de almacenamiento limitada a unos
100 millones de bits por centímetro
cuadrado.
En contraste las memorias ópticas
tridimensionales pueden en teoría
alcanzar densidades de almacena­
miento de hasta un billón (1012) de bits
por centímetro cúbico. En la práctica las
limitaciones ópticas y de los dispositivos
rebajan las densidades posibles para las
memorias volumétricas. Pero parecen
realizables capacidades de almacena­
miento 300 veces superiores a las de los
dispositivos bidimensionales. A corto
plazo el principal impacto de la bioelec­
trónica sobre los equipos informáticos
corresponderá, en mi opinión, al campo
de la memoria volumétrica.
La velocidad constituye también un
importante beneficio de las memorias
volumétricas. La combinación de
al­m acenamiento tridimensional y
arquitecturas en paralelo potencia la
velocidad de tales memorias, de igual
manera que el proceso paralelo del
cerebro humano compensa holgada­
mente los procesos neuronales, lentos,
y permite que el cerebro sea una
má­quina pensante de reflejos veloces
y capaz de tomar decisiones con agi­
lidad. Todo el proceso de escritura
descrito antes se desarrolla en unos
10 milisegundos. Si iluminamos un
cuadrado que mida 1024 por 1024 bits
en el interior del cubo de proteína,
po­d emos grabar en la memoria
1.048.576 bits de datos, o sea, unos 105
kilobytes en un ciclo de 10 milisegun­
dos. Tales valores equivalen a una
velocidad global de escritura de 10
millones de ca­racteres por segundo,
comparables a memorias de semicon­
ductor lentas. Sin embargo, cada dis­
positivo de me­moria puede acceder a
más de un cubo de datos y la velocidad
de la memoria es proporcional al
número de cubos que operen en para­
lelo. En consecuen­cia, una memoria de
ocho cubos operaría mucho más rápi­
damente, a unos 80 millones de carac­
teres por segundo.
P
ara garantizar la exactitud de la
lectura y la escritura, los cubos de
memoria han de tener una composi­
ción uniforme; si en una región hay
demasiadas moléculas, o excesiva­
mente pocas, la información almace­
nada en ella sufrirá distorsión. La
manufactura de los cubos en baja gra­
vedad puede producir la homogenei­
dad necesaria para los dispositivos de
memoria. En otro orden de cosas las
moléculas biológicas ofrecen esperan­
zas de servir de componentes para las
memorias asociativas necesarias para
redes neuronales y, en definitiva, para
la inteligencia artificial.
Las memorias asociativas difieren
bastante en su modo de operar de las
memorias que predominan en los sis­
temas informáticos actuales. Las de
aquel tipo toman un conjunto de datos,
con frecuencia en forma de una ima­
gen, y exploran en su totalidad el banco
de memoria hasta encontrar un con­
junto de datos concordante. En algu­
nos casos, si no encuentra una concor­
dancia exacta, el ordenador presenta
la más parecida, efectuando una suerte
de conjetura razonable de posible res­
puesta. Dado que el cerebro humano
funciona en modalidad neuronal, aso­
ciativa, muchos creen que, para conse­
guir inteligencia artificial, serán nece­
sarias memorias asociativas de gran
capacidad.
TEMAS 4
métrica: unos 32 gigabytes de memoria permanente (b) y ocho
gigabytes de memoria removible (c). Combinadas con una uni­
Mi laboratorio ha desarrollado un
dispositivo de memoria asociativa que
se basa en las propiedades holográfi­
cas de las películas delgadas de bacte­
riorrodopsina. Los hologramas permi­
ten el almacenamiento de imágenes
múltiples en el mismo segmento de
memoria, lo que posibilita el análisis
simultáneo de vastos conjuntos de
datos. El sistema de memoria está
ba­sado en el clásico diseño de Eung
G. Paek y Demetri Psaltis. Hemos
ha­l lado que la bacteriorrodopsina
ofrece ventajas bien caracterizadas
frente a los cristales fotorrefractivos
utilizados para fabricar estas memo­
rias. Dado que la proteína es más sen­
sible a la luz que los cristales inorgá­
nicos, pueden emplearse niveles de
iluminación más bajos. En consecuen­
cia, para escribir y leer en la memoria
hace falta menos energía, mejorando
la velocidad de estos procesos. Además
la bacteriorro­dopsina puede grabarse
y leerse mu­chas veces más que los
cristales, los cuales, tras repetidos
ciclos de lectura-escritura, acusan
fenómenos de fatiga.
A
l tiempo que continúan los estudios de la bacteriorrodopsina,
muchos laboratorios están explorando
el valor de formas modificadas de la
proteína para dispositivos informáti­
cos. Concretamente se están investi­
gando versiones de la proteína obteni­
das por ingeniería genética, en las
cuales un aminoácido reemplaza a otro
con el fin de reforzar las propiedades
necesarias para una determinada apli­
cación. Por ejemplo, por eliminación
en la proteína de un aminoácido
interno es posible prolongar la pervi­
vencia del estado M en el fotociclo,
como han demostrado Norbert Hampp
y Christoph Bräuchle en colaboración
con Oesterhelt.
Evidentemente la meta última son
los ordenadores biomoleculares. Pero
la mayoría de los expertos consideran
que el primer paso en el desarrollo de
ordenadores de base proteínica habrá
MÁQUINAS DE CÓMPUTO
dad central de procesamiento de semiconductor (d), estas tar­
jetas forman un ordenador completo de grandes capacidades.
de ser la generación de sistemas híbri­
dos que conjuguen las mejores caracte­
rísticas de las arquitecturas molecular
y de semiconductores. En par­ticular la
técnica híbrida, compuesta en parte
por memoria de alta densidad y base
proteínica, puede contribuir a resolver
el pertinaz problema de la capacidad
de la memoria.
A lo largo de los últimos diez años la
velocidad de los procesadores de orde­
nador se ha multiplicado casi por mil,
mientras que las capacidades de los
dispositivos de almacenamiento ex­terno
sólo aumentaron en un factor de 50. Por
otra parte, la transferencia de datos en
el seno del ordenador sigue constitu­
yendo el principal cuello de botella que
limita el rendimiento. El procesamiento
en paralelo y las interconexiones
mediante señales luminosas, acelera­
dos ambos merced a ordena­dores híbri­
dos que saquen partido de la eficaz
conmutación de las moléculas biológi­
cas, permiten el almacenamiento, la
transferencia y la manipulación de
ingentes cantidades de datos.
Con el propósito de explorar el valor
de los ordenadores híbridos mi labora­
torio está diseñando uno que contiene
cuatro tipos de unidades de memoria
o de procesadores, denominados tarje­
tas. La tarjeta de la unidad central de
procesamiento de este ordenador uti­
lizará las técnicas tradicionales de
se­miconductores. Dos tarjetas conten­
drán memoria volumétrica de base
proteínica, con una capacidad total en
torno a 40 gigabytes. Una de estas
tarjetas será una memoria de acceso
alea­t orio, permanente, sin partes
móviles; la otra ofrecerá un almacena­
miento de datos a largo plazo, más
económica y removible. La cuarta tar­
jeta contendrá una memoria asocia­
tiva basada en películas de bacterio­
rrodopsina.
El ordenador híbrido que imagina­
mos sería sumamente versátil. Apro­
vechando las combinaciones de memo­
ria descritas, el ordenador debería
poder manejar grandes bancos de
datos, efectuar simulaciones comple­
jas o servir de plataforma excepcional
para investigaciones de inteligencia
artificial. Provista de cerca de un tera­
byte (1012 bytes) de memoria en cubos
de bacteriorrodopsina esta má­quina
podría manejar grandes bases de
datos. La combinación de procesa­
miento por memoria asociativa con
memoria volumétrica haría que la con­
sulta de bases de datos fuera varios
órdenes de magnitud más rápida de lo
que es posible en la actualidad. Dado
que este modelo híbrido puede operar
como ordenador híbrido asociativo y
neuronal, capaz de aprender y anali­
zar datos de forma similar a como lo
hace el cerebro humano, no cabe sub­
estimar la posible importancia de los
computadores híbridos en inteligencia
artificial.
A
unque mi grupo y otros han tenido
notable éxito en el desarrollo de
memorias volumétricas y procesadores
aso­cia­­tivos, se requiere ahondar más
an­tes de que pueda construirse un or­de­
nador híbrido operativo. En el ca­mi­no
conducente al desarrollo de un di­seño
potente y de precio razonable, puede
que otras arquitecturas reemplacen
muchos de los componentes físicos que
hemos descrito. Confiamos, sin em­bar­go,
en que antes de ocho años habrá com­
putadores híbridos de algún tipo.
BIBLIOGRAFIA COMPLEMENTARIA
Bacteriorhodopsin: A Biological Material for Information Processing.
Dieter Oesterhelt, Christoph Bräuchle y
Norbert Hampp en Quarterly Reviews of
Biophysics, vol. 24, n.o 4, págs. 425-478;
noviembre de 1991.
Protein-Based Optical Computing and
Memories. Robert R. Birge en Computer, vol. 25, n.o 11, páginas 56-67; noviembre de 1992.
Protein-Based Three-Dimensional Memory . Robert R. Birge en American
Scientist, vol. 82, n.o 4, páginas 348-355;
julio-agosto de 1994.
119
Computación mecánico-cuántica
Seth Lloyd
Si algún día llegan a construirse,
los ordenadores mecánico-cuánticos lograrán
lo que ningún ordenador en uso puede hacer
D
urante el último medio siglo, los
ordenadores han ido duplican­ do su velocidad cada dos años,
al tiempo que el tamaño de sus componentes se reducía a la mitad. Los
circuitos actuales contienen transistores y líneas de conducción cuya
anchura es sólo una centésima parte
de la de un cabello humano. Las
máquinas de nuestros días son millones de veces más potentes que sus
rudimentarias antepasadas a causa de
tan explosivo progreso. Pero las explosiones acaban disipándose y las técnicas de integración de microcircuitos
están empezando a tropezar con sus
límites.
Mediante técnicas litográficas avan­
zadas podrían producirse elementos
cien veces menores que los hoy disponibles. Pero a tal escala, en la que la
materia se presenta como una muchedumbre de átomos disgregados, los
circuitos integrados apenas consiguen
funcionar. Al reducir la escala diez
veces más, los átomos manifiestan ya
su identidad individual y basta un solo
defecto para provocar una catástrofe.
Por consiguiente, si se pretende que
los ordenadores del futuro mengüen
de tamaño, preciso habrá de ser que la
técnica en uso se reemplace o suplemente con otras nuevas.
Hace ya bastantes años que Rolf
Landauer y Charles H. Bennett empezaron a investigar la física de los circuitos de procesamiento de información y plantearse hacia dónde podría
conducirnos la miniaturización: ¿cuál
sería el tamaño mínimo de los componentes circuitales? ¿Cuánta energía es
preciso utilizar en el curso de una computación? Por ser dispositivos mecánicos, el funcionamiento básico de los
ordenadores está descrito por la física.
La naturaleza de las cosas impone que,
al hacerse muy pequeños los compo1. LOS ATOMOS DE HIDROGENO podrían servir para almacenar bits de información en una computadora cuántica. Un átomo en estado fundamental,
cuyo electrón se encuentra en el nivel
energético más bajo posible (azul), puede representar un 0; el mismo electrón
en estado excitado, con su electrón en un
nivel energético superior (verde), puede
representar un 1. El bit del átomo, 0 o 1,
puede “virarse” (invertirse hacia el valor
opuesto) mediante un pulso de luz láser
(amarillo). Si los fotones del pulso tienen
la energía exacta que diferencia los estados fundamental y excitado del átomo,
el electrón saltará de uno a otro.
120
TEMAS 4
nentes de los circuitos de cómputo, su
descripción debe dejarse en manos de
la mecánica cuántica.
A comienzos de los años ochenta
Paul Benioff, partiendo de resultados
obtenidos por Landauer y Bennett,
demostró que, al menos en principio,
un ordenador podría funcionar de
modo puramente mecánico-cuántico.
Poco después David Deutsch y otros
comenzaron a modelizar computadoras
mecánico-cuánticas para averiguar en
qué divergerían de las clásicas. Se preguntaron, en particular, si cabría sacar
provecho de los efectos mecánico-cuánticos para acelerar las comunicaciones
o para efectuar cómputos mediante
nuevos procedimientos.
L
a especialidad languideció a me ­diados del decenio por una serie de
razones. Ante todo porque, en lugar de
estudiar sistemas físicos tangibles, se
habían considerado las computadoras
cuánticas en sentido abstracto, pecado
en el que Landauer incurrió no pocas
veces. Resultó también evidente que
un ordenador mecánico-cuántico sería
propenso a errores y que la corrección
de los mismos plantearía serios problemas. Y aparte de una sugerencia de
Richard P. Feynman, en el sentido de
que las computadoras cuánticas
po­drían servir para la simulación de
otros sistemas cuánticos (por ejemplo,
formas de materia nuevas o inobservadas), no estaba claro que lograran
re­solver problemas matemáticos con
mayor velocidad que sus parientes, los
ordenadores clásicos.
La imagen ha cambiado en los últimos años. En 1993 describí una amplia
clase de sistemas físicos, bien conocidos, que podrían actuar a modo de computadoras cuánticas, y hacerlo ahorrándome algunas de las objeciones de
Landauer. Peter W. Shor de­mostró que
podría utilizarse un ordenador cuántico
para descomponer números grandes en
factores primos, tarea que desborda
incluso a las má­quinas más potentes.
En el Instituto para el Intercambio
Cien­tífico de Turín se han engendrado
numerosos diseños para la construcción
de circuitería cuántica. En fin, los grupos de H. Jeff Kimble y de David J.
Wineland han fabricado algunos de
estos componentes prototípicos.
Explicaré aquí de qué forma podrían
ensamblarse ordenadores cuánticos y
me ocuparé de algunas tareas que
podrían llevar a cabo y son irrealizables
por los ordenadores digitales.
Aceptemos de entrada que la mecánica cuántica produce desconcierto.
Niels Bohr, que tanto contribuyó a su
creación, confesaba: “Quien pueda contemplar la mecánica cuántica sin sen-
SETH LLOYD desempeña funciones
docentes en el departamento de ingeniería mecánica del Instituto de Tecnología de Massachusetts. Se graduó en
filosofía por la Universidad de Cambridge en 1984 y se doctoró en física por la
Rockefeller en 1988.
sación de mareo es que no la ha comprendido adecuadamente.” Por suerte
o por desgracia, la mecánica cuántica
predice cierto número de efectos contrarios a la intuición, pero que se han
corroborado una y otra vez. Para apreciar de qué extrañas cosas son capaces
los ordenadores mecánico-cuánticos,
basta con abordar el fenómeno de la
dualidad onda-partícula.
L
a dualidad onda-partícula significa que, en ciertas circunstancias,
cosas normalmente consideradas partículas sólidas se comportan como si
fueran ondas, mientras que cosas que
describimos mediante ondas (sonido o
luz) se comportan como partículas. En
esencia, la teoría mecánico-cuántica
establece las clases de ondas asociadas
a los distintos tipos de partículas, y
recíprocamente.
La primera y extraña consecuencia
de la dualidad onda-partícula es que
los sistemas físicos pequeños, como los
2. LA LECTURA del bit almacenado en
un átomo se logra mediante un pulso de
láser cuyos fotones tienen la energía que
separa el estado excitado del átomo, llamémoslo E1, y otro estado excitado aún
más elevado e inestable, E2. Si el átomo
se encuentra en su estado fundamental,
que representa un 0, este pulso carece de
efecto. Pero si se halla en el estado E1,
representativo de un 1, el pulso lo eleva
hasta E2. El átomo retornará entonces a
E1, emitiendo un fotón revelador de tal
estado.
MÁQUINAS DE CÓMPUTO
121
Puertas lógico-cuánticas
L
as puertas lógicas realizan operaciones elementales
sobre bits de información. George Boole demostró en el
siglo xix que toda tarea lógica o aritmética, por compleja
PUERTA NO
ESTADO
INICIAL
ESTADO
FINAL
NOTACION
CIRCUITAL
ESTANDAR
que fuese, era realizable por combinación de tres operaciones: NO, COPIAR e Y. Los átomos, o cualquier otro sistema
cuántico, pueden efectuar estas operaciones.
PUERTA
COPIAR
ESTADOS INICIALES
ESTADOS FINALES
NOTACION
CIRCUITAL
ESTANDAR
1
0
1
1
1
B ABSORBE UN FOTON
A ABSORBE UN FOTON
0
1
0
0
0
A
A
A
La operación NO sólo entraña la inversión
de bits, como indica la notación de la derecha: si A es 0, se convierte en 1, y viceversa.
En el caso de los átomos, la negación puede
efectuarse aplicando un pulso cuya energía
sea igual a la diferencia entre el estado fundamental de A (su electrón se halla en el
estado de mínima energía, representado por
el círculo interior) y su estado excitado (el
círculo exterior). Las puertas NO cuánticas,
a diferencia de las ordinarias, pueden también invertir los bits sólo a medias.
átomos, sólo pueden existir en estados
de energía discretos, bien caracterizados. Así, cuando un átomo salta de un
estado energético a otro, absorbe o
emite energía en cantidades exactas,
llamadas fotones, que podrían considerarse partículas que componen las
ondas de luz.
Una segunda consecuencia es que
las ondas mecánico-cuánticas, como
las ondas de agua, pueden superponer­se,
vale decir, sumarse. Tomadas individualmente, estas ondas ofrecen una
descripción burda de la posición de una
partícula dada. Empero, al combinar
dos o más de tales ondas, la posición
de la partícula se vuelve incierta. Así
pues, en cierto y misterioso sentido, un
electrón puede en ocasiones encontrarse aquí y allí al mismo tiem­po. La
ubicación de un electrón tal permanecerá incógnita hasta que alguna interacción (como el rebote de un fotón al
chocar con el electrón) revele que se
encuentra aquí o allí, pero no en ambos
lugares.
Cuando dos ondas cuánticas superpuestas se comportan como una sola
onda se dice que son coherentes; el
proceso por el cual dos ondas coherentes recuperan su respectiva identidad
individual se denomina descoheren122
B
A
B
COPIAR, en el mundo cuántico, se basa en la interacción entre
dos átomos. Imaginemos que uno de los átomos, el A, que almacena
un 0 o un 1, se encuentre junto a otro átomo, B, que se halla en su
estado fundamental. La diferencia de energía entre los estados de
B tendrá determinado valor si A es 0 y un valor distinto si A es 1.
Apliquemos ahora un pulso luminoso cuyos fotones posean energía
igual a este último valor. Si el pulso tiene la intensidad y la duración
adecuadas, y si A es 1, B absorberá un fotón y cambiará de estado
(línea superior); si A es 0, B no puede absorber un fotón del pulso
y permanece invariable (línea inferior). Así, como vemos en el
diagrama de la derecha, si A es 1, B se convierte en 1; si A es 0, B
sigue siendo 0.
cia. En el caso de un electrón que se
encuentre en superposición de dos
estados energéticos diferentes (o por
decirlo sin precisión, en dos posiciones
distintas en el seno de un átomo), la
descoherencia puede requerir largo
tiempo. Pueden transcurrir días antes
de que un fotón, pongamos por caso,
choque contra un electrón y revele, al
hacerlo, cuál es su verdadera posición.
En teoría los balones de baloncesto
podrían también encontrarse a la vez
aquí y allá. En la práctica, sin em­bargo,
el tiempo que tarda un fotón en rebotar
de un balón es demasiado breve para
que no lo detecte el ojo o algún instrumento. El balón es, sencillamente,
demasiado grande para que su posición exacta pueda permanecer indetectada durante un tiempo perceptible.
En consecuencia, la regla general es
que tan sólo los objetos muy pequeños
y sutiles pueden exhibir la incertidumbre cuántica.
La información se presenta en piezas discretas, como los niveles energéticos de los átomos en la mecánica
cuántica. El cuanto de información es
el bit. Un bit de información es una
simple distinción entre dos opciones
alternativas: sí o no, 0 o 1, verdadero
o falso. En los ordenadores digitales,
un bit de información está representa­do
por la diferencia de potencial entre las
placas de un condensador: un condensador cargado representa, por ejemplo,
un 1, y un condensador descar­gado, un
0. Un ordenador cuántico funciona
asociando el conocido ca­rácter discreto
del procesamiento de información digital con el extraño carácter discreto de
la mecánica cuántica.
E
n efecto, una ristra de átomos de
hidrógeno puede alojar bits igual
de bien que una serie de condensadores. Un átomo en estado fundamental
electrónico podría ser la codificación
de un 0, y en estado excitado, de un 1.
Mas para que tal sistema cuántico
pueda funcionar como un ordenador no
debe limitarse a almacenar bits. Quien
lo maneje ha de poder cargar información en el sistema, ha de poder procesar tal información mediante manipulaciones lógicas sencillas y ha de poder
descargar la información procesada.
Es decir, los sistemas cuánticos han de
poder leer, escribir y efectuar operaciones aritméticas.
Isidor Isaac Rabi enseñó a escribir
información en un sistema cuántico.
Aplicado a átomos de hidrógeno, su
método opera como sigue. Imaginemos
TEMAS 4
PUERTA Y
ESTADOS INICIALES
NOTACION
CIRCUITAL
ESTANDAR
ESTADOS FINALES
1
1
1
0
0
0
0
1
0
1
0
0
B ABSORBE UN FOTON
A
B
A
A
B
A
También la conjunción Y depende de interacciones atómicas. Imaginemos
tres átomos, A, B y A, adyacentes entre sí. La diferencia de energía entre los
estados fundamental y excitado de B es función de los estados de los dos A.
Supongamos que B se halle en su estado fundamental. Apliquemos ahora un
pulso cuya energía sea igual a la diferencia entre los dos estados de B solamente cuando los átomos A vecinos sean sendos unos. Si realmente ambos
A son unos, este pulso invertirá el estado de B (línea superior); de no ser así,
B quedará sin cambios (todas las demás líneas).
un átomo de hidrógeno en su estado
fundamental, en el que posee una cantidad de energía igual a E0. Para escribir un bit 0 en este átomo no se hace
nada. Para registrar un 1 en él, excite­
mos el átomo hasta un nivel energético
superior, E 1. Podemos conseguirlo
bañándolo en luz láser com­puesta por
fotones cuya energía sea igual a la diferencia entre E1 y E0. Si el haz de láser
posee la intensidad adecuada y se aplica
durante el tiempo necesario, el átomo
pasará gradualmente desde el estado
fundamental hasta el estado excitado,
al absorber el electrón un fotón. Si el
átomo se encuentra ya en el estado
excitado, el mismo pulso lu­mínico provocará que emita un fotón y regrese al
estado fundamental. Des­de el punto de
vista del almacenamiento de información, el pulso le dice al átomo que
invierta el estado de su bit.
¿Qué significa “gradualmente” en
este contexto? Un campo eléctrico oscilante, como es el de la luz láser, conduce un electrón de un átomo desde un
estado de energía inferior hacia otro
de energía más elevada a la manera
del adulto que, impulsando a un niño
en un columpio, lo sube cada vez a
ma­yor altura. Siempre que llega la
oscilación de la onda, le da un empuMÁQUINAS DE CÓMPUTO
joncito al electrón. Cuando los fotones
del campo tienen la misma energía que
la diferencia entre E0 y E1, estos pulsos
coinciden con el “vaivén” del electrón
y gradualmente convierten la onda
correspondiente al electrón en una
superposición de ondas que poseen
diferentes energías. La amplitud de la
onda asociada con el estado fundamental del electrón disminuirá conforme
aumenta la de la onda asociada con el
estado excitado. En el proceso, el bit
registrado en el átomo “vira” desde el
estado fundamental hacia el excitado.
Cuando la frecuencia de los fotones no
es adecuada, sus empujones no están
sincronizados con el electrón y nada
ocurre.
Si se aplica la luz adecuada, pero se
hace durante la mitad del tiempo necesario para llevar al átomo desde el
estado 0 al 1, el átomo se encuentra en
un estado igual a la superposición de
la onda correspondiente al 0 y de la
onda correspondiente al 1, que tienen
ambas iguales amplitudes. Tal bit
cuántico, al que llamamos cubit, ha
virado sólo a medias. Un bit clásico,
por el contrario, dará siempre una lectura de 0 o de 1. En los ordenadores
corrientes un condensador cargado a
medias provoca errores, mientras que
un cubit semivirado abre el camino a
nuevas formas de computación.
La lectura de bits en un sistema
cuántico procede de forma parecida. Se
empuja al átomo hasta un estado energético todavía más elevado y menos
estable, al que llamaremos E2. Ello se
consigue sometiendo el átomo a luz
que tenga una energía igual a la diferencia entre E1 y E2: si el átomo se
en­cuentra en E1, se excitará hasta E2,
pero retornará rápidamente a E1, emitiendo un fotón. Si el átomo se encuentra ya en el estado fundamental, nada
ocurre. Si se halla en el estado “semivi­
rado” tiene iguales probabilidades de
emitir un fotón, revelando que es un 1,
como de no emitirlo, indicando que es
un 0. Entre la lectura y escritura de
información en un sistema cuántico y la
computación sólo media un breve
paso.
L
os circuitos electrónicos están formados por elementos lineales (con­
ductores, resistencias y condensadores)
y por elementos no lineales (diodos y
transistores) que manipulan los bits
de diversas maneras. Los dispositivos
lineales alteran individualmente las
señales de entrada. Los dispositivos no
lineales, por otra parte, hacen que in­te­
ractúen entre sí las señales de en­trada
que pasan a su través. Por ejemplo, de
no ser porque nuestro equipo estereofónico contiene transistores no
lineales, no podríamos cambiar el nivel
de graves de la música que reproduce.
Hacerlo así requiere cierta coordinación de la información procedente del
lector de discos compactos y de la información que llega del ajuste del mando
correspondiente del equipo.
Los circuitos realizan cómputos por
iteración, a gran velocidad, de un
pe­q ueño número de tareas, tanto
lineales como no lineales. Entre ellas
se cuenta la inversión de un bit, que
equivale a la operación lógica llamada
NO: verdadero se torna en falso y falso
se trueca en verdadero. Otra de ellas
es la operación de COPIAR, que hace
que el valor del segundo bit sea igual
que el del primero. Estas dos operaciones son ambas lineales, porque en
ambas la salida refleja el valor de una
sola entrada. Efectuar la conjunción (la
“Y”) de dos bits —otra tarea útil—
constitu­ye, en cambio, una operación
no lineal: si los dos bits de entrada son
ambos 1, se hace que un tercer bit sea
también igual a 1; en los demás casos,
el tercer bit se hace igual a 0. El tercer
bit de­pen­de ahora de cierta interacción
en­tre las entradas.
Los dispositivos que ejecutan estas
operaciones se denominan puertas
lógicas. Si un ordenador digital posee
123
A=0
A=1
B=0
B =1
LOS DATOS, CUAL HAN SIDO ESCRITOS
1
0
1
0
0
0
LA LUZ CAMBIA A B
EN 1, SI EL A DE
SU IZQUIERDA ES 1
1
1
1
1
LOS DATOS SE HAN
DESPLAZADO UN LUGAR
HACIA LA DERECHA
0
1
0
1
0
0
INVIERTE A, Y LO
HACE 0, SI EL B DE
SU DERECHA ES 1
0
0
INVIERTE A, Y LO
HACE 1, SI EL B DE
SU IZQUIERDA ES 1
0
1
1
1
LOS DATOS SE HAN
DESPLAZADO UN LUGAR
MAS HACIA LA DERECHA
0
0
1
0
1
0
INVIERTE B, Y LO
HACE 0, SI EL A DE
SU DERECHA ES 1
1
0
puertas lineales, como la NO y la
COPIAR, y puertas no lineales, tales
como las puertas Y, entonces puede
llevar a cabo cualquier tarea lógica o
aritmética. Las computadoras cuánticas han de cumplir los mismos requisitos. Artur Ekert, Deutsch y Adriano
Barenco, por un lado, y quien esto
124
3. UN CRISTAL SALINO podría realizar cómputos actuando sobre pares de iones
vecinos. Se invierte el bit almacenado en cada B si el A de su izquierda contiene un
1; seguidamente, se invierte cada A si el B a su derecha es 1. Se traslada así la información desde cada A hasta el B situado a su derecha. Ahora, utilizando la misma
táctica, se traslada la información desde cada B al A de su derecha. El proceso permite que una línea de átomos actúe de “conductor” cuántico. Dado que un cristal
puede realizar estas operaciones de “doble resonancia” en todas las direcciones simultáneamente con cada ion vecino, el cristal puede remedar la dinámica de cualquier sistema, actuando así de computadora cuántica analógica de uso general.
firma, por otro, han demostrado que
prácticamente cualquier interacción
no lineal entre bits cuánticos será adecuada. A decir verdad, con tal de que
un ordenador cuántico pueda invertir
bits, cualquier interacción cuántica no
lineal lo faculta para llevar a cabo
cualquier cómputo. Para la construcción de ordenadores cuánticos podría
sacarse provecho, pues, de muy distintos fenómenos físicos.
¡La verdad es que ha habido puertas
lógico-cuánticas disponibles y se han
usado habitualmente desde hace casi
tanto tiempo como hay transistores! A
finales de los años cincuenta los investigadores lograron realizar sencillas
operaciones de lógica cuántica con dos
bits valiéndose del espín de las partículas. Estos espines —que consisten en
la orientación del movimiento de rotación de una partícula con respecto a
cierto campo magnético—se encuentran, al igual que los niveles energéticos, cuantizados. Así pues, un espín en
una dirección puede representar un 1,
y en la otra, un 0. Se aprovechó la interacción entre el espín del electrón y el
espín del protón en un átomo de hidrógeno; se puso a punto un sistema en el
cual sólo se invertía el espín del protón
si el espín del electrón representaba un
1. Como los investigadores no estaban
pensando en lógica cuántica, bautizaron al efecto con el nombre de “doble
resonancia”. Aun así se valieron de ella
para efectuar las operaciones lineales
de negación y copia.
Desde entonces, Barenco, David
DiVincenzo, Tycho Sleator y Harald
Weinfurter han mostrado cómo,
vi­ran­do sólo parcialmente los espines
del protón y el electrón, se puede utilizar la doble resonancia para crear
también una puerta lógica Y. Tales
puertas logico-cuánticas, interconectadas, podrían constituir una computadora cuántica. Inútil decir que los
“conductores” cuánticos son difíciles
de construir. Los conductores de un
ordenador corriente pueden ser meras
tirillas de metal, que transmiten sin
dificultad las señales eléctricas de una
puer­ta lógica a otra. La interconexión
de puertas de doble resonancia, por el
con­trario, entraña una dificultad exasperante: el conductor ha de poder desensamblar átomos para trasladar pro­
tones y electrones a voluntad y luego
ha de volver a ensamblarlos sin perturbar los espines de las partículas.
N
o hace mucho que se han ideado
medios más sencillos para concatenar puertas lógico-cuánticas. Por
ejemplo, fotones individuales conducidos por fibras ópticas o enviados a través del aire podrían transferir bits de
información desde una puerta hasta
otra. Un descubrimiento muy prometedor se ha hecho en el Instituto de
Tec­no­logía de California: concentrando
fotones en un volumen diminuto junto
con un solo átomo, el grupo de Kimble
ha conseguido intensificar la interacción no lineal entre fotones, que por lo
común es muy pequeña. El resultado
es una puerta logico-cuántica: un bit de
un fotón puede “virarse” parcialmente
cuando otro fotón lee un 1. Un ordenador construido con puertas lógico-cuánticas de este tipo sería rápido y bastante inmune a las perturbaciones del
medio que destruirían la coherencia,
pero habría que superar todavía cierto
número de obstáculos predichos por
Landauer. El más importante es que
las tolerancias en la longitud de todos
los caminos ópticos del sistema tendrían que ser de una minúscula fracción de la longitud de onda utilizada.
El problema del “cableado” admite
otras soluciones. J. Ignacio Cirac y
Peter Zoller han propuesto un diseño
que aislaría cubits en una trampa de
iones, aislándolos de influencias externas indeseables. Antes de procesarlo,
el bit se transferiría a un registro
co­mún, a un “bus”. En concreto, la
información que contuviera se
represen­taría por un temblequeo en el
que par­ticiparían todos los iones de la
trampa. El grupo de Wineland ha dado
ya el primer paso hacia la construcción
de un tal ordenador cuántico, realizando operaciones tanto lineales como
no lineales sobre bits codificados
mediante iones y por el temblequeo.
La construcción de computadoras
capaces de operar con unas pocas decenas o centenas de bits mediante trampa
iónica ofrece buenas perspectivas. Se
han realizado ya operaciones binarias
y el número de bits de la computadora
puede aumentarse sin más que añadir
iones a la trampa.
TEMAS 4
4. LA PRESENTACION del resultado de
un cómputo cuántico podría ofrecer el
aspecto de la banda superior. Cada lunar
coloreado corresponde a la fluorescencia
de un solo ion mercúrico atrapado en una
trampa iónica (izquierda). La luz indica
que cada uno de los iones se encuentra
en el mismo estado, por lo que la ristra
completa se lee como una serie de unos.
Así las cosas, los científicos pueden
manejar operaciones de lógica cuántica con unos pocos bits y es muy posible que en un futuro cercano efectúen
cómputos cuánticos en los que intervengan algunas decenas o centenares
de bits. ¿En qué sentido puede ello
representar un avance sobre los ordenadores clásicos, que manejan sin dificultad miles de millones de bits? La
verdad es que, incluso con un solo bit,
una computadora cuántica puede realizar cosas que no están al alcance de
ningún ordenador clásico. Fijémonos
en lo siguiente. Tomemos un átomo en
superposición de 0 y 1. Averigüemos
ahora si el bit es un 0 o un 1 provocan­do
su fluorescencia. La mitad de las veces
el átomo emite un fotón y el bit es un
1. En la otra mitad no hay emisión
fotónica y el bit es un 0. Es decir, el bit
es un bit aleatorio, algo que ningún
ordenador clásico puede crear. Los
programas de números aleatorios de
los ordenadores digitales generan en
realidad números pseudoaleatorios,
valiéndose para ello de una función
cuyo resultado es tan irregular que
parece producir bits por azar.
I
maginemos lo que un ordenador
cuántico puede hacer con dos bits.
El copiado se realiza juntando dos bits,
uno con el valor a copiar y otro cuyo
valor inicial es 0; al serle aplicado un
pulso, el segundo bit cambia a 1 solamente en el caso de que el primer bit
también sea un 1. Pero si el valor del
primer bit es una superposición de 0 y
1, la aplicación del pulso crea una
superposición en la que participan
ambos bits, de forma tal que ambos son
1 o ambos son 0. Fijémonos en que el
valor final del primer bit ya no es el
MÁQUINAS DE CÓMPUTO
mismo que inicialmente tenía; la
superposición ha cambiado.
En cada componente de esta superposición el segundo bit es el mismo que
el primero, pero ninguno de ellos es el
mismo que el bit original. Albert Eins­
tein hizo notar que tales estados infringirían todas las ideas intuitivas tradicionales sobre causalidad. En una tal
superposición, ninguno de los bits se
encuentra en un estado definido;
em­pero, si medimos uno de ellos, situándolo en consecuencia en un estado definido, el otro bit pasa también a un
estado definido. El cambio del primer
bit no es la causa del cambio del se­gun­do.
Pero en virtud de la destrucción de la
coherencia entre ambos, la medición del
primero también despoja al se­gundo de
su ambigüedad. Con tres cu­bits se pueden establecer estados imbricados
todavía más complejos.
En efecto, dados tan sólo dos o tres
cubits y una o dos puertas lógico-cuánticas, resulta posible la creación de
estados cuánticos fascinantes. He
de­mostrado que, con mayor número de
bits, podría utilizarse una computadora
cuántica para simular el compor­ta­
miento de cualquier sistema cuántico.
Programada adecuadamente, la dinámica de la computadora remedaría la
dinámica de cierto sistema postulado y,
en particular, de la interacción del sistema con su entorno. Además el nú­mero
de pasos que tal computadora tendría
que dar para registrar la evolución de
este sistema a lo largo del tiempo sería
directamente proporcional al tamaño
del sistema.
Todavía más notable es que, si una
computadora cuántica tuviera arquitectura en paralelo, lo que pudiera ser
factible por doble resonancia entre
pa­res vecinos de espines en los átomos
de un cristal, podría remedar en tiem­po
real a cualquier sistema cuántico,
cualquiera que fuera su tamaño. Esta
clase de computación cuántica en
paralelo, de ser posible, supondría una
enorme aceleración sobre los métodos
al uso. Según advirtiera Feynman,
para simular un sistema cuántico en
un ordenador clásico se precisa, en
general, un número de pasos que crece
exponencialmente con el tamaño del
sistema y con el lapso de tiempo invertido en rastrear sus evoluciones. La
verdad es que una computadora cuántica de 40 bits podría recrear un sistema cuántico en poco más de un centenar de pasos; esta misma simulación
exigiría años en un ordenador clásico
provisto de un billón de bits.
¿Qué puede llegar a hacer una computadora cuántica, dotada de muchas
operaciones lógicas, sobre muchos
cubits? Empecemos colocando todos los
bits de entrada en idéntica superposición de ceros y unos, todos iguales. La
computadora se encuentra entonces en
otra superposición de todas las entradas posibles. Hagamos pasar esta
en­trada a través de un circuito lógico
que ejecute un determinado cómputo.
El resultado es una superposición de
todos los posibles resultados de ese
cómputo. En cierto y extravagante sentido cuántico, la computadora efectúa
a la vez todos los cómputos posibles.
Deutsch ha denominado a este efecto
“paralelismo cuántico”.
Aunque el paralelismo cuántico
pueda parecer extraño, pensemos por
un momento en el comportamiento
general de las ondas. Si las ondas
me­c ánico-cuánticas fuesen ondas
sonoras, las correspondientes a 0 y a 1
—que oscilan cada una a una sola fre­
cuen­cia— constituirían tonos puros.
Una onda correspondiente a una
superposición de 0 y 1 sería entonces
un acorde. Así como los acordes musicales suenan cualitativamente distintos de los tonos individuales que los
integran, una superposición de 0 y 1
se diferencia del 0 y el 1 tomados por
125
separado: en ambos casos, las ondas
combinadas se interfieren entre sí.
Una computadora cuántica que realice un cómputo ordinario, en el que no
haya superposición de bits, genera una
secuencia de ondas análogas al sonido
de un “cambio de repique” de los campanarios, en que las campanas se
ta­ñen una por vez. La secuencia de
sonidos se atiene a reglas matemáticas
estrictas. Un cómputo realizado en
modo cuántico paralelo viene a ser
como una sinfonía: su “sonido” corresponde a una multitud de ondas que se
interfieren entre sí.
Shor demostró que el efecto sinfónico del paralelismo cuántico podría
servir para descomponer muy rápidamente números grandes en factores
primos, cosa que los ordenadores clásicos e incluso los superordenadores no
siempre logran. Puso de manifiesto
cómo orquestar una computación
cuántica de forma que los posibles factores destaquen en la superposición,
al igual que, en una sinfonía, una
melodía tocada por los cellos, las violas
y los violines con separación de una
octava destacaría sobre el sonido de
fondo creado por los demás instrumentos. Su algoritmo haría que la factorización resultase tarea sencilla para
una computadora cuántica, de poder
construirse. Dado que la mayoría de
los sistemas criptográficos de clave
pública —como los de protección de las
cuentas bancarias electrónicas— se
basan en que los ordenadores clásicos
no pueden hallar factores primos que
tengan, sea por caso, más de 100 dígitos, los merodeadores informáticocuánticos podrían darle motivo de
preocupación a mucha gente.
La cuestión de si llegará a haber
computadoras cuánticas (y sus correspondientes merodeadores) es cuestión
debatida con ardor. Recordemos que la
naturaleza cuántica de una superposición subsiste tan sólo mientras el
entorno se abstiene de revelar el estado
del sistema. Habida cuenta de que las
computadoras cuánticas podrían consistir en miles o millones de átomos y
de que para lesionar la coherencia
cuántica basta la perturbación de uno
solo de ellos, no está claro cuánto
tiempo pueden durar en auténtica
superposición los sistemas cuánticos
interactuantes. Las pruebas experimentales inducen a pensar que ciertos
sistemas pueden mantener superposiciones cuánticas durante varias horas.
Shor y sus colaboradores han demostrado que su algoritmo sigue funcionando incluso con niveles modestos de
descoherencia.
Otro de los problemas a que se
enfrenta la computación cuántica es la
126
corrección de errores. Los distintos sistemas que podrían utilizarse para el
registro y procesamiento de información son sensibles al ruido, que puede
invertir bits de modo aleatorio. Los
métodos clásicos de corrección de errores entrañan la medición de bits para
ver si son erróneos, lo que en una computadora cuántica provocaría la descoherencia. Los grupos de Ekert y de
Deutsch han mostrado que la corrección de errores es posible en teoría, pero
muy costosa de llevar a la práctica. Así
pues, aun cuando puedan construirse
computadoras cuánticas, tal vez no
sean capaces de realizar cómputos con
muchos bits durante períodos largos.
P
ara sobrepasar la capacidad de factorización de los superordenadores actuales, las computadoras cuánticas que utilizasen el algoritmo de
Shor podrían tener que seguir la pista
de centenares de bits durante millares
de pasos, manteniendo en todo
momento la coherencia cuántica. Por
culpa de los problemas técnicos de que
hablaba ya Landauer, entre los que se
cuentan la descoherencia, las variaciones incontrolables en los pulsos de
láser y la carencia de una corrección
de errores eficaz, es muy verosímil que
la construcción de un ordenador capaz
de efectuar semejante cómputo resulte
difícil. Sin embargo, para superar las
simulaciones clásicas de los sistemas
cuánticos bastaría con seguir la pista
a unas decenas de bits durante algunas decenas de pasos, objetivo mucho
más alcanzable. Y la utilización de
lógica cuántica para la creación y
exploración de las propiedades de
extraños estados cuánticos con multitud de partículas es meta que ya se
encuentra en el horizonte.
BIBLIOGRAFIA COMPLEMENTARIA
Quantum Theory: The Church-Turing
Principle and the Universal Quantum
Computer. David Deutsch en Proceedings of the Royal Society of London, serie
A, vol. 400, n.o 1818, páginas 97-117;
1985.
A Potentially Realizable Quantum
Computer. Seth Lloyd en Science vol.
261, páginas 1569-1571; 17 de septiembre de 1993.
Algorithms for Quantum Computation:
Discrete Logarithms and Factoring.
Peter W. Shor en 35th Annual Symposium
on Foundations of Computer Science:
Proceedings. Recopilación de Shafi
Goldwasser. IEEE Computer Society
Press, 1994.
Quantum Computations with Cold Rapped Ions. J. I. Cirac y P. Zoller en Physical Review Letters, volumen 74, n.o 20,
páginas 4091-4094; 15 de mayo de 1995.
TEMAS 4
Ordenador óptico
W. Wayt Gibbs
E
l cálculo digital dio un paso de gigante cuando se terminó, en la Universidad de Manchester, allá por 1948,
el Mark I, primer computador enteramente electrónico
capaz de almacenar en memoria su propio programa. No
menos audaz —y vacilante— fue el avance operado en computación óptica, tan en su infancia aún, a principios de 1993
cuando Harry F. Jordan y Vincent P. Heuring, de la Universidad
de Colorado, presentaron un ordenador (casi) óptico que
almacena y maneja sus instrucciones y datos en forma de
impulsos luminosos.
Como el Mark I, el ordenador óptico de bits seriados
(OOBS) es grande y obtuso, y se ha construido sólo para
probar un principio de la arquitectura de ordenadores.
Apenas hace otra cosa que conmutaciones, recuentos y operaciones de aritmética de carácter básico, y sólo tiene 128
bytes de memoria. Ahora bien, todo eso lo hace de un modo
radicalmente distinto de cualquier ordenador que jamás se
haya construido.
La digital y electrónica prole del Mark I ha venido almacenando sus datos en los biestables o basculadores (“flip-flops”),
dispositivos que toman y retienen cargas por medio de relés,
tubos de vacío o circuitos de semiconductores. En ellos, la
información queda confinada físicamente. Sin embargo, los
equivalentes ópticos del biestable electrónico todavía operan
muy lentamente, y por eso el OOBS utiliza en su lugar una
memoria dinámica: los impulsos de radiación infrarroja que
constituyen sus bits se mueven incesantemente por un circuito
de fibras ópticas a la velocidad de la luz. “La información está
siempre en movimiento; en cierto sentido, se almacena dondequiera que se encuentre, tanto en el espacio como en el
tiempo”, explica Heuring. “El quid está en disponer las cosas
de tal modo que la información interaccione en el mismo
lugar del espacio al mismo tiempo.”
El OOBS logra esta proeza de sincronización valiéndose
de un reloj que funciona a 50 megahertz y conduciendo la
luz por un trayecto que cubre distancias entre conmutadores
cuidadosamente medidas. Antes de cada tic del reloj, los
impulsos de control accionan conmutadores que dirigen de
un trayecto a otro los bits que llegan, haciéndolos entrar y
salir de líneas de retardo formadas por bobinas de fibra
óptica con metros de longitud. Al contrario que el procesador electrónico, que recoge la información que necesita de
una dirección de su memoria, el procesador óptico del OOBS
espera que le lleguen los datos. Los contadores guardan
registro de qué hay y dónde.
Los conmutadores son la única parte no enteramente
óptica del sistema. AT&T, suministrador del grupo de
Colorado, los construye difundiendo titanio por una superficie de niobato de litio, que es un sólido transparente, a fin
de formar dos canales para la luz. Cuando se aplica una
tensión eléctrica, los canales se hacen paralelos, y cuando
cesa, se cruzan. Para accionar el conmutador, debe transformarse el impulso de control luminoso en un impulso eléctrico,
y amplificarlo después. Jordan utiliza un ordenador corriente
de sobremesa conectado a los amplificadores de conmutación para programar el OOBS y representar sus resultados,
aunque en teoría un interfaz de fibra óptica funcionaría con
pareja perfección.
El OOBS necesita, pues, electricidad para operar. Pero al
relegar los electrones a un papel menor y prescindir por
128
completo del almacenamiento estático, la estructura del
ordenador se simplifica bastante. “Tal vez sea ésta la primera
vez que puede representarse un ordenador completo en una
sola transparencia de retroproyector”, se ufana Heuring.
“Normalmente, eso es imposible; hay tantos biestables, puertas y buses, y tantas otras cosas...”
La memoria dinámica ofrece otras ventajas: una de ellas
es la velocidad ajustable de la máquina. Dado que el diseño
se basa en el tiempo que tardan los impulsos de luz en pasar
de un procesador al siguiente, un diseño funcionará igual a
mitad de tamaño y doble velocidad de reloj; afortunadamente, ya que en su versión actual el OOBS ocupa una mesa
entera. Jordan y Heuring lo están ahora integrando en un
cilindro de niobato de litio, adherido a un disco de silicio o
arseniuro de galio que contendría la electrónica de conmutación. El ordenador, que cabrá en la palma de la mano, se
habrá achicado unas 400 veces y trabajará 400 veces más
deprisa, a 20 gigahertz.
El simple aumento de velocidad sin cambio de tamaño
produce también resultados interesantes, como ha descubierto Jordan. “Si se cuenta con conmutadores rápidos, se
puede duplicar la velocidad de reloj y acabar teniendo dos
máquinas con un solo soporte físico, actuando aparentemente en paralelo, pero en realidad intercaladas en el
tiempo.” A 100 megahertz, en otras palabras, el OOBS desarrolla una doble personalidad.
Las ventajas de la memoria dinámica han de pagarse, no
obstante, en capacidad y en rendimiento, pues el almacenamiento espaciotemporal de información requiere gran cantidad de la una o la otra. Y cuanto más largo sea el circuito,
más tiempo tendrá que esperar un procesador a que le lleguen nuevos datos. Heuring admite que esto limita la complejidad de las posibles aplicaciones. “Un OOBS sería ideal
para una red de conmutación telefónica o de televisión por
cable que encauzara y redistribuyera información secuencial
procedente de cinco ciudades con destino a otras cinco, pero
no valdría para el procesamiento de textos.”
Es casi seguro que las primeras máquinas ópticas que se
realicen tendrán un carácter híbrido, con conmutadores
optoelectrónicos y algún tipo de almacenamiento estático.
Conscientes de ello, Jordan y Heuring trabajan ya en un
proyecto de procesador en paralelo en el que las bobinas de
fibras se sustituyen por espacios vacíos y los conmutadores
en serie por circuitos integrados optoelectrónicos (CIOE),
unas formaciones cuadradas que por una cara tienen fotodetectores en miniatura y por la otra microláseres.
Descansarán sobre sus bordes, a modo de fichas de dominó;
tomarán la alimentación eléctrica por la base y recibirán los
impulsos de control por arriba. En este nuevo diseño de
Heuring, se utilizan hologramas generados por ordenador
para redistribuir los bits desde un CIOE al siguiente.
Los investigadores de Colorado creen que el poder construir un ordenador con pastillas CIOE que contuviesen al
menos un millón de conmutadores sería ya todo un logro.
“El vídeo se ha de leer serialmente, y ése es el verdadero
cuello de botella de la realidad virtual y de tantos y tantos
gráficos y animaciones por ordenador”, observa Heuring.
“Con los CIOE, podríamos en principio trabajar, de una sola
vez, sobre una trama de vídeo entera, o sobre un polígono
completo generado por ordenador.”
TEMAS 4
Descargar