Principio del libro

Anuncio
www.elboomeran.com
1
1953
Si es tan fácil crear organismos vivos, ¿por qué no
crea unos cuantos usted mismo?
Nils Aall Barricelli, 1953
A las 22.38 del 3 de marzo de 1953, en un edificio de ladrillo de una
sola planta situado al final de la calle Olden Lane, en Princeton,
Nueva Jersey, el biólogo y matemático italo-noruego Nils Aall Barricelli inoculó a un universo digital de 5 kilobytes una serie de
números aleatorios generados extrayendo cartas al azar de una baraja desordenada. «Se están realizando un conjunto de experimentos
numéricos con el objetivo de verificar la posibilidad de que tenga
lugar una evolución similar a la de los de organismos vivos en un
universo creado artificialmente», anunció.1
Un universo digital —ya sea de 5 kilobytes o de toda internet—
está integrado por dos tipos de bits: las diferencias de espacio y las
diferencias de tiempo. Los ordenadores digitales traducen de una a
otra estas dos formas de información —estructura y secuencia— según unas reglas definidas. Los bits que se encarnan en estructura
(variables en el espacio, invariables en el tiempo) los percibimos
como memoria, y los bits que se encarnan en secuencia (variables en
el tiempo, invariables en el espacio) los percibimos como código.
Las puertas son las intersecciones donde los bits atraviesan ambos
mundos en los momentos de transición de un instante al siguiente.
El término bit (la contracción —en 40 bits— de binary digit, «dígito binario») fue acuñado por el estadístico John W. Tukey poco
después de que se uniera al proyecto de Von Neumann en noviembre de 1945. La existencia de una unidad fundamental de informa29
012-106879-La catedral de Turing.indd 29
23/09/13 13:54
LA CATEDRAL DE TuRING
ción comunicable, que representaba una única distinción entre dos
alternativas, fue rigurosamente definida por el padre de la teoría de
la información, Claude Shannon, en su obra de 1945, entonces secreta, Mathematical Theory of Cryptography, posteriormente ampliada
en Mathematical Theory of Communication, de 1948.* «Cualquier diferencia que marque una diferencia»: así fue como el cibernético Gregory Bateson tradujo la definición de Shannon en términos más informales.2 Para un ordenador digital, la única «diferencia que marca
una diferencia» es la que existe entre un cero y un uno.
Que bastaban dos símbolos para codificar toda la comunicación
era algo que ya había sido establecido por Francis Bacon en 1623.
«La transposición de dos letras en cinco emplazamientos bastará para
dar 32 diferencias [y] por este arte se abre un camino por el que un
hombre puede expresar y señalar las intenciones de su mente, a un lugar situado a cualquier distancia, mediante objetos ... capaces solo de
una doble diferencia», escribió, antes de dar ejemplos de cómo tal
codificación binaria podía transmitirse a la velocidad del papel, la
velocidad del sonido o la velocidad de la luz.3
Que el cero y el uno bastaban para la lógica, además de la aritmética, fue establecido a su vez por Gottfried Wilhelm Leibniz en
1679, siguiendo la pauta señalada por Thomas Hobbes en su Computatio sive logica («Cálculo, o Lógica»), de 1656: «Por raciocinio entiendo cálculo —había anunciado Hobbes—. Ahora bien, calcular es,
o recabar la suma de muchas cosas que se añaden, o saber qué queda
cuando una cosa se resta de otra. Raciocinio es, pues, lo mismo que
adición y sustracción; y si alguien añade multiplicación y división, yo no
me opondré a ello, viendo ... que todo raciocinio está comprendido
en estas dos operaciones de la mente».4 El nuevo ordenador, pese a
todas sus capacidades, no era más que una máquina de sumar muy
rápida, con una memoria de 40.960 bits.
En marzo de 1953 había 53 kilobytes de memoria de acceso
aleatorio de alta velocidad en todo el planeta Tierra.5 Cinco de ellos
estaban al final de Olden Lane, treinta y dos se distribuían entre los
* Hay trad. cast.: Teoría matemática de la comunicación, Forja, Madrid, 1981. (N.
del T.)
30
012-106879-La catedral de Turing.indd 30
23/09/13 13:54
1953
ocho clones ya completados del ordenador del Instituto de Estudios
Avanzados, y los dieciséis restantes se hallaban desigualmente repartidos entre otra media docena de máquinas. Los datos, y los pocos
programas rudimentarios que existían, se intercambiaban a la velocidad de las tarjetas perforadas y la cinta de papel. Cada isla de este
nuevo archipiélago constituía un universo en sí misma.
En 1936, el lógico Alan Turing había formalizado las capacidades
(y las limitaciones) de los ordenadores digitales al dar una descripción
precisa de un tipo de dispositivos (incluido un ser humano obediente) capaces de leer, escribir, recordar y borrar marcas en un suministro ilimitado de cinta. Esas «máquinas de Turing» podían traducir
bidireccionalmente de uno a otro los bits encarnados como estructura (en el espacio) y los bits codificados como secuencias (en el
tiempo). Turing demostró, así, la existencia de una «máquina computadora universal» que, dados el tiempo suficiente, la cinta suficiente y una descripción precisa, podía emular el comportamiento de
cualquier otra máquina computadora. Los resultados son independientes de si las instrucciones son ejecutadas por pelotas de tenis o
por electrones, y de si la memoria se almacena en semiconductores
o en cinta de papel. «El que sea digital debería resultar de mayor interés que el que sea electrónica», señaló Turing.6
Von Neumann intentó construir una máquina universal de Turing que operara a velocidades electrónicas. Su base era una matriz
de 32 por 32 por 40 bits de memoria de acceso aleatorio de alta velocidad, el núcleo de todo lo digital desde entonces. «Acceso aleatorio» significaba que todas las posiciones de memoria individuales
—que en su conjunto constituían el «estado mental» interno de la
máquina— eran igualmente accesibles en cualquier momento dado;
por su parte, «alta velocidad» significaba que la memoria era accesible a la velocidad de la luz, no a la del sonido. Fue la supresión de
esta restricción lo que desató los poderes de la —por lo demás nada
práctica— máquina universal de Turing.
En 1945 existía una amplia disponibilidad de componentes electrónicos, pero el comportamiento digital era la excepción a la regla.
Las imágenes se televisaban escaneándolas en líneas, no dividiéndolas en bits. El radar mostraba una imagen analógica de los ecos reco31
012-106879-La catedral de Turing.indd 31
23/09/13 13:54
LA CATEDRAL DE TuRING
gidos por el barrido continuo de un haz de microondas. Los sistemas
de alta fidelidad llenaban las salas de estar de la posguerra con el calor de discos analógicos grabados sobre vinilo sin que se produjera el
menor retroceso en favor de un enfoque digital. Las tecnologías digitales —el teletipo, el alfabeto Morse, las máquinas de contabilidad
de tarjetas perforadas— se percibían como anticuadas, lentas y poco
fiables. Lo analógico gobernaba el mundo.
El grupo del IAS logró construir una memoria de acceso aleatorio totalmente electrónica adaptando osciloscopios analógicos de
tubos de rayos catódicos: lámparas de cristal en las que se había hecho el vacío y que tenían más o menos el tamaño y la forma de una
botella de champán, pero con las paredes tan delgadas como una copa
de flauta. El extremo ancho de cada tubo formaba una pantalla circular con un revestimiento interno fluorescente, mientras que en el
extremo estrecho había un cañón de alto voltaje que emitía un flujo
de electrones cuyo objetivo podía ser desviado por un campo electromagnético biaxial. El tubo de rayos catódicos (o CRT, por sus
siglas en inglés) era una forma de ordenador analógico; variando los
voltajes de las bobinas de deflexión se variaba la trayectoria trazada
por el haz de electrones. El CRT, especialmente en su encarnación
como osciloscopio, podía utilizarse para sumar, restar, multiplicar y
dividir señales, y los resultados se mostraban directamente como
una función de la amplitud de la deflexión y su frecuencia en el
tiempo. El universo digital tomó forma a partir de estos principios
analógicos.
Aplicando lo que habían aprendido con el manejo del radar, la
criptografía y el control del fuego antiaéreo durante la guerra, los
ingenieros de Von Neumann fueron capaces de controlar los circuitos de deflexión mediante impulsos codificados y dividir la cara del
tubo en una matriz de 32 por 32 posiciones numéricamente direccionables a las que se podía apuntar individualmente el haz de electrones. Dado que la carga eléctrica resultante permanecía en la superficie de cristal revestido durante una fracción de segundo y podía
ser refrescada periódicamente, cada tubo, de unos 12 centímetros de
diámetro, podía utilizarse para almacenar 1.024 bits de información,
siendo el estado de cualquier posición específica accesible en cual32
012-106879-La catedral de Turing.indd 32
23/09/13 13:54
1953
quier momento. Se había iniciado la transición de lo analógico a lo
digital.
El ordenador del IAS incorporaba un banco de 40 tubos de rayos catódicos de memoria, cuyas direcciones de memoria se asignaban como si un recepcionista diera números de habitación similares
a 40 huéspedes a la vez en un hotel de 40 plantas. Los códigos proliferaron en este universo aprovechando el principio arquitectónico
de que un par de coordenadas de 5 bits (25 = 32) identificaban únicamente una de las 1.024 posiciones de memoria que contenían una
cadena (o «palabra») de 40 bits. En 24 microsegundos podía recuperarse cualquier secuencia concreta de 40 bits de código. Esos 40 bits
podían incluir no solo datos (números que significan cosas), sino
también instrucciones ejecutables (números que hacen cosas), incluidas instrucciones para modificar las instrucciones existentes, o
para transferir el control a otra posición y seguir nuevas instrucciones desde allí.
Dado que un código de operación de 10 bits, combinado con
10 bits que especificaran una dirección de memoria, devolvía una secuencia de 40 bits, el resultado era una reacción en cadena, análoga
a la fisión de neutrones «dos por uno» que tenía lugar en el corazón
de una bomba atómica. A consecuencia de ello se desataron todos
los infiernos: la memoria de acceso aleatorio permitió al mundo de
las máquinas acceder a los poderes de los números, y permitió al
mundo de los números acceder a los poderes de las máquinas.
La sencilla estructura de bloques de hormigón del edificio que
alojaba el ordenador había sido financiada conjuntamente por el Departamento de Armamento del ejército y la Comisión de Energía
Atómica (AEC, por sus siglas en inglés) de Estados Unidos. Para
compatibilizar los términos del contrato del gobierno, en que se
especificaba una estructura temporal, con los sentimientos de la comunidad vecina, el Instituto de Estudios Avanzados desembolsó
9.000 dólares adicionales (equivalentes a unos 100.000 dólares actuales) para rematar el edificio revistiéndolo con una capa de ladrillo.
Había estrechos vínculos entre el IAS y la AEC. J. Robert
Oppenheimer era a la vez director del IAS y presidente del Comité
Asesor General de la AEC. Lewis Strauss ocupaba la presidencia de
33
012-106879-La catedral de Turing.indd 33
23/09/13 13:54
LA CATEDRAL DE TuRING
la AEC al tiempo que presidía también la Junta Directiva del IAS.
La despreocupada mezcla de ciencia e ingeniería armamentística que
prosperara en Los Álamos durante la guerra se había trasplantado
ahora a Princeton bajo los auspicios de la AEC. «El contrato militar
dispone la supervisión general del Laboratorio de Investigación Balística del Ejército —se señalaba el 1 de noviembre de 1949—,
mientras que la AEC dispone la supervisión de Von Neumann.»7
Mientras el ordenador estuviese disponible para cálculos armamentísticos, Von Neumann podría dedicar el tiempo restante de la máquina a lo que quisiera.
En 1953, Robert Oppenheimer y Lewis Strauss —el artífice del
nombramiento del primero como director del Instituto en 1947,
pero que en 1954 se volvería contra él— mantenían todavía una relación amistosa. «Hay una caja de Château Lascombes esperándole
con mis saludos en Sherry Wine & Spirits Co., en el 679 de Madison
Avenue (cerca de la calle 61) —informaba Strauss a Oppenheimer el
10 de abril de 1953—. Espero que a usted y a Kitty les guste.»8
«Recogimos el vino hace dos días, y esa noche abrimos una botella —contestaba Oppenheimer el 22 de abril—. Era muy bueno, y
Kitty y yo le damos las gracias, no solo por su amabilidad, sino por la
gran satisfacción que nos ha dado.»9 Robert y Kitty habían bebido del
cáliz envenenado. Un año después, el hombre que tanto había hecho
para poner los poderes de la energía atómica en manos del gobierno
estadounidense, pero que luego se había vuelto contra sus valedores
oponiéndose al desarrollo de la bomba de hidrógeno, sería despojado
de sus acreditaciones de seguridad tras una dramática audiencia ante la
Junta de Seguridad del Personal de la Comisión de Energía Atómica.
Mientras el ordenador estaba todavía en construcción, un reducido equipo de Los Álamos, dirigido por Nicholas Metropolis y
Stanley Frankel, se instaló discretamente en el Instituto. Los miembros del IAS se dividían en dos tipos: miembros permanentes, que
eran nombrados con carácter vitalicio por decisión de todo el cuerpo
docente, y miembros visitantes, que eran invitados por cada facultad
concreta, normalmente durante un año o menos. Metropolis y Frankel
no pertenecían a ninguno de los grupos, y simplemente habían aparecido como por arte de magia. «Lo único que me dijeron fue que lo
34
012-106879-La catedral de Turing.indd 34
23/09/13 13:54
1953
que Metropolis había venido a hacer era calcular la viabilidad de una
bomba de fusión —recuerda Jack Rosenberg, un ingeniero que había diseñado, construido e instalado un sistema de audio de alta fidelidad en casa de Albert Einstein para su septuagésimo cumpleaños, en
1949, utilizando algunos de los tubos de vacío y otras piezas sobrantes
del proyecto del ordenador—. Eso fue todo lo que supe. Y entonces
me sentí sucio. Einstein dijo: “Eso es exactamente para lo que pensaba que iban a usarlo”. Él siempre iba por delante.»10
Se bautizó a la nueva máquina con el nombre de MANIAC
(Mathematical and Numerical Integrator and Computer, «Integrador y Computador Matemático y Numérico»), y en el verano de
1951 fue sometida a su primera prueba, con un cálculo termonuclear que duró sesenta días ininterrumpidos. Los resultados se vieron
confirmados por dos enormes explosiones llevadas a cabo en el sur
del Pacífico: Ivy Mike, que liberó el equivalente a 10,4 millones
de toneladas de TNT (megatones) en el atolón de Enewetak el 1 de
noviembre de 1952, y Castle Bravo, que liberó 15 megatones en el
atolón de Bikini el 28 de febrero de 1954.
El de 1953 fue un año intermedio de frenéticos preparativos. De
las once pruebas nucleares —que liberaron un total de 252 kilotones— realizadas en el Campo de Pruebas de Nevada en 1953, la
mayoría aspiraban no a tratar de producir explosiones grandes y espectaculares, sino a entender cómo podían adaptarse los efectos de
explosiones nucleares más modestas para desencadenar una reacción
termonuclear que diera lugar a una bomba de hidrógeno viable.
Ivy Mike, alimentada por 82 toneladas de deuterio líquido, refrigerado a -250 ºC en un tanque del tamaño de un vagón de ferrocarril, demostraba una prueba de concepto, mientras que Castle Bravo, alimentada por deuteruro de litio sólido, representaba un arma
desplegable que podría ser lanzada en cuestión de horas por un
B-52. Fue Von Neumann, a comienzos de 1953, quien hizo ver a la
fuerza aérea estadounidense que los cohetes se estaban volviendo
cada vez más grandes al tiempo que las bombas de hidrógeno se estaban volviendo cada vez más pequeñas. El siguiente paso sería el
lanzamiento en cuestión de minutos.
Los estadounidenses tenían bombas más pequeñas, pero los rusos
35
012-106879-La catedral de Turing.indd 35
23/09/13 13:54
LA CATEDRAL DE TuRING
tenían cohetes más grandes. Representando gráficamente el creciente
tamaño de los cohetes frente al decreciente tamaño de las ojivas, Von
Neumann mostró que la intersección de ambos, que se traducía en un
misil balístico intercontinental —una posibilidad a la que él se refería
como «armas nucleares en la que se espera que sea su forma más brutal»—, podía producirse antes en la Unión Soviética.11 La fuerza aérea,
a instancias de Trevor Gardner y Bernard Schriever, creó un Comité
de Evaluación de Misiles Estratégicos presidido por el propio Von
Neumann, y el programa Atlas ICBM (por las siglas en inglés de «misil
balístico intercontinental»), que había estado renqueando desde 1946,
empezó a despegar. El año 1953 fue el primero en el que se gastaron
más de un millón de dólares en el desarrollo de misiles teledirigidos por
parte de Estados Unidos. Sin embargo, por entonces «teledirigido» no
implicaba el nivel de precisión que hoy damos por sentado. «Una vez
lanzado, lo único que sabíamos era sobre qué ciudad iba a caer», respondió Von Neumann al vicepresidente estadounidense en 1955.12
Las simulaciones numéricas eran esenciales para el diseño de armas que fueran, en palabras de Oppenheimer, «singularmente inmunes a cualquier forma de planteamiento experimental».Cuando Nils
Barricelli llegó a Princeton, en 1953, acababa de completarse un
extenso cálculo termonuclear, y había otro en marcha. Por regla
general, el ordenador se ponía al servicio del grupo de Los Álamos,
dirigido por Foster y Cerda Evans, durante la noche. El 20 de marzo
se acordó que «durante la ejecución del problema de Evans no habría objeción alguna a utilizarlo un tiempo los sábados y domingos
en lugar de hacerlo desde la medianoche hasta las ocho de la mañana».13 Barricelli tuvo que dar origen a su universo numérico introduciéndolo con calzador entre cálculos de bombas, aprovechando
cualquier momento que quedara libre en las últimas horas de la noche y las primeras de la mañana.
La noche del 3 de marzo de 1953, cuando los organismos numéricos de Barricelli fueron liberados por primera vez en la jungla
computacional, Iósif Stalin se sumía en un coma en Moscú a consecuencia de una apoplejía. Moriría dos días después, cinco meses antes de poder presenciar la primera prueba de una bomba de hidrógeno soviética en Semipalatinsk. Nadie sabía quién o qué seguiría a
36
012-106879-La catedral de Turing.indd 36
23/09/13 13:54
1953
Stalin, pero Lavrenti Beria, el director de la policía secreta (NKVD)
y supervisor del programa de armas nucleares soviético, era su aparente heredero, y la Comisión de Energía Atómica de Estados Unidos optó por temerse lo peor. Después de que el «problema de simbiosis» de Barricelli se ejecutara sin contratiempos durante toda la
noche, la mañana del 4 de marzo aparece anotado en el registro de
actividad de la máquina: «Pasa a la onda expansiva»; más tarde, ese
mismo día, en el registro simplemente pone «pasa a», seguido de un
bosquejo a lápiz de una nube en forma de hongo.
El año 1953 marcó el alba de tres revoluciones tecnológicas: las
de las armas termonucleares, los ordenadores de programa almacenado y la dilucidación de cómo la vida almacena sus propias instrucciones como secuencias de ADN. El 2 de abril, James Watson y
Francis Crick enviaron un trabajo titulado «Estructura del ácido desoxirribonucleico» a la revista Nature, donde señalaban que la estructura de doble hélice «sugiere un posible mecanismo de copia del
material genético». Atisbaban ya la codificación de dos bits por cada
par de bases mediante la cual las células vivas leen, escriben, almacenan y reproducen información genética como secuencias de nucleótidos que identificamos como A, T, G y C: «Si la adenina constituye
un miembro de un par, en cualquiera de las cadenas, entonces, sobre
la base de tales presupuestos, el otro miembro debe ser la timina; y
lo mismo para la guanina y la citosina —explicaban—. Si solo pueden formarse determinados pares específicos de bases, se sigue que,
dada la secuencia de bases de una cadena, la secuencia de la otra
cadena resulta automáticamente determinada».14
El mecanismo de traducción entre secuencia y estructura en biología y el mecanismo de traducción entre secuencia y estructura en
tecnología parecían llevar caminos opuestos. Los organismos biológicos habían aprendido a sobrevivir en un ambiente ruidoso, analógico, repitiéndose a sí mismos, una vez por generación, a través de
una fase digital de corrección de errores, del mismo modo en que se
utilizan estaciones repetidoras para transportar mensajes inteligibles a
través de cables submarinos donde se introduce ruido. La transición
de lo digital una vez por generación a lo digital durante todo el
tiempo se inició en 1953.
37
012-106879-La catedral de Turing.indd 37
23/09/13 13:54
LA CATEDRAL DE TuRING
La carrera consistía en empezar a decodificar procesos vivientes
desde arriba. Pero al sembrar un universo digital vacío de instrucciones capaces de modificarse a sí mismas, dimos también los primeros
pasos hacia la codificación de procesos vivientes desde abajo. «El
mero hecho de que las condiciones especiales prevalecientes en este
planeta parezcan favorecer las formas de vida basadas en compuestos
organoquímicos, no es ninguna prueba de que no sea posible construir otras formas de vida sobre una base completamente distinta»,
explicó Barricelli.15 Así, al nuevo ordenador se le asignaron dos problemas: cómo destruir la vida tal como la conocemos y cómo crear
vida de formas desconocidas.
Lo que comenzó como una matriz aislada de 5 kilobytes se expande hoy a la velocidad de más de 2 billones de transistores por segundo (una medida del incremento del procesamiento) y de 5 billones de bits de capacidad de almacenamiento por segundo (una medida
del incremento del código).16 Sin embargo, seguimos afrontando las
mismas preguntas que se formularon en 1953. La pregunta de Turing
era qué haría falta para que las máquinas empezaran a pensar; la de
Von Neumann, qué haría falta para que empezaran a reproducirse.
Cuando el Instituto de Estudios Avanzados aceptó, pese a todas
las objeciones, permitir a Von Neumann y su grupo que construyera
un ordenador, la inquietud era que el refugio de los matemáticos se
viera perturbado por la presencia de los ingenieros. Nadie imaginaba
hasta qué punto, por el contrario, la lógica simbólica que había sido
el coto privado de los matemáticos desataría los poderes de las secuencias codificadas sobre el mundo. «Por entonces todos estábamos
tan ocupados haciendo lo que hacíamos que no pensamos demasiado
en esa enorme explosión que podía producirse», contó Willis Ware.
¿Fue dicha explosión un accidente o se provocó de manera deliberada? «Los militares querían ordenadores —explicó Harris Mayer, el
físico de Los Álamos que por entonces trabajaba tanto con John von
Neumann como con Edward Teller—. Los militares tenían la necesidad y tenían el dinero, pero no tenían el genio. Y Johnny Von
Neumann era el genio. En cuanto se dio cuenta de que necesitábamos un ordenador para hacer los cálculos de la bomba H, creo que
Johnny tuvo todo eso en mente.»17
012-106879-La catedral de Turing.indd 38
23/09/13 13:54
Descargar