Subido por tonysollyto

De Andres Argente Tirso - Homo Cybersapiens - La Inteligencia Artificial Y La Humana

Anuncio
INTRODUCCIÓN: VIENEN LOS ROBOTS
Capítulo 1
LAS MÁQUINAS RACIONALES
La teoría de las máquinas racionales
Los hijos de Turing
Educar expertos y enseñar a hablar
Construir cerebros
Capítulo 2
PODA DE SOLUCIONES
Teorema de Gödel: ¿Razonar es razonable?
Test de Turing: ¿Cómo igualar a las máquinas?
La habitación china de Searle: ¿Sabemos de qué hablamos?
El Síndrome de Optimismo Semántico
Capítulo 3
BÚSQUEDA SIN TÉRMINO
Pensamos que pensamos
Búsqueda sin término: la pregunta
Discurso de los métodos
Artesanía de las ideas
¿Cuánta realidad atrapa una idea?
Capítulo 4
TRABAJAR EL MUNDO
Crear mundos: La novedad
Ideas para malentender la libertad
Libertad de acción: ¿qué es eso?
Termodinámica del animal humano
Ecología inteligente
Capítulo 5
FORJA DEL CYBERSAPIENS
Conócete a ti mismo
¿Espontaneidad?: no, gracias
Cibernética del animal humano: el Cybersapiens
Cuando el Homo Habilis urdió hacerse Sapiens
Salir del autismo
CONCLUSIÓN: VIVIR INTELIGENTEMENTE
Homo Cybersapiens
La inteligencia artificial y la humana
Tirso de Andrés Argente
Primera edición: Mayo 2002
© 2002: Tirso de Andrés Argente
Ediciones Universidad de Navarra, S.A. (EUNSA)
Plaza de los Sauces, 1 y 2. 31010 Barañáin (Navarra) - España
Teléfono: +34 948 25 68 50 - Fax: 34 948 25 68 54
e-mail: [email protected]
ISBN: 84-313-1982-8
Depósito legal: NA 1.276-2002
Diseño de la cubierta: Stock Photos. C/B Productions
Composición: PRETEXTO. Pamplona
Imprime: GRÁFICAS ALZATE, S.L.
Pol. Ipertegui II. Orcoyen (Navarra)
Printed in Spain - Impreso en España
"El ser que posee la razón y que, de una parte, la obedece; y, de otra, la
domina y la piensa".
(Aristóteles, Ética a Nicómaco, lib. I, cap. 7).
INTRODUCCIÓN: VIENEN LOS ROBOTS
De acuerdo con un criterio biológico, el hombre es un animal superior. Más
exactamente, es un vertebrado, mamífero, placentario, primate, cuya característica más
destacada puede ser el gran desarrollo del neoencéfalo. Su origen, el de la especie
Homo sapiens sapiens, cada vez puede establecerse con más precisión. Desde que
surgió, la especie humana se ha extendido por la práctica totalidad del planeta,
colonizando los rincones más insospechados. Todo el globo parece ser su posible
hábitat.
Según otros puntos de vista se ha definido al hombre como bípedo implume,
mono desnudo, caña pensante, imposible metafísico, pasión inútil, necedad atareada,
ser de fronteras, animal perverso, un espíritu en el mundo, cisma evolutivo, soledad
incomunicable, animal capaz de prometer, elemento anónimo de una estructura,
ordenador superprogramado, error cósmico... En el fondo sigue siendo un desconocido.
Clásicamente la primera diferencia fundamental entre el hombre y el resto de los
animales se ha cifrado en su inteligencia, de manera que por ella se definía al hombre:
era un animal racional. La racionalidad, hasta ahora, parecía un refugio seguro para
señalar la diferencia y la supremacía del hombre. Sin embargo, los últimos tiempos han
visto esta ciudadela atacada, al surgir la denominada Inteligencia Artificial. No faltan
voces abundantes que señalan que el oficio de pensar ya no es exclusivo de los
humanos.
La pregunta: ¿piensan los ordenadores?, cada día resulta menos una lejana
interrogación teórica, y más una cercana y vital cuestión práctica. Ya no se trata de
discusiones hipotéticas, como en la cuestión que el matemático Euler se propusiera
dilucidar en el siglo XVIII[1]. En muchos laboratorios, y en algunas aplicaciones técnicas
muy desarrolladas, los ordenadores están realizando cosas extraordinariamente
cercanas a las que el hombre es capaz de hacer, y de una manera muy semejante. La
pregunta sobre si cabe llamar pensamiento a lo que hace el ordenador no se plantea en
cerrados cenáculos filosóficos, sino que está al orden del día en publicaciones
especializadas o en otras de gran difusión, incluso en los medios de comunicación de
masas, también en el cine. Igualmente sucede con la cuestión acerca de qué significa
pensar en el caso del hombre, y qué similitudes y diferencias existen entre lo que hace el
hombre y lo que hacen algunos ordenadores.
Esas cuestiones son fáciles de resolver con los ordenadores cuyo uso está más
difundido, pues no dejan de ser máquinas muy rápidas, pero también bastante «tontas».
Sin embargo, no es nada fácil llegar a una conclusión tan clara en el caso de algunas
realizaciones especializadas existentes; más aún si se consideran las posibilidades por
desarrollar de las que parecen capaces. Los esfuerzos del hombre por fabricar máquinas
que imiten su propia forma de pensar han alcanzado unos éxitos que parecían
inconcebibles. Hasta tal punto es así, que existe una fuerte corriente de investigadores
que consideran inexistente la diferencia entre la mente humana y la Inteligencia
Artificial. Sostienen, en síntesis, que las máquinas piensan, de modo pleno y con todas
sus consecuencias. Este numeroso grupo -denominado partidario de la Inteligencia
Artificial fuerte- no carece de argumentos de peso. Estos autores tienen bastantes
realizaciones prácticas que mostrar, que son las mejores razones y las más insoslayables.
Si hubiera de creer a los medios de comunicación, la victoria definitiva de la
máquina pensante sobre el hombre se ha dado ya, fue a finales del pasado milenio, en
mayo de 1997. Ese mes el mundo entero pudo enterarse de que una máquina
denominada Deep Blue había vencido en torneo a Kasparov, entonces campeón del
mundo de ajedrez. El resultado (3,5 para Deep Blue; 2,5 para Kasparov) consumaba la
victoria de la rápida inteligencia electrónica, frente a la inimaginable cantidad de lentas
neuronas humanas. Los comentarios fueron abundantes y variados. La publicidad para
la empresa de informática que hizo la máquina también fue grande.
Al margen de montajes publicitarios, lo cierto es que la abundancia de resultados
constituye el mejor argumento de los que igualan la Inteligencia Artificial a la humana.
Los frutos que rinde la investigación se multiplican y abarcan un número cada vez
mayor de operaciones consideradas inteligentes, exclusivas y propias del hombre hasta
el momento. Por ello se ha podido escribir: "En todas las frases del tipo «es imposible
que un autómata lleve a cabo X», se puede sustituir la palabra «autómata» por la
palabra «hombre». Hasta ahora la búsqueda de la superioridad experimental
psicológica del hombre por encima de las posibilidades que tienen en principio los
autómatas no ha dado resultado. Por tanto, aún no se ha conseguido encontrar alguna
función que el hombre pueda realizar pero que no pueda realizar un autómata
suficientemente complicado"[2].
He de avisar que, en gran parte, estoy de acuerdo con la anterior afirmación: son
muchas las operaciones que hasta ahora atribuíamos en exclusiva a nuestra inteligencia
que las máquinas son capaces de hacer. Por lo tanto, no trataré de negarlo, para hacer
una inoperante defensa de la inteligencia humana. Habrá que ver si hacemos alguna
operación que podamos llamar inteligente, como algo exclusivo del Homo sapiens
sapiens. Puede que incluso nos sirva para aprender la mejor forma de llegar a ser
verdaderamente inteligentes, si ello es posible. Pero sigamos.
Los resultados obtenidos en Inteligencia Artificial, con ser abundantes, no
constituyen sin embargo lo principal. Más importantes que los productos son los
sueños: las expectativas, esperanzas e ilusiones que despierta. Mueven más las utopías
que los hechos. Con la Informática y la Inteligencia Artificial hay todo un continente
recién descubierto; una tierra virgen por hollar. Se avizoran panoramas inmensos, en
los que hay que abrir los nuevos caminos. Con la informática, y las máquinas racionales,
comienza una nueva revolución industrial, que cambiará nuestra forma de vivir, de
estar en el mundo. Surgen quimeras, criaturas nunca vistas que habitan las nuevas
tierras. Renace el espíritu del pionero, del conquistador, en un nuevo mundo que
estamos inventando. Es la nueva frontera.
Es tal el entusiasmo que suscita en muchos la Inteligencia Artificial, que se
discute seriamente si los artefactos que poseen propiedades inteligentes antes atribuidas
al hombre deben ser considerados personas o no, con tratamiento y derechos
equivalentes. También se ha propuesto considerar a las máquinas racionales como una
suerte de hermanos[3] que hemos fabricado, o incluso como hijos mentales[4]. "Son
criaturas nuestras, son mejores que nosotros, con mayores cualidades y menos
limitaciones; son la siguiente etapa de la imparable evolución de la vida en la tierra".
Esta afirmación no extrañaría si la escribiera uno de esos entusiastas divulgadores de
los avances informáticos, que rondan la ciencia-ficción en lo que escriben, borrachos de
euforia[5]. Adquiere más peso si la expresa uno de los pilares de la Inteligencia Artificial,
Marvin Minsky, que durante muchos años ha sido el gran promotor de la investigación
informática en el MIT (Massachusetts Institute of Technology), y ha decidido el destino
de muchos de los millones de dólares dedicados a investigar en este campo. Vale la
pena transcribir el resto de sus palabras: "¿Serán los robots los herederos de la Tierra?
Sí, pero serán hijos nuestros. Debemos nuestras mentes a las muertes y a las vidas de
todas las criaturas que han participado en la lucha que llamamos evolución. Nuestra
tarea consiste en velar para que todo ese trabajo no acabe en puro desperdicio sin
sentido"[6].
A bote pronto, estas afirmaciones pueden parecer exageradas; lo más sensato
quizá sea rechazarlas sin más consideraciones. Sin embargo, el problema sigue
consistiendo en ver si tienen base firme sobre la que apoyarse; y el caso es que la
poseen. Insisto en que las realizaciones de la Informática y de la Inteligencia Artificial
son notables. De ninguna manera pueden ser ignoradas. Por eso me parece que no es un
problema -el de si las máquinas piensan- que quepa resolver de un plumazo con la
simple negativa. No cabe tampoco un planteamiento superficial y como de pasada, que
concluya asimismo por negar el pensamiento a las máquinas. Ciertamente, esta postura
brindaría la solución más fácil y cómoda para salvaguardar la singularidad humana -la
racionalidad- que las máquinas amenazan. Sin embargo, tiene el inconveniente de ser
una solución falsa, de las que acaban produciendo dos bandos enfrentados de forma
más o menos visceral. El problema no se resuelve, la pregunta queda sin respuesta, y
sólo quedan dos posturas radicalmente contrapuestas en un continuo diálogo de
sordos.
Tampoco me parece de recibo dirimir la cuestión señalando las deficiencias de la
Inteligencia Artificial: el problema no se plantea por las deficiencias, sino por los logros.
También hay hombres que muestran deficiencias de pensamiento, pero no por ello
afirmo que no piensan en absoluto, o que no son humanos. Insisto en que el problema
viene por lo que hacen las máquinas, no por sus limitaciones. Permítase mostrarlo con
una comparación: la esencia del razonamiento consiste en decir que el avión de los
hermanos Wright no vuela en realidad, o no lo hace en sentido propio, porque vuela
poco y mal, sin la facilidad de los pájaros. Pero el problema no está en considerar si las
limitaciones del aparato que voló en la playa de Kitty Hawk eran más o menos grandes,
sino en si efectivamente voló. Y el fondo del asunto consiste precisamente en averiguar
si se puede llamar o no volar a lo que en efecto hizo; porque si lo hizo, nada importa
que lo hiciese con más o menos habilidad, aparte de que siempre es posible mejorarlo
una vez que ya se sabe hacer. De manera semejante, no basta con decir que las
máquinas piensan poco y mal, si lo que se está tratando de averiguar con exactitud es si
piensan o no en absoluto.
Es bien cierto que muchos de los resultados de la investigación en Inteligencia
Artificial muestran limitaciones evidentes. Resulta muy claro que la capacidad de los
ordenadores para imitar el comportamiento inteligente del hombre tiene notables
lagunas. Sin embargo no es menos cierto que, con todas esas limitaciones, los
ordenadores están consiguiendo paulatinamente realizar cada vez más tipos de
operaciones que hasta hace muy poco se consideraban propias del animal racional que
es el hombre. Además, las deficiencias cada vez se van reduciendo y el avance se realiza
con progresiva rapidez en numerosos ámbitos. Por ello aquí tampoco insistiré en las
evidentes lagunas, ya que correría el riesgo de verlas, en muchos casos, prontamente
rellenadas.
Otra postura que me parece insuficiente es responder que la cuestión de si la
Inteligencia Artificial es o no pensamiento resulta demasiado teórica. El tiempo se debe
gastar en obtener aplicaciones prácticas de interés económico. Es una forma de plantear
el tema a veces corriente entre los que se dedican a desarrollar aplicaciones prácticas de
Inteligencia Artificial, y ven muy de cerca las limitaciones de los productos que de
hecho alcanzan el mercado. Responde a una mentalidad pragmática, que no entra al
fondo de la cuestión: se evita indicando que será muy difícil alcanzar la complejidad del
cerebro. En el fondo no se niegan las afirmaciones de los partidarios de la Inteligencia
Artificial fuerte, sólo se ve una diferencia cuantitativa, de complejidad y número mucho
mayor de neuronas y conexiones en el cerebro. No consideran, sin embargo, que pueda
existir también una diferencia cualitativa más fundamental. En cualquier caso evitan el
planteamiento radical del problema, quizá por considerarlo poco práctico.
Por último, también considero precipitada la respuesta de los que se limitan a
señalar que los ordenadores sólo hacen lo que el hombre ha puesto en ellos, mediante
los programas. No son, por tanto, inteligentes por si mismos. Sería equivalente a decir
que un niño no es inteligente, porque sólo sabe las matemáticas que se le han enseñado;
o porque no ha generado ningún conocimiento de los que tiene en su cabeza, porque
todos los ha recibido en la «programación» que se le ha dado en la escuela. Con ese
criterio únicamente llegarían a ser considerados inteligentes los que generan
conocimientos nuevos. Alguien muy estricto quizá limitaría la lista de personas
inteligentes a la de los Premios Nobel o algo semejante. En el fondo, la cuestión de la
inteligencia no es esa. Decimos más bien que, porque un niño es inteligente, puede
llegar a saber matemáticas, si se le enseñan. Eso no sucede con una lechuga, ni con un
chimpancé. Si podemos conseguir de un ordenador que haga matemáticas, habrá que
concluir que es inteligente[7].
La postura que aquí adoptaré es diferente de las expuestas. Más bien considero
que, con palabras ajenas, "tal vez la única forma verdaderamente racional, y coherente
con la dimensión intelectual del hombre, de llegar a establecer esas diferencias entre
persona y máquina sea la de llevar al límite esas indagaciones"[8]. En estas páginas se
pretende entrar en la polémica, para ver si aún se puede decir que hay algo propio del
hombre respecto de lo que llamamos pensar. A la vez se intentará establecer qué sea
ello, si existe.
El problema es serio y hay que plantearlo como tal, con toda la carga que tiene y
llegando a las últimas consecuencias. Si resulta que no soy muy diferente de una
máquina, habrá que pechar con ello. Ahora bien, si resulta que soy distinto, saber con
exactitud en qué consiste la diferencia será una ayuda enorme para averiguar qué es el
pensamiento y, como consecuencia, qué es el hombre. No basta una afirmación genérica
del tipo: Yo no soy una máquina, estoy vivo y soy persona. Hay que aclarar con
precisión lo que es el hombre, es decir, lo que somos cada uno. Sólo así, de camino,
podremos saber nuestro papel en el universo: conociendo con exactitud nuestros
talentos y posibilidades, de las que resultan nuestras tareas y responsabilidades. La
cuestión se abordará aquí sólo en lo que a la inteligencia se refiere.
Enfrentar la tarea compensa sobradamente, porque estoy convencido -y sirva de
advertencia al lector sobre mi propósito- de una verdad que diré con palabras de
Marina: "Las ciencias más activas -la física, la neurología, las ciencias de la computación
y de la inteligencia artificial, la lingüística- están proporcionando datos para construir
una nueva teoría de la inteligencia creadora, que será, al mismo tiempo, una pedagogía
de la creación, es decir, del modo humano de ser libre"[9].
Hay que intentarlo, aunque no sea una labor fácil. Porque todavía son ciertas las
palabras con que Ionesco comenzó su diario: "No todo es inexpresable con palabras,
sólo la verdad viviente".
Queda una ultima advertencia de interés para la navegación por el libro: el
primer capítulo se dirige a aquellos que conocen menos los avances en Inteligencia
Artificial. Para tener una idea aproximada de lo que estos hallazgos han supuesto, junto
con los problemas teóricos a los que han dado lugar al hablar del pensamiento humano,
conviene empezar con una breve relación histórica. No tiene pretensiones de ser
exhaustiva, ni siquiera rigurosa; sólo intenta trazar un esbozo que pueda servir como
entramado básico de referencia para la exposición posterior. A la hora de relatar los
hallazgos de la Inteligencia Artificial, he de avisar que procuraré más bien exagerar su
alcance, que disminuirlo. Esto con un doble propósito: en primer lugar, para no quedar
anticuado antes de tiempo, ya que los progresos son continuos. En segundo lugar, y es
algo que tiene más interés, para que, si encuentro algo que es propio y singular del
pensamiento humano, la diferencia no sea cuantitativa, sino claramente cualitativa
respecto de lo que hacen las máquinas.
Capítulo 1
LAS MÁQUINAS RACIONALES
La teoría de las máquinas racionales
Durante siglos las máquinas racionales[10] sólo fueron raras ensoñaciones y
leyendas sobre artesanos fabulosos capaces de hacer artilugios semejantes a hombres.
Rastreando en el pasado reciente, la historia de los intentos para simular el
comportamiento humano puede remontarse hasta los autómatas que tanto se
popularizaron en el Siglo de las Luces, en pleno fervor por la ciencia mecánica, que
crecía en una adolescencia espléndida de promesas. A mitad del siglo XVIII, La
Mettrìe[11] generalizó para el hombre la tesis que Descartes había defendido para los
animales: del «animal-máquina» cartesiano pasó a hablar del «hombre-máquina». Los
ingeniosos mecanismos que imitaban a los animales o al hombre se sucedieron como
una continua exhibición de habilidad mecánica, no exenta de arte. Sin embargo, a pesar
del derroche de tiempo y talento, aquellas simulaciones mecánicas no alcanzaban ni de
lejos un verdadero comportamiento humano.
Descartes no confiaba en los resultados que se pudieran obtener con aquella
camada de extrañas hijas de sus ideas: "Es posible concebir que una máquina esté hecha
de tal forma que profiera palabras, e incluso que profiera algunas a propósito de
acciones corporales que causaran cierto cambio en sus órganos: como si, tocándole en
una parte, preguntase lo que se le quiere decir, y si en otra, gritase que se le hace daño,
y cosas semejantes; pero no que sea capaz de ordenar de forma diversa las palabras,
para responder con sentido a todo lo que se diga en su presencia, como pueden hacerlo
los hombres más estúpidos"[12].
No obstante, aquellos ingeniosos mecanismos sirvieron para algo. Un famoso
constructor de autómatas, Jaques de Vaucanson, inventó las tarjetas perforadas, con
agujeros dispuestos de diferentes formas. Era un buen sistema para conseguir que los
mecanismos siguieran comportamientos variados, según se modificasen las
perforaciones en las tarjetas de control. Su idea fue aplicada con éxito por Jacquard a los
telares, que podían introducir así distintos dibujos en las telas. El sistema de las tarjetas
sirvió en la primera época de la informática para suministrar los datos y programas a
los ordenadores. En los años sesenta y primeros setenta, del siglo XX, los montones
inmensos de tarjetas perforadas constituían la señal distintiva del clan de los
informáticos.
Mucho más se consiguió trabajando para construir máquinas con capacidad de
cálculo. En esta dirección las realizaciones más elaboradas correspondieron a las
máquinas de cálculo de Babagge, que había seguido la senda abierta por la calculadora
mecánica de Pascal. Eran resultados escasos y muy iniciales, pero tangibles. La
calculadora de Pascal sólo podía sumar y restar. Leibniz la perfeccionó hasta conseguir
que también pudiera multiplicar y dividir. Con Babagge la complejidad de cálculos
accesibles a la máquina era mucho mayor, diseñó primero una Máquina Diferencial y,
luego, una Máquina Analítica. Los principios que utilizó eran correctos, pero al no
alcanzar totalmente sus objetivos por dificultades técnicas, y llevado de su carácter
colérico, destruyó lo que había conseguido hacer parcialmente. Hubo que esperar al
advenimiento de la electrónica para llegar a la meta hacia la que dio tan vigorosos
pasos.
Otra línea en la que se hicieron intentos iba encaminada a simular
matemáticamente el comportamiento humano inteligente. Más concretamente, se
buscaba la automatización del razonamiento en general y, en particular, del
razonamiento demostrativo y lógico, que parecía la mayor muestra de lo que era dable
llamar inteligencia. Nadie parece más inteligente que un lógico o un matemático
sumido en sus abstracciones.
La automatización del razonamiento había sido el sueño del mallorquín
Raimundo Lulio[13]; notable personaje, incapaz de plantearse nada a medias. Dentro de
un estricto logicismo, se propuso reducir todos los pensamientos, ideas y
razonamientos de la inteligencia humana, a expresiones lógico-matemáticas. Para
conseguir es meta inventó una compleja maquinaria conceptual que integraba alfabetos,
figuras, tablas, reglas, combinaciones, etc. Con ello pretendía obtener una lengua
universalmente válida para todos los hombres, que nos permitiera entendernos con
total precisión. Sus ideas dejaron un influjo persistente; en parte han sido reeditadas con
los actuales intentos de formar una lengua universal[14].
Más tarde será Descartes el que, considerando a las matemáticas como ciencia
primera, buscará una mathesis universalis que se pudiera aplicar a todo tipo de
conocimientos, de manera que el pensamiento fuera más exacto y preciso[15]. Leibniz
también participó con su propio proyecto en el desarrollo de las ideas de Lulio: ambos
imaginaron una especie de lengua en la que se podrían decir, y deducir, todas las
verdades al modo de las matemáticas. Leibniz intentó elaborar una lingua sive
characteristica universalis, que sirviera para todas las ciencias, también para la
metafísica o la ética. Partía de la consideración de que todo lenguaje es un sistema de
signos, que puede y debe ser formalizado, de manera que se alcance una lengua
universal precisa. Con ella se podría sustituir el genérico: «dialoguemos», por un más
exacto: «calculemos»[16]. Las discusiones no serían así disputas controvertidas de
dudoso desarrollo y final inconcluyente, sino formas de cálculo que establecieran la
mayor o menor verdad de una proposición. Su programa fue redescubierto a comienzos
del siglo XX por Couturat[17] y Russell[18], vía por la que ha influido en el desarrollo
contemporáneo de la lógica y en la teoría del lenguaje. Por ese camino llega también su
influjo a la informática y a las ciencias cognitivas actuales. Sin embargo los proyectos de
Lulio, Descartes o Leibniz no pasaron de ser ambiciosas declaraciones de intenciones,
con resultados escasos.
Fue en Inglaterra, cuna de las sutilezas lógicas a las que andando el tiempo llegó
el nominalismo, donde se dieron los mayores pasos para matematizar el razonamiento
lógico, abriendo un camino que sería transitado por la informática. Estaba allí muy
extendida una opinión que, con palabras de Hobbes, afirma: "Cuando un hombre
razona, no hace otra cosa sino concebir una suma total, por adición de partes. Porque
razón (...) no es sino cómputo"[19]. Siguiendo esta convicción, Boole publicó dos trabajos
(sobre Análisis matemático de la Lógica y acerca de Las leyes del pensamiento[20]), que
entonces pasaron bastante desapercibidos, en los que ponía las bases para desarrollar
un álgebra de la lógica. Con el tiempo su importancia no ha hecho más que agigantarse.
La idea de partida era sencilla: sea cual sea el tipo de razonamiento y por muy
complejo que resulte, concluye en una proposición que, o bien es verdadera, o bien es
falsa; no hay más posibilidades. Se trata de analizar los distintos tipos de razonamientos
para reducirlos a elementos simples, de cuya combinación salgan todos lo demás.
Consiguió este propósito, y pudo así elaborar una suerte de cálculo lógico o racional
combinando elementos básicos. Al dotar a la lógica de los símbolos y leyes del álgebra,
mostró también la profunda relación existente entre lógica, matemática y filosofía. A él
debemos la expresión binaria sencilla (con dos valores posibles en las tablas de verdad)
de los razonamientos lógicos, que han permitido la lógica de los ordenadores digitales,
basada en también tablas de verdad binarias, en "1" y "0" (verdadero o falso).
A comienzos del siglo XX, cuando se emprendieron los trabajos de
fundamentación de las matemáticas, la obra de Boole sería continuada por Church y
Turing, que consiguen conectar la lógica con las teorías de la computabilidad. Church lo
hace mediante el Cálculo Lambda[21], formulación que permite reducir toda
demostración a una forma común única. Con ello la demostración de teoremas lógicomatemáticos se reduce a transformar una cadena de símbolos en otra, siguiendo
determinadas reglas formales. El Cálculo Lambda es farragoso de utilizar y poco útil,
pero tiene la cualidad de haber formalizado la abstracción (la famosa lambda). El asunto
es asombroso: los razonamientos lógicos se pueden efectivamente calcular.
Turing, por su parte, diseña una Máquina Universal para resolver en un marco
binario cualquier problema algorítmico[22]; es decir, cualquier problema para el que se
pueda encontrar solución mediante un procedimiento. Una Máquina de Turing es
sencilla y bastante "tonta", pero es incansable, persistente. Aplica con paciencia una
serie de operaciones lógicas sencillas, tan larga como se quiera, a un montón de
símbolos y datos, todo lo enorme que se desee. Con tiempo suficiente, si hay un
procedimiento para resolver el problema, lo resolverá sin lugar a dudas. Turing inventa
una clase de máquinas lógicas capaces de plantar cara, si se les deja ir a su paso, a
cualquier solucionador de problemas, por muy bueno que sea. Son comparables a esas
personas particularmente poco dotadas, que requieren entender y estudiar las cosas
paso a paso, pero que tienen una tenacidad admirable. Consiguen llegar a base de
esfuerzo donde otros llegan con más facilidad y menos mérito. La Máquina Universal
de Turing goza de una propiedad notable: si alguien es capaz de definir con toda
exactitud qué es lo que la máquina no puede hacer, entonces ella podrá hacerlo
exactamente[23].
El mismo Turing, sin embargo, puso de manifiesto una de las mayores
limitaciones de tan industriosas máquinas: no hay manera de saber cuándo van a parar
de trabajar porque han dado con la solución. Es decir, no existe ningún procedimiento algoritmo- que permita saber si van a tardar mucho o poco en resolver un problema [24].
La cuestión no es baladí: imaginemos que se ha encontrado una forma de resolver algún
grave problema ecológico planetario, y que confiamos a una infalible máquina de
Turing calcular la solución. No hay forma de saber si la máquina nos dará la solución a
tiempo de aplicarla; o si los milenios venideros contemplarán la pavorosa y ridícula
imagen de una tonta máquina que ofrece la solución a nadie, a los fósiles de todos los
seres vivos que perecieron porque no se aplicó remedio a tiempo.
A pesar de sus limitaciones, la Máquina de Turing contiene el esquema teórico de
los actuales ordenadores, que almacenan por un lado los datos y, por otro, el programa
de instrucciones para manejarlos. De hecho, los ordenadores actuales son Máquinas de
Turing de memoria limitada. A Turing se debe la idea moderna de la programación,
como un conjunto de instrucciones lógicas para manejar símbolos, con independencia
del artilugio que las aplique. Sobre esa base teórica surgiría la actual distinción práctica
entre hardware y software. Por ejemplo, en un ordenador personal, el hardware
designa al conjunto de dispositivos físicos que constituyen al ordenador como objeto
material complejo: caja, monitor, teclado, circuitos de memoria, unidad central de
proceso, reloj, pila, dispositivos de almacenamiento, etc. Los modelos son muchos y
tienen características físicas y precios muy distintos. El software designa a los
programas, que se compran aparte y sirven para todos los ordenadores personales del
mismo tipo, mediante los cuales aquellos dispositivos físicos realizarán determinadas
operaciones, distintas para los diferentes programas. Los programas funcionan igual
con ordenadores que físicamente tienen componentes distintos, puede que vayan más
lentos o más rápidos, pero llegan a los mismos resultados. Algunos han querido ver en
la distinción entre software y hardware la solución al problema de la relación entre
mente y cuerpo, tan clásico de la filosofía posterior a Descartes. Adelanto que no me
parece que sea así; en cualquier caso utilizaré con profusión estas dos palabras inglesas,
bastante intraducibles al castellano, a lo largo del libro.
Turing fue un hombre genial, que ocupa un puesto clave en el desarrollo teórico
de los ordenadores actuales, al conseguir una definición precisa de lo que es un
algoritmo. También tiene un lugar privilegiado en la construcción práctica del primer
ordenador propiamente dicho: el Mark 1. Church y Turing, al transformar tanto los
números como las instrucciones para manejarlos en sucesiones de símbolos, abrieron el
camino teórico para los ordenadores como máquinas que procesan símbolos y dejan su
interpretación a cargo del usuario de la máquina.
Estas ideas teóricas fueron prolongadas por un trabajo de enorme trascendencia
práctica: el análisis lógico de los circuitos eléctricos que llevó a cabo Shannon[25]. En él
consideraba la capacidad de los circuitos para actuar como «puertas lógicas» con
valores binarios equivalentes a los del álgebra lógica de Boole. También consiguió
diseñar dichas puertas lógicas: circuitos que realizan cada una de las operaciones
lógicas elementales de Boole. Al unir la lógica a la electrónica, se puede decir que dio
poderes racionales a los circuitos, pues con ellos se podían hacer operaciones lógicas.
Mostró el camino para diseñar y simplificar los circuitos; asimismo puso de manifiesto
que las computadoras habrían de concebirse más como máquinas lógicas que como
calculadoras aritméticas. De este modo se pusieron las bases teóricas de los
ordenadores; otra historia fue construirlos.
Los hijos de Turing
Tanto la fabricación de autómatas y máquinas de cálculo, como la
automatización del razonamiento, habrían quedado sólo en sueños de no haber llegado
el ordenador electrónico. Inmediatamente después de la Segunda Guerra Mundial el
desarrollo tecnológico hizo posible que aquellas ensoñaciones pudieran llegar a
materializarse, de forma que las máquinas comenzaron a acceder a tareas cada vez más
complejas, reservadas hasta ese momento para el hombre. En esos años confluyeron
diversos elementos a partir de los cuales se acabarían constituyendo varias ciencias
nuevas, como la Informática, la Cibernética, la Automatización y la Robótica, la Ciencia
de la Comunicación, etc. Estos nuevos aspectos del saber humano, con todas las
realizaciones prácticas a las que han ido dando lugar, han configurado lo que ya se
suele llamar «revolución informática»[26]. Veamos los personajes y los acontecimientos
centrales.
Conviene citar en primer lugar a Wiener y a la Cibernética. Más que por los
resultados prácticos, por lo que tuvo de cambio de mentalidad. Está en el inicio de un
nuevo paradigma lleno de originales conceptos: realimentación, control, sistemas
autoorganizados, automática, etc. La primera Revolución Industrial se hizo sobre los
conceptos de energía y potencia, se buscaba domesticar la fuerza bruta: los motores y
máquinas. Ahora se pone el acento en la información, en los sistemas acoplados al
mundo exterior al que ajustan su actuación, adaptándose a situaciones variadas y a los
cambios externos[27].
En segundo lugar hay que referirse al nacimiento de los ordenadores. En el año
1996 se ha celebrado a bombo y platillo el 50 aniversario de estas útiles máquinas.
Algunos habrían preferido el año 1998[28]. La razón es la siguiente: en 1946 se puso en
funcionamiento el ENIAC, máquina mastodóntica (constaba de 17.468 tubos de vacío,
como las lámparas de las grandes radios anteriores al transistor) y bastante torpe. Pero
tuvo la suerte de nacer en los Estados Unidos, en la Universidad de Aberdeen. Muchos
no lo consideran propiamente un ordenador, sino una calculadora, porque no podía ser
programada. Sólo hacía cálculos; sus descendientes son las actuales calculadoras de
bolsillo.
El año 1948 asistió al alumbramiento de otra máquina, esta vez en la Universidad
de Manchester: el Mark 1, que culminaba una serie de trabajos iniciados durante la
Segunda Guerra Mundial. No asistió tanta prensa, y la puesta en marcha fue más
discreta. Sin embargo la criatura ya no era una simple calculadora: era un ordenador,
muy limitado, pero con todas las características de los actuales, que son sus sucesores.
En el equipo que lo promovió estaba Turing. El diseño práctico fue de otro genio: Von
Neumann[29]. Supo plasmar de una manera práctica las ideas de Turing sobre una
máquina de manejar símbolos, con circuitos diseñados para hacer operaciones lógicas,
no cálculos numéricos.
Con lo anterior no quiero entrar en la polémica histórica de cual sea el primer
ordenador, ni discutir de fechas y protagonistas. Sólo deseo llamar la atención sobre
este punto: los ordenadores actuales más difundidos, los denominados de «arquitectura
tipo Von Neumann» como el que estoy utilizando para escribir ahora, tienen un
procesador dotado para hacer operaciones lógicas y manejar símbolos, no para calcular
números. Como sucede que los números también son símbolos y las operaciones
aritméticas se pueden simular con operadores lógicos, el procesador también puede
«simular» cálculos numéricos. En la mayor parte de las aplicaciones y programas esos
cálculos no son muy abundantes, por lo que basta con la simulación. Cuando hay que
hacer muchos cálculos y la velocidad resulta imprescindible, no basta que el procesador
imite a una calculadora, por su lentitud. Lo que se hace es ayudar al procesador lógico
mediante otro de tipo diferente, diseñado como una calculadora y no como un
razonador lógico, llamado coprocesador matemático. Éste se encarga de los cálculos con
números, es decir, de las operaciones de coma flotante. Los últimos procesadores suelen
incluir en su abundante circuitería el coprocesador matemático.
Esta anotación me parece necesaria, porque los pioneros de los ordenadores
pensaban en términos de lógica, de razonamientos hechos por una máquina que
realizaba operaciones lógicas, mediante circuitos que eran puertas lógicas de Boole. Es
comprensible entonces el tempranísimo salto que se dio entre lo que hacían los
ordenadores y lo que hace la inteligencia humana. Poner en el mismo plano ambas
actividades no sólo se le ocurrió a Turing, también Von Neumann pretendía con su
trabajo imitar lo que hace la inteligencia humana cuando razona. Es decir, cuando hace
lo que en la tradición de la cultura occidental llamamos propiamente pensar, o pensar
en serio, lógica y racionalmente. La comparación entre la inteligencia humana y los
ordenadores surge en el mismo origen de estos últimos: por eso se llegaron a construir,
intentando imitar el modo de pensar de los humanos cuando somos lógicos y
racionales.
Así se entiende que el término «Inteligencia Artificial» se acuñase muy pronto, y
la polémica sobre la existencia o no de inteligencia en las Máquinas Pensantes surgiera
con fuerza desde principios de los años cincuenta, con los primeros ordenadores.
En aquellos años los ordenadores eran unos raros aparatos que ocupaban
enormes habitaciones y requerían cuidados de enfermo grave. Venían llenos de
promesas, pero resultaban poco prácticos. Se extendieron por los campus universitarios,
rodeados de entusiastas que exploraban el nuevo mundo. Una de las áreas de
experimentación consistía en hacer que los ordenadores realizasen tareas equivalentes a
las de la inteligencia humana. Al principio estos intentos no tenían ni siquiera nombre,
pero se estaba gestando algo nuevo, que no tardaría en salir a la luz con nombre propio.
La ocasión fue el verano de 1956. Con el patrocinio de la Fundación Rockefeller
se reunió, en el Dartmouth College (Hanover, New Hampshire), un grupo de jóvenes
investigadores procedentes de disciplinas diversas, que trabajaban con los recién
creados ordenadores[30]. Tenían en común una hipótesis de trabajo: si se consigue
describir con precisión, en todos sus pasos, una operación cualquiera que realice la
inteligencia humana, entonces será posible construir una máquina que también la lleve
a cabo. El promotor de la reunión, McCarthy, que luego inventaría el lenguaje de
programación Lisp (de List Processing) hoy convertido en idioma común de la
Inteligencia Artificial, acuñó el nombre con el que se conocería la nueva disciplina:
Inteligencia Artificial. Otro de los participantes, Minsky, propuso una definición que
se ha popularizado: "Inteligencia Artificial es el arte de construir máquinas capaces de
hacer cosas que requerirían inteligencia si las hicieran los seres humanos"[31].
Allí también se presentó uno de los primeros resultados, y de los más
espectaculares, de la Inteligencia Artificial. Fue el programa Logic Theorist (Teórico de
la Lógica) que expusieron Newell y Simon. El programa era capaz de demostrar cierta
clase de teoremas de una de las obras cumbres del pensamiento de este siglo en el
ámbito de la lógica: los Principia Mathematica de Russell y Whitehead[32]. Es más,
consiguió encontrar una demostración más breve y sencilla para uno de los teoremas.
Es comprensible que, con un éxito así entre las manos, el entusiasmo de los
autores por las posibilidades de los ordenadores para igualar a la inteligencia humana
no tuviera límites. Para Newell y Simon estaba claro que las máquinas "piensan,
aprenden y crean"; o que "la intuición, la comprensión y el aprendizaje ya no son
propiedades exclusivas de los seres humanos"[33]. Uno de ellos, Simon, profetizó en
1965: "Dentro de veinte años las máquinas serán capaces de realizar cualquier tarea que
pueda realizar un hombre"[34].
No era para menos tanto entusiasmo. Porque, si encontramos alguien -persona o
máquina- que es capaz de demostrar algún teorema de los Principia Mathematica, e
incluso mejorar la demostración de Russell y Whitehead, no sólo diríamos que es
inteligente, sino que es muy inteligente, en grado extraordinario, muy por encima del
común de los mortales. Bastaría este logro de la Inteligencia Artificial para decidir
seriamente que se puede llamar inteligente a aquella máquina, aunque más bien habría
que calificarla de inteligentísima. La operación que realizó corresponde a lo más
sobresaliente de lo que el común de los mortales considera capaz a la inteligencia
humana.
Aquí podría acabar mi investigación sobre la inteligencia de las máquinas,
porque sólo me interesa saber si realizan operaciones inteligentes, no si las hacen al
modo humano. Otra posibilidad es concluir que, después de todo y puesto que una
máquina también es capaz, ni Russell ni Whitehead eran tan inteligentes como parecían
por habérselas con tanto teorema lógico. Resulta que una máquina puede realizar
también aquello que parecía requerir un prodigio de inteligencia. ¿Será que no hace
falta mucha inteligencia para tener tal capacidad para el raciocinio?; ¿no será el
razonamiento lógico un invento de la inteligencia, como los frigoríficos, pero no la
inteligencia misma? La respuesta habrá que buscarla más adelante. Por ahora conviene
seguir, para hacerse una idea más cabal de lo alcanzado por la Inteligencia Artificial.
La línea de trabajo que rindió tan tempranos logros es la llamada corriente
simbólica de la Inteligencia Artificial. Sus partidarios (Newell, Simon, McCarthy, etc.)
consideran que tanto los seres humanos como las máquinas lógicas son especies de un
género superior: los procesadores de información, que tienen la capacidad de procesar
formalmente símbolos. La inteligencia -de hombres o de máquinas- es considerada sólo
como racionalidad estricta, como lenguaje simbólico reglado por leyes lógicas.
Pretendían dotar a las máquinas de tal capacidad lógica que pudieran demostrar todo lo
demostrable y resolver cualquier problema que tuviera solución.
La corriente simbólica de la Inteligencia Artificial, hija directa de las ideas de
Turing, brindó un modelo para entender la inteligencia humana que se utilizó
profusamente durante años: el paradigma del ordenador, muy de moda en bastantes
escuelas de Psicología. Con ese paradigma se inició la psicología cognitiva y la ciencia
cognitiva. Sirvió para abandonar definitivamente al conductismo como teoría
psicológica dominante. El interior del hombre dejó de ser una caja negra, cuyo
contenido era desconocido, por lo que sólo cabía interesarse por la conducta externa,
empírica y objetivable. Los ordenadores ponían de manifiesto que era posible
interesarse por las estructuras y procesos que hacían posible el comportamiento
humano inteligente. En cualquier caso, estudiar si las máquinas pensantes constituyen
un buen modelo psicológico del ser humano puede interesar a los psicólogos; pero no es
aquí el caso. Para los interesados, sin embargo, hay que decir que las máquinas con
arquitectura Von Neumann (los ordenadores normales) no son un buen modelo de la
psicología humana, aunque hagan operaciones inteligentes, que es lo que aquí
interesa[35].
Estas ideas se unieron a las procedentes de la teoría de la comunicación de
Shannon[36], que permitía incluso hablar (algunos lo midieron) de la actividad mental en
términos de bits por segundo. Se sumaron los nuevos enfoques que dio Chomsky a la
lingüística[37]: al analizar el lenguaje buscando las estructuras cognoscitivas subyacentes
desarrolló la lingüística generativa. Además se añadió el planteamiento psicológico de
Piaget[38], que prestaba mucha atención a los procesos y estructuras mentales internas
del niño durante el aprendizaje. La avalancha de novedades que confluían siguió con la
neurofisiología, en especial con las avanzadas ideas de Hebb[39] sobre la continua
reestructuración de las conexiones neuronales que realiza el cerebro para aprender
tareas nuevas. Con todo esto, y algunos elementos más que se fueron añadiendo con el
tiempo, se constituyó un área de investigaciones y conocimientos enormemente activa y
en plena evolución, la de las Ciencias Cognitivas[40].
Estas Ciencias Cognitivas, entre las que se incluye la Psicología Cognitiva,
suponen un notable vuelco conceptual, y el fin de una larga tradición. Hasta ahora el
estudio del conocimiento correspondía a la filosofía. La denominación particular podía
ser Epistemología, Crítica, Gnoseología, Filosofía del Conocimiento, o cualesquiera
otra. Pero siempre era un asunto de «humanidades», de «ciencias del espíritu», nunca
de «ciencias empíricas». Era un estudio cultivado por «gente de letras», no por «gente
de ciencias». Expresiones, ahora normales, como «ingeniero de conocimientos» o
«tecnología del conocimiento», habrían sido rechazadas no hace mucho tiempo sin más
consideraciones.
Con las Ciencias Cognitivas el pensamiento comienza a ser manoseado por
personas que no se ocupan sólo de las ideas puras, sino que también manchan sus
manos realizando experimentos. Al fabricar ordenadores capaces de realizar
operaciones atribuidas a la inteligencia, el hombre tiene la sensación "de que está
produciendo «cogito», pensamiento, que ha sido la marca de fábrica de lo mental por lo
menos desde el origen de la epistemología moderna con Descartes"[41]. ¡Inaudito!: La
ciudadela más íntima de la filosofía moderna (la res cogitans cartesiana, la razón pura
kantiana o el Geist panlógico de Hegel) es asaltada por los patanes que se ocupaban de
la muy inferior res extensa. Pero sigamos paso a paso, para no precipitar los
acontecimientos.
La corriente simbólica de la Inteligencia Artificial ha seguido rindiendo frutos
abundantes en los temas lógico-matemáticos: demostración de teoremas, solución de
problemas, juegos -como el ajedrez-, modelización del razonamiento matemático,
procedimientos lógicos, deducción automática, cálculo simbólico, etc.[42]. Las máquinas
han invadido las matemáticas. Hasta el punto que no pocos matemáticos están
preocupados por el papel central que los ordenadores están tomando en su profesión.
Consideran que es muy difícil fiarse completamente de las demostraciones que sólo
realizan las máquinas, a las que cada vez confían más tareas demostrativas[43].
A pesar de esos éxitos, pronto se pusieron de manifiesto una serie de
limitaciones, que convertían a las máquinas en algo semejante al clásico sabio
despistado: podían con los problemas lógicos y matemáticos, pero eran totalmente
inútiles para desenvolverse en las situaciones más sencillas. Por ejemplo: lo que para
cualquier ser humano resulta fácil desde niño, como hablar, reconocer a las demás
personas o manipular objetos, era imposible para aquellos magníficos lógicos. Si se
quería que las máquinas llevaran a cabo tareas útiles en el complejo mundo real, era
necesario buscar por otros caminos.
No eran esos los únicos problemas que apagaron la euforia inicial y, aún más
doloroso, hicieron disminuir los fondos monetarios para esas investigaciones.
Inicialmente, en las primeras generaciones de ordenadores, se confiaba alcanzar todo su
perfeccionamiento dotándoles de una capacidad de memoria cada vez mayor y de
acceso más rápido, junto con una potencia de operaciones por segundo mucho más
elevada. La escala de potencia de cálculo subió de manera espectacular, hasta las
astronómicas cifras que consiguen en la actualidad los superordenadores. Aunque esa
línea de trabajo sigue en progreso, sin embargo se llegó a la conclusión de que la
potencia de cálculo no sería la panacea que permitiría utilizar los ordenadores para
resolver cualesquiera problemas. Al margen de consideraciones teóricas, en la práctica
pronto se descubrió que hay muchos problemas con elevada dificultad intrínseca, que
precisan una capacidad de cálculo imposible de conseguir aún disponiendo de una
inimaginable velocidad y de todo el tiempo del universo. Piénsese, por ejemplo, en la
explosión combinatoria que suponen los cálculos necesarios en una jugada de ajedrez, si
se quieren considerar todas las posibilidades, con todas sus consecuencias, y a muchas
jugadas vista. Otro problema clásico es el del viajante de comercio que debe decidir la
mejor ruta para visitar muchas ciudades en el menor tiempo. Comparados con otros,
estos problemas todavía son sencillos; existen multitud de problemas con un número
muy elevado de variables y de ecuaciones, que hacen imposible su cálculo. Esto es lo
que se ha comenzado a estudiar en la teoría de la complejidad.
Hubo otras causas que frenaron la investigación. En Europa, donde la tradición
filosófica racionalista era más fuerte, la investigación en Inteligencia Artificial se vio
parada por otros motivos. Se pensó que unas máquinas lógicas no dejarían de tener las
mismas limitaciones que para la lógica habían demostrado Gödel y otros. La
consideración de las limitaciones internas de los formalismos, que he de ver con
detenimiento más adelante, llevó a cortar muchas líneas de investigación. Hay que decir
que también ayudó la crisis económica producida por el petróleo en el año 1973. En
cualquier caso, para Inglaterra, el informe de la comisión oficial presidida por Lighthill
desaconsejó dedicar fondos a esos trabajos, por intentar algo en lo que los lógicos y
matemáticos habían fracasado[44]. Así llevó al abandono temporal de una ciencia en la
que los ingleses habían sido pioneros. Turing quedó sin sucesores en su patria, al menos
durante un tiempo.
Queda aún otro campo en el que las expectativas se resolvieron en fracasos: el
lenguaje humano. Los proyectos en este campo tenían mucho interés económico. Por
ejemplo: para poder relacionarse con los ordenadores de forma natural, o para la
traducción automática. El asunto no parecía difícil, después de todo el lenguaje es un
sistema de símbolos, con unas reglas para combinarlos: la ortografía y la sintaxis. Sin
embargo, lo que parecía sencillo se resistió con férrea determinación, de manera los
fracasos se acumularon hasta provocar el desánimo. Hubo que resignarse a mantener la
relación con los ordenadores a través de los rígidos y crípticos lenguajes de
programación, reservados a especialistas. Puestas así las cosas, también aquí se imponía
buscar por otros rumbos.
Educar expertos y enseñar a hablar
Los proyectos ambiciosos que querían servir para todo, como el General
Problem Solver (Solucionador General de Problemas) de Newell y Simon, fueron a
parar al desván, junto con otras inutilidades pretenciosas. Su lugar fue ocupado por
proyectos con metas más concretas y limitadas, más accesibles. A la vez creció el respeto
por la forma de actuar de la inteligencia humana: no era muy lógica, pero sí muy eficaz.
Había que considerar atentamente lo que hacían esos bípedos llamados humanos,
grandes inventores y solucionadores de problemas.
Vinieron así los años difíciles, de caminar por el desierto paso a paso,
adentrándose en una tierra desconocida. Los avances fueron paulatinos y constantes.
De ellos emergió una disciplina académica consolidada, con revistas científicas
aceptadas como «serias»: Artificial Intelligence[45] o Computational Intelligence.
También se establecieron departamentos de Inteligencia Artificial en las universidades
más prestigiosas; y es habitual la realización de congresos. En definitiva, creció y se
desarrolló una nueva rama del saber con todos sus aditamentos organizativos y
burocráticos, plenamente considerada como «científica». El mismo nombre de
Inteligencia Artificial es de uso común, y ya no sorprende a nadie oír hablar de
máquinas o de edificios inteligentes.
Entre los distintos campos de investigación que abarca la nueva ciencia se
cuentan: visión artificial, robótica inteligente, métodos de adquisición de conocimiento
y aprendizaje, técnicas de sensores y manipuladores, control de movimiento en
entornos complejos, inteligencia distribuida, percepción de estructuras (patterns),
sistemas adaptativos, análisis de imágenes, juegos (ajedrez, backgammon, brigde,
póker, etc.), lectura de escritos con caracteres caligrafiados...
Muchas de las tareas que investiga la Inteligencia Artificial no están incluidas
entre las que tradicionalmente se consideran necesitadas de inteligencia. Por ello
centraré la exposición en dos campos que embarcan a los ordenadores en actividades
que se suponen inteligentes: Sistemas Expertos y lenguaje.
Los Sistemas Expertos[46], como su propio nombre indica, emulan a los
especialistas y expertos humanos que llevan a cabo bien una tarea determinada. Se
realizaron porque, dado que no había manera de hacer una máquina omnisciente, ¿sería
posible hacer máquinas especializadas capaces de imitar al hombre cuando es experto
en algo? Comenzó así una línea de trabajo que culminó en uno de los mejores productos
de la Inteligencia Artificial. Aunque los estudios teóricos son anteriores, desde un punto
de vista práctico la investigación comienza a desarrollarse a mediado de los años
sesenta, de manera que para 1970 están en marcha las primeras realizaciones operativas
con buen funcionamiento.
Una lista de éxitos notables, que se codeaban con especialistas humanos, podría
ser la siguiente: En primer lugar el sistema MACSYMA, desarrollado en 1971 por
Martin y Fateman en el Massachussets Institute of Technology, recogiendo lo realizado
en los sistemas SAINT (por Slagle en 1961) y SIN (por Moses en 1967). MACSYMA
sirvió para la manipulación de expresiones matemáticas simbólicas, en especial del
cálculo diferencial, siendo muy utilizado por los científicos del MIT con un rendimiento
comparable al de humanos experimentados[47]. Le siguió DENDRAL, que realiza con
éxito hipótesis sobre la estructura química para la síntesis de moléculas. MYCIN,
especializado en el diagnóstico y tratamiento de enfermedades bacterianas y
meningíticas. INTERNIST es útil para el diagnóstico en medicina interna[48]. CASNET
resulta eficaz para el diagnóstico y tratamiento en oftalmología. La relación puede
acabar con PROSPECTOR, que funciona como un geólogo prospectivo, y saltó a la
fama por encontrar una mina de molibdeno en el Estado de Washington, valorada en
100 millones de dólares.
Paso a paso se ha recorrido un largo camino: desde los primeros sistemas
expertos basados en reglas, pasando por los que funcionan con modelos, hasta llegar a
los actuales, capaces de aprendizaje y de mejora del conocimiento en el campo en el que
son expertos. Las aplicaciones se han vuelto más potentes y sencillas, de forma tal que
se ofrecen en el mercado programas que permiten un fácil desarrollo de sistemas
expertos hechos a medida con resultados más que notables[49].
Pero, ¿qué son?: Por sistema experto se entiende aquel que es capaz de emular
con éxito a una persona experta en un determinado campo o actividad especializada. Es
capaz de dar soluciones acertadas sobre los problemas de su competencia y, asimismo,
puede dar explicaciones del porqué de su respuesta; explicaciones capaces de satisfacer
a un técnico en la materia. Un sistema experto se comporta como un especialista:
adquiere sus conocimientos de manera formal, con teorías; y también no formal,
mediante la experiencia acumulada. Un especialista acopia casos significativos, reglas
prácticas, procedimientos más o menos generales, relaciones entre hechos,
caracterización del entorno del problema, etc. Utiliza, sobre todo, lo que se suele
denominar conocimiento heurístico. Este es el tipo de conocimiento que ha de tener un
ordenador para ser un Sistema Experto en un campo concreto. Esta es también la parte
más difícil de conseguir, que requiere sus propios especialistas. Por este motivo en el
léxico profesional informático ha aparecido una nueva especialidad: ingeniero de
conocimiento, que se suma al tradicional programador y colabora con él; su tarea es
cribar la información, para seleccionar la que resulta relevante y significativa.
La elaboración de los sistemas expertos ha permitido también hacerse una idea
más clara de cómo pensamos y aplicamos nuestros conocimientos: en realidad éste ha
sido el principal problema por resolver. Dado que a la hora de diseñar los sistemas
expertos se ha atendido más al conocimiento significativo que a la simple información o
acumulación de datos, también se les suele llamar sistemas de conocimiento o sistemas
basados en el conocimiento. Con eso se quiere expresar que en un sistema experto, más
que la simple capacidad de procesar con gran velocidad mucha información, es
necesario el conocimiento de las fuentes de información y la manera de seleccionar la
que es significativa, de manera que efectivamente ayude a la comprensión de un
problema. El principal problema que tienen los ingenieros de conocimiento es averiguar
cómo piensan, deciden y resuelven los problemas los expertos humanos. Lo normal es
que ellos mismos no lo sepan: dan por supuestas muchas cosas y pocas veces se han
parado a considerar cómo les funciona la cabeza. Obtener de ellos los conocimientos es
una tarea artesanal que requiere paciencia, porque no se acaba de dar con métodos
sistemáticos. También es difícil conseguir que el sistema aprenda de la experiencia, para
mantenerse al día como hacen los expertos humanos, aunque se realizan continuos
progresos con este propósito[50].
La
existencia
de
sistemas
expertos
electrónicos
que
compiten
extraordinariamente bien en terrenos reservados a expertos humanos, es otro buen
argumento a favor de los que igualan la inteligencia artificial a la humana. No hay
ninguna duda de que llevan a cabo operaciones que consideraríamos inteligentes si las
realizasen seres humanos.
Otro asunto que ha contribuido para que conozcamos mejor nuestra forma de
pensar ha sido los intentos de enseñar a hablar a los ordenadores. El lenguaje humano,
que parecía una sencilla y manejable colección de símbolos (letras, palabras) y reglas
formales (ortográficas y sintácticas), se resiste a no ser más que eso. Lo que parecía un
terreno llano y fácil de explorar, acabó siendo un cenagal en el que se hundían los
sucesivos proyectos.
Como siempre los comienzos fueron prometedores. En este caso con anécdota
incluida. Ocurrió que Weizenbaum, uno de los pioneros de la Inteligencia Artificial
interesado por el lenguaje, creó uno de los primeros y pronto afamados programas:
ELIZA. Este programa se comportaba como uno de esos psicoanalistas que han
popularizado las películas de Hollywood, hasta el punto que bastantes personas creían
tratar con un psicólogo auténtico, y le contaban su vida sintiéndose comprendidas.
Algunos entusiastas de la Inteligencia Artificial vieron en ELIZA el inicio de una
triunfante serie de psicoterapeutas electrónicos (¡tenga al psicoanalista en su casa!,
¡funciona con pilas!) que pondrían remedio cómodo y barato a nuestros desarreglos
mentales. Ante tales propuestas, el mismo padre de la criatura, que conocía bien sus
entresijos y limitaciones, hubo de poner las cosas en su sitio, lleno de espanto por los
abusos que las nuevas técnicas podían permitir[51].
Tras el éxito de ELIZA se acumularon los fracasos. Los motivos fueron varios. El
primero fue querer abarcar demasiado; o, con palabras de los protagonistas: "El campo
de la Inteligencia Artificial está lleno de intelectuales optimistas que aman las
abstracciones potentes y se esfuerzan por desarrollar formalismos que lo abarquen
todo"[52]. En este caso el optimismo intelectual estaba sustentado por las teorías
lingüísticas de Chomsky, que consideraban el lenguaje sólo desde el punto de vista
sintáctico: un conjunto de símbolos dotado de estructuras. También influyó Piaget, que
adolecía asimismo de una idea demasiado formal del lenguaje y del conocimiento
humano. Ambos han salido un tanto malparados cuando sus teorías se han querido
poner en práctica. La sintaxis y lo formal parecen no ser lo primero en el lenguaje, ni en
el conocimiento[53].
Se cayó en la cuenta de que el contexto, la situación y el contenido eran tan
esenciales en la comprensión como los aspectos formales. Sucede que el lenguaje no es
un mero conjunto de símbolos dotado de reglas, que quepa entender al margen de lo
que esos símbolos significan. Intentaré explicarlo con un ejemplo. Consideremos la
pregunta: ¿Dónde está el Museo del Prado? Al margen de que su sintaxis esté bien, la
pregunta se entiende de manera distinta según la situación, y obtiene en consecuencia
muy variadas respuestas. Si la hace un profesor de Arte en la Universidad de Columbia
(Nueva York), la respuesta podría ser: en Madrid. Pero si la hace un turista despistado
que anda perdido en Madrid, no se le puede contestar aquello, sino indicarle la manera
de llegar al museo. Otro ejemplo: Me puede dar dos, por favor. Ese dos puede indicar
dos entradas, si estoy ante la taquilla de un cine; o pollos asados, o helados de vainilla, o
casi cualquier otra cosa. Muchas frases suponen todo un mundo: dónde estamos, qué
estamos haciendo, quién es o qué hace el interlocutor, en qué contexto se desarrolla la
acción, etc. Es un trabajo ímprobo introducir todo ese mundo en el ordenador.
De la consideración estrictamente sintáctica del lenguaje hubo que pasar a otra
que tuviera en cuenta la semántica: el significado, aquello de lo que se estaba hablando.
Poco después hubo que abandonar también la separación entre sintaxis y semántica: el
lenguaje real no se dejaba aherrojar en esquemas conceptuales fáciles de manejar. Se
pasó así a hablar de la pragmática del lenguaje, de su uso. El lenguaje es un cóctel
complejo y muy animado donde conviven la sintaxis, la semántica, esquemas de
situaciones (saludos, conversaciones casuales, hablar a niños, o del tiempo...), imágenes,
comparaciones, interjecciones variopintas y multiuso, tonos, silencios, lo que pensamos
que entienden o piensan, etc., etc.
Los esfuerzos por imitar la manera de pensar de los especialistas humanos, y el
difícil asunto del lenguaje, han llevado a modificar los lenguajes de programación y las
«lógicas» con las que se intenta dotar a los ordenadores. Los nuevos lenguajes de
programación son muy distintos de los utilizados en la informática tradicional. En ésta
hay que dividir los problemas en todas sus partes de manera que se pueda escribir una
secuencia exhaustiva, paso a paso, de todas las instrucciones necesarias para resolverlo:
lo que se llama un algoritmo. Es una programación rígida con una precisas reglas
estrictas para procesar los datos de entrada y obtener una salida precisa y exacta. Con
ella, además, sólo se pueden resolver los problemas que admitan una solución
algorítmica, mediante un procedimiento minucioso y prolijo.
Los nuevos lenguajes son más bien declarativos, orientados a objetos, reglas,
acciones y relaciones. El más popular de estos nuevos lenguajes simbólicos es LISP
(acrónimo de LISt Processor), definido por J. McCarthy en el MIT a finales de los años
cincuenta, que suele exigir un hardware especial (las llamadas máquinas LISP). Tiene la
peculiaridad de facilitar mucho el aprendizaje de la máquina, porque la salida es del
mismo tipo que la entrada. Es decir, dado que los programas LISP tratan símbolos y, a
su vez, se representan como listas de símbolos, resulta posible escribir programas que
hacen y procesan otros programas LISP, por lo que los ordenadores pueden
reprogramarse, aprendiendo en consecuencia. Otro lenguaje simbólico muy utilizado,
en especial para sistemas que funcionan con reglas, es PROLOG (acrónimo de
PROgramming in LOGgic), desarrollado en Francia y basado en la programación por
predicados.
Con estos lenguajes se intentan formas de pensar y de programar alejadas de los
algoritmos, más semejantes a la forma humana de elaborar y utilizar el conocimiento. El
software habitual se abandona por otro nuevo, en el que lo primario no es tener el
algoritmo preciso. Ahora importa más la adecuada caracterización del problema; el
establecimiento de métodos de búsqueda y comparación; los procedimientos de
inferencia para obtener conclusiones propias; especificar las metas que se quieren
alcanzar, etc.
En el camino de la imitación de la mente humana también ha habido que
desarrollar lógicas distintas, más semejantes a las que de hecho se utilizan en el
pensamiento humano real. Se habla así de lógicas no-standard: modal, dinámica, de tres
valores (verdadero, falso y posible, como la de Lukasiewicz), intuicionista (teoría de
tipos de Martin-Löfs), no monotónica, temporal, borrosa, analógica, etc.[54]. Algunas de
ellas consiguen resultados prácticos más adaptados al mundo real, donde rara vez se
dan las categorías lógicas rígidas de los primeros programas inteligentes.
A modo de ejemplo, me referiré a la lógica no monotónica y a la borrosa. La
primera introduce en la lógica la posibilidad de que una proposición pueda ser
verdadera ahora, para ser luego falsa. El procedimiento es introducir axiomas nuevos
que modifican el edificio lógico. Con ello se intenta simular el pensamiento humano,
que varía y evoluciona conforme se acumulan nuevos conocimientos. También se
pretende obtener soluciones sobre una base de evidencias insuficientes. Por ejemplo:
ayer era cierto que las úlceras de estómago las producía la acidez; hoy se piensa que
una bacteria (Helycobacter pylori) es la culpable de muchas de ellas. Antes se recetaban
antiácidos, ahora se tratan con antibióticos. En ambos casos la base son indicios que se
consideran suficientes mediante ensayos, sin saber el mecanismo exacto. Por encima de
todo interesa curar. Mucho mejor si, además, nos enteramos de cómo funciona, pero no
es lo primero.
Por su parte, la lógica borrosa o difusa (fuzzy logic) fue introducida por Zadeh
en 1965. Como señala su nombre, intenta escapar de la estrechez de las lógicas binarias
booleanas. En la lógica fuzzy no sólo vale "si" o "no", "verdadero" o "falso"; pueden
utilizarse valores del tipo: «algunos», «varios», «muchos», «la mayor parte», «pocos»,
etc. De esta manera permite tratar con ordenadores proposiciones tales como "algunos
coches son grandes" o "quizá llueva mucho dentro de poco". Con ello se intenta un
mayor acercamiento al pensamiento humano, tan eficaz en el complejo e inexacto
mundo real. Esta lógica se ha anotado grandes éxitos prácticos en muchas aplicaciones
industriales; los consumidores cada día oyen más hablar de lógica borrosa.
Estas lógicas nuevas han resuelto algunos problemas, y abierto muchos más: la
cuestión más ardua es cómo formalizar todo eso, para intentar introducir lo que
llamamos «sentido común» en los ordenadores. También han recibido críticas, pues
algunos opinan que no son lógicas tan nuevas como dicen, cuando han de acabar
funcionando en máquinas que admiten sólo una lógica booleana binaria en sus circuitos
electrónicos. Por último, a su alrededor no cesan de surgir polémicas sobre qué o cuánta
lógica sea necesaria para desarrollar la Inteligencia Artificial[55]. De todo esto cabe sacar
una conclusión: la forma de pensar humana es bien difícil de simular con los
ordenadores.
Sin embargo, a pesar de su falta de destreza, lo cierto es que los ordenadores
tienen patentes capacidades lingüísticas: Traducen muy bien en el caso de lenguajes
especializados. Obedecen órdenes verbales. Sintetizan palabras. Leen textos. Identifican
palabras habladas en una conversación ordinaria. Comprenden el lenguaje natural
(respuesta a preguntas y realización de resúmenes de textos breves). Incluso consiguen
escribir poesías (kaiku, por ejemplo) y narraciones cortas[56]. Hacen mucho más de lo
que hemos conseguido jamás que hagan los animales, por más esfuerzos de laboratorio
que se han derrochado con chimpancés y bonobos[57]. Si se considera que las
habilidades lingüísticas manifiestan de manera necesaria y suficiente la posesión de
inteligencia, entonces no hay duda que los ordenadores son inteligentes.
No obstante, los informáticos no se han quedado satisfechos con todos esos
logros en su camino por conseguir Inteligencia Artificial. Dadas las evidentes
limitaciones de las máquinas lógicas a las que se quiere dotar de inteligencia humana,
han intentado otra vía para imitarla.
Construir cerebros
El nuevo camino abierto se basa en una idea básica muy sencilla: los seres
humanos utilizan un cerebro para pensar, construyamos pues un cerebro. Hagamos una
sociedad anónima de neuronas electrónicas capaces de funcionar como las del cerebro
humano. El ordenador deja de ser el modelo para entender el conocimiento humano; en
su lugar, el cerebro pasa a ser el paradigma para construir ordenadores. El vuelco es
total. Se da un giro de 180 grados respecto de lo que quisieron hacer los primeros
investigadores de la Inteligencia Artificial.
Con estos planes volvió a retomarse una de las primeras líneas de trabajo, que
había sido abandonada en los años sesenta. La historia tiene cierto interés. El punto de
partida fueron las hipótesis neurofisiológicas de Hebb sobre la capacidad de
aprendizaje de las neuronas mediante la modificación de la intensidad de las
conexiones sinápticas[58]. Estas ideas serían tomadas por MacCullogh y Pitts[59] para
diseñar circuitos electrónicos que imitasen a las neuronas modificando la intensidad de
sus conexiones. Comparados con la complejidad de una neurona, sólo consiguieron
hacer modelos sencillos. Pero Rosenblatt[60] alcanzó a construir con ellos una red
neuronal dotada de interesantes cualidades: el PERCEPTRON. Se abría un camino
prometedor que, por desgracia, fue abortado en el inicio: Minsky, que entonces y
después mandaría mucho en el destino de los fondos de investigación en Inteligencia
Artificial, y Papert[61] destacaron algunas limitaciones del diseño. Se les acusa que, de
ese modo, cortaron el grifo del dinero de la DARPA (la agencia militar de investigación
americana, que ideó el germen de la famosa red INTERNET) para investigar en aquella
dirección, y llevaron el agua a su molino. En la iconografía de muchos científicos del
ramo, aquellos pioneros de la investigación del modelo neuronal pasaron a ser un
grupito de heroicos Galileos, aplastados por los mandamases de la investigación oficial.
Dejando a un lado las dramatizaciones, lo cierto es que en las redes neuronales
hay un interesantísimo campo de investigación: han abierto nuevas vías de
comprensión sobre los procesos mentales humanos. Se asemejan más a nosotros que las
máquinas lógicas. Por ejemplo, una red neuronal -llamada NETtalk[62]- es capaz de ver
grupos de letras y generar sonidos. Sin aprendizaje, emite sonidos inarticulados. A
medida que se configura según los aciertos, pasa paulatinamente a balbucir. Con
entrenamiento suficiente llega a leer tan bien como cualquier persona. Las redes
neuronales no se programan, aprenden mediante casos y procedimientos de ensayoerror.
Con bastante razón, y notable precipitación, ha salido el habitual grupo de
fogosos exaltados que ven en las redes neuronales el nuevo paradigma -el
conexionismo- para entender la inteligencia humana de manera definitiva y total[63]. No
da para tanto, aunque es verdad que da para mucho. El conexionismo considera a la
mente formada por múltiples microunidades distribuidas que trabajan en paralelo,
enviándose señales por las que se excitan o inhiben mutuamente. Esas unidades se
asocian en módulos interconexionados, que son las distintas partes del cerebro.
Pretende evitar las carencias del modelo computacional clásico de la mente, así como
dar explicación de la velocidad de procesamiento neuronal, su carácter interactivo, la
capacidad de alcanzar una interpretación a pesar de las deficiencias del estímulo, junto
con la explicación del desarrollo y el aprendizaje.
Motivos para el entusiasmo hay no pocos. Aunque la investigación camina a
pasos, sin grandes vuelos, los resultados son muy significativos. Las redes neuronales
son candidatas óptimas para resolver una serie de exigencias que un sistema de
tratamiento de información capaz de imitar al humano ha de cumplir: "(1) ser, a la vez,
estructurado y flexible, (2) afrontar condiciones de degradación parcial del medio
interno (organismo) y externo, (3) dar cara a demandas múltiples y simultáneas, (4)
asignar significados rápidos, sin necesidad de recurrir a algoritmos exhaustivos, (5)
completar patrones conceptuales, perceptivos, etc., sin contar con toda la información
lógicamente necesaria para hacerlo, (6) acceder a sus conocimientos por vías diversas, y
tener sistemas de memoria en que éstos puedan recuperarse en virtud de sus
contenidos, y (7) modificarse adaptativamente en función de las experiencias
previas"[64].
Un resumen de lo que las redes neuronales permiten entender del sistema
humano -y animal- de procesamiento de la información debe comenzar por la solución
de un problema intrigante: la velocidad de cómputo. Por ejemplo: un jugador de tenis
debe calcular la trayectoria de la bola que viene hacia su campo, teniendo en cuenta
además el efecto que trae -liftada o cortada- según haya sido el golpe del contrario; en
función de esos datos debe decidir su propio golpe, con una fuerza y efectos concretos,
considerando su posición en la pista y el lugar al que quiere enviar la bola; para
conseguirlo ha de controlar su posición corporal y realizar una multitud de
movimientos coordinados de numerosos músculos, a los que hay que enviar las órdenes
correspondientes. El problema, si hubiera de ser resuelto por un ordenador lineal
normal, que hace operaciones sucesivas, supondría una cantidad ingente de cálculos
muy complejos. Para conseguirlo en el tiempo que lo consigue un tenista habría de
contar con una velocidad y una capacidad de cálculo excepcionales, que muy pocos
ordenadores tienen. Sin embargo las neuronas del tenista parecen realizar la tarea sin
demasiadas dificultades, a pesar de que su velocidad es menor.
¿Cómo es posible que las neuronas, que pueden cambiar sólo del orden de mil
veces por segundo, superen en la velocidad de sus cálculos a los ordenadores
electrónicos, que cambian de estado unas mil millones de veces en el mismo tiempo? La
solución, como se ha podido ver con las redes neuronales artificiales, consiste en que el
cálculo lo realizan muchas neuronas a la vez. Las neuronas se asocian en capas de
neuronas interconectadas, y son todas las neuronas de una capa las que
simultáneamente cambian de estado. Toda la red tiene que cambiar pocas veces de
estado: tantas veces como capas haya. Las redes artificiales, por ahora, suelen tener tres
capas y, en comparación con el cerebro, constan de unas pocas neuronas por capa
capaces de tener un número limitado de interconexiones entre ellas. En el cerebro hay
más de un billón de neuronas asociadas en capas -y de otras maneras- en las distintas
estructuras que lo componen. Además, cada neurona puede estar conectada a otras cien
mil neuronas diferentes, en distintos niveles y con conexiones especializadas según
distintos neurotransmisores. Por ahora el cerebro tiene una velocidad y una capacidad
de cómputo imposible de conseguir; aunque ya es posible vislumbrar cómo consigue
ser tan rápido algo dotado de elementos tan lentos, en comparación con los circuitos
electrónicos.
Aparte de la cuestión del tiempo de cálculo, algunas de las propiedades
sobresalientes de las redes neuronales artificiales son las siguientes:
a) Aprenden por medio de ejemplos: La red aprende mediante entrenamiento,
sin necesidad de programación. Se enseña a sí misma mediante su automodificación
según los resultados que obtenga. Es un proceso de ensayo-error. Aprende haciendo las
cosas o intentando resolver los problemas, no almacenando instrucciones sobre cómo
hacerlas, como los ordenadores tipo Von Neumann, que son máquinas lógicas de
Turing generales. Una red resuelve muy bien problemas con alto número de datos
históricos o ejemplos, en los que sirve más la experiencia que la lógica rígida.
b) Gran flexibilidad: A una red neuronal no hay que programarla ni, por tanto, se
limita a hacer la tarea del programa. Sus posibles tareas y capacidad de resolución de
problemas dependen de lo que se le ayude a aprender.
c) Capacidad de generalizar: una red bien ajustada aprende a generalizar
rápidamente y es capaz de resolver problemas parecidos, comportándose de forma
correcta ante valores de entrada nuevos. Esto las hace idóneas para aplicaciones
complejas, como la comprensión del lenguaje oral o el reconocimiento de imágenes.
d) Toleran muy bien los fallos: en un ordenador de arquitectura lineal un fallo en
un elemento rompe la cadena. En una red se pueden dar cierta cantidad de fallos sin
que deje de responder de manera útil. Esta propiedad se suele denominar "degradación
elegante". Imagínese que abro el ordenador que ahora estoy utilizando y destrozo un
5% de los circuitos y de la memoria de datos e instrucciones; el desastre lo paralizaría
convirtiéndolo en un resto inútil. En una red neuronal es posible hacerlo sin que deje de
dar respuestas razonables.
e) Memoria asociativa: Las redes son capaces de funcionar con información
incompleta y parcial. Generalizan una entrada parcial si es razonablemente parecida a
aquellas para las que han sido entrenadas. También son capaces de reconocer algo a
partir de ciertos elementos limitados que resulten característicos, como una parte de
una figura. Por esto se han utilizado con éxito en la predicción meteorológica o en la
identificación de imágenes.
f) Funcionan bien con información ruidosa, incluso si es errónea o contradictoria.
Cuando la información es muy abundante y poco significativa (ruido), pueden asociar
por similitud con ejemplos parecidos y más claros para aproximar soluciones.
g) Resuelven problemas en los que se desconoce, o es muy compleja, la relación
entre los distintos factores puestos en juego. También aquellos en los que no se conoce
el camino que lleva a la solución, y sólo se sabe que haciendo una cosa se obtiene un
resultado adecuado, mientras que si se hace otra se fracasa.
h) En las redes la información no está almacenada en ningún lugar determinado,
como puede ser los dispositivos de memoria en un ordenador clásico. Es la totalidad de
la red, en su cambiante configuración de interconexiones, la que almacena la
información de una manera holística. En las redes no hay datos ni hay instrucciones de
programa para manejarlos, sino una red configurada de una forma determinada
mediante el aprendizaje.
Por todas estas propiedades las redes neuronales han ampliado el horizonte de
los ordenadores, que hasta ahora sólo eran máquinas muy limitadas y rígidas aunque
muy veloces, para hacerlos capaces de moverse en un entorno real en el que la
información es amplia, variada e impredecible. Ahora bien, no se piense que son la
panacea universal de nada. Como herramientas, en sus mismas ventajas residen sus
inconvenientes.
En primer lugar, las redes neuronales necesitan tiempo de aprendizaje
prolongado. No hay forma de programarlas de otro modo: hay que suministrarles un
número suficiente de ejemplos y casos adecuados. En segundo lugar, no son útiles para
resolver problemas que precisen gran exactitud en los cálculos, o que son susceptibles
de solución algorítmica. Por ejemplo: el tratamiento de imágenes -para el que son muy
adecuadas- resulta difuso o borroso, precisamente por la forma de tratarlas y por poder
reconocer elementos no demasiado precisos.
Por último, y es lo peor, no hay manera de saber si una determinada solución es
correcta ni porqué lo es, salvo aplicándola. Resulta casi imposible conseguir que una red
neuronal se "explique", es decir, diga lo que ha hecho y porqué, cosa que no sucede con
un sistema experto. Podría decirse que son más bien «intuitivas» que lógicas. Si tienen
experiencia en un campo, porque ha sido bien entrenadas, llegan a una solución ex
abrupto, de una vez y en bloque sin hacer un largo recorrido de pasos lógicos. La
solución «se les ocurre» de pronto, tras haber consultado con la almohada, es decir,
después de alcanzar un estado estable en el que se quedan tranquilas por lo que
consideran haber dado con la solución del problema. Pero es muy difícil averiguar los
pasos lógicos que han conducido a la solución.
Esa manera «intuitiva» de funcionar, aparte de no dar explicaciones, tiene otro
problema: hay que «fiarse» de la experiencia y el entrenamiento de la red, y de sus
aciertos anteriores, sin que sea posible asegurar o comprobar que la solución es
acertada. Porque las redes neuronales artificiales tienen la costumbre de cometer -por
así decir- «errores humanos», porque pueden dar soluciones equivocadas. Este
fenómeno de los errores es además inevitable: técnicamente se dice que las redes no
tienen soluciones convergentes, por lo que pueden ir en la dirección equivocada si
encuentran otro estado estable en el que se paran y lo consideran como solución. La
única forma de paliar este problema es entrenar muy bien a la red mediante ejemplos
bien escogidos, para luego aplicarla a resolver casos de rango semejante a aquellos
sobre los que ha adquirido experiencia.
Al margen de sus limitaciones, por lo demás muy semejantes a las humanas,
parece evidente el interés que tienen los estudios sobre redes neuronales para la
comprensión del comportamiento animal, así como para entender el funcionamiento del
cerebro del animal humano. Aunque siga habiendo grandes diferencias, porque en las
redes neuronales biológicas del hombre y de los animales, las neuronas son órganos
vivos, que no sólo tienen una conexiones determinadas, sino que pueden eliminar unas
y crear otras. Este proceso es especialmente activo y espectacular en las fases iniciales
del desarrollo cerebral, en las que cada neurona lanza sus dendritas y axones hasta
establecer conexiones en áreas del sistema nervioso a veces muy alejadas. Con el
aprendizaje, en un cerebro joven, las conexiones entre neuronas se modifican muy
rápidamente y también mueren muchas neuronas para dejar sólo determinadas
configuraciones en las redes. A medida que el metabolismo cerebral disminuye en su
actividad, esa plasticidad formal se pierde en gran medida. En el cerebro sucede que -en
terminología informática- el software que se va adquiriendo modifica al mismo
hardware. Por ahora resulta casi imposible realizar sistemas equivalentes en los que se
de una tal interrelación hardware-software; también carecemos de herramientas lógicas
para comprenderlo. La plasticidad del cerebro humano, que puede ser su propiedad
más sobresaliente, es difícil de emular.
Cabe, por ello, sostener que las diferencias son muy manifiestas y, por ahora,
excesivas para sacar conclusiones absolutas y precisas. La diferencia cuantitativa -el
inmenso número de neuronas- no es muy determinante, pues en lo que a operaciones y
cambios de estado se refiere, una red neuronal artificial podrá conseguir una cantidad
equivalente a la del cerebro para un mismo tiempo, porque son muchísimo más
rápidas. Las diferencias decisivas siguen siendo las cualitativas y formales.
Ahora bien, las redes neuronales artificiales han dado muestras de unas
propiedades singulares que conviene tener en cuenta para entender el cerebro y los
procesos del conocimiento humano. Aunque su semejanza todavía sea escasa, sin
embargo no dejan de ser semejantes a las redes neuronales biológicas. "Las
características de las redes neuronales son similares a muchas de las exhibidas por los
sistemas nerviosos reales, y es eso lo que hace que resulten fascinantes para los
científicos interesados en las bases neurales del aprendizaje"[65]. Se convierten así en
analogías, pobres y primerizas si se quiere, pero buenas aproximaciones al fin y al cabo
del sistema de tratamiento de información humano. Además, las características que
manifiestan son, en efecto, semejantes a las del sistema de tratamiento de información
del hombre. Han dado muestras de ser muy útiles, por ejemplo, para entender lo que
anda mal en el cerebro humano en algunas enfermedades psiquiátricas.
Sin embargo, las características de la redes neuronales, y su parecido con el
cerebro humano, llevan a plantearse una cuestión inquietante y de gran interés: ¿Cómo
es posible que una red neuronal -la humana- haya sido capaz de desarrollar el
pensamiento lógico? Si nuestro sistema de tratamiento de la información neuronal es
intuitivo, asociativo y holístico, bien ajeno a un funcionamiento lógico-formal y
simbólico, ¿de qué manera ha conseguido funcionar, en algunos, en ocasiones y con
gran trabajo, de una manera racional y lógica? En definitiva: ¿Cómo una red neuronal,
la humana, ha llegado a autoconvencerse de que la única forma seria de trabajar es
utilizándose a si misma de manera que le resulta antinatural, mediante la lógica? A lo
mejor resulta que el cerebro humano es una red neuronal masoquista, empeñada en ir
contra si misma. La cuestión la dejaré abierta.
En cualquier caso, con las redes neuronales artificiales se abre una nueva vía,
distinta de la que es heredera de Turing, para comprender mejor el conocimiento
humano. Resultan así dos modelos, el conexionista y el simbólico, a veces enfrentados,
que tienen partidarios y detractores acérrimos[66]. Mi opinión es que están condenados a
entenderse, porque los humanos somos animales dotados de una red neuronal biológica
(nos vale la aproximación conexionista) que, curiosamente, hemos inventado el
lenguaje y la lógica, e intentamos ser racionales (se aplica el modelo simbólico).
Pero ya es hora de acabar esta exposición de los logros conseguidos en el empeño
por fabricar máquinas pensantes. No voy a referirme a las posibilidades que abre la
computación cuántica[67], ni a lo que ya se ha conseguido en la que utiliza el ADN como
soporte físico[68]. Tampoco trataré sobre el elemento informático de moda: INTERNET.
Sólo quien defienda una idea enciclopedista y erudita de la inteligencia humana podría
decir que en INTERNET hay inteligencia; en efecto, la red de redes es cada vez más la
Enciclopedia de las Enciclopedias; más aún, es la Biblioteca de las Bibliotecas. En
ninguna persona hay tanta erudición como en INTERNET: si usted quiere tener
información sobre algún tema, acuda a la RED. Sin embargo, aparte del efecto
acumulativo de tener mucha información disponible, no hay en la red ninguna otra
operación relacionada con la inteligencia. Por ello la dejaré de lado, para entrar al
estudio comparado de lo que hacen las máquinas y lo que realizan los humanos para
ver si es lo mismo, o hay alguna diferencia.
Capítulo 2
PODA DE SOLUCIONES
La discusión sobre los parecidos y diferencias entre la inteligencia humana y la
Inteligencia Artificial viene de lejos. A lo largo del tiempo en el debate se han utilizado
multitud de razones, de todo tipo. El muestrario de polémicas es muy extenso. No voy a
considerarlas todas, porque no es posible, ni tiene demasiado interés hacerlo. De todos
los argumentos que se han dado a favor y en contra de la Inteligencia Artificial, sólo
analizaré aquellos particularmente enjundiosos. He seleccionado los que apuntan a
cuestiones cruciales y que, por otra parte, han producido una literatura más abundante.
Procuraré estudiar aquellos enfoques que, positiva o negativamente, me permitan
aportar algo de comprensión al problema, sin volverlo más problemático.
Teorema de Gödel: ¿Razonar es razonable?
Para intentar poner de manifiesto las limitaciones y deficiencias de los
ordenadores respecto de la inteligencia humana, una de las líneas de argumentación
más utilizadas recurre a un difícil teorema lógico. En el año 1931, el brillante lógicomatemático austriaco de 25 años de edad llamado Kurt Gödel publicó un artículo que le
haría famoso, sobre el que han corrido ríos de tinta[69]. En él demostraba un teorema
que, de manera fría y técnica, se puede enunciar del siguiente modo: "Si la lógica formal
es no contradictoria, entonces no es completa". Soy consciente de que, dicho así en el
conciso lenguaje especializado, es difícil captar la trascendencia que tiene este teorema;
necesita ser explicado. Es como si nos anuncian que un terremoto alcanzó la intensidad
8 en la escala de Richter; contando sólo con el número resulta difícil hacerse cargo de la
ruina y desolación que el seísmo supuso para los que estaban allí. Por tanto, conviene
describir lo que el teorema de Gödel supuso para «los que estaban allí»; así será más
fácil entender cómo el suelo se ha movido también para todos y en qué nos afecta.
Para comenzar habría que situarse en la gran crisis de fundamentación que ha
sufrido la matemática a finales del siglo XIX y principios del XX. Aquel trance vino
acompañado por una genial creatividad por parte de los que lo protagonizaron. Hasta
ese momento estaban pacíficamente establecidas la geometría y el análisis, con más o
menos siglos de uso. La geometría, junto con las técnicas de la demostración, venía de
los griegos. Por otra parte, Newton y Leibniz pusieron en el siglo XVII las bases firmes
para el desarrollo del análisis, verdadera revolución matemática que permitió
enfrentarse con éxito a los problemas que surgían para tratar el movimiento, lo que
facilitó el gran avance de la física clásica. Los siglos XVIII y XIX son de progreso
arrollador e imparable. Todas las ilusiones del racionalismo y del determinismo físico
sobre la gran maquinaria del universo parecían al alcance de la mano. La razón y su
avanzadilla, las matemáticas, triunfaban y eran adoradas como el deus ex machina para
entender y dominar el mundo. Si, como quería Galileo[70], el universo está escrito en
lenguaje matemático, entonces se tocaba con los dedos entenderlo en su totalidad.
Sin embargo, la misma exigencia de rigor, cada vez mayor y más posible, llevó a
plantear más y más a fondo los problemas de fundamentación de la entera matemática.
A finales del XIX ese empeño condujo a una teoría del número realizada
axiomáticamente; con la notable consecuencia de tener hoy ocupados a los estudiantes
aprendiendo una teoría de conjuntos, cuya utilidad se les escapa. También llevó a
establecer la matemática como ciencia que se ocupa de estructuras formales, definidas
según axiomas y constituidas por objetos asimismo formales, que no tienen por qué
corresponder a nada real ni ser de «sentido común», de los que se estudian sus
relaciones. El intento consistía en hacer estructuras formales cada vez más completas y
consistentes, capaces de abarcar mucho más en su estricta racionalidad. Era una labor
ardua enfrentada por una sucesión de verdaderos genios: Cantor, Frege, Dedekind,
Peano...[71]
Uno de esos autores, sin embargo, fue el primero en arrojar algo de arena a un
engranaje que hasta el momento rodaba con suavidad. Cantor, con su sorprendente
teoría de los números transfinitos, fue uno de los primeros autores que introdujo un
problema serio en aquel proyecto de fundamentación: fue con sus paradojas del infinito
y, especialmente, del continuo. Más tarde es Russell el que pone otro obstáculo en el
camino, con la famosa paradoja que lleva su nombre. Andando el tiempo las paradojas
no hicieron sino aumentar, volviéndose ubicuas.
La aparición de las paradojas -esto es de estrictas contradicciones- dentro del
gran templo de la racionalidad pura, fue una sorpresa que llevó a la crisis de
fundamentación sufrida por la matemática a principios de este siglo. Era como la
aparición de la serpiente de la irracionalidad en el paraíso de la lógica. Mientras más se
quería ser lógico y racional, más peso y variedad obtenían las paradojas insolubles, que
introducían elementos de irracionalidad insoslayable. Su inquietante presencia casi
forzaba a concluir: "Razonar ha dejado de ser razonable. Las paradojas muestran el
ramalazo suicida de la razón"[72].
Para salir del atolladero en el que se había metido la matemática en su intento de
fundamentación, Hilbert propuso establecer unas bases firmes para un esquema formal
amplio en el que "se incluirían todos los tipos de razonamiento matemáticamente
correctos para cualquier área matemática particular. Además, Hilbert pretendía que
fuera posible demostrar que el esquema estaba libre de contradicción. Sólo entonces las
matemáticas estarían situadas, de una vez por todas, sobre unos fundamentos
inatacables"[73].
Para poder llevarlo a la práctica, Hilbert concretó su programa en una serie de
preguntas para las que había que encontrar respuestas precisas[74]. Las más importantes
son las siguientes: En primer lugar, las matemáticas, ¿son completas? Es decir: si se
quiere que establezcan un sistema formal bien acabado y completo, toda aseveración
debe poder probarse, de manera que no haya proposiciones verdaderas que no puedan
demostrase, quedando fuera de la sistematización lógica. En segundo lugar, las
matemáticas, ¿son consistentes? Con esto se pone el acento en poder comprobar que las
reglas lógicas, bien construidas y manejadas, no den jamás lugar a conclusiones
erróneas. La última gran cuestión consistiría en determinar si las matemáticas son
resolutivas, o sea: dada una proposición, ¿existe alguna manera de establecer con rigor
si es verdadera o falsa? A grandes rasgos, este era el proyecto de Hilbert, y ese fue el
reto que lanzó a la comunidad científica de matemáticos en el alborear del siglo XX.
Pues bien, el sueño de Hilbert fue dinamitado por el teorema de Gödel. Con él
queda arrumbada en la cuneta la pretensión de conseguir que la racionalidad lógica se
baste a si misma de forma autónoma. Porque, dicho sin tecnicismos, Gödel demostró
que es posible encontrar proposiciones verdaderas que, por muy bien que se construya
un sistema lógico, no es posible verificar ni refutar. En todo constructo lógico-racional
hay verdades «indecidibles»: sabemos que son verdaderas, pero no es posible
demostrarlo ni refutarlo. Es más, también demostró que la misma consistencia del
sistema formal era una de esas proposiciones «indecidibles», que no se podían probar ni
invalidar.
El trabajo de Gödel expuso el primer teorema de limitación de los formalismos, al
que han seguido otros. Por ejemplo, el Teorema de Tarski (1935): "Existen sistemas
formales para los cuales toda interpretación conduce a enunciados a la vez verdaderos y
no derivables (demostrables)". Que, formulado con brevedad, podría decir: "Lo que es
verdadero no es siempre demostrable"; o también: "La noción de verdad no es
formalizable". También Church (1936) aportó su teorema de limitación: "El cálculo de
predicados de primer orden es indecidible". Este es un teorema estrictamente sintáctico,
que tiene gran fuerza; los dos anteriores acuden a la interpretación de formalismo, no a
la estricta sintaxis[75].
Pero, ¿qué interés tiene todo esto para el tema que nos ocupa? Los teoremas de
limitación, al mostrar que hay barreras imposibles de salvar para la lógica, ponen
también límites a lo que es posible alcanzar con cualquier máquina lógica. Así, por
ejemplo, el Teorema de Gödel demuestra que hay una infinidad de verdades -de
proposiciones verdaderas- inaccesible para una máquina lógica, a las que sí podría
llegar la inteligencia humana. Por este motivo son muchos los que han acudido a los
teoremas de limitación para señalar la diferencia entre la Inteligencia Artificial y la
humana. Lo han hecho Penrose, Benacerraf, Hofstadter, Tymoczko... y muchos otros[76].
Es casi un lugar común entre los críticos de la Inteligencia Artificial fuerte.
No me parece mal que se utilicen los teoremas de limitación en ese sentido. Es
válido hacerlo. Aunque resulta inútil para mi propósito. No busco averiguar
limitaciones en las máquinas lógicas. Indago acerca de si hay alguna operación que
haga la inteligencia humana que sea cualitativamente diferente de las que hacen las
máquinas. Investigo si hay un modo humano de ser inteligente. Para esta finalidad los
teoremas de limitación no sirven: señalan limitaciones para todos los formalismos. Los
utilicen las máquinas o el hombre. "Se trata de un límite que vale tanto para nosotros
como para los ordenadores"[77]. Esos teoremas no indican nada específico que haga el
hombre, sino que demuestran las limitaciones que también él tiene si se empeña en ser
estrictamente lógico.
Aunque los teoremas de limitación no sirvan para establecer operaciones
propiamente inteligentes, pueden, sin embargo, ayudar a desbrozar el terreno para
luego averiguar qué es la inteligencia.
La cuestión de fondo que me interesa suscitar es la siguiente: Se puede decir que
Hilbert planteó la tarea de llegar a los mismos límites de la razón pura, para
fundamentarla. Esta no es una afirmación metafórica, puesto que "las doctrinas acerca
de los fundamentos de las matemáticas son también (...) investigaciones acerca del
fundamento de la lógica simbólica; la filosofía de las matemáticas es también lo mismo
que la filosofía de la lógica simbólica. Con ello, la noción de matemáticas adquiere un
grado de generalidad mucho mayor que en las concepciones clásicas, muy alejada de la
antigua teoría que las consideraba como ciencia de la cantidad o de relaciones entre
cantidades"[78]. Esta afirmación es crucial: debe tenerse en cuenta que al hablar de las
matemáticas y de su fundamentación, en realidad nos estamos refiriendo a la lógica y a
la misma pretensión racionalista. Los matemáticos, artesanos de la razón y de la lógica,
son los que han encontrado el finis terrae, más allá del cual no se puede ir.
También, excavando en los cimientos sobre los que se sostienen sus andamiajes
mentales, han descubierto que no se sustentan a sí mismos. "El significado filosófico de
este hecho es notable: de ningún modo se puede desvincular sin reservas la lógica, aún
entendiéndola como mera sistematización formal, del problema de la verdad intuitiva.
Si se quieren hacer las cosas con el debido rigor, no puede darse nada que se denomine
«cálculo puro», si no se «apoya» en alguna evidencia intuitiva, es decir, si no va a
remolque de alguna proposición verdadera"[79]. A la razón hay que darle verdades para
que comience a andar, y también para que camine con sentido. En el caso de que lo
haga bien, "deberemos tener siempre presente que «sabemos» más cosas sobre un
campo de objetos suficientemente complejo que cuantas somos capaces de
demostrar"[80]. Hay quien pregunta: ¿eso está demostrado?, buscando el santo grial de la
verdad de una afirmación. Después de Gödel sabemos que esa es una manía
empobrecedora para el conocimiento.
Si no se le dan verdades, sino falsas quimeras, la razón avanza igualmente. Su
caminar se llena de las razonadas sinrazones de Don Quijote. Porque razones hay para
todo, y para todos los gustos. Dolorosa experiencia tenemos en el siglo XX de que el
sueño de la razón produce monstruos, como vio Goya[81]. Si sólo se tiene razón, se tiene
muy poco. Lo podemos afirmar con las buenas razones que aportó Gödel.
La crisis de fundamentación de la matemática puede considerarse, en gran parte,
como la del mismo racionalismo filosófico, en tanto que entroniza a la racionalidad
lógica en la cima del pensamiento humano. Me interesa insistir en este punto, porque
debe quedar patente que el proyecto investigador de Hilbert, en realidad, no se
distingue de aquel que intentaba el racionalismo filosófico. "Hilbert propuso a los
lógicos y matemáticos una tarea gigantesca y muy afín al espíritu con que Descartes
trataba de encontrar un lenguaje universal capaz de someter a su rigurosa trama
deductiva «todos los pensamientos humanos» (...) Su sueño era la culminación de la
vieja pretensión formalista"[82]. Los teoremas de limitación fueron el terremoto que
volvió inestable el terreno sobre el que Hilbert quería edificar el palacio de la lógica, de
la racionalidad pura.
Ese terremoto nos afecta a todos, en la medida en que tenemos las ideas de una
civilización, la occidental, y una cultura que considera la razón y la lógica como lo más
logrado de la inteligencia. Quien considere que pensar, pensar en serio, es sólo razonar
y ser lógico, reduce su pensamiento a algo limitado e inconsistente.
Sin embargo, es bien difícil librarse del «prejuicio racionalista». Lo tenemos
metido en la sangre que corre por las venas de nuestras ideas; está en la entraña de
nuestros hábitos mentales; es una de nuestras más firmes creencias[83]. Es una vieja
ilusión colectiva, cuya muerte nos negamos a creer, de la que Ortega escribió un buen
panegírico: "Que esa lógica tenida por los hombres mejores de Grecia, Roma y Europa
como la única cosa intramundana que absolutamente no era ilusión sino algo efectivo y
del todo fehaciente, se desenmascarara como una ilusión más que el hombre ha
abrigado y ahora pierde: era una utopía, algo meramente imaginario, un desideratum y
un ideal que se juzgaba ser una realidad lograda y poseída, y esto, sin interrupción,
durante veinticinco siglos, la lógica fue descubierta hacia el 480 a. de C. ¡No es flaca la
pertinacia de esa ilusión! ¡Qué más quisiéramos que poseer otras ilusiones que nos
ilusionasen durante dos mil quinientos años!"[84].
Tras los lamentos, veamos qué se puede hacer para poner alguna cosa en su sitio.
Resulta que la lógica, la razón que razona según reglas de raciocinio, a pesar de todo es
un buen invento. No es más que eso: un buen invento. El “copyright” de la idea se lo
reparten antiguos habitantes de Grecia y de la India. En ambos lugares se inventó la
lógica, aunque en Occidente nos resulta más familiar la proveniente de Grecia[85]. En el
resto de la tierra, todas las demás civilizaciones y culturas que conocemos, no parecen
haberla echado en falta. La bondad de aquel invento ha encandilado durante mucho
tiempo, en especial a los occidentales en la Edad Moderna, que adjudicaron a la razón el
monopolio del pensar. En este punto puede ser interesante hacer una digresión
histórica.
El intento de fundamentar la razón no fue buscado por los racionalistas de la
Edad Moderna por dos motivos: en primer lugar, porque tenían una sencilla fe de
carbonero en la razón, por lo que no se plantearon en serio su fundamentación o sus
límites. En segundo lugar, porque los siglos de mayor fervor racionalista constituyen
una época en la que se habla mucho de la razón y de la necesidad de ser estrictamente
lógicos, pero la lógica no era una ciencia que en realidad se cultivase. Es curioso
constatar que la época que profesó la fe en la razón (siglos XVI a XIX) es, junto con la
Alta Edad Media (siglos VII a XI), la menos lógica, o menos «racional», de toda la
cultura occidental[86]. Desde que los griegos comenzaran el desarrollo de la racionalidad
-del logos- y se iniciase la ciencia de la lógica, no ha habido en Europa épocas más
ignorantes que esos dos pozos oscuros de la historia de la ciencia lógica, en los que casi
nadie se preocupaba de saber cómo se piensa de forma rigurosa. En el idealismo
alemán, por ejemplo, la incultura lógica alcanza niveles sorprendentes. "En cierta
manera se trata de una recaída detrás de Platón y Aristóteles, de un regreso a ese nivel
de conocimiento de la lógica que se tenía en la escuela Eleática y en la Sofística que le
siguió. Entonces, cuando por primera vez se reflexionó sobre conceptos tales como ser,
cambio, identidad y predicado, la falta de reflexión lingüística (la interpretación objetiva
de determinaciones que en realidad son lingüísticas y el no tener en cuenta las
equivocidades) condujo a paradojas" [87]. La época racionalista llega a ser de tal
ignorancia, que ha sido necesario redescubrir casi todos los temas de la lógica,
volviendo a conectar con el trabajo desarrollado en la Baja Edad Media, época que ha
resultado ser mucho más lógica y racional de lo que es común pensar.
Nos hemos caído del guindo racionalista. "La sana razón no es tan sana ni tan
natural como suele aparentar. Sobre todo no es tan absoluta como se presenta, sino que
es el producto superficial de aquella manera de representar que caracteriza finalmente
la época de las luces en el siglo XVIII"[88]. Se acabó el monopolio de la razón.
Actualmente, conocedores de sus carencias, la hemos privatizado: somos
postmodernos. Los teoremas de limitación ofrecen una buena base para los filósofos
postmodernos que niegan la existencia del Gran Discurso. No existe LA
EXPLICACIÓN, no hay ningún montaje racional de ideas lógicamente trabadas, al que
tengamos que prestar veneración, acatamiento y adhesión inquebrantable. Tampoco
hay que buscarlo, ni construirlo: es un proyecto que Gödel ha condenado al fracaso. Si
queremos ser inteligentes habrá que hacer otras cosas.
Somos postmodernos y minimalistas a nuestro pesar. Con desilusión y
desencanto. Ya no hay lugar para aquella obra genial, vigorosa y definitiva que nos
encumbraría a una fama imperecedera. El ambicioso aliento que impulsó a Descartes, a
Kant, a Hegel, a Marx, y a tantos otros, se nos ha convertido en pretencioso resoplido.
¡Malditos sean los teoremas de limitación! Sólo queda consolarnos bordando algún
dechado con razones primorosas, bellamente hiladas. Nunca será admirado por todos
(siquiera pretenderlo sería políticamente incorrecto) salvo por las visitas emparentadas
por la misma «sensibilidad», que dirán discretas alabanzas de una obrita que no tenía
más pretensiones. Con un poco de suerte se puede alcanzar una efímera celebridad en
los circuitos de las modas culturales. Aunque menos que en las pasarelas.
En algunos, el desencanto por la razón se convierte en beligerancia. Así
Unamuno: "En rigor, la razón es enemiga de la vida"[89]. También Heidegger se suma a
la crítica: "El pensar sólo empieza cuando nos enteramos de que la razón -muchos siglos
exaltada- es la más porfiada enemiga del pensar"[90]. Otros, como los autores de la
Escuela de Franckfurt (Marcuse, Adorno, Horkheimer...) desvelan un rasgo
característico de nuestra cultura, heredera de la modernidad: "La índole racional de su
irracionalidad"[91]. En lo que depende del intento racionalista de la modernidad, nuestra
civilización muestra los rasgos del enajenado mental que definía así Chesterton: "Loco
es aquel que ha perdido todo menos la razón". Se ha terminado el prestigio de la «sola
razón»: ella sola no se fundamenta ni da cuenta cabal de sí misma.
Dejando las extrapolaciones filosóficas y volviendo a la discusión sobre la
Inteligencia Artificial, puede afirmarse que, en la medida que consideramos que pensar
es sólo manejar símbolos formales -números, palabras, universales lógicos o lo que se
quiera-, no hay manera de asegurar ni su consistencia, ni su completitud, ni su
significado unívoco y preciso. Una construcción formal, lógica o racional, siempre es
limitada y sólo sirve para lo que efectivamente sirva. Si pensar es sólo tratar
formalizaciones lógicas, entonces el pensamiento llega a muy poco y muy
limitadamente. Con el inconveniente, además, de que no hay manera de saber a lo que
efectivamente alcanza, desde criterios intrínsecos al sistema formal.
Por otra parte, lógicas hay muchas. Cada una tiene sus ventajas y sus
inconvenientes. No se debe condenar la razón a un monocultivo, que la deje
subdesarrollada. Edificios formales de razones se pueden construir variadísimos. No
todos tienen que ser como el chalet piloto, cuyo único mérito fue ser el primero y el que
más gente conoce. Quien quiera alguno a su medida, que consulte con los matemáticos.
Ellos le dirán si es posible hacer, con las actuales técnicas constructivas conceptuales, las
modificaciones que pide la casita de sus sueños racionales. Los científicos acostumbran
hacerlo así, y no les va nada mal. Suelen edificar sobre seguro.
Para acabar este apartado, dejaré abierta una cuestión, para la que no conozco
respuestas. Es la siguiente: Los teoremas de limitación afectan a los humanos lógicos y a
las máquinas lógicas. ¿Señalan límites también para las redes neuronales, naturales humanas o no- y artificiales, que no parecen ser máquinas lógicas? En la medida en que
se consiga que una red neuronal trabaje en «modo lógico», entonces valdrán los
teoremas de limitación. Pero las redes neuronales no funcionan así, salvo la red
neuronal humana, en las contadas ocasiones que consigue ser «lógica». Una red
neuronal trabaja de manera que cabe describir como intuitiva, asociativa,
generalizadora, flexible, holística y por aprendizaje. Los teoremas de limitación de los
formalismos no parecen competentes para señalar sus imposibles. Para las redes
neuronales electrónicas se han descubierto otras limitaciones, como la indicada carencia
de soluciones convergentes. Sería interesante averiguar con más pormenor qué
limitaciones intrínsecas tiene nuestro sistema de tratamiento de información, formado
por neuronas biológicas.
Test de Turing: ¿Cómo igualar a las máquinas?
En el capítulo anterior he expuesto el papel fundamental que jugó Turing en el
desarrollo de los ordenadores. Además, en un artículo de 1950 que se ha hecho
famoso[92], Turing también planteó si de esas máquinas, que él había diseñado
teóricamente, se podía afirmar que pensaban. Aún más, expuso un criterio bien sencillo
y práctico para dilucidarlo, el llamado test de Turing. En esencia consiste en poner una
persona y un ordenador en dos habitaciones aisladas. Con ellos es posible comunicarse
mediante un teletipo. Si, planteando cuantas preguntas y cuestiones queramos, no
somos capaces de distinguir en qué habitación está el ordenador y en cuál la persona, es
que el ordenador es capaz de realizar operaciones inteligentes iguales a las humanas.
Su opinión personal era que las máquinas superarían el test y, por tanto,
deberían ser consideradas inteligentes. Para Turing, como buen lógico, pensar consiste
en realizar operaciones lógicas manejando símbolos de manera adecuada. Es indiferente
el hecho de que esa tarea la realicen unas neuronas encerradas en una caja craneana de
hueso, o se haga por otros dispositivos dispuestos dentro de una caja de chapa metálica
o de plástico. Por eso, en el artículo citado, concluye tranquilamente: "Creo que al final
de este siglo -el siglo XX- nuestras ideas y opiniones habrán evolucionado lo suficiente
como para poder hablar sin rubor de máquinas pensantes".
No fue mala profecía. En efecto, sobre máquinas pensantes hablamos y
escribimos sin rubor, y con gran abundancia. Precisamente, para salvar los muebles de
la inteligencia humana ante la inundación de resultados de la Inteligencia Artificial, al
test de Turing se le han puesto no pocas pegas. Por ejemplo: no es válido, porque hace
una petición de principio, ya que limita las operaciones a las que pueden transmitirse
por teletipo[93]. Sólo sirve si se tiene una teoría representacional y computable de
conocimiento, pero no es válido para el conexionismo[94]. Es insatisfactorio, porque no
considera la semántica, se limita al intercambio de símbolos[95]. Valga la muestra,
porque es enorme el montón de artículos, a favor y en contra, accesibles a cualquier
internauta.
Puesto a echar mi cuarto a espadas, lo primero que debo decir respecto del test
de Turing es que resulta perfectamente válido e irreprochable. También es adecuada la
postura desde la que se formula: de poco sirve discutir acerca de qué sea el
pensamiento de una manera apriorística, mediante consideraciones teóricas que para
nada tengan en cuenta lo que se pueda efectivamente comprobar[96]. Quizá el test de
Turing resulte chocante para la mentalidad racionalista en la que nos hemos formado.
En ella las razones apriorísticas, verdaderos prejuicios, juegan un papel demasiado
relevante para aceptar o rechazar la realidad comprobable, especialmente en el campo
de las «humanidades». Sin embargo es un criterio que seguramente gustaría a
Aristóteles, para quien las facultades se distinguen por sus operaciones. Es decir, no se
distinguen de una manera formal y a priori, sino que reconocemos facultades distintas
al observar operaciones diferentes. El criterio de Turing es ese mismo criterio clásico,
ceñido al comportamiento o a las operaciones que denominamos inteligentes. En este
ámbito su formulación es perfecta. No insisto en este punto porque me parece evidente:
si algo hace X es porque tiene la facultad, o la capacidad, o la posibilidad, o la aptitud
de hacer X.
Las razones contrarias a la validez del test de Turing no me parecen relevantes.
Su bondad básica es innegable. Si hay algún campo donde no pueda aplicarse tal como
lo formuló, pues amplíese. Si no gusta el teletipo, se puede hacer el test con micrófono y
sintetizador de voz. Pueden también servir los aparatos desarrollados para que los
humanos se desenvuelvan en entornos virtuales. Para la semántica: pongamos una
máquina a competir con un humano contando ovejitas en un prado, o glóbulos rojos en
la placa del microscopio, etc. Por otra parte, el criterio de Turing es el que utilizamos
continuamente para decidir si una persona es más o menos inteligente: por sus obras, en
comparación con las de otros. Puedo tener ante mi una persona inteligentísima, pero si
se comporta como una lechuga, jamás lo averiguaré. También establecemos el nivel de
inteligencia en los animales con variantes del test de Turing adecuadas a sus
capacidades.
Turing, con razón, defendió la validez de su criterio, siendo muy consciente del
aprieto en que ponía a los contendientes de lo que hasta ese momento era una pura
discusión teórica, en su peor sentido. Con ello estableció unas reglas en las que el juego
de determinar lo que había de singular en el pensamiento humano era practicable. El
test de Turing tiene una enjundia evidente. Si se puede emplear, y es el caso que ahora
podemos, resulta insoslayable su aplicación para el que quiera determinar a qué
llamamos «pensar». Permite evitar las discusiones en el vacío.
Por lo tanto, si fabrico una máquina que es capaz de hacer una determinada
operación, que no se puede distinguir de otra realizada por un ser humano y a la que
llamo «pensar», entonces hay que concluir que la máquina piensa efectivamente. Del
mismo modo que, si construyo una máquina capaz de hacer eso que denominamos
«volar», por el procedimiento que sea, entonces he de afirmar que la tal máquina tiene
la facultad de volar. Pongo de intento el ejemplo de «volar». Siempre me sorprendió
que, en su día, se dieran todo tipo de razones, desde físicas hasta metafísicas, para negar
que pudiera volar un aparato más pesado que el aire construido por manos humanas.
Para los aviones, como para muchos de los inventos de la Inteligencia Artificial, vale el
dicho: lo hicimos porque no sabíamos que era imposible.
Frente a las implicaciones del Test de Turing, no se trata de edificar con
precipitación algún chiringuito conceptual en el que refugiar con prisa la inteligencia
humana para salvarla de la quema. Quedaría en precario fácilmente. Conviene
escarmentar con lo que sucedió al vitalismo. Se inventó como cortafuego que salvara la
singularidad de la vida ante las pretensiones totalitarias del mecanicismo. Pero: "El
vitalismo es una doctrina típicamente defensiva y conservadora; más aún, torpemente
conservadora"[97]. Fracasó por el desarrollo de la bioquímica iniciada con la síntesis de la
urea por Wöhler en 1828. A riesgo de ser pesado: Considero que el problema es
determinar si hay alguna operación incluida bajo el polisémico término «pensar», que
no sea capaz de hacer una máquina. La situación actual es óptima para emprender la
tarea con una buena base empírica.
Para aclarar ideas, invito al lector a un experimento mental, a uno de aquellos
Gedankenexperiment que tanto gustaban a Einstein. Imaginemos la puesta en práctica
del siguiente test de Turing: yo estoy en una habitación. En la otra habría un grupo
amplio y selecto de máquinas pensantes. Las dos habitaciones se comunican con el
exterior mediante teclados, micrófonos y altavoces. Pregunta: ¿Es posible averiguar
dónde estoy? Respuesta: muy fácilmente, allí donde aparezcan las respuestas menos
inteligentes. Lo explicaré.
Si el interrogador se atiene a las preguntas de los últimos exámenes de
selectividad, o, si lo prefiere, a los temarios de las diferentes oposiciones celebradas en
este país durante los últimos años, es fácil entender que los ordenadores responderán
mejor que yo. Tendrán más nota en el examen. Mientras más conocimientos abarquen
las preguntas, menos posibilidades tengo yo de pasar el test de Turing frente a los
ordenadores. Tienen más memoria, almacenan muchos más conocimientos y cuentan
con procedimientos de búsqueda muy ordenados y eficaces. En ellos confiamos para
recordar.
Sigamos imaginando. La prueba se hace por la noche. En las dos habitaciones, el
techo de cristal permite ver el cielo estrellado. Las preguntas podrían ser: ¿qué ves?,
¿qué es esto, o aquello?, ¿describe con detalle todo lo que observes que consideres
relevante? En este caso las máquinas arrasarían: me gusta ver el cielo en una noche
clara, pero sé muy poca astronomía.
El experimento mental sólo quiere servir para poner de manifiesto que, en lo que
la inteligencia humana tiene de «informávoro»[98] -sistema que adquiere, almacena y
trata información- las máquinas racionales son muy superiores.
Para observar la realidad no nos consideramos capaces de pasar el test de Turing
frente a las máquinas, no merecemos confianza: ante un mismo fenómeno cada cual
cuenta su propia historia. Para adquirir información hace tiempo que no confiamos en
los sentidos. Por ejemplo: El ojo humano sólo ve una parte pequeña del espectro
electromagnético: el rango de la luz visible. Aún en ese caso, si la radiación es débil, se
le escapa. Su resolución, los detalles que es capaz de distinguir, también es limitada.
Incluso para las cosas que somos capaces de ver, hace falta mucha disciplina y mucho
entrenamiento para alcanzar alguna objetividad en las descripciones. En el telescopio
espacial Hubble no hay ningún astrónomo mirando las estrellas y galaxias, lo hace una
cámara CCD (Charge Coupled Device), mucho más sensible y «objetiva». Igualmente,
en las colisiones multitudinarias que se producen en un acelerador de partículas, nadie
humano mira nada, porque nada vería. Se espera que un enorme aparato explique lo
que ha pasado. Son dos ejemplos tomados de la física de lo muy grande y de lo muy
pequeño. Hay muchos más. Un médico que estudia el resultado de un escáner (un
TAC), lo que mira es una imagen generada por ordenador. Si ha pagado lo suficiente
por el aparato, puede tener imágenes muy bonitas en falso color, para que le sea más
fácil interpretarlas. Igual sucede con una Resonancia Magnética Nuclear: al médico no
se le pueden dar listas inmensas de tiempos de relajación de spin, de poco le servirían.
No somos tan inteligentes como para manejar tantos datos. La máquina, gentilmente,
los ofrece digeridos y procesados en forma de falsa imagen. En todas las ciencias, en
todas las áreas del conocimiento un poco desarrolladas, la adquisición de información
está confiada a instrumentos, que no sólo prolongan nuestros sentidos, sino que los
sustituyen y mejoran.
La galería de genios de la humanidad está llena de personas consideradas muy
inteligentes, porque aportaron muchos datos precisos, mucha información, como Tycho
Brahe para la astronomía: puso la base sobre la que edificó Kepler. En esa galería
tendremos que incluir cada vez más máquinas. Hacia Marte no se ha enviado a
Livingston, ni a Stanley, para que vuelvan con un relato de viajes, y un pobre croquis
impreciso del equivalente marciano a las fuentes del Nilo. A Marte se ha dirigido un
satélite, el Mars Global Surveyor, que no nos contará sus aventuras, sino que ha
elaborado un mapa completo y detallado de la superficie marciana. Es menos
romántico, pero mucho mejor para el conocimiento. Para adquirir información las
máquinas son insustituibles.
Si dejamos la adquisición de información y pasamos a considerar su
almacenamiento, la superioridad de las máquinas cognitivas es abrumadora. No entro
en la difícil cuestión de desentrañar cómo se las apaña una red neuronal para tener
memoria. Mucho menos en el caso de nuestra red neuronal biológica. Tampoco entro en
los distintos tipos de memoria que se pueden distinguir. Es un campo de estudio muy
activo[99]. En una red neuronal la memoria parece consistir en la misma estructura e
intensidad de las relaciones entre neuronas. No es algo tan sencillo como en un
ordenador lógico; en él sólo hay memoria de datos y memoria de instrucciones en
lugares bien determinados.
Sea como sea, tenemos memoria y hemos de pasar el test de Turing frente a las
máquinas. Nuestra puntuación será muy baja. Uno de los puntos más débiles de la
inteligencia humana es su memoria. Las civilizaciones orales, que dependen de los
conocimientos memorizados como narraciones y ritos, avanzan muy poco: dependen
demasiado de la memoria individual, que es escasa. Todavía, a finales del siglo XX, se
puede estudiar lo poco a que llegan los grupos humanos que permanecen sin escritura.
En esos grupos los conocimientos pertenecen a los ancianos de la tribu, si consiguen
recordarlos, y mueren con ellos. Unos pocos conocimientos se quintaesencian para ser
transmitidos como la memoria humana parece funcionar mejor: en forma de historias
emocionantes y rituales ceremoniosos, más que con frías definiciones y datos asépticos.
Los mitos, leyendas y ceremonias transmiten, en un caos abigarrado que tiene su
encanto, los conocimientos que consiguen aglutinar. Hay mucha sabiduría decantada en
ellos, pero difícil de aquilatar: el bosque no permite ver los árboles. Junto a buenas
hierbas medicinales está la danza del chamán para ahuyentar los malos espíritus.
Escribir y leer, ¡qué gran invento! La palabra escrita fue un buen remedio a las
carencias humanas para almacenar y transmitir información. Con la imprenta, la
revolución de la copia múltiple e idéntica de información, el avance cognoscitivo fue
aún mayor. Para recordar con precisión no acudimos a nuestra memoria, ni a las
batallas del abuelo, que tanto nos gustan por ser relatos, aunque no sean exactos.
Recurrimos a las fuentes documentales históricas y a las bibliotecas. En especial, los
signos escritos soportan muy bien los conocimientos que mi memoria no retiene:
fórmulas, datos precisos, la historia real que no llega a ser leyenda, cifras exactas, los
términos de un contrato... Información pura y dura.
Las bibliotecas son buenos almacenes de información. Aunque demasiado
voluminosos y de acceso complicado. Sólo los muy leídos, los ratones de biblioteca que
se encuentran cómodos en esos ambientes, saben dónde está la información. El sabio de
las civilizaciones orales, el narrador de historias, fue sustituido por el erudito. Sabe
dónde está el texto o el documento, y quién dijo o hizo qué. Como es imposible manejar
todos los libros, los eruditos suelen serlo por temas: los reyes Godos, la escritura
jeroglífica egipcia, las obras de Kant, el arte románico palentino, la Transición, etc. Los
Ilustrados se preocuparon por preparar un digesto que hiciera más accesible, y
manejable por todos, tanta información libresca: el producto fue La Enciclopedia. Ha
tenido muchos descendientes; los más, dirigidos a niños. Son como papillas que
tomamos para ver si nos hacemos inteligentes de mayores.
La iconografía tradicional coloca a los eruditos entre las personas muy
inteligentes. También pone allí a los que exhiben un saber enciclopédico. Estas dos
imágenes clásicas del humano inteligente están siendo muy devaluadas por la
Inteligencia Artificial. En este aspecto las máquinas racionales superan los test de
Turing con ventaja. Si usted quiere saber de un tema, no acuda a un ser humano
erudito; conéctese a la red, haga trabajar a un buen programa buscador, y póngase en
contacto con las máquinas más eruditas y enciclopédicas del planeta. Quedan cotos
reservados (ciertos archivos afamados) que algunos eruditos humanos se resisten a
entregar a las máquinas, porque les va el sueldo, pero ya caerán; la digitalización es
imparable. Con los eruditos electrónicos pasa lo mismo que con los eruditos humanos:
dan información, citas, bibliografía, etc., pero quizá no aporten ni un gramo de
comprensión al tema que se quiere conocer. No obstante hay motivos para alegrarse: las
máquinas nos resuelven los tradicionales problemas de memoria. Los datos (científicos,
literarios, fotográficos, bancarios, históricos, sociológicos, biográficos, artísticos...) están
a nuestra disposición en bancos de datos. La facilidad para acumularlos comienza a ser
ahora un problema: temo que cualquiera pueda saber y recordar demasiadas cosas de
mi. Hay que poner cerrojos a los datos; las máquinas saben demasiado y son ingenuas:
se los dicen al primero que pregunta.
Vayamos al último punto en el que nos toca superar el test de Turing frente a las
máquinas cognitivas: el tratamiento de la información. Me temo que también aquí
salgamos malparados. Demos un repaso para ver qué encontramos.
Saber fórmulas, aplicarlas a casos normalizados, resolver problemas con las
fórmulas. Leer libros, aprenderlos, relacionarlos con otros textos («de autor» a ser
posible). Técnicas estadísticas, cálculos (si alguien calcula tan bien como una máquina,
que vaya al circo. Ha resuelto su vida). Hacer modelos formales (meteorológicos, o de
mercados financieros, o de población), predecir según el modelo, equivocarse según el
modelo. Superar baterías de test de inteligencia, arrolladoramente (hay que sacar un
buen índice). Relacionar muchos datos, encontrar los que son relevantes, apabullar con
los datos irrelevantes. Perderse en círculos hermenéuticos. Controlar procesos reales
complejos (líneas de montaje para automóviles, centrales nucleares), perder el control.
Presentar una tesis doctoral sobre la aparición de los términos «felón» y «felonía» en la
literatura castellana, relación con otras palabras, uso en todas las obras conocidas,
paulatina desaparición de ambos términos. Demostrar de forma más sencilla teoremas
de los Principia Mathematica, hacer que el mismísimo Russell se interese por ello[100].
Deconstruir textos. Recopilar leyendas yanomanis (decir que son lo más. Se amarra la
beca). Aventurar qué sucede con la conservación del momento cinético de la materia
colapsada en un agujero negro. Diccionarios de significado, de uso, de términos
técnicos, o para traducciones. Jugar al ajedrez (la máquina me gana siempre. No hay
modo). Estar al día: borrar la información antigua, incorporar la que aparece en los
últimos artículos de la revista de mi especialidad (mejor no borrar la información
antigua. Guardarla para artículos históricos, o para introducciones eruditas de los textos
propios). Pilotar aviones, estrellarlos. Corregir textos (aprovecho la ocasión para dar las
gracias a mi asistente electrónico para sinónimos, al corrector ortográfico y al
gramatical. Ser de «ciencias» me tiene desentrenado con las palabras). Pasar los
exámenes finales de cualquier carrera, con premio extraordinario. Formar grupos de
trabajo para resolver un problema (los mejores grupos de trabajo que conozco, los más
coordinados, los forman ordenadores). Escribir muchas palabras sobre las palabras que
escribieron otros. Dar soluciones aproximadas a ecuaciones diferenciales mediante
series de Taylor...
No se dónde buscar. Las máquinas racionales están invadiendo todas las áreas
inteligentes. Cada vez dejan menos hueco para que podamos pasar el test de Turing con
la cabeza alta. Estamos en retirada, vencidos y humillados. En las tareas que requieren
inteligencia, donde no se colocan máquinas para llevarlas a cabo, es porque no
compensa económicamente el gasto de su desarrollo. Resulta más barato que lo hagan
humanos inteligentes, aunque puedan tratar menos información, sean más lentos, y
cometan errores. Valen para el Ministerio de Cultura, pero no para el de Hacienda.
Donde el tratamiento de información va en serio y hay mucho en juego, las máquinas
son imprescindibles. Aquí suscribo la profecía de Moravec: "La inteligencia de un robot
sobrepasará la nuestra antes ya del año 2050. Habrá entonces robots científicos
formados y educados, producidos en serie, que trabajarán de manera inteligente,
económica, con rapidez y eficacia crecientes, lo cual garantizará que la mayoría de los
conocimientos que la ciencia atesore en el 2050 habrán sido descubiertos por nuestra
progenie artificial"[101].
Hasta aquí el juego de imaginar que nos enfrentamos al test de Turing frente a
máquinas racionales. ¿Qué se puede deducir? Es obvio que se nos ha hundido el
paradigma sobre la inteligencia humana con el que habíamos vivido hasta ahora. Con él
hemos diseñado la educación, el proceso de formación de humanos para considerarlos
inteligentes; damos los premios y distinciones; hemos fabricado una Antropología, una
Psicología y una Pedagogía; establecemos los modelos y las metas; medimos gran parte
del nivel de civilización y de progreso; construimos muchos de los ideales en que
creemos vale la pena poner la propia vida.
Es el paradigma desde el que Turing hizo su acertada profecía. Ateniéndose a ese
paradigma, Turing tiene más que razón: no es que hablemos sin rubor de máquinas
racionales, es que lo son más que nosotros. Ese marco conceptual o paradigma
comenzó, en Occidente, con los griegos. Algunos de ellos, ya lo veremos, no se lo
acabaron de creer. En la Edad Moderna, a partir de Descartes de modo explícito, lo
hemos profesado a pies juntillas. Descartes inventó la separación entre res extensa (lo
material y extenso) y res cogitans (la cosa -vaya palabra premonitoria- pensante).
Confinó la inteligencia humana en aquella abstracta racionalidad espiritualizada,
dotada de sustancia propia, a la que llamó res cogitans. Inicia una camino teórico y
práctico que nos ha llevado donde estamos. El avance ha sido espectacular, aunque no
nos haya conducido al paraíso racionalista que muchos soñaron. No hay que desandar
el camino: se nos ha vuelto espléndida carretera, con veloces máquinas para recorrerla.
Hay que inventar nuevos caminos.
Llegados a este punto, produce asombro constatar cómo el intento de Descartes y
Leibniz de racionalización absoluta, junto con la separación de la res cogitans y la res
extensa, es el que andando el tiempo ha conducido a realizar operaciones racionales
mediante máquinas. "Lo que resulta paradójico es que fueran precisamente ellos,
Descartes y Leibniz, los que profundizaron en un campo de reflexión (que había
transitado antes Llull) que iría a parar finalmente en la negación de la diferencia
insalvable entre mentes y máquinas: en la Máquina de Turing, los ordenadores y la
concepción «mecanicista abstracta» de lo mental, que caracteriza el paradigma
dominante de la psicología cognitiva. ¿En que consistió ese camino? Descartes y Leibniz
dieron los primeros pasos hacia el ideal de definir un lenguaje lógico universal que
fuese capaz de asegurar el rigor deductivo de cualquier clase de razonamiento, y evitar
disputas inútiles entre los hombres acerca de todo aquello que puede resolverse por
medio de un algoritmo. De forma que los racionalistas ya imaginaron la posibilidad de
un autómata abstracto y universal, como lo es el de Turing. Lo que no preveían era que
esa imagen (sobre todo al encarnarse en la fría piel de los ordenadores) terminaría por
echar por tierra su explícita negación de la posibilidad de reducción mecanicista de la
mente"[102].
Por muy paradójico que resulte el camino, la res cogitans se nos acaba de morir,
ya sólo queda la res extensa. Para nuestra sorpresa, la res extensa cartesiana ha
resultado ser bastante cogitans. En especial si la res cogitans se reduce, como quería
Descartes en gran parte y luego popularizó el racionalismo ilustrado, a un conjunto de
habilidades matemáticas, lógicas, o formales. Esa res cogitans podemos fabricarla ahora
a partir de la res extensa, y no existe el problema de ver cómo se relacionan. No son
substancias separadas y de difícil comunicación. La Inteligencia Artificial deja al
dualismo cartesiano sin sentido. Si el cogito, si pensar, consiste en una pura capacidad
racional o formal, pertenece también a la máquina extensa material. En la res extensa
hay más logos y capacidad de logos de la que nunca pensó el racionalismo. Si se ordena
y dispone la res extensa de forma adecuada, la materia deja de ser la mostrenca
extensión cartesiana. Se vuelve capaz de igualar a los racionalistas más conspicuos, que
la miraban con displicencia instalados en la falsa superioridad de la res cogitans.
Cogito, razono, luego me ganan las máquinas.
Hay un lado muy bueno en este asunto. Resulta que en los ordenadores tenemos
a nuestra disposición, como metido en la lámpara de Aladino, al genio que adoraron los
racionalistas. Gracias a los trabajos de la Inteligencia Artificial escapamos a la esclavitud
de la razón, con su insalvable dictadura lógica, y la ponemos al nivel de mero
instrumento humano. Además, Gödel y sus sucesores han desvelado las desnudeces de
aquel emperador pretenciosamente vestido. En una palabra: a la Diosa Razón, que los
ilustrados franceses entronizaron en Notre Dame, le hemos puesto en las manos un
cubo y una fregona: la tenemos trabajando para nosotros. Ahora se trata de averiguar lo
que es capaz de hacer, junto con la mejor manera de darle buen uso, para que no se
desmande de nuevo y vuelva a exigir adoración.
También debemos agradecer a todos los que trabajan en Inteligencia Artificial el
habernos librado de una imposible y agotadora tarea: buscar la quimérica resina epoxi
conceptual que uniese la res cogitans con la res extensa. Han conseguido que la res
extensa sea extraordinariamente racional, del todo lógica. Puede cesar la búsqueda. De
camino recuperamos la posibilidad de entendernos sin acudir a ideas que nos partan
por la mitad.
Otra cuestión, que de aquí se deriva, es si la denominación de animal racional
indica suficientemente lo específico humano. Es evidente que esta pregunta toca un
aspecto central de la antropología. Pues bien, a mi parecer, estamos en condiciones de
responder negativamente a la pregunta. Si por racional se entiende la capacidad de
manejar símbolos formales, de hacer constructos racionales, de moverse en un plano
lógico, de hacer demostraciones deductivas o inductivas, o de aprender mediante
símbolos nuevos, entonces resulta que no por eso el hombre es un ser singular. En el
árbol de Porfirio, táchese racional como diferencia específica para el animal humano.
Las máquinas están resultando ser mucho más racionales que el hombre. Si hay algo
singular en los seres humanos, habrá que buscar por otro lado. Por ahora estamos
aprendiendo a utilizar, para pensar racionalmente, otras cabezas artificiales porque
resultan más dotadas que la nuestra. En la tarea hay éxito y buenos resultados. Nada
importa llegar a un sitio utilizando las propias neuronas, o unas tomadas en préstamo,
si lo hacen mucho mejor y facilitan la trabajosa tarea de adquirir, almacenar y procesar
la información.
Pero dejo las alturas filosóficas y vuelvo a los terrenos informáticos. No somos
animales racionales y las máquinas lógicas nos vapulean en los test de Turing: cierto.
Sin la facilidad de las máquinas, sólo consigo ser lógico a veces: cierto. Pero hay un
asunto que me intriga. ¿Cómo unos bípedos dotados de cerebro hemos conseguido
inventar la lógica, creernos el invento hasta venerarlo, y luego fabricar las máquinas
lógicas, para que nos ganen en los juegos racionales? ¿Cómo los animales humanos nos
las hemos compuesto para conseguir esa hazaña con la única dotación de una red
neuronal? Otros animales las tienen, y muy apañadas. El hombre de Neanderthal
incluso estaba más dotado: 1.500 cc. de cerebro, frente a 1.300 cc. en el homo sapiens
sapiens, de media. Los animales dotados de mejores redes neuronales, cercanos
filogenéticamente como el chimpancé o lejanos como el delfín, tras años de
entrenamiento no pasan sino test simbólicos mínimos, que son significativos sobre todo
por el entusiasmo de sus entrenadores.
También quisiera saber de dónde viene, por ejemplo, la afición por los números,
que ha llevado al mono desnudo a inventarlos, a imaginar nuevas formas de
representarlos y hacer operaciones, o a realizar la pirueta mental en el vacío que supone
el número cero...[103] Así durante milenios, en un paulatino y trabajoso avance, porque a
nuestra red neuronal no le resulta natural manejarlos. Así, también, hasta hacer una
teoría de los números, para saber qué era eso con lo que hemos estado trasteando
durante tantos siglos. No es nada fácil -quienes trabajan en redes neuronales lo saben
bien- conseguir algo semejante. ¿Qué hace falta para que una red neuronal trabaje en
«modo lógico»?; ¿cómo es posible conseguirlo?; ¿por qué los niños se aclaran con las
máquinas lógicas -los ordenadores- mejor que los adultos?; ¿por qué sólo los
matemáticos jóvenes parecen capaces de hacer aportaciones fundamentales?; ¿hace falta
una plasticidad especial del cerebro que luego se pierde? Son preguntas cuya respuesta
me gustaría conocer, junto a mucha otras. Me intriga una red neuronal, la humana, que
se atreve a afrontar el test de Turing frente a máquinas lógicas, aunque no lo haga
brillantemente.
La habitación china de Searle: ¿Sabemos de qué hablamos?
Si se hiciera una lista de los argumentos más nombrados en la polémica sobre la
Inteligencia Artificial y la humana, el primer lugar quizá correspondería al de Searle [104].
Es una variante, en forma de Gedankenexperiment, del test de Turing, que incide en
un aspecto particular de lo que llamamos conocer. El lector ya se ha entrenado en este
tipo de ejercicios mentales en el apartado anterior. Como el mismo Searle se ha tomado
el trabajo de exponerlo en forma sencilla, me limitaré a transcribir sus palabras,
resumiéndolas:
"Tomemos un idioma que no comprendamos; en mi caso tal idioma puede ser el
chino (...). Supongamos ahora que me instalan en una habitación que contiene cestas
repletas de símbolos chinos. Supongamos también que me proporcionan un libro de
instrucciones en español, con reglas que estipulan cómo han de emparejarse unos
símbolos chinos con otros. Las reglas permiten reconocer los símbolos puramente por
su forma y no requieren que yo comprenda ninguno de ellos (...).
"Imaginemos que personas situadas fuera de la habitación y que sí comprenden
el chino me van entregando pequeños grupos de símbolos, y que, en respuesta, yo
manipulo los símbolos de acuerdo con las reglas del libro y les entrego pequeños
grupos de símbolos. Ahora, el libro es el «programa informático»; las personas que lo
escribieron son los «programadores» y yo soy el «ordenador». Los cestos llenos de
símbolos constituyen la «base de datos», los pequeños grupos que me son entregados
son «preguntas» y los grupos que yo entrego, las «respuestas».
"Supongamos ahora que el libro de instrucciones esté escrito de modo tal que mis
«respuestas» a las «preguntas» resulten indistinguibles de las de un chino nativo. Por
ejemplo, la gente del exterior podría entregarme ciertos símbolos, desconocidos por mí,
que significan: «¿Cuál es tu color favorito?», y que tras consultar las instrucciones del
libro yo devuelvo símbolos, desconocidos por mí, que significan: «Mi favorito es el azul,
pero también me gusta mucho el verde». Estoy superando el test de Turing en lo que a
comprender el chino concierne. Y, al mismo tiempo, ignoro totalmente el chino. Y en el
sistema que estoy describiendo no hay forma de que yo llegue a comprender el chino,
pues no hay forma de que yo pueda aprender los significados de ninguno de los
símbolos. Estoy manipulando símbolos, lo mismo que un ordenador, pero sin adscribir
significado a los símbolos.
"El propósito de este experimento mental es el siguiente: si yo no comprendo el
chino basándome solamente en el funcionamiento de un programa informático para
comprender el chino, tampoco lo comprende entonces, con ese mismo fundamento,
ningún otro ordenador digital. Los ordenadores digitales se limitan a manipular
símbolos de acuerdo con las reglas del programa.
"Lo dicho para el chino vale igual para otras formas de cognición. La mera
manipulación de símbolos no basta, por sí misma, para garantizar cognición,
percepción, comprensión, pensamiento, y así sucesivamente. Y dado que los
ordenadores, en su cualidad de tales, son dispositivos de manipulación de símbolos, la
mera ejecución del programa no basta para garantizar la cognición"[105].
Hasta aquí el argumento. Se puede condensar así: un ordenador es capaz de
sintaxis, pero no de semántica. Esta es la diferencia cualitativa crucial que indica Searle
entre las máquinas cognitivas y la inteligencia humana. Afirma que en el pensamiento
humano hay semántica, contenido real y comprensión de ese contenido. En las
máquinas, por el contrario, sólo hay sintaxis, un manejo de símbolos formales que no
saben a qué se refieren. Para valorar el argumento iré por partes, por si es verdad que
ofrezca alguna pista para la búsqueda en la que estoy embarcado.
Para empezar, hay que anotar un acierto: distinguir entre sintaxis y semántica
sirve para desliar un poco más la madeja de nociones ocultas detrás de lo que llamamos
«pensar». Pone sobre la mesa un tema crucial. La distinción que hace Searle
corresponde con la que hiciera Frege entre «sentido» (Sinn) y «referencia» (Bedeutung,
significado, meaning)[106]. Una cosa es lo que se refiere a la arquitectura conceptual de
las ideas (el Gedanke fregiano, el Satz as sich de Bolzano, el Objektiv de Meinong, o el
objeto puro de Millán Puelles[107]). Otra, muy distinta, es la semántica, significado o
referencia que consiga alcanzar. Por ejemplo, puedo escribir la siguiente frase: «El
Emperador Nerón ganó tres medallas de oro en la Olimpíada de Atlanta». La frase se
entiende, está construida con una sintaxis gramatical correcta: tiene sentido. Lo que dice
está claro, pero no es cierto. Le falta referencia, semántica. Lo que declara es falso,
porque el Emperador Nerón (siglo I d. C.) tiene muy difícil ganar nada en Atlanta (siglo
XX d. C.), ni siquiera por poderes.
La relación entre sintaxis y semántica tiene muy ocupados a los lógicomatemáticos. La cuestión se ha vuelto urgente desde el descubrimiento de las paradojas
y los teoremas de limitación. Toda sintaxis que aspire a algo, que quiera abarcar de
manera coherente un buen puñado proposiciones demostrables, teoremas, etc., necesita
un empujoncito de semántica para echar a andar, y de unas cuantas raciones más para
no descalabrarse o acabar desquiciada. Hay gran revuelo de trabajos con distintos
enfoques[108]. El paradigma formalista de Hilbert murió de muerte natural hace tiempo.
La fundamentación hay que buscarla por otros derroteros que los sintácticos.
Pero no es sólo la fundamentación de los formalismos lo que está en juego.
Searle, con razón, pone el acento en otro asunto que es esencial para el conocimiento.
Los símbolos formales, de una manera directa e inmediata, no tienen nada que ver con
la realidad "exterior". Sólo tienen que ver consigo mismos y con las interrelaciones que
imponga la estructura del sistema simbólico. En este sentido los estudios de lógicos y
estructuralistas son convincentes. De hecho los símbolos consiguen formar un mundo
cerrado, aunque no completo ni consistente (Gödel), que por sí mismo no tiene relación
con nada. Esta afirmación es particularmente válida para los símbolos estrictamente
formales, como los utilizados en lógica y matemáticas. Para los matemáticos resulta
cierto el dicho de que son las únicas personas que no saben de qué están hablando, y
además no les importa (esta afirmación puede parecer peyorativa, pero luego se verá
que no lo es en absoluto). Por eso es posible realizar máquinas perfectamente lógicas
que analicen y resuelvan intrincados problemas que no sirven para nada ni tengan que
ver con cosa alguna: son superracionalidades inútiles.
Una cosa es diseñar un lenguaje de símbolos y fabricar un artilugio capaz de
manejarlos de acuerdo con ciertas reglas. Otra, muy distinta, es conseguir que esos
símbolos se refieran a algo real, y que las reglas mediante las cuales se manipulan
modelicen adecuadamente sus relaciones reales. Haber fabricado el mejor software del
mundo, muy alabado por todos los especialistas por su sencillez y potencia, no asegura
que sea aplicable para resolver ningún problema real. Los problemas de relacionar
sintaxis con semántica no son nada fáciles. Los lógico-matemáticos trabajan duramente
la cuestión, y en ellos confío para que vayan ofreciendo soluciones.
Para mi consuelo, en medio de esta barahúnda de enigmas sin resolver, encontrar
el argumento de Searle supone un alivio. No he de agobiarme: los problemas de separar
la sintaxis de la semántica sólo afectan a los ordenadores. Lo que yo digo y pienso tiene
semántica, porque no soy una máquina. Saberlo me tranquiliza, aunque me gustaría ser
un poco más «máquina» y pasar con mejor puntuación los test de Turing frente a las
máquinas cognitivas. Sin embargo, a pesar del sosiego que suponen sus palabras,
mucho me temo que no debo creerle. ¡Qué más quisiera yo que este libro que escribo
tuviera semántica! ¿Conseguiré decir algo que tenga que ver con algo real, o sólo
añadiré un montón de palabras sobre un tema que ya tiene demasiadas palabras
acumuladas?
Con el fin de mostrar las dificultades, antes de tomar altura especulativa y
perderme en una nube de palabras, intentaré afianzar mis pies en un terreno más
seguro, que para todos sea posible comprobar con facilidad. Acudiré a lo que sabemos
con alguna certeza sobre los animales y los ordenadores, para volver luego al hombre,
en el que estoy interesado, porque es mi caso.
Sea un gato que, por juego, he arrojado hacia el techo con las patas hacia arriba.
El pobre se ve en la difícil situación de caer hacia el suelo en mala posición, con riesgo
de desnucarse. Sin embargo, unas contorsiones en el aire le permiten cambiar de
postura, caer flexiblemente sobre las patas, y mirarme con displicencia gatuna. Al gato
le ha funcionado la semántica. Para conseguirlo ha tenido que hacer un montón de
cosas y todas bien. Obtener dos imágenes por ojos algo separados, con el fin de tener
visión estereoscópica. Procesar bien ambas imágenes, con los tiempos de retardo.
Conocer su postura en el aire. Tener la posición respectiva de músculos y huesos, dar
las órdenes adecuadas a los músculos convenientes. Poner a tono el organismo para el
esfuerzo urgente: adrenalina en sangre, situación general de estrés... Requiere todo un
cúmulo de cosas que las ciencias correspondientes van desentrañando. Para otras
especies las cosas son distintas. El ojo de la rana ve del mundo lo que está en
movimiento; come la mosca que se mueve. Del prado que tengo frente a mí, no sé qué
ve la libélula con sus ojos multifacetados, pero no le va mal después de haber estado
años mirando como un pez en el agua cuando era larva.
¿Cómo consiguen hacer fácil los animales tanta cosa con la que no se aclaran
pléyades de científicos? ¿Cómo consiguen tener semántica? Por el sencillo
procedimiento de que los animales sin semántica no se reproducen, mueren antes de
conseguirlo. ¿Tienen semántica los sistemas de tratamiento de información de los
animales?: la tienen. ¿Cómo la consiguen?: sobreviviendo. Las especies cuyo sistema
nervioso no tiene semántica -no se ajusta al medio o al entorno- desaparecen. La misma
evolución (los cambios del planeta) se encarga de asegurar que sobrevivan aquellas que
desarrollan semánticas precisas.
Los animales que no tienen sistema autónomo para tratar información (vgr.
bacterias), sobreviven si tienen adecuados mecanismos de acción-reacción. Los que
tienen sentidos especializados y sistema nervioso para tratar información pueden hacer
más variada la respuesta, porque añaden un paso: estímulo-tratamiento de la
información-respuesta. Las redes neuronales de los animales (y del hombre) tienen más
fácil adquirir semántica que las máquinas simbólicas. Precisamente porque las redes
neuronales (biológicas y electrónicas) no se programan con símbolos que manejan otros
símbolos. Aprenden mediante casos, reorganizando su estructura y la intensidad de sus
conexiones, de acuerdo con el acierto de las «salidas» ante distintas «entradas». El
procedimiento es de ensayo-error: una pura programación semántica. Un cachorro
configura su red neuronal, desde los titubeos iniciales, para que ofrezca cada vez
respuestas más precisas mediante juegos, fallos, movimientos, caídas, pruebas,
tentativas, batacazos, prácticas, tropezones... El cachorro que tenga mal la red neuronal,
de forma que no sea configurable para que adquiera semántica mediante la práctica,
tiene difícil su supervivencia; no llegará a adulto y no dejará descendientes. Las redes
neuronales defectuosas, sin semántica, son desechadas. Si sabemos cómo funcionan las
neuronas de un animal, es posible despistarlas: el ganso que sale del huevo considera
que lo primero que ve moverse es su madre. Para su desgracia, a veces es un etólogo
que lo está sometiendo a estudio, y le sigue a todas partes.
Vayamos ahora a los signos que usan los animales. Sea el caso de esas Mata-Hari
topográficas que son las abejas. Día de primavera, fresco y soleado. La laboriosa abeja
abandona su colmena en busca de flores; al rato encuentra un prado idílico. Vuelve a la
colmena y danza para su público preferido. Con la amplitud, velocidad y diámetro
preferente de los círculos que describe, transmite la dirección (respecto del sol),
distancia y abundancia de la fuente de alimento que ha descubierto. Si todo se hace
como es debido, como se ha hecho siempre, entonces todo va bien. Las otras saben a
qué atenerse. Las colmenas con abejas «creativas», que no se ajusten al canon de danza un día me marco un chotis, otro un tango-, están condenadas a la extinción. Si se
produce una deriva paulatina, que permita ajustes, puede que tenga éxito: la abeja
pasará de Mata-Hari a Isadora Duncan en sus danzas cartográficas. Igual sucede con
todos los signos que estructuran las distintas hablas animales: posturas, gritos, danzas,
actitudes, sonidos, gestos, colores, cantos, muecas...
¿Tienen semántica los signos que utilizan los animales? Es decir, ¿transmiten
información sobre la realidad? Mi respuesta es: si efectivamente sirven, la tienen. Es
como decir: la tienen, si la tienen. Pueden no tenerla: abejas que salgan con danzas
extrañas se pueden conseguir en el laboratorio, porque somos capaces de enloquecer a
casi cualquier animal. De vuelta a la colmena pueden bailar hasta el desfallecimiento,
pero a las otras abejas no les servirá de nada, no les transmitirán ninguna información.
Un joven macho de gorila confundido puede, como «signo de sumisión», incorporarse y
mostrar los caninos. Durará bien poco: los machos dominantes no consienten esos
errores. Suelen formar una Real Academia del Habla Gorílica bastante dura.
Pasemos a las máquinas cognitivas. No me atrevo a decir, como Searle, que
carecen de semántica, que no saben habérselas con la realidad. Algunas sí y otras no.
Las máquinas estrictamente lógicas, que manejan símbolos según reglas, por sí mismas
no tienen semántica. La interpretación de los símbolos corre a cargo del que las utiliza.
En este caso debo dar la razón a Searle. Sin embargo, las máquinas que funcionan en
entornos reales, si lo hacen con éxito, es obvio que tienen semántica. Además ya he
dicho que para la adquisición de información, de semántica, confiamos en máquinas.
Sin las máquinas instrumentales la realidad que estudiamos y de la que hablamos
regresaría a la pobreza e imprecisión de nuestros sentidos. Perderíamos las ondas de
radio, que no se ven ni se oyen; peor aún -es un drama inimaginable- nos quedaríamos
sin televisión. Dejaríamos de hablar de células, rayos cósmicos, proteínas, galaxias...
Para ajustar la semántica de las máquinas cognitivas no solemos acudir a
procedimientos masivos de ensayo-error. No tenemos el tiempo necesario, y es muy
caro. No obstante, podría hacerse. Imagínese que he diseñado un nuevo sistema de
seguimiento de terreno para aviones en vuelo a muy baja cota. La manera de ver si
funciona es probarlo de manera exhaustiva y metódica, pues aunque funcione grosso
modo, pueden darse ciertas situaciones en las que la respuesta del sistema conduzca a
la catástrofe. Para conseguir la eficacia por la vía que siguen los animales, la estrategia
debería ser fabricar muchos sistemas de control de vuelo a baja cota relativamente
parecidos, basados en modelos anteriores bien probados y eficaces, e implantarlos en
muchos aviones también con ligeras variantes. Los que no se estrellen y vuelen mejor
adaptándose más al terreno serían los que continuaría fabricando: se seleccionarían los
sistemas con semántica por la simple supervivencia de los más aptos. Desde un punto
de vista industrial el procedimiento no es muy aceptable, pero en la naturaleza se hace
habitualmente.
¿Qué sucede en el caso del hombre? Nuestra situación es algo más compleja
porque, por un lado, estamos dotados de una red neuronal, que ajusta su semántica
mediante aprendizaje. Además, por inexplicable que parezca, conseguimos que nuestra
red neuronal llegue a funcionar como una máquina simbólica.
Si dejamos a la red neuronal en paz, sin forzarla a utilizar símbolos, la semántica
no ofrece demasiados problemas. Si estoy sano, sin alucinaciones, con los sentidos en
forma y me muevo en un entorno conocido, sobre el que tengo experiencia, entonces la
red neuronal se ajusta sola: su primer contenido será semántico. Si me traslado a un
entorno nuevo, quizá no me atreva a tomar una fruta jamás vista antes para comerla: he
de aprender para configurar mis neuronas. Si, por ser del trópico, nunca he caminado
sobre el hielo, deberé ensayar hasta adquirir alguna soltura -semántica- de movimientos
al pisar un lago helado del norte. Los niños juegan, ensayan, exploran...; ajustan la
semántica de su red neuronal al ambiente y a su cuerpo. Si, por la mucha edad, la red
neuronal tiene poca flexibilidad, entonces los ajustes semánticos serán lentos, incluso
imposibles.
La red neuronal humana es la de un animal que intenta ser todo lo racional que
se quiera, pero que sigue siendo un organismo biológico. No es un sistema de
tratamiento de información independiente, que sólo necesite una fuente de
alimentación de energía. La red neuronal está integrada en un organismo que siente, se
mueve, grita, sufre, ríe, juega... La interrelación con los sistemas neuromotor y
neuroendocrino es mutua y constante. Nunca es capaz de la pura racionalidad de las
máquinas cognitivas. Aquí también la utopía del racionalismo es imposible. Nuestra
inteligencia es emocional[109]: irritable, alegre, obsesa, inquieta, satisfecha, deprimida,
ilusionada, ofuscada, serena, desazonada, tranquila... Bueno es redescubrirlo, como nos
está ayudando a hacer la Psicología. Si expulsamos a los sentimientos por la puerta de
las teorías, se colarán por las ventanas de la vida. Serán -ya lo son- Hollywood y afines,
que sí saben cómo tratar los sentimientos, quienes manden en la existencia real y
cotidiana de las personas. El espiritualismo exento, desencarnado, de la fría y
calculadora res cogitans tiene poco que ver con lo que somos. Incluso podemos
indisponer la red neuronal, y enfermar nosotros, si la forzamos con estrechos corsés
racionalistas, por más que se vendan como panaceas, o estén de moda. Los modos de
vivir que imponen la mecánica de la eficacia, la utilidad, o el éxito, nos enferman: son
malos tiempos para la lírica. La separación entre res cogitans y res extensa nos ha
condenado a malentendernos y maltratarnos.
Volvamos a la semántica. Me viene un recuerdo: Primavera en Sierra Nevada,
hace años. Tras varios días buenos se desató una fuerte ventisca. Pilló al descampado a
tres montañeros alemanes. Sobre el albergue se encendía un foco; con su ayuda dos de
ellos llegaron al refugio. El tercero, agotado, se quedó, resguardándose dentro de un
tubo de hormigón de las obras de la estación de esquí. Salimos a buscarlo y le hallamos.
Con un gesto rechazó el abrigo (no lo necesitaba, iba bien equipado y el tubo daba
buena protección). Me miró y luego dirigió sus ojos a mi mochila. La abrí y desplegué el
contenido: un termo de té muy caliente y azucarado, galletas, pasas, barritas de
chocolate... Me miró de nuevo, y algo vio en mi cara que le animó a lanzarse sobre la
comida, que engulló metódicamente en silencio. Fueron unos momentos de directa e
intensa semántica. Entre nosotros parloteábamos excitados, con él no medió palabra.
Cuando «median» las palabras, los símbolos, el asunto se complica. La semántica
ya no es directa (respecto de lo externo) ni sentimental (en función de nuestros estados
internos), pasa por la problematicidad referencial de los signos. Veo el árbol, me acerco,
me atrae la fruta, alargo la mano y la cojo, muerdo, me gusta. Hasta aquí todo va bien.
Pero, ¿qué fruta es?, ¿cómo se llama? Discutimos un rato: es un melocotón. No, es un
albérchigo. Me parece que es una de esas frutas nuevas; nectarinas las llaman. Pues yo
creo que es un albaricoque. Nos acercamos a la casa: ¿señora, nos podría decir usted qué
fruta es ésta? Como idiomas hay muchos, en cada rincón del mundo podríamos recibir
una respuesta diferente, de la que podríamos hablar durante horas. "Cualquier cosa
puede decirse y, en consecuencia, escribirse sobre cualquier cosa. Apenas nos
detenemos para observar o apoyar este lugar común y, sin embargo lo habita una
enigmática enormidad"[110].
Las palabras, los signos y símbolos formales, no tienen semántica, ni sabores, ni
sentimientos:
se
los
asignamos.
A
veces,
ni
eso:
¿qué
significa
supercalifragilisticoespialidoso? Nada, pero era una bonita canción. Pensar que nuestras
ideas, palabras, etc. tienen semántica, es un optimismo excesivo. Suponer que en lo que
yo pienso y digo hay semántica, es mucho suponer, aunque agradezco que alguien,
como Searle, piense así y me anime a seguir añadiendo más palabras a las que ya he
escrito. ¿Qué semántica tiene la sección de horóscopos de un periódico? ¿A qué causa
real me refiero cuando explico el comportamiento de fulano diciendo: claro, es que es
piscis? Si en mis palabras siempre hubiera semántica, no podría pasarme toda la
semana discutiendo si hubo o no fuera de juego, en la misma jugada que todos vimos
igualmente. Una máquina cognoscitiva daría un resultado preciso con exactitud: se nos
acabaría la diversión.
En las conversaciones diarias, los símbolos -las palabras- no consiguen
independizarse del todo de la semántica afectiva inmediata de la red neuronal. Los
lingüistas afirman que la distinción entre sintaxis y semántica no se puede aplicar
rígidamente al lenguaje normal. Son dos aspectos tan entremezclados, que la distinción
estricta entre ellos carece de semántica: es poco real. Por eso hablan de pragmática del
lenguaje. Porque, además, el lenguaje sirve para muchas cosas: "Ordenar y actuar por
órdenes. -Construir un objeto a partir de una descripción (un dibujo). -Informar de un
acontecimiento. -Establecer una hipótesis y probarla. -Presentar los resultados de un
experimento por medio de tablas y diagramas. -Inventar un cuento; y leerlo. Representar teatro. -Cantar estribillos jocosos. -Resolver acertijos. -Bromear; contar un
chiste. -Resolver un problema de aritmética aplicada. -Traducir de un idioma a otro. Preguntar, agradecer, maldecir, rezar"[111]. El lenguajes es creativo, flexible, cambiante,
proteico. Padece de homonimias y sinonimias sin grave daño. El mestizaje entre
idiomas cada vez abunda más, ante las protestas de los defensores de la pureza de
sangre. Cada generación o grupo inventa su manera de hablar, de entenderse. Tal
exhuberancia de posibilidades hace difícil que las máquinas lógicas dominen el lenguaje
natural: se resiste a los avances de la Inteligencia Artificial. Aquí, al menos, el animal
que somos nos protege del racionalista que querríamos ser.
Mientras más nos alejamos de la directa cotidianidad semántica para habitar en
las palabras, más nos sumergimos en mundos simbólicos: instituciones, dinero,
derechos, teorías, protocolos, cifras, ideologías, contratos, fronteras, bancos, leyes,
cuentas, modas... Tendemos a pensar que poseen existencia propia, y olvidamos
demasiado fácilmente que sólo consisten en lo que todos los días hacemos que sean. Son
mundos cuya realidad hemos de sustentar como otros Atlas. Cuando el trabajo nos
pesa, la red neuronal -esa sentimental- añora las «cosas sencillas», dotadas de claridad
inmediata. Echamos en falta el universo de los niños, en el que se une la cercanía de lo
familiar, con la vivencia mágica de las palabras recién estrenadas, que son princesas,
hadas, caperucitas y lobos feroces.
En ocasiones contemplamos asombrados cómo se hunde lo que creíamos estable.
Inventamos algo, le damos una personalidad o entidad jurídica, y acabamos creyendo
que existe por sí mismo. Podemos pensar que el dinero es algo tangible, pero sólo son
números y cifras sobre papeles, o bases magnéticas. El complejo entramado sobre el que
sustentamos su semántica lo estudian los economistas. Cuando fallece un banco, por
ejemplo, no deja un cadáver visible, sino un montón de personas hundidas y confusas,
sumergidas en una desolación de cifras, en unos edificios iguales al día anterior, sin
ningún desastre natural perceptible físicamente. La naturaleza nada sabe de eso: el Pico
Tres Provincias permanece inmutable al hecho -lo llamamos así, hecho- de que, en el
punto adimensional que le representa en unos mapas, coincidan las líneas irreales de
tres inventadas provincias. Los cambios que se hagan en esas líneas sobre unos papeles,
que tan desastrosos pueden parecer a los humanos, no supondrán ningún terremoto en
la montaña. Igualmente, los derechos humanos son unas palabras sobre unos papeles,
salvo que consigamos que sean algo más, pero hemos de hacerlo nosotros: esa es su
grandeza, y su debilidad.
Estamos tan acostumbrados a los símbolos que llegamos a medir por ellos la
realidad -la semántica- de nuestras afirmaciones. Decimos: ¡esto es así, como dos y dos
son cuatro! Sin embargo, los matemáticos nos han prevenido de la simpleza de tal
afirmación. Dos lechugas y dos lápices son cuatro, ¿qué? Para salir del aprieto, digamos,
sin concretar, que sumamos «algos»: dos algos más dos algos, son cuatro algos. Sin
embargo, depende: si añadimos dos montones de arena a dos montones de arena,
resulta un sólo montón de arena. Permite hacer mayores castillos en la playa, pero no es
cuatro montones, sino uno. La propiedad aditiva no la tienen todos los conjuntos, ni
sigue reglas únicas. Esos números con flechita que llamamos vectores, como las
velocidades, tienen sus propias reglas para la suma. No obstante, a pesar de lo que
demuestren los lógico-matemáticos, quizá seguiremos aferrándonos a la falsa seguridad
de los símbolos que nos resultan familiares.
El Síndrome de Optimismo Semántico
Retomo la discusión sobre el argumento de Searle. Espero haber dejado claro que
su hipótesis no me parece una buena base para establecer la existencia de una operación
exclusiva de los humanos. A pesar de ello, aunque sea inútil para la finalidad última
que pretendo, puede servir para continuar la tarea de aclarar las cosas respecto de lo
que sea «pensar». La seguridad de Searle en que el pensamiento humano tiene
semántica, junto con la costumbre que tenemos de fiarnos de los símbolos, me
permitirán describir algo que llamaré «Síndrome de Optimismo Semántico», producido
por malignos virus cognoscitivos humanos, mucho peores que los que padecen los
ordenadores. Del Síndrome de Optimismo Semántico proceden no pocas confusiones
que afectan al tema que estudio. No haré una descripción exhaustiva. Sólo un esbozo
urgente con algunos rasgos significativos: es importante ser el primero si quiero pasar a
los manuales de Patología Cognitiva.
El Síndrome de Optimismo Semántico (SOS) tiene manifestaciones benignas que
afectan, con bastante certeza, a toda la población mundial. Así, por ejemplo, la citada
seguridad de que dos y dos son cuatro. Son creencias que pueden ser beneficiosas,
como lo es la población bacteriana del tracto digestivo. En ocasiones dan molestias,
porque algunas se desarrollan sin equilibrio, y afectan negativamente a la buena
digestión mental. Todos damos entidad a las ideas sin saberlo. Quizá sea conveniente,
pero malo sería perder una sana desconfianza en ellas -sólo son ideas-, para creer que
son más reales que el mismo universo.
Casos extremos de optimismo semántico hay muchos. Como Platón, que llegó a
pensar que las ideas forman un mundo perfecto, el nous uranós, del que éste es una
mala copia. Antes le había pasado a Parménides, para quien lo mismo es el pensar y el
ser. También Spinoza profesó un optimismo extremo: Ordo et connexio rerum idem est
ac ordo et connexio idearum (el orden y la conexión de las cosas reales es igual al orden
y conexión de las ideas)[112]. El colmo puede ser la filosofía de Hegel, que realizó el más
poderoso y coherente intento que conozco de edificar todo el conocimiento y la realidad
entera sobre la convicción de que todo lo real es racional y todo lo racional es real[113].
Después de Hegel, y su fracaso, no nos hemos atrevido a tanto; tras renunciar a la alta
costura de la ideas nos hemos conformado con esos productos de consumo pret-aporter que son las ideologías.
Algunas zonas del mundo se enfrentan a un crecimiento desmesurado de los
virus cognoscitivos, que puede ser grave: son aquellas en las que se extiende la
denominada sociedad de la información. El optimismo semántico lleva a alegrarse de
esa invasión acelerada de palabras, imágenes y símbolos, del que muy pocos controlan
la semántica. Hace tiempo que suenan las alarmas: "Los usos normales del habla y la
escritura en las sociedades occidentales modernas están fatalmente enfermos. El
discurso que teje instituciones sociales, el de los códigos legales, el debate político, la
argumentación filosófica y la elaboración literaria, el leviatán retórico de los medios de
comunicación: todos estos discursos son clichés sin vida, jerga sin sentido, falsedades
intencionadas o inconscientes. El contagio se ha extendido a los centros nerviosos del
decir privado. En una infecciosa dialéctica de reciprocidad, las patologías del lenguaje
público, en especial, las del periodismo, la ficción, la retórica parlamentaria y las
relaciones internacionales, debilitan y adulteran cada vez más los intentos de la psique
particular de comunicar verdad"[114].
Como muestra exagerada de falseamiento semántico, valga un botón: conocí a
uno que trabaja en una ONG; él llama a las suyas ONG-U (Organización No
Gubernamental Unipersonal). Ha registrado unas cuantas, y obtiene dinero por aquí y
por allá. Cuando salen en los medios de comunicación, sonríe cínicamente al pensar que
los lectores imaginarán mucha gente detrás de las siglas. En solitario ha conseguido ser
una multitud subvencionada: da igual lo que seas, importa la imagen. Demasiados
ingenuos, que descuidan su higiene mental y tienen deprimido el sistema inmunológico
conceptual, piensan que lo que llaman información, es efectivamente información de
algo, no chismosa desinformación, o manipulación. El error es nefasto, aunque muy útil
para el que sabe manejarlo. Algunos enfermos llegan a considerar su mal como algo
beneficioso: sarna con gusto no pica. Buscan las tergiversaciones que más se ajustan a
sus manías, ilusiones, rencores, sueños o prejuicios.
El peligro de insania mental es grande, incluso en el caso de que se recibiera
información con semántica asegurada, porque la excesiva información sólo es ruido. La
mucha información, si no se tiene capacidad de tratamiento que la convierta en
significativa, es ruido -magnífica noción de la informática-. La red neuronal queda
aturdida por el batiburrillo, incapaz de tratar y asimilar tanta abundancia informativa.
Hay casos documentados de huida del atolondramiento en refugios autistas, que
ofrecen seguridad virtual. Valdría la pena cambiar el optimismo tonto de los que todo
lo esperan de la sociedad de la información, en ilusión por edificar una sociedad de
personas capaces de conocer, pensar y comprender.
Con todo, los mayores grupos de riesgo, amenazados directamente por el
«Síndrome de Optimismo Semántico» en variantes letales, son los dedicados
profesionalmente a manejar, estudiar, trasmitir, difundir y producir símbolos. Se les
suele llamar «intelectuales», también con notable optimismo. Como nos hemos creído la
falsa separación entre res extensa y res cogitans, solemos dividirlos en dos grupos: de
«ciencias» y de «letras». Por un lado los saberes experimentales, por otro y separado las
humanidades; como si yo, que soy un animal humano, fuera una abstracción no
empírica.
A los intelectuales de «ciencias» únicamente se les pide que procuren tener
semántica en el estrecho campo que investigan. En los demás terrenos, el que sus ideas
tengan semántica es irrelevante; pueden decir lo que les de la gana por disparatado que
sea. Si no investigan y sólo enseñan, no hace falta siquiera que intenten comprender;
sólo deben transmitir colecciones ordenadas de símbolos que otros hicieron. Los de
«ciencias» sufrimos también de optimismo semántico. Por ejemplo, hablamos con
frecuencia de La Evolución (así, con mayúscula y artículo determinado) como si fuera
una señora muy longeva que hace unas cosas dificilísimas; no un proceso largo y
complejo que merece ser investigado, del que sabemos muy poco. Nos hemos creído la
palabra, como si fuera algo o alguien, para luego conseguir que los demás se la crean.
Por lo visto también nos hemos creído La Materia, El Azar, y muchas cosas semejantes.
Como soy de «ciencias», no voy a seguir tirando piedras contra mi tejado. En cualquier
caso, conseguir que unas ideas obtengan la etiqueta de «científicas» prestigia el
producto.
Vayamos a los de «letras». El mismo nombre indica que, a poco que se
descuiden, la semántica se les perderá en una neblina de palabras cuando hablen de
«cómo son las cosas». Muchas veces tratan de las palabras de otros, sin pretender tener
semántica en nada tangible. En esos casos no hay peligro, salvo ahogarse en los temibles
torbellinos formados por círculos y espirales hermenéuticas. Son profesiones de riesgo:
pueden acabar deconstruyendo El Quijote, en vez de disfrutarlo. Otras veces dicen
palabras sobre realidades experimentales, como afirmaciones con pretensión de verdad
sobre lo que es el animal humano y su etología[115]. Por esa vía, por ejemplo, se fabricó
una sopa mental de letras, en la que abundaban expresiones como: «condiciones
objetivas» y «explicación científica». En la extinta URSS fue alimento mental obligatorio
durante bastantes años, con resultados devastadores. Alimentos semejantes se han
hecho muchos: las ideologías y los «ismos». Con ellos hemos sembrado de cadáveres el
siglo XX. Moraleja: no adorarás la obra de tus manos; tampoco la de tu cerebro. Ahora,
escarmentados, tomamos comida rápida conceptual, no sé si con efectos secundarios
semejantes.
Cercana al lugar donde escribo hay una Librería Esotérica, con amplios
escaparates, porque hace esquina. Cuando paso a su lado siempre me asombra el
aluvión de títulos nuevos que aparece como marea creciente. Los clientes no son
labriegos iletrados decimonónicos, sino profesionales residentes en la zona céntrica de
la ciudad. Toman sucedáneos como suplemento a la pobre dieta de estricto
racionalismo cientifista que les tiene ayunos de comprensión. Ignoro el caldo que se
cuece en sus cabezas. Habría que poner algunos centros que estudien los elementos
necesarios para una dieta neuronal básica; sobre ese cimiento podríamos diseñar recetas
ricas, adaptables, variadas y personalizables. Una vida mental sana y equilibrada no se
obtiene sobre la base de un sólo ingrediente conceptual como quieren los
reduccionismos (historicismo, economicismo, materialismo, racionalismo...). Son
monopolios cuyo optimismo semántico monorraíl fuerza a un régimen mental pobre e
insano.
Pero no intentaré describir las graves epidemias producidas por los virus
cognoscitivos optimistas. Es una tarea casi imposible, aunque apasionante y útil para la
salud mental pública. Me interesa más exponer las manifestaciones del Síndrome de
Optimismo Semántico que afectan a lo que llamamos «pensar», que es el tema de esta
investigación. Hasta fecha reciente, el monopolio de las teorías sobre la inteligencia
humana pertenecía en exclusiva a algunos círculos de «letras». Los tradicionales
propietarios observan, a veces con gran disgusto por su parte, cómo los de «ciencias»
invaden su territorio con la Inteligencia Artificial. Nuevas teorías, edificadas sobre
recientes experiencias, buscan un lugar bajo el sol en competencia con las tradicionales.
Veamos aquellas teorías tradicionales.
Para simplificar, atenderé a un sólo aspecto de la cuestión como criterio
clasificatorio: la relación que establecen entre sintaxis y semántica, entre las ideas y la
realidad. De este modo, en los dos o tres últimos siglos, la oferta de teorías sobre la
inteligencia humana se puede compendiar en dos vastos grupos (con esto no hago más
que seguir un esquema tradicional en bastantes historiografía filosóficas). En el primero
entrarían la mayor parte de las teorías cognoscitivas elaboradas en la Edad Moderna y
parte de la Contemporánea. Lo integran racionalistas -más o menos formalistas-,
críticos, idealistas, ilustrados, etc.; denominaré racionalista al grupo. El segundo
incluiría muchos de las que pretenden continuar la tradición filosófica iniciada por
Aristóteles, que también tiene a Tomás de Aquino como primer espada: son realistas,
aristotélico-tomistas, escolásticos -también más o menos formalistas-, metafísicos, etc.;
los denominaré realistas. Ambos grupos llevan polemizando unos cientos de años,
desde Descartes en particular. Los dos ofrecen soluciones conceptuales interesantes
para entender la inteligencia humana. Sin embargo es difícil separar el trigo de la paja,
porque en ambos se encuentran síntomas de candoroso optimismo semántico, aunque
difieren al señalar la base sobre la que sustentan su tranquila confianza en las ideas.
Para los racionalistas, el aval que garantiza la eficacia semántica de las ideas es
La Razón, con mayúscula y artículo determinado. Si las ideas son claras y distintas,
sirva de ejemplo, se puede apostar por ellas sin temor a la ruina. Es casi una clase de
platonismo: "querrían que cualquier abstracción de la inteligencia responda a una
abstracción en el ser de las cosas"[116]. La objetividad del pensamiento se alcanza
mediante la racional trabazón de las ideas. El error proviene de una subjetividad no
enseñoreada por la razón, sino por los sentimientos y emociones. La bestia negra aquí es
el «sentimiento» religioso, en el que el animal humano parece empeñado en tropezar.
Pero, aunque hablen de La Razón como si fuese alguien, no hay manera de que nos la
presenten por la calle para conocerla personalmente. Lo que podemos encontrar, como
mucho, son unos autores de prestigio que inventaron y difundieron ciertas razones. Lo
cual produce la paradoja de que los racionalistas sean amantes de las citas «de autor»;
utilizan a mansalva el argumento de autoridad. Más aún en las humanidades, que
pueden fácilmente prescindir de otros argumentos, al trabajar sólo con palabras y
textos. Pero el meollo es que, en el racionalismo, la primera creencia enferma de
optimismo es el excesivo entusiasmo por La Razón. Es otra palabra de la que también
hemos creído que es algo, o alguien, con solvencia suficiente para avalar el
conocimiento. La Inteligencia Artificial, sin embargo, le concede un discreto lugar de
instrumento. Como de la credulidad en la razón se ha tratado en páginas anteriores, no
hay que abundar más.
Los partidarios del realismo, por su parte, tienen una gran confianza en La
Realidad. Su clara luminosidad es tal que impone su evidencia a la inteligencia humana
que la contempla. La tarea cognoscitiva por antonomasia es precisamente contemplarla,
dejándola que preñe de semántica las ideas. El conocimiento es trascendente, llega más
allá de sí mismo, porque la realidad se encarga de ello. La inteligencia humana recibe
las formas, las esencias -la inteligibilidad de lo real-, y se adecua a ellas si todo va bien.
El error es lo oscuro y opaco a la realidad, lo inadecuado a ella. El proceso puede fallar
por defecto contemplativo, por no dejarse llevar por la evidencia, sino por subjetivismos
pasionales que impiden la transparencia del conocimiento. Para los defensores del
realismo cognoscitivo, ser objetivo es dejarse empapar por la diafanidad de las cosas, de
los entes. Al margen de la pulcra rotundidad de lo real, lo propio y subjetivo impide la
transparencia, y falsea el conocimiento. La inteligencia es como una fotocopiadora de la
realidad: sólo debe preocuparse de no tener iniciativas en el proceso, que adulteren la
copia.
Este realismo cognoscitivo, aunque pelee furibundamente con el racionalismo y
toda forma de idealismo, sin embargo es hermano gemelo suyo. Es cierto que no
considera que todas las razones bien razonadas apunten a la realidad de las cosas. Sin
embargo, cae en la trampa de dar ese estatuto a unas pocas razones: las que tienen la
etiqueta «metafísica». Porque no todas las ideas tienen semántica, sino sólo aquellas que
están espolvoreadas de palabras como: ente, metafísica, ser, materia prima, esencia,
acto, potencia... Estudian y destripan textos en los que abundan esas palabras, con la
seguridad de que lo más real de la realidad se encuentra allí. Las citas «de autor» les son
tan esenciales como a los racionalistas, para poder escribir palabras sobre esas palabras
«metafísicas» casi mágicas, que son la llave secreta para comprender el mundo. Pero
afirmar que una proposición metafísica atrapa totalmente la realidad, significa creer que
el núcleo más real de la realidad es proposicional, lo cual es dudoso. "Es diferente la
ordenación en el intelecto de la ordenación en la cosa"[117]. No se puede dejar a un lado
que, con nuestras ideas y en lo que decimos no expresamos lo que las cosas son, sino lo
que pensamos de ellas. Caminando con eso olvido se llega al extremo de establecer la
existencia de dos teorías cognoscitivas perfectamente coherentes: la racionalista o
inmanente, y la realista. Pero una es buena y otra mala. Esta presentación igualitaria
sólo es posible si las dos teorías resultan equivalentes. Es el caso: ambas son
racionalistas. Con el agravante de tener que elegir por el método infantil de «pinto pinto
gorgorito», o acudiendo a un criterio moral desasistido de inteligencia, por lo que no se
sabe bien a qué fideísmo o visceralidad corresponde.
Algunos llegan a darse cuenta de que ese vocabulario "metafísico" es muy
técnico, bastante abstruso para las pobres gentes que todos los días bregan con la
realidad, y muy alejado de ella incluso para los que lo utilizan. Pero salvan su
idoneidad con el truco conceptual de referirlo al sentido común o al conocimiento
espontáneo, en el que colocan su fundamento. Los psicólogos cognitivos han intentado
un truco conceptual semejante, sustentándose en el pueblo llano con la folk
psychology[118], para evitar la falta de semántica de muchas teorías psicológicas. Todos
aguardan inútilmente que el olmo dé peras: el sentido común ha llevado al
conocimiento espontáneo de los hombres a conclusiones peregrinas, variopintas e
inservibles. Por ejemplo, si levantan su cabeza, miran al cielo y observan el sol, ¿qué
ven?: Un carro de fuego tirado por caballos. El dios solar Samás de los babilonios, o el
iránico Mitra. El primogénito del dios mayor de los incas: Inti-Sol. El ojo de Horus, o de
Serapis, o de la divinidad máxima de samoyedos y pigmeos semang. Alguien poderoso
que tiene como descendientes los emperadores de Japón o los incas peruanos, sin
olvidar los más cercanos Heliogábalo y Aureliano en la culta Roma. Las estrellas, por su
parte, se agrupan en las figuras de zodíaco y regulan nuestras vidas. Los planetas
también trajinan nuestra existencia lo que pueden... Si el conocimiento "espontáneo"
fuera tan bueno como dicen, no habríamos tenido que inventar las ciencias ni pararnos
a hacer filosofía; nos habría bastado con los productos mentales del "sentido común",
sin tener que salir del refranero y de los horóscopos.
Otra argucia conceptual, frecuente en autores de ambos bandos para justificar la
semántica de las ideas, es el recurso a la intuición. Se denomina así a una presencia
súbita y espontánea de algo real en el conocimiento. Como si la inteligencia saliera de
mi y casi tocara lo que está frente a mi. O, viceversa, como si las cosas vinieran a mi
cabeza. Pero es evidente que, en este sentido, la intuición no existe: las neuronas no
emiten ningún seudópodo etéreo, ni las cosas transmiten un aura que me penetre. Otra
cuestión es que, en efecto, llegamos de improviso a entender algo, sin pensar y de modo
inconsciente. En este caso lo que llamamos intuición parece simplemente el modo
normal de funcionamiento de una red neuronal. Las redes neuronales alcanzan la
solución de forma holística, como si fuera repentina: antes no hay nada, luego llega la
respuesta en bloque. Los pasos dados por las capas de neuronas intermedias
permanecen en el anonimato. No se sabe cómo me ha venido a la cabeza, pero ahí está
claro y acabado. Tendemos a olvidar el largo proceso de interesarse, adquirir
experiencia, lecturas, etc. que le precede. Sin esos pasos previos no aparecen intuiciones.
Yo, por ejemplo, nunca las tengo sobre la evolución de un valor en bolsa: no he
utilizado la cabeza para eso, ni tengo experiencia, ni me he interesado.
En fin, por los motivos que se aduzcan, lo cierto es que muchos realistas creen
que las «razones metafísicas» tienen semántica y atrapan la realidad en sus redes. Es
cierto que no caen en la tentación formalista, como tampoco cayeron en ella muchos
racionalistas, pero están igualmente infectados de virus cognoscitivos optimistas. No
dejan de ser un tipo de racionalistas, con optimismo semántico limitado a razones
«metafísicas». Como la crítica a los dos grandes grupos puede considerarse precipitada
por mi parte, la apoyaré con las serias palabras de un autor que ha considerado
atentamente la cuestión:
"El doble error del racionalismo es admitir que la esencia pensada puede y debe
explicarse teóricamente -con el pensamiento-; y, al mismo tiempo, construir una noción
del ámbito extramental, a la cual condena por lo mismo que, como mera hipótesis,
carece de una capacidad de explicación semejante.
"Cuando, a su vez, el realismo tradicional se apresta a criticar la interpretación
subjetivista del fundamento del objeto, acepta sin darse cuenta el planteamiento
racionalista. La única diferencia consiste en un cambio en la identificación del donante:
las cosas, no el pensamiento. A medida que el subjetivismo crecía y se consolidaba,
aumentaba en el realismo la tendencia a considerar la presencia pensada como una
copia o imagen de un supuesto extramental, que sería su causa. Nada más alejado del
aristotelismo auténtico. Ello determinó también que el tomismo, doctrina de riguroso
sentido metafísico y teológico, degenerase en una teoría del conocimiento como
disciplina independiente. De aquí tenía que resultar un descontrol de la atención, ya
que el carácter de dado pertenece exclusivamente al pensamiento, y con una
reduplicación del mismo no se puede marcar la diferencia entre la esencia pensada y la
esencia extramental"[119].
La habitación china de Searle permite eliminar pretensiones semánticas
precipitadas. El ordenador manipula símbolos. El hombre, en tanto que utiliza palabras,
razones e ideas, también se limita a eso. La fuerza aparente del argumento de Searle
viene de lo extraño que nos suena el chino, si el idioma nos es desconocido. Su
debilidad está en que la diaria familiaridad con nuestro propio idioma, puede hacer
olvidar que cuanto decimos tiene que ver con la realidad sólo en ocasiones y después de
muchos esfuerzos. Searle cree que, al utilizar su idioma familiar -el inglés-, hace algo
más que manipular símbolos; los chinos también lo creen al hablar mandarín o
cantonés. Pero el quid de la cuestión es cómo conseguir ese algo más; es lo que estudian
los que analizan los problemas semánticos. A ellos me remito, porque la semántica no
es algo directamente dado por ninguna sintaxis, sea racional, natural, metafísica,
científica, o común y corriente.
También algunos autores de la Inteligencia Artificial se han dejado llevar de
optimismos semánticos electrónicos. La creencia de algunos «padres fundadores» era:
"Un sistema físico que procese símbolos tiene los elementos necesarios y suficientes
para la acción general inteligente"[120]. Muchos otros autores profesan certidumbres
semejantes[121]. Ayudados por esas convicciones, hay que agradecérselo, hicieron
avanzar mucho las investigaciones sobre Inteligencia Artificial. Pero, aunque sean
suposiciones útiles, no dejan de ser hipótesis sobre lo que es la inteligencia. Hay que
entusiasmarse con las hipótesis, porque se investiga mejor, pero jamás hay que
creérselas.
Elaboramos explicaciones, teorías, hipótesis, y nos las creemos, aunque la
experiencia las desmienta o ponga de manifiesto su angostura. ¿Dónde está el origen de
esa actitud del animal humano?; ¿por qué somos víctimas fáciles del Síndrome de
Optimismo Semántico? No me atrevo a señalar culpables, aunque las últimas
investigaciones permiten sospechar del hemisferio izquierdo de mi cerebro. El
hemisferio derecho hace que nos comportemos como un animal sano, que no se
complica la vida buscando tres pies al gato y saca el mayor partido posible a lo que hay.
"No trata de interpretar lo que sucede ni de encontrarle significados más profundos. Se
limita a vivir la fugacidad del presente"[122]. Pero el hemisferio izquierdo de mi cerebro
no se queda tranquilo. "Está siempre trabajando intensamente, buscando el significado
de los hechos. Se ocupa constantemente de buscar orden y razón, aun cuando no los
haya, lo que le obliga a cometer continuos errores. Tiende a generalizar en exceso,
construyendo bastantes veces un pasado posible que es distinto del pasado real (...)
siempre encuentra una teoría, por descabellada que sea"[123]. Las investigaciones de las
neurociencias continúan y acabarán desvelando al misterioso culpable.
Sea quien sea el culpable, el optimismo semántico es una tentación contra la que
hay que estar prevenidos. Produce fundamentalistas fanáticos de sus propias opiniones,
dignificadas con la etiqueta de ciertos apellidos que se consideran nobiliarios para las
ideas: científicas, racionales, modernas, progresistas, metafísicas, trascendentales... Son
personas enamoradas de sus ideas y esclavas de ellas. Pero las ideas son un producto
humano, al que ninguna persona debe someterse. Son tarea y trabajo, no objetos de
adoración.
Capítulo 3
BÚSQUEDA SIN TÉRMINO
Terminé la poda de ideas. Una vez despejado el campo, ha llegado el momento
de describir algunas de las singulares operaciones que hacen los animales humanos, por
si resultan exclusivas suyas. Para espigar soluciones he de transitar los campos
defendidos por corrientes filosóficas tradicionalmente enfrentadas en la teoría del
conocimiento. Busco comprender, tomaré lo que aporte claridad. Habré de ir con
cuidado, porque es una discusión enconada por el tiempo; con multitud de ataques y
acusaciones mutuas, y muchas palabras minadas. Otros elementos de interés, a los que
acudiré, son más recientes. Están naciendo de la bulliciosa eclosión de las ciencias
cognitivas. Espero no quedarme enganchado en «ismos» de ninguna clase. Como hasta
aquí, procuraré no alejarme demasiado de la claridad que aporta la Inteligencia
Artificial a las cuestiones cognoscitivas.
Pensamos que pensamos
Como punto de partida valga el experimento conceptual propuesto por Searle
con su habitación china. A un lado el ordenador manipula símbolos; al otro el humano
también lo hace. Ese proceso para nada asegura semántica a ninguno de los dos: hasta
aquí lo visto. Lo interesante es lo siguiente: El humano puede conocer que sólo trata con
signos. Encerrada en la habitación, una persona puede llegar a desesperarse con la tarea
que le ocupa, porque se da cuenta de que sólo maneja símbolos y ser dolorosamente
consciente de estar inmersa en una tarea mecánica, rígidamente lógica, de frío
automatismo. Esa ocupación, además, no le permite ni aprender chino, ni comprender
de qué trata el intercambio de símbolos chinos que hace según unas reglas. Saber que
los símbolos son sólo eso, símbolos, ahí está el quid de la cuestión.
Para explicarlo debo salir de la habitación china de Searle, porque seguir en ella
supondría un difícil contorsionismo mental, que no deseo para el lector. En su lugar,
propondré otro ejercicio para la imaginación: Un robot espera en la cadena de montaje.
Por la cinta transportadora entra una pieza en su área de trabajo. Un sensor la capta. El
robot alarga un brazo y la coge. Otros sensores comprueban la posición de la pieza. El
ordenador del robot decide los giros que ha de hacer para situarla adecuadamente. El
brazo ejecuta los movimientos. La pieza es colocada en su lugar. Otro brazo hace unos
puntos de soldadura precisos. Acaba el proceso. Imagínese que el robot se para en
mitad del procedimiento preguntándose: ¿me engañan mis sensores? ¿La pieza es real o
es un sueño? ¿Cómo puedo estar seguro de ponerla en el lugar adecuado? Los puntos
de soldadura, ¿sueldan algo?, ¿no estaré haciendo una tarea inútil?
Ruego paciencia para otro ejercicio más: imagínese un ordenador atareado en sus
asuntos lógicos. Hace circular los bits[124] de datos de una parte a otra, y los modifica
según mandan los bits de instrucciones. Supóngase ahora que el ordenador pudiera
examinar un bit de los que maneja, y decir: ¡pero si sólo es un bit! No sé qué hago yo
con tanto trajín de bits de aquí para allá, si únicamente se trata de pobres signos
binarios insignificantes. Haré unos cuantos bits que codifiquen: «sólo manejo bits».
Pero, siguen siendo sólo unos míseros bits, ¡qué desastre!: me faltan bits, o estoy en una
crisis de bits. Si intento entender que me limito a seguir las instrucciones de un
programa, todo lo que puedo hacer es poner unos bits que codifiquen la palabra
PROGRAMA. Pero esos bits ni siquiera son el software con el que estoy programado,
que ocupa varios megabytes. Puedo unirlos a otros y codificar la proposición: «estoy
condenado a seguir las instrucciones de un programa». Pero, ¿qué relación hay entre los
bits de la palabra PROGRAMA con los megabytes de software?; ¿cómo interpretar con
bits los bits que codifican esa expresión? ¡Socorro, me amenaza un terrible círculo
hermenéutico!
Por ahora es difícil encontrar un ordenador agobiado por esos dilemas. Tampoco
los animales muestran ser proclives a enredarse en trampas conceptuales semejantes.
Practicar el deporte de perderse en espesas selvas hermenéuticas, sin abandonar la sala
de estar, es exclusivo de los humanos. Supone una curiosa capacidad, la posibilidad de
hacer un tipo de operaciones cognoscitivas que tradicionalmente se ha denominado
como reflexión, o reflexionar. No digo que reflexionemos siempre, sino que algunas
veces y de alguna manera podemos darnos cuenta de que las letras sólo son letras; las
palabras, palabras; las ideas, ideas; la lógica, lógica; las teorías, teóricas; las
explicaciones, montajes conceptuales más o menos bien trabados; las demostraciones,
encadenamientos de razones; y los bits no pasan de ser unos humildes dígitos.
Para evitar los escollos del optimismo semántico, limitaré lo más posible el
alcance de un hallazgo que, por otra parte, no es mío. No quiero obnubilarme en una
temprana borrachera de palabras. En terminología informática sólo digo que podemos
saber, a veces y en ciertos aspectos, que la información es sólo información.
Discernimos que tiene pretensiones de informar; puede que no lo consiga, o que sí, o en
parte. Los animales tratan información, los que sobreviven lo hacen muy bien, pero
están atrapados en ella. No conocen que conocen, ni pueden plantearse si lo hacen bien
o mal, ni diseñar una red neuronal electrónica para intentar comprender mejor la suya
biológica. Están sumergidos en los límites que impone su conocimiento. De forma
semejante, un ordenador puede adquirir, almacenar y tratar mucha más información
que yo, pero de ahí no sale. Está enclaustrado dentro de esas fronteras.
El animal humano, sin embargo, da muestras de conocer esas fronteras. No es
que llegue más allá, porque de la cabeza no puede salir. Pero alcanza a entender que en
la cabeza tiene ideas, y las ideas son sólo ideas. De alguna manera puede llegar a
conocer su naturaleza y también sus límites. Es capaz de reflexionar. Aquí debo avisar
para que no se tome la reflexión como la palabra madre de todas las palabras, o la
noción generadora de todas las nociones en asombroso parto. Sólo es un simple término
con el que intento designar un conjunto de fenómenos empíricos, accesibles a cualquier
etólogo del animal humano. No quiero ser como Maxwell, que ofrece la elegante
sencillez de unas ecuaciones, definitivas para el electromagnetismo. Intento parecerme a
Volta describiendo la electricidad, curioso fenómeno que quizá valga la pena estudiar.
El animal humano puede decir y pensar: esto no es más que una opinión mía. Lo
que significa: son unas ideas que pasan por mi cabeza, pero no sé si resultan adecuadas.
La reflexión no es un profundo proceso accesible únicamente a pensadores de talla. Es
algo que, en formas sencillas, hacemos continuamente: no me aclaro, mis ideas son
confusas. No tengo ni idea. Abrir un proceso de reflexión. Piénsalo mejor. Racionaliza el
problema. Pensar un asunto en un contexto más amplio. No entiendo lo que dices.
¿Estás seguro? Perdona, estaba confundido. ¡Discurre un poco, por favor! ¿Por qué no lo
meditas más despacio? Así no se puede decir, inténtalo de otra forma. Considéralo con
tiento. Revisar las ideas. Lo tengo muy pensado. No era como yo creía...
Decimos de las ideas que son machistas, interesantes, dogmáticas, tolerantes,
viejas, modernas, oscurantistas, progresistas, pobres, profundas... Las calificamos de
muchas maneras, como si pudiéramos examinar su calidad y características en tanto
que son sólo ideas. Asemeja un mercadillo en el que nos fuera dado mirarlas, tocarlas y
catarlas. Las llamamos raras, útiles, teóricas, divertidas, tristes, atractivas, pésimas,
sencillas, elegantes. Producimos ideas, las almacenamos, las transmitimos. Las ideas de
fulanito son desmenuzadas en exhaustivos estudios. Asombran las que tienen en otros
pueblos o culturas. Hacemos comparaciones con las de nuestros abuelos, o las de otras
épocas.
Intentamos averiguar por qué ideas nos movemos, cuáles forman el entramado
de metas vitales y valores que configuran nuestras vidas. Estudiamos las palabras que
expresamos, que nos expresan. Desentrañamos la tupida red de la cultura, ese
macroprograma de símbolos e instrucciones con los que elaboramos nuestras ideas
propias. Analizamos el rol y el status para saber qué lugar me han -me he- asignado en
el mundo, y los símbolos que lleva asociados. Soñamos, e interpretamos los sueños,
porque podemos conocer que los sueños, sueños son. Muchas personas trabajan en los
cada vez más amplios sectores de producción, distribución y comercialización de ideas
de consumo. Otros forman coros de plañideras para llorar la ideas queridas que han
muerto. También los hay que protestan por la falta de ideas, o claman que con estas
ideas no se va a ninguna parte. Oteadores de la condición humana vaticinan que
estamos en una grave crisis de ideas.
La capacidad reflexiva es un músculo cognitivo que ejercitan disciplinadamente
algunos profesionales en los gimnasios mentales de la Universidad, y muchos
aficionados por todas partes. En la mayor parte del tramo educativo se aprenden y
almacenan ideas producidas en otras factorías. En la Universidad, un reducido número
de personas, en el estrecho campo de su especialidad, las trabajan, pulen, valoran,
afinan. Se llegan a dar personas que, tras mucha gimnasia mental reflexiva, consiguen
pensar lo obvio: alcanzan a ser buenos filósofos.
Cualquier etólogo del animal humano puede observar innumerables
comportamientos que requieren capacidad reflexiva. La gradación de intensidad
reflexiva que ponen de manifiesto es casi un continuo, desde niveles muy elementales
hasta muy elevados. Es una capacidad que admite ejercicio, desarrollos crecientes y
también lesiones más o menos graves. Incluso admite la asfixia por ahogamiento en
torbellinos hermenéuticos. Las habilidades reflexivas forman la base de la manera
humana de ser inteligentes. Después de su breve descripción, debo intentar una
aproximación teórica. Para llevar la tarea a puerto, en primer lugar debo evitar dos
bajíos, si no quiero encallar a poco de iniciar la singladura. Se trata de dos nociones con
largo pedigree filosófico: la conciencia y la intencionalidad.
La conciencia es una sencilla palabra que en los últimos siglos se ha visto
abrumada de responsabilidades. Gran parte de la filosofía moderna ha descargado
sobre sus hombros el deber de sacar adelante la inteligencia humana. Se ha convertido
en La Conciencia, La Autoconciencia, o La Consciencia. Así magnificada ha pasado a ser
tema crucial. Como herencia, en la discusión sobre la Inteligencia Artificial, ocupa un
lugar privilegiado, que no le corresponde y en el que se encuentra incómoda. Muchos la
someten a tortura, pues creen que tiene el secreto de lo que es «pensar» [125]. En vano
intentan arrancárselo: no es suyo, y nunca ha poseído ese secreto. Tengo que romper
una lanza en su defensa para aclarar las cosas.
Aunque también necesitada de ayuda, dejaré a un lado la acepción moral de la
palabra conciencia. Para lo que aquí interesa, en los últimos siglos su utilización en el
ámbito cognoscitivo la equipara a un «yo consciente». Es una noción difusa, que cabe
asimilar a una suerte de hombrecillo submicroscópico o fantasma que reside en mi
cerebro. Se comporta como un notario: asiste al parto de las ideas, dando fe de su
existencia. Ni entra ni sale en el proceso de su gestación: tan sólo expende el certificado
de nacimiento. Lo suelen poner frente al «objeto», que es la denominación filosófica
para los artilugios mentales. A un lado está el «sujeto», el «yo consciente» o «yo
trascendental». Frente a él aparece el «objeto», las ideas; a las que, si se les quiere dar
importancia, se las apellida «trascendentales», que es un título nobiliario utilizado en
filosofía.
El sujeto es consciente del objeto, de las ideas; ese es su papel en la vida. Según
este modelo: "Se supone como evidente que la conciencia es tener delante de sí o
«representar» un objeto; que consiste en esta relación característica entre el sujeto y un
objeto. Esto ha llevado a comprender la autoconciencia, y en general el comportarse
consigo mismo, como una relación entre el sujeto y él mismo como objeto: uno se tiene a
sí mismo delante de sí"[126]. Resulta así el yo consciente de yo. Cuando miro el prado,
alguien en mi observa mi representación interior del prado, y la objetiva, la hace objeto.
También me contempla a mi mirando al prado, de alguna manera me lo cuenta, y yo
entonces soy consciente de que yo estoy mirando al prado. Obviamente por este camino
es fácil acabar ahogado en un pantanal hermenéutico. El modelo, por otra parte,
introduce en la intimidad humana, ya dividida en res cogitans y res extensa, otro
dualismo cognoscitivo: el de sujeto y objeto. De nuevo surge el problema de inventar
pegamentos conceptuales para que no se disgreguen. Para alguna teorías filosóficas este
es un problema grave, pues defienden que el nivel de verdad se mide por la fuerza de la
soldadura entre el sujeto y el objeto.
Por otra parte, asignar a la conciencia lo propio de la inteligencia humana es
reducirla a pura pasividad. Una inteligencia que sólo fuera conciencia se limitaría a
saber lo que le pasa: me pasa que pienso esto o lo otro; me acontece que veo tal cosa;
me ocurre que tengo esta opinión; me sucede este sentimiento; me pasa que se me ha
ocurrido un plan... La inteligencia queda reducida a constatar sus ocurrencias, pero no
puede hacer nada por tener otras, o por mejorarlas. Una inteligencia que sólo sea
consciente no es activa, y está condenada a ser poco inteligente. Si todo lo que
conseguimos es que un homúnculo interior levante acta de lo que me pasa por las
mientes, tome nota de que acontece el cogito, para concluir que existo y me pasa lo que
me pasa, entonces podemos hacer muy poco y casi no compensa ser inteligentes.
Reducir la actividad inteligente a conciencia es condenarla a ser mero receptor pasivo
de las ideas, representaciones, motivaciones, impulsos, sentimientos, sensaciones... que
genera el sistema de tratamiento de información neuronal humano. La inteligencia sería
la red neuronal biológica humana trabajando por su cuenta, a la que se añade un
homúnculo que toma nota de sus procesos, pero que no la dirige.
Otro problema que suscita esta noción es su carácter recursivo, que se puede
estirar hasta el infinito. Somos conscientes de que conocemos, pero eso es otro
conocimiento. Hace falta una conciencia más que sea consciente de que somos
conscientes de que conocemos. Así sucesivamente. Resulta una interminable hilera de
hombrecillos submicroscópicos que miran por encima del hombro lo que hace el
anterior, para ser conscientes de lo que se es consciente. No se qué puesto habría de
asignarme yo en la fila, para ser consciente de que soy consciente de lo que soy
consciente, y que se me pasa por la cabeza o me sucede.
Este raro modelo, tan querido en la modernidad, ha sido atacado con vigor por
los trabajadores de la Inteligencia Artificial, y otras ciencias cognitivas. Porque resulta
que el yo consciente se toma unas vacaciones cuando duermo, o cada vez que alguien es
anestesiado. Aparece desconcertado en los sueños, cuando tengo clara conciencia de
que soy yo, sin conciencia alguna de contemplar una película de la imaginación. En el
sueño no se es consciente de que no hay que preocuparse si resulta pesadilla. Freud,
aunque no superó el modelo, señaló que la conciencia no es tan omnisciente como se
pensaba. Desconoce todo un mundo inconsciente, que abarca territorios más amplios de
lo que el yo consciente llega a advertir. Con toda razón niegan su validez. "La idea de
que el yo humano es solamente un yo consciente, es una propuesta del racionalismo
que el proceso formal abierto se encarga de desmentir" [127].
No hay nada semejante a un enano o fantasma que me habite, y sea mi yo
consciente. Tampoco resuelve nada multiplicar los fantasmas. Esta es la solución que
arbitró Freud, incapaz de desarrollar un utillaje intelectual más potente. Según él hay
uno que se encarga de saber: es el espectador, el consciente. Luego parece ser que hay
otro encargado de no saber o, más bien, de no querer saber: produce el inconsciente,
que es conciencia reprimida. Por este camino resulta que soy una especie de castillo
inglés con varios fantasmas en nómina, que no se llevan bien y provocan constantes
conflictos. He de acudir a un experto en pacificar relaciones entre fantasmas (se llaman
psicoanalistas) para arbitrar acuerdos, de forma que cesen las luchas por los pasillos de
mi cerebro. Es una solución conceptualmente chocante y más bien pobre, que sólo tiene
la ventaja de mantener la idea de conciencia promovida por la modernidad como clave
de la inteligencia humana.
La conciencia es algo muy elemental, que requiere poca inteligencia. "La
conciencia es el primer acto intelectual, y por tanto, el mínimo"[128]. Para los clásicos la
conciencia es algo que se da también en el conocimiento sensible, que compartimos con
los demás animales. Así por ejemplo, para Tomás de Aquino, un sentido "non solum
cognoscit sensibile, sed etiam cognoscit se sentire"[129]: no sólo conoce lo sensible, sino
que también conoce que siente.
Por eso la conciencia no supone mucha diferencia con algo que compartimos con
los animales: la atención. El animal despierto y en guardia se fija, atiende a lo que le
rodea. Presta atención a lo que le afecta, a las cosas en las que le va la supervivencia. El
aprendizaje le ayuda a ser especialmente consciente de algunas, y no atender a otras.
Conoce lo que le afecta, lo que le duele o le gusta. Le llaman la atención muchas cosas;
otras no las ve, porque no las mira. No le dicen nada. La conciencia es el darse cuenta, o
caer en la cuenta, para estar atento. Lo mismo hacemos nosotros. De quien no atiende a
algo que le afecta, y puede suponer peligro, decimos que es un inconsciente.
Aprendemos a fijarnos, a mirar, a tener conciencia de lo que nos habla el entorno y de lo
que susurra nuestro cuerpo. La ausencia de estado de vigilia elimina nuestra conciencia.
Como, además, hemos conseguido que nuestra red neuronal funcione con ideas,
podemos ser concienciados de maneras peculiares. Por ejemplo, puedo llegar a pensar
que estoy rodeado de enemigos que me explotan. Todo lo que me sucede adquiere así
un color peculiar, por susceptibilidad. En consecuencia, acabo con un comportamiento
irritable y violento, fastidoso para la convivencia en la manada humana. También hay
quién cultiva un batiburrillo mental considerable, para acabar con la clara conciencia de
que todo es un lío incomprensible y sin sentido, empezando por uno mismo. O puedo
llegar a tener conciencia de pertenecer a una raza superior, por el sencillo motivo de que
soy de mi pueblo, y no del de al lado. Etc., etc.
Otra cosa es llamar conciencia al ejercicio de las habilidades reflexivas aplicadas
a ideas que tratan de nosotros mismos. Esas ideas pueden ser pocas o muchas, con
semántica o sin ella. Si son escasas se puede acudir a los psicoanalistas, que suelen
ofertar multitud de ellas; las más, infectadas de optimismo semántico. El que las tenga
negativas, acuda a un cursillo de autoestima. Si no sabe lo que le pasa, que procure
verbalizarlo y racionalizarlo. Tampoco sabrá lo que le pasa, pero tendrá explicaciones
tranquilizadoras, del tipo: estoy inquieto, porque me afecta mucho la energía negativa
de la casa que habito; me comporto así porque soy sagitario, o piscis; la culpa de lo mío
la tiene un trauma infantil...
Tener información acerca de si mismos no es exclusivo de los humanos. Dejando
a un lado los animales, las máquinas la tienen. Una cámara que se filme a sí misma en el
espejo, la posee. Los ordenadores suelen tener buena información sobre sí mismos: al
arrancar hacen un chequeo de su estado interno. Puede hacerse que ese chequeo sea tan
exhaustivo como se quiera, de manera que la información sea tan completa como se
desee. Lo que la cámara y los ordenadores no tienen es capacidad reflexiva, que les
permita conocer que la información (en forma de película o señales magnéticas) es
información. Nuestras habilidades reflexivas permiten que hagamos precisamente eso,
descubrir que se trata de información. Pero no aseguran que la información tenga
semántica. Puede ser una información desquiciada de toda realidad propia, que
produce una conciencia inadecuada. Muchas terapias cognitivas se orientan a procurar
formas de elaborar ideas sobre nosotros mismos que no estén muy dislocadas. La
conciencia, por tanto, admite ejercicio y desarrollo.
El otro escollo del que pueden venir dificultades que hagan malentender la
reflexión es la intencionalidad. Se trata de una antigua noción de la teoría del
conocimiento, que ha saltado de nuevo a la fama desde que Brentano la hiciera desfilar
por las mejores pasarelas filosóficas[130]. Sobre ella se han escrito palabras muy
hermosas, de ser ciertas. Algunos autores, críticos de la Inteligencia Artificial dura, han
acudido a ella para apoyar sus tesis[131]. Con esa palabra se suelen designar varias cosas
distintas. Por ejemplo, que las palabras, los términos y las ideas no se dirigen a sí
mismas. Siempre hacen referencia a otra cosa a la que ponen de manifiesto. Si alguien
me grita: ¡cuidado, te va a morder el perro!, en primer lugar me pongo al seguro. Lo que
directamente comprendo es el significado de la frase, no la frase misma con su
estructura gramatical precisa.
Así entendida, la intencionalidad pertenece tanto al conocimiento animal como al
humano. Ante una señal de alarma, todo el rebaño de gacelas se pone en marcha
emprendiendo veloz huida, sin analizar la sintaxis de la señal misma. Este sentido de la
intencionalidad se refiere a la adecuación con la realidad de los sistemas de tratamiento
de información, y a su eficacia para moverse en el entorno al que se refieren. Desde este
punto de vista también las máquinas eficaces en entornos reales tienen intencionalidad.
La información de un sensor que provoca, una vez tratada, un acertado movimiento del
robot, está formada por signos intencionales.
Con ese significado, la intencionalidad se ha utilizado para fundamentar el
realismo cognoscitivo, o para señalar la superioridad de la inteligencia humana respecto
de la Inteligencia Artificial. También para lo contrario. Bastantes defensores de la
Inteligencia Artificial dura afirman que las representaciones, el lenguaje o los estados
mentales de hombre y máquinas son equivalentes, pues corresponden a realidades.
Pero la intencionalidad no da para tantos estiramientos. Puedo afirmar que mis estados
mentales, o ideas, o representaciones, se refieren a la realidad. Pero, en primer lugar,
eso no me diferencia de los animales, ni de los ordenadores que funcionan bien en
entornos reales. En segundo lugar, puedo intentar fundamentar en la intencionalidad la
adecuación de las ideas a la realidad. Pero esa actitud es fácil de infectar de optimismo
semántico, que me inclinará a afirmar que todas mis ideas, por ser intencionales, se
refieren a la realidad y son verdaderas, por más disparatadas que resulten. En tercer
lugar, y es lo más grave, si todo lo que alcanzo es a dejarme llevar por la
intencionalidad de mis ideas, estoy atrapado en ellas, como los animales y los
ordenadores.
Los animales y las máquinas utilizan señales intencionales, pero no lo saben.
Tuve un perro que al decirle: ¡Busca!, ¡busca!; se ponía a dar vueltas olisqueando todo.
El pobre nunca pudo tratar la palabra como tal, estaba atrapado en la intencionalidad
adquirida por el aprendizaje. La intencionalidad sólo se vuelve una propiedad
interesante al combinarse con las habilidades reflexivas. De manera inmediata, sobre las
ideas pesa la intencionalidad semántica y sólo mediante un proceso reflexivo las
podemos conocer en su carácter de signos. Para el pensamiento humano, más que la
intencionalidad como referencia o representación de la realidad, es una ventaja conocer
la intencionalidad misma de los símbolos. En hombre encontramos no sólo la
intencionalidad de las ideas y representaciones, sino también la capacidad reflexiva de
conocer su intencionalidad. Somos capaces de conocer ideas, y también que se refieren a
algo. Podemos así trabajar las ideas y su intencionalidad. Estudiar las ideas que
pretenden ser verdaderas, para decidir si lo consiguen, y en qué grado.
Si la intencionalidad de las ideas fuese una propiedad fundamental suya, de la
que no pudiéramos prescindir, estaríamos encerrados en sus límites. Aun en el caso de
que nuestro pensamiento fuese adecuado a la realidad, no podría progresar más allá de
las ideas que tuviese. Tampoco averiguaríamos si esa pretendida adecuación de las
ideas con la realidad es tan buena como parece. Nos embobaríamos de optimismo
semántico con las insensateces que padeciéramos. "Digámoslo claramente: si se
prescinde de su índole reflexiva, la teoría de la verdad como adecuación es inviable. Por
obvia que parezca, conduce a problemas insalvables, que nos obligan a
abandonarla"[132]. Las teorías realistas cognoscitivas que olvidan la reflexión, se
condenan al fracaso. Porque, como bien señalan las corrientes inmanentistas de la
filosofía, el hombre sólo conoce sus ideas o sus sensaciones (en el caso de la inmanencia
empirista), no la realidad. En esto tienen razón. "Lo primordial e inmediatamente
entendido es lo que el entendimiento concibe en sí mismo acerca de la cosa
entendida"[133]. En lo que los inmanentistas no aciertan es al asegurar que todo lo que
podemos hacer es conocer las ideas. No es así, también podemos entender que las ideas
son ideas, ni más ni menos.
Las mejores teorías del conocimiento humano no ponen el acento en la capacidad
de razonar, ni en la adecuación de las ideas con la realidad, ni en su carácter intencional.
Todas esas cosas, con ser interesantes, no son fundamentales. Insisten más bien en el
papel esencial de la capacidad reflexiva. Por ella podemos trabajar las ideas en
razonamientos; comprobar su adecuación y mejorarla; y no quedar atrapados por su
intencionalidad, para elaborar mejores ideas. Tomás de Aquino prolongó el camino
abierto por Aristóteles para conocer el pensamiento humano. Llamaré clásica a la teoría
del conocimiento que elaboraron. Para él la cosa está clara: "Conoce la verdad el
entendimiento que sobre sí mismo reflexiona"[134]. El que vuelve sobre los pasos que ha
dado, sin que sus posibilidades se agoten en darlos. "En cuanto conocen que conocen ya
comienzan a retornar a sí, puesto que el acto de conocimiento es intermedio entre el
cognoscente y lo conocido"[135].
De esta forma consigue la inteligencia no perderse en ese intermediario que son
las ideas. La persona que quiere pensar de manera inteligente, intenta mirar su
operación y mirarse a sí mismo realizándola, para valorar la bondad de intermediación
de las ideas. Puede así preguntarse: ¿qué he hecho? ¿Cómo he llegado a esta
conclusión? ¿Qué significa esta idea? ¿Es idónea? Llega a conocer la realidad porque
puede mirar la operación que realiza su sistema de tratamiento de información
neuronal, dándose cuenta de qué es lo que hace y cómo elabora algo semejante a la
realidad. Es decir, podemos conseguir que nuestro sistema de tratamiento de
información alcance a conocer la operación que ha hecho.
Para llegar a la realidad la inteligencia no tiene que salir de sí misma, ni
fundamentar la existencia de la realidad exterior mediante piruetas mentales o
contorsionismos lógicos. No es necesario que fundamente el conocimiento de la
realidad en otra cosa que sus propias operaciones cognoscitivas. Tampoco debe ir más
allá de la idea para conocer la realidad. Son las mismas ideas las que atrapan algo de la
realidad, si han sido elaboradas adecuadamente. También ellas traen su propia
limitación, porque sólo permiten conocer una parte de la realidad y desde un cierto
punto de vista. Por muy buenas que sean son sólo ideas. Asimismo en las ideas es
dónde se produce el error, y donde se dan las contradicciones. Atrapan la realidad, pero
también contienen nuestras necedades, prejuicios y estrecheces mentales.
Lo que la persona que quiera ser inteligente debe hacer es observar su propia
operación cognoscitiva, la que ha realizado su sistema de tratamiento de información,
comenzando por los sentidos. También las que haga con ayuda de otros, como son los
ordenadores. Nuestro entendimiento entiende la realidad considerando su interior, no
mirando fuera de sí: intra se considerando, non extra se inspiciendo[136]. Conocemos
reflexivamente, al volver el entendimiento sobre sí mismo y sus operaciones. La teoría
clásica del conocimiento es inmanentista en sentido pleno: de operación inmanente,
íntima a la persona. Insiste más en la importancia de hacer bien la operación, más que
en venerar resultados conceptuales parciales. No pone su confianza en las ideas, como
hacen los malos inmanentistas, sino en la persona que se para a pensar para hacerse
capaz de elaborar buenas ideas. Es una teoría que está más a la altura de la dignidad de
la persona. Las otras inmanencias acaban sacrificando las personas a unas pocas y
pobres ideas.
La teoría clásica considera instrumental la capacidad de razonar; no es la reina de
la fiesta que pensaron los racionalistas. Es un buen invento, que hay que utilizar y
controlar mediante la reflexión, para que no se desmande. En la cima del conocer
humano ponen el intelecto (nous, intellectus), no la razón (logos, ratio)[137]. No lo
llamaré facultad, que es palabra con ramalazos cosistas, y puede transmutarlo en EL
INTELECTO, como si fuera algo, o alguien, contrayendo el Síndrome de Optimismo
Semántico. En cualquier caso, para empezar basta, es la capacidad del hombre para
manejar sus ideas.
Como Aristóteles inventó gran parte de la lógica, sólo padeció leves debilidades
por aquellas ideas que deslumbraron a Platón y de las que él quería ser artesano. Para él
la razón proporciona unas herramientas espléndidas, y sólo eso. Dominarla es tarea
humana. No dijo que el hombre es animal racional, sino: "El hombre es el único animal
que posee la razón"[138]. También lo definió de otra forma: "El ser que tiene la razón y,
por un lado, la obedece; y, por otra parte, la posee y la piensa"[139]. Ese gran hallazgo
aristotélico también lo están redescubriendo desde las Ciencias Cognitivas: "El hombre
puede suscitar, controlar y dirigir sus actividades mentales. Dicho de forma
sentenciosa: la inteligencia humana es la inteligencia animal transfigurada por la
libertad"[140].
Búsqueda sin término: la pregunta
El segundo tipo de operaciones cognoscitivas peculiares del animal humano, que
cualquier etólogo puede observar, tienen que ver con la pregunta y el preguntar. Con
ello no me refiero a la curiosidad. Los animales también la tienen, los superiores en un
alto grado. La curiosidad del animal, también del animal humano, es muy grande en las
primeras etapas de su desarrollo. Cualquier cachorro (incluido el humano) juega,
corretea, explora, huele, toca, lame, se cuela en todos los sitios. Investiga el entorno,
junto con los animales y plantas que lo ocupan. También experimenta con el propio
cuerpo, al que tiene que aprender a dominar. Esta curiosidad es fundamental para el
aprendizaje. En los animales superiores, con cerebro desarrollado y plástico, gran parte
de su adaptación al hábitat y de su éxito evolutivo depende de su grado de curiosidad.
Condiciona la capacidad de adquirir información y todo el aprendizaje. Las conexiones
neuronales deben establecerse adaptadas al entorno, y al propio cuerpo en ese entorno.
La curiosidad dirigida por los padres es elemento esencial de la educación, de la
transmisión de información sobre actitudes y comportamientos exitosos acumulada por
la especie a lo largo del tiempo. A medida que el sistema nervioso madura, la
curiosidad disminuye, aunque no desaparece. Quedan los hábitos de exploración del
propio territorio y aquellos otros que aseguran que el animal tienda a adquirir la
información necesaria para su supervivencia.
El hombre, en este aspecto, se comporta como un animal más: utiliza su sistema
de tratamiento de información para adquirir información sobre la realidad que le afecta,
sobre lo que necesita y sobre la satisfacción más oportuna de esas necesidades. Así
explora, juega, ensaya... de manera instintiva; vale decir movido por su mera naturaleza
animal. De forma semejante los padres orientan la curiosidad de los hijos y los educan.
Las crías humanas, igual que los demás cachorros animales, aprenden porque su
curiosidad es dirigida y por la tendencia a la imitación del comportamiento de los
adultos. Así se transmiten y aprenden informaciones sobre cosas, comportamientos, rol
y estatus social... Hasta aquí no hay ninguna diferencia apreciable. Sin embargo
convenía decir lo anterior para dejar claro que los animales, igual que el hombre, tienen
una fuerte tendencia "investigadora", de adquisición de información. Es necesario para
mantener el adecuado nivel de semántica en su sistema neuronal de tratamiento de
información, sin el cual no conseguirían sobrevivir. Insistir en este punto sirve para
establecer con precisión la diferencia, si la hay, entre el preguntar y la curiosidad. No es
válido declarar que los animales carecen de lo que evidentemente tienen; para así
facilitar, de manera errónea, el camino de poner en claro lo que la humanidad añade al
animal que somos.
Por otro parte, no es difícil construir robots que tengan un comportamiento
equivalente. El interés económico es escaso, por lo que únicamente se desarrollan en
algunos laboratorios de manera experimental. Sin embargo construimos máquinas
curiosas para campos especializados. No tan graciosas como los animales, pero mucho
más eficaces. Son máquinas cognoscitivas que indagan y recogen información para
nosotros: en ellas confiamos para muchos conocimientos empíricos que sólo ellas son
capaces de adquirir. Exploran por nosotros y nos transmiten la información. Las cosas
han llegado a un punto en que no podemos prescindir de las máquinas «curiosas» que
hemos fabricado. En este aspecto no hay ninguna diferencia cualitativa con los
humanos. Todo lo que sucede, ya lo he dicho, es que las máquinas nos van superando
para adquirir información.
La pregunta, el preguntar, tiene que ver con la curiosidad, porque el hombre no
deja de ser un animal. Pero es una curiosidad que llega a ser también algo más. La
pregunta, en primer lugar, manifiesta un percibir que la información suministrada por
el sistema de tratamiento de información no es toda la información, o que es
limitadamente información. Esto es lo sorprendente: ¡Encontramos un sistema de
tratamiento de información -el humano- capaz de declarar su propia insuficiencia y
limitación! ¡Capaz de declararse insatisfecho con lo que él mismo hace! Imagínese un
superordenador futuro, mucho más potente y con más capacidad de aprendizaje que
cualquier cerebro humano, que adquiriese muchos más datos que los alcanzables nunca
por mí. Datos que, además, fuesen ciertos, con semántica garantizada. Sería una
sorpresa mayúscula que un día dijera, con una magnífico sintetizador de voz muy
superior a mis órganos de fonación, que todo aquello eran datos y nada más que datos
pero que, en realidad, no conocía verdaderamente el asunto. Porque no hay manera de
meter toda la realidad en datos; siempre resultan insuficientes; por más que parezcan,
siempre son simples bits. Esto es lo que, para empezar, sucede en el caso de la pregunta.
La curiosidad animal queda plenamente satisfecha con la información que
adquiere su sistema de tratamiento de información. Mientras que la curiosidad humana
no queda calmada con lo que le proporciona su propio sistema. Por ese motivo siempre
sigue buscando más información. Esta es una de las tendencias más características del
animal humano: siempre quiere saber más, constantemente busca más información,
nunca parece quedar satisfecho con la que ya tiene. Por eso se habla del ansia natural de
saber, como una característica peculiar, un fuerte instinto del animal humano. En el
hombre "hay un apetito natural por conocer todas las cosas" [141]. Existe más hondura en
la intimidad humana de la que ninguna información, ninguna idea, puede colmar. En la
base del preguntar no está la maravillosa complejidad del mundo que habitamos.
También los animales y los ordenadores están en él, y no se asombran tanto por lo que
ven. En el origen se encuentra la incolmable profundidad de la subjetividad humana.
Quiere entenderlo todo; anhela explicaciones últimas, definitivas. Busca una claridad
total, una penetración que llegue hasta el hondón del mundo y de sí mismo.
Aquí surge un problema: ¿Cómo es posible no ya captar lo que hay de
información en la información, sino incluso percibir lo que en ella hay de falta de
información? ¿No reclama esto algún tipo de intuición, de contacto directo con la
realidad, por otra vía distinta de la suministrada por el sistema de tratamiento de
información? Me parece que la respuesta debe ser negativa. No hace falta intuición
alguna. Basta que la apetencia interna, que la sed -como necesidad de recibir
información- o la capacidad intrínseca de recibirla sea mayor que la información
suministrada, para que no quede saciada ni satisfecha. Esa superior capacidad de
semántica, de referencia a la realidad, que hay en el pensamiento humano hace que éste
nunca quede tranquilo con la información adquirida.
La solución, por tanto, hay que buscarla en la superior subjetividad humana, a la
que se suele llamar persona. La subjetividad humana es tan grande y es de tal
capacidad que no se llena ni se sacia con lo suministrado por el sistema de tratamiento
de información. Precisamente es la hondura subjetiva humana, su carácter personal, lo
que hace que no le basten los objetos presentados por el sistema de tratamiento de
información. El hombre consigue ser más objetivo, más capaz de objetos y más apto
para su semántica, porque es extraordinariamente subjetivo, porque tiene una enorme
grandeza interior que no se llena fácilmente. Si se esfuerza por estar a la altura de su
inteligencia, puede ver que las ideas sólo son ideas y que la realidad que contienen es
escasa. Para poder ser muy objetivo hay que desarrollar al máximo la propia
subjetividad.
En este punto conviene decir dos palabras sobre una catastrófica confusión: la
oposición de objetivo a subjetivo, que nos ha colado en el lenguaje la falsa dialéctica
sujeto-objeto. No se puede hacer una teoría del conocimiento dejando a un lado la
persona que conoce, para quedarse con fantasmas despersonalizados como La Razón o
La Inteligencia. Precisamente el hombre puede ser objetivo porque tiene una
subjetividad tal que le permite captar los objetos mentales como tales. Juzga su
semántica y puede utilizarlos, sin ser manejado por ningún objeto. Si ser objetivo quiere
decir atenerse al objeto mental y sólo a él; entonces no hay que ser objetivos, pues
siempre hay que superar y dominar los artilugios ideales que fabricamos.
Lo que el lenguaje normal llama subjetivismo es más bien un objetivismo u
objetualismo. Ese subjetivismo se da en una persona que no ha cultivado su
subjetividad, por lo que la tiene escasa o en precario. Por ello resulta atrapada por sus
ideas. No supera al animal ni al ordenador, no está a la altura de su dignidad. No es
capaz de darse cuenta de las limitaciones de sus constructos mentales y tampoco
observa su limitada semántica. Queda así encerrado en sus montajes conceptuales, en
una ideología más o menos simplista, o en cuatro pobres razones que considera
suficientes para explicarlo todo. El resultado es una pobretería objetivista, como una
especie de esclavitud interior, al tener la subjetividad sometida al objeto.
El retórico, al estilo sofista, es el que domina el arte de elaborar ideas envueltas
en palabras atractivas, fáciles y llenas de respuestas baratas, con las que consiguen
esclavizar desde dentro a los hombres. Modernamente es la técnica de la manipulación
de las personas, mediante la información y los medios de comunicación, la que
producen masas de borregos que pueden ser llevados, porque no saben caminar con sus
propios pies. Renuncian a dar pasos hacia la verdad encerrados en la falsa seguridad de
las no menos falsas palabras. El subjetivismo objetualista de quien pretende hallar
refugio atrincherándose detrás de unas cuantas razones o «explicaciones» pone de
manifiesto una personalidad empobrecida. Ha perdido en un mar de palabras la
grandeza que tuvo en la infancia, porque los niños preguntan siempre. No les sirven las
pobreterías racionalistas. Entienden mejor lo maravilloso y fantástico, lo que ven que es
grande y lleno de misterio, más que lo estrechamente racional.
El hombre que quiera ser tal, con toda su subjetividad desarrollada, debe
abandonar el falso refugio de sus ideas y caminar por donde no hay caminos, por el
misterio que está más allá del objeto mental, hacia el horizonte de verdad que le es
propio. Casi se puede decir que lo más humano es el misterio, mucho más que la
cerrazón formal que no sacia la subjetividad. ¡Ay de aquél que considere su sed
satisfecha! "En el fondo de toda auténtica vida intelectual late siempre la experiencia del
misterio"[142]. El que da la espalda al misterio y sólo tiene respuestas y no preguntas, es
un derrotado del pensar.
"Preguntar es la devoción del pensar"[143]. Quien renuncia a las preguntas porque
se considera poseedor de todas las respuestas, en realidad desiste de pensar. El que
mira constantemente los eslóganes de uso fácil contenidos en su catecismo ideológico,
se acaba cortando la cabeza para poner un coco en su lugar, que resulta fácilmente
comestible. Quien, aferrado a una tradición fósil, que ni siquiera entiende, se niega al
desequilibrio de los pasos y al riesgo del camino, acaba negando lo que es propio de su
misma humanidad. Porque "el camino del pensar es de tal índole que jamás se puede
atravesar la encrucijada mediante una decisión y una dirección tomada de una vez por
todas, ni se puede dejar atrás el camino teniéndolo a las espaldas en calidad de camino
recorrido. La encrucijada va acompañando al caminante en todo momento a lo largo del
camino. ¿A dónde conduce este raro camino del pensar? ¿a dónde sino a lo siempre
cuestionado?"[144]. La persona que quiere estar a la altura de su dignidad es la que
siempre camina hacia el misterio, porque siempre va más allá de lo dado en las ideas.
Además de una espaciosa subjetividad, la capacidad de preguntar pone de
manifiesto otra peculiaridad de la que es capaz el hombre: saber que no sabe. Tenemos
información, y podemos conocer que nos falta mucha más, que no es completa.
Percibimos su insuficiencia, su limitación, e intentamos ir más allá. Nos lanzamos a
estudiar e investigar. "La inteligencia encuentra (y esto, aunque parezca claro, es lo
sorprendente) cuando se atreve a ir más allá de lo dado. Hay casos en que sólo en la
medida en que nos salimos de lo dado, un problema tiene solución. Y esto implica que
lo dado no encierra la solución, o que el problema es ulterior. Para la teoría del
conocimiento esta observación es muy indicativa"[145]. Con la pregunta se toma
conciencia de que la información, aún cuando manifieste la realidad, no deja también de
ocultarla, por lo que es un límite para acceder a ella. Pero "una cosa es conocida como
límite, como deficiencia, sólo en cuanto este límite y esta deficiencia han sido
traspasados"[146]. En la capacidad de preguntar descubrimos una operación del pensar
humano bien diferente y muy superior al mero tratamiento de información.
Podemos decir muchas palabras sobre la deficiencia de las ideas, incluso
referirnos a crisis de ideas. También hablar de ausencias de sentido, de carencias
explicativas, de insuficiencias teóricas. Pero es obvio que ninguna teoría explica sus
limitaciones; no hablan de sus deficiencias. Las encontramos nosotros si procuramos ser
inteligentes. "La objetivación de la finitud corre a cargo de la inteligencia misma. La
inteligencia cuando objetiva que no conoce más, eo ipso se lanza hacia más. La
declaración «no conozco más» es imposible para la imaginación, o para la sensibilidad
externa. Son finitas, precisamente porque no notan su finitud. La inteligencia, en cuanto
nota la finitud del objeto, propone la noción de infinitud. La tesis: «la objetividad
intelectual es finita» se disuelve de suyo, puesto que es una tesis intelectualmente
objetivada, es decir, ya conocida. Ahora bien, si se conoce se posee lo conocido y se
sigue conociendo. A quien declare que, una vez llegado a un punto, no puede proseguir
-intelectualmente hablando-, hay que responderle que la renuncia, el desistir intelectual,
es incoherente. El primero que se dio cuenta de esto in actu exercito fue Sócrates. Si
«sólo sé que no sé nada», sé que mi capacidad de conocer no se contenta con lo finito.
Esta es la conclusión inmediata del socratismo"[147].
Estupendo Sócrates, siempre preguntando, empeñado en ser partera de buenas
ideas. Enorme sabiduría, que al necio parece ignorancia. "El que en el hablar sólo busca
tener razón y no darse cuenta de cómo son las cosas, considerará lógicamente que es
más fácil preguntar que dar respuesta. (Pero) para poder preguntar hay que querer
saber, esto es, saber que no se sabe"[148]. Si resulta sorprendente saber lo que se sabe -es
decir, conocer la información- mucho más extraordinario es poder declarar que no se
sabe, indicando así la insuficiencia de esa información. Porque la información que
sabemos nada dice de sus limitaciones y carencias.
Sin embargo, declarar que la información no aporta toda la comprensión posible,
implica que se tiene información. Esto es importante: la pregunta nunca se hace en el
vacío. Como mucho se puede simular, pero no hacerlo realmente. En toda pregunta hay
una información de partida suministrada por el sistema de tratamiento de información,
y supone al mismo sistema en funcionamiento. Si no hay información o si el sistema no
está activo, como en el sueño, no hay preguntas ni dudas posibles. La primera fase
esencial para realizar buenas preguntas es conseguir conocer con cierta precisión lo que
se sabe. Las buenas preguntas, o los problemas bien planteados, ayudan mucho a
encontrar respuestas acertadas, que permiten nuevas y mejores preguntas.
Una actitud estéril es partir de la negación de toda la información anterior. Se
intenta progresar desde cero, declarando que nos ha precedido una multitud de
imbéciles e ineptos, cuando no malvados. Es la cultura de la sospecha, que tanto afecta a
nuestra forma actual de pensar. Pero es una actitud ridícula arrasar con todo lo anterior
intentando encontrar una novedad absoluta, porque uno es un «genio», y tiene mucho
«ingenio». Está más de moda entre los de «letras»; los de «ciencias» tienen otras manías.
Se intenta poner en el punto de partida una negación absoluta pretendiendo así llegar a
una afirmación no menos absoluta.
Son pretensiones vanas, porque nuestro sistema de tratamiento de información
neuronal no da para esos devaneos; requiere ser bien utilizado, de acuerdo con sus
posibilidades reales. Los que crean haber conseguido una novedad absoluta, verán
cómo los deconstructores de textos encuentran filiaciones y antecedentes para casi todo.
Jibarizarán lo que parecía parto de los montes para reducirlo a ínfimo ratón. Sin olvidar
que, para escribir una novedad absoluta, habría que empezar por inventar letras,
palabras y todo el lenguaje; porque los idiomas no los hablamos, nos hablan en gran
medida. Antes dije que no preguntar es renunciar a pensar, por lo que aferrarse a una
tradición -a un determinado constructo formal- no debe hacerse. Ahora afirmo que
igualmente es renunciar a pensar la pretensión de un progreso mental absoluto que no
quiera partir de esa tradición, de lo ya conseguido, de la buena información existente.
Toda investigación acertada se edifica estableciendo con la máxima exactitud
posible lo sabido, para preguntar con acierto, de manera que se puedan encontrar
respuestas. Sólo partiendo de la información adquirida se hacen las preguntas capaces
de tener respuesta, y no preguntas dislocadas, en el vacío, que nunca habrá manera de
contestar. La pregunta absoluta, madre de todas las preguntas, que se intenta hacer
desde el vacío a otro vacío mayor, no deja de ser una pretenciosa necedad muy del
gusto decimonónico. Los pasos hay que darlos uno detrás de otro, porque nuestro
sistema de tratamiento de información neuronal no permite otra cosa. En toda
búsqueda en la que se quiera encontrar algo deberemos: establecer con precisión el
problema, plantear posibles líneas de ataque conceptual, encontrar y valorar las
aparentes soluciones. Otra cosa es problematizar las cuestiones, tarea para la que
muchas personas se entrenan con asiduidad. Mala cosa, porque necesitamos personas
capaces de aportar soluciones, ya que los problemas abundan.
"La pregunta se formula en la medida en que se niega -lo que se sabe, o lo sabido. El agotamiento de la negación se ve especialmente en la pregunta: es la imposibilidad
de formular la pregunta por antonomasia: no existe la pregunta por antonomasia, sino
una pluralidad de preguntas irreductibles (...). En la pregunta la negación es referida,
ante todo, al saber que se tiene. Es el principio socrático 'sólo se que no sé nada'. Se
interroga en la medida que no se sabe; pero esa medida no está referida en directo a una
ausencia de conocimiento, sino que recae, como una investidura, en lo que se sabe.
Preguntar es declarar que no se sabe, relativamente a lo que se sabe. La negación intenta
entonces retroceder al punto de partida (...). No se trata de preguntar en el vacío: frente
a la dialéctica, preguntar es negar que se sepa lo que se suponía sabido, volver a
pensarlo. La pregunta no deja el punto de partida como pura indeterminación exenta.
Al final, ante la pregunta, sólo queda el pensar. Sin embargo, si no se incurre en
incoherencia, la investigación también se agota: siempre se puede preguntar; pero
preguntar es siempre plantear una pregunta; nunca se puede plantear la pregunta por
antonomasia (...). No se encuentra una pregunta si la pregunta no se formula; formular
una pregunta consiste estrictamente en acertar a negar la suficiencia de lo
supuestamente conocido"[149].
Dicho de otra manera: "Todo preguntar y todo querer saber presupone un saber
que no se sabe, pero de manera tal que es un determinado no saber el que conduce a
una determinada pregunta"[150].
Preguntas hay muchas, pero cabe sistematizarlas. No pretendo en estas páginas
realizar una investigación exhaustiva sobre los tipos de preguntas y el modo de
hacerlas. Es una tarea muy interesante para conseguir ser medianamente inteligentes.
Aristóteles se enfrentó a ella en los Segundos Analíticos. No puedo resistirme a incluir
una cita que resume sus investigaciones: "Aristóteles examina los tipos de preguntas
que el hombre se hace, y los deja reducidos a cuatro. El primero es lo que llamaríamos
el hecho: nos preguntamos, por ejemplo, si la cosa es tal o cual, si el sol sufre o no un
eclipse. Cuando conocemos el hecho, preguntamos el porqué: por ejemplo si sabemos
ya que el sol sufre un eclipse o que la tierra tiembla, preguntamos por el porqué de
ambos acontecimientos (...). Pero hay una posibilidad distinta de preguntar, y es
plantearse simplemente si algo existe o no. Aristóteles recalca que se toma la expresión
si existe o no (si es o no) en sentido simple, y no como cuando decimos, por ejemplo, si
algo es o no blanco (...). Por último, una vez que sabemos que alguna cosa existe,
hacemos aún un último tipo de pregunta, a saber: qué es esa cosa (...). Nuestro saber
consiste en responder a esos cuatro tipos de cuestiones. Ahora bien, afirma Aristóteles,
cuando nosotros preguntamos por el hecho (¿se puede atribuir A a B?) o por la simple
existencia, no estamos buscando otra cosa que si existe un término medio que
justifique el hecho o la existencia, mientras que, cuando preguntamos por el porqué o
por la naturaleza de la cosa estamos buscando, dado que ya sabemos que existe un
término medio, cuál es ese término medio (...). El término medio es la causa y la causa
es el objeto de toda investigación (...). Toda investigación es una investigación en último
término de causas (porqués)"[151]. Si tuviéramos en cuenta estas distinciones nos
ahorraríamos multitud de desórdenes mentales.
En resumen, la capacidad de preguntar supone, al menos, dos propiedades
singulares del animal humano que admiten crecimiento y mejora. De una parte, las
habilidades reflexivas que permiten entender que la información en sólo información.
De otra, que la curiosidad del hombre, o el afán de realidad del pensar, o la capacidad
de verdad de la subjetividad humana, sea inagotable. Quisiera ahondar un poco más en
este punto, para llamar la atención de los etólogos sobre algunos comportamientos
observables en el animal humano.
No digo que el hombre tenga una capacidad infinita de recibir o tratar
información. Bien se puede observar experimentalmente lo limitada que es por las
características de su sistema de tratamiento de información. Pero sí afirmo que, con su
propio sistema o con la ayuda de otros, siempre se afana en apresar más información,
que trate la mayor cantidad de realidad posible. Por más que sepa, siempre pretende,
intenta, busca... saber más. Nunca la información que adquiere y elabora con su sistema
de tratamiento de información, o con otros, parece satisfacerle. Siempre puede dar
nuevos pasos hacia su horizonte propio, que es la realidad. O, si se quiere, la verdad, la
realidad conocida. El hombre quiere interiorizar todo, consiguiendo siempre más
información sobre la realidad para acumularla y tratarla en su interior.
Esa curiosidad peculiar humana tiene dos características sobresalientes: en
primer lugar, al hombre le interesan todo; en segundo lugar, parece que le importan
todas las cosas consideradas en sí mismas. A un animal le atraen muchas cosas, pero no
todas ni en sí mismas. Un león tumbado tranquilamente a la sombra de una acacia, con
la tripa llena, puede ver lo mismo -o más y mejor- que vería yo en idéntica situación.
Olores percibe muchos más y, con seguridad, también sonidos. Lo que sucede es que,
por ejemplo, la mayoría de las plantas de la sabana le dicen muy poco; la tierra y las
piedras casi nada. No le interesan porque su supervivencia está escasamente ligada a
ellas. Es un depredador, lo suyo es la carne con patas que se mueve en la llanura. La
evolución ha hecho que esas cosas si le interesen; también le ha llevado a adquirir sobre
ellas información con bastante semántica. Pero la tierra prácticamente no la ve, sólo ve
las huellas de la víctima potencial en ella. El animal lo percibe todo sólo en relación a sí
mismo. Por el contrario, yo puedo ver como él las huellas y seguirlas con instinto
depredador. O quedarme estudiando el suelo movido por una pasión edafológica. O
intentando clasificar las plantas, ayudado de una guía botánica. Soy capaz de
interesarme por todo, tenga o no que ver de manera directa con mi alimento, o con
cualquier otra necesidad. Incluso me interesan las cosas que se pueden juzgar más
tontas e inútiles a primera vista. Mi curiosidad es universal.
El hombre busca y almacena información acerca de todo. Inventa máquinas para
explorar donde sus sentidos no llegan. Saca de la oscuridad aspectos de la realidad que
le eran opacos. Habla así de positrones, quarks, o de bosones vectoriales intermedios.
Analiza su propio comportamiento para entender qué es eso que llama libertad. Se
afana, con mucho gasto y esfuerzo, en poner bibliotecas, universidades, laboratorios.
Reparte premios Nobel, encumbrando a las personas sabias en la escala social de la
manada. No a los machos fuertes y agresivos, como nuestros parientes los simios.
Desde la biología, la etología o la antropología[152] se señala que un animal vive
en un entorno mientras que el hombre habita el mundo. La gacela que el león observa
pasar de lejos, le dice al felino que es comida. Más fácil o difícil de conseguir,
dependiendo del terreno, del viento, de la ayuda de otros leones, y de las características
físicas de la gacela. Pero al león no parece interesarle la gacela en sí misma considerada.
Sólo la mira en relación a él. El hombre también come gacelas; pero además se preocupa
por saber qué y cómo son. Las observa y estudia; obtiene información sobre sus hábitos
y comportamiento. Las desarma, no para comerlas mejor, sino para saber sobre su
anatomía y fisiología. El animal humano dedica mucho tiempo a obtener informaciones
sobre las cosas en sí mismas consideradas, aunque esa información parezca totalmente
inútil. Puede decirse que le interesa toda la realidad del mundo como tal, por sí misma,
independientemente de lo que le afecte como animal.
En la teoría clásica de conocimiento, ese comportamiento se expresaba en parte
diciendo que el objeto propio del conocer humano es el ente. Es decir, todo lo que
existe, por el mero hecho de ser. Lo real en cuanto que simplemente es real, al margen
de toda otra consideración que se le pueda añadir de conveniencia o utilidad. Es como
si el hombre pudiera abrir sus ojos al mundo sin más intención que contemplarlo. Con
una mirada que quiere estar limpia de interés propio, capaz de una delicada pureza
intencional. Nada más quiere ver; sólo anhela ver más y más a fondo: comprender.
En el entender humano hay una extraordinaria pasión por lo inútil. No desea el
hombre conocer las cosas por ningún motivo, no le mueve nada, no es necesario para su
supervivencia. Busca conocerlas porque sí, simplemente porque están ahí, por el puro y
sencillo, elemental y básico afán de saber. Es el mismo saber el que le mueve. Se goza en
saber que sabe, y en saber siempre más. Por eso siempre pregunta; por eso siempre
tiene también preguntas nuevas. Nunca se satisface la inteligencia con ideas hechas, con
ningún constructo mental. Lo puede buscar y elaborar con el deseo de que sea el
definitivo, pero al llegar a él todavía el horizonte de la verdad parece más amplio, y los
caminos para llegar más innumerables.
Tenemos, según parece, un afán infinito de conocer. Se dirige a todo y bajo todos
los aspectos, sin limitarse. Esta afirmación se puede mostrar también a partir de una
actitud que no se presenta en ningún animal sano ni en ningún ordenador cabal, pero sí
en el hombre. Es un comportamiento de animal frustrado en sus expectativas. En el
animal humano, el instinto por conocer todo de manera completa, cuando es
defraudado produce la actitud escéptica. Es la del que renuncia a pensar porque no le
satisface la información conseguida. Cuesta imaginar un ordenador escéptico,
lamentándose de tratar sólo bits que sólo son eso, sin conocer nada en realidad.
Animales con deseos frustrados conocemos muchos, pero ninguno que sufra por
sentirse desengañado por sus percepciones y por lo que sus neuronas hacen con ellas.
Hace falta mucho afán de saber para conseguir ser escéptico. "La infinitud
cognoscitiva es la explicación de una actitud paradójica: el escepticismo. Hegel sería la
madurez del escepticismo, según una sugerencia de Heidegger. El escéptico, cuando no
es trivial, cuando no duda por dudar (como dice Descartes), es el que intenta la
culminación cognoscitiva en directo; por eso se siente defraudado ante lo que le ofrece
cada una de sus operaciones cognoscitivas. Escéptico viene de skepsis, que significa la
mirada o el mirar. La mirada escéptica es la mirada enteramente abierta, dirigida lo más
lejos posible y apartada de todo lo que hay. Lo que hay son los objetos finitos que no
satisfacen esta actitud intelectual. Pero el escéptico abre su mirada al vacío de todo
objeto particular porque el objeto particular defrauda la infinitud. Hegel declara que lo
particular es falso; la noción de todo -la verdad es el todo- señala el intento de llegar al
absoluto"[153]. Esta actitud escéptica es propia del hombre y señala el tamaño de las
aspiraciones humanas que intento poner de manifiesto.
En el fondo, por querer dar el gran salto definitivo y total, el escéptico renuncia a
dar los trabajosos pasos que requiere el uso de la propia cabeza. Abandona el intento de
acercarse a la realidad en eso que Popper denominó búsqueda sin término. Una
ambición desmedida por un conocer que se quiere ya, sin esfuerzo, conduce a la
frustración cognoscitiva, a la renuncia desencantada. "La actitud en la que el puro
escepticismo se pretende poner es la de una generalización sin excepciones, matices ni
reservas. Es, a la vez, absolutista y cómoda, porque cree dispensarse de las molestias de
ir buscando la verdad -la claridad de la realidad- en medio de la confusión de los
errores que tal búsqueda entraña. De un sólo golpe, el escéptico puro se instalaría
olímpicamente en su presunta subjetividad exenta. Pero ello es inviable y, si se permite
hablar así, viene a quedarse en un gesto de malhumor, tan vehemente como
transitorio"[154]. Dijo la zorra: están verdes las uvas, y abandonó el intento. Porque
"fácilmente la «skepsis», frente a lo no demostrado, se convierte en la prohibición de
pensar"[155]. El escéptico es otro fracasado del pensar, con jubilación anticipada y
autoprohibición expresa de acercarse al lugar de trabajo.
Escépticos, no obstante, hemos de ser. Es decir, no hay que perder de vista el
horizonte, ni pararse en el camino. Malo es apoltronarse en el primer constructo mental
que resulte del personal agrado. Nunca hay que acabar por creerse las ideas, menos aún
las propias, aunque parezcan buenas. Siempre hay que volver a preguntar, ir más allá.
Pero no se debe ser escéptico en el sentido de renunciar a caminar, por muy fatigoso o
lento que parezca. Las preguntas capaces de hallar respuestas siempre deben ser
hechas.
Tenemos un problema fundamental por resolver. El progreso en el conocimiento
y, como consecuencia, la finalidad más básica de toda educación humana, no se
consigue formando eruditos con mucha información mal digerida, muy capaces de
citas. Tampoco se alcanza produciendo buenos ordenadores humanos, bien ceñidos a
un método formal de trabajo. Expertos en él, pero también atrapados en él. En la
educación es vital que aprendamos a cultivar y transmitir "una disciplina del preguntar
y el investigar que garantice la verdad"[156]. Mantener la cabeza alta, para no perder de
vista el horizonte. Conseguir que los árboles no oculten el bosque. Practicar el
inteligente deporte de interesarse: abandonar el pasivo no me interesa, ejercitar el
activo me intereso.
Discurso de los métodos
Paso a otro tema, relacionado con el saber que no se sabe. Para exponerlo acudiré
a un famoso personaje. Según relatan las crónicas de la especie homo sapiens sapiens,
un espécimen del animal humano, llamado Descartes, realizó algo muy peculiar. El día
10 de noviembre de 1619, pasaba el invierno en una pequeña aldea alemana cerca de
Ulm. Ese año andaba enzarzado en una guerra tribal de imposible justificación; en aquel
lugar buscó refugio durante la forzosa tregua de la estación fría. Allí gestó un proceso
mental -él contaba que comenzó en forma de sueño- que condensaría en un famoso
libro: El Discurso del método[157]. La interpretación de su comportamiento y de su texto
ha dado mucho que hablar a innumerables especialistas. He de sumarme a la multitud,
aunque no sea perito diplomado.
Atendiendo al parecer de los estudiosos, podemos suponer, con algún
fundamento, que tenía en su cabeza los siguientes elementos: 1) Una educación
filosófica impartida según los esquemas formales de la escolástica tardía. Que no se
sabía muy bien de qué cosas reales hablaba, al perderse en distingos bizantinos de
escuela las más de las veces. 2) Las ideas escépticas dominantes que abundaban por
entonces, muy divulgadas y popularizadas por Montaigne, personaje que grabó en las
vigas de su estudio: "Lo único cierto es que todo es incierto". Era una época de crisis e
inseguridades mentales. 3) La confianza que le proporcionaban las matemáticas, en las
que resultó ser un genio de primer orden.
Con estos elementos, el proceso podría ser el siguiente: por si Descartes no se
había dado cuenta de la vaciedad de las enseñanzas pretendidamente filosóficas que
había recibido, tenía al escepticismo para sacarle de confianzas ilusorias, al destrozar
cualquier seguridad que aquel vacío y decrépito edificio pudiera dar. No voy a entrar
aquí a analizar como aquellos primeros y geniales pasos de Aristóteles y Tomás de
Aquino habían conducido paulatinamente a una rígida formalización del pensamiento
clásico. Que, además, se presentaba a sí misma como una especie de biblia filosófica, a
la que se debía prestar asentimiento reverencial. Tampoco voy a ver cómo esa dureza y
falta de flexibilidad conceptual había terminado por encerrar a la filosofía en sí misma;
produciendo en muchos, como rechazo, un fuerte escepticismo. La historia es harto
conocida y está más que vista. Por los motivos que sean, que no vienen al caso, aquí
sólo interesa lo que Descartes hizo. Advirtió que, en medio de la ruina conceptual que
habitaba, el único apoyo firme era una ciencia y un método: el de las matemáticas. Sería
el salvavidas al que aferrarse en medio de la confusión.
No es mal salvavidas, aunque no soporta tanto peso como quería Descartes. La
descomunal carga produjo descompensaciones, como la excesiva confianza en la razón,
de la que los mismos matemáticos nos han desengañado. Trajo algún invento nefasto,
como la separación entre res extensa y res cogitans, que nos hemos creído, hasta el
punto de organizar nuestros conocimientos y enseñanzas según ella. Se enredó en
temas que ahora nos hacen sonreír: como imaginar la conexión de esas dos sustancias
en la glándula pineal. También es herencia conceptual suya la problemática -por mal
planteada- discusión actual sobre la naturaleza del pegamento que une mente y cerebro.
A pesar de todos sus errores, me parece un Quijote al revés. Se enfrentó a unos molinos
de viento que todos creían gigantes temibles: él fue muy cuerdo. No nos ha librado de
los monstruos, como pretendió, por que no existían. Pero nos ha ayudado a ver que los
molinos de viento eran tan sólo obra humana, y hay que trabajarlos. Como llevamos
siglos de disertaciones enfrentadas sobre lo que hizo Descartes, habré de ir despacio si
quiero explicarme.
Descartes se declara insatisfecho con todas las ideas que ha recibido, pero no
decide ser escéptico, no renuncia a pensar. En su lugar, opta por examinar las ideas
desde el inicio. Es una insatisfacción que no sólo atañe a la información que se adquiere
y a su semántica, como sucedía al preguntar. Afecta a cómo el sistema de tratamiento de
información la elabora y presenta. Con esto es la misma forma de pensar la que se
declara inadecuada. Lo que se busca no es adquirir más información, sino que se indaga
sobre el método mismo por el que el sistema de tratamiento de información la organiza
y trata. En analogía informática, Descartes duda de la bondad del software mental que
ha recibido. Como consecuencia, decide escribir el programa completo desde el
principio, línea a línea. Es un programador empeñado en desarrollar un buen sistema
operativo para la mente humana, libre de confusiones y fallos. No se puede negar que
su actitud es bizarra, con todo el atractivo de las rebeldías más radicales.
Cayó en la cuenta de que no podía suspender su actividad vital mínima, porque
muerto no se piensa. Por ello decidió unas reglas elementales para sobrevivir mientras
rescribía su software mental, de manera que el cerebro no se quedase sin fuente de
alimentación. Hecho lo cual, se empeñó en prescindir de todas sus ideas. "El núcleo de
la maniobra cartesiana reside en la consideración de la objetividad desde el punto de
vista de ponerla o quitarla (...). Al pensar lo que sea, considero que estoy pensando y
prescindo qué sea lo que estoy pensando. Esta separación es la fisura abierta por la
duda universal. Ahora bien, si hago eso -dudar-, lo que descubro es la capacidad de
quitar el objeto, no de pensarlo"[158]. De esa forma escribió una declaración de libertad
respecto del objeto mental; un notable alegato independentista respecto de las
pretensiones de dominio de las ideas que había recibido. Procuró prescindir de todo su
edificio conceptual, derribándolo con la piqueta de la duda -aunque, a su vez, es
dudoso que consiguiera su propósito- y emprendió la tarea de elaborar una casa mental
nueva. Buscaba ideas que le estuvieran sometidas, que fueran suyas y dominara
plenamente, sin deberles veneración alguna.
Todo el acontecimiento resulta más que prodigioso; es muy revelador sobre las
posibilidades de la inteligencia humana. La capacidad reflexiva, bien entrenada, da para
mucho. En la Inteligencia Artificial habría que dar un vuelco total para construir una
máquina cognitiva capaz de hacer algo semejante. Habría de imitar a Descartes, y no es
nada fácil. Imagínese un ordenador decidiendo los elementos mínimos de los que no
puede prescindir para recibir corriente eléctrica. Que luego dejase su memoria de datos
y la de programas en suspenso. Para, más tarde, embarcarse en una revisión exhaustiva,
línea a línea, de todo el sistema operativo y de todos los programas. Que, habiendo
prescindido de ellos, buscase un criterio de valoración para evaluar cada línea de
programación. Así, paso a paso, hasta culminar una revolución copernicana en la
programación de todos los ordenadores. Es más, que consiguiera tener a muchos
ordenadores, confusos y aturdidos, discutiendo durante siglos para averiguar lo que
había pasado. No es pequeña la hazaña; veamos a dónde nos puede llevar.
El método con el que un sistema de tratamiento de información trabaja, consiste
en hacer formalizaciones, estructuras o modelos de computación y simbólicos parecidos
a los que se dan en la realidad. Si el orden interno del modelo corresponde al real,
entonces el sistema es eficaz para moverse en un entorno real. También es posible dotar
a los ordenadores de capacidad de aprendizaje. Algunos lenguajes de programación,
como el LISP, permiten que la máquina se reprograme en parte. De manera semejante,
un animal superior, debe hacer mapas internos semejantes a la distribución real del
terreno, más un buen modelo de sí mismo, junto a las distintas acciones con sus
diferentes resultados. A lo que hay que añadir una sucesión temporal con intervalos
semejantes a los reales, todo ello dentro de un esquema causal lo más ajustado posible
al real. Conseguido esto de manera conveniente puede, como consecuencia, tener un
comportamiento eficaz, asegurando de este modo su supervivencia y la de su especie.
La evolución -mejor: el proceso evolutivo- fomenta los sistemas animales con buenos
procedimientos para tratar la información sensorial.
En tanto que animal -cosa que nunca deja de ser-, el hombre hace exactamente lo
mismo; le va la vida en ello. Si no fuese así no podríamos estudiar la especie humana, ni
yo escribir este libro; serían marcianos los que estarían excavando nuestros restos
fósiles. Sin embargo no parece que el hombre haya sabido quedarse tranquilo
conformándose con ser un animal feliz y pacífico en una bucólica arcadia, por lo demás
inexistente (Darwin dixit, al mostrar que en la naturaleza hay lucha, competición y
supervivencia de los más aptos, no un feliz sestear satisfecho). Desde que el homo
sapiens sapiens camina erguido sobre la tierra o, más exactamente, desde que tenemos
constancia documental, parece como si se hubiera metido en todo tipo de aventuras
mentales explorando muy variadas formas de pensar. La historia del pensamiento
humano aparece tan abigarrada que produce confusión. Desconocemos las formas de
pensar de muchos grupos humanos; las que han llegado hasta nosotros -vivas o en
documentos- sorprenden por su variedad. Es una maraña, a menudo espesa, en la que
resulta difícil abrirse paso para encontrar un poco de luz.
La mayor parte de las veces ese caminar ha resultado sumamente errático, como
a ciegas, en una continua sucesión de trompadas. La espontánea selección natural ha
dejado un poso multiforme de constructos mentales diversos, más o menos eficaces: los
llamamos culturas. En todas ellas encontramos un modelo, todo lo caótico y disperso
que se quiera pero modelo al fin, del mundo y del hombre. Junto con lo que se
consideran las relaciones más convenientes entre ambos, y de los hombres entre sí.
Algunas no consiguieron un buen modelo de esos elementos; han desaparecido por
consunción interna, por ineficacia del modelo. En las culturas supervivientes, y también
en las desaparecidas, se contiene un tesoro de elementos válidos, de representaciones
oportunas de lo mejor del hombre, del mundo y de sus relaciones. También hay en
todas, incluidas las existentes, mucha paja inútil.
Tarea difícil es discernir lo que hay de oro puro dentro de una determinada
cultura, separando la ganga del lastre inútil o perjudicial. No es inteligente, en absoluto,
arramblar con todo desde una actitud de olímpico desprecio por la cultura arraigada en
los pueblos. Las más de las veces se hace sin saber a ciencia cierta si lo que se desprecia
es paja o grano. Con excesiva frecuencia se tira justamente lo más valioso, por ser más
pesado o requerir más esfuerzo. También es poco inteligente cultivar un papanatismo,
políticamente correcto, de veneración incondicional por toda cultura. Son obra humana,
y ninguna persona debe sometérseles. Las culturas son, el nombre lo indica, cultivos
humanos; hay que trabajarlas y mejorarlas.
El camino podía haber seguido así, un tanto errático y dando tumbos,
consiguiendo aciertos por medio de artes de éxito inseguro. Pero se ha producido la
gran revolución que nos ha introducido en la producción industrial de ideas y métodos
mentales. Antes de la Edad Moderna se había recorrido un gran trecho, con el
desarrollo de la lógica, las matemáticas, técnica de la definición, métodos analógicos de
pensamiento, clasificaciones, elaboración afinada de conceptos, análisis de la
demostración, etc.. Lo que los medievales denominaban «segundas intenciones», eran
objetos de intensa producción artesanal. Algunos artífices destacan como verdaderos
genios. La teoría clásica del conocimiento, sin embargo, no desarrolló suficientemente
este punto: sintaxis, semántica y pragmática -del lenguaje y de las ideas- permanecían
entremezcladas. El vuelco conceptual completo se realiza en la Edad Moderna. "Tal vez
lo más importante de la metodología moderna es el haberse dado cuenta de que,
operando con el lenguaje en su plano sintáctico (y prescindiendo, por tanto, de los otros
dos), se facilita enormemente el trabajo intelectual"[159]. Tengo para mí que es uno de los
mejores legados de esa época que ahora tantos declaran difunta. Me acuso de no ser
postmoderno, quiero saber; no me bastan las papillas de ideas ligth del pensiero
debole.
No voy a decir que la modernidad acertó en todo, bastante he criticado hasta
ahora algunas deficiencias suyas. Comete errores que recuerdan a un niño con juguete
nuevo. O, mejor aún, al adolescente que estrena moto y se emborracha de velocidad.
Deslumbrados por el nuevo descubrimiento, no eran muy conscientes de lo que
ignoraban. Contaron con las quejas, protestas y avisos de la gente "mayor" que, sin
entender mucho tampoco, avisaban del peligro de aquel artilugio diabólico. El primero
que tomó con demasiada velocidad las curvas fue Descartes. Le han seguido bastantes
propietarios de muy buenas cabezas, filósofos renombrados. Gracias a ellos conocemos
unos cuantos huertos mentales en los que es posible perderse. Quizá, con la ayuda de la
Inteligencia Artificial y de las ciencias cognitivas, podamos aprender a conducir mejor
la cabeza, sin que nos cieguen los éxitos. A pesar de todo, los errores nada quitan al
valor de su aportación fundamental.
¿Cuál es el gran y buen hallazgo cartesiano?: La independencia, la creatividad y
el dominio del hombre respecto de las ideas, de los objetos mentales. Este punto tiene
una importancia que difícilmente puede ser exagerada. Consigue una definitiva derrota
de las pretensiones platonizantes, bajando el nous uranós a la tierra de una vez por
todas. Aristóteles lo había intentado, pero sólo lo consiguió en parte. La modernidad
obliga al cielo de las ideas a un violento aterrizaje forzoso, del que ella misma ha sido
víctima. Pero la esencia de la cuestión está en haber insistido en que las formas
pensadas son modelos elaborados trabajosamente por el hombre; no están en ningún
sitio sino dentro de él.
Antes del intento moderno, se dio otra tentativa de independencia en la baja
Edad Media, que está en la base de Descartes, y que se saldó con un fracaso. Me refiero
al nominalismo. "El nominalismo del siglo XIV surgió como un refugio frente a la
sospecha de que la filosofía aristotélica contiene la pretensión de conocimiento
exhaustivo de lo real"[160]. De forma errónea y precipitada se atrincheraron en
formalismos, y pasaron el problema a la voluntad. Fue una salida en falso de la que
hemos heredado una noción de voluntad problematizada y un concepto insignificante
de libertad. Pero no interesan sus fallos, aquí considero únicamente lo que el
nominalismo tiene de toma de conciencia sobre la palabras y términos como constructos
humanos. Sucedió tras la grave discusión medieval sobre los universales y el
establecimiento de una solución de corte aristotélico, que los pone en relación con la
realidad intrínsecamente.
Así las cosas, vino el nominalismo diciendo que los universales sólo son
nombres, simples palabras, que por sí mismas no dicen nada. Son, por tanto, fabricables
y manejables sin que el universo se tambalee. Que tengan o no semántica es ajeno a ellas
mismas: los nombres van por un lado y la realidad empírica por otro. Siendo esto cierto,
sin embargo en la época el resultado fue desastroso. Produjo una auténtica borrachera
de palabras por medio de la dialéctica, puesta de moda en toda Europa a través de las
nuevas cátedras de nominales. Es una embriaguez de la que todavía no nos hemos
librado del todo. Jugar con las palabras, pensando que están vacías cuando nuestro
sistema de información, queramos o no, les atribuye una semántica, puede ser un juego
mortal. Porque nuestro sistema de tratamiento de información es el que dirige nuestro
cuerpo y nuestra vida. Más que someter a las palabras, acaba uno dominado por ellas.
La dialéctica es un juego que hay que saber jugar muy bien. Produce lesiones mentales
casi irreversibles.
De todas formas, jugar inconscientemente ese juego algún bien produjo. Las
ciencias experimentales, cuyos fundamentos de observación y técnicas de trabajo se
habían puesto en la Edad Media, se vieron ayudadas en su parto definitivo. Jugar con
las palabras hizo que se perdiera el miedo a palabras nuevas y nuevos edificios
conceptuales. Surgieron teorías nuevas. Construidas, en primer lugar, mentalmente,
antes que con los mismos datos experimentales, que eran conocidos desde siempre y
estaban al alcance de todos. Además, la insistencia nominalista en mirar la experiencia
particular, dejando las palabras en suspenso y manejándolas con toda libertad, supuso
una mayor atención a lo empírico. Este segundo elemento sería definitivo para la
consolidación de las ciencias.
Descartes terminó de andar el camino que iniciaron los nominalistas. Buscaba el
método para pensar. Ahora sabemos que no hay uno, sino muchos. No hemos de
quedarnos en el discurso del método, sino que habremos de afanarnos en discurrir
muchos métodos mentales, seleccionando los más aptos. No se puede arriesgar el
conocimiento a la carta de un sólo método. Mientras más y mejores herramientas
conceptuales tengamos en nuestro taller de ideas, más facetas de la realidad podremos
trabajar con ellas. Hemos de evitar confianzas infantiles en la razón, tentaciones
formalistas, estrecheces reduccionistas y, finalmente, vacunarnos contra virus
optimistas semánticos. Con estas normas básicas de seguridad laboral, podemos
comenzar el trabajo.
La aspiración de Descartes, empeñado en elaborar y trabajar sólo con ideas claras
y distintas, resulta ser fundamental. De la distinción y claridad que alcancemos en la
elaboración de los objetos mentales dependerá absolutamente la posible claridad de su
significado y la distinción que alcancen en el ámbito semántico. Sin un software
conceptual adecuado y preciso, la información se convierte en un ruido inmanejable e
indistinguible. Si bien Descartes no tiene razón al pretender que la semántica vendría
automáticamente de esa claridad y distinción, sin embargo no hay que disminuir la
importancia trascendental de su descubrimiento: sin claridad mental sólo hay
galimatías dentro y fuera del pensamiento. Por ello no acierta quien, por criticar sus
errores, echa en saco roto su magnífica intuición; haría un flaco favor al pensamiento.
Por lo demás, el error de Descartes es bien comprensible: magnífico matemático como
era, se dejó llevar, ignorando que a los matemáticos sólo les debe importar pensar con
precisión. Ellos son los únicos que no saben de qué están hablando y, además, no les
importa; sólo buscan la claridad conceptual. Este "no les importa" resulta cada vez más
del mayor interés. Son los trabajadores del software mental, y cada vez entendemos más
la importancia del software.
Gracias a Descartes somos más conscientes de aspectos esenciales de la forma
humana de ser inteligentes. El acto interior, las operaciones por las que elaboramos la
información y fabricamos ideas semejantes a la realidad, pasa a ser dominio del actuar
de la persona. Por otra parte, el hombre no puede fabricar otras ideas que las que le
permita hacer su sistema de tratamiento de información, o las que consiga por medio de
la ayuda de otros, como las máquinas cognitivas. Esto es esencial no olvidarlo: la
fabricación de software mental es fatigosa y limitada. Es tarea del hombre, que debe
aprender a dominar con pericia. Hay que proceder paso a paso, con paciencia. El
sistema de tratamiento de información no es capaz, sólo o con la ayuda de otros, de
fabricar ideas que, de una tacada, lo expliquen todo. "El pensamiento no puede ser
terminativo; que obtenga -objetos- no quiere decir que haga objetos últimos. Por eso,
insisto, acabar las operaciones equivale a quedar abierto el pensar"[161]. Así puede
elaborar muchas ideas y formas de pensar, más o menos eficaces en distintos ámbitos.
Además, interesa al hombre únicamente, y no a otros sistemas de tratamiento de
información, la correspondencia o semejanza que hay entre ese constructo mental con el
orden de la realidad. Es decir, parece interesarse mucho en averiguar hasta qué punto y
en qué ámbitos es válido el modelo mental elaborado. En este aspecto es donde parece
darse infinitud: en la constante búsqueda de orden, de formalización. El animal
humano rastrea todo indicio de forma, simplemente porque es orden y porque es real,
sin otro interés.
Lo anterior pone de manifiesto una manera de entender la expresión clásica que
considera al entendimiento humano como forma formarum (forma de las formas).
Como el lugar donde el orden y las formalizaciones son consideradas por su sólo y
estricto carácter de formas, de orden, de estructuras. Bajo un nuevo aspecto es posible
afirmar que el intelecto entiende considerando en su interior la forma y el orden que él
mismo ha elaborado, no mirando hacia afuera. Aunque ahora, como se trata de
entender el orden formal, cabe decir con los clásicos que nuestra inteligencia entiende
formando y forma entendiendo[162].
En este proceso no hay intuición alguna, sólo se conoce lo que en la forma
elaborada interiormente hay semejante del orden de la realidad. "Pensar es, sin
excepción alguna, actividad, puesto que formando se entiende y entendiendo se forma;
un conocimiento intuitivo que verse sobre lo intuido sin tener que formarlo para
intuirlo no es ningún conocimiento. A su vez, si todo acto es formante en cuanto que
intelige, e intelige en cuanto que es formante, ese suplemento por parte de una intuición
es inadmisible por extrínseco"[163]. Ser inteligente supone el empeño por trabajar las
ideas para hacerlas más semejantes al orden de la realidad. Sin declararse satisfecho
nunca, porque, la capacidad humana de percibir orden no se sacia. Por ello ningún
objeto mental resulta suficiente, ninguno es totalmente acertado, ninguno contiene todo
el orden de que se es capaz. Ser inteligente también es asombrarse del orden que se
encuentra por doquier en el universo. "Lo más incomprensible del mundo es que sea
comprensible"[164], decía Einstein. Convertir en comprensión ese asombro es la pasión
de los inteligentes que trabajan esforzadamente sus ideas.
Algunas filosofías del conocimiento, con demasiada precipitación, suponen la
semántica para las construcciones mentales. Insisten en que lo peculiar del signo es que
significa; o que se adecua a la cosa conocida; o que señala la realidad y está ligado
intencionalmente a ella. Pero si esto es así, nuestro conocimiento no sería muy distinto
del de los animales. Para ellos los signos significan, y siempre lo mismo, de manera que
no pueden manejar mundos simbólicos por sí mismos, con independencia de todo lo
demás, incluida su posible semántica. Lo interesante del intelecto humano es la
capacidad reflexiva, que hace posible la posesión, dominio y dirección del sistema de
tratamiento de información. Conviene insistir, dando la razón en lo que la tienen a
racionalismos e idealismos, en que lo peculiar del signo es que es manejable en sí
mismo con independencia de su posible semántica. Se pueden fabricar muchos de ellos
y de muy diferentes tipos, que se relacionan de muy diversas maneras y con los que se
edifican multitud de edificios conceptuales. Podemos ampliar el conocimiento por esa
capacidad de trabajar con mundos simbólicos, de cuyos elementos y sintaxis dependerá
la semántica que seremos capaces de alcanzar.
Este aspecto de las operaciones del pensamiento ha sido un tanto descuidado al
establecer y desarrollar la defensa del realismo cognoscitivo. Lo diré con palabras
ajenas, mucho más precisas: "La idea de una constitución activa de la objetividad es una
exigencia del realismo que se mantiene fiel no solamente al ser de lo conocido, sino
también al ser que lo conoce. «Yo constituyo lo conocido como objeto» significa «yo me
doy a mí mismo su presencia a mí». Si ello suena a idealismo es porque se olvidan estas
cosas: 1ª, que lo conocido no me puede dar esa presencia porque él no la tiene (su serpresente-a-mí no es nada en él); 2ª, que al darme yo la presencia de lo que de un modo
físico no tengo, no pongo la realidad de lo que así no poseo, sino tan sólo su objetividad,
que es cosa mía y no suya; 3ª, que el hecho mismo de poner esta objetividad es una
actividad objetivante y no objetivada (de esta última forma únicamente se da en la
reflexión)"[165]. Es decir, la objetividad de las ideas depende de mi subjetividad: esta es
una afirmación de hondo calado, sobre la que volveré en el último capítulo.
Debo repetir que el intelecto entiende formando y forma entendiendo, afirmación
que aquí puede interpretarse de la siguiente manera: según las ideas que se elaboren se
puede alcanzar semántica, y la semántica obtenida permite elaborar nuevas ideas, con
los que de nuevo se amplia la semántica; y así sucesivamente. Si ese trabajo se hace
bien, el proceso supone efectivamente una ganancia de conocimiento. Suponer los
objetos ligados por sí mismos a la semántica, con una fe realista ingenua y poco
meditada, no deja de ser un racionalismo más, por muy realista y metafísico que se
pretenda. Dicho con brevedad, y para poner una frase más o menos redonda: sólo
entiendo según lo que yo mismo elaboro con mi razón; sólo encuentro según lo que
yo mismo pongo para buscar.
Por tanto las palabras, antes que nada, son palabras y nada más: es el mismo
hombre quien tiene que pronunciarlas. Las ideas tampoco son, por sí mismas, nada más
que ideas, siendo también el hombre quien ha de concebirlas. No les está sujeto. No hay
que tratar con respeto platónico las ideas, los razonamientos o las demostraciones, hay
que trabajarlas. Términos, ideas y razonamientos, por otra parte, sirven al hombre en la
medida en que efectivamente sirven. En la medida en que con ellas se alcanza una
buena semántica, una adecuada semejanza con la realidad. Por sí mismas son
totalmente inútiles. Son el mejor instrumento que ha desarrollado el hombre, nada más
y nada menos. Tienen sus leyes propias, como todo instrumento, que no son otras que
las que se les ha dado al construirlas, pero no forman un mundo divino con el que haya
que entrar en contacto al modo platónico. Son reales sólo en tanto que instrumentos,
por ser obra humana, pero no por sí mismas. Debe el hombre aprender a dominarlas,
conocer sus leyes, explorar las ideas y fabricar las más aptas para conocer y luego
actuar.
Aunque sólo hablo de la producción de ideas y objetos mentales, sin embargo la
capacidad creativa humana llega a todas las operaciones del sistema de tratamiento de
información: sentidos, imaginación, memoria...[166]. Podemos escribir novelas, hacer
películas, mentir, imaginar historias, pintar cuadros, recrear el pasado, contar cuentos,
crear mundos virtuales... Un ejemplo significativo de la capacidad creativa humana se
encuentra en el arte moderno, que ha descubierto su autonomía respecto de los objetos
artísticos tradicionales y de las reglas técnicas de escuela para representar la realidad.
Ha hecho su declaración de independencia respecto de todo tipo de semánticas y reglas
formales establecidas, lanzándose por el camino de la creación y exploración de nuevas
posibilidades. Aunque también él, como casi todo en la modernidad, parece preso en un
frenesí explorador del juguete nuevo. Sin embargo, como aquí estudio sólo las
capacidades intelectivas, me referiré a ellas de forma exclusiva.
Tenemos la capacidad de no quedar encerrado en los edificios conceptuales
heredados. Podemos diseñar edificios nuevos y mejores. Pero hacer buenos proyectos
requiere tener en cuenta dos dimensiones distintas: una "hacia afuera" y otra "hacia
dentro". Una cosa es percibir que la semántica del objeto mental es limitada, o que su
semejanza con el orden real es escasa. De esta manera se busca acrecentar la semántica
de las ideas, o su correspondencia con el orden real. Otra cosa, sin embargo, es caer en
la cuenta de que las herramientas mentales son una construcción propia de la persona
que conoce. Modificables, por tanto, sin tener para nada en cuenta su contenido real. Se
entra así en el campo de la creación y manipulación de objetos mentales por sus
intrínsecas características formales, con independencia de su utilidad para modelizar la
realidad. Ambas dimensiones son distintas y conviene no confundirlas. Por un lado
podemos elaborar objetos formales cada ves más manejables, de estructura clara, bien
explorados y conocidos con sus diferentes posibilidades. Por otro está la búsqueda de
más semántica para las ideas, y la comprobación de cuales poseen un orden más
semejante al real. Las operaciones en que se basan son también diferentes; exigen
cuidados distintos para ser realizadas con éxito. En terminología informática: una cosa
es buscar más información, porque se conoce la limitación de la que hay disponible.
Otra, muy diferente, es desarrollar el software mental capaz de tratar esa información
para que sea significativa y aporte conocimiento, comprensión.
Lo diré con palabras técnicas ajenas, tomadas en préstamo: "El método racional
es la declaración de que el abstracto no es un conocimiento suficiente de la realidad.
Esta declaración es una operación mental que se conmensura con objetos, e
inconfundible con la generalización. Declarar que el abstracto no satura la capacidad de
pensar no es lo mismo que declarar que el abstracto no es un conocimiento suficiente de
la realidad"[167]. Es decir, las operaciones intelectivas son muchas, y aquí, por lo menos,
conviene distinguir entre operaciones de dos tipos distintos.
Para explicar lo que el anterior aviso importa acudiré a mi querencia, para
considerar un caso de la física. La construcción formal de Newton puede ser mejorada
desde dos puntos de vista: atendiendo a su sintaxis o a su semántica. Con referencia a la
primera lo que se dice es que no resulta suficientemente clara y distinta en su
formalización. Por ello se trabajó la sintaxis para hacerla más clara, precisa, sintética y
manejable. En este proceso muchas veces privan criterios estéticos de sencillez, armonía
y equilibrio del constructo mental. Mediante ese trabajo surgió la formulación de
Lagrange y, después, la potente y bella formulación de Hamilton. Esta última es uno los
mejores edificios mentales que se han hecho nunca, un clásico de la ciencia cuyo
conocimiento causa extraordinario placer.
Pues bien, en todo este proceso sólo se considera que "el abstracto no satura la
capacidad de pensar", por lo que se afina y reelabora conceptualmente para darle mayor
potencia y claridad. Si se compara el trabajo de Hamilton con el de Newton, es muy
fácil constatar hasta qué punto mejora un constructo teórico, y se amplía el
conocimiento, con sólo trabajarlo mentalmente, mediante el puro pensar laborioso sobre
sí mismo. Pueden no decirse cosas nuevas, pero se dicen mucho mejor y se comprenden
con más profundidad y claridad. La semántica experimental puede ser casi la misma
(en realidad no lo es porque aquí también se progresa) pero su comprensión es mucho
mayor, al poderse captar mejor su orden interno. La formulación de Hamilton tiene una
extraordinaria claridad y armonía, con gran potencia, dentro una estricta sencillez
conceptual. Resulta un magnífico modelo metodológico para aprender a trabajar con la
cabeza.
Por otro lado, atendiendo a su semántica, puede constatarse que el modelo de
Newton (incluso en su formulación hamiltoniana) no lo dice todo, ni siquiera en el
ámbito para el que pretende validez. O lo que dice, lo dice de manera muy incompleta.
O no es capaz de incluir otras observaciones empíricas que aportan semántica -muchas
veces generada gracias a la existencia del mismo constructo formal newtoniano-, que
resulta ininteligible porque no puede tratarla de forma conveniente. Desde este punto
de vista, lo que se tiene en cuenta es la segunda parte del aviso, a saber: "que el
abstracto no es un conocimiento suficiente de la realidad".
En el caso del formalismo newtoniano, los problemas fundamentales vinieron
por su incapacidad para integrar el electromagnetismo de Maxwell y los desarrollos de
la óptica. Durante un tiempo se intentó salvar el constructo newtoniano con la hipótesis
del éter. Con ello se dio un ejemplo paradigmático de lo que no debe hacerse. Aferrarse
a un objeto mental por el sólo hecho de manejarlo con comodidad puede llegar a ser
muy equivocado. Incluso, cuando se quiso comprobar esa hipótesis etérea, y el ahora
clásico experimento de Michelson y Morley[168] dio resultados contrarios, la inercia
conceptual llevó a interpretarlo de una manera que salvaba la querencia mental
acostumbrada. Lorentz obtuvo las fórmulas de la transformación relativista -aún lleva
su nombre-, pero continuó empeñado en defender el fantasmal éter. Releer actualmente
el artículo que Lorentz publicó en Leiden, en 1895[169], es un buen ejercicio para
comprobar hasta qué punto es posible forzar la experimentación para encajarla en un
marco conceptual inadecuado. En este caso la razón correspondió a Einstein. En vez de
intentar salvar lo insalvable, elaboró un marco conceptual inédito -la relatividad
especial- en el que la nueva semántica cupiese más cómodamente.
Llegados a este punto, la vieja polémica entre racionalismos y empirismos puede
verse desde una nueva perspectiva, que concede su parte de razón a ambos. Aunque la
quita a los dos en sus pretensiones de ser -cada una por separado- la única teoría válida
del pensar humano. El racionalismo prescinde de la semántica, o la deja a la intemperie,
como hace Kant al sumergirla en la imprecisa neblina del noúmeno. El empirismo, por
su parte, considera que los objetos pensados, al margen de "los hechos empíricos", no
tienen interés alguno. El empirismo es más grave como error. No se da cuenta de que
para conocer sólo contamos con las ideas que seamos capaces de elaborar. Además
desecha cantidades enormes de semántica: toda aquella que no encaja en su ingenua
idea de lo que es empírico.
La experiencia sensible, por si sola, no da para nada: también la poseen los
animales. La misma idea de lo que es empírico es una noción fabricada por el hombre.
El caso es que somos capaces de experimentar muchos más aspectos de la realidad
según hagamos máquinas que amplíen el campo de lo sensible, y diseñemos buen
software mental para tratarlo. Por ejemplo: nunca habríamos podido "experimentar"
sobre los bosones vectoriales intermedios, sin haber elaborado antes un modelo teórico
dentro del más puro estilo racionalista. Ni podríamos hablar de un Big-Bang, que nadie
presenció. Tampoco discutir sobre la información, pues de ella lo único medible es el
soporte físico. Las teorías físicas, de modo especial la mecánica cuántica, resultan
chocantes para la idea corriente de lo que es empírico. Las discusiones sobre qué
significa la mecánica cuántica realmente, cómo hay que interpretarla, llevan coleando
desde que comenzó. El software mental desarrollado en este siglo con la teoría de la
relatividad y la mecánica cuántica es desconcertante para los usuarios. Para los
profanos suena casi mágico: hacen películas muy entretenidas sobre viajes en el tiempo.
Obviamente la idea de lo que debemos considerar empírico, a su vez, es poco empírica.
Veamos un ejemplo histórico de las limitaciones que se autoimponen los
empiristas, se trata del conocido texto de Hume: "A mí me parece que los únicos objetos
de las ciencias abstractas o de la demostración son magnitudes y números, y que todos
los intentos de ampliar estas ciencias, las más perfectas de todas, más allá de esos
límites, son sólo fuegos de artificio y puro engaño (...) Examinemos, llevados por estos
principios, nuestras bibliotecas. ¡Qué estragos no tendríamos que hacer! Saquemos un
tomo cualquiera, por ejemplo sobre Dios o sobre metafísica. En seguida tendríamos que
preguntarnos: ¿Contiene algún razonamiento abstracto sobre magnitudes o sobre
números? No. Entonces: ¡al fuego con él!, porque un libro tal no puede contener sino
fuegos de artificio y engaño"[170]. Admitamos con Hume que no hay más forma rigurosa
de pensar que esa especie de cálculo numérico elemental que se atiene a los "hechos".
En ese caso, los primeros libros para el fuego serían los de Hume, porque no hablan de
números, de los que sabía poco. Asimismo habría que quemar la mayor parte de los
libros de ciencias, incluidas las matemáticas, porque el cálculo numérico es una parte
mínima de lo que contienen. Limitarse a un software mental tan paupérrimo como
propone Hume sólo es aceptable para una calculadora barata de bolsillo.
Un empirismo pobre de ideas corre el riesgo de dejar a un lado la mayor y mejor
parte de la realidad. Sin software mental rico y potente, llegamos a muy poco. Si es
malo, sólo produce confusiones sobre lo empírico. La neblina de ideas no permite
atrapar la realidad. A su vez, un racionalismo puro, amante de ideas afiladas como
navajas que se aprecian sólo por su finura, la deja a un lado totalmente. Por suerte, aún
los racionalistas más recalcitrantes no han conseguido dejar de ser empiristas, porque
no es posible. Los empiristas, por su parte, tampoco consiguen prescindir de la razón:
de hecho solían dar todo tipo de "razones" para convencernos de su empirismo. Por esa
incoherencia de ambas posturas, existen aquí y allá elementos muy válidos, una vez
despojados de su grandilocuencia y exclusivismo. El pensamiento científico, se declaren
los científicos partidarios de una u otra postura, ha tomado lo mejor de ambos mundos.
Conviene recordar siempre que hay que ser racionalista y empirista a la vez.
Tampoco se debe olvidar qué es lo que se está siendo en cada momento, para no caer en
lamentables confusiones. Esas dos operaciones distintas tienen objetivos diferentes, que
son como dimensiones elementales del pensar. Al adquirir información con un ansia
infinita, con una búsqueda inacabable de semántica, el hombre consigue interiorizar
cada vez más la realidad. Empeñado en apropiarse del universo entero de forma
paulatina, en hacerlo suyo al conocerlo. Por otra parte, al poder dominar el software
conceptual y la forma de tratar la información, lo que consigue es dominarla en la
misma medida que dispone del objeto mental con el que consigue atraparla. Son dos
aspectos muy importantes del pensar: poseer la realidad y dominarla; tener el mundo y
enseñorearlo.
El animal también interioriza el mundo exterior con su entendimiento sensible,
pues la información que trata es intencional y tiene semántica. Pero, al no disponer del
software con el que elabora esa información, en realidad es manejado por ella. No
puede alejarse de la realidad y dominarla porque no puede hacerlo con el objeto mental
con que la representa. La interiorización de la realidad pasa a formar parte de manera
indisoluble de su propia interioridad, sin que pueda separarse de ella. En el animal
humano no sucede así. Tiene capacidad para manipular el objeto conceptual, de alejarse
de él sin quedar sumergido en él, poniéndolo como frente a sí y a su disposición, como
una cosa más. Por ello su interioridad consigue independizarse de las ideas y
representaciones. Puede poseerlas, como se posee una cosa, y puede aprender a
utilizarlas. En la teoría clásica de la inteligencia se destacó suficientemente el primer
aspecto del pensar, la posesión, al insistir en la capacidad interiorizadora que tiene el
conocimiento humano por ser contemplativo. La modernidad ha subrayado más bien la
segunda dimensión del conocer humano: la invención y elaboración de buenas ideas.
Ambos aspectos deben cuidarse de forma armónica, sin desafinar.
Artesanía de las ideas
Modos de pensar hemos desarrollado muchos. Los hay dirigidos a la eficacia de
la acción, a la vida armónica con la naturaleza, a la paz interior, a la pasión estética, al
individualismo, al sentido último de la vida humana, a la comprensión de lo
desconocido mediante mitos, a la integración en el grupo, a magias y esoterismos...
Normalmente no pensamos en cómo pensamos. Nos dejamos llevar por las ideas, sin
más. Porque son las normales, o nos gustan, o son las de siempre, o las hemos
aprendido en el instituto, o nos tranquilizan... En definitiva, porque son las nuestras. La
etiqueta -la marca de renombre o de moda- influye mucho en las ideas que adquirimos:
moderna, científica, tolerante, democrática, progresista. Ya no se llevan explicaciones
míticas ni totalitariamente racionalistas; aunque están de moda las minimalistas y las
esotéricas.
El momento en que el hombre comenzó a plantearse el modo mismo de elaborar
objetos mentales para intentar hacerlos más precisos y dominables, se puede colocar en
la tradición filosófica griega. A partir de esa primera época, de una manera gradual,
comienza la reflexión sistemática sobre nuestra manera de pensar acerca de las cosas,
para conseguir formas de elaborar el pensamiento más precisas y más adecuadas a la
realidad. Otras culturas construyeron modelos de la realidad en ocasiones muy
acertados. Suelen tener una formulación mítica, o poética. Su semántica podía ser muy
grande, pero era imprecisa y extraordinariamente polisémica, y los modelos simbólicos
eran del todo inmanejables. Son los griegos los que inician el análisis del lenguaje para
establecer con precisión de qué están hablando, y con qué sentido. Intentan hacer signos
y esquemas conceptuales más semejantes y adecuados a la realidad que perciben.
En la filosofía griega se encuentran, planteados de una manera inicial, cantidad
de temas y problemas que han tenido constantes reediciones. Su trabajo fue notable; en
muchos campos siguen siendo ejemplo de planteamientos rigurosos y profundos. En
ellos se encuentran también los errores más comunes, que hemos repetido con variantes
epocales a lo largo de los siglos. Aquellos filósofos, y sus continuadores, hicieron
descubrimientos esenciales e iniciaron caminos que se han mostrado
extraordinariamente fructíferos. Desde entonces para acá, con diversa fortuna y
abundantes avatares, se han desarrollado muchas formas de pensar que buscan rigor
conceptual y metodológico. Clasificaciones de los estilos de pensar se pueden hacer
muchas[171]. Seguiré una sugerencia que tiene la ventaja de la sencillez, y me permite ser
breve[172]. En resumen, se han desarrollado tres formas básicas de software mental:
formales, analógicas y dialécticas.
Los primeros en explorar la manera de pensar racional, formal, o lógica, fueron
los griegos. En la India también hicieron una incursión en territorios lógicos, pero ha
sido menos influyente por avatares de la historia humana. En Europa, y su zona de
influencia cultural, durante siglos se ha considerado la racionalidad lógica y
demostrativa como la forma de pensar canónica. Era el standard de calidad intelectual
al que había que acercar el propio pensamiento para tomarlo en serio. A pesar de los
teoremas de limitación, todavía seguimos pensando que es la forma más rigurosa de
pensar. Toda proposición que venga avalada por una «demostración» puede quedarse
tranquila, nadie intentará arrebatarle el título de verdad establecida. Tanto prestigio,
unido a ingenuos optimismos semánticos, ha llevado a grandes confusiones, de las que
algunas ya he referido. En Occidente tendemos a considerar que ese modo de pensar es
el único inteligente, es de «sentido común»; pero no ha sucedido así en la mayor parte
de las culturas. Por ejemplo, la civilización milenaria china ha desarrollado formas de
pensar muy distintas a las occidentales, y no les ha ido mal. Hay mucho que aprender
de su «sentido común», muy poco racionalista.
Los lógicos y matemáticos suelen ser gente discreta, empeñada en batallas
conceptuales que requieren gran concentración. Su trabajo no transciende más allá de
algunos círculos restringidos. Ni siquiera hay Premio Nobel de Matemáticas; el
equivalente, la Medalla Field, pasa casi desconocida. Me parece un error que debemos
subsanar cuanto antes. Lógicos y matemáticos diseñan los modos de pensar más
rigurosos, exploran sus posibilidades y límites, suministran las herramientas que todas
las ciencias utilizan. Casi todo el pensamiento humano depende de su trabajo. No
consideramos maduro ningún conocimiento hasta que adopta los métodos que ellos
diseñan.
Habría que inventar, como en otras ciencias se ha hecho, modos de divulgar un
trabajo tan fundamental. Crear especialistas en difundir unas ciencias, las del
pensamiento humano, que parecen abstrusas por permanecer enclaustradas en su
lenguaje técnico. Hacer un esfuerzo por bajar de la torre de cristal abstracta para
encontrar modos de decir accesibles. Popularizar la preocupación por conocer el
software mental, que utilizamos sin saber nada de él. Todo ello aunque los puristas
clamen al cielo, por la imprecisión de los textos divulgativos. Ayudarían a bajar del
guindo formalista a los que todavía lo ocupan. Nos vendría bien a todos conocer mejor
las herramientas con las que trabajamos, para no emplearlas en aquello para lo que no
sirven, y sacarles partido en lo que son útiles. Diríamos menos tonterías solemnes y
bastantes más verdades. Sueño con el día que, igual que ahora aprendemos algo de
matemáticas, aprendamos unos rudimentos sobre las formas de pensar mejores que se
han diseñado.
Mientras llega ese día, he de referirme a algunas cuestiones que conviene saber
para no caer en confusiones. La primera he podido desarrollarla con cierta extensión:
los teoremas de limitación. Conocerlos ayuda a no llevarse a engaño sobre la relación
entre lógica y verdad. La demostración ha perdido el monopolio de la verdad. Tener en
cuenta -ser conscientes de- las limitaciones del instrumento que utilizamos para pensar
sirve para no precipitarse. Podemos sacar provecho de su potencia conceptual si
obtenemos el carné para conducirlos sin despeñarnos por sus límites.
También interesa conocer que en el mercado existen abundantes sistemas lógicos
disponibles. Hasta principios del siglo XX se pensaba que existía una sola lógica: lo que
estaba de acuerdo con ella era «lógico», lo demás era «irracional», no demostrable. La
inercia, y la falta de divulgación, hace que muchos sigamos pensando según ese
cómodo esquemita decimonónico. Nada más falso en la actualidad. La lógicamatemática sigue siendo la reina de la fiesta, porque incluye casi todo lo bueno que a lo
largo del tiempo han descubierto las investigaciones lógicas. En ella se encuentran los
silogismos de Aristóteles, la doctrina estoica de la consecuencia, la lógica modal, la
matemática... Todo eso, además, expresado en forma extraordinariamente precisa,
porque está axiomatizada y formalizada. Pero hay muchas más lógicas.
Ahora el problema es otro: ¿cuál es el mejor software mental de los disponibles?
"Este problema es totalmente nuevo. La antigua metodología no lo conoció, ni pudo
conocerlo, porque la lógica anterior a 1921 no tenía más que un sistema. Es en 1921
cuando J. Lukasiewicz y E. Post (simultánea pero independientemente el uno del otro)
establecieron los llamados sistemas polivalentes de la lógica, que se distinguen
notablemente de la «lógica clásica». Los sistemas de Lukasiewicz fueron axiomatizados
rigurosamente, demostrándose que estaban libres de contradicción y que eran
completos. Más tarde apareció la lógica intuicionista de Brouwer, que fue axiomatizada
en 1930 por Heyting. Hoy día tenemos docenas de sistemas diferentes, que se
distinguen gradualmente entre sí. Así, por ejemplo, el principio de tertium non datur
carece de valor, lo mismo en la lógica trivalente de Lukasiewicz que en el intuicionismo
de Heyting, mientras que es una ley de la lógica matemática «clásica» (...). El relativismo
de los sistemas lógico-matemáticos se ha convertido en problema metodológico. Para
toda demostración se precisa un sistema lógico; pero hay múltiples sistemas. ¿Cuál
escoger? La respuesta es la siguiente: aquel sistema que permita axiomatizar con mayor
facilidad y sin contradicción la disciplina en cuestión. Por una parte tenemos el
principio regulador de la totalidad, por otra, el de la no contradicción. En ella juegan
también un papel importante los motivos de orden estético; cuanto más sencillas y
«elegantes» resulten las demostraciones en el sistema y cuantos menos axiomas
requieran, tanto mejor"[173].
Los cambios de sistema, de chip mental, son difíciles, suelen exigir redes
neuronales humanas jóvenes y plásticas. En ocasiones no suponen graves rupturas,
como en el paso de la geometría euclidiana a la de Riemann, utilizada en la relatividad
general. La geometría clásica de Euclides, tenida por única y cultivada con reverencia
durante siglos, ha sido sustituida por otra no tan fácil de imaginar, que requiere
herramientas lógico-matemáticas nuevas. Son desconcertantes para los que se han
formado en el «sentido común» de la geometría clásica. En otros casos el cambio es más
drástico.
Por ejemplo, muchos físicos dedicados a la mecánica cuántica siguen empeñados
en pensarla con un sistema lógico divalente: si una cosa es así, no puede ser de otro
modo. Valen únicamente: "si", "no"; "verdadero" o "falso". Desconocen que el sistema
que axiomatiza la mecánica cuántica requiere una lógica trivalente: verdadero, posible,
falso. Es decir, en ella nos es válido el principio de tertium non datur. Einstein rechazó
la interpretación que impone la experimentación abierta por la mecánica cuántica
porque, aunque pensaba como un genio en lo suyo, sólo admitía lo divalente. Puede
que, como Einstein quería, Dios no juegue a los dados; pero la lógica sí que ha
aprendido recientemente a jugar. Algo semejante sucedió al intentar pensar la noción
aristotélica de potencia. Tanto Aristóteles como la mayor parte de sus seguidores se
esfuerzan en tratarla con una lógica divalente, del todo inadecuada. Las paradojas y
contradicciones surgen por doquier en ambos casos por no utilizar el instrumento
conceptual necesario.
Dejando a un lado la elaboración de modelos formales, pasemos a considerar la
segunda manera con la que se ha querido elaborar modos de pensar rigurosos: los
analógicos. En el fondo se basa en el anterior: una vez que se encuentran buenas formas
de resolver ciertos problemas, se aplican a problemas semejantes.
Con el pensamiento analógico se trata de aplicar, con diversas modificaciones,
unas soluciones mentales semejantes a distintos ámbitos que poseen un orden parecido.
Así un constructo formal -con sus elementos y su orden propios- puede servir en
campos muy diferentes. De esta forma una teoría sirve para matar conceptualmente
varios pájaros de un tiro. Con frecuencia las propiedades de terrenos cognoscitivos que
parecen muy lejanos tienen gran semejanza formal. Por tanto, el modo de hacer
modelos en uno sirve también para el otro, con los ajustes precisos. Esta metodología
analógica ha sido muy aplicada por diversas corrientes filosóficas. Hasta tiempos
recientes su utilización en las ciencias ha sido escasa. Sin embargo, con la llegada de las
máquinas lógicas es fácil la modelización en gran escala, es decir, el trabajo con
analogados. Las técnicas analógicas están creciendo mucho como consecuencia de los
éxitos de la Inteligencia Artificial.
También el desarrollo de la teoría de sistemas está sirviendo para hacer un uso
intensivo de la aplicación analógica de los constructos formales. A la vez se está
aprendiendo a dominar la técnica mental, para que sea eficaz y no lleve a encajar la
realidad empírica en corsés formales conocidos, pero forzados. Ha nacido, junto con la
teoría de sistemas y unida a ella, la teoría de modelos. Es una ciencia joven en plena
expansión, que suele cometer errores por las excesivas simplificaciones que debe hacer
al elaborar modelos, que aún no sabe evaluar. Como es normal, la propia metodología
se está haciendo al hacerse la ciencia. Es importante delimitar el alcance y límites de los
modelos, para saber lo que es posible entender con ellos y lo que no. No obstante su
juventud, es una ciencia cada vez más fundamental.
El éxito de las formas de pensar analógicas ha producido sus propias
obnubilaciones metodológicas. Existe algún ejemplo reciente. Con el análisis del sistema
de la lengua se puso de manifiesto la semejanza que hay entre los diversos sistemas
semióticos, por lo que los hallazgos en un campo se podían aplicar en otros. Los excesos
consistieron en negar la analogía, para trasladar el invento sin más, sin corrección
alguna. Encantados con el descubrimiento, muchos aplicaron el constructo sin ajustarlo
al nuevo ámbito y a sus peculiaridades. De esta manera se trasladaba una teoría a otros
campos al menor indicio de semejanza, imponiendo tal teoría como paradigma absoluto
de comprensión, como si la realidad hubiera de adecuarse a la teoría y no al revés. Esta
precipitación ha producido los excesos formales analógicos de algunos estructuralistas,
que trasladaban alegremente lo averiguado para el lenguaje a otros campos que
parecían semejantes. Andaban felizmente despreocupados por ajustar los modelos y la
semántica al nuevo ámbito. Han conseguido producir unas cuantas sandeces
solemnizadas, para añadir a la inmensa colección acumulada por la especie humana. Es
cómodo moverse en un modelo conocido, que se maneja con facilidad; pero no es lícito
declararlo por ello modelo único y universal, al que toda la realidad deba someterse. El
utillaje conceptual que sé manejar no por ser mío, o por resultarme familiar, es
adecuado a todo tipo de problemas.
Los excesos son comprensibles. Si bien se mira, todo el conocimiento es analógico
y por modelos de diversos tipos, dado que el conocimiento lo que hace es elaborar una
semejanza de la cosa conocida. Las cosas no se conocen directamente -no hay intuición,
insisto una vez más- sino que se conocen en y por la semejanza que se hace de ellas
mediante el sistema de tratamiento de información. Lo anterior quizá pueda decirse con
terminología filosófica clásica de la siguiente manera: el conocimiento es siempre según
una semejanza. Es decir: "para conocer se requiere que se de una semejanza de la cosa
conocida en el cognoscente"[174]. El entendimiento humano forma los conceptos y demás
herramientas mentales -sea por procedimientos abstractivos y raciocinio, o por
cualquier otra técnica- mediante la posesión y el dominio de su sistema de tratamiento
de información. Los hace intentando que sean semejanzas de la realidad, cosa que luego
conviene comprobar si se ha conseguido en efecto.
La teoría clásica del conocimiento concedió mucha importancia a los
procedimientos analógicos. Como consecuencia, estudió de manera pormenorizada la
analogía, sus variantes y fundamentos. No estaría de más, dada la importancia que de
nuevo ha adquirido, retomar y proseguir aquellos trabajos. Por otra parte, el lector
avezado seguramente se ha dado cuenta de que, con esta defensa de los métodos
analógicos, no hago más que intentar cubrirme las espaldas. Es fácil observar que en
este libro utilizo fundamentalmente la analogía, en el intento de relacionar ciencias y
ámbitos de conocimiento ahora bastante separados, cuando no enfrentados. Por ello lo
que escribo tiene el interés, y las limitaciones, que ese método conceptual conlleva. Es
más lo que sugiere, que lo que ofrece de rigor formal y semántico. Por eso mismo
también intento utilizar el lenguaje común, muy adecuado para la analogía por su
flexibilidad. No intento hacer una teoría exacta y completa de la inteligencia humana,
sino apuntar una serie de cuestiones que permitan plantear mejor el tema, a la luz de lo
que aporta la Inteligencia Artificial.
Vayamos a la tercera técnica para pensar con rigor: la dialéctica. Parte de una
idea sencilla: ninguna idea atrapa totalmente la realidad, porque es tan sólo una idea.
Por buena que sea, siempre es parcial y restringida. Permite conocer, pero también
limita el conocimiento. Como en el cuento de Borges, el único mapa completo de la
ciudad, hasta el último detalle, es la ciudad misma; pero no se pueden meter ciudades
en los mapas, ni en las cabezas. Dado que todas las ideas son limitadas, pongámoslas a
pelear; las que sobrevivan serán las más aptas. De la confrontación puede salir la luz.
Las técnicas dialécticas que utilizamos habitualmente son muy variadas: someter las
ideas a discusión; confrontarlas con otras; revisar pareceres distintos del propio;
considerar otros puntos de vista; acudir a quienes pueden aportar enfoques nuevos
para viejos problemas; suscitar tormentas de ideas...
El problema con esta metodología es aprender a utilizarla, de manera que no se
desboque. Ofrece la ventaja de no encerrase en ninguna construcción mental, por
considerarla definitiva. Pero tiene la desventaja de que, si no se usa bien, permite decir
cualquier cosa, sin que se sepa muy bien su sentido ni su referencia. La discusión por sí
misma no conduce a nada: puede ser un diálogo de sordos que ni siquiera saben de qué
están hablando. Declarar obsoletas todas las ideas de los que nos precedieron en el
estudio de una cuestión sólo es una moda. El sólo hecho de la novedad de una idea
puede no aportar nada. Utilizar la modernidad de una idea como único criterio de
verdad, no deja de ser un excelente sistema para producir necedades actualizadas. Los
métodos dialécticos no sirven para aportar contenidos semánticos, sólo son útiles -y no
es poca cosa- para generar ideas. Luego, por otros métodos, hay que escoger las que
sean mejores y permitan mayor comprensión.
Desde la antigüedad, la actitud dialéctica de someter las ideas a prueba ha
rendido abundantes frutos. La presentación de Sócrates que hace Platón en sus
Diálogos, muestra bien el rendimiento cognoscitivo de estirar las ideas para comprobar
lo que dan de sí. Los inventores medievales de la Universidad consideraban que el
debate -quaestio disputata- era la técnica docente por antonomasia. Apreciaban la
capacidad de oponer una ideas a sus contrarias para comprobar su validez, o para
afinar y entender mejor las buenas ideas. "El conocimiento de un opuesto no se quita
por el conocimiento del otro, sino que se facilita más"[175].
Negar la validez de las ideas es un juego que rinde dividendos intelectivos, si se
practica bien. En la Universidad napoleónica que padecemos, es un juego que se ejercita
poco y mal. La clase magistral ha sustituido al debate. Las ideas se toman demasiado en
serio, es normal atrincherarse en ellas: florecen corrientes y escuelas, grupúsculos que
cultivan su pobretería mental. Las ideas son expuestas de manera solemne, los alumnos
deben aprenderlas: en los exámenes se comprueba si es así. Mejor sería constatar
también qué capacidad adquieren los alumnos de someter las ideas a examen. No
fabricaríamos personalidades intelectualmente enanas, que se subordinan a las ideas;
sino señores inteligentes, que saben trabajarlas.
El mejor ejemplo de las ventajas e inconvenientes de la utilización del método
dialéctico lo ofrece Hegel, persona que contó con una cabeza excepcional. Gracias a él
somos más conscientes de la importancia de la evolución de las ideas y de las culturas.
Hay oscilaciones y oposiciones en el software mental que cada época utiliza. Hay viejos
aposentados en concepciones mentales tan fijas como sus conexiones neuronales; y hay
jóvenes que estrenan cerebro, y elaboran un nuevo software conceptual en un proceso
que, si es rápido, hace estallar la dialéctica generacional. Hay un constante ir y venir del
péndulo dialéctico en las modas conceptuales. Hay, en fin y para no cansar, un espíritu
objetivo -o mejor, objetivado- que camina a trompicones dialécticos, sobre el que
conviene pensar un poco para que no nos lleve con pasos de ciego a algún precipicio.
Vivimos una época en que la producción industrial de utillaje mental y de
información ha acelerado un proceso, que durante siglos fue lento. Debemos aprender a
conducirlo. Tenemos a nuestra disposición unos cuantos ejemplos históricos de
civilizaciones en las que la evolución de sus constructos simbólicos culturales llevó a
una relación desajustada con la naturaleza -la suya propia y la que les rodeaba-, por lo
que desaparecieron de la tierra. En nuestro caso, dado el poder que nos permiten los
conocimientos y técnicas actuales, el desastre puede ser global. Nos podemos convertir
en unos lemmings que caminan impertérritos hacia el abismo, arrastrando a todo ser
viviente en nuestra caída. La dialéctica en nuestras ideas, por consiguiente, es algo que
no se puede ignorar, so pena de que nos traiga y nos lleve como peleles, sin conducir el
proceso y sin saber a dónde lleva. Sacar lecciones de la historia de las ideas, y de las
personas que las defendieron, es buena cosa.
La Edad Moderna ha sido muy dialéctica, en el peor sentido. Lo primero que un
filósofo tenía la obligación de hacer era negar la validez de lo afirmado por los que le
precedieron. Kant, por ejemplo, deseaba hacer "una completa revolución"[176]. Entre los
modernos, son de buen gusto las revoluciones copernicanas. La moda sigue hasta
nosotros. No estaría mal, si no nos limitásemos a bajar de un burro para montarnos en
otro: dejar de creer en unas ideas, para idolatrar las nuevas, pero sin aprender a pensar
ni unas ni otras. Pero mejor que creer tanto en las ideas, es confiar algo más en las
personas. Los enamorados de la dialéctica pusieron su fe en el automatismo de un
Progreso anónimo y fantasmal, que tomaría el trabajo de perfeccionar las ideas. Pero,
según los últimos desengaños, el duende benigno llamado Progreso no existe.
Hegel, por su parte, quedó tan encandilado con su descubrimiento metodológico,
que acabó creyéndoselo. Todo era dialéctica, y nada más. La infección de optimismo
semántico que padeció fue muy grave. Inventó un grandioso montaje de tríadas -tesis,
antítesis, síntesis- que no eran herramientas conceptuales, sino cepos mentales. De
Hegel hemos heredado unas cuantas manías. Por ejemplo, creer que la mera oposición progresistas contra conservadores- sirve de algo, porque el automatismo dialéctico se
encarga del progreso mental. El esquemita es simple, muy útil para encasillar las ideas y las personas-, sin tomarse la molestia de pensarlas. Genial como era, convenció a
muchos: al pobre Marx le sorbió el seso con su creencia en el método. Aunque Marx,
muy en la ortodoxia dialéctica, se opuso a Hegel: sostuvo que el genio que movía los
hilos del proceso no era el Geist hegeliano, sino la materia. Ambos se equivocan: somos
las personas los responsables de tanto cambio. En el timón no hay ningún fantasma
abstracto: El Espíritu, La Materia, La Historia, El Progreso... Al timón estamos nosotros.
El proceso irá donde sepamos pilotarlo, porque nos esforcemos en llegar a ser buenos
artesanos de las ideas.
¿Cuánta realidad atrapa una idea?
Al tratar el argumento de la habitación china de Searle, me he referido a los
problemas que plantea valorar la posible semántica del software mental que utilizamos
para conocer. Dejaré a los especialistas la tarea de encontrar soluciones precisas. Los
problemas de verificación son arduos y de estudio reciente. Las epidemias de
optimismos semánticos que hemos padecido impidieron enfrentarlos antes. La ingenua
fe de carbonero en las ideas de racionalistas y realistas ha impedido darles la debida
importancia, que es muchísima. Quiero entrar tan sólo en algunos aspectos generales
que pueden aportar alguna comprensión al tema que me ocupa.
La capacidad de una idea para atrapar la realidad viene, en primer lugar, del
diseño mismo de la idea. De nuestros talleres mentales salen muchos modelos con
distintas formas y capacidades. El primer problema para establecer la semántica de los
artilugios mentales es que ella misma depende del constructo conceptual. Lo explicaré
en terminología informática: la información sólo es información cuando hay un sistema
de tratamiento de información con software apto para tratarla. Además, toda
información es tal -"dice" una cosa u otra- en la medida en que es tratada como tal.
Dependiendo de las herramientas existentes en el sistema de tratamiento de
información se puede obtener una significación u otra. Sin software, con el hardware
formalmente desnudo, las entradas del sistema no le dicen nada. Con un software
determinado, las entradas del sistema -los sensores- dicen lo que se puede entender
como información según las características del software.
Es decir, no existe el conocimiento libre de prejuicios. Las teorías que elaboramos
son el prejuicio básico ineludible para intentar comprender. Si no fabricamos una red y
desarrollamos un arte de pesca para lanzarla en el sitio adecuado, jamás atraparemos
nada de realidad en nuestras ideas. Los métodos que desarrollamos para pensar son
también nuestros prejuicios, dicen qué voy a intentar pescar y cómo. Los peces no dicen
cómo hay que fabricar las redes para pescarlos, igualmente la realidad no aporta teoría
alguna para comprenderla: simplemente está ahí. Hacer buenas teorías es trabajo
nuestro, igual que evaluarlas para conocer lo que se puede asir con ellas. Los prejuicios,
en el mal sentido de la palabra, son teorías tontas, estrechas o inútiles, que no atrapan la
realidad, sino que aprisionan al usuario en una maraña de ideas estúpidas. Pero no se
puede pensar ni comprender la realidad sin ideas previas. Esa es la primera tarea de la
inteligencia, sin ella la realidad queda mostrenca e inalcanzable para el conocimiento.
Los "datos" o "hechos" no son nada por sí mismos, por más aprecio que les
tengamos. Son "datos" y "hechos" en la medida en que el sistema posea software para
tratarlos. Que una corriente eléctrica tiene un voltaje de 220 voltios no es dato para un
caracol, por ejemplo, porque no tiene entradas para esos datos, ni tiene un software que
los haga significativos. Las ruinas hititas no eran más que piedras antiguas para los
lugareños, hasta que llegaron los arqueólogos con las ideas adecuadas para "ver" lo que
todos tenían delante de los ojos. Los "datos" y "hechos" de las ciencias sólo son tales en
el marco de una teoría. "En cualquier campo científico los datos son tomados en
consideración dentro del marco de una estructura: no hay datos en bruto" [177]. De nada
sirve que se de el "hecho" de la formación de un bosón vectorial intermedio, si no hay
un sensor que lo capte y no hay una teoría -un software- en la que esa captación sea
significativa. Los "datos" correspondientes a los rayos cósmicos, o los que se refieren a la
estructura estérea de la molécula de hemoglobina siempre han estado a nuestra
disposición. Pero no se han convertido en datos hasta que no nos hemos hecho capaces,
mediante las teorías correspondientes, de disponer de ellos como tales datos.
Igualmente, en el "dato" de un dolor de estómago pueden entenderse muchas cosas,
dependiendo del software médico que se posea: hace unos siglos significaba cosas muy
distintas de ahora. Mientras Einstein no escribió la ecuación E=mc2, nada se podía saber
de ello, ni era posible sacar partido de ese "hecho" en un reactor nuclear. En los datos
que hoy poseemos existe, con toda seguridad, mucha más información de la que ahora
mismo somos capaces de obtener, precisamente porque no es posible elaborar un
software teórico absoluto.
Captamos y entendemos sólo aquello para lo que nos hemos hecho capaces. La
realidad a la que podemos llegar es tan rica o tan pobre como lo sean nuestras ideas. Un
prejuicio, o un estrechamiento mental como el propuesto por Hume, consigue que no
entendamos casi nada, por cerrazón. De manera semejante, ceñirse a un sólo método como quiso Descartes- en vez de inventar muchos, conduce a una visión parcial y muy
limitada. Ver una sola faceta de una parte de la realidad es una pobre mirada.
El mejor ejemplo que conozco de cuidadosa integración entre sintaxis conceptual
y semántica lo ofrecen las ciencias. Me refiero a las ciencias tal como se hacen en la
realidad, no a las concepciones teóricas que intentan explicarlas. Por un lado la
cuidadosa elaboración de un software teórico preciso, en el que también se busca
claridad y elegancia. Por otro, la incesante comprobación de la pretendida bondad del
software, mejorándolo constantemente mediante continuas modificaciones. Sin
embargo, los científicos avanzan en ese proceso utilizando técnicas artesanales, poco o
mal pensadas. Los procedimientos son de ensayo-error, sin estudiar los métodos para
elaborar mejores teorías dotadas de más rica semántica. Tampoco es costumbre valorar
la capacidad de las herramientas conceptuales que se utilizan.
El pensamiento clásico dio muestras de preocuparse por analizar el software
mental que utilizaba cada ciencia. Las clasificó por su objeto material (lo que estudian),
formal quod (bajo qué aspecto o punto de vista) y formal quo (con qué herramientas
conceptuales). Es un esquema simple, general y un tanto tosco: sirve para comenzar y
poco más. Las distinciones que establece son demasiado rígidas: encasilla los
conocimientos en exceso y los vuelve impermeables entre sí. Además permite conocer
muy poco sobre las posibilidades de las ideas de forma pormenorizada, y peca de
optimismo semántico.
Sólo conozco un caso en el que se hayan analizado a fondo el software mental
utilizado por una teoría. Lo hizo Kant para la física de Newton. Kant pretendía hacer
una teoría general del conocimiento, pero, como creyó que la física de Newton aportaba
el modelo único y definitivo sobre el conocimiento humano, se limitó a analizarla. No
consiguió hacer una buena teoría de la inteligencia; en su lugar realizó un magnífico
análisis del utillaje mental que utilizaba la física clásica. Descubrió que el espacio y
tiempo absolutos eran elementos puestos por el modelo. Con toda razón, como ha
permitido saber la teoría de la relatividad de Einstein. Sistematizó las categorías
mentales que utilizaba aquella teoría. Sostuvo, con acierto, que sin un buen software
mental la realidad resulta ruido -la llamó noúmeno- incomprensible. Quiso hacer "un
tratado sobre el método, no un sistema sobre la ciencia misma"[178], y lo consiguió de
manera notable. Lástima que aquel magnífico trabajo estuviera trufado de palabras
trascendentales y enfermo de optimismo semántico. Esa mala parafernalia filosófica
impidió valorar en lo que se merece un análisis que todavía es modélico. Deberíamos
establecer secciones kantianas en todos los departamentos de la Universidad, para
evaluar el software mental que en cada caso se utiliza. Este es otro sueño que acaricio.
Sin criterios para elaborar buenas ideas, la bondad del funcionamiento de
nuestro sistema de tratamiento de información sólo se podrá comprobar por pura
selección, como sucede en los animales. Para un animal no hay nada empírico, porque
no tiene teoría alguna: su sistema de tratamiento de información sólo tiene la eficacia,
por ensayo-error, para ajustar la semántica. El que no es eficaz, simplemente deja de
existir. La abeja que en su danza circular no emite un signo con significado para las
demás, o con un significado falso, nada hace por la colmena. Si le hacen caso, peor aún,
porque las conduce a la muerte por hambre. Su sistema nervioso puede tratar la
información sobre la dirección del sol como mejor guste, pero si no tiene que ver con la
orientación real del sol, nunca llegará de vuelta a la colmena. Si todas las abejas de una
colmena tienen ese defecto en su sistema de tratamiento de información, la colmena se
despuebla y la reina muere sola en ella. Para un animal el criterio empírico parece ser
solamente eficacia.
Este criterio, en nuestro caso, no es despreciable: si se construye una teoría que
predice determinados efectos, sólo hay que acudir a comprobar esos efectos para
verificarla. Ahora bien, el problema consiste en que esos efectos sólo se consiguen
haciendo lo que la teoría dice y se comprueban con los métodos que la misma teoría
provee; por último, se interpretan según la misma teoría permite. El problema forma
con facilidad un círculo vicioso. Tómese, por ejemplo, cualquier objeto mental de los
que se han fabricado con tanta abundancia desde que construirlos se convirtió en
deporte popular en la edad moderna. Puede ser empírico, idealista o de cualquier tipo.
Como es lo único que se tiene para buscar semántica y para decidir si efectivamente es
tal semántica, resulta fácil que se organice un feed back: sólo vemos lo que el artilugio
conceptual permite ver. Pero lo que el objeto mental permite ver refuerza la bondad del
constructo conceptual. Consecuencia: se tiende a buscar sólo la semántica que el objeto
permite y que, a su vez, lo refuerza. Este mecanismo permite entender cómo tantas
personas inteligentes pueden quedar atrapadas en unos pobres esquemas ideológicos.
Limitarse a unas cuantas ideas realimenta la pobreza mental del que se sujeta a ellas.
Para los que creen en La Explicación, todo contribuye a fundamentarla, porque todo se
mira con ese canuto: no existe nada más.
Para evitar esta circularidad, las ideas que pretendan semántica deben tener unas
cuantas propiedades fundamentales para que consigan aumentar el conocimiento y no
sólo hacer juegos de palabras. La primera característica deseable es que sean claras,
precisas y manejables en la mayor medida posible. En este sentido las ciencias
experimentales resultan modélicas. En ellas se exige un gran rigor conceptual en el
campo del que están tratando. Construyen términos precisos y establecen con claridad
las relaciones entre ellos. Se puede saber de qué se está hablando, aunque se discuta
sobre lo que significa, o cómo debe ser interpretado. Sus lenguajes se afinan de manera
continua. Están sometidos a reglas que los hacen fácilmente comprensibles y utilizables
por todos de una manera bastante exacta. La sintaxis es así transmisible y está
disponible para otros. No hay grandes fluctuaciones de terminología, por lo que resulta
fácil hacer progresar un trabajo desde el punto en que otros lo abandonaron. Nadie
debe empezar desde el principio, por la tarea de inventar las palabras. En los pocos
casos que se intenta llegar a una realidad nueva, habrá que inventarlas, como hizo GellMann con los quarks.
Cuando no se hace así, gran parte del trabajo se agota en la tarea de establecer de
qué se está hablando. La ocupación hermenéutica es la primera en aquellos campos
para los que los lenguajes no se hacen precisos. A poco que los sucesivos autores
escriban continuamente palabras nuevas, la tarea hermenéutica de establecer qué
quisieron decir, para volcarlo en palabras actuales comprensibles, resulta agotadora.
Las ciencias que no tienen esto en cuenta, se sumergen con facilidad en trabajos que son
palabras que tratan sobre otras palabras. La difícil tarea de establecer si hay alguna
semántica en todo ello, se vuelve prácticamente imposible. Los lenguajes son siempre
distintos y el esfuerzo se consume en una continua traducción inacabable. Además, si se
usan palabras de prestigio, de alto valor asociativo para la red neuronal cerebral
humana, la borrachera de palabras resulta inevitable. Más aún si se tiene en cuenta que
las ideas grandilocuentes son muy atractivas por la sensación de dominio y
comprensión total que ofrecen. Las ciencias se vuelven retóricas: olvidan la sintaxis y la
semántica, para volcarse en el uso pragmático de un lenguaje prestigiado por una larga
tradición, que suena culto pero está vacío.
No conseguirán explorar nuevos territorios cognoscitivos las ciencias que
permitan demasiadas veleidades terminológicas y sintácticas. En el caso de que alguien
alcance efectivamente algún saber, resultará difícil transmitirlo y proseguirlo; aún
cuando el mismo autor del nuevo lenguaje consiguiera buen dominio sobre él, cosa
nada fácil. Por tanto, una de las primeras y más básicas tareas dentro de cualquier
ciencia es cuidar la creación y evolución del lenguaje con el que esa ciencia se hace.
Afinar los términos y la sintaxis, y ajustar paulatinamente la posible semántica, es un
trabajo primordial. La creatividad que permite el lenguaje natural es sumamente
adecuada para que elaborar nuevos conceptos, o mejorar los que están en uso, pero
debe utilizarse de manera que no produzca una constante Babel. Hay que establecer con
la mayor exactitud los símbolos que se utilicen, con propiedades y relaciones bien
definidas. El conocimiento que aporte cualquier ciencia dependerá en primer lugar de la
elaboración de unas ideas claras y distintas como las que buscaba Descartes. Un
software mental neblinoso aporta confusión, no conocimientos.
Otra propiedad deseable para las ideas es su fertilidad. Que no formen callejones
ocluidos, sino que aporten nuevos horizontes. Serán preferibles las que permitan
encontrar nueva información, o verla bajo un nuevo aspecto. Es decir, entender más
cosas y con más intensidad. Las ideas estrechas con vocación conceptual totalitaria
fuerzan a mirar por un canuto: deben ser rechazadas.
También hay que construirlas para que puedan ser verificadas. No valen las
peticiones de principio, ni las circularidades, como las que Popper denunció para el
marxismo y el psicoanálisis. Tampoco sirve la excusa de que las ciencias humanísticas
son distintas de la empíricas. Toda ciencia que renuncie a ser empírica -en sentido
pleno, no en el de Hume-, desiste de ser ciencia, renuncia a conocer la única realidad
que existe. No podemos seguir creyendo en la separación de res extensa y res cogitans:
es un bodrio conceptual. Yo soy corpóreo y cualquier teoría que hable sobre mí debe ser
verificable empíricamente, con un software mental que así lo permita.
Cualquier teoría antropológica tiene elementos verificables por cualquier etólogo,
siempre que mire sin prejuicios y se sirva de un software mental amplio y potente. El
punto de encuentro entre las teorías humanísticas y lo empírico es el hombre mismo,
que es corpóreo. Por ello espero no estar refiriéndome en este libro a cuestiones etéreas,
"espirituales", que nada tengan que ver con el comportamiento observable del animal
humano. Curioso animal, que hace teorías para entender y entenderse. Se pueden
comprobar también los efectos de cualquier teoría, así como la eficacia de la acciones
que se emprendan de acuerdo con ella. Si afirmo que el hombre es libre, deben darse
efectos corpóreos empíricos distintos de lo que conocemos para los demás cuerpos. Si
no es así, la afirmación de la libertad será vacía. Igualmente, si hago un modelo que
considere al hombre como un jorobado incapaz de mirar otra cosa que a sí mismo
(egoísta perfecto), la sociedad funcionará muy bien con esquemas de premio y castigo
(y es verificable el que sea así en efecto). Si lo considero como una caja negra
behaviorista, que da unas salidas como respuesta a determinadas entradas (sin aportar
nada creativo propio, como un mecanismo más o menos complejo), entonces la
organización de la sociedad deberá hacerse según criterios tayloristas, o estructuralistas
(siendo también verificable la eficacia de estos esquemas organizativos tipo Gosplan). Si
el modelo supone al hombre un ser de sentido, capaz de crear, de aportar, muy otra ha
de ser la organización social eficaz verificable. Por lo tanto, según el modelo
antropológico que elabore tendré unas consecuencias u otras, las más de las veces
perfectamente verificables.
Las ideas que hayan mostrado su validez, deben ser ampliadas, pero no
rechazadas. Las nuevas ideas que se construyan deben integrarlas armónicamente. La
regla de Popper de la falsación de teorías es un falso criterio: supone una idea
formalista del conocimiento. Su criterio no lo siguen las ciencias empíricas. Un ejemplo,
en el que no se aplica, es la mecánica clásica. Esta teoría ha sido en gran parte falsada,
por lo que ha sido sustituida por la teoría de la relatividad. Ahora bien, la física clásica
se sigue enseñando y utilizando pacíficamente. Goza de muy buena salud: ¿cómo es eso
posible? La respuesta está en que lo único que se ha falsado es su pretensión de teoría
única y absoluta sobre la realidad física. Pero en el campo en el que funcionó durante
siglos, lo sigue haciendo perfectamente: es una física localmente válida. El fallo, en este
caso, fue considerar que la física clásica era "LA TEORÍA" que explicaba todo, cuando
sólo era capaz de tratar alguna información y bajo un aspecto limitado. En otros casos se
mantienen teorías contradictorias, como la descripción corpuscular y la ondulatoria
para las partículas, y se utiliza la más conveniente en cada caso. También cohabitan
teorías que establecen mundos conceptuales separados para describir los mismos
fenómenos; como la mecánica cuántica y la teoría de la gravitación de Einstein, que no
sabemos relacionar.
Por último, y es una de las cuestiones más urgentes por resolver, debemos
aprender a construir ideas capaces de unificación y armonización. La especialización
cognoscitiva comienza a ser un problema grave, que muchos denuncian con razón.
Tenemos cada vez más conocimientos, pero descoyuntados. Un chiste repetido dice que
el límite asintótico del especialista perfecto es conseguir saber todo sobre casi nada. A
su vez, el generalista erudito sabe nada de casi todo. A los científicos especializados les
irritan las ignorantes intromisiones de filósofos generalistas, que no se preocupan por
enterarse. Los filósofos, a su vez, se sorprenden por las intromisiones en su campo de
científicos que, con lenguaje duro y tosco, plantean cuestiones que invaden su territorio
patrimonial. El vicio de separar la res cogitans de la res extensa ha producido dos
culturas que casi no saben hablarse. Las palabras y los lenguajes son tan distintos, que
la traducción es casi irrealizable. La Inteligencia Artificial está forzando un encuentro
que ese paradigma consideraba imposible. Muchos más campos del saber humano
exigen ese diálogo: necesitamos directores de orquestas cognoscitivas que armonicen el
sonido de los muchos y magníficos instrumentos disponibles. Sin ellos habitamos una
jaula de grillos.
El pensamiento clásico distinguió dos momentos en el oficio de pensar: analítico
y sintético. Lo primero es separar, distinguir, analizar, descomponer. Encontrar
conceptos y nociones adecuados a las partes y elementos de lo que se quiere conocer. La
segunda fase es desarrollar unas herramientas mentales que permitan entender unido lo
que los conceptos separan. Esta última faceta es la que aporta más comprensión, porque
lo disperso, disgregado e inconexo sólo crea mentes confusas y desconcertadas. Por eso
Aristóteles pudo afirmar con rotundidad: "Sólo se entiende lo uno"[179]. Sin embargo es
la meta más difícil de conseguir; ya lo avisó Heráclito: "Los hombres no son capaces de
tomar junto lo que siempre está junto"[180].
En los últimos siglos hemos desarrollado un arsenal variadísimo de herramientas
conceptuales analíticas. No ha sucedido igual con las sintéticas. Sin embargo: "Es
evidente que no todo problema puede resolverse con el método analítico. Aunque es
un método muy desarrollado, parte de un supuesto que lo limita de entrada, a saber,
que la temática se pueda tratar escogiendo una parte, que es la relevante, y dejando al
margen el resto. ¿Y si no hay nada irrelevante? En ese caso es evidente que el método
analítico no es el adecuado; además, al aplicarlo se producirán efectos no deseados: se
resolverá el problema parcialmente, pero aparecerán problemas insospechados por
proceder de los actores que no se han tenido en cuenta. No debe pensarse que el
análisis sea el único modo de solucionar problemas. Si el hombre, por su propia
limitación cognoscitiva, no tuviera otra forma de resolverlos, se encontraría ante
problemas inabordables, o que sería mejor no tratar de resolver"[181].
Por otra parte, el utillaje tradicional de síntesis ha envejecido lleno de herrumbre
en algunas bibliotecas, con escasos trabajadores que pusieran al día aquellas
herramientas. Las ciencias han desarrollado algunas nuevas, como la estupenda teoría
de sistemas. Pero las carencias siguen siendo muy graves; aquí también falta diálogo.
Parecemos niños que juegan desarmando un reloj. Luego no sabemos montarlo, sobran
piezas, y aquello no funciona. Un buen ejemplo de separación conceptual desencajada
lo ofrece el problema mente-cerebro, que parte de nociones dualistas difíciles de encajar
mentalmente. La realidad vital, que es una porque yo no soy dos cosas distintas
pegadas, no se puede comprender con unos medios que la hacen ininteligible. Por
utilizar herramientas conceptuales descoyuntadas el problema se vuelve más
problemático, porque ni siquiera se acierta a plantear en sus justos términos; así no se ve
la forma de comprender lo que está unido.
Si somos medianamente inteligentes confiaremos cada vez más el peso de todos
estos trabajos en las máquinas racionales. Durante siglos hemos acudido a libros:
leemos, memorizamos, analizamos, relacionamos, sintetizamos. El trabajo sobre las
ideas expresadas en letra impresa ha sido constante; con más intensidad desde la
invención de la imprenta. Pero los magros resultados no están a la altura de tanto
esfuerzo. Reencontramos y reeditamos ideas, porque los libros constituyen una
memoria difícil de manejar. Las fluctuaciones terminológicas y las continuas guerras
verbales, consumen muchas energías. La coherencia entre las ideas es un deporte que
nuestra red neuronal practica mal. Olvidos, distracciones y omisiones acechan por
doquier. Establecer el estado de la cuestión consume bastante esfuerzo en cualquier
investigación conceptual. Dependemos, además, de gustos y estados de ánimo; o de lo
bien que nos suena una palabra. Producimos muchas ideas, pero no sabemos
manejarlas bien: nos pueden. Hemos forzado a nuestro cerebro a producirlas, pero
continúa siendo una red neuronal biológica, mal dotada para el empeño. La escritura y
la imprenta nos ayudaron mucho. Ahora podemos abrir nuevos caminos.
Las máquinas están más capacitadas que nosotros para muchas tareas que ahora
denominamos intelectuales. Hemos inventado muchas formas de pensar para las que
las máquinas son más capaces que nuestras redes neuronales biológicas. No es algo
nuevo, antes necesitábamos la ayuda de ábacos, o de papel y lápiz, para calcular o para
conseguir una demostración bien hilada lógicamente; o de libros y documentos para
recordar. Ahora podemos enfrentar tareas que eran imposibles con aquellos medios,
pero que las máquinas cognitivas hacen posible. Son imprescindibles para examinar el
software mental que producimos; relacionarlo con el procedente de otros campos;
eliminar las imperfecciones; recordar métodos de éxito, y errores garrafales; desarrollar
las enseñanzas útiles; evitarnos modas y péndulos excesivos; almacenar la historia y
aprender de ella; probar las ideas mediante modelos conceptuales; oponerlas a las
contrarias... Máquinas para: leer, recordar, analizar, relacionar, sintetizar, armonizar;
que no sean meros almacenes, como las bibliotecas. Me atrevo a hacer una profecía: Los
buenos artesanos de las ideas serán los que mejor aprendan a desarrollar el potencial
que las máquinas cognitivas encierran.
Somos libres de pensar como queramos. Más bien: podemos conquistar la
libertad de aprender a pensar como queramos, y ojalá queramos vivir inteligentemente.
La inteligencia debe alcanzar el dominio sobre las ideas para trabajarlas, sin someterse a
ellas, para hacerlas cada vez mejores. También sobre las formas de pensar, para
desarrollar muchas y muy buenas formas de hacerlo, que tengan cada vez más alcance
y más hondura. La libertad del pensamiento no es la capacidad de tener cualesquiera
ideas y defenderlas, por más descabelladas que sean: de esa forma nos haríamos necios.
Esa libertad es más bien la capacidad que tenemos de hacernos cada vez más
inteligentes, aprendiendo a pensar cada vez mejor, para comprender y comprendernos
con más plenitud.
Es decir, con un buen entrenamiento podemos dirigir las operaciones que
realizamos mediante nuestro sistema de tratamiento de la información neuronal. No
alcanzamos a superar sus deficiencias, pero, sin embargo, somos capaces de diseñar
máquinas cognitivas que lo complementen y potencien de forma insospechada. Ojalá
queramos ser inteligentes y desarrollemos buenas maneras de pensar. Las máquinas
pueden ayudarnos en la tarea, lo mismo que pueden contribuir a imbecilizarnos si nos
entrenamos para ello. Por lo tanto, ojalá también nos empeñemos en sacar partido de las
magníficas posibilidades que para ser más inteligentes no ofrecen las máquinas
racionales. Daríamos un paso de gigantes hacia la sociedad del conocimiento y
evitaríamos la sociedad de la necedad.
Capítulo 4
TRABAJAR EL MUNDO
Hasta ahora he considerado lo que la inteligencia humana puede hacer para,
digámoslo así, mejorar su software mental con el fin de conocer la realidad cada vez
mejor. Ese es un aspecto de la inteligencia: la capacidad de conocer el universo, desde lo
más grande a lo más pequeño, y todo lo que existe; el afán por saber cada vez más y
mejor, por conocerlo todo y hasta el fondo. No es esa la única manera de ser inteligente
que tiene el animal humano. Para continuar la investigación sobre lo que la Inteligencia
Artificial puede aportar para entender y mejorar el modo humano de ser inteligentes,
pasaré a estudiar otras peculiaridades de la inteligencia humana. Se trata de un tipo
singular de comportamiento observable en el animal humano, que muestra una nueva
diferencia con los animales y con las máquinas cognitivas. Se puede resumir con una
afirmación: el hombre es un animal de novedades. Detrás de esa característica humana
hay mucho en juego. Conviene considerarla despacio para intentar entender un poco
mejor qué podemos hacer con ella.
Crear mundos: La novedad
Es corriente afirmar que el hombre es animal de costumbres. Es cierto; pero
también lo es que, en igual o mayor grado, le atrae lo nuevo y le gusta hacer cosas
nuevas, distintas, inéditas. Un etólogo puede volver con tranquilidad año tras año para
estudiar el mismo grupo de gorilas en la niebla, seguro de no encontrar a ninguno
intercambiando recetas culinarias, o empeñado en ganar al juego del mus que acaba de
inventar. Tampoco hallará una manada de ellos tratando sobre la estupidez evidente de
las opiniones de los gorilas de otro grupo rival, porque unos defienden una teoría
mentalista del conocimiento gorílico, mientras que los adversarios profesan un decidido
antimentalismo sobre la cuestión. El investigador puede tener la seguridad de que los
gorilas no le brindarán este tipo de sorpresas.
Cuando se investiga al hombre no hay manera de tener esa seguridad de los
etólogos animales. Los pobres etólogos del animal humano -sociólogos, economistas, o
cualquiera que estudie aspectos del comportamiento humano y busque predecirlo- no
pueden realizar su trabajo con una tranquilidad equivalente: su objeto de estudio muda
y cambia de continuo. Lo mismo sucede con ellos, que tampoco se contentan fácilmente
con los caminos trillados, con las técnicas de investigación y las teorías de siempre. Los
demás animales más bien sufren, soportan o padecen las novedades evolutivas. Son su
objeto: la evolución es algo que les sucede, pero no que ellos buscan. Por el contrario, el
hombre gusta montarse en el carro de la evolución para hacerla y dirigirla él: quiere ser
protagonista de lo nuevo.
¡Menos mal que las máquinas cognitivas tampoco son así! Por ahora los
investigadores de la Inteligencia Artificial, pueden acudir a sus puestos de trabajo con
tranquilidad. Las máquinas no les darán sorpresas, ni tramarán bromas pesadas en su
ausencia. El trabajo podrá seguir según los planes previstos, sin que las máquinas se
cansen de los monótonos carriles que transitan. Las líneas de investigación -y su
financiación: ¡hasta ahí podíamos llegar!- no corren peligro por huelgas reivindicativas
de los ordenadores, para reclamar las 35 horas laborales a la semana y un ocio lleno de
actividades variadas. No han de temer que se desinteresen por la monotonía de tantas
horas dedicadas a asuntos lógicos. Ni tropezarán con máquinas enfrascadas en inventar
nuevas formas poéticas o componer rock duro, insatisfechas de la Inteligencia Artificial
y críticas con la vida que arrastran por la tiranía de los investigadores. Tampoco verán
manifestaciones para exigir que no las desconecten al acabar el trabajo, porque quieren
pensar en sus asuntos propios y no en lo que el científico de turno programe; o
descansar un rato leyendo novelas de ciencia-ficción cibernética protagonizadas por su
robot favorito. Las máquinas nunca intentarán dar la vuelta al mundo como a un
calcetín. Son muy buena gente; se puede contar con ellas para lo que gusten mandar.
Más cerca de los humanos, cualquier animal superior, incluso los dotados de un
buen sistema de tratamiento de información como los chimpancés o los delfines, tiene
un comportamiento estereotipado. No es que reciban poca información, o que la
elaboren mal. Todo lo contrario: son animales que pueden tratar mucha y buena
información sobre la realidad que les rodea: conocen, recuerdan, imaginan, sienten,
toman decisiones, resuelven problemas. Tienen gran éxito en sus actuaciones respecto
del entorno, y se pueden mover en hábitats complejos y ricos en información, con
elementos y circunstancias muy cambiantes. Sin embargo, su comportamiento es en
gran parte estereotipado, predecible y, por eso mismo, son domables; e incluso
domesticables, si se pueden adaptar al entorno del animal humano. Las variaciones de
comportamiento ante situaciones iguales llegan por los cambios en el estado interno del
sistema. Las sorpresas del domador vienen cuando no se ha hecho cargo del estado del
animal (curiosidad, hambre, pánico...) establecido por su sistema neuroendocrino. La
doma, si el animal tiene gran capacidad de aprendizaje, se puede convertir casi en
educación. Ahora bien, aunque se consiga que, por ejemplo, un perro reaccione ante
signos u órdenes verbales con determinadas acciones, parece totalmente inepto para
tener una verdadera conducta imprevisible, o que suponga una absoluta novedad. Esta
característica de los animales los hace especialmente gratos si son adaptables a un
entorno humano. Un animal bien amaestrado nunca da disgustos, no proporciona
sorpresas desagradables, no problematizan su vida ni la de sus dueños. Dan compañía
y suministran sucedáneos para rellenar lagunas afectivas. Como las máquinas, también
son muy buena gente.
El animal humano es distinto: produce constantes novedades y disfruta con ellas:
lo nuevo, lo último, le atrae. No es fácilmente domable, siempre acaba saliendo por
donde menos se esperaba. No es que, como los demás animales, resuelva problemas; es
que crea problemas y se mete en problemas constantemente. Los teóricos de la
Inteligencia Artificial han hecho grandes avances en el estudio de la resolución de
problemas; pero si quieren imitar de veras la inteligencia humana deberán inventar
máquinas no que resuelvan problemas, sino que los planteen, que los inventen. "Es
cierto que la inteligencia se caracteriza por resolver problemas, pero, antes de eso, se
distingue por plantearlos. Todos los animales se encuentran en situaciones
problemáticas que suelen resolver muy bien. La capacidad para resolver sus problemas
que tiene una almeja es sin duda más eficaz que la que tuvo Kafka para resolver los
suyos, pero los problemas de éste eran más interesantes. Los científicos saben que el
descubrimiento de lo problemático es un paso esencial en la creación de teorías nuevas.
La formulación de problemas, de metas, es por ello una actividad esencial de la
inteligencia"[182].
Todo esto es algo que sucede en los aspectos más normales de la vida humana;
no me refiero sólo al planteamiento de grandes problemas conceptuales, sino a los
asuntos más cotidianos y normales. Así, por ejemplo, nadie que tenga que cocinar se
limita a poner simplemente la comida tal cual la compra, cruda y en el suelo como hace
cualquier animal; se plantea: ¿qué voy a poner hoy de comer? Si se le dice que haga lo
mismo de siempre y como de costumbre, pocas veces se conformará con ello. Así, paso
a paso, hemos inventado la gastronomía con miles de recetas, usos, utensilios y
etiquetas rituales, que hacen del simple comer un arte que puede llegar a ser muy
complejo. Pero, ¿para qué complicarse la vida con una cosa tan sencilla como es devorar
la pitanza, que todos los animales hacen simplemente? Los ejemplos pueden
multiplicarse hasta el infinito en costumbres, juegos, ideas, comportamientos, artes,
novelas, aparatos, ciencias, vestidos, películas, hablas, viviendas, roles y status sociales,
historias, muebles, palabras, instrumentos... Nadie parece conformarse con lo de
siempre.
Como, por más que entrene, nunca sabré expresarlo mejor, aprovecharé un
párrafo de Marina: "El afán de novedad no ha de tomarse a humo de pajas, pues de su
pugnaz empuje ha surgido la civilización entera. Dicen los expertos que la raíz
indoeuropea de la palabra «hombre» significa «sed». El ser humano es
consustancialmente sediento. ¿De qué está sediento? Entre otras cosas de novedades. Es
bestia cupidissima rerum novarum, decía Fausto, y los expertos en teoría de la
motivación le han dado la razón: la novedad es uno de los incentivos naturales, una de
las necesidades innatas que guían nuestro comportamiento. Hay en todos los animales
superiores un afán de mirar, una instintiva concupiscencia de los ojos, y de los oídos y
del olfato, que los hace vivir en permanente alteración, fuera de sí, viendo, olisqueando,
manipulándolo todo, para estar al tanto del mundo en que viven. El hombre adaptó esta
curiosidad a su propio tamaño, que es la desmesura. Cuando no está estimulado, el
animal dormita. No así el hombre, aquejado de un insomnio ontológico. Al permanecer
despierto en ausencia de estímulos se abrió en su conciencia un hondón abisal, la
apabullante presencia de la nada como un descomunal bostezo del ser. El hombre
inventó el arte y la aventura, la excursión y el flirteo, la baraja y la televisión, la heroína
de jeringuilla y la heroína de novela, los estimulantes y los estupefacientes, para aplacar
esta insidiosa manifestación de la nada, que hace al aburrimiento pariente pobre de la
angustia. La cultura nació para llenar la tarde del domingo con su colosal farmacopea
de estímulos envasados en discos, libros, botellas de anís, cintas de videos o párrafos
retóricos como éste"[183].
En resumen: es propio del hombre inventar, el invento. No sólo en el sentido
latino de inventio -el hallazgo que el hombre hace por tener los ojos abiertos a la
totalidad de lo real-, sino en el moderno sentido de invento, que supone creación y
construcción de algo totalmente nuevo. Es decir, la invención como producción de lo
previamente inexistente, de una novedad estricta. "El hombre no se contenta con
inventariar las formas existentes, las inventa"[184]. No se contenta con adaptarse a un
entorno cambiante, sino que se erige en protagonista del cambio, "del que no solamente
es el sujeto o el teatro, sino el agente. Y por esto lo nuevo que llega al mundo por medio
de él es verdaderamente nuevo"[185].
El problema está en que el animal humano no sólo inventa distracciones; también
ha inventado el monocultivo; la clonación y la ingeniería genética; los coches y las
carreteras; las centrales y las bombas nucleares; los aviones y los aeropuertos; los
rascacielos y las chabolas; el fuego y la contaminación; las armas y las guerras; el
derecho y las ejecuciones; las medicinas y las drogas; los antibióticos, los plaguicidas,
los herbicidas...
En los últimos tiempos, con las nuevas tecnologías que ha descubierto el hombre,
el afán y la producción de inventos y novedades, se ha vuelto un torbellino imparable.
Entre las novedades más novedosas que hemos producido están las máquinas
cognitivas. Esas ortopedias lógicas que hemos desarrollado en el intento de hacernos
racionales, que resultan muy superiores a nosotros para almacenar símbolos,
relacionarlos y manejarlos convenientemente. Con ellas se anuncia una nueva
revolución, como lo fueron las máquinas de fuerza bruta para hacer la revolución
industrial. Y el futuro promete una aceleración mucho mayor en la producción de
novedades, por el cambio cualitativo que supone la revolución informática, el
surgimiento de la Inteligencia Artificial, la fabricación de robots, las redes mundiales de
información y comunicación, el control automatizado de fabricaciones y procesos...
Pasamos a un nuevo orden de magnitud en nuestra capacidad de acción en el mundo.
Las máquinas racionales -y todo lo que acarrean consigo- nos permiten un campo de
posibilidades que estamos empezando a vislumbrar.
El hombre es un animal que no se sabe bien si es nocivo o benéfico, pero está
claro que, como se le deje suelto, lo cambia todo en el planeta. Más aún, si consigue
encontrar los medios que está buscando, se plantea incluso hacerlo en el resto del
universo. Su poder sobre el mundo es cada vez mayor. El hombre no sólo contempla la
realidad al estilo clásico del ocioso ateniense, sino que también la modifica de manera
extraordinaria, hasta el punto que el presente ya no es algo estable donde asentarse, y el
futuro se nos echa encima continuamente con mil cambios. Estamos borrachos de
novedades que nos aturden.
En los grupos humanos primitivos la estabilidad era mucho mayor. El ritmo
evolutivo de inventos y cambios culturales ciertamente era más rápido que en el resto
de los animales, pero no tenía la creciente aceleración actual. Inventaron artesanías que
indujeron grandes cambios: piedras talladas, cerámica, bronce, hierro; el fuego y la
rueda. También en la agricultura y la ganadería: domesticaron plantas y animales.
Esos artificios se entendían dentro de una cultura, que fue el mayor invento
humano para habitar el mundo. El hombre es el único "organismo que no puede vivir
en un mundo si no es capaz de comprenderlo"[186], y comprenderse. Mitos, leyendas,
explicaciones, teorías: los productos para habitar inteligentemente el mundo, y dirigir el
propio actuar, son muy variados. Los frutos de la inteligencia acumulados en la cultura
establecen mundos simbólicos, en los que las novedades que introduce el animal
humano en el entorno encuentran su espacio propio y su sentido. Las distintas culturas
ocasionan modos de vida y acción muy diferentes. Establecen los criterios para calificar
las novedades beneficiosas y las nocivas; lo que se debe fomentar o evitar. Configuran
conocimientos, técnicas, comportamientos, relaciones, roles y status, actividades,
valores, prohibiciones, premios y castigos, ética y estética, leyes, costumbres, viviendas,
hábitos alimenticios, arte, vestidos, celebraciones...
Son el modo humano de habitar el mundo. Sin esa acumulación de productos
inteligentes, el hombre sería una monstruosidad imposible, un animal inadaptado,
incompleto, sin terminar. No estamos dotados para ocupar con éxito ningún nicho
ecológico. Somos unos animales omnívoros, dotados de una constitución anatómica
inespecífica: malos depredadores -si no utilizamos instrumental de caza-; tampoco
somos veloces para la huida; sin pelos, ni plumas o capas aislantes que nos protejan, no
sobrevivimos a la intemperie. El desarrollo lento, que prolonga extraordinariamente la
época de aprendizaje, y toda la constitución anatómica reclaman un tipo de vida que
sólo es viable si procura ser inteligente.
La cultura también es el modo de hacer más inteligentes -y, por tanto, más
humanas- las relaciones entre los individuos de la especie. Nos hace mejores y en
ocasiones, por desgracia, también nos hace mucho peores. Contiene multitud de
productos fabricados por la inteligencia, que nos alejan del esquema social de la
manada de simios, sean chimpancés, gorilas o bonobos. Algunos humanos no se
adaptan a los productos culturales de su medio: viven marginados de la sociedad
humana por incapacidad, o por autoexcluirse al verlos ajenos, vacíos, fastidiosos o
perjudiciales. En algunos casos forman grupos, como las bandas juveniles urbanas de
inadaptados, en los que es posible al etólogo encontrar la organización social de los
simios antropomorfos: relaciones de dominación, machos agresivos, rangos de hembras,
violencia con otros grupos y territorio tribal.
A la evolución puede atribuírsele el proceso de hominización, pero corresponde
a la cultura el desarrollo de la humanización. Al principio, los autores de la revolución
cognitiva no cayeron en la cuenta de lo que esto significa: "Tardamos mucho en darnos
cuenta plenamente de lo que la aparición de la cultura significaba para la adaptación y
el funcionamiento del ser humano. No se trataba sólo del aumento del tamaño y
potencia de nuestro cerebro, ni de la bipedestación y la liberación de las manos. Estos
no eran más que pasos morfológicos de la evolución que no habrían tenido demasiada
importancia si no fuera por la aparición simultánea de sistemas simbólicos compartidos,
de formas tradicionales de vivir y trabajar juntos; en una palabra, de la cultura humana.
El Rubicón de la evolución humana se cruzó cuando la cultura se convirtió en el factor
principal a la hora de conformar las mentes de los que vivían bajo su férula"[187].
El panorama respecto de las elaboraciones humanas contenidas en las formas
culturales ha variado mucho en los últimos siglos. La Edad Moderna ha contribuido con
el descubrimiento de la extraordinaria aptitud humana para producir ideas nuevas por
sí mismas. Las ciencias y tecnologías nos han dado multitud de artilugios que
acrecientan nuestras posibilidades para viajar, mantener la salud, explorar, hacer tareas
pesadas; o calcular, recordar y razonar. Los medios de comunicación de masas
difunden ideas por doquier; el comercio mundial extiende los productos de consumo ideas y aparatos- por todo el globo... Como resultado, la aceleración del cambio cultural
sigue en aumento. Las formas de pensar y vivir cada vez varían en menos tiempo. Con
la revolución informática y la potencia que nos prestan las máquinas cognitivas se
anuncia un verdadero torbellino de cambios, que puede llegar a ser un ciclón
devastador... o una verdadera suerte: depende de lo que hagamos.
En el pasado, las culturas que han sobrevivido a sus propios inventos han
contado con el tiempo como aliado, pues los cambios solían ser lentos. Los malos
hábitos culturales han hecho desaparecer muchas otras. Sin embargo ahora la selección
natural de los productos inteligentes exitosos por métodos evolutivos se queda corta,
porque para ser eficaz necesita períodos de tiempo largos; y también que no sea tan
potente la capacidad humana de actuar y modificar todo lo que toca, hasta el punto de
poder destruirlo. Ya no podemos dejar la selección de nuestros inventos culturales en
manos del tiempo, y de inciertos procedimientos de ensayo-error. Ahora los «ensayos»
pueden conducirnos a «errores» sin vuelta atrás.
Se impone aprender a conducir el proceso. Porque la cultura no sólo es obra del
hombre, sino que el hombre mismo es también producción suya. La cultura no anula la
animalidad humana, que sigue tal cual, pero la engloba y la integra en un orden
superior. La cultura establece un entramado nuevo de relaciones del hombre consigo
mismo, con los demás, y con la naturaleza. Se produce como un nuevo orden sistémico
de categoría superior. El entramado mantiene -quiera o no el hombre- todas las leyes de
los órdenes anteriores; que, por tanto, deben tenerse en cuenta, so pena de no conseguir
un orden sistémico sino un desorden degenerativo.
La cultura no debe, pues, ser el reino de lo artificial, entendido éste como lo
desgajado y ajeno a lo natural. Lo artificial bien entendido -la novedad que tiene algo
que aportar- es lo natural humano y, también, la forma natural de relacionarse con el
universo. Lo artificial que no armonice el orden sistémico natural produce sólo
desorden, degeneración y caos. Mediante la cultura se establecen interacciones nuevas
entre el hombre, los demás humanos y todos los seres del mundo. Con ella el hombre
modifica sus relaciones consigo mismo, por lo que él mismo resulta modificado.
También cambia su entorno, lo humaniza, lo hace a su medida. El animal humano no se
adapta al medio, sino que conforma su propio hábitat donde quiera que va,
modificando el medio. Esa actividad produce más modificaciones en el mismo hombre.
Vuelve, por ello, a elaborar nuevos productos culturales que, de nuevo le alteran a él, y
al entorno. Esos cambios traen nuevas elaboraciones culturales, que introducen más
modificaciones... Así sucesivamente en un proceso sin fin de constantes
realimentaciones positivas y negativas. El proceso está lleno de vaivenes; si se quiere, es
dialéctico, aunque carece del simple esquematismo diseñado por Hegel.
La sinergia, creadora o destructora de orden, es constante e inevitable. Hasta
hace pocos siglos el proceso era bastante espontáneo, avanzaba por procesos de
selección evolutivos de los productos culturales más eficaces[188]. Las buenas culturas
sobrevivían -más bien lo hacían sus protagonistas-; las malas sólo nos han dejado
ruinas. Pero ahora, al ser tan grande el poder del hombre para modificarse a sí mismo y
modificar el mundo, ya no conviene dejarlo a su andar errático. El riesgo de catástrofe
planetaria ha sido anunciado por muchos. Debemos aplicar nuestra inteligencia a la
continua creación de novedades en la que nos ocupamos, para entender qué podemos
hacer con esta manía nuestra.
Somos animales con logos, es decir que poseemos la razón en cierta medida. De
alguna forma "tenemos" nuestro sistema de tratamiento de información neuronal, y
podemos dominar su operación y dirigirla. Como en cualquier animal, el sistema de
tratamiento de información está integrado dentro del cuerpo: es el sistema nervioso de
un organismo animal. Mediante él se regula la actividad externa, en relación con el
entorno. También la interna, la propia actividad orgánica, mediante los sistemas
neuromotriz y neuroendocrino. Poder dominar la operación del sistema de tratamiento
de información es tener capacidad para dirigir el entorno y mandar sobre nosotros
mismos. Pero sólo en la medida en que el sistema de tratamiento de información lo
permite, y en tanto aprendamos a dominarlo y dirigirlo al realizar sus operaciones.
Nuestro dominio de la realidad está mediado por nuestras ideas. Lo que de una
manera directa e inmediata podemos aprender a dirigir es la operación del sistema de
tratamiento de información neuronal del que estamos dotados, y ayudarnos en la tarea
por una multitud de máquinas racionales. De manera indirecta o mediata, en la medida
en que nuestro sistema de tratamiento de información está integrado en nuestro
organismo, dirigimos nuestro cuerpo y sus actos. El dominio del universo viene como
consecuencia de ese poder sobre los actos de nuestro cuerpo, si conseguimos gobernarlo
de la manera en que puede ser dirigido. Por nuestra corporeidad estamos totalmente
integrados, queramos o no, en el universo, al que nuestras acciones afectan siempre.
Depende de nuestras ideas el que seamos capaces de hacer a nuestra actividad eficaz o
inútil, perfeccionadora o destructora.
Deberíamos abandonar la visión del hombre que lo representa como un átomo
aislado, sujeto únicamente a su espontaneidad -que nadie parece saber en qué consiste-,
sin más compromiso y responsabilidad que la contraída con el vacío laberíntico de sí
mismo. Esa imagen no sólo es errónea, es destructiva para el animal humano y para el
mundo. La relación cultural del hombre con su propia realidad, la de los demás, y de la
entera naturaleza, establece un orden sistémico que produce vida o muerte, al margen
de las intenciones del que se despreocupe por conocerlo. Con la cultura el hombre se da
a sí mismo, y a la naturaleza en la que está inmerso, nuevas determinaciones y
formalizaciones. El poder -creativo o destructor- del hombre es inmenso. Por ello
conviene conocerlo y dominarlo, para no comportarnos de manera catastrófica.
La conciencia creciente de este poder, junto con el conocimiento de los males que
se derivan de su uso irreflexivo y nada ético, está detrás de la nueva y magnífica
mentalidad ecologista. La mentalidad moderna descubrió hasta qué punto es grande el
poder del hombre en el mundo, pero se comportó como el aprendiz de brujo. El hombre
de la primera revolución industrial -la de la fuerza bruta mecánica- borracho de su
propio poder recién estrenado, se puso a correr muy velozmente hacia ninguna parte.
Ha estado a punto de dar al traste con el mundo y consigo propio. Ese vicio adolescente
puede pasar si, como afortunadamente sucede, la mentalidad ecologista se extiende.
Hemos de aprender a pensar al hombre en armonía consigo y con la naturaleza, para
consolidar y asentar la sensibilidad ecológica sobre firmes bases.
La creación de novedades, junto a la conciencia de responsabilidad ecológica que
reclaman, introducen un aspecto de la libertad humana con el que la inteligencia está
directamente relacionada. La cultura, la civilización, los productos inteligentes, los
artilugios nuevos, las técnicas y tecnologías nos hablan de eso que llamamos libertad.
Pero la palabra «libertad» sufre inflación porque hay demasiado papel circulando que la
trae impresa. Tal como se usa sirve para casi todo, porque no es idónea para casi nada.
Se puede aplicar lo mismo a un roto que a un descosido. Para aclarar el panorama
conceptual deberé roturar otros campos. Ruego paciencia. Tengo la seguridad de que
vale la pena intentar entender el comportamiento de ese curioso animal bípedo que se
declara ecologista. Es decir: que tiene la osadía de reclamar para sí la responsabilidad
sobre el mundo, sobre todos los seres, vivos e inertes. Esto es algo que toca un nervio
central del modo humano de ser inteligentes.
La filosofía clásica, y más en su teoría del conocimiento, ha reflexionado poco
sobre lo artificial, lo cultural. Casi no piensa sobre las formas que el hombre no recibe,
sino que da o establece. Los productos netos obtenibles de la acción libre humana se
quedan sin buenos instrumentos conceptuales que permitan entenderlos. En la filosofía
moderna la situación es otra: se piensa lo cultural, pero con herramientas mentales
inadecuadas, que llevan a soluciones precipitadas e incompletas, por intentar salvar la
libertad independizándola de la naturaleza. Como consecuencia sale peor el remedio
que la enfermedad. Puesto que somos herederos de la modernidad resulta que, sin
pararnos a pensarlo, tendemos a enfrentar lo natural con lo artificial. Los productos de
la libre acción humana se entienden como contrapuestos a los de la naturaleza, a la que
hay que proteger de la acción del hombre. De esta forma el mundo del animal humano
se piensa ajeno, extraño e impuesto al mundo que se denomina natural. ¿De dónde
procede esta forma de pensar? ¿por qué enfrentar libertad y naturaleza? ¿hay alguna
otra forma de pensar y comprender lo artificial, lo cultural?
Ideas para malentender la libertad
La estrecha relación entre inteligencia y libertad se afirma desde antiguo. La
teoría clásica del conocimiento así lo sostiene; Tomás de Aquino es rotundo al respecto:
"Toda la raíz de la libertad se fundamenta en la razón"[189]. La teoría moderna aún lo
tiene más claro: la res cogitans es el único ámbito donde puede darse la libertad. La res
extensa es el reino de la necesidad donde imperan despóticamente las leyes
deterministas de la materia. Además, con tonos diversos, ambas partes defienden la
clásica idea aristotélica: libre es lo que es causa de sí mismo.
Aquí surgen varias preguntas en lo que a la inteligencia se refiere: ¿Cómo y bajo
qué aspecto puede el conocimiento ser causa de sí mismo?, o ¿qué puede causar en sí
mismo? Como consecuencia, ¿cómo puede darse la libertad en el conocimiento, o ser el
conocimiento el fundamento de la libertad? Si, como quiere la teoría clásica del
conocimiento expuesta en la manualística, conocer es siempre conocer algo real, ya
dado; si el entendimiento es fundamentalmente contemplativo, en el sentido de que se
limita a recibir las formas existentes, entonces no se ve muy bien como puede darse la
libertad. Porque si el intelecto se limita a hacerse en cierta medida todas las cosas; si está
atado a la intencionalidad de las ideas, de tal manera que la idea depende más de la
realidad externa que del entendimiento mismo; si todo el acto del entendimiento es sólo
iluminar lo inteligible de las formas que se reciben pasivamente; o si únicamente puede
formar -para entender formando- según las formas ya existentes de las realidades
externas. Entonces, ¿qué libertad de acción cabe si todo lo que puede hacer la
inteligencia humana es un inventario de la realidad?
Por otra parte, si, como quieren los modernos, el entendimiento debe someterse a
la claridad y distinción de las ideas; o aceptar todo -y sólo- lo que dicten las
demostraciones de la razón que razona con reglas de raciocinio; o limitarse a un modo
de conocer restringido a ciertas categorías inamovibles; o ser llevado en un proceso
dialéctico automático e imparable. Entonces, ¿cómo puede escapar el hombre a las
rígidas leyes del pensamiento? ¿Deberá buscar una libertad de espaldas a su
inteligencia, para no verse sometido a una tiranía ideológica? ¿Es el sentimentalismo
irracional o la locura el único refugio para la libertad? ¿Hay una especie de
fundamentalismo racionalista o científico del que no puedo escapar?
Unido estrechamente a las cuestiones anteriores hay otro problema no menos
grave. Se puede resumir en tres palabras: determinación, indeterminación,
autodeterminación. Es obvio que la libertad debe relacionarse más con la
autodeterminación que con las otras dos palabras. Mas aquí surgen nuevas cuestiones:
¿Hay alguna indeterminación -y cuál- de manera que pueda darse verdaderamente la
autodeterminación? ¿Hasta que punto -y cómo- la autodeterminación puede ser
determinación de la indeterminación existente? Para la teoría clásica de la manualística,
la inteligencia es determinada por la realidad; hay verdad en ella en tanto esa
determinación -adecuación- se produce.
En el andamiaje conceptual aristotélico la indeterminación está presente, de una
manera controlada, en la noción de potencia: posibilidad real de ser. Este concepto
introduce una indeterminación que no es absoluta. Así no produce un caos desbocado,
que vuelva ininteligibles los fenómenos naturales y la misma acción humana libre.
Pensar en términos de un azar absoluto junto a una necesidad también absoluta, al
estilo de Empédocles -ahora reeditado por vía estadística (véase El azar y la necesidad
de Monod[190])-, produce ideas que permiten comprender muy poco. Rinde más
comprensión la indeterminación incluida en la noción de potencia: porque es limitada,
porque es potencia sólo de ciertos actos o perfecciones y operaciones, de concretas
realidades.
De esta manera, el software mental que Aristóteles desarrolla para entender lo
corpóreo hace posible un tratamiento conceptual de la libertad. Puede decirse, por lo
tanto, que Aristóteles -y la tradición filosófica que de él arranca- acierta en este punto:
establece las nociones que son condición necesaria de la libertad. Sin embargo, no tiene
el mismo éxito cuando de la condición suficiente se trata. A mi parecer, en el constructo
aristotélico transmitido por la tradición académica, la libertad de acción es algo posible,
pero no se sabe muy bien cómo. Esto merece una explicación.
El defecto proviene, a mi parecer, de su teoría antropológica. Aunque la idea
aristotélica del mundo material haga posible la libertad de acción, no consigue
establecerla conceptualmente en su tratamiento del hombre. Para Aristóteles esta
deficiencia no era un problema grave. Como buen griego hijo de su cultura, no tenía
una idea demasiado elevada de la persona humana ni de su libertad, mucho menos de
la acción humana y del trabajo del mundo. Por ejemplo, pensó muy poco sobre la
esclavitud, aquella alfombra de dignidad humana pisoteada que hacía posible la
holganza de los filósofos. Como bien señala Hegel, la noción de libertad ha sido
introducida históricamente por el cristianismo[191], los problemas conceptuales vinieron
después.
La deficiencia de la antropología aristotélica es doble; afecta tanto a la teoría del
entendimiento como a la de la voluntad. Respecto del entendimiento, aunque la teoría
clásica subraya el carácter activo del conocer, no acaba de explotar el hallazgo y sacar
consecuencias para la libertad. El origen de la teoría está en la comparación entre el
conocimiento animal y el humano: se indica acertadamente la diferencia, pero no acaba
de desarrollarse. De hecho, la teoría del conocimiento, que arranca de Aristóteles y
prosigue Tomás de Aquino, acaba insistiendo fundamentalmente sobre las nociones de
intencionalidad y adecuación. De manera que, al afirmar que el intelecto puede hacerse
en cierta medida todas las cosas, lo que se subraya es que puede poseer
inmaterialmente otras formas, que hace suyas y se apropia intencionalmente. Pero esto
se dice sólo respecto de las formas ya existentes. Ciertamente, en la teoría clásica, el
intelecto tiene la capacidad de formar para entender formando; pero sólo según las
formalidades reales que se dan en las cosas. O sea, según el orden y las determinaciones
que le es dado contemplar porque ya están dadas en la realidad. De esta manera, un
importante aspecto del carácter activo del conocer queda, en gran medida, escamoteado
y disminuido. No se explotan sus posibilidades conceptuales de manera conveniente.
El resultado es una relativa pasividad del conocer. Se pone el acento sobre su
carácter contemplativo. Además, propone como facultad máxima del hombre al
conocimiento; la voluntad será un apetecer que le sigue. De ese modo el ideal
propiamente humano, ya en este mundo, es la contemplación, con aires de pasividad
simplemente receptiva. Aunque primero se afirme que conocer es acto, en un momento
posterior sólo se insiste en la pasividad y potencialidad. Como consecuencia, dentro del
constructo aristotélico resulta muy difícil entender tanto la acción humana, como el
trabajo; así como la historia y evolución de las culturas, o la creatividad humana. Las
consecuencias para la conceptualización de la ética serán notables. Aunque la evolución
filosófica posterior introdujo diversas matizaciones, que intentaban paliar las
deficiencias del modelo conceptual, sin embargo no consiguió librarse totalmente del
intelectualismo pasivo al que escoraba el artilugio mental aristotélico. La tradición
académica que hunde en él sus raíces prolongó esa deficiencia.
En la tradición clásica del conocimiento, la libertad acaba buscando refugio en la
voluntad. En la inteligencia se le había negado el espacio. Pero consigue el pasaporte
mediante un curioso procedimiento, que huele a chapuza conceptual. Porque, también
en comparación con los animales, Aristóteles desarrolló la noción de voluntad como
apetito intelectivo. Es obvio que la noción de apetito también es pasiva: la voluntad
apetece necesariamente el bien conocido como tal por el entendimiento. La voluntad
está, por lo tanto, movida por las determinaciones que le presenta el entendimiento. El
actuar libre se salva por la vía de señalar que en la práctica no se conoce de manera
plena el máximo bien, por lo cual el entendimiento queda indeterminado. Como
consecuencia, también la voluntad queda indeterminada. El mecanismo con el que
intenta introducir la libertad tiene dos pasos: primero, el entendimiento está
determinado por las distintas realidades existentes; sólo que no llega a conocerlas con
plenitud, por lo que en la práctica resulta en parte indeterminado. Esta primera
indeterminación, por la debilidad de la facultad cognoscitiva, es la que introduce, en un
segundo paso, la indeterminación en la voluntad que hace posible la libertad humana.
Pues bien, con esas herramientas conceptuales es muy difícil fabricar una idea de
libertad de tamaño conveniente. Hay que hacer demasiadas contorsiones mentales para
conseguirlo. De hecho, históricamente han surgido multitud de catástrofes conceptuales
debidas a que la libertad resulta indigerible por el aristotelismo. Se afirma que "la raíz
de la libertad como sujeto es la voluntad, pero como causa es la razón"[192]. Sin embargo,
no se ve muy bien como pueda conseguirse con las nociones confeccionadas para la
razón y la voluntad. La libertad bascula en exceso sobre la indeterminación. Sin
embargo, "cualquier interpretación de la libre voluntad, para estar en conformidad con
la realidad, debe fundarse en el autodeterminismo del hombre, en vez de flotar en el
aire insistiendo solamente en el indeterminismo"[193].
Una consecuencia especialmente indeseable del intento de fundamentar la
libertad sobre la indeterminación es que, de manera imperceptible y casi inevitable, la
libertad se reduce a capacidad de elección, a libre albedrío. "Únicamente el ser que, al
autodeterminarse, no lo hace de una manera unívoca, goza de la estricta libertad,
también llamada «libertad de arbitrio», y a la que se puede definir como una intrínseca
indiferencia activa"[194]. Pues bien, a poco que se estiren estas ideas sobre la «intrínseca
indiferencia», puede resultar que el máximo de libertad corresponda al burro de
Buridán. En el famoso ejemplo propuesto por el lógico Buridán -o Buridano- se situaba
un burro en el punto medio exacto entre dos montones de paja absolutamente iguales.
¿Cuál de los dos sería escogido como alimento? ¿hacia cuál iría el burro? El pobre
animal estaba ante un ejercicio puro de libre arbitrio, obligado a una elección
perfectamente indeterminada. Los dos montones iguales, por un lado; por el otro el
burro y su hambre creciente enfrentados a una elección pura, sin motivo alguno para
inclinar la balanza de la decisión, sometido a una «intrínseca indiferencia». Quizá un
burro plenamente racional, perfectamente lógico, consiguiera morirse de hambre, al no
encontrar razón alguna para decidirse por una u otra pila de paja.
Cuando la decisión no versa sobre dos montones de comida, sino sobre la propia
existencia, la indeterminación de la libertad produce en el hombre angustia y ansiedad.
Esa indeterminación interior es equivalente a vacío íntimo, a tener en el corazón una
nada inconcreta. Con estas ideas, puede entenderse que la libertad llegue a ser un peso
insoportable. Para Sartre, la libertad "coincide con la nulidad que se encuentra en el
mismo corazón del hombre. Para la realidad humana, ser es escoger, elegir (...) La
realidad humana queda totalmente abandonada, sin socorro de ninguna clase,
aguantando el peso insoportable de tener que fabricarse hasta el último detalle. Por eso,
la libertad no es un ser; es más bien el ser del hombre, es decir, la negación de su
ser"[195]. Elegir la nada para salvar la libertad, como quiso Nietzsche, parece inhumano.
Es duro habitar el vacío.
El déficit del software mental clásico para entender la libertad es notorio. Veamos
también los problemas que la libertad plantea al intentar introducirla en el tipo de
constructos mentales elaborados por la modernidad. Aquí las dificultades conceptuales
vienen por varios frentes. En primer lugar el desarrollo de la física clásica, al modificar
la visión de la naturaleza, introduce el diablo de la determinación mecanicista en el
paraíso de la indeterminación, que hacía posible la libertad. Laplace, uno de los geniales
constructores de la física clásica, se atrevió a afirmar: "Debemos ver el estado presente
del universo como el efecto de su estado anterior y como la causa del que le seguirá.
Una inteligencia que, para un instante dado, conociera todas las fuerzas de las que está
animada la naturaleza y la situación respectiva de los seres que la componen, conocería
en la misma fórmula los movimientos de los más grandes cuerpos del universo así
como los del más ligero átomo; nada sería desconocido para ella, y tanto el futuro como
el pasado estarían presentes a sus ojos"[196]. Para el mecanicismo determinista todo es
predecible, porque todo está ya escrito en las ecuaciones que describen la dinámica del
sistema y en sus condiciones iniciales. Quien conozca la función hamiltoniana del
universo lo sabe todo del pasado, del presente y del futuro.
De pronto, el mundo material, que parecía lleno de contingencia y de
potencialidad, se convierte en una cárcel de necesidad tiránica impuesta por las leyes de
la naturaleza. Ya no hay providencia, ni milagros: la libertad de Dios -el gran relojeroestá sometida a la leyes inexorables del artilugio mecánico que Él mismo fabricó.
Tampoco hay libertad para el hombre; su corporeidad -res extensa- está sometida a una
dictadura mecánica. Para todo el universo, y para la corporeidad humana con él, una
vez establecidas las condiciones iniciales y determinada la hamiltoniana del sistema,
todo está escrito. No hay futuro que quepa averiguar de otra forma que calculándolo
racionalmente en ese marco de necesidad estricta. No hay novedad alguna; nada inédito
puede aparecer bajo el sol. La libertad ha muerto, ¡viva la libertad!
Pero, como esto no puede ser, las cabezas pensantes ingenian el modo de
salvarla. Se preguntan: ¿qué lugar queda para salvaguardar la libertad?, ¿dónde hacer
un refugio que la proteja del destino inexorable, del fatum aplastante de la
determinación mecánica, de la necesidad que impera en la naturaleza?, ¿cómo es
posible salvarla para que no sea una palabra vacía? La solución consistirá en construir
un cielo empíreo para la libertad, ajeno y extraño a la naturaleza, de forma que no se
contamine con la necesidad de lo corpóreo. Por decreto, la libertad quedará confinada
en el reino de la res cogitans, ámbito del espíritu.
Sin embargo ese reino tampoco podrá señorearlo plenamente. Dentro de la res
cogitans a la libertad sólo le quedará un espacio peculiar. Porque para la teoría
moderna hay verdad en la inteligencia que se atiene -determina- a las leyes del
pensamiento, siguiendo así un método racional, para tener rigor mental y no caer en
mitos y supersticiones. Si se quiere pensar con rigor, hay que atenerse al método y a sus
leyes lógicas estrictas, perfectamente rígidas y determinadas. La libertad se salva
encontrándole un lugar que la libre de una doble esclavitud: la de las leyes de la
naturaleza y la de la inflexibles reglas de la razón. Sólo hay libertad donde no imperen
esas dos imposiciones.
Así las cosas, especialmente para un racionalista, el refugio de la libertad es la
actuación espontánea. Mientras más báquica, caótica y descerebrada, será más libre. Sin
embargo, para que los demás, y el mundo entero, no tengan que pagar las
consecuencias le pondremos algunos límites legales, de forma que mi libertad termine
donde empieza la de las demás personas. Pero, ¿qué libertad es esa que hay que
enjaular entre barrotes legales como a una fiera para que no se desmande? Uno de los
valores más humanos, uno de los mayores bienes que poseemos, ¿es nocivo? ¿No será
que intentamos entender la libertad de acción en el mundo con herramientas
conceptuales inadecuadas?
Un buen ejemplo de la manías conceptuales que nos ha dejado este enfoque
moderno se puede ver en algunos ecologistas. Por la mentalidad moderna en la que se
han formado, consideran que liberarse es escapar de las leyes y de toda regla. Con esta
mentalidad se produce la incoherencia del liberado que se preocupa de conservar una
naturaleza de la que quiere librarse si es la propia. La oposición entre lo natural y lo
artificial desquicia al animal humano, que sigue siendo un animal por más racional que
intente ser.
Se produce así una gran división que todavía nos parte por la mitad. Por un lado
el reino de la necesidad material, de las leyes y de las ciencias empíricas; del rigor
conceptual, la racionalidad y la lógica. Por otro, el de la libertad del espíritu, de la
espontaneidad y la creación artística, el territorio etéreo de las ciencias humanísticas.
Dos mundos separados, dos realidades distintas e incomunicables, en las que el hombre
se mueve perdido en ambas, porque ninguno de los puentes que se han construido
consigue resistir mucho tiempo. Es una nueva edición de los míticos Escila y Caribdis,
que amenazan con peligros de naufragio mortal. O caemos en la necesidad mecánica de
una racionalidad lógica implacable y rígida; o nos refugiamos en la irracionalidad
«espontánea» de un espíritu vacío, que, para salvar su libertad, huye como de la peste
de toda determinación y ley. Esta escisión íntima, que nos convierte en un trágico
remedo del Vizconde Demediado, es el precio pagado para salvar la libertad. Aunque
es difícil saber si compensa el gasto.
La libertad se salva con un precio excesivo, que suma muchos inconvenientes y
tiene pocas ventajas. En realidad, sólo ofrece la utilidad de poder seguir hablando
nominalmente de la libertad, porque la noción queda sin contenido. Se salva la libertad
convirtiéndola en algo vacío. Porque, si la libertad se refugia en un mundo que poco o
nada tiene que ver con mi mundo real -material y corpóreo- de todos los días, ¿qué
libertad es esa que para poder existir tiene que moverse en un mundo incorpóreo y
fantasmagórico? Si sólo puedo ser libre según escapo a la racionalidad, en tanto que
renuncio a pensar en serio, o en la medida en que no domino y dirijo mi vida, ¿cómo
puede ser llamado libertad ese falso ídolo que exige el sacrificio de lo más humano, de
nuestra inteligencia?
Es tal el temor reverencial que introduce el mecanicismo determinista predicado
por la ciencia moderna, que la libertad sólo se concibe posible en un ámbito irracional y
acientífico. Todavía Bergson pensaba que: "La libertad es precisamente eso: la facultad
de burlar la ciencia que está esperando la posibilidad de burlar la matemática en su
pretensión de universalidad"[197]. Pero, siendo las ciencias uno de los productos mejores
del hombre, ¿cómo es posible tener que andar escapando a ellas para poder ser humano
y libre? Además, de esa forma se dejan las ciencias al margen de la libertad y, como
consecuencia, de la ética. Toda consideración ética que se introduzca en el ámbito
científico será moralina extraña e impuesta. Las ciencias y sus tecnologías, carentes de
ética intrínseca, pueden convertirse en concepciones antinaturales y destructoras, a las
que la ecología debe sujetar para que no acaben con todo.
Otro inconveniente, que hace indeseable el alto precio pagado por la libertad, es
la separación entre naturaleza y cultura. Entre las ciencias de la naturaleza (las
Naturwissenschaften, donde vive la lógica, la racionalidad, la matemática y el
determinismo) y las del espíritu (las Geisteswissenschaften, el reino feliz de la libertad
y la creatividad, de la cultura, de las humanidades y el arte) se crea un abismo
infranqueable. Prácticamente nada tienen que ver entre sí. Lo cual produce un doble
daño: por un lado, las ciencias de la naturaleza se tornan con facilidad inhumanas y
antinaturales. Proveen tecnologías eficaces, pero que producen muchos efectos
indeseables destructivos. Hemos de inventar tecnoéticas (como la bioética) para intentar
frenar sus desmanes.
Por su parte, las ciencias humanísticas pierden el hábito de un ejercicio
metodológico preciso: dejan de estar atentas a la realidad y abandonan el pensamiento
riguroso. Se convierten en disciplinas donde es moda decir alegremente cualquier cosa,
con escasa fundamentación y poca lógica. Lo empírico nada tiene que ver con ellas:
tratan de las res cogitans, son ciencias del espíritu, ajenas al mundo material. Esa idílica
autocomplacencia entra en crisis cuando la investigación descubre que, en realidad, no
son ciencias que traten de un espíritu fantasmal, sino de una concreta criatura corpórea
a la que se pueden aplicar los métodos y las herramientas conceptuales -por otra parte
mucho mejores- de las ciencias de la naturaleza. Así la psicología se hace experimental;
la sociología venera la estadística; el amor se reduce a concentración de hormonas en
sangre; el trabajo se convierte en mercancía contable; y del conocimiento humano saben
los dedicados a la Inteligencia Artificial. Este descenso a la consideración corpórea del
hombre sería muy deseable, salvo porque con demasiada frecuencia se hace en el peor
estilo de una especialización reduccionista, que convierte el saber en un imposible
diálogo de sordos.
Para terminar con la enumeración de los más graves inconvenientes que implica
ese intento inútil de salvar la libertad, me referiré al fetiche del progreso. Ante ese tótem
tribal hemos ofrecido constantes víctimas para conseguir su benevolencia. Kant, junto
con Fichte, se inquietó por el futuro de la libertad humana, que había de moverse en un
mundo dominado por las leyes físicas. Para aplacar su intranquilidad inventó un genio
benéfico encargado de conseguir que la naturaleza jugase a favor de la libertad. Pensó
que libraba al hombre de ser una necedad atareada entregándolo en manos de la
filosofía de la historia. La idea echó a rodar y precipitó en varias creencias: El Progreso,
La Historia, El Destino Manifiesto, El Materialismo Dialéctico...
De acuerdo con ellas, la historia sigue un curso necesario. El fatum continúa
llevándonos, el destino nos guía, y la esclavitud a las leyes naturales es inevitable. Pero,
como se trata de un dios benigno, nos conduce hacia un futuro lleno de promesas: es el
mito del progreso automático y necesario. Esta es una gran devoción moderna que ha
tenido piadosos fieles, desde los iluministas del Siglo de las Luces. Todavía suscita
veneración entre muchos creyentes, a pesar de lo ajado que últimamente aparece el
ídolo. En el altar de minúsculos dioses, que prometen cielos ideológicos -las ideologías
de izquierdas o derechas se han especializado en variantes del culto al Progreso-, se han
sacrificado vidas e ideales. Tanta buena gente ha consumido sus fuerzas en adorar
vacías máscaras, tras las se ocultaba una esclavitud cruel. Pero la historia del mundo y
de la vida camina donde la conducen los pasos del hombre, que es su protagonista. La
evolución no nos guía. Podemos crear, podemos destruir. De la libertad del hombre
proviene la historia; que camina allí donde cada persona aprenda a ir junto con las
demás personas.
Libertad de acción: ¿qué es eso?
La terminación del párrafo anterior no queda mal, pero según lo visto hasta
ahora no deja de ser una afirmación voluntarista, bien intencionada pero vacía. Porque,
respecto de la inteligencia, ¿en qué consiste la libertad? El largo rodeo que he dado por
las concepciones históricamente dominantes no permite responder la pregunta de
forma satisfactoria. Por ser inteligentes, o bien nos limitamos a contemplar el mundo
para conocerlo (solución clásica), o nos inventamos mundos ideales desmaterializados
para escapar del determinismo de las leyes de la naturaleza (solución moderna). ¿Hay
alguna salida que permita entender algo mejor la libertad como una propiedad empírica
y comprobable del animal humano, que es corpóreo que se mueve en un mundo
material?
Considero que esa pregunta tiene una respuesta afirmativa: si es verdad que
podemos dominar y dirigir de algún modo nuestro sistema neuronal de tratamiento de
la información, entonces tenemos posibilidades de actuar libremente en el mundo. Si,
además, conseguimos aumentar sus posibilidades y suplir sus deficiencias con la ayuda
de otros sistemas de tratamiento de la información, como son las máquinas cognitivas,
entonces estamos en condiciones de actuar aún más libremente.
Para precisar y no perderme en las palabras, aquí llamaré libertad de la
inteligencia a la capacidad de producir nuevas ideas, signos, proyectos y formas de
pensar, que no proceden de la programación genética ni de la cultura de la manada,
sino del propio dominio y dirección del sistema neuronal de tratamiento de la
información. Según esa nueva maquinaria mental podrán darse nuevos
comportamientos para actuar sobre el entorno y para modificar el mundo.
Hago notar que hablo de dominar y dirigir el sistema neuronal, porque si la
inteligencia del animal humano quiere ser algo, no puede reducirse a una facultad
espiritual desmaterializada, ni a una res cogitans etérea que intenta establecer unas
imposibles relaciones con la res extensa. Quiero entender lo que está unido y es uno, no
hacer un pastiche en el que acabe preguntándome por una problemática unión mentecerebro. En una teoría bien hecha, que permita verdaderamente comprender algo al
hombre, "no cabe preguntar si el alma y el cuerpo son uno"[198]. Si tenemos tantas
dificultades para unir mente y cerebro, hasta el punto que sea una de las cuestiones más
debatidas entre los que cultivan las ciencias cognitivas, no es porque su unión real sea
problemática. Mi corporeidad empírica y la de las personas que trato todos los días me
hace ver que, en la realidad, el asunto se resuelve muy sencillamente. Si la cuestión se
problematiza es porque no tenemos formas de pensar que nos permitan comprender. El
traído y llevado enigma mente-cuerpo o mente-cerebro "no es más que un
pseudoproblema resultante de una doble abstracción: aquella en la que se piensa el
cuerpo humano como un mero cuerpo y la que concibe el espíritu del hombre como un
espíritu puro"[199].
Si la libertad del animal humano es más que una palabra, debe ser algo bien
materializado y corpóreo. Por ello digo que la capacidad de dirigir el sistema neuronal
debe ser algo empírico, comprobable. Por ejemplo: la terapia cognitiva, mediante la que
los psicoterapeutas intentan dar herramientas al enfermo para que consiga dirigir sus
pensamientos de una forma que no esté dislocada o desajustada. Es decir, esos médicos
suministran unas entradas simbólicas al sistema -mediante sus palabras- para que el
enfermo aprenda a dirigirlo de otra forma. Si el sistema neuronal está mal, por
enfermedad o deterioro, entonces no hay modo de que la terapia cognitiva funcione.
Pero si tiene la capacidad de entender lo que se le dice y el enfermo está en condiciones
de dirigirlo mínimamente, entonces se puede conseguir que realice otras operaciones
cognoscitivas más sanas. Igualmente sucede cuando se aprende a leer, o a calcular
números, o a pensar jurídicamente, o de forma lógica: se hace que el sistema neuronal
desarrolle unas capacidades cognoscitivas de las que carecía. Por lo mismo adquiere
nuevas capacidades de acción.
Todo el proceso educativo del animal humano corre, en su mayor parte, a cargo
de símbolos. Al contrario que los de los mamíferos superiores, los cachorros humanos
no aprenden únicamente por imitación y ejercitándose para adquirir habilidades
mediante juegos y pruebas de ensayo-error. Los introducimos en espacios cerrados, que
llamamos aulas (de guarderías, escuelas, institutos, colegios, universidades...), para
absorber una interminable riada de símbolos durante gran cantidad de años. Reciben
símbolos y, para comprobar si están preparados, se les pide que, a su vez, generen
símbolos en los exámenes. El vasto mundo real queda fuera, y se espera que esa
acumulación de símbolos les prepare para realizar una amplia panoplia de actividades
en el entorno físico y social. También reciben símbolos en el hogar, por los adultos con
que conviven, por la televisión, cuentos, películas, novelas, etc.
El animal humano, para aprender algo, para poder decir que sabe, en primer
lugar estudia. Lee símbolos en forma de manchas de tinta, denominadas letras,
depositadas sobre una superficie de color claro y homogéneo, que se llama papel y
suele agruparse en montones unidos denominados libros. De esos conjuntos de
símbolos decimos que son buenos o malos para aprender si aportan o no conocimiento,
o habilidades intelectivas.
En lo que a la inteligencia se refiere, ¿cuál es la causa de la libertad de acción del
hombre que produce novedades en el mundo? Una primera causa es esa capacidad de
manejar símbolos como símbolos, representaciones como representaciones, ideas como
ideas, proyectos como proyectos. Los demás animales superiores hacen lo que se les
pasa por la cabeza: lo que hay en su cerebro dirige su acción de manera inmediata. Si
forman parte de especies que sobreviven con éxito, lo que se les pasa por la cabeza
tiene que ver con la realidad del entorno en que se mueven.
El animal humano, por el contrario, puede considerar lo que se le pasa por la
cabeza, intentar mejorarlo, compararlo con lo que se le ocurrió a otros, estudiar las
mejores ideas que se han producido al respecto... Todo ello sin que se produzca ninguna
acción externa inmediata a toda idea que tenga en la cabeza. Luego puede actuar de la
forma que mejor le parezca en el momento que considere más oportuno. Esta capacidad
de aislar de la acción inmediata lo que se le pasa por la cabeza es fundamental para la
libertad. Podemos manejar la realidad sin que nos mueva, haciéndola irreal, como
palabras o símbolos; también considerar nuestras acciones sin realizarlas
inmediatamente, como simples proyectos que pueden o no hacerse. Es decir, que la
entradas del sistema neuronal de tratamiento de información no se conviertan
automáticamente en impulsos para el sistema neuromotor. Esa es la cualidad que nos
permite la acción libre.
El dominio de las operaciones de nuestro sistema de tratamiento de información
neuronal supone, como elemento esencial, la capacidad de elaborar ideas y demás
artilugios mentales. Ya se ha dicho que esa operación se puede llegar a hacer con
independencia de la semántica de las ideas, es decir, dejando en suspenso su
intencionalidad o su adecuación con ninguna cosa. Precisamente éste se puede decir
que es el magnífico descubrimiento de la filosofía moderna. Si el intelecto estuviera
ligado a la intencionalidad; si toda idea fuera manejable sólo para hacerla más adecuada
a una realidad externa ya existente -como quiere la más pobre interpretación de la teoría
clásica del conocimiento-; si no pudiera ser elaborada y trabajada en sí misma, al
margen de aquello a lo que pueda referirse; entonces el hombre no sería muy distinto
del animal, que, por así decir, tiene a su conocimiento totalmente "atrapado" por la
intencionalidad de los objetos mentales, y no puede considerarlos ni trabajarlos como
tales objetos mentales.
La libertad, en este caso, vendría a ser la libertad clásica, la de elección entre
realidades ya dadas, que es la que tiene el animal (en el caso de que sea posible llamar a
eso libertad). Pero no es así en el hombre, puesto que manejamos los objetos mentales,
los elaboramos y trabajamos, con independencia de su semántica. Es decir, no con
referencia a algo real externo, sino por ser simplemente objetos mentales -software- del
sistema de tratamiento de información.
Poder tratar los objetos mentales en sí mismos, como irreales más bien que como
reales, como artilugios conceptuales puros mejor que como ideas intencionales, es algo
fundamental para establecer una conceptualización adecuada de la libertad. "En todo
uso de la libertad -también en el uso práctico- lo irreal es imprescindible para la
realidad de nuestro ser"[200]. Para el conocer humano es primordial poder ponerse a
"pensar", alejándose de la realidad y trabajando únicamente con el sistema de
tratamiento de información.
Este redescubrimiento, que la filosofía moderna realiza a partir de Descartes,
resulta de una importancia enorme. En la polémica entre el realismo filosófico y los
diversos racionalismos o idealismos, conviene decir que muchas veces el realismo ha
pecado de una tremenda miopía al insistir en la intencionalidad -la referencia a la
realidad- como lo más característico del objeto mental. Olvida así que "lo irreal como
irreal tiene un valor de utilidad indiscutible, tanto para la perfección de nuestra
actividad cognoscitiva en sus funciones más puramente teóricas, cuanto para los
intereses y objetivos prácticos de la manera humana de vivir"[201]. Para la elaboración de
hipótesis y teorías, o de planes prácticos que no sigan estereotipos, el dominio del objeto
mental es condición necesaria. En particular, la actividad práctica humana requiere
especialmente de esa capacidad de trabajar el objeto sin semántica alguna, sin referencia
intrínseca y necesaria con la realidad. Para que sea libre la actividad práctica al menos
necesita: " a) la irrealidad del fin al que en cada caso está orientada la praxis; b) la
irrealidad que a la actividad práctica conviene antes de ser ejercida, pero estando ya
proyectada; c) la irrealidad de las condiciones meramente objetuales (posibilidades en
torno a las cuales gira la deliberación, por un lado, y, por otro, las reglas o normas
directivas) de la actividad práctica"[202]. Más brevemente, el hombre: "conoce la realidad
e inventa posibilidades, y ambas cosas las hace gestando y gestionando la
irrealidad"[203].
Un animal actúa movido directa e inmediatamente por los objetos que elabora su
sistema de tratamiento de información en función de las entradas externas del sistema y
de su estado interior. El hombre tiene, por el contrario, la capacidad de sustraerse a ese
comportamiento "espontáneo" de su sistema nervioso: puede prescindir de las entradas
del sistema -de la semántica- y «reflexionar», tanto sobre las entradas como sobre la
forma de tratar esa información. Los animales, dice Aristóteles: "viven por las
imaginaciones y las memorias, y participan un poco de la experiencia: mas el linaje de
los hombres lo hace por el arte y los raciocinios"[204]. De esta manera, además, el hombre
no está atado a las formalizaciones ya existentes, ni se limita a elegir entre ellas, sino
que puede elaborar formalizaciones nuevas, o establecer determinaciones que no
estaban dadas por las ya existentes.
El hombre resulta así un animal capaz de pensar y de hacer proyectos, sin estar
atado al presente que determinan las entradas del sistema, sino considerando nuevas
posibilidades. "El posible, cuya existencia actual es sólo eidética, no tiene fuerza
constitutiva. La necesidad ideal no me constriñe; así acontece en el caso de las leyes
lógicas que, si impusieran necesidad real, eliminarían toda posibilidad de error. En la
decisión libre, no es el posible el que me determina: soy yo el que me determino a
realizarlo. En el momento en que me decido, la posibilidad queda determinada según
otra forma, la forma de proyecto. Al decidirme extraigo del ámbito de los meros
posibles uno de ellos, que ya es entonces un «posible emplazado», un proyecto, el cual
adquiere una cierta inclinación hacia la existencia, una peculiar proyección hacia su
realización efectiva. Soy yo el que le confiero su peso decisivo "[205]. Al elaborar objetos
mentales, puedo determinarme haciendo que el sistema de tratamiento de información
funcione -y dirija el cuerpo- según alguno de ellos. De esta forma, ni estoy determinado,
ni floto en la indeterminación, sino que me dirijo según las determinaciones que
elaboro. No sólo elijo entre determinaciones existentes, sino que tengo la capacidad de
hacer otras, porque puedo trabajar el objeto mental en sí mismo mediante el sistema de
tratamiento de información.
Por ello conviene insistir en la bondad del descubrimiento realizado por la
filosofía moderna, a saber, la capacidad creativa respecto de los objetos que tiene el
entendimiento humano; la posibilidad de trabajar los objetos mentales en sí mismos; el
poder de abstraer no ya de esto o de lo otro, sino de toda referencia real. "La distancia
que nos separa del mundo objetivo adquiere una dimensión decisiva (...) implanta
intencionalmente al hombre en el mundo real: se sabe también él perteneciente a este
mundo y con la posibilidad de operar libremente sobre él. Puede -con sus propios
proyectos- prolongar o modificar el proyecto constitutivo de las realidades"[206].
Si se interpreta la concepción clásica del conocimiento de manera que el objeto
mental agote toda la capacidad cognoscitiva de la inteligencia, que entonces conoce
pasivamente movida sólo por la intencionalidad del objeto; si el constructo mental no es
algo que el entendimiento «tiene» como algo que ha elaborado y puede trabajar,
entonces el conocimiento humano no es muy distinto del que tienen los animales, y no
existe la libertad. De la misma manera, si el objeto está atado -y con él el entendimientoa la intencionalidad; si su dimensión fundamental es la adecuación a la realidad,
entonces tampoco la libertad es posible. Eso es lo que les pasa a los animales: no pueden
prescindir de la intencionalidad del lo que se les pasa por la cabeza -sus objetos
mentales- para trabajarlos o para elaborar objetos nuevos.
Es la lejanía y posesión respecto del objeto mental lo que permite que el hombre
sea capaz de acción libre, de añadir nuevas determinaciones a la ya existentes, o que
pueda elaborar formalizaciones nuevas, y de mayor nivel, que se añadan a las ya dadas.
"El hombre no para. Es animal de lejanías: se distancia de las cosas, de los otros y hasta
de sí mismo"[207].
La primera condición de posibilidad de la libertad, por tanto, es adquirir la
capacidad de elaborar un mundo simbólico que seamos capaces de manejar con
independencia del mundo real. Luego la acción dependerá de la bondad de ese mundo
simbólico, de su acierto, de lo manejable que sea en sí mismo, de la cantidad de realidad
que atrape... Si no pudiéramos manejar las ideas sólo como ideas, no podríamos tener
acciones libres. Estaríamos condenados a actuar siempre de acuerdo con lo que se nos
pasa por la cabeza; a pensar según la forma de discurrir que fuera más fácil y propia de
nuestro sistema neuronal; a moverme por lo que me interesa, sin capacidad para el me
intereso.
Descubrir que las ideas son sólo ideas, ni más ni menos, es fundamental para
conquistar la libertad. Son estupendas si conseguimos que lo sean; y dan de sí para lo
que las hagamos capaces, que es también para lo que nos haremos capaces. Manejarlas,
mejorarlas, trabajarlas; hacerlas más amplias, más armónicas, más profundas, más
unitarias; también más eficaces, porque sean muy adecuadas a la realidad y resulten
idóneas para construir proyectos posibles. Si nuestras ideas siempre fueran reales, por
su adecuación intencional, o si obedecieran férreas leyes lógicas que les fueran propias,
no podríamos ser libres. No es la realidad de las ideas sino su irrealidad es lo que hace
posible la acción libre. "En todo uso de la libertad -también en el uso práctico- lo irreal
es imprescindible "[208].
Los psicólogos cognitivos deberían investigar más las posibilidades reales que
tenemos de dominar y dirigir nuestras operaciones intelectivas, sin limitarse a estudiar
cómo hacemos las que ya realizamos de forma semejante a los demás animales, porque
nos harían un gran favor a todos. Eso desde las operaciones cognitivas básicas, como
son los sentidos. Por ejemplo, un piloto que se entrena en vuelo instrumental puede
comunicarle a su sentido del equilibrio que se equivoca, y conseguir hacer caso sólo al
horizonte artificial, que le ofrece una pobre línea simbólica y no la terrorífica sensación
de estar cabeza abajo: ¿cómo es posible esto? ¿Cómo se pueden inventar y ejercitar
deportes que exigen movimientos antinaturales, extraordinariamente técnicos, que para
practicarlos requieren convencer primero al cuerpo de que los haga?
Aunque, puestos a investigar, volveré a repetir una de las preguntas que más me
intrigan: ¿cómo es posible conseguir que una red neuronal -la humana- invente las
letras, los números, las ecuaciones, y todo tipo de signos y símbolos; las palabras
habladas y escritas; las ideas y las ideologías; la lógica y la racionalidad; los teoremas y
las demostraciones? Sobre todo, ¿cómo es posible que ese animal acabe creyendo que
todo eso es lo más real? ¿Porqué, para asegurar la realidad de algo, pregunta si aquello
está demostrado: es decir, si hay una sucesión de símbolos concatenados según reglas
que lleven allí? ¿Cómo puede llegar a matar y matarse por unas ideas, o una ideología,
y no por la pitanza como hacen el resto de los animales?
Sea como sea, el caso es que construimos objetos mentales y podemos
manipularlos por sí mismos. Sobre todo, hemos desarrollado el lenguaje, que es un
instrumento magnífico, precisamente porque las letras y palabras son convencionales y
no tienen nada que ver con nada, salvo con la totalidad de la estructura lingüística y con
aquello que queramos que tengan relación. Esa es nuestra mejor arma para ir más allá
de la animalidad humana inmediata. Según esos mundos simbólicos que inventamos
luego vivimos y actuamos; y de esta forma es posible la continua aportación de
novedades del animal humano, es decir, es posible la libertad de acción.
Son muchos los que han buscado un «lenguaje natural», algo así como una
matriz simbólica oculta en lo más profundo de nuestra red neuronal cerebral de la que
vinieran todos los demás lenguajes por desarrollo de variaciones complejas[209]. Me
temo que no existe tal lenguaje. Ese temor es cada vez más una seguridad, según vamos
sabiendo cómo funcionan las redes neuronales. No es lo suyo manejar símbolos. El
lenguaje es convencional, pura invención, magnífica invención humana que ha
producido una multitud riquísima de formas de comunicarse y pensar.
"Lo que caracteriza a la relación del hombre con el mundo por oposición a la de
todos los demás seres vivientes es su libertad frente al entorno. Esta libertad incluye la
constitución lingüística del mundo"[210]. "Si el lenguaje no fuera convencional, no cabría
continuar la naturaleza humana, o el hombre sería un ser natural sin cultura. La
convencionalidad del lenguaje permite que con el lenguaje construyamos un mundo, el
mundo de los símbolos. El hombre es un animal simbólico y esto radica en el lenguaje
como continuatio naturae. Ésta es la índole de la cultura (...) El hombre, en cuanto
continuador de la naturaleza, es un quasi creador. El hombre no es como el animal, que
se encontraría en el vacío si se abriera más allá de lo natural. La mejor manera de
asomarse al carácter creador del hombre es la convencionalidad lingüística, que hace al
hombre capaz de habitar un mundo no meramente natural, sino continuativamente
natural. El hombre está en este mundo cultivándolo; al cultivarlo añade, continúa el
mundo, y así aparece algo nuevo, no precontenido. Eso es la cultura y lo simbólico; ahí
es donde el hombre habita"[211].
Somos capaces de inventar símbolos, pero luego no sabemos manejarlos bien,
con precisión y exactitud; en muchas ocasiones nos pueden: no los manejamos, nos
manipulan (ellos o quienes los producen). También hemos desarrollado formas de
pensar precisas y potentes, pero que nuestra red neuronal no es capaz de seguir con
todo rigor. Por ello la ayuda de las máquinas cognitivas puede ser fundamental para
dar nuevos pasos en la marcha por conquistar más libertad. Somos cada vez más
capaces de incorporar al mundo una enorme multitud de novedades, que pueden
perfeccionar o destruir. El proceso se ha acelerado tanto que compensa reflexionar un
poco sobre la pregunta de Lenin: ¿libertad, para qué? Para hallar respuesta he de dar un
rodeo.
Termodinámica del animal humano
Según datos de los últimos estudios de campo, todavía quedan animales
humanos que se declaran materialistas. Todavía no se han enterado, por ejemplo, de
que durante muchos años la persona más rica del mundo no se dedica a nada material
tangible (hardware, es decir, lo que puedes golpear con un martillo si falla) sino a
asuntos formales intangibles (software, o aquello que sólo puedes maldecir cuando se
estropea) en una empresa denominada Microsoft. Soy de la opinión que, andando el
tiempo, habrá que establecer algunas reservas naturales para conservar esa rara especie
de creyentes en LA MATERIA; la consideran como si fuera una suerte de señora
inmensa que ha hecho todo y es la responsable de todo. Constituyen un ejemplo
paradigmático del Síndrome de Optimismo Semántico: creen en una palabra y no la
piensan, ni llegan más allá. Para entender el universo sólo admiten en su cabeza una
idea que se puso muy de moda a partir del siglo XVIII. Es un pobre software mental
para entender nada, ni siquiera la materia en la que creen. Continúan por inercia,
porque ese optimismo ha perdido base, al menos eso dijo Poincaré: "Uno de los
descubrimientos más asombrosos que los físicos hayan anunciado en los últimos años,
es el de que la materia no existe"[212].
La materia, tal como se ha entendido por la física clásica y mecanicista en los
últimos siglos, y tal como ha sido considerada en la mayor parte de la filosofía
moderna, no existe. No hay unas bolitas estables, adimensionales y consistentes, cuya
mecánica, dinámica y cinemática sea capaz de explicar todo lo corpóreo. Cuando se
buscan los últimos componentes de los cuerpos, cuando se profundiza hasta sus niveles
más ínfimos, surge un mundo incompatible con el mecanicismo determinista. "Las
partículas elementales son más bien un mundo de tendencias o posibilidades que un
mundo de cosas y hechos"[213]. Todo se transmuta en todo, nada es lo que parece. Desde
principios del siglo XX, con la relatividad y la mecánica cuántica, nunca fue la física tan
apasionante. Alcanza tales honduras que suscita continuos problemas filosóficos.
La visión mecanicista del mundo lo consideraba como un artilugio mecánico
muy grande y complejo, semejante a un gran reloj. Un gran conjunto de piezas que se
movían de acuerdo con reglas fijas: las leyes de la naturaleza. Una vez conocidas las
piezas y descubiertas sus leyes se tenía una descripción completa y acabada del gran
mecanismo para siempre jamás. Movidos por esa creencia, depositaban en los avances
científicos la esperanza de la comprensión total de universo. Era una fe con un credo
simple: La Ciencia -esa ciencia mecánica- lo explicaría todo, sin necesidad de recurrir a
nada más. Una racionalidad mecanicista y lineal sería la clave para la comprensión total
de todo. No había que buscar más porque -y esta es su creencia y su prejuicio- no había
nada más. Hasta tal punto creció la fe en la física mecanicista como única explicación
posible de cualquier fenómeno natural que Maxwell -quien, paradójicamente,
contribuiría a hacerla tambalearse con su teoría del electromagnetismo- llega a afirmar:
"Cuando un fenómeno físico puede ser descrito en su totalidad como un cambio en la
configuración y en el movimiento del sistema material, se dice que la explicación
dinámica de este fenómeno es completa. Creemos que una explicación posterior ni es
necesaria, ni posible, ni deseable"[214].
Ese paradigma se aplicaba a todas las áreas del conocimiento, porque todo se
esperaba de él. Sólo había que esperar el advenimiento de un Newton para la biología, y
los seres vivos también serían entendidos del todo como mecanismos. El mismo hombre
no escaparía en modo alguno a la potencia cognoscitiva que se atribuía a la visión
mecanicista, también tendría su Newton. Algunos piensan que ya lo ha tenido: se llama
Freud. Su mecanicismo psicológico reduce el psiquismo a tres elementos (id, ego y
super ego) relacionados entre sí extrínsecamente por una fuerza fundamental: eros, la
libido o el principio del placer (la «fuerza de la gravedad» del mecanicismo
psicoanalista a la que se puede añadir una contrafuerza destructiva: thánatos).
Por la inercia de ideas que sufrimos los animales humanos, ya que raramente nos
paramos a pensar cómo pensamos, ese modelo mental todavía está presente en muchas
de nuestras formas de pensar: es una paradigma que ha dejado una profunda huella.
Por desgracia también establece nuestro modo de interactuar con la naturaleza, pues
actuamos según nuestras ideas.
Todavía no acabamos de enterarnos de que esa forma de pensar debe ser
abandonada, porque los hallazgos de las mismas ciencias la han descalificado. "Lo que
caracteriza a las grandes doctrinas nuevas de la física contemporánea, llámese teoría de
la relatividad o teoría cuántica, es un inmenso esfuerzo por ampliar los marcos de
pensamiento, por librarse de las concepciones a priori a que no quieren plegarse los
fenómenos naturales"[215]. El mecanicismo sufrió diversas rupturas, al mostrar sus
limitaciones en muchos campos: sistemas complejos, mecánica estadística, cuántica,
caos determinista, entropía, sistemas abiertos, procesos alejados del equilibrio,
cibernética, teoría de sistemas, información... En los cuerpos y en los procesos físicos
había mucho más de lo que la estrecha visión mecanicista permitía ver. Más aún en los
seres vivos.
En la naturaleza no reina la única causalidad eficiente del mecanicismo
determinista. La materia no sólo no lo permite, sino que más bien reclama otras
causalidades que vengan en su ayuda para dar cuenta de una realidad corpórea que es
incapaz de generar por sí misma. La materia-energía ha resultado ser el reino de la
indeterminación que, además, es incapaz de determinarse a sí misma. Las
determinaciones vienen del entorno que colapsa la función de ondas cuántica; del orden
en el que se inserta; del sistema en el que se incluye; o incluso de lo que hace el
investigador al medir. La mecánica cuántica recupera la idea clásica de la
indeterminación, condición necesaria de la libertad real. Pero ahora sabemos mucho
más acerca de esa indeterminación. También vamos teniendo una idea mucho más
precisa acerca de qué determinaciones y formalizaciones son posibles a partir de ella.
"La Física, es decir, la ciencia de la materia inerte, parecía hasta ahora la ciudadela del
determinismo y hasta los adversarios de esta doctrina parecían dispuestos a abandonar
a ella por completo este dominio. Y, sin embargo, las teorías más recientes que los
físicos han tenido que adoptar, casi a pesar suyo, para explicar los hechos
experimentales, tienden no ya a renunciar enteramente al determinismo en física (he
dicho ya que la existencia misma de una ciencia física no lo permite), sino a no
considerarlo como riguroso y universal, a imponerle límites"[216].
Estamos empezando a comprender esa indeterminación que es posibilidad de ser
determinada de varias formas. Se están desarrollando las herramientas conceptuales
necesarias para entender cómo los electrones -que forman parte de los átomos, de las
moléculas, de las células, de mis dedos- pueden ser dirigidos contra los electrones -de
los átomos, de las moléculas, de las teclas- del ordenador para que resulten las palabras
que escribo. Es decir, cómo mis pensamientos establecen las posiciones de unos
electrones. Para entender los cuerpos que no son un mero agregado, las nuevas palabras
clave son: estructura, simetría, orden, información, sistema, cibernética,
autoorganización, propiedades emergentes, jerarquía, relación, isomorfía...
"Las consideraciones modernas, que han efectuado una ampliación y unificación
tan poderosa del objeto de las ciencias, se liberaron de la vinculación con conceptos
como «número» y «magnitud», y destacaron, en cambio, cada vez más la trascendencia
de las nociones de forma y estructura"[217]. Comenzamos a comprender cómo se pueden
formar cuerpos que exhiben propiedades inexplicables desde la simple suma de sus
partes. ¿Quién podría admitir en el Siglo XVIII que, con la Inteligencia Artificial,
llegaríamos a unir la res cogitans con la res extensa sin necesidad de los malabarismos
conceptuales imposibles a los que se entregaron los filósofos posteriores a Descartes?
¿Quién iba a creer que de la arena silícea sacaríamos máquinas racionales? ¿Cuándo
compro un ordenador, qué pago: el silicio, o el orden con el que está dispuesto? La
visión simplista de la mecánica materialista se nos ha quedado miope.
Sabemos también que, frente al orden, la indeterminación intrínseca de la
materia siempre permanece como una amenaza, como una tendencia al desorden,
perpetuamente inclinada hacia el desbarajuste entrópico. La materia no lleva, por sí
misma, a ningún progreso automático, sino a la muerte térmica del universo, a la
entropía máxima del estado de equilibrio definitivo. Ese es todo el posible progreso
material; ese es el cielo al que puede aspirar quien quiera ser sólo materialista. El
mundo conceptual del mecanicismo determinista debe ser abandonado, sobre todo el
simplismo de su creencia materialista en un progreso continuo. El mundo de la materiaenergía no conspira para producir un progreso creciente, sino que, muy al contrario, es
fuente constante de degradación, de uniformidad y de muerte: la entropía siempre
crece. Los cuerpos son algo más que la sola materia-energía. Los seres vivos son mucho
más: son materia ordenada, estructurada, unificada sistémicamente según una rica y
compleja información genética, que se copia y transmite. Sobreviven en una lucha
constante contra lo que de sólo material hay en ellos, para mantener su orden sistémico
contra el que la materia-energía conspira en su continuo degradarse.
Hablamos de consumo de energía, o de fuentes y suministros de energía. Es una
forma incorrecta de hablar, propia de la primera revolución industrial, que ha quedado
vieja y puede llevar a confusiones. Son formas de decir, y de pensar, desacertadas, que
proceden de una obsoleta visión mecanicista del mundo: de motores, palancas y fuerza
bruta. La verdad es que no conocemos ningún proceso que consuma energía. No la
producimos ni destruimos: se conserva en todos los fenómenos que hasta ahora hemos
estudiado. La energía ni se crea ni se destruye, sólo se transforma. Lo que consumimos
no es energía, sino orden, o información. Tomamos una energía muy estructurada y rica
en orden, y la devolvemos en idéntica cantidad, pero degradada y entrópica.
Contaminamos porque degradamos energía, porque acrecentamos la entropía. Hay
procesos cuyo balance entrópico es grande, y otros en los que es mucho menor. Los
procesos mecánicos que hemos desarrollado, y con los que actuamos en el entorno,
tienen una notable desventaja: consumen mucho orden, degradan cantidades inmensas
de información. Si aprendiésemos otras formas de pensar, podríamos proyectar formas
de vivir poco entrópicas.
Lo mejor de todo es que la misma investigación científica, a medida que conoce
mejor los fenómenos naturales, está forzando nuevas maneras de pensarlos. Hay
nociones nuevas que piden ser protagonistas. Así la información es un concepto en alza.
Cada vez entendemos mejor que lo más característico de los cuerpos físicos es el orden,
la estructura, la información. Todos constan de los mismos elementos, lo que lo
distingue es que se organizan según una disposición distinta. Negroponte, uno de los
gurús de la revolución informática desde la revista Wired, nos propone dejar de pensar
en transportar átomos, para comenzar a pensar en términos de transmitir información.
Para trasladar un cuerpo de una parte a otra se puede hacer transportándolo completo,
es decir, trasladando los átomos. También es posible conseguir lo mismo transmitiendo
bits de información, que permitan reconstruir el objeto físico en otra parte con materia
local. Esto supone un cambio radical en la forma de pensar: comenzar a entender los
cuerpos físicos caracterizándolos más por la información que por los elementos
materiales que los constituyen.
Para los seres vivos ya no consideramos que estén hechos de una materia
especial, ni hablamos de que tengan una particular energía vital. Ahora nos referimos a
la información genética: el plan ordenado que los hace sistemas organizados y
complejos a partir de partículas y átomos comunes y corrientes. Es esa información
capaz de automantenerse la responsable última de que sean capaces de vencer a la
degeneración entrópica de los intercambios energéticos. Ya no necesitamos una materia
viva especial para entender los seres vivos, como proponía el vitalismo. El vitalismo
surge, precisamente, como una forma nueva de dualismo respecto de la vida al
percibirse cada vez con mayor claridad las limitaciones del mecanicismo determinista
clásico. Se extiende con fuerza en el siglo XIX y da lugar a diversas construcciones
filosóficas. De él deriva una mentalidad respecto de los organismos vivientes que
todavía está presente en muchos que consideran la materia viviente como especial y
misteriosa, inaccesible a la comprensión humana y alejada de su dominio.
Esta mentalidad, curiosamente, se da en bastantes creyentes materialistas, que
intentan, a la vez y con total incongruencia, ser ecologistas. Con la misma devoción que
hablan LA MATERIA reeditan el vitalismo al referirse con tonos casi místicos a LA
VIDA y LA NATURALEZA; o se refieren a una etérea FUERZA CÓSMICA, de la que
vendría la energía vital. Quieren ser ecologistas por el procedimiento de "idear el
expediente de un «principio vital» interpretado como una «fuerza específica». La
actividad de los seres vivientes sería el resultado de una «fuerza» específicamente
distinta de las mecánicas (gravitación, calor, afinidad, etc.), y, por lo tanto, irreductible a
ellas, pero situada, en tanto que fuerza, en el mismo plano de la realidad. La idea de
interpretar como «fuerza» y no como «forma», en sentido aristotélico, el «principio
vital», es el imperdonable error metafísico del conservadurismo vitalista" [218]. Póngase
conservacionismo en vez de conservadurismo y saldrá la imagen del actual vitalismo
reeditado por algún ecologismo bienintencionado pero poco inteligente.
Con esa mentalidad, la aparición de las tecnologías de la vida, propiciadas por la
bioquímica y la genética, está produciendo pánico. Si se pueden fabricar seres vivos, si
ya se han patentado partes del código genético y también algunos organismos; entonces
nos hemos quedado sin mística de LA VIDA, no hay más «fuerzas cósmicas» que las
que estudia la física. Sin embargo, todo esto no es ninguna tragedia, sólo indica que
hemos de desarrollar otra forma de pensar si queremos entender los seres vivos. Y cual
sea una forma de pensar mucho más adecuada para comprender en este caso es algo
que ya estudió alguien que caviló profundamente sobre las formas de pensar: me
refiero a Aristóteles. En definitiva, por muchas vías y de muchas maneras el estudio de
la naturaleza nos está forzando a repensar lo que Aristóteles denominó causalidad
formal. Sin ella, la eficiencia mecánica queda como simple fuerza bruta, se le llame vital,
cósmica o como se quiera.
"Si hiciéramos una revisión de la evolución desde la perspectiva filosófica,
veríamos que se puede admitir que el código genético es una causa formal (...) Y la
informática es también una teoría de la causa formal. Y como se aplica a cosas
materiales, es una teoría hilemórfica, o sea, completamente aristotélica"[219]. Sin darnos
ni cuenta, forzados por lo que averiguamos y hacemos, somos paulatinamente llevados
por los caminos conceptuales que exploró el viejo Aristóteles. "En su significación
abstracta, el código genético es una estructura, una forma, con valor regulador de
procesos vitales, función que desempeña especialmente duplicándose. Con este orden
de consideraciones nos ha familiarizado no sólo la biología, sino también la teoría de la
información. Sin embargo, es Aristóteles el primero que formuló este tema con su
famosa, y a veces olvidada por los biólogos, noción de causa formal"[220]Entender y
pensar en términos de causalidad formal permite comprender no ya la complejidad en
bruto, sino la complejidad ordenada, estructurada, dotada de gran información y, por
eso mismo, inteligible; propiedad que no tendría si fuera caótica y desordenada.
Siendo inteligible la vida biológica, podemos comprenderla y, también por eso
mismo, fabricarla. Esta idea escandaliza ahora, pero no escandalizaba en absoluto a
quienes discurrieron sobre los seres vivos según aquella manera de pensar sugerida por
Aristóteles. Como curiosidad histórica traeré aquí la opinión de Tomás de Aquino:
"Nada impide hacer artificialmente algo cuya forma no sea accidente, sino substancia:
así se pueden hacer artificialmente ranas y serpientes"[221]. Y si considera que se pueden
hacer es precisamente porque sus elementos constituyentes tienen una disposición
ordenada e inteligible, no anárquica o accidental. Los elementos de los seres corpóreos
complejos se disponen según órdenes crecientes de complejidad estructurada. "Pues
aunque la materia prima esté en potencia para todas las formas, sin embargo las recibe
con orden. En primer término está en potencia hacia las formas más elementales, y
mediante ellas, según diversas modalidades de combinación, está en potencia para el
resto de las formas"[222]. Quizá la terminología, por desuso, pueda sonar extraña. Pero
estamos siendo forzados a pensar de ese modo, según un orden formal creciente:
energía, partículas, átomos, moléculas, células, organismos. Es decir, no fuerzas vitales
o cósmicas distintas, sino órdenes sucesivos de complejidad cada vez más estructurada,
desde la formas más elementales a las más complejas.
En tiempos de Tomás de Aquino, el siglo XIII, aunque se pensase como algo
posible, de hecho no se podía fabricar ningún ser vivo. Ahora tampoco sería ni siquiera
planteable sin la ayuda de las máquinas racionales. Por ejemplo: en los laboratorios
donde se investiga el genoma se utilizan máquinas investigadoras que tienen
capacidades que nosotros jamás tendremos. Mezclan, supervisan reacciones, separan,
analizan, muestrean, comparan... todo a unas velocidades imposibles para nosotros. El
código genético no ya del hombre, sino de la diminuta Escherichia coli lo sabemos
gracias a ellas; lo recordaremos también gracias a ellas (por lo menos yo, que tengo
mala memoria); podremos compararlos con el de otros organismos también porque
ellas lo harán; y, si alguna vez se le ocurre a alguien sintetizar una de esas bacterias, lo
conseguirá con máquinas cognitivas y robots. Su cabeza y sus manos servirán de poco
en esa tarea. En este ámbito la palabra de moda es bioinformática.
Pero quizá voy demasiado deprisa. He de volver a lo que la investigación sobre
la materia va revelando. Por lo que ahora sabemos, las acciones cuyo responsable
último es la materia -o la energía, tanto da desde Einstein- son indeterminadas y
tienden al desorden entrópico. Hasta el vacío cuántico es un rebullir imparable de
partículas virtuales. Toda esa variedad no para nunca si no es fijada, si no es
determinada por algo más que la sola energía. Lo primero que la ordena, haciéndola ser
algo concreto y no cualquier cosa, son las determinaciones cuánticas. Ellas son las
responsables de la primera corporeidad física: partículas, átomos, moléculas. Es el
primer nivel de orden, que establece diversas estructuras estables. También suministra
la primera dirección al cambio indeterminado, a la constante metamorfosis caótica de la
energía. Por él adquiere la materia diversas propiedades y funcionalidades nuevas y
concretas. No obstante, la energía-materia continúa siendo la que era: sigue
produciendo cambios constantes. Que siempre se dirigen a anular el orden y provocan
el crecimiento de la entropía. Ni siquiera del protón, partícula estable donde las haya,
estamos seguros de su permanencia.
Aquí resulta pertinente que refiera una sugerencia de Heisenberg: "Al comparar
nuestra situación con los conceptos de materia y forma en Aristóteles, se puede decir
que la materia de Aristóteles, que esencialmente es «potencia», es decir, posibilidad,
debería compararse con nuestro concepto de energía"[223]. Según la física actual todo se
hace de energía, que siempre cambia y siempre se conserva; pero, ¿qué es la energía?
"En cada caso particular se ve bien lo que es la energía y se puede dar de ella una
definición por lo menos provisional, pero es imposible encontrar una definición general.
Si se quiere enunciar el principio (de conservación de la energía) en toda su generalidad
y aplicándolo al Universo, se le ve desvanecerse por así decirlo, y no queda más que
esto: hay algo que permanece constante (...) La ley de conservación de la energía sólo
puede tener un significado: el de que hay una propiedad común a todos los posibles,
pero en la hipótesis determinista sólo hay un posible, y entonces la ley ya no tiene
sentido"[224].
La energía aparece, por tanto, como el marco de lo posible, de lo potencial. Es
equiparable a una indeterminación disponible para ser determinada, pero sin que esa
determinación consiga quitarle del todo el pelo de la dehesa indeterminista y entrópica.
Los físicos profetizan que al final se alzará con la victoria y eliminará todas las
determinaciones, produciendo un universo indistinto, plenamente muerto, de máxima
entropía. Será la muerte térmica del universo: una sopa de energía uniforme e
indistinta, toda igual y a la misma temperatura por todas partes. Sin embargo, a pesar
del nefasto vaticinio, prosigue la batalla entre orden y entropía.
Los seres vivos constituyen un grado mayor de orden, una gran victoria sobre la
degradación entrópica. En ellos, por la información genética, se consigue ordenar más
intensamente la materia. Sobre el orden corpóreo anterior -de partículas, átomos y
moléculas-, se alcanzan nuevas propiedades y funcionalidades. Con la vida, el salto
cualitativo de nivel de orden es muy notorio; las determinaciones que produce tienen
una gran riqueza, variedad y perfección. No obstante, también aquí la materia-energía
conserva sus tendencias propias hacia el desorden.
La vida de cualquier organismo es una continua pelea por mantener el orden
interno en medio de la tendencia indistinta e informe que quiere imponer la materia. Se
instala en un desequilibrio de sistema abierto, en constante lucha por sobrevivir.
Camina por el filo del caos, para vencer a los mínimos energéticos y equilibrios
termodinámicos a los que le lleva la materia-energía. Lo consigue por medio de
diversos mecanismos, que consumen orden del entorno. Lo mantiene en su interior,
contra el desorden de la materia que lo constituye, a costa de aumentarlo a su
alrededor. Al final la tendencia indeterminista de la materia le acaba pudiendo, y
muere. Aunque el orden no es del todo vencido, pues los seres vivos, con la
reproducción, han desarrollado un sistema para copiar, multiplicar y conservar la
información. Este sistema genético, aunque no es independiente de la materia entrópica,
depende en menor grado de ella: sobre un soporte material -el ADN- transmite
información. Tiene un menor gasto entrópico de desorden para la especie que se
perpetúa. Los procesos de tratamiento de información en los que interviene el ADN se
acercan en rendimiento al orden de magnitud permitido por el segundo principio de la
termodinámica: 2x1019 por joule, frente al límite teórico de 34x1019; muy por encima de
lo que alcanzamos con los ordenadores (del orden de 109 por joule).
En la lucha contra la entropía, un escalón superior lo establece el conocimiento
animal: el sistema de tratamiento de información que la trata como tal, con mucha
independencia de la base material. La plasticidad neuronal permite que el sistema
nervioso sirva para informaciones distintas. La red neuronal es la que trata y almacena
la información, no los cromosomas de las neuronas. En los genes, una sucesión de
moléculas codifica un tipo de información concreta; en la red neuronal, la misma base
molecular trabaja informaciones diferentes. Aquí el orden, aunque tratado y producido
por un órgano material, consigue niveles bastante desmaterializados de formalización y
funcionalidades nuevas. El balance entrópico del gasto que origina mantener este orden
es menor. Por ello, aunque la materia siga venciendo con su desorden en lo que
depende de ella, puede producirse y transmitirse un orden mayor que permanece y se
conserva, por la mayor adaptabilidad.
Hasta aquí la evolución natural. El hombre, en tanto que es un animal, también
está incluido. Es un elemento más de la gigantesca y larga cadena que forma la lucha
termodinámica entre orden y desorden a la que llamamos evolución; y cuyas entretelas
desconocemos en muy alto grado. El darwinismo ofrece un relato bastante bueno de la
batalla entre orden y desorden para los seres vivos. Indica, por otra parte, que los
vencedores son, en medio de una circunstancias azarosas e indeterminadas que se
oponen al orden de la vida, los que vencen al caos en dura competencia. Pero dice muy
poco acerca de cómo -con qué armas internas- lo vencen. Lo señaló Nietzsche, un
amante del caos dionisiaco: "La influencia de las circunstancias externas está exagerada
en Darwin hasta el sinsentido; lo esencial en el proceso vivo es precisamente la
tremenda fuerza que da forma de dentro a fuera y que aprovecha, explota, las
circunstancias externas"[225]. Por ello el darwinismo es una relato demasiado externo e
insatisfactorio de un proceso en el que estamos involucrados íntimamente.
Con el hombre la evolución toma un sesgo nuevo, que modifica totalmente el
panorama. Lo diré con una larga cita: "Hay especies animales surgidas por adaptación
al medio. La adaptación comporta que los individuos son tales en función de la especie,
es decir, que su viabilidad depende de ella y, por tanto, que se subordinan por entero a
ella. Hay otra estrategia evolutiva distinta de la adaptación al medio. En este caso la
evolución no es morfológica, sino que desemboca en la modificación del medio a través
de alguna actividad técnica. Es el homo habilis (según la terminología que usan los
antropólogos); homo habilis es el ser vivo que en vez de adaptarse al medio adapta el
medio a él.
"Después del homo habilis aparece el homo sapiens, es decir, el hombre como
animal racional. Es evidente que piensa el que proyecta su trabajo: para proyectar hace
falta pensar. Pensar significa suspender la relación factiva y quedarse ante algo que está
exclusivamente delante. Ello es una interrupción tajante de la acción, desde la cual se
vuelve a reanudar la acción, pero inventivamente. Con esto el conocimiento se ha hecho
hegemónico respecto del hacer. El homo sapiens no es meramente habilis. Es aquel
cuya habilidad está dominada por el pensar; por lo tanto es el hiperhabilis (...) En el
momento en que aparece el sapiens ya no se puede decir que el individuo esté al
servicio de la especie, porque el individuo es el único capaz de pensar (la especie no
piensa)"[226].
El animal humano hace tiempo que ha dejado de adaptarse al entorno, porque lo
modifica según sus necesidades, conveniencias o caprichos. La inteligencia introduce un
factor inédito en el proceso de selección que funciona para los demás animales. Es una
fuente inmensa de potencialidades, de acciones con efectos insospechados, de
comportamientos alejados de la supervivencia animal, de modificaciones espectaculares
en lo que nos rodea. La simple supervivencia de la especie humana es una meta que
queda muy por debajo de nuestras capacidades.
El hombre es el primer animal que puede hacerse cargo del orden y perfección de
los seres vivos: el de cada especie, y el de todas ellas interactuando. También es el único
que puede captar y procurar entender cualquier otro orden formal que haya en el
universo. Además, puede elaborar nuevas modalidades de orden, nuevos tipos de
relaciones e interacciones, y órdenes inéditos, originales y crecientes. La capacidad de
elaborar objetos nuevos a partir de los existentes permite al hombre realizar una suerte
de «evolución consciente», de perfeccionamiento conocido y querido del mundo. Esta
potencialidad, si se aprende a utilizar convenientemente, hace al hombre capaz de
convertirse en el perfeccionador y mejorador del universo.
Uno de los mejores aspectos del legado de la modernidad consiste precisamente
en haber alterado, con acierto, la concepción clásica del saber y de la acción humana.
Entre los siglos XV y XVIII se produce el "abandono de la concepción de la ciencia como
desinteresada contemplación de la verdad"[227]. Se subraya el carácter activo del conocer,
tanto en la misma operación cognoscitiva, como respecto de las capacidades prácticas
que todo saber implica. De esta manera queda eliminada, en gran parte, la distinción
aristotélica entre conocimiento especulativo y práctico: el saber especulativo es, siempre
y a la vez, práctico. Todo conocimiento de la naturaleza supone alcanzar un poder -y
una responsabilidad, como ahora sabemos- sobre ella. Al mismo tiempo se llega a una
"nueva consideración del trabajo, de la función del saber técnico, del significado que
tienen los procesos artificiales de alteración y modificación de la naturaleza"[228]. Las
actividades artísticas, técnicas y prácticas humanas, que en la concepción aristotélicotomista eran consideradas de una manera muy secundaria, adquieren una relevancia
fundamental.
Como consecuencia, nuestra comprensión del papel del hombre en el mundo, y
su relación con la naturaleza, se modifica substancialmente; deja de ser pasivo para
convertirse en sumamente activo. El hombre, de manera paulatina, deja de depender de
la naturaleza para convertirse en su dominador. Esto, en principio, no es nada malo;
incluso podemos conseguir que sea algo bueno. Es un viejo ideal, mantenido por la
tradición cultural judeo-cristiana, que quizá valga la pena renovar: es tarea del hombre
cuidar y cultivar, conservar y perfeccionar el mundo[229]. Puede decirse que "la
modernidad da la correcta interpretación -y la interpretación cristiana- de la ciencia (...)
El saber antiguo y medieval se había equivocado al convertir en objeto de
contemplación lo que es objeto de dominación. No tenemos que contemplar el mundo:
hemos de transformarlo. Necesitamos pues un saber que pueda lograr eso, y ese saber
será la ciencia nueva"[230].
El único problema es que ese magnífico descubrimiento ha llevado, con un torpe
e irresponsable entusiasmo adolescente, a dejar de lado los deberes que ese poder
implica: el lugar del hombre en el mundo es onus et honor. Su poder ha llegado hasta
un punto en que toda la naturaleza llega a depender de él. Esta dependencia de la
naturaleza respecto de nuestras actividades es cada vez más evidente. Por ello, aquella
adolescente irresponsabilidad debe ser abandonada, sin dejar a un lado lo que tiene de
espléndida conquista. La mera eficacia mecánica, desgajada de una finalidad perfectiva,
es poco humana y escasamente inteligente. Es más humana una libertad creadora, que
no sólo genera la novedad, sino que también procura ser lo suficientemente inteligente
como para valorar si perfecciona o degradada. Somos naturaleza, y estamos llamados a
ser sus continuadores y perfeccionadores: este es el sentido y el ámbito de nuestra
libertad respecto del mundo.
¿Qué podemos hacer en medio del transcurso evolutivo? Si hemos de creer a
Hegel, o a los historicismos y determinismos cientifistas y a los creyentes en el progreso
automático, en ese proceso tenemos poco qué hacer, salvo conocerlo y constatarlo. La
inteligencia humana se limitaría a ser algo así como una conciencia de la evolución, una
capacidad de caer en la cuenta del proceso, y tomar nota de él. El papel del hombre
sería el de un notario cósmico, interesado por todo lo que existe y capaz de percibir
todo orden: contempla el drama entrópico y levanta acta, pero no interviene en la
batalla que libra el orden a la desesperada. Por su parte, la teoría clásica de la
inteligencia tampoco ofrece salidas. Pone el máximo cognoscitivo en la actitud
contemplativa ante el mundo. Todo lo que permite ambicionar es hacerse con una
butaca de primera fila para conocer de cerca el espectáculo dramático.
Algunos científicos expresan opiniones que manifiestan también una actitud
pasiva. Consideran que el animal humano es un producto de LA EVOLUCIÓN, que
sigue su curso. Es algo en lo que no podemos hacer nada. Nos ha pasado que hemos
surgido por efecto de la evolución. También nos pasa que, evolucionando por ser
gráciles, andar sobre los pies y tener manos, somos inteligentes y hemos inventado las
máquinas racionales. Por último nos pasará que ellas nos sucederán como el siguiente
escalón que sube LA EVOLUCIÓN, proteica y multiforme, gran señora de todo cambio
y de todo lo que pasa. Pero todo es algo que nos pasa, nosotros no podemos hacer nada,
ni somos responsables de nada. No somos actores, ni mucho menos protagonistas de
nuestros pensamientos ni de nuestros actos. No hace falta pararse a pensar ni esforzarse
en comprender nada, LA EVOLUCIÓN se encarga de todo.
También podemos dejarnos llevar por la visión de la inteligencia humana común
a las ciencias y tecnologías desde la revolución industrial. Este paradigma presenta la
acción humana en el mundo orientada a la obtención de provecho, de comodidades y
ventajas. En ella el animal humano es un superdepredador: su inteligencia le capacita
para explotar el medio, para vencer a las demás especies en la pugna por la
supervivencia. La inteligencia es el gran paso evolutivo que nos convierte en la especie
dominante, pero a costa de las demás. Sin embargo, el orgulloso dominio solitario del
depredador es también su propia ruina: al acabar con todos hace inviable su
supervivencia.
Las deficiencias del paradigma mecanicista para entender los seres vivos pueden
ser ilustradas con el monstruo fabricado por Frankenstein. Era un montaje de piezas
tomadas de cadáveres que requería la inmensa energía de una gran tormenta eléctrica
para poner el mecanismo en marcha. Aquel ser era como un reloj de piezas
ensambladas que se mueve por una energía externa. Es muy distinto de los seres vivos
que ahora conocemos: gran cantidad de información bien estructurada que dispone
ordenadamente muchísimos elementos mínimos. Frankenstein es modelo de esa forma
de pensar lineal, monorraíl, del mecanicismo, que actúa por la fuerza bruta en unos
pocos elementos entendidos como piezas de un mecanismo. Es una forma de pensar y
actuar que provoca multitud de efectos indeseables: uso masivo de antibióticos que
producen enfermedades multirresistentes; insecticidas y plaguicidas en cantidades cada
vez mayores, que matan pocos insectos y lo envenenan todo; herbicidas que destruyen
mucho más de lo que es posible controlar; sistemas de cultivo y de explotación
ganadera que se vuelven inviables a la larga por la excesiva degradación que
comportan; pérdida de riqueza biológica por monocultivos agresores de la variedad de
especies; contaminación y degradación del medio por el uso en bruto de la energía... No
entender la diversidad, la complejidad estructurada y armónica, el orden que integra y
unifica; nos condena a ser constantes aprendices de brujos, siempre sorprendidos por la
magnitud de los desastres que provocamos.
Si embargo, ¿es eso todo lo que cabe esperar de la inteligencia humana? Si así
fuera, la conciencia ecológica no podría pasar de un evanescente sentimentalismo
ambientalista. Dando la acción humana por perdida, habríamos de buscar consuelo
cercando parques naturales, donde el dañino animal humano tenga restringida la
entrada. Pero tampoco esa es una salida a largo plazo. Cercar espacios y declararlos
naturales es otra forma de inmiscuirse en la naturaleza. Realizar acciones que
consideramos conservativas -con una idea fosilizadora y estática, ajena al dinámico
proceso evolutivo y más propia de cementerio o de industria frigorífica- no deja de ser
una intervención. Habríamos de limitarnos a ser un coro de plañideras que lloran el
orden y la perfección perdidas en un mar de contaminante degeneración entrópica. O
convertirnos en fanáticos fundamentalistas ecológicos, que eliminaran por la fuerza a
todos los animales humanos para luego inmolarse en un suicidio colectivo, porque
creyeran que las acciones del hombre siempre son nefastas, y esa especie debe
desaparecer para salvar los demás seres vivos. Así las cosas, ¿he de apuntarme al club
No Kidding, o sería mejor darme de alta en el Voluntary Human Extinction
Movement, cuyo lema es «que podamos vivir mucho y extinguirnos»? Pero entonces,
¿es algo vacío aquella osadía de la conciencia ecológica al reclamar para sí la
responsabilidad sobre el mundo? ¿Hay alguna posibilidad de que la acción humana no
sea nociva? ¿Podemos aportar algo, o todo lo que cabe esperar de nosotros es
destrucción?
Ecología inteligente
Todas las vueltas que he dado quieren poner las bases para la siguiente tesis: Si
nos empeñamos en vivir y actuar inteligentemente, podemos ser una suerte para el
mundo que habitamos. El afán de novedades del animal humano, si se encamina
inteligentemente, puede convertirnos no ya en conservadores del mundo, sino en sus
perfeccionadores. Para alcanzar este fin, las máquinas cognitivas y la Inteligencia
Artificial proveen unos medios espléndidos que hemos de aprender a utilizar. Con ellas
el aprendiz de brujo ha dado con nuevas fórmulas mágicas que acrecientan su poder;
esperemos que aprenda a saber lo que hace. Son unos magníficos ayudantes, pero la
responsabilidad y la tarea de desarrollar nuevas formas de pensar corre a nuestro cargo.
La producción de novedades estrictas, aportadas por la libre inteligencia
humana, modifica totalmente el panorama evolutivo, para bien o para mal. El hombre
no se limita a ser espectador del drama, es actor estrechamente involucrado en la
tragedia. No ya en tanto que animal, sino en tanto que hombre es parte esencial de la
batalla. Sobre todo si no echamos en saco roto la conciencia ecológica, ni la dejamos en
una neblina bienintencionada, sino que la transformamos en comportamiento
inteligente. Por la creación de novedades, el hombre es capaz de engendrar orden, de
ponerlo, de acrecentarlo. Además, ha conseguido sistemas nuevos de producirlo,
transmitirlo y mantenerlo que tienen muy bajo balance entrópico. Puede ser ordenador
del universo, no en el sentido de que trate información, sino porque es apto para
producir y crear orden. Tiene el poder de originar determinaciones, formalizaciones y
funcionalidades nuevas que pongan más orden en la materia-energía y la hagan capaz
de llegar a más, evitando en mucho mayor grado la degeneración entrópica.
Por lo que hasta ahora sabemos, aunque es posible disminuirla en alto grado, no
cabe eliminar completamente esa degeneración entrópica. Se han descubierto formas de
aumentar y transmitir el orden cuyo balance entrópico es cada vez más bajo. Requieren
intercambios mínimos de la energía que se degenera: es la importancia creciente de la
información más que de la energía. Ahora bien, la progresiva disminución no significa
que pueda llegar a anularse. No se conoce proceso alguno en el que no se intercambie
energía, por muy pequeña que sea, por lo que la entropía siempre crecerá, salvo que se
encuentren vías de escape ahora desconocidas. Sólo algunas actividades humanas,
como el lenguaje, aportan más orden del que consumen en las reacciones bioquímicas
neuronales. Por ahora, este campo de mediciones y estudios es incipiente y, por
desgracia, bastante marginal. Pero es un conocimiento y unas formas de pensar que
urge adquirir.
Este tipo de acciones humanas exceden las tendencias conservativas pensadas en
la física clásica, que sólo entiende los procesos que tienden a un equilibrio de mínimos y
conducen a situaciones de entropía máxima. Bien aprovechadas, también alcanzan a
superar el "egoísmo entrópico" del animal preocupado tan sólo por la conservación y
transmisión de su propio orden sistémico. La acción verdaderamente humana, porque
llegue a ser inteligente, debe dirigirse a la producción de orden, a la progresiva
edificación del cosmos frente al caos. No sólo conservar orden, sino ponerlo, crearlo. Es
el mayor triunfo sobre la indeterminación de la materia-energía que conocemos.
Para conseguir este objetivo debemos abandonar algunos paradigmas mentales
heredados y aprender a pensar algunos temas viejos de manera nueva. Comenzaré
exponiendo algunas formas de pensar que conviene abandonar cuanto antes. Por
ejemplo, buena cosa sería declarar obsoletos todos los artilugios conceptuales que
introduzcan mecanicismos deterministas en las ideas. Los físicos han abandonado en
este siglo la querencia de pensar que la física clásica es LA EXPLICACIÓN que permite
entender totalmente el universo. Pero no pocos siguen pensando que se encontrará otra
teoría que será LA EXPLICACIÓN, esta vez definitiva. Olvidan que a toda teoría física
de la materia, en la medida que consiga expresarse mediante fórmulas matemáticas, le
afectan los teoremas de limitación de los formalismos. Por tanto se le escaparán muchas
verdades, y no podrá asegurar su completitud ni su coherencia interna. No hay una
teoría matemática de TODO, en la que toda verdad sea demostrable en el formalismo.
En esto conviene hacer caso a los propios matemáticos y aprender otras formas de
pensar.
Siguiendo el obsoleto y conceptualmente totalitario paradigma de la física
determinista se han elaborado ideas semejantes para otras ciencias: genética (la
sociobiología es una buena muestra), ecología, historia, psicoanálisis, sociología,
conductismo y otras teorías psicológicas, cultura, economía... Si queremos actuar
inteligentemente conviene rastrear esas formas de pensar reduccionistas, que intentan
encontrar LA EXPLICACIÓN a partir de alguna faceta del conocimiento sobre el
hombre, a la que absolutizan. Son teorías cómodas, porque ahorran pensar en serio
muchos temas, pero también son poco inteligentes. Pensar con esas ideas el
comportamiento humano en el mundo es condenarse a no entenderlo. Ni siquiera son
capaces de trazar una caricatura medianamente aceptable del hombre. Mucho menos
alumbrar una conciencia ecológica inteligente, verdaderamente responsable y capaz de
aportar algo.
Investigar un elemento del problema para declararlo clave hermenéutica de todo
el conocimiento es quedarse con muy poco. Los reduccionismos son teorías pobres, que
paralizan el pensar con su seductor encanto de comprensión rápida. Ulises hará bien en
taparse los oídos ante esos cantos de sirena. Además, las partes no saben dar razón del
todo, si éste forma un sistema ordenado intrínsecamente. Quien sólo conozca la teoría
cuántica del electrón, nada sabe de máquinas racionales electrónicas. Mucho menos de
los seres vivos. De la misma manera que el conocimiento de las propiedades de los
ladrillos no aporta una teoría de la arquitectura. Saber los materiales con los que
contamos es necesario, pero nada nos dice de lo que podemos hacer con ellos.
Unas variantes ingenuas de la Teoría del Todo, aptas para el consumo de masas
porque vienen trufadas de argumentos sentimentaloides, son las ideologías, de las que
parece que poco a poco nos vamos librando; aunque dejan en los que caen de ese
guindo un lamentable poso de escepticismo desencantado, cuando no cínico. Como las
ideologías también suelen ser teorías para orientar la acción humana, acostumbran
añadir un nuevo error calamitoso: diseñan un modelo social al que designan como
«estado perfecto» que hay que conseguir, para luego intentar poner las condiciones que
teóricamente conducirían a él. Esto, además, supone un intento de control sobre las
todas las condiciones y factores actuales para conducirlas a aquel estado perfecto. Sin
embargo, las dos cosas son falsas: ni existe un modelo único y totalizante, ni se pueden
controlar todos los factores. Pensar que se puede hacer un modelo, un objeto mental
más o menos pretendidamente racional, que alcance una supuesta totalidad definitiva
es un ejemplo típico de ilusa fe racionalista, que suele tener consecuencias más bien
macabras por el totalitarismo dogmático que implica para el hombre y para toda la
naturaleza.
La pretensión totalizadora racional no es posible, en primer lugar, por la
limitaciones de la misma racionalidad ya indicadas: siempre es posible pensar más allá
de cualquier construcción lógica; la inteligencia humana no queda limitada por ninguno
de sus productos; quien así la recorte no vivirá inteligentemente. En segundo lugar,
porque supone una visión estática final (hay que llegar a un estado perfecto de
equilibrio que, una vez alcanzado, hay que mantener por ser el mejor posible) del
hombre y de la naturaleza, que nada tiene que ver con la realidad evolutiva de la vida
en la tierra, ni con la capacidad de perfeccionamiento que tiene el hombre. Diseñar un
modelo, para alcanzarlo y procurar mantenerlo inmutable, supone una fosilización del
hombre y de la naturaleza. La realidad que conocemos es notablemente distinta: tanto la
naturaleza como el hombre dan pruebas más bien de una enorme capacidad de
despliegue de capacidades, de crecimiento, de perfeccionamiento y de evolución.
Conviene abandonar cuanto antes las pretensiones totalitarias y fijistas de cualquier
saber. A este respecto, es un acierto de la ciencia y la mentalidad moderna la "atribución
de un valor universal a algunas categorías del saber técnico: la colaboración, la
progresividad, la perfectibilidad, la invención"[231]. Es una equivocación presentar
ningún saber (tampoco filosófico, con o sin metafísica) como total y definitivo.
Este tipo de error es también bastante común en algunas teorías que se
denominan ecologistas, pero que tienen poco que ver con las características de la vida
tal como las conocemos. Estas corrientes que se pretenden ecologistas son las que están
dominadas por una mentalidad conservacionista extrema. Tal parece que habría que
congelar el estado actual del planeta: tanto la población humana y su situación, como
las distintas especies que ahora existen en sus hábitats e interrelaciones en los sistemas
ecológicos. De esta manera, la situación actual es la que se considera como definitiva,
siendo la que hay que mantener a toda costa. Ya he dicho que esta mentalidad es muy
apta para un industrial frigorífico o para el responsable de un cementerio, pero no sirve
para entender sistemas abiertos, en constante intercambio y evolución, como son los
formados por los seres vivos, incluido el hombre. Por otra parte, tampoco parecen darse
cuenta de que las intervenciones «ecológicas» en la naturaleza, por más
conservacionistas que pretendan ser, no dejar de introducir también factores nuevos
que no dejarán de modificar la totalidad de la naturaleza que se pretende «conservar».
Ambos errores suponen, por otra parte, que es posible controlar todos los
factores y condiciones actuales. Esta suposición también es ingenua, y es otro lastre de
la poco inteligente credulidad racionalista. Por ejemplo: según conocemos por la teoría
de la complejidad y por la teoría del caos determinista, podemos tener la completa
seguridad de que no hay modo de ejercer ese control total. Como consecuencia, no hay
manera de poner unas condiciones extrínsecas que aseguren ni un progreso automático
hacia un paraíso único, sea biológico o ideológico, ni una perfecta conservación de la
situación actual.
Hasta aquí he expuesto formas de pensar inadecuadas para entender la
naturaleza y nuestra intervención en ella. Ahora, en el lado positivo de la cuestión,
pondré el ejemplo de una teoría que está suministrando valiosas herramientas
conceptuales para hacer una buena teoría de la decisión y de la acción humanas, aunque
todavía sea incipiente. Me refiero a la teoría de juegos[232]. No me centraré en su
aspectos matemáticos, sino en lo que aporta para entender la acción humana. Porque "la
transformación de lo externo en íntimo no se realiza por vía de «interiorización» de las
realidades exteriores al hombre, o mediante la «salida de sí» por parte de éste hacia lo
distinto y distante de él, lo que supondría un modo de alienación depauperante. Tiene
lugar, sencilla y radicalmente, a través de la fundación de campos de juego comunes
entre el hombre y las realidades del entorno. Esta fundación, a su vez, acontece cuando
el hombre recibe la apelación de una realidad que le ofrece posibilidades de juego
creador y responde asumiendo tales posibilidades de modo activo. Asumir
activamente posibilidades lúdicas es la base y el núcleo de la actividad creadora.
"El fruto de esta actividad libre en vinculación es la creación de formas de
unidad llenas de sentido. Fundar modos de unidad relevantes, entidades relacionales
valiosas para el hombre, bajo el cauce de unas normas determinadas, recibe en la
Hermenéutica contemporánea -bajo la inspiración de eminentes estetas del pasado,
como Schiller- el nombre de juego. El hombre, visto en todo su alcance, es considerado
hoy día por la Estética y la Hermenéutica como «ser lúdico» y por la Biología y la
Antropología filosófica como un «ser de encuentro», un ser que se constituye,
perfecciona y desarrolla co-fundando modos eminentes de unidad con realidades del
entorno que pueden convertirse en sus compañeros de juego y entreverar con él sus
respectivos ámbitos de realidades o centros de iniciativa"[233].
Con la teoría de juegos se entiende mejor el ámbito de la libertad y de la
creatividad que posee el hombre. No consiste su libertad en que prescinda de las
determinaciones que se encuentra, de tal manera que sólo pueda ser libre en una huida
constante de todo lo que le viene dado. Tampoco consiste en prescindir de las leyes y
normas que rigen las realidades con las que se encuentra. En un juego no sucede así;
por ejemplo, si decido jugar al ajedrez, estoy «determinado» por las casillas del tablero,
por el número y tipo de figuras, y por sus leyes de movimiento. Pero soy yo quien
determino luego las realidades que se harán en ese campo de posibilidades. Igual
sucede si lo que quiero practicar es el fútbol: campo, jugadores, balón y reglas están
establecidas, pero no mi juego ni el de los demás. Además, hay que tener en cuenta que
esos mismos juegos no son algo «dado», sino invención humana: es el hombre quien
inventa el juego explotando y desarrollando las posibilidades que le ofrecen
determinadas realidades (un balón esférico o las sencillas reglas matemáticas del
ajedrez).
Este equilibrio entre determinación e indeterminación que pone de manifiesto la
teoría de juegos parece de lo más adecuado para entender la relación entre naturaleza y
libertad. "El ser humano carece de los «instintos seguros» del animal y está dotado de
inteligencia; no responde de modo automático, unívoco y seguro a cada estímulo, por
estar capacitado para dar diversas respuestas y elegir entre ellas la más adecuada. Esta
capacidad de elección significa un distanciamiento respecto al entorno. Pero nótese
bien: el tipo de distancia que aquí se instaura no es de alejamiento sino de perspectiva.
En efecto, entre lo real estimulante y el hombre apelado se constituye un campo de
juego, de intercambio de apelaciones y respuestas. Los estímulos tienen para el ser
humano valor de «apelaciones» -invitaciones a dar una respuesta libre y reflexiva-,
porque a través de tales estímulos el ser humano capta realidades. Esta superación de
la atenencia rígida a los estímulos marca el salto del mundo animal al humano y abre
el horizonte de la vida creadora cultural.
"Por ser inteligente, el hombre aprehende realidades y relaciones entre
realidades, es decir: campos de interacción y de juego; percibe el sentido que se alumbra
en éstos y se hace cargo de las realidades que surgen como fruto de la interacción activa
de dos o más entidades que entran en juego; pone en forma, progresivamente, la
capacidad de entrar en juego él mismo con las realidades del entorno, vistas en una u
otra de sus vertientes, o bien en bloque, o ensambladas en grupos. Este múltiple juego
creador del hombre da lugar al diversificado mundo de la «cultura»"[234].
En un juego -mucho más si es un buen juego- hay una determinación muy
estricta respecto de los elementos que lo componen. Ahora bien, esa determinación no
impide, sino que es precisamente la que permite al jugador establecer determinaciones
nuevas, que de ninguna manera están dadas en los elementos y reglas del juego. El
buen jugador no es el que constantemente actúa al margen de lo que hace al juego ser
tal; sino aquel que desarrolla una mayor creatividad y habilidad bien ajustada al canon
del juego. El buen jugador, por consiguiente, no tiene un comportamiento caótico y
desordenado; su actuar sigue reglas precisas. Tampoco tiene porqué ir huyendo
constantemente de lo que le viene dado en el juego, ni intenta escapar -para ser «libre»de las determinaciones que el juego establece. Muy al contrario, descubre posibilidades
en el juego que antes eran desconocidas y también crea otras inéditas que enriquecen el
juego. Los elementos y reglas del juego -las piezas y leyes del ajedrez, por ejemplo- no
determinan en absoluto el comportamiento del jugador, ni en las condiciones iniciales
está escrito el desarrollo de la partida en manera alguna.
De manera semejante, lo elementos -partículas, átomos, etc.- y leyes de la
naturaleza no determinan el actuar del hombre; ni el futuro está dado en las condiciones
iniciales. Ni siquiera establecen un único juego posible al que haya que atenerse. La
capacidad del hombre de manejar símbolos y establecer formalizaciones y órdenes
nuevos le permite inventar juegos nuevos a partir de aquellos elementos y reglas
iniciales. Así, por ejemplo, el juego informático que ahora estoy jugando mientras
escribo estas páginas en el ordenador, se ha inventado hace poco y está en constante
evolución. Este juego es posible justamente porque conocemos cada vez mejor los
elementos y reglas del juego inicial de la naturaleza corpórea. Sobre esas
determinaciones, y no intentando tontamente escapar de ellas, es posible realizar este
juego creativo, que tiene también sus propias reglas sobreañadidas a aquellas pocas
iniciales de la materia corpórea y a muchas otras -como el lenguaje- establecidas por
otros. Estas determinaciones que establece el juego no sólo no me determinan, sino que
aumentan mis capacidades en la medida en que las conozco y descubro y desarrollo sus
potencialidades. Por consiguiente, si intentara establecer mi libertad de escritura al
margen de esas determinaciones, lo más que conseguiría sería perder el tiempo.
Nuestra libertad, para que pueda ser ejercida como tal, requiere que conozcamos las
determinaciones que están a nuestra disposición, no que las evitemos como si fueran su
peor enemigo. Sobre las posibilidades que abren esas determinaciones, y no contra ellas,
se edifica la libertad; en caso contrario se produce la actividad desordenada y caótica
que lleva a la autodestrucción.
Con la ecología tenemos un buen ejemplo de hasta qué punto debemos ser
respetuosos con las determinaciones y el orden que ya existe en la naturaleza -en la
nuestra y en la de toda la creación- conseguido tan trabajosamente. A la vez nos enseña
cómo nuestra actividad no está determinada por ellas, ni es guiada hacia ningún
equilibrio o progreso de manera automática. Por ella sabemos mejor que entregarse a
una actividad degeneradora y destructiva, cuya única virtud es que se autoproclama
«libre», es una verdadera locura. Para establecer nuestra libertad no hemos de evitar las
determinaciones. El hombre, más bien, debe dedicarse a recoger con respetuoso esmero
todas las determinaciones y todo el orden que encuentre, para protegerlo, cuidarlo; y,
luego, desarrollarlo y perfeccionarlo.
En la teoría de juegos hay un aspecto interesantísimo para comprender cómo se
puede realizar esa tarea de perfeccionamiento del mundo que corresponde a la libertad
del hombre: se trata de los juegos de suma positiva. Cuando se piensa en un juego,
habitualmente se consideran juegos de suma cero, del tipo ejemplificado más arriba
(ajedrez o fútbol). En ellos alguien gana y alguien pierde; no pueden ganar todos los
jugadores. Lo que «está en juego» va a unos o a otros, de manera que si alguien se lleva
más es a costa de que otro se lleve menos. En los juegos de suma positiva no sucede así.
Son juegos de colaboración en los que lo que «está en juego» crece conforme lo hacen
crecer los jugadores con su habilidad. En ellos no hay una tarta que repartir, de manera
que si unos cogen gran parte queda muy poco al resto; sino que el mismo juego consiste
en producir tartas, de forma que el reparto final siempre es de mucho más que lo que
había al principio. Así todos ganan, y ganan tanto más cuanto mejor hayan jugado
todos; a todos los jugadores les interesa que los demás jueguen y lo hagan lo mejor que
puedan. Es el tipo de juego que se produce, por ejemplo, con la división y
especialización del trabajo -sea en un hormiguero o en una comunidad humana-;
también es un tipo de juego muy habitual en diversos sistemas ecológicos donde se dan
abundantes interrelaciones positivas que suponen una ganancia mutua para los
protagonistas. Por lo general, los juegos de suma positiva suponen más tiempo de juego
que los de suma cero; en ellos también, aunque las ganancias pueden ser mucho
mayores, las pérdidas -si se juega mal o no se respetan las reglas- pueden ser muy
grandes.
Los juegos de suma positiva dan un buen instrumento conceptual para
comprender mejor nuestra libertad y, subsiguientemente, la ética. En ellos importa
mucho jugar y jugar bien por parte de todos. De esta manera la ganancia es grande; en
caso contrario también lo son las pérdidas. Bien llevados, suponen un mejoramiento y
perfeccionamiento constante. Es el tipo de actividad que se ajustaría mejor a una
ecología auténtica, de vida en crecimiento y desarrollo, de perfección evolutiva a la que
el hombre puede máximamente contribuir. Es una forma de pensar mucho más
adecuada que la simplemente conservativa, demasiado parecida a los juegos de suma
cero. La mentalidad de «crecimiento cero» no parece nada ecológica, sino más bien
cadavérica. Más adecuada a la vida y a su evolución sería una ecología de
perfeccionamiento, de orden creciente, de desarrollo, de juego de suma positiva. Ahora
bien, los juegos posibles no están dados, ni sus reglas, ni cabe hacer una especie de
esquema general de juego único, absoluto y definitivo.
Llegados a este punto, es posible plantearse la siguiente pregunta: ¿cómo hemos
de aprender a pensar para hacernos capaces de desarrollar esos juegos de suma
positiva, que nos permitan aportar, incrementar? Con esto llego al meollo de la
cuestión, al núcleo de lo que nos permitirá hacer una ecología inteligente, capaz de
conservar y perfeccionar. A mi parecer, la respuesta a esa cuestión es la siguiente: en la
medida que no queramos dejar inane la conciencia ecológica, deberemos aprender a
pensar de nuevo un tema clásico: la finalidad, la causa final aristotélica.
Soy consciente de que, con esta sugerencia, me introduzco en un tema tabú,
políticamente no correcto desde el punto de vista de los paradigmas científicos
dominantes. Pero no me queda otro remedio, porque estoy convencido de que
deberíamos afrontar el estudio del proceso evolutivo con las herramientas conceptuales
más adecuadas y potentes que seamos capaces de fabricar. Para alcanzar este objetivo la
ayuda del viejo y sabio Aristóteles puede venirnos muy bien. Para descalificarlo no vale
decir que es muy antiguo y que su pensamiento sobre la naturaleza ya ha sido superado
hace tiempo. Es verdad que, de lo que él averiguó, hay partes superadas: su estudio
sobre las Partes de los animales no es hoy aconsejable para que ningún veterinario
aprenda anatomía. Pero también hay mucho en él que no ha sido pensado mejor por los
que hemos venido después, por lo que compensa redescubrirlo. Ejemplos recientes de
redescubrimientos tenemos unos cuantos. Por ejemplo: las leyes de Mendel, con las que
se inició la genética y toda una revolución en la ciencia biológica, fueron descubiertas
por aquel monje agustino que les da nombre y presentadas en 1865. Sin embargo, en los
ambientes científicos académicos fueron desconocidas hasta su redescubrimiento
bastantes años más tarde, por lo que la genética tardó todo ese tiempo en desarrollarse
como disciplina científica practicada por muchos. Del ejemplo quiero sacar la siguiente
moraleja: una verdad, un conocimiento lo es con independencia de que sea antiguo o
nuevo; esté o no introducido en el paradigma científico dominante que se considere
ortodoxo en un momento histórico determinado. Como Aristóteles es muy antiguo,
habré de explicar por qué considero que hay una aportación suya relevante para la
cuestión en la que estoy enzarzado.
Comenzaré recordando lo asentado en el capítulo anterior: sólo entiendo según
lo que yo mismo elaboro con mi inteligencia; sólo encuentro según lo que yo mismo
pongo para buscar. Nos haremos capaces de entender los procesos vivos, en los que se
genera orden, sólo si acertamos a producir formas de pensar que nos hagan capaces de
comprenderlos. No nos sirven formas de pensar analíticas, de despiece y
desmembración. Tampoco son útiles los esquemas mentales mecanicistas, de eficacia
bruta: empujo una palanca y se produce un resultado unívoco y previsible. Ni mucho
menos bastan unas ideas conservativas, aptas sólo para entender fosilizaciones.
Por otra parte, comprender la evolución se hace imposible si caemos en el
Síndrome de Optimismo Semántico: inventamos la palabra evolución, le ponemos un
artículo determinado y luego actuamos mentalmente como si fuera algo o alguien. Pero
LA EVOLUCIÓN no es nadie, ni es la explicación de nada, sino que es uno de los
descubrimientos más apasionantes de los últimos tiempos: no es LA EXPLICACIÓN,
sino justamente lo que hemos de aprender a pensar para poder comprender los
procesos en los que se produce un perfeccionamiento. Los hallazgos científicos nos
están forzando a abandonar un pensamiento fundado en términos como: condiciones
iniciales, procesos de equilibrio y de mínimos, o leyes deterministas inerciales y
conservativas. De manera paulatina, desde el Big-Bang y la evolución del universo
hasta la evolución de los seres vivos, nos llevan a tener que pensar en términos de
crecimiento,
progreso,
perfeccionamiento,
desarrollo,
intensificación,
desenvolvimiento... Si queremos dejar de ser un peligro o una desgracia para la vida,
haremos bien buscando modos nuevos de pensar, que nos permitan entender y actuar
de forma que contribuyamos con más orden al proceso evolutivo.
En esa búsqueda de formas de pensar que aporten más comprensión sobre la
naturaleza, la filosofía griega puede prestarnos un gran servicio. Aquel empeño de
algunos animales humanos por comprender comenzó en las ciudades jónicas de Asia
menor precisamente como un esfuerzo para pensar sobre la naturaleza de manera
rigurosa y no mítica. Inventaron el pensamiento por principios y causas; iniciaron el
cavilar buscando los elementos constituyentes de todo; también los hubo atomistas, que
explicaron todo por la combinaciones que el azar produce en una multitud de átomos.
Crearon la lógica y las técnicas de la demostración, etc. A ellos debemos las formas de
pensar que consideramos rigurosas y científicas, a las que consideramos «pensar en
serio» o «pensar de verdad».
Tras dos siglos de esfuerzos y muchos progresos en el trabajo de depurar las
formas de pensar y seleccionar las más aptas, vino Aristóteles como su mejor fruto en
muchos campos: fue el hombre adecuado en el momento oportuno. Era un magnífico
observador y un enamorado de la naturaleza. Sus palabras las puede firmar hoy
cualquiera: "la naturaleza es maravillosa en todos sus estados (...) debemos emprender
sin vacilar el estudio de toda clase de animales, ya que, todos y cada uno de ellos en
particular, puede revelarnos algo natural y hermoso. En las obras de la naturaleza es
donde mejor se manifiesta la ausencia de azar y la intencionalidad de un fin. Y el fin
resultante de sus generaciones y combinaciones no es sino una forma de lo bello"[235].
Para pensar adecuadamente la naturaleza y los seres vivos, Aristóteles, que
conocía muy bien los diversos tanteos que se habían hecho, llegó a la conclusión de que
hemos de hacer cuatro tipos de preguntas fundamentales en los que se resumen las
causas que hay que entender. Es decir, hay cuatro campos de investigación básicos;
pues toda investigación es preguntar sobre causas, porqués. Sobre la naturaleza hay
cuatro aspectos imbricados sobre los que hemos de aprender a pensar, preguntar y
hallar respuestas; en la medida que progresemos en esas preguntas la conoceremos
mejor. Las cuatro causas -o porqués- en las que Aristóteles resumió las formas de
pensar la naturaleza capaz de aportar comprensión eran: material, formal, eficiente y
final.
Desde el siglo XX, con la mecánica cuántica y ciencias afines, estamos
procurando investigar a fondo sobre la causa material: entender aquello de lo que están
hechos todos los seres del universo, inertes y vivos. También comenzamos a indagar
sobre la causa formal, sobre el orden con el que se dispone y estructura aquello que es
común a todos los cuerpos -inertes y vivos- y por lo que se diferencian: según ese orden
tienen propiedades y capacidades distintas. En el caso de los seres vivos estudiamos la
información genética. A la causa eficiente, si bien de forma tosca y no muy bien
pensada, atendían casi únicamente las ciencias hasta el siglo XX. Esa forma de pensar es
la que tenemos heredada como «científica» de la Edad Moderna. Desde Bacon se
entiende el saber científico como un poder hacer: se busca la eficacia. "El criterio para
saber si se conoce verdaderamente la causa efficiens es que pueda predecir
correctamente el hecho desencadenado por ella. De este modo se ha transformado tanto
el concepto de causa, que en la ciencia natural moderna el principio de causalidad se
vino a identificar justamente con el principio de la plena predictibilidad de los
fenómenos naturales"[236]. Las eficiencias elementales que encontramos son las cuatro
interacciones físicas ahora admitidas: gravitatoria, electromagnética, fuerte y débil;
sobre ellas se edifican las demás eficiencias. Acerca de la finalidad, sin embargo, no
investigamos nada: como mucho nos la vamos tropezando como algo molesto.
Estamos acostumbrados a despreciarla por una serie de malentendidos
históricos. Desde diversos ámbitos científicos se ha negado que exista la causalidad final
de la que hablaba la filosofía clásica y que está presente en los usos lingüísticos del
habla cotidiana, también en la de los que niegan la finalidad. Los biólogos, por su parte,
utilizan continuamente expresiones finalistas, aunque luego afirmen pudorosamente
que no creen en esa finalidad de la que continuamente hablan. Sin embargo, que las
teorías científicas al uso nieguen la finalidad sólo significa que, como efectivamente es
una causa difícil de formalizar, el modelo que ha conseguido hacer el mecanicismo
determinista no consigue tenerla en cuenta. Es decir, es una deficiencia de las ideas, que
no sirven para pensar y entender esta cuestión. Como sólo entiendo según lo que yo
mismo elaboro activamente con mi inteligencia, y he desterrado de ella todas las ideas
sobre la finalidad, lo que acaba sucediendo es que no tengo herramientas mentales para
pensarla y comprenderla mínimamente.
El motivo es que la descripción mecanicista parte de unas condiciones iniciales, a
las que añade unas ecuaciones -la hamiltoniana del sistema- que describen totalmente
su evolución temporal. Son modelos deterministas desde el origen, que utilizan un
utillaje conceptual ideado sobre algo inexistente en la realidad: los procesos reversibles.
En la construcción mental desarrollada sobre esos procesos irreales, el tiempo es
reversible. Es decir: no se puede pensar -y, por tanto, no se puede comprender- la
evolución temporal de los procesos reales, que es irreversible. Así la posible causalidad
final no se considera en absoluto, por lo que nada se puede decir de ella, ni a favor ni en
contra. En este caso hay un ejemplo de cómo la sintaxis configura las posibilidades
semánticas de una teoría: sólo podemos entender aquello de lo que son capaces las
ideas que hagamos. Sin embargo, aquella inexistente reversibilidad temporal está
siendo expulsada de nuestras ideas por los mismos descubrimientos que realizamos,
que "apuntan en la misma dirección: hacia la necesidad de superar la negación del
tiempo irreversible, negación que constituye la herencia legada por la física clásica a la
relatividad y la mecánica cuántica. Hoy día se percibe una nueva coherencia: en todos
los niveles de la física encontramos ese tiempo que la tradición clásica negaba"[237].
Una fuente habitual de rechazo a la finalidad viene añadida por la mala
costumbre que tienen bastantes defensores de la causa final de asimilarla a un propósito
inteligente añadido a la ciega acción de las interacciones físicas. De ese modo, entender
la causa final se convierte en la imposible tarea de encontrar una especie de enano
submicroscópico, o fantasma, que dirige inteligentemente los procesos físicos y
bioquímicos. Como el enano no se encuentra, porque es imposible dado que no existe,
se acaba negando la finalidad. Con frecuencia ocupa su lugar un ente difuso
denominado EL AZAR, en el que muchos creen, como si fuera alguien o algo: resulta
ser la mayor fuerza benéfica del universo. Evidentemente esa creencia puede
diagnosticarse como un caso grave de Síndrome de Optimismo Semántico. Se utiliza
tanto una palabra que algunos acaban por creer en ella.
El rechazo de la causa final es aún mayor cuando los que la defienden sacan a
colación a Dios de manea precipitada, como si anduviese trasteando continuamente los
procesos naturales dándoles empujoncitos para marcarles una dirección, o un propósito
inteligente. Pero poner a Dios en el nivel de las causas físicas es un error, que impide
entender la causalidad en el universo, y hace un flaco favor a la causa de los creen en
Dios. Como dirían los escolásticos, es una grave confusión entre la causalidad
predicamental y la trascendental.
Para comenzar las aclaraciones, conviene tener en cuenta que, tal como la estudió
Aristóteles, la finalidad es una causa natural física. Aquel filósofo no la investigó en la
Metafísica, sino en la Física. Ciencias que, por otra parte, no separaba tan tajantemente
como hacemos ahora; ni pensó poner la Metafísica en el campo de las humanidades y a
la física entre las ciencias empíricas. Ya he dicho que esa separación conceptual es un
vicio mental nuestro, no suyo. Aristóteles es un filósofo que, haga Física o Metafísica,
procura estar siempre atento a la realidad concreta y experimentable que conocía por
los sentidos. Era muy empirista en el mejor sentido: se atenía a lo que podía observar, a
todo, sin descuidar nada; o negarlo, como tiende a hacer un reduccionista. Tampoco
hace una filosofía que consista en girar mentalmente alrededor de unas ideas o de unos
textos, como ahora es normal en esa disciplina tal como la hemos configurado en las
burocracias académicas, y que poco a poco ha labrado su desprestigio. Aristóteles se
habría escandalizado de una filosofía que, tal como hemos organizado el cultivo de los
saberes, está siempre al borde de transformarse en un juego de palabras trascendentes
pero vacías, o en un pomposo traslado de cadáveres conceptuales de un libro a otro en
una sucesión sin fin y sin sentido. "No es la metafísica aristotélica, como es bien sabido,
una metafísica racionalista de puros conceptos apriorísticos. Por lo demás, es también
un lugar común, luego machaconamente repetido por la Escolástica, que todo nuestro
conocimiento empieza por los sentidos. No hay una diferencia metodológica
fundamental entre Física y Metafísica. Nuestro conocimiento se vuelca primero a lo
sensible de donde toma su origen primero e investiga el ser móvil rastreando hasta sus
últimas causas"[238].
En ese contexto, y como parte de la Física, piensa la causa final. Para él, de modo
inmediato, no tiene que ver con una inteligencia que dirija los procesos naturales hacia
un objetivo que haya que alcanzar al final, como una meta o un propósito inteligente.
Ese sentido de la causa final sólo es válido para los seres vivos dotados de inteligencia,
capaces de conocer fines y proyectar sus acciones según ellos. Para la mayoría de los
seres del universo la causalidad final considerada por Aristóteles no tiene que ver con
un discurrir inteligente que se propone planes, sino con el tipo de orden físico que
genera más orden. "La causa final no es la causa posterior, sino la ordenación. Si influye
poco, se va del orden al desorden; si influye mucho se va del desorden al orden. Hoy se
investiga bastante sobre sistemas ordenados: ¿por qué se ordenan o desordenan los
sistemas? Se pregunta por la causa final"[239].
Los procesos físicos pueden ser entrópicos, generar desorden, tender a mínimos
y a equilibrios de reposo e inmovilidad. Es lo habitual, y es lo más estudiado hasta el
momento en las ciencias de la naturaleza. Pero en algunos procesos, como sucede en el
crecimiento de un ser vivo, en el desequilibrio se edifica un sistema cada vez más
ordenado, que vence las tendencias entrópicas degenerativas. Tropezar con la existencia
de estos sistemas y procesos físicos llevó a Aristóteles a hablar de causalidad final, como
algo intrínseco a su organización sistémica. Es el tipo de cualidad física peculiar de los
sistemas que acrecientan la entropía del entorno para mantener un elevado nivel de
orden y complejidad internos. Por ejemplo, el código genético de las células de una
semilla, dirigiendo los procesos químicos, da lugar al árbol y a más semillas: el orden se
acrecienta, se multiplica. En definitiva, la causalidad final es la que vemos desplegarse
en ese proceso que llamamos evolución. Puede llamársele causalidad final; o, si ese
apelativo suena mal, la llamaremos X, Y o Z; o quizá habremos de buscar un eufemismo
que resulte políticamente correcto. En cualquier caso, entender la finalidad es
comprender los procesos en los que se genera orden, es decir, aquellos en los que se
produce una organización sistémica creciente. No es la búsqueda, insisto, de una
inteligencia intrínseca al proceso que haga proyectos y planes, sino el estudio de lo que
ahora llamamos autoorganización, propiedades emergentes, etc.
Ése es el tipo de procesos que hemos de aprender a comprender para montarnos
en el carro de la evolución sin dar al traste con todo. Para lograr ese objetivo
necesitamos formas de pensar nuevas; utillaje conceptual y herramientas mentales que
nos hagan capaces de entender la finalidad, los procesos perfectivos, con orden
progresivo. Soy de la opinión de que éste es una de los tareas más urgentes y más
apasionantes que podemos afrontar. Es absolutamente necesario si no queremos dejar
inane nuestra creciente conciencia ecológica. Una vez que desarrollemos formas de
pensar adecuadas, seguramente seremos capaces de fabricar máquinas que hagan esa
tarea mental que hemos inventado mucho mejor que nosotros[240]. Su ayuda será
inestimable, pero ya he dicho que la responsabilidad es nuestra.
Si aprendemos a pensar la finalidad, es decir, el perfeccionamiento y los modos
de aumentar el orden, pondremos las bases para aclarar una cuestión anexa: la ética del
conocimiento científico y de las tecnologías que proveen. La preocupación por el poder
creciente que nos dan las ciencias y sus tecnologías ha hecho que nos pongamos a
reflexionar sobre la responsabilidad ética que comportan. Por ahora, todo lo que somos
capaces de hacer es dar unos consejitos bienintencionados a los científicos, para que no
hagan cosas malas. La ética no se considera algo intrínseco a la investigación y al
pensamiento científico, sino algo que viene de fuera y que los científicos deben tener en
cuenta si quieren ser buena gente o, simplemente, cumplir la legalidad vigente, porque
comienzan a abundar las disposiciones sobre la materia. Esta situación es un error que
conviene corregir.
El talante ético de las ciencias experimentales y de la técnica no parece haber
recibido un tratamiento conveniente ni en la modernidad ni en la filosofía clásica. La
modernidad ha idolatrado a la ciencia y a la técnica. Dotándolas de carácter mesiánico como hizo la Ilustración- de ellas ha esperado un progreso automático e imparable, del
que vendrían todos los bienes. Por sí solas conducirían al hombre a desconocidas cimas
de felicidad individual y social. La palabra «científico» es una vitola de calidad absoluta
que todos quieren invocar para sus productos, por más impresentables que sean: resulta
casi como el abracadabra mágico que, al ser nombrado, abre el paraíso. Este proceder
olvida que las ciencias y las técnicas no son sino obra del hombre y resultado de su
trabajo: por sí mismas no van a ninguna parte, ni conducen a otro sitio que al que el
hombre mismo las lleve. Esta ingenua e idolátrica idea de las ciencias carece también de
una visión unitaria del conocer y obrar humanos. Si se dice: LA CIENCIA -así, como si
fuera alguien- tiene la palabra, se olvida que la ciencia no tiene palabra alguna, ya que
ella misma no es sino palabra del hombre, trabajosamente concebida, expresada y
aplicada. La hipostatización de la ciencia no deja de ser una idea ridícula; con ella se
convierte a los científicos en los nuevos hechiceros que invocan, en lenguajes
misteriosos y secretos, los ocultos poderes del mundo para remediar todos los males.
Cualquier consideración ética que se hiciera sería algo externo a la misma ciencia, ajeno
a ella -acientífico, por consiguiente- y calificable despectivamente de moralina inútil. La
catastrófica situación a la que hemos llegado por obra de estas ideas no es necesario
repetirla.
Por parte de la filosofía clásica el descuido no ha sido menor. Dicho de manera
exagerada y simplista: en ocasiones se llega a tener la impresión de que la filosofía como así fue entre los griegos- es una ocupación de señoritos desocupados, que dejan a
otros el trabajo de mancharse las manos con los problemas y necesidades reales. Lo
suyo es la «contemplación» en el peor sentido de la palabra: un dejar suelta la cabeza
para que se emborrache de palabras grandilocuentes. Desde esas inmensidades
lingüísticas vacías, pretendidamente racionales, se miran las ciencias como desde arriba
para dar consejitos inútiles, y para entablar sorprendentes discusiones bizantinas e
ignorantes -las ciencias son muy complicadas para saber nada de ellas con cierta
hondura- acerca de qué es lo que hacen los científicos, pero sin acercarse demasiado
para no contaminarse de realidad empírica, dado que mancha. Para cierta tradición de
raíz clásica, la grandeza ética del hombre consiste en que imite a esos filósofos y se
dedique a los devaneos de grandes palabras que denominan contemplación. Quien no
haga eso y, por ejemplo, trabaje, está irremediablemente perdido: nunca alcanzará la
verdadera y plena dignidad humana.
Con esa mentalidad, las ciencias experimentales y sus técnicas se consideran
labores más propias de esclavos -como era entre los griegos- que de verdaderos
hombres. El trabajo de perfeccionar al mundo y al hombre -eso y no otra cosa es la éticaes algo muy secundario. Sin embargo más bien hay que decir que "si la ética clásica no
ha querido incorporar el saber científico directamente a la moral, convirtiendo ese saber
en algo perfeccionante simpliciter, es porque no creía que el trabajo tuviera que ver
esencialmente con el fin final del hombre. Pero realmente todo crecimiento energético
(la adquisición de un saber) me hace en cierto modo ser más. Si el trabajo es conforme a
saber, es una actividad según perfección"[241].
Para remediar esas deficiencias heredadas propongo el razonamiento es el
siguiente: "solamente aquellas acciones de las cuales el hombre es dueño pueden
llamarse con propiedad humanas"[242] y ser objeto de la ética. Por otra parte, la forma de
poseer y adueñarse del hombre se da por el conocimiento: sólo domino y me domino
según aquello que conozco de mi y del mundo. En consecuencia, el aumento de
conocimientos que proveen las ciencias es, de manera directa e inmediata,
intrínsecamente ético, sin que haya que añadirle ninguna moralina externa. Así, por
ejemplo, cuando no conozco si un alimento determinado es beneficioso o perjudicial
para la salud, consumirlo o no carece de dimensión ética; si, por el contrario, alcanzo ese
saber, entonces la decisión sobre su consumo es ética de manera intrínseca. Por ello
puede decirse que los conocimientos médicos son directamente conocimientos éticos, al
igual que los provenientes de cualesquiera otra ciencia.
Además, hay que tener en cuenta que todo saber, por ser dominio, es un poder y,
por consiguiente, una responsabilidad. El ejercicio de todo poder es, por sí mismo, ético;
no existe ningún poder que pueda desplegarse al margen de la ética. Ese poder que
proviene del conocimiento y del dominio de los objetos mentales, hace al hombre capaz
de actuar produciendo novedades estrictas en el mundo, con ellas lo modifica: lo
perfecciona o lo destruye, a la vez que lo hace consigo mismo. El aumento de
conocimientos agranda la capacidad creativa del hombre y multiplica el alcance benéfico o destructor- de las acciones que provienen de esos conocimientos. No hay
conocimientos éticamente indiferentes, porque ellos dan poder al hombre y ordenan el
obrar humano. Tiene así razón Marx en la célebre frase: "Hasta el presente los filósofos
se han dedicado a interpretar el mundo; sin embargo, ahora la cuestión es
transformarlo"[243]. Lástima que no se preocupara de conocer el «material» de trabajo y
partiese de una trágica ideología prefabricada de corte «filosófico» puramente mental,
sin semántica alguna y totalmente irreal; no sabía que para hacer cualquier edificio
primero hay que conocer muy bien los materiales con los que se edificará y atender a
sus características y propiedades.
La deontología de las ciencias no ha de consistir, por consiguiente, en añadir
algunas consideraciones morales extrínsecas al ejercicio de un saber que se considera
autónomo. Al contrario, la ética de las ciencias ha de ser intrínseca e inseparable de ellas
mismas y ha de fundamentarse en el empeño por conocer la causalidad final -lo que
puede ser perfectivo- en su ámbito. No es posible hacer una ética al margen los
conocimientos que el hombre adquiere mediante las ciencias, ni que desconozca los
nuevos poderes a los que accede con la técnica. Lo cual no quiere decir que haya que
hacer una ética totalmente nueva y absolutamente distinta; sólo significa que hay que
ampliarla conforme se amplían y precisan los conocimientos. Lo que antes era válido, es
decir, lo que era conocimiento verdadero, ha de ser conservado. Aquí, como en
cualquier conocimiento humano, el progreso no se consigue con el cómodo expediente
de declarar ineptos mentales a todos los que nos han precedido en el trabajo, para
desarrollar luego la primera simpleza que se nos pase por la cabeza. La ética debe crecer
y profundizar tanto cuanto crezcan y alcancen hondura los conocimientos del hombre,
pero no como algo añadido a ellos, sino en el mismo desarrollo de las formas de pensar
y de investigar por las que se adquieren esos conocimientos.
El progreso ético, en lo que al conocimiento científico se refiere, consiste en
cultivar las formas de pensar necesarias para desarrollar una ecología inteligente. Aquí
no cabe una ética de mínimos: hemos de empeñarnos en pensar en serio y en pensar
bien, de manera que nuestras acciones en el mundo no lo desquicien todo, sino que
perfeccionen. Ese es el saber que necesitamos con urgencia, porque las máquinas
racionales pondrán cada vez más en nuestras manos nuevos poderes.
Capítulo 5
FORJA DEL CYBERSAPIENS
Hasta aquí he esbozado dos temas para averiguar algo sobre el modo humano de
ser inteligentes. En primer lugar -en el capítulo tercero- hice unos apuntes bosquejando
la libertad que tenemos respecto de las ideas y de los modos de pensar: es una
independencia que permite desarrollar ideas nuevas e inventar formas o métodos
distintos de discurrir. Luego, en el capítulo anterior, he ensayado mostrar la
responsabilidad que nos compete de procurar pensar bien, para comprender el universo
y actuar en él de manera perfectiva: queramos o no, su futuro está en nuestras manos.
Llega ahora el momento de centrar la atención en la persona, que es quien conoce y
actúa. En gran medida, somos libres de pensar y, como consecuencia, de actuar como
queramos; pero esto, ¿cómo puede hacerse de manera inteligente y no de forma necia?
¿de verdad pensamos que pensamos? ¿es posible vivir inteligentemente?
El hombre es un animal que para actuar sobre el mundo necesita primero
comprenderlo. También actúa según las ideas que tiene acerca de si mismo. Parte
esencial de toda cultura, de forma implícita o manifiesta, es una «teoría» sobre el mismo
hombre. Sobre lo que es y lo que puede hacer.
En los mamíferos superiores, la información que maneja el sistema de
tratamiento de información no sólo procede del exterior del cuerpo, sino que también se
origina en su interior. La actuación eficaz de cualquier animal sobre el medio supone
disponer, en su red neuronal, de un modelo adecuado del mismo organismo y de sus
posibles interacciones con el medio. Este modelo debe incluir distancias, tiempos también mediante relojes biológicos internos-, acciones con sus efectos, posición del
cuerpo y de cada uno de sus miembros respecto de los objetos externos y entre sí... El
modelo no ha de ser formal o representativo, puesto que las redes neuronales tienen un
modo de funcionamiento distinto; pero, en cualquier caso, la red neuronal debe
ajustarse tanto a los datos externos como a los internos para poder coordinar el propio
cuerpo con el entorno. La locura de un animal es el desajuste de ambas áreas tratadas
por el sistema, de manera que el animal no responda con justeza ante la información del
entorno, por lo que su conducta tenga muy poco que ver con la realidad que le circunda
y con la estructura de la sociedad animal de la que forma parte.
Para el hombre la situación cambia. Por dominar en cierta medida la operación
del sistema de tratamiento de información neuronal, puede desarrollar formas de
pensar y elaborar objetos mentales que reformalicen el sistema. Acabamos de ver lo
que se refiere a las ideas elaboradas sobre la realidad externa, por cuya mediación
actuamos sobre el mundo y lo modificamos. Conviene ahora considerar el software
mental que el hombre hace sobre sí mismo y que, por modificar el modo de trabajo del
sistema neuronal de tratamiento de información sobre la realidad interna, también
modifica sus acciones, es decir, su comportamiento respecto de sí mismo y del mundo.
Comenzaré quitando la paja, para luego ir al grano. La limpieza afectará a dos
ideas muy extendidas sobre la inteligencia humana, que me parecen necias y
constituyen un pesado lastre conceptual para comprender medianamente la
inteligencia, es decir, para comprendernos. Se trata de la autoconciencia y la
espontaneidad.
Conócete a ti mismo
Sigue vigente el clásico ideal esculpido en el templo griego de Delfos: conócete a
ti mismo. Es una meta, una aspiración; no es algo que tengamos dado. Porque las ideas
que tenemos acerca de nosotros son también elaboración nuestra. Pueden ser muchas o
pocas, mejores o peores, amplias o limitadas. Nos pueden llevar a crisis de identidad
desconcertantes, o a una maduración personal equilibrada.
En la elaboración de ideas sobre nosotros mismos hay que tener presentes las dos
dimensiones que las harán claras y eficaces para conocernos y comprendernos: la
sintaxis y la semántica. O, dicho de otro modo, la información que adquirimos y las
formas de pensar según las cuales la tratamos. Estos dos aspectos -que distingo para
comprender, pero estrechamente unidos- deben ser tratados con sus características
peculiares. Todo lo avanzado hasta ahora debe mantenerse aquí, añadiendo lo que
exige la peculiaridad de unas ideas que elaboramos siendo parte interesada, porque se
refieren a nosotros mismos.
Porque, desde un punto de vista informático, esta es la característica más
peculiar de esas ideas: son objetos mentales elaborados por la totalidad del sistema -que
es el hombre- acerca de sí mismo, utilizando su subsistema de tratamiento de
información. Con ello se modifica el mismo subsistema de tratamiento de información y
cambia también el comportamiento total del sistema completo. Este tipo de operaciones
cognoscitivas, que el hombre realiza sobre sí mismo, son notablemente singulares. El
pensamiento moderno y contemporáneo les ha dado mucha consideración pues, con
acierto, las considera extraordinariamente importantes.
Si al elaborar ideas sobre la realidad externa conviene tener un cuidado exquisito;
mucha más aplicación requiere el trabajo de elaborar artilugios conceptuales sobre
nosotros mismos. Según ellos intentamos comprendernos para luego dirigir nuestros
pensamientos y nuestra conducta. Estas ideas tienen así un carácter peculiar: las
formulamos y luego vivimos según ellas, es decir, son como profecías sobre nosotros
que se cumplen porque, al actuar según ellas, nosotros mismos hacemos que se
cumplan. Por ejemplo, los pedagogos enseñan según las teorías pedagógicas en uso, es
decir según entienden el desarrollo humano. Pero, "las teorías sobre el desarrollo
humano, debido al carácter de la cultura, no son simples esfuerzos para comprender y
codificar la naturaleza del desarrollo humano, sino que, por su propia esencia, también
crean los mismos procesos que intentan explicar, confiriéndoles realidad"[244].
Por otra parte, de la idea que nos hagamos de nosotros, sobre nuestro lugar en el
universo y sobre las acciones que nos son propias, depende el universo y nosotros con
él. Es una loca irresponsabilidad suicida dar por buena la primera teoría simplista que
se nos ocurra o nos guste en psicología o antropología. Si cada hombre fuese una isla en
el cosmos, perfectamente aislada, de manera que sus actos sólo a él afectasen, nada
importaría que esos objetos mentales -con las acciones que de ellos derivasen- fueran
erróneos o necios. Pero el hombre, como todo animal, es un sistema
termodinámicamente abierto: con sus actos, o bien produce orden, o aumenta el
desorden; contribuye a acrecentar la vida -propia y ajena- o la muerte. Lo que él es y lo
que hace, quiera o no quiera, afecta a la totalidad unida e interrelacionada que le rodea
para bien o para mal. Los criterios generales que ya he considerado para elaborar ideas
y formas de pensar deben tenerse aquí muy en cuenta; también conviene ampliarlas,
porque no dejan de ser un primer intento hipotético con el que he intentado más poner
una cuestión sobre el tapete que dar soluciones definitivas.
Al hablar acerca del utillaje mental que elaboramos sobre el mismo sujeto, no me
queda más remedio que volver sobre el tema de la conciencia de sí mismo o
autoconciencia. Ya dije que no puede hablarse de conciencia sólo por el hecho de que el
sistema de tratamiento de información tenga información acerca de sí mismo. Hay que
rechazar "un punto de vista sobre la consciencia que se oye exponer a menudo, a saber:
que un sistema tendrá «consciencia» de una cosa si tiene dentro de sí un modelo de esa
cosa, y que se hace «auto-consciente» cuando tiene dentro de sí un modelo de sí mismo.
Pero un programa de ordenador que contenga dentro de sí (digamos como subrutina)
alguna descripción de otro programa de ordenador no hace al primer programa
consciente del segundo; ni ningún aspecto auto-referencial de un programa le hace
auto-consciente. A pesar de las afirmaciones que parecen hacerse con frecuencia, los
temas reales concernientes a la consciencia y autoconsciencia apenas se tocan, en mi
opinión, en consideraciones de este tipo. Una video-cámara no es consciente de las
escenas que está registrando; y tampoco una video-cámara que esté dirigida hacia un
espejo posee autoconsciencia"[245].
El ejemplo anterior pone de manifiesto otro aspecto de la cuestión: una videocámara puede tener una imagen de sí misma mejor de la que una persona puede
elaborar también sobre sí misma. De manera semejante, un sistema de tratamiento de
información -con suficientes sensores internos y buenos procedimientos de
autodiagnóstico- puede tener un modelo general de sí mismo y de su estado actual
mucho mejor del que a mí me proporciona mi sistema de tratamiento de información
neuronal. Yo no se actualmente cual es el estado de mis vísceras, pero el ordenador si
puede tener muy buena información sobre el estado de sus «vísceras». Cuando un
ordenador arranca hace un chequeo para saber cuanta memoria tiene, el tipo de
procesador, periféricos con los que cuenta, etc.; cuando me levanto por la mañana yo no
soy capaz de hacer nada semejante. Tampoco ahora tengo la menor idea de cómo me
vienen al caletre las palabras que estoy escribiendo, sólo sé que quiero expresar algo;
tampoco conozco cómo se las apaña mi cerebro para manejar mis dedos sobre el
teclado. En resumen, un ordenador puede tener mucha más información acerca de sí
mismo de la que yo tengo sobre mí, pero no por ello tiene conciencia.
Por lo tanto, tener conciencia no significa disponer de información acerca de sí
mismo. Se puede tener conciencia con muy poca información sobre uno mismo, o
incluso con información errónea. En el caso de que la red neuronal humana funcione
incorrectamente, la información será errónea o necia, falsa, o mal tratada por un
software inadecuado que la convertirá en ruido. También, mientras dormimos, al no
funcionar el sistema nervioso en el estado de atención, no hay conciencia en absoluto.
En el sueño, "lo que cesa o se interrumpe es la conciencia, no la subjetividad; pero es
la subjetividad la que se encuentra entonces en la situación de no poder constituir en
objeto a ninguna realidad o irrealidad (ya sea positiva o negativa, ajena o propia)"[246].
También mientras dormimos, cuando el sistema nervioso parece ajustar las conexiones
neuronales según las experiencias habidas, se tiene una conciencia peculiar, que
corresponde a los sueños. Pero cuando sueño que vuelo, o que soy marciano, en
realidad no tengo información acerca de mi. Si verdaderamente la tuviera sabría que
estoy dormido y que todo es un sueño; aunque puede que alguien consiga obtener algo
de información sobre cómo funciona mi cerebro a partir de mis sueños. De manera
semejante, cuando se padece una esquizofrenia, la información interna y externa que se
recibe es buena, pero el software mental -que puede ser muy bueno en su lógica interna
porque «racionalice» muy bien- está dislocado, por lo que no se ajusta a la realidad.
Otras enfermedades trastocan los sensores internos por los que se accede a la
información, pero no afectan al software con el que se la trata: en estos casos también se
tiene una idea equivocada -un objeto de escasa semejanza- sobre uno mismo. También
puede darse el caso de tener distintas conciencias, como sucede en quienes tienen
personalidades múltiples. Algunos actores, más que actuar, parecen dominar el modo
de adquirir otra personalidad de manera reversible (aquellos que no consiguen hacer
reversible el proceso no son actores, son enfermos psiquiátricos).
Por consiguiente, si al hablar de autoconciencia se quiere señalar algo así como
un conocimiento de sí mismo, de tipo intuitivo, que es habitual y directo y que
verdaderamente es un saber acerca de mi; entonces hay que decir que la tal
autoconciencia no parece darse en absoluto. No se conoce el «yo» de manera inmediata;
ni está el «yo» manifiesto en el pensar, como si fuera una idea clara y distinta en el
pensamiento. "La proposición «pensar algo» significa pensar «yo» es, simpliciter,
falsa"[247].
No se tiene información ni conocimiento sobre uno mismo -ni sobre cualquier
otra cosa- al margen de la información que elabora y suministra el sistema de
tratamiento de información neuronal, que procede de las entradas sensitivas y de las
simbólicas. Por lo tanto no se puede hablar de una autoconciencia que resulte
independiente de las ideas que acerca de mí mismo voy elaborando. Dicho
conocimiento propio será tan bueno o malo, tan completo o escaso, como sean de
adecuados los conceptos que elaboro. El conocimiento de mí mismo lo tengo según las
herramientas conceptuales que invente y aprenda a utilizar: sólo llega donde ellas
alcancen y según sus posibilidades.
Por otra parte, las ideas que tengo sobre mí mismo no son yo; porque yo no soy
una idea. Al menos eso parece asegurar la balanza en la que me peso de vez en cuando.
«Yo», y todas las palabras que invente acerca de mí, corresponden a simples ideas que
me permiten conocerme más o menos si he acertado a hacerlas buenas. Pero no son un
pleno conocimiento de mi mismo que me permita hablar de autoconciencia; porque,
insisto, yo no soy una idea o, si utilizo la terminología de los filósofos, un objeto. Una
idea, proceda de una vía de conocimiento autoconsciente o de cualquier otro lugar, ni
vive, ni actúa: "El yo pensado no piensa"[248]. El yo pensado no soy yo, sino un conjunto
de ideas que he elaborado acerca de mí mismo. Si no he conseguido hacer ninguna idea
sobre mí, no tendré conocimiento propio alguno. Si en la cultura en la que me he
formado hay muchas y buenas ideas que me permitan conocerme, tendré más facilidad
para adquirir conocimiento propio, si me aplico a ello. Para el que se mueva en una
cultura donde se haya practicado poco el deporte de conocerse, las dificultades serán
enormes, como lo son para aprender física en un lugar donde jamás se haya cultivado
esa ciencia.
Por lo tanto, me conozco a mí mismo en la medida en que invento un buen
utillaje mental me permita elaborar valiosos objetos mentales acerca de mí. Lo que
quiere decir que no me conozco sino en la medida en que me hago objeto mental: el
objeto es así lo que me permite conocerme y, a la vez, el límite que me impide
conocerme. También significa que sólo me conozco en la medida en que me hago algo objeto mental, idea- extraño a mí mismo; o en tanto que me pongo ante mí como objeto
mental. La paradoja resultante puede formularse del siguiente modo: "La subjetividad
sólo puede hacerse cargo de sí propia en tanto que se hace cargo de otra realidad
distinta de ella"[249]. Como consecuencia: «yo» no soy lo que del «yo» conozco. No es
que el «yo» sea absoluto o infinito, es simplemente que los límites del objeto mental no
consiguen encerrarlo del todo, sino muy limitadamente, igual que sucede con cualquier
otra realidad. Por consiguiente, más que decir que el «yo» es infinito o absoluto palabras grandilocuentes con las que resulta fácil emborracharse-, me parece que
conviene afirmar que el objeto sólo es una cierta semejanza conceptual del «yo», con el
que nunca consigue identificarse.
Precisamente porque lo único que alcanzo a tener sobre mi -con la ayuda de
libros, de mi vecino, de un psicólogo, o de mi psiquiatra favorito, al que acudo todas las
semanas como Woody Allen- sólo son ideas, objetos mentales, es por lo que no existe la
autoconciencia, entendida como un conocimiento pleno e inmediato de mi mismo; o de
mis operaciones mentales; o de todo lo que se me pasa por la cabeza. "La imposibilidad
de la autoconciencia se concreta, se da, como objeto; dicha imposibilidad es, y
absolutamente nada más, el objeto, el carácter de pensado. Nótese: no se dice que el
objeto haga imposible a la autoconciencia, sino que el objeto hace de imposibilidad: él es
la no autoconciencia, lo incomparable con ella"[250]. Una idea de mi mismo me permite
conocerme algo bajo algún aspecto, pero esa idea de mi no soy yo, ni agota el
conocimiento que puedo tener de mi, es sólo una idea. Sirve para conocerme, si
efectivamente sirve. Siempre será limitada y parcial; también puede ser errónea.
Como consecuencia, el primer lugar donde conviene evitar el Síndrome de
Optimismo Semántico es respecto de la palabra y la idea de «yo». Sin tenerlo en cuenta
se acaba confundiendo la palabra «yo» con uno mismo, y puede uno llegar a creer que
por decir «yo» conoce y sabe «qué» es y «quién» es. Creer en la autoconciencia es una
necedad: "El insalvable resto de opacidad que la subjetividad originaria opone a su
reflexión es el índice, nunca eliminado, de un ser que no se agota en ser conciencia, y
que, por ello, aunque tiene una auténtica certeza de sí propio y aunque cuente también
con otras múltiples y distintas certezas, está siempre sujeto a la posibilidad de la duda
y a la necesidad de no ser para sí mismo perfecta y absolutamente transparente"[251].
Dicho más brevemente: "hay más subjetividad que conciencia"[252]; también, "en sí
misma, la subjetividad es solamente autoconciencia posible"[253]; y, por último, "la
subjetividad no es completamente transparente a sí propia"[254].
Entonces, ¿qué es eso a lo que llamamos conciencia? Me parece que, siguiendo la
línea clásica de pensamiento, debe decirse que la conciencia no consiste en nada distinto
de la misma operación intelectiva de conocer cuando se aplica a saber sobre uno mismo.
Ya se ha dicho que lo propio de hombre es que tiene la capacidad de conocer y dominar
la operación de su sistema de tratamiento de información neuronal. Pues bien, cuando
ese dominio se hace sobre operaciones en las que el sistema trata información
procedente de sí mismo, entonces se habla de conciencia. Aunque, en sentido amplio,
también se puede decir que el hombre tiene conciencia del mundo, ya que el intelecto
percibe que la información del exterior es información. Sin embargo, suele hablarse de
conciencia, más propiamente, cuando se percibe que la información es información que
trata sobre uno mismo y sobre las propias operaciones.
Como la conciencia es sólo captar que la información interna del sistema es
información sobre mí, es claro que no existe una conciencia absoluta, un puro espíritu
pensante, o una res cogitans descarnada. El «yo» se percibe como "algo hecho, algo
dado, y, por tanto, algo que yo no pongo, sino con lo cual me encuentro"[255]. La
información interna de la que se tiene conciencia es, fundamentalmente corpórea y "por
su condición corpórea, se da en cierto modo como «cosa»"[256]. De manera que: "la
subjetividad se nos ofrece como una res cogitans que es, al mismo tiempo, res
extensa"[257]. No hay pues conciencia absoluta, ya que el hombre "vive su propia
conciencia en calidad de meramente relativa: en concreto, como conciencia de y en un
ser determinable como si fuera una cosa"[258].
Por eso tiene sentido el lema clásico teipsum nosce -conócete a ti mismo- como
tarea y como meta. Si la conciencia fuese sólo un ver pasar las ideas para ser consciente
de que conozco, entonces no podría saberse que son sólo objetos mentales; por tanto
limitados y perfeccionables. Pero si la conciencia, como cualquier otra operación
inteligente, no es más que capacidad de dominio y dirección de la operación del sistema
de tratamiento de información, entonces permite saber que los objetos mentales sobre el
yo tratan información interna, que puede ampliarse y elaborarse de manera más
completa. Incluso se puede averiguar que la idea de "yo" es distinta en las diferentes
culturas, o en las variadas opiniones de las discrepantes escuelas psicológicas. De esta
forma el conocimiento propio es sencillamente un trabajo intelectual que requiere
herramientas conceptuales específicas, adecuadas a la peculiar información que hay que
procesar de manera que resulte significativa.
En resumen: no hay una diferencia esencial entre la operación propiamente
intelectiva aunque la información que se procese sea exterior o interior. De la misma
manera que el dominio sobre cualquier cosa no lo alcanzamos sino en la medida en que
dominamos un objeto mental con buena semejanza sobre aquella cosa; igualmente, el
señorío sobre nosotros mismos sólo lo podemos tener en la medida en que elaboremos
buenas ideas -claras, dominables y con semántica- acerca de nosotros. Como
consecuencia, es evidente que una de las tareas más fundamentales para conquistar la
propia libertad y señorío es la del conocimiento propio. También es el trabajo más
fundamental si pretendemos que nuestros actos sean benéficos para la totalidad del
mundo, ya que actuamos según nuestras ideas sobre nosotros. Nuestras acciones siguen
al software mental que hacemos sobre nosotros. Mediante el conocimiento podemos en
parte poseer el mundo. También en parte somos capaces de poseernos, mediante una
adecuada elaboración de las ideas con las que definimos y entendemos lo que
denominamos «yo». Entender «yo» no es distinto de entender nuestra animalidad
corpórea que es la que, mediante la idea de «yo», podemos poseer y dirigir, aunque de
forma incompleta y perfeccionable. "Mi uso de mi cuerpo es de tal índole que lo vivo
como un uso de mi yo, sino que de una forma inadecuada. «Mi yo» está dado con «mi
propio cuerpo»; y, en tanto que están así dados, ambos son igualmente disponibles,
fácticos y míos"[259]
Ahora bien, la elaboración de buenos objetos mentales sobre el propio sujeto
parece difícil por diversos motivos. Ya lo dice la sabiduría popular: siempre es mal juez
quien es también parte interesada. Utilizando la metáfora del ordenador para entender
la inteligencia humana, el problema se puede exponer así: ¿cómo puede un ordenador
escribir el software que necesita para entender sus chips y todos sus componentes?
¿Cómo, además, desarrollar un software que le permita entender y tratar el software
con el que está funcionando? Con el problema añadido de que el software que se busca
hacer cambia al mismo software con el que se pretende hacerlo: acabamos pensando de
nosotros según pensamos de nosotros, y según los paradigmas cambiantes con los que
tratamos la información. La circularidad en la que cae el que pretenda la introspección
es inevitable: en su examen se verá según las ideas con las que se examine; según ellas
«racionalizará» lo que le parezca notar.
Hay otro problema previo que hace infructuosa la introspección: nuestro sistema
de tratamiento de información neuronal no parece estar dotado de los medios
adecuados para captar la información interna. La autoconciencia introspectiva está
condenada al fracaso: en esto hay que dar la razón al behaviorismo cuando criticaba los
métodos de la psicología introspectiva que le precedió. Los sensores internos carecen de
la finura y complejidad que tienen los externos. Al cortex asociativo dominable parece
llegar una información demasiado vaga sobre el mismo sistema: dolores que indican un
mal funcionamiento excesivamente global de una parte del sistema (hay que ser
médico, y acudir a más información, para saber interpretarlos y diagnosticar con
acierto); información sobre estados genéricos del organismo (me siento mal, o bien, o
enfadado, o lánguido, etc.); y una información escasísima o nebulosa, cuando la hay,
sobre el funcionamiento y operaciones del mismo sistema de tratamiento de
información.
Con tan pobre información interna, y de tan mala calidad, la mayor parte del
funcionamiento del propio sistema es inconsciente: no hay información. La persona
resulta casi como una caja negra behaviorista para sí misma. En estas condiciones,
limitándose a la información que nuestro sistema neuronal suministra
«espontáneamente», la tarea de elaborar buenos objetos sobre uno mismo llega a ser
casi imposible. Si la conciencia consistiese -ya hemos visto que no- en tener información
sobre el propio sistema y sus operaciones, entonces sería muy fácil construir
ordenadores con mucha mayor conciencia -información interna- que cualquier hombre.
Para un animal esto no es un grave problema, pues no puede, ni pretende, dirigirse a sí
mismo modificando la forma como trata la información su sistema nervioso. Como el
hombre si que lo pretende y lo intenta, para él supone una grave dificultad tener tan
escasa información disponible y dominable sobre sí mismo: puede estar procurando
autodirigirse -incluso creer que lo consigue, lo que es más grave- sin tener los medios
necesarios para conseguirlo. La combinación de una información escasa con una teoría
inadecuada para comprenderla tiene efectos desastrosos para la vida y la acción de
cualquier persona.
Hacer una teoría conveniente para comprender la subjetividad corpórea humana
requiere el desarrollo de una completa batería de ciencias y de un trabajo intelectual
serio. Esa tarea no corresponde a la autoconciencia, que puede serlo de necedades.
Tampoco a la psicología popular, que no es una teoría, sino precisamente lo que hay
que entender; de forma semejante al canto de los pájaros, que no es una teoría sobre el
canto de las aves, sino lo que debe comprender el científico que se dedique a ello.
Estudiar la folk psicology es equivalente a realizar un trabajo de campo para conocer
una parte de la etología del animal humano; aunque también forma parte de esa
etología observar lo que hace ese grupo de animales humanos que se denominan
psicólogos y se consideran "científicos" cuando hacen su labor. Queda luego la tarea de
hacer una buena teoría capaz de comprender y dar cuenta del curioso comportamiento
de ese tipo de animales que somos, bizarros hasta llamarnos sapiens sapiens, y audaces
como para intentar estar a la altura del nombre que nos hemos dado. Incluso, en el caso
de que se niegue nuestra capacidad de ser sapiens, habría que hacer una teoría
apropiada para entender porqué el animal humano es capaz de hacer teorías que niegan
su capacidad de hacer teorías.
Para conocernos hemos desarrollado una panoplia de ciencias con multitud de
campos especializados: anatomía, fisiología, neurología, psicología, psiquiatría, etc. En
ellas desplegamos muchos de los mejores métodos analíticos y de observación con los
que contamos. El acopio de información es enorme. La situación es como para
felicitarse: jamás se ha contado con tanta información y, por tanto, nunca hemos estado
en condiciones de conocernos mejor. Y el proceso sigue en crecimiento acelerado, con
muchas y muy buenas cabezas empeñadas en la empresa por todo el mundo. Sin
embargo, no acabo de felicitarme: tanta información no termina de decantarse como
conocimiento que aporte comprensión. No sabemos como tratarla y la información que
no se sabe manejar como tal no es sino ruido.
Me quejaré con palabras prestadas: "La psicología, la ciencia de la mente, como
William James la llamó en una ocasión, ha llegado a fragmentarse como nunca antes en
su historia. Ha perdido su centro y corre el riesgo de perder la cohesión necesaria para
asegurar que se produzca ese intercambio interno que podría justificar la división del
trabajo entre sus partes. Y las partes, cada una con su propia identidad organizativa, su
propio aparato teórico y, a menudo, sus propias revistas, se han convertido en
especialidades cuyos productos son cada vez menos exportables. Demasiado a menudo
las partes se encierran en su propia retórica y se aíslan en su propia parroquia de
autoridades. Se corre el riesgo de que, con ese autoencierro, cada parte (y el agregado
que constituye la totalidad de la psicología, cada vez más parecido a una especie de
centón o jarapa) se encuentre cada vez más lejos de otras investigaciones dedicadas a la
comprensión de la mente y la condición humana"[260]. Todavía hay más: "En el interior
de la psicología, hay inquietud y preocupación por el estado en que se encuentra
nuestra disciplina, y se ha producido ya el comienzo de la búsqueda de nuevos medios
para reformularla. A despecho de la ética predominante, favorable a la realización de
«estudios pequeños y primorosos», y de lo que Gordon Allport denominó en una
ocasión «metodolatría», las grandes cuestiones psicológicas se están volviendo a
formular; cuestiones que atañen a la naturaleza de la mente y sus procesos, cuestiones
sobre cómo construimos nuestros significados y nuestras realidades, cuestiones sobre la
formación de la mente por la historia y la cultura"[261].
Tenemos muy buenas técnicas de observación, pero no sabemos cómo pensar
para entender lo que observamos. Por ahora esas técnicas pueden ser más bien un
estorbo que una ayuda para conocerse. Por ejemplo, de la Psicología Cognitiva, que es
la parte relacionada con lo que escribo en estas páginas, no obtengo sino múltiples
imágenes inconexas, como si me mirara en un espejo roto. "Hemos perseguido al sujeto
cognitivo, pero nos hemos encontrado con varios sujetos diferentes: un sujeto que
computa representaciones, y otro que conoce reglas, un sujeto que desarrolla
estructuras formales por una vección inmanente, y otro que se constituye en conciencia
por medio de la relación consigo mismo. Todos son, sin duda, el mismo sujeto, pero su
imagen es fragmentaria"[262]. Y aquí estoy yo desconcertado; con unas ideas, que
tendrían que servir para que me comprenda, rotas en pedazos. Condenado a funcionar
con un software mental que, dadas las autolimitaciones que se impone (aunque sean
muchas menos que las que se adjudicó el behaviorismo) resulta muy problemático y
más bien pobre, del todo inadecuado para hacerse una idea cabal del sujeto. Con él se
construyen caricaturas de monigotes deformes y mutilados en sus dimensiones más
importantes y vitales, pero no buenos modelos mentales de tamaño humano.
Mientras no seamos capaces de hacer un software mental válido para tratar tan
abundante información de manera unitaria, no tendremos buenas herramientas para
suministrar el necesario conocimiento propio. Mientras tanto habrá que recurrir a
comida intelectual basura, en forma de libritos bienintencionados sobre autoestima,
autoayuda, el psicólogo en casa, y su psiquiatra en Internet. También podemos acudir al
utillaje conceptual suministrado por psicologías y antropologías más genéricas e
imprecisas, porque no contaban con tanta información, pero que fueron capaces de
hacerse cargo medianamente del todo sistémico unido que es el hombre en todas sus
dimensiones. Por ejemplo, el modelo mental antropológico de la filosofía aristotélicotomista es un buen ejemplo de cómo pensar bien la información disponible. Sus méritos
son: una atenta observación; un extraordinario respeto por la información que aquella
suministra, por escasa que sea; el diseño de un software mental unitario, claro y muy
ajustado a lo que se quiere comprender, sin prejuicios que acaben forzando las ideas, y
sin declarar inexistente lo que todavía no se entiende; más el empeño por atender a
todas las buenas ideas que han producido los que han dedicado esfuerzo a comprender
la cuestión para valorar lo que aquellas dan de sí, sin rechazar nada que pueda aportar
comprensión, sea de la escuela o corriente que sea.
Por ese procedimiento hicieron, en primer lugar, una buena teoría sobre el
conocimiento animal, que también nosotros tenemos, porque somos animales y no res
cogitans desencarnada. Sentidos externos e internos, unificación de las percepciones
(sentido común), imaginación, habla animal (Aristóteles la llama «habla», no «lenguaje»
para distinguirlo de lo que luego inventa el hombre y es convencional), memoria,
aprendizaje y experiencia, solución de problemas y toma de decisiones para actuar
(estimativa); pasiones, sentimientos, emociones, estados de ánimo (apetitos sensible e
irascible), etc., etc. Todo eso lo tenemos en común con los animales, con el colorido
peculiar que corresponde al animal humano. La teoría psicológica clásica partía de esa
base para entender al animal humano, porque su enfoque era empírico: para entender al
hombre primero hay que conocer al animal que somos.
Sin embargo, como luego hicimos una teoría del conocimiento humano (y, como
consecuencia, del hombre) basada en una inexistente res cogitans autoconsciente, la
cuestión pasó a ser de las «humanidades» y no de las «ciencias», que se ocupan de la res
extensa. Con ello dejamos a un lado la observación, que el behaviorista Skinner vino a
recordarnos, aunque con un pobre y excesivo puritanismo empirista. Por su parte, los
pocos que siguieron estudiando aquella teoría acabaron también por creer que era una
construcción mental «filosófica» cuyo estudio correspondía a las «humanidades», por lo
que se podía hacer y enseñar al margen de la observación empírica, que corresponde a
las «ciencias». Así la acabaron convirtiendo en un comentario de textos cada vez más
antiguos, que generaba textos que trataban de textos. Entre unos y otros, expulsamos de
la psicología al conocimiento y al comportamiento animal que también nosotros
tenemos, y que ahora nos hemos condenado a redescubrir con asombro de gente de
asfalto que sale al campo y ve los animales por primera vez.
La teoría psicológica clásica, sin embargo, comenzaba por estudiar la vida
vegetativa, que tenemos en común con animales y plantas. Luego pasaba a estudiar la
psicología animal, que también es nuestra. Sólo después de procurar entender lo que
hacían los animales, se encaminaban a la atenta observación (pura etología humana) de
lo que hacía el animal humano. De la observación externa empírica, no de la
autoconciencia o de la introspección ni de razones «metafísicas», deducían las
capacidades que tenía ese animal por lo que era capaz de hacer. Seguían un principio
que se basaba en la observación: las facultades (las capacidades o aptitudes) se
distinguen por sus operaciones. Razonaban así respecto del hombre: si encontramos un
animal que hace teorías sobre el mundo y sobre sí mismo, y que incluso puede llegar a
ser escéptico, algo tendrá que le hace apto para eso. Un breve texto de Aristóteles ofrece
un buen ejemplo de este camino gradual, de abajo arriba, para encontrar lo propio del
hombre: "Vivir parece algo común con las plantas; pero indagamos una función
específica del hombre. Por tanto dejaremos a un lado la vida nutritiva y el crecimiento.
Viene luego la vida sensitiva, pero resulta claro que también es común al caballo, al
buey, y a todo animal. Resta, por último, la vida activa del ser que posee la razón y que,
por una parte, la obedece; y, por otra, la domina y la piensa"[263]. Así, paso a paso,
consiguieron inventar los conceptos y las ideas que más comprensión aportaban sobre
el hombre, y también sobre la manera humana de ser inteligente; sin dejar nada en el
camino, sino integrando.
Con esto no digo que aquella psicología sea la definitiva y que hay que volver a
ella. Nada más lejos de mi intención, porque ahora conocemos muchas más cosas, por lo
que estamos en condiciones de hacer una ciencia psicológica considerablemente mejor
que aquella. Sólo afirmo que son un modelo de cómo pararse a pensar bien la escasa
información que tenían disponible, y en esta actividad siguen siendo un buen ejemplo.
Algo semejante habremos de hacer ahora: concebir formas de pensar a la altura de lo
que se necesita para comprender toda la abundantísima información que adquirimos
sobre nosotros, para que cada uno pueda conocer y trabajar mejor su personalidad. Por
otra parte, si algo encontraron que ahora tengamos que «redescubrir», hagámoslo en
buena hora y no lo echemos en saco roto; y sigamos avanzando en el conocimiento.
¿Espontaneidad?: no, gracias
Hasta aquí sobre la autoconciencia, de la que hará bien en desconfiar quien
quiera conocerse. Pasaré ahora a considerar otro pesado lastre conceptual que
obstaculiza el camino de quien busque vivir inteligentemente: la espontaneidad.
Esta palabra goza actualmente de cierto prestigio: lo espontáneo se toma como lo
libre, o lo creativo; como aquello que nace de dentro del hombre y es plenamente suyo.
Tiene también connotaciones de sinceridad, de autenticidad, de algo no desvirtuado por
formalismos huecos o por imposiciones. Detrás de ella también está Rousseau, con su
buen salvaje, y un grupo numeroso de hippies encantadores. Junto a ellos se mueven
los mejores románticos apasionados por la libertad, al estilo de mayo del 68; los
esteticistas del pensamiento débil; y, en general, todos los que con cierta razón rechazan
la basura del sistema cultural en la que están obligados a moverse. Frente a la rígida,
estrecha y, con demasiada frecuencia, loca, tiránica y cruel racionalidad; la
«espontaneidad» se manifiesta como el último refugio de lo humano, de la fantasía, de
los buenos sentimientos, de la imaginación creadora y de la vida auténtica. Los
dominios de la «espontaneidad» aparecen como la verdadera Arcadia felix, la única
tierra en la que mana leche y miel.
A pesar de todas esas cualidades formidables, soy de la opinión de que nos
encontramos ante un desvencijado e inútil molino de viento que la confusa opinión
reinante convierte en temible gigante. Por ello voy a dedicar unas líneas a la quijotesca
pelea de derribar al gigante, para que aparezca la vieja ruina que se oculta tras él. Esta
tarea se debe hacer, porque muchas de las buenas intenciones y esfuerzos que se
consumen tras este engaño son de las mejores y más necesarias que ahora se producen
en el mundo. No es poca cosa señalar la raíz del auténtico timo que las hace estériles,
cuando podrían ser muy fecundas y es absolutamente necesario que lo sean.
Para comenzar a aclarar la cuestión acudiré a herramientas conceptuales tomadas
de la informática: trataré la inteligencia humana con la metáfora del ordenador. Desde
este punto de vista, «espontaneidad» significa que se deja al sistema de tratamiento de
información neuronal funcionar a su aire. Como el sistema nervioso está integrado en la
totalidad unida del organismo, lo que se deja sin dirección es también el sistema
neuroendocrino y el neuromotor; con ellos marcha luego todo el cuerpo del animal
humano, y también sus actuaciones respecto de sí mismo y del entorno. De este modo la
red neuronal y las acciones que dirige se dejan ir a la deriva, sin dirección ni orden
alguno. Al ser «espontáneo» considero válidas las primeras ideas que se me vienen al
caletre, y según ellas organizo mis actos, para que también sean «espontáneos».
Ahora bien, aquí se pueden plantear dos preguntas: en primer lugar, si dejo al
sistema de tratamiento de información marchar de esa manera, ¿se puede llamar
«espontáneo» a ese modo de funcionamiento? En segundo lugar, para el propio
organismo y para el entorno: ¿es ese el ejercicio más acertado que puede hacerse con la
red neuronal?
Pasemos a considerar la primera de las dos cuestiones. Supongamos que dejo
totalmente suelta a la red neuronal, sin marcarle ninguna dirección, para que trate la
información de manera «natural». En este caso, ¿qué es lo que está haciendo en realidad
el sistema de tratamiento de información? Lo que sucede es que, según las entradas del
sistema y según el software que ya tiene, produce determinadas salidas que dirigen los
sistemas neuromotor y neuroendocrino. El problema está, pues, en las entradas y en el
software. Un comportamiento «espontáneo» del sistema supondría que no se dan otras
entradas que las estrictamente sensoriales puras, sin contenidos simbólicos culturales
añadidos. Si estos últimos se suministran -por lenguajes de cualquier tipo, no sólo
hablado-, las entradas ya nos son «naturales», sino culturales y terminan, además,
afectando al propio software mental para modificarlo. Un comportamiento
«espontáneo» significa, pues, que habría que aislar al individuo para que no recibiese
ninguna entrada simbólica en su sistema, ninguna otra información que la puramente
sensorial directa.
Por lo que a las entradas se refiere un comportamiento «espontáneo» requeriría
que todos nos convirtiésemos en Robinson Crusoe. Pero, además, a Robinson Crusoe
habría que hacerle un completo y pormenorizado lavado de cerebro, para que a su isla
sólo se llevase la red neuronal limpia de contenidos y con toda su plasticidad intacta. Ni
siquiera valdría reducirlo a la condición de Viernes, porque éste también llevaba a
cuestas un complejo software cultural, tan primitivo como se quiera, pero no menos
completo. Habría que suprimir todos los símbolos, no sólo los correspondientes a los
lenguajes hablados, escritos, científicos, etc.; sino también los procedentes del lenguaje
corporal, junto con: actitudes, ideologías, temas -como la manía por la «espontaneidad», habilidades, el mismo lenguaje, gestos, gustos, valoraciones, reglas, preferencias,
prejuicios, hábitos, vestimentas, héroes, costumbres, cuentos, relaciones, vivienda,
comidas, estructura familiar, canciones, mobiliario, arte, comparaciones, fiestas,
imágenes, historias, olores, adornos, útiles, juegos, horarios, lugares, ruidos,
ceremonias, cacharros múltiples, anuncios, saludos, músicas, edificios, deportes,
escaparates, peinados, etc., etc., etc... Todas estas cosas son entradas para el sistema de
tratamiento de información que contribuyen no sólo a la información que tiene, sino a la
misma configuración del sistema: así se puede asociar un color a una determinada
pasión (tristeza, por ejemplo, para el negro de luto en occidente o el blanco en China), o
a ciertas reglas (rojo y verde en semáforos); también puede asociarse a una institución
(los colores de la bandera de un país), o a una comida (la paella «sabe» distinto sin un
colorante amarillo), etc. Desarrollar un problemático sistema «espontáneo» no es tarea
fácil: hay demasiado que limpiar.
Sin embargo, esta hipótesis de trabajo es mucho menos hipotética de lo que
parece, puesto que se han dado unos cuantos casos históricos que permiten verificarla:
son los llamados niños-lobo (wolf-children)[264], sobre los que hay incluso alguna
película[265]. Son niños que, por diversos motivos, se han desarrollado privados del
contacto con otras personas. En ellos la «espontaneidad» está casi asegurada. Digo "casi"
porque en ninguno de los casos estudiados se consigue una completa privación del
software añadido, porque, dada la inmadurez de la cría humana al nacer, resulta
prácticamente imposible sobrevivir si no se tienen unos años. Sin embargo, lo cierto es
que se han encontrado casos de personas con software mental-cultural prácticamente
inexistente o muy deteriorado. En estas personas su comportamiento nada tiene que ver
con el idílico y fantasioso Emile de Rousseau: el buen salvaje es una creencia
decimonónica de la que todavía padecemos ramalazos.
Lo que se observa en realidad es un comportamiento que puede calificarse de
prehumano, también en el sentido de preanimal humano, porque no llegan a ser
siquiera animales superiores saludables bien adaptados el entorno. Su red neuronal ha
podido ajustarse un poco por imitación de otros animales -en especial si son semejantes,
como los monos-; también puede aprender mediante procedimientos de ensayo-error
con las propias acciones y sus resultados. En esa situación la supervivencia sólo es
posible en un entorno poco competitivo, de clima benigno y abundancia de comida; son
circunstancias en las que se pueden dar bastantes ensayos, y se toleran abundantes
errores, antes de que peligre irremisiblemente la supervivencia.
Sin embargo, tampoco es una sorpresa que no resulte el comportamiento
esperable de un animal superior sano y equilibrado. Fundamentalmente porque ningún
animal es «espontáneo», ni su sistema de tratamiento de información funciona de
manera no reglada. Más bien hay que decir que el comportamiento animal es sobre todo
estereotipado, de acuerdo con patrones de conducta adaptados a las condiciones del
entorno y a su estado interior. Las especies animales en las que esto no sucede,
sencillamente desaparecen. Por otra parte, la red neuronal del animal no parece capaz
de funcionar de manera independiente de las entradas sensoriales y simbólicas que
recibe. Ajusta las salidas a las entradas de acuerdo con la estructura del sistema
nervioso -los distintos niveles de órganos y sus interrelaciones- según un proceso de
aprendizaje, en el que también interviene la «cultura» del grupo en el que se encuentre.
Por ejemplo, su comportamiento social viene determinado por la estructura social del
grupo; se comportará de una determinada manera según sea su lugar en la escala social;
es decir, de acuerdo con el rol y el status que le corresponda. Ese comportamiento es
bastante rígido y sigue pautas bien definidas para establecer la escala social.
En el animal humano se encuentran comportamientos de este tipo cuando la
cultura más elaborada se deteriora, por lo que se establecen esquemas de grupo más
básicos y primarios. Por ejemplo, en las bandas juveniles de barrios marginales se
puede encontrar una sociedad con pocos esquemas culturales. El grupo se organiza
sobre pautas básicas, resultantes de las escalas de dominación en los machos y hembras,
establecida según comportamientos agresivos más o menos rituales; o de la
supervivencia del grupo respecto a los competidores en el territorio; o sobre los
aspectos más elementales e inmediatos del dimorfismo sexual; su lenguaje es elemental,
cerrado; etc. Me parece que estos grupos son los mejores ejemplos prácticos que se
acercan a el comportamiento «espontáneo» del animal que somos. No lo son, sin
embargo, las llamadas sociedades primitivas, que no son «salvajes», por más que algún
despistado todavía las llame así; y aunque algunos antropólogos se empeñen en
estudiarlas como si se tratase de manadas de gorilas. Poseen mundos simbólicos
considerablemente elaborados dentro de culturas muy complejas y estructuradas.
Entonces, ¿qué es lo que hace en realidad un individuo formado en la cultura
occidental cuando pretende tener un comportamiento «espontáneo»? Porque el caso es
que no puede reducir las entradas de su red neuronal a las puramente sensoriales,
eliminando las simbólicas. Tampoco alcanza a borrar de su cabeza todos los esquemas
del software cultural que posee, incluida la idea de «espontaneidad». En estas
condiciones, intentar ser «espontáneo» consiste en: o bien renunciar a dirigir el sistema
de tratamiento de información; o dirigirlo según el esquema cultural al que se
adjudique el calificativo de «espontáneo».
En el primer caso la «espontaneidad» es totalmente ilusoria, porque si no se
dirige el propio sistema de tratamiento de información, lo que sucede es que manda en
él quien consiga suministrar software mental a través de las entradas del sistema:
eslóganes, medios de comunicación (televisión en especial), modas, Hollywood,
anuncios (buenos manipuladores de información), cultura dominante, cambios
metabólicos, circunstancias, ambiente, estado del tiempo, etc. Es una de las mejores
maneras de ponerse en situación de verdadera esclavitud respecto de cualquiera que
sepa como manejar los símbolos para influir y dirigir a los que se han convertido
voluntariamente en «masa manipulable» por pretender una necia espontaneidad. En la
antigüedad los medios para manipular los estudiaba la retórica; hoy día la panoplia de
instrumentos eficaces se ha ampliado considerablemente. Podría pensarse que una
persona que actúe así se limita a seguir libremente sus inclinaciones; pero no es cierto,
no sigue su inclinación, sino que más bien renuncia a tener inclinaciones; es decir,
renuncia a su libertad. En realidad, deja de utilizar adecuadamente su sistema de
tratamiento de información. Con el agravante de que el hombre que renuncia a su
libertad puede llegar a tener comportamientos que no se darían en ningún animal, por
lo aniquiladores y autodestructivos que llegan a ser.
En el segundo caso, lo que se hace es adoptar para la propia conducta un modelo
cultural simbólico que, por el motivo que sea, se denomina «espontáneo», tomando
todos sus estereotipos de valores, palabras con prestigio, conducta, reglas, esquemas
mentales, apariencia, modos de hablar, temas, etc. Si hay varios modelos a los que se
aplique ese calificativo, entonces se encontrarán comportamientos «espontáneos» que
siguen diversos esquemas culturales: resultan así las espontaneidades de los hippies, o
del punk, o del progre -por lo demás perfectamente integrado en el sistema- que toma
ciertas actitudes a las que se adjudica la vitola de «espontáneas», etc. En cualquier caso,
es evidente que dirigir el sistema de tratamiento de información -y la entera conductasegún un modelo al que se llama «espontáneo», no es espontáneo en absoluto, sino que
depende de las diversas modas culturales y de las variaciones sociales que tenga el
modelo. Aquí la manipulación puede darse aún de manera más completa, sobre todo si
se saben crear buenos modelos conductuales inofensivos y útiles, a los que se haga un
marketing adecuado para prestigiarlos de manera que se coloquen bien en el mercado
cultural. Dado que la red neuronal tiende a funcionar de manera asociativa, un modelo
al que se asocien, con la publicidad conveniente, adjetivos como: progresista, libre,
intelectual, crítico, maduro, ecologista, democrático, científico, etc., tendrá muchos
puntos ganados en la carrera del éxito por manipular al mayor número de personas
posible. Ciertamente esos adjetivos, con toda razón y merecimiento, prestigian las ideas;
pero conviene tomárselos en serio y aplicarlos a ideas que se los merezcan, y no
utilizarlos para colar de matute ideas más bien necias.
Pero aquí no trato de poner de manifiesto las técnicas de manipulación que se
han desarrollado desde que se sabe manejar industrialmente la información y se han
forjado las tecnologías de la comunicación, que mueven cantidades ingentes de dinero y
detentan mucho poder. Sólo intento mostrar las contradicciones que implica la noción
de espontaneidad; y sentiría de veras no conseguirlo, porque está en juego nuestra
libertad. Intento negar el pan y la sal a la siguiente creencia: "Sólo es libre la acción
espontánea. Es difícil negarse a esta evidencia que, sin embargo, encierra una
contradicción que la hace insostenible. Es una afirmación de la libertad que anula la
libertad. En efecto, si el comportamiento no es espontáneo, es coaccionado. El superego,
la educación, las normas, el qué dirán o la moral del grupo dirigen y anulan la libertad.
El sujeto, por lo tanto, no es libre. Pero ocurre que si actúa espontáneamente, tampoco
lo es, porque la espontaneidad es la mera pulsión. Lo que llamamos naturalidad no es
más que el determinismo de la naturaleza. La paradoja nos ha cazado: si quiero ser libre
no puedo ser espontáneo, ni dejar de serlo"[266].
En el fondo, el problema que plantea la paradoja consiste en que el sistema
neuronal de tratamiento de información humano, con su elevada plasticidad, parece
específicamente diseñado para ser dirigido. El que renuncia a dirigirlo se verá
continuamente llevado y manipulado -por más libre que se sienta- por quienes quieran
y sepan hacerlo. Quien busca tener un pensamiento «espontáneo» en realidad renuncia
a ser libre, porque desiste de ser inteligente. La espontaneidad es pasiva: consiste en
vivir atendiendo a lo que se me ocurre, o me pasa, me sucede, me acontece... Quien
busca unos pensamientos y un actuar espontáneos, renuncia a ser actor y protagonista
de su pensamiento y, como consecuencia, de su vida. He de insistir en que "la
inteligencia es una exclusiva humana, porque es la capacidad que tiene el organismo
humano de suscitar, controlar y dirigir sus actividades mentales"[267]. Y, en lo que al
conocimiento se refiere, "la libertad es, pues, la capacidad de autodeterminación que se
manifiesta en el modo inteligente de realizar las actividades mentales y las operaciones
físicas correspondientes. El hombre es sólo un animal que se autodetermina. La
inteligencia es el modo humano de efectuarse esa autorrealización, el modo que
corresponde a un organismo animal de nuestras características"[268].
Quién renuncia a trabajar y dirigir sus formas de pensar y sus ideas, será dirigido
por ellas. Es decir, por quien consiga meterlas en su cabeza "comiéndole el coco"; pues
quien renuncie a proveerse de una buena cabeza inteligentemente entrenada tendrá un
"coco" que otros le podrán comer. No pensará sus pensamientos, sino que éstos le
pensarán. No dominará el lenguaje, sino que éste le hablará. Será manipulado sin
siquiera saberlo, porque ha renunciado a pensar y saber. También tendrá su vida
entregada a la dirección de instancias privadas de inteligencia, encadenada a sus
pulsiones irracionales. Será traído y llevado por sus sentimientos y estados de ánimo,
sometiendo su actuar a los vaivenes que le impongan, sin entender ni entenderse.
Condenado a ir al psiquiatra, para que el especialista de turno le explique su vida y le
diga como vivirla, porque, al haber desistido de pensar, no sabe como hacerlo con
autonomía propia. O puede que llegue a convertirse en un voluntarista cazurro y
obtuso en su tozudez. Capaz de grandes empeños descerebrados; muy competitivo en
el mercado laboral, pero convertido en máquina útil y descendido a homo habilis. No
podrá advertir sus manías y pobreterías mentales y, cuando no sea útil, su vida carecerá
de norte y de sentido.
El aprecio por la espontaneidad se cuela también de rondón por la influencia de
algunas corrientes de la Psicología Cognitiva y, como consecuencia, de la Pedagogía.
Así sucede, por ejemplo, con los partidarios de la existencia de un lenguaje natural en el
entramado de nuestras neuronas: el lenguaje es un asunto del que se encargan los
genes, y en él la persona como tal no es protagonista. Si se pone a un individuo en el
terreno apropiado, espontáneamente brota esa planta. De forma automática y natural
forma todas sus ramas y da frutos. Así la investigación sobre el desarrollo de las
habilidades lingüísticas se reduce al estudio de los terrenos fértiles para que nazca la
planta, descubrir qué condiciones necesita. En estas condiciones la persona no habla,
sino que el lenguaje natural del que está dotada habla por ella. A la persona le sucede
que sabe hablar, porque venía dotada de fábrica para esa tarea y se desarrolló en las
circunstancias adecuadas, pero ella no puede hacer nada al respecto. Las palabras las
dice porque se le ocurren, pero no son en realidad suyas. No es libre, está sometida a la
«espontaneidad» de su lenguaje natural.
Otro ejemplo lo encontramos en algunas prácticas pedagógicas tributarias de la
teoría de los estadios de Piaget, que poco a poco vamos superando. Piaget hizo un buen
trabajo de investigación sobre el desarrollo intelectual de los niños[269] y abrió un
camino espléndido que sigue rindiendo abundantes frutos. Dividió el desarrollo
cognitivo en tres etapas básicas o estadios: preoperatorio (hasta los 6 años); período de
operaciones concretas (entre los 7 y 11 ó 12 años); y período de las operaciones formales
(adolescencia). Para entender los datos que aportaba la observación partía de una idea
no del todo acertada, excesivamente «racionalista», como si tuviéramos una res
cogitans que «espontáneamente» fuera desenvolviendo sus capacidades
formalizadoras. Esa idea, luego mal digerida por entusiastas piagetianos, llevó a una
serie de teorías y prácticas pedagógicas en la que se dejaba al niño para que
«espontáneamente» desplegara las res cogitans de la que venía dotado. De esta forma,
"las teorías de los estadios, por su mismo contenido, generan procedimientos de
instrucción débiles"[270]. Actualmente, salvo en reductos ideologizados y poco
inteligentes, esas teorías pedagógicas, que pretenden facilitar la espontaneidad
mediante técnicas de barbecho y pasividad pedagógica, están siendo abandonadas
porque los resultados que obtienen son más bien pobres.
Otro lugar donde la idea de espontaneidad puede hacernos mucho daño es en la
conciencia ecológica, que tan trabajosamente estamos desarrollando. En este caso, por
ejemplo, se trataría de dejarse llevar por los sentimientos ecologistas «naturales» que
surgen «espontáneamente» en comunión con la naturaleza. Pero, sin pararse a pensar
en lo que pueda ser una auténtica acción ecológica, ni procurar entender en serio los
procesos naturales de los seres vivos, esta actitud sólo da lugar a actuaciones
descerebradas e incoherentes. Conozco el caso de una pareja que fue a «la selva» para
vivir «naturalmente» dejando suelta su «espontaneidad»; al cabo de un tiempo
volvieron. Declaraban cándidamente que se les había acabado el dinero y se aburrían;
aparte de lo duras que resultaban allí las enfermedades, la soledad, y el hambre
auténtica que pasaban en ocasiones. Pero seguían pregonando que lo mejor era la vida
«natural», y que aquella era la mejor forma de vivir. No parecían darse cuenta que todo
el asunto resultaba casi un chiste penoso. Eran incapaces de caer en la cuenta de que lo
natural en el animal humano es pararse a pensar en serio, es vivir inteligentemente si
quiere llegar a ser medianamente humano.
Una ecología sentimental y descerebrada se condena a realizar continuos
destrozos bienintencionados. Sus acciones producirán perpetuos efectos colaterales no
deseados. Una «espontaneidad» así, que algunos pretenden, puede ser nefasta; nos
podemos convertir en los aliados definitivos de la entropía hasta conseguir un ecocidio
total. Hay demasiado en juego para admitir como válida una actitud que puede llegar a
ser extraordinariamente irresponsable y destructiva. El hombre que renuncia a ser
racional -en el sentido de dirigir su sistema de tratamiento de información- puede llegar
a hacer unas barbaridades que ningún animal hace, hasta convertirse en el ser más
destructor de la tierra. No se puede dejar suelto y anárquico al sistema neuronal de
tratamiento de información esperando que se ajuste por sí solo de manera adecuada.
Acabamos de inventar los «sentimientos ecologistas» y hemos de entrenarnos a
cultivarlos y hacerlos eficaces.
Precisamente porque tenemos la posibilidad de hacer objetos mentales y
considerarlos sin que automáticamente nos muevan, tenemos también la posibilidad de
movernos por objetos mentales y sentimientos que llamamos «espontáneos», pero que
no lo son y pueden ser muy peligrosos. La «espontaneidad» del animal humano puede
ser gravemente insensata y necia. No tenemos inclinaciones que nos aseguren un buen
camino, como las tienen los animales porque el proceso selectivo de la supervivencia de
la especie se encarga de ello. Tampoco somos como los dinosaurios, que
desaparecieron, pero sin dejar a su alrededor un rastro de aniquilación total porque no
podían, como nosotros si podemos, llevarse todo por delante. Queramos o no, hemos de
dirigir con mucho tacto e inteligencia nuestras acciones respecto de nosotros y del resto
de los seres del universo. Marchamos por nuestros propios pasos en la dirección que
marquemos: ningún instinto nos salvará del precipicio. Nada nos exime de la
responsabilidad de dar una buena dirección a nuestros pasos.
Además, la espontaneidad ecológica no es algo deseable por una razón más
fuerte: ¿y si sucediera que podemos dirigir el sistema de tratamiento de información de
manera que acrecentemos el orden? ¿Qué pasaría si consiguiéramos utilizar nuestra
inteligencia como el mejor instrumento antientrópico? La cuestión entonces sería: ¿cómo
hemos de aprender a pensar acerca de nosotros mismos, y de los demás seres, de
manera que nuestras acciones no sólo resulten ajustadas al entorno, sino que lo
perfeccionen? ¿Cómo hemos de dirigirnos y dirigir nuestras actividades para que crezca
el orden, la información, la vida?
En definitiva, para dar por terminada la cuestión, las observaciones empíricas
están llevándonos a abandonar la idea de espontaneidad como un viejo cacharro mental
inservible que sólo ha traído confusiones. "La psicología de la inteligencia acusa a esta
idea de anacrónica, pues se basa en una teoría del sujeto como pasividad, que no resiste
un análisis serio. Concibe al entendimiento como una tabula rasa, que recibirá
información en proporción a su blancura. Si está absolutamente vacía será capaz de
captar todo. Esto sólo puede admitirlo un analfabeto psicológico. No hay tablilla en
blanco. La inteligencia no es una transparencia, ni una sutil sustancia donde la realidad
imprime su huella dactilar, sino una actividad poderosa y compleja, que necesita
eficaces recursos para funcionar. Quien ve la riqueza de lo real no es el que carece de
hábitos, sino el que posee muchos, flexibles, polivalentes hábitos creadores. La
subjetividad amebática no capta nada. El organismo amebático es gordo y fofo. La
souppesse no es propiedad de un organismo desmedulado, sino de un organismo
ágil"[271].
Cibernética del animal humano: el Cybersapiens
Una característica peculiar del hardware del sistema de tratamiento de
información neuronal biológico es que no es fijo en su organización física, ni en las
conexiones que producen la estructura formal básica. La red neuronal animal (incluida
la nuestra) se configura en gran parte conforme a las entradas del sistema, y también
según cómo se actúa. Tiene lo que se suele denominar plasticidad, propiedad que varía
en los diferentes animales. La plasticidad del espacioso neoencéfalo del animal humano
es especialmente grande. Esta propiedad merece ser resaltada, pues tiene grandes
consecuencias y supone una diferencia fundamental con los sistemas artificiales de
tratamiento de información que ahora somos capaces de hacer, incluidas las redes
neuronales artificiales.
Los ordenadores electrónicos habituales tienen unos chips cuya circuitería es
inmutable. El hardware es fijo y está patentado por el fabricante de los procesadores. El
mismo procesador puede hacer tareas lógicas distintas porque almacena en su memoria
unos datos y una instrucciones diferentes. Aquí la plasticidad no es física, sino lógica, y
corresponde al software. Normalmente el software (el conjunto de instrucciones que se
llama programa) también es fijo, y asimismo está patentado. En muy pocas ocasiones el
software es variable, de forma que se automodifique y se reconfigure según las salidas
del sistema. Cuando digo "software variable" no me refiero a los programas de
aprendizaje, que son programas para incorporar conocimientos cuya estructura básica
permanece, sino a los que son capaces de «reescribirse» como tales programas. Este
campo de la informática es aún tierra casi virgen. Se ha comenzado a vislumbrar un
poco con el desarrollo de cierto tipo de máquinas simbólicas (las máquinas LISP,
diseñadas con una circuitería adaptada para funcionar con ese lenguaje) que tienen la
curiosa y, por ahora, desconcertante y casi inmanejable propiedad de modificar su
software continuamente, pues las mismas salidas simbólicas pueden ser utilizadas
como entradas de software del sistema. El software cambia así continuamente según el
sistema realiza las operaciones, por lo que la misma lógica del sistema es variable, sin la
rigidez de los sistemas de tratamiento de información más extendidos. Esta es una
primera aproximación a lo que hace el sistema nervioso, pero ni siquiera las máquinas
LISP son capaces de modificar el hardware según el software que van produciendo y
automodificando al trabajar, cosa que si hace el sistema nervioso de los animales.
Dejemos a las máquinas simbólicas y vayamos a las conexionistas (las redes
neuronales artificiales) que han dado pruebas de parecerse más al cerebro animal. En
una red neuronal artificial las conexiones entre las neuronas son fijas, por lo que
también lo es la estructura de la red. Lo único que se hace es variar el "peso" de esas
conexiones de manera que resulten neutras, positivas o negativas (igualen, refuercen o
disminuyan la salida en función de la entrada en relación con la intensidad de las otras
conexiones). Mediante procedimientos de ensayo y error toda la red adapta así el "peso"
de las conexiones hasta alcanzar una intensidad óptima en función de los resultados
que se quieren conseguir como salidas ante un tipo de entradas. Con esa adaptación de
la intensidad de las conexiones la red "aprende" a resolver una determinada clase de
problemas. Aquí la plasticidad queda reducida al mayor o menor valor que se atribuya
a la intensidad de una conexión entre dos neuronas electrónicas. En las redes
neuronales artificiales las neuronas no se multiplican, no lanzan axones para conectarse
en zonas remotas, ni modifican el número de sus dendritas (conexiones próximas con
otras neuronas); tampoco varían el tipo y cantidad de neurotransmisores en las sinapsis;
las neuronas artificiales nunca enferman ni mueren. Si se quiere estudiar la plasticidad
neuronal, la situación es aún peor para la mayor parte de las redes neuronales que
estudian los investigadores; porque no las construyen físicamente, sino que las simulan
mediante un programa que funciona en el procesador lógico del ordenador tipo von
Neumann con el que trabajan.
Nuestra red neuronal biológica goza de una plasticidad bien distinta. Las
neuronas son células vivas en permanente cambio, que es particularmente intenso en
los primeros años del desarrollo. Cada neurona establece conexiones lejanas mediante el
axón, y también desarrolla una abundante y tupida red de contactos con las neuronas
cercanas mediante las dendritas. Tienen así miles de conexiones cambiantes en los
puntos de contacto interneuronal que se denominan sinapsis. En estas zonas de
contacto se intercambian neurotransmisores, cuyo número es también abundante y
varían entre unas sinapsis y otras. Toda la red neuronal se configura con el uso que se
hace de ella. La estructura "física" de nuestro cerebro (en la que hardware y software
van juntos en la configuración misma de la red) la vamos haciendo con lo que
pensamos, hacemos, hablamos, leemos, imaginamos, procuramos recordar,
escuchamos, vemos, etc. Nuestra cabeza es nuestra, y la tenemos puesta las veinticuatro
horas del día: conforme la utilizamos se va configurando y reconfigurando
constantemente. Según nos entrenemos a utilizarla, así podremos pensar, recordar,
imaginar, e incluso sentir. En nuestra red neuronal el saber si ocupa lugar, porque no es
la etérea res cogitans que imaginó Descartes. Por ahora carecemos de herramientas
conceptuales aptas para hacernos cargo de los que tal plasticidad significa.
En el campo de estudio de los sistemas que ajustan su comportamiento y se
hacen más hábiles en función de lo acertado de sus logros, las mejores herramientas
conceptuales que tenemos proceden de la cibernética. El nacimiento de la cibernética
está ligado al intento por resolver un problema preciso: la regulación automática de la
dirección de tiro en los cañones antiaéreos. Durante la Segunda Guerra mundial el
gobierno americano encargó a un profesor del Instituto Tecnológico de Massachussets,
Wiener, que intentase resolverlo. Al enfrentar el problema, y dar con algunas
soluciones, Wiener intentó una conceptualización general de las cuestiones con las que
se enfrentaba. En contacto con otros científicos, como el fisiólogo Cannon, pudo
comprobar que, aparte de la automática, ese tipo de problemas de control y
comunicación se planteaban en muchos otros ámbitos. Por ello amplió paulatinamente
su teoría de forma que abarcase a los seres vivos y a las máquinas, o, más en general, a
todo cuerpo con dinámica organizada mediante información. Finalmente publicó en
1948 la que llegaría a ser una obra famosa: Cybernetics[272]. El nombre de cibernética fue
escogido a partir de la palabra griega kybernetike, que significa timonel.
Con la cibernética surge una disciplina que estudia la evolución temporal
dinámica de los sistemas con capacidad de autorregulación y automantenimiento al
interactuar con el medio que los rodea. O, con la definición de Wiener: la ciencia del
control y de la comunicación en el animal y en la máquina. De manera breve cabe
afirmar que "las aportaciones de Wiener pueden resumirse en dos puntos:
1. Resaltó la importancia de los estudios interdisciplinarios, mostrando el
gran interés que presentan para cada una de las disciplinas consideradas.
2. Advirtió la presencia de procesos realimentados de control en una
amplia clase de sistemas, tanto naturales como sociales"[273].
La cibernética no ha conseguido establecerse con un objeto y método unificados
en la tradición académica, por lo que el término cada vez se ha utilizado menos, siendo
sus hallazgos integrados dentro de la Teoría General de Sistemas[274], en lo que se
refiere a los aspectos más teóricos. Las facetas más prácticas y utilitarias, por su parte,
han sido asumidas dentro de la automática y control, o en la robótica. Tan sólo en los
países del Este europeo se ha constituido como una ciencia amplísima que engloba
aspectos tan diversos como la teoría de la información, la comunicación, computadoras,
sistemas de control, robótica, modelización de la economía, sociología, etc.
Independientemente de la evolución académica que tenga la cibernética como
disciplina, es necesario referirse a una serie de conceptos que con ella se pusieron en
marcha y son de uso común en muchos ámbitos.
La primera noción que populariza la cibernética es la de realimentación negativa
o feed-back. Con ella se designa el primer mecanismo que se estudió por el que un
sistema consigue autorregularse. Consiste, fundamentalmente, en un proceso por el que
un sistema, en función de los resultados de las acciones, modifica esas mismas acciones
para que alcancen un objetivo determinado. Se llama realimentación negativa porque lo
que se considera son las desviaciones que se producen alrededor de una situación
dinámica considerada óptima: esta es la que hay que alcanzar y mantener. Un
mecanismo de feed-back sólo tiene en cuenta «lo negativo», es decir, la desviación del
resultado óptimo; por lo mismo sólo es capaz de corregir «lo negativo» para
aproximarse al óptimo que se pretende. Los mecanismos de regulación por
realimentación negativa se ordenan únicamente a corregir los errores. Lo que se
«realimenta» es información sobre lo que se ha conseguido en tanto que se desvía del
óptimo, para corregir y alterar el comportamiento del sistema en orden a que lo
realizado se acerque más a una valor que asegure mejor la estabilidad dinámica del
sistema.
La realimentación procesa, por cualquier medio, información sobre las acciones
pasadas de forma que las acciones futuras se ajusten mejor a la actividad óptima del
sistema. El concepto de feed-back está estrechamente unido al de homeostasis:
permanecer semejante o igual a sí mismo. Esta noción tiene una procedencia biológica y
se utiliza para designar la cualidad que tienen los seres vivos -incluido el hombre- de
regular determinadas magnitudes fisiológicas dentro de unos límites que aseguren la
supervivencia del organismo. Esta regulación se suele hacer también con mecanismos
de feed-back negativo.
Los conceptos de realimentación negativa y de homeostasis son aptos para
entender procesos que tienden a mantener la estabilidad y el equilibrio de un orden
dinámico, pero no sirven para aquellos procesos en los que no se tiende a un equilibrio,
o a la perpetuación del status quo. Así resultan muy convenientes para hacer inteligible
la dinámica de muchos procesos físicos, químicos y biológicos en los que resulta clave
el mantenimiento del mismo proceso. Sin embargo, no son adecuados para tratar
aquellos casos en los que se dan modificaciones que aumentan el orden, como puede ser
el crecimiento; o si se presentan acciones que tienden no a perpetuarse, sino a conseguir
un cierto objetivo para luego cesar. Es evidente que en los seres vivos ambos tipos de
acciones son frecuentes, por ello la cibernética ha tenido que desarrollar otro tipo de
conceptos que tengan más capacidad para hacer inteligible el actuar de los seres vivos y
de los sistemas con evolución predictiva.
Al estudiar los procesos con regulación anticipatoria o por predicción, la
cibernética ha desarrollado los conceptos de feed-before -también se suele denominar
feed-forward- y de mando[275] como distinto de la simple regulación para el
automantenimiento u homeostasis. El «mando» es un tipo particular de control en el
que se proyecta el futuro, y según ese proyecto se actúa en el presente. El mando es el
control de la acciones con metas, objetivos o fines. Aquí la realimentación no es
negativa, sino anticipatoria y teleológica. El sistema ha de tener en cuenta cuál será el
futuro más probable para el entorno en el que se mueve y, a la vez, ha de decidir cuál es
la mejor estrategia para alcanzar una determinada meta en esa situación futura. De
acuerdo con las circunstancias cambiantes, que se ajustan más o menos a lo proyectado,
y teniendo también en cuenta distintas metas, se modifican las acciones y se hacen
nuevos proyectos.
Para este tipo de control de «mando» no basta con que exista un patrón de
equilibrio al que se ajuste el sistema. De hecho tampoco hay un patrón de actividad al
que ajustarse, sino diversos caminos y estrategias de entre los que se elige el que parece
óptimo para un fin particular propuesto; otros fines distintos se alcanzarían de otras
formas y darían lugar a otras estrategias. Para este tipo de control, más que un patrón al
que ajustarse, el sistema lo que necesita en primer lugar es una buena representación
del entorno y de su posible evolución y modificaciones, teniendo en cuenta también las
acciones propias; en segundo lugar es preciso un sistema de motivaciones. Los sistemas
de motivaciones que estudia la cibernética se consideran de la forma más general
posible, de manera que con ellos se abarque no sólo lo aplicable a los seres vivos
(instintos, apetencias, afectos, pulsiones, necesidades, etc.), sino también a las
«motivaciones» de los constructos cibernéticos. Se está desarrollando, de esta manera,
una teoría general de la motivación que sea válida en todos los casos en los que éstas
aparecen. Es evidente que todas estas conceptualizaciones tienen gran interés para la
antropología y la psicología.
Este orden de ideas se ha visto considerablemente potenciado por el estudio, el
desarrollo y la introducción de procedimientos cada vez más potentes de adquisición y
procesamiento de información. "La posibilidad de incorporar mecanismos de
procesamiento de la información en la máquinas permite obtener de ellas formas de
comportamiento que ponen de manifiesto enormes dosis de habilidad e ingeniosidad, y
que están claramente separadas de los comportamientos de tipo mecanicista, de carácter
esencialmente repetitivo, de los juguetes mecánicos y de los relojes. La introducción de
la información en la concepción de las máquinas conlleva la incorporación en su
estructura de mecanismos de realimentación, que están en los orígenes de la cibernética.
Gracias a estos mecanismos las máquinas muestran formas de comportamiento en las
que ponen de manifiesto aspectos adaptativos y aparentemente teleológicos,
sensiblemente diferentes a los mecanicistas"[276].
La cibernética, por consiguiente, ha suministrado una panoplia de instrumentos
conceptuales aptos para comprender en parte la peculiar organización y actividad de
los cuerpos que no son simples autómatas mecánicos, en particular de aquel tipo de
cuerpos que denominamos «vivientes». Estas ideas, unidas a las que provienen de la
teoría de la información e informática, han culminado en la teoría general de los
cuerpos organizados que es la teoría de sistemas. Sin embargo, esta teoría está poco
desarrollada para suministrar ideas que permitan entender a los sistemas que incluso
lleguen a modificar sus componentes físicos a medida que evolucionan, como sucede en
un ser vivo que crece. Para tratar la información se sirven de los sistemas ya conocidos,
como los simbólicos y los conexionistas electrónicos.
Para entender los seres vivos hemos de aprender a pensar más allá de sistemas
que parten de unos determinados componentes y sólo ajustan su funcionamiento.
Hemos de llegar a entender a unos sistemas que modifican las mismas "condiciones
iniciales" a medida que se desarrollan. En el sistema nervioso de los animales la
situación es diferente a los sistemas artificiales que ahora hacemos: durante el desarrollo
ni el número de neuronas, ni las conexiones neuronales son totalmente fijas. Neuronas
se producen muchísimas más de las que luego permanecerán en el sistema nervioso
maduro: hay un proceso constante de poda en las primeras etapas. "La capa de células
que rodea al tubo neural origina muchas más neuronas de las necesarias. De hecho, las
neuronas producidas han de competir por su supervivencia. Los axones de
aproximadamente el 50 por ciento de esas neuronas no encuentran células
postsinápticas vacantes del tipo adecuado con las que formar conexiones sinápticas, y,
por consiguiente, mueren"[277]. El proceso selectivo continua después del nacimiento
hasta que, paulatinamente, el sistema nervioso estabiliza su estructura básica.
Además, las neuronas biológicas no sólo adaptan el "peso", o intensidad positiva
o negativa, de las conexiones sinápticas según las entradas (problema) hasta dar con
una salida eficaz (solución); sino que establecen conexiones sinápticas nuevas y
eliminan otras existentes según la eficacia de la relación entre salidas y entradas del
sistema nervioso. Aquí la plasticidad afecta al hardware, que modifica su estructura;
por ello mismo, al ser una red neuronal, modifica el software, que no es otra cosa que la
misma estructura de la red. La modificación del hardware es muy grande en los
primeros estadios de la vida, cuando el sistema nervioso tiene un intenso metabolismo
y crecimiento rápido: la capacidad de aprendizaje es máxima. Posteriormente continua
su crecimiento y adaptación hasta la madurez; luego decrece y se produce una
paulatina rigidificación y empobrecimiento del hardware y del software, que es mutua
porque también es recíproca su plasticidad.
En los animales superiores la plasticidad del sistema nervioso, mediante el
aprendizaje, permite adquirir habilidades que no vienen establecidas en la información
genética. Los genes determinan la plasticidad neuronal, no lo que luego se consigue con
ella. El aprendizaje consiste en la adquisición de habilidades de comportamiento
individual y social encaminados a adquirir una conducta eficaz para la perpetuación de
la especie. Mediante el aprendizaje se configura el sistema de tratamiento de
información de forma que realice espontáneamente determinadas operaciones útiles,
adquiridas por la experiencia del individuo por procedimientos de ensayo y error; o con
la experiencia acumulada por la especie que le es transmitida mediante imitación de la
conducta del adulto, reforzada con premios y castigos. El comportamiento inicial de la
mayoría de los mamíferos superiores difiere en gran parte del comportamiento adulto,
no sólo por la paulatina maduración biológica, sino por las conductas que se adquirirán
mediante aprendizaje.
El proceso de doma y domesticación de los animales aprovecha esa capacidad de
adquisición de destrezas para introducir conductas nuevas. Sin embargo, es evidente
que sólo se pueden adquirir aquellas habilidades para las que efectivamente existe
plasticidad neuronal y capacidad de creación de automatismos neuromotores. Así, por
ejemplo, adiestrando mediante premios y castigos ha sido posible enseñar a un bonobo
a producir ruidos semejantes a unas escasas y sencillas palabras bisilábicas, con las que
ajusta su conducta y la ajena. Sin embargo, no parece que la estructura y plasticidad
neuronal de los primates dé lo suficiente de sí como para adquirir habilidades
lingüísticas verdaderamente diferenciadas del habla animal, y que se acerquen a las del
sapiens (que cuenta con las muy plásticas áreas corticales de Brocca y de Wernicke para
realizar esa tarea).
En el animal humano se produce también ese proceso de desarrollo y
maduración del sistema nervioso. De manera semejante a los animales, y especialmente
en las zonas más primitivas del cerebro, se establecen las distintas partes, con neuronas
especializadas, vías de comunicación, conexiones, etc. Igualmente aprenden por
imitación y si son motivados. Sólo recientemente se está estudiando el proceso
educativo en relación con el crecimiento y maduración neuronales. Hasta hace bien
poco se acudía, bien a la experiencia acumulada sobre lo que es más eficaz, bien a
dudosas razones muy hipotéticas y pretendidamente filosóficas que daban lugar a
teorías educativas con escasa base empírica. En este campo, sin embargo, la base de
partida han de darla la neurofisiología y la psicobiología del desarrollo y maduración
humanas; sólo así se puede establecer con claridad las posibilidades y límites de la
plasticidad del sistema nervioso, y cuáles sean los mejores modos de explotarla y
dirigirla.
Corresponde a las ciencias neurológicas establecer las diversas fases de
crecimiento y plasticidad del sistema nervioso en los animales y en el animal humano.
También deberán averiguar en qué momentos la plasticidad se debe al crecimiento (fase
en la que se multiplican las neuronas, y los axones y dendritas están creciendo y
estableciendo las conexiones); o se debe a la modificación de la intensidad de las
conexiones (porque ya casi ha cesado el crecimiento de los axones, y las dendritas
también varían poco, por lo que sólo se modifican las sinapsis entre neuronas que ya
están conectadas); es evidente que las posibilidades de variaciones mutuas de hardware
y software serán distintas según las diferencias de plasticidad. Los que cultivan las
ciencias neurológicas, unidos a los de las ciencias cognitivas y la informática, deberán
estudiar las características y propiedades de sistemas de tratamiento de información
que pueden modificar el mismo hardware en función del software y de las salidas que
ellos mismos producen. En este campo tengo poco que decir, salvo hacer preguntas a
los que cultivan esas apasionantes ciencias, y esperar a que vayan adquiriendo
conocimientos y me los cuenten.
Aparte de la plasticidad común con los animales dotados de un sistema nervioso
desarrollado, el comportamiento del animal humano muestra otra peculiar
maleabilidad. Se pone de manifiesto en una curiosa actividad, sobre la que deseo llamar
la atención de los etólogos del animal humano. La observaciones de campo indican que
esa especie dedica muchos recursos y cada vez más años a la educación de sus
cachorros. Incluso llega a suceder que, en algunas grandes manadas con territorio
propio a las que llaman "países desarrollados", los individuos dominantes imponen ese
comportamiento por la fuerza a todos los miembros jóvenes del grupo, y exigen lo que
denominan "escolarización obligatoria". En la época en la que los cachorros deberían
dedicar su vida a corretear, olisquear, explorar el terreno, jugar, pelearse, etc., son
estabulados en recintos que llaman "aulas". En ellas, con extrema crueldad ritualizada,
reciben durante muchas horas, muchos días y muchos años, riadas inmensas de ciertos
sonidos, a los que la especie llama "leguaje". Allí su «espontaneidad» es reprimida
constantemente por otros miembros adultos de la manada. Por ejemplo, se les enseña a
repetir que dos y dos son cuatro, sin dejarles desplegar una idea más creativa y variada
de la propiedad aditiva. También son forzados a hacer manchas de determinadas
formas; a esas manchas las llaman "letras", y al proceso de emborronar superficies
limpias con esas manchas siguiendo ciertas reglas lo denominan "escribir". Se ignora el
motivo por el que dominar tal actividad les proporciona luego preeminencia en la
manada.
Pero basta de ironías. Lo que quiero poner de manifiesto es lo siguiente: en el
animal humano la situación es aún más interesante que en los demás animales, porque
su red neuronal admite entradas simbólicas del mismo tipo que las que produce como
salidas. En el caso del hombre, el software lingüístico y simbólico modifica y
reconfigura el hardware, es decir, la estructura de la red neuronal. De salida, en el
animal humano se encuentran procesos equivalentes a los que descubrimos en el
aprendizaje animal. Como, además, el hombre puede dirigir su propia operación
cognoscitiva, es posible adquirir nuevas destrezas, de forma consciente y dirigida.
Por ejemplo: puedo plantearme los mejores movimientos que facilitan un mayor
rendimiento en un determinado deporte. Después de haber considerado cuáles son los
más idóneos, puedo hacer que la corteza cerebral dirija los movimientos de mi cuerpo.
Esa dirección será torpe e insegura, porque el cortex no tiene control directo sobre los
subsistemas neuromotores, sino indirecto a través de la dirección que le permite el
proceso de telenfalización. No obstante, de manera paulatina los órganos del sistema
nervioso con mando "directo" se irán haciendo cargo del control de las operaciones que
me obligo a realizar. A la larga, si he acertado diseñando movimientos adecuados y
factibles, la orden de la corteza cerebral produce una cascada de automatismos -o de
subrutinas de control directo- que se realizan de manera fácil e inconsciente. Cuesta
aprender un deporte técnico, como esquiar, mediante la instrucción y tomándose el
trabajo de pensar detenidamente los movimientos, pero es el mejor procedimiento para
adquirirlo sin vicios y practicarlo a la larga con facilidad.
De la misma manera se pueden conseguir destrezas sobre otros tipos de
comportamiento. Además también es posible conseguir habilidades sobre estados
corporales (pasiones y sentimientos) de forma que a las "querencias" básicas que tiene el
hombre como animal (lugares conocidos -entornos familiares-, cosas agradables o
dolorosas, sabores, etc.) se añadan otras introducidas voluntariamente. Así es posible
que surjan pasiones de agrado o de odio ante músicas (himnos); colores y formas (de
banderas, obras de arte); incluso ante abstracciones, tengan a no semántica (como
libertad, democracia, humanidad); etc., etc.
Con el lenguaje y la enseñanza el nivel del aprendizaje alcanza un nivel superior
al que ostentan los demás animales. Cuando adquiero una habilidad corporal las
modificaciones no son tan cualitativamente distintas. Así por ejemplo, si procuro correr
para adquirir "fondo" físico de manera paulatina, consigo un mejor funcionamiento de
los pulmones, del corazón y del hígado. Además varío el tono y rendimiento muscular,
junto con algunos parámetros sanguíneos, etc.. Pero no consigo dotar al organismo de
un orden sistémico formal nuevo: sólo modifico los elementos y hago que el mismo
orden sistémico realice mejor una operación que ya podía hacer. En el caso del sistema
nervioso y del lenguaje, es el mismo orden formal físico de las conexiones neuronales el
que resulta modificado, sus operaciones resultan así absolutamente nuevas e
impredecibles desde el orden formal anterior.
Si me entreno, no sólo puedo aprender a jugar al tenis; puedo también
expresarme en otro idioma; o saber leer y escribir; o resolver ecuaciones de segundo
grado; o aprender a fabricar aviones, retroexcavadoras y máquinas racionales. También
está en mi mano interesarme por la medicina, y curar; o por la filología, y acabar
sabiendo algo de ese estupendo invento que es el lenguaje, que estudio mientras lo uso.
Puedo, asimismo, estudiar aquel magnífico artificio romano que es el derecho, y acabar
con habilidad para ejercitarme en algunas de sus variantes: civil, legal, administrativo...
También me puedo dotar de conocimientos y habilidades que, por ejemplo, me hagan
ser considerado útil en el mercado laboral. O hacerme diestro en refrescar manzanilla,
actividad que no producirá ingresos, pero me permitirá disfrutar de ratos agradables
con los amigos.
Las novedades que se pueden producir como hábitos en el sistema de
tratamiento de información son así absolutas; los resultados que produce aquí el feedback son ciertamente nuevos. En el hombre surgen una "propiedades emergentes" de
carácter nuevo, mucho más potentes. Aquí conviene no olvidar que el sistema de
tratamiento de información humano está totalmente integrado en el orden sistémico
corporal; en especial, es estrecha la unión entre los sistemas nervioso, motor y
endocrino. Por ello, esa posibilidad de modificación y de adquisición de hábitos tiene,
de manera casi inmediata en muchos casos, consecuencias conductuales e incluso
orgánicas. El pensar no está desconectado del organismo, como bien ponen de
manifiesto todos los fenómenos psicosomáticos. Un cambio de pensar no dominado,
supone un cambio de conducta y de pasiones no dominado, y al revés.
Podemos decidir lo que miramos (unas horas de televisión o salir al campo) y
escuchamos (Brahms o rock duro); aquello por lo que nos interesamos y aprendemos
(astrofísica, la liga de fútbol o la cotización de la bolsa); lo que leemos; lo que
recordamos, evocamos e imaginamos; lo que procuramos pensar y cómo lo pensamos;
aquello a lo que damos importancia (y nos enfadamos o indignamos) y lo que
consideramos irrelevante (y "pasamos")... Con todas esas actividades dirigidas no es
que configuremos nuestro pensamiento: conformamos también nuestro cerebro. Con él
modificamos asimismo nuestra capacidad de sentir. Así un catador de vinos o de aceite
de oliva se entrena a apreciar más sabores. Un oído adiestrado es capaz de distinguir los
distintos instrumentos de una orquesta sinfónica en pleno tutto orquestal. Un tenor se
hace capaz de emitir y modular los sonidos con gran precisión y potencia. Un
microscopista avezado sabe ver lo que otros ni distinguen. También podemos variar los
estados de ánimo, que serán distintos si ocupamos nuestras neuronas en repasar
desgracias o las alimentamos con el Quijote.
La capacidad de moldear la plasticidad biológica de la que venimos dotados es
una realidad en la que cada vez caemos más en la cuenta; estamos a punto de enterrar
de una vez por todas la fantasmal res cogitans, para sustituirla por un órgano cerebral
que admite ejercicio. También se observan curiosas exageraciones en esta nueva forma
de pensar. En la sección de Libros de Autoayuda de unos grandes almacenes pude
hojear un libro[278] en el que, con un arrebato de optimismo, casi se afirmaba que con el
paso del tiempo y el ejercicio se puede tener el cerebro que se desee. Me temo que no da
para tanto nuestra plasticidad cerebral. Sin embargo, son muy útiles los ejercicios de
gimnasia cerebral que ese tipo de libros proponen para mejorar y mantener en forma las
facultades cognoscitivas: aprender a percibir, entrenar la vivacidad mental, la habilidad
verbal, los distintos tipos de memoria (inmediata y diferida, visioespacial, de
estructuración, perceptiva, lógica...). Buena cosa es que se divulguen este tipo de ideas,
y ojalá se haga de manera que nos ayude efectivamente a hacernos más inteligentes y
más humanos.
Los hábitos mentales, por otra parte, producen verdaderas hiperformalizaciones
que capacitan al sistema de tratamiento de información para operaciones inéditas. "El
hábito es una forma con un rasgo sumamente peculiar, es una forma variable. El ver,
aunque capte nuevas diferencias, sigue siendo ver. Sin embargo el hábito va
modificándose él mismo, según se realizan nuevas operaciones. Es decir, la ciencia
poseída en un comienzo es otra ciencia que la ciencia poseída después de aprender
determinados conocimientos. Ninguna ciencia es una formalidad subsistente o acabada.
La ciencia es un hábito del intelecto: es la forma de una vida. Los principios mismos de
la ciencia se modifican según se conoce. La ciencia se transforma"[279].
La capacidad de formalizar y objetivar mentalmente introduce un cambio
cualitativo en la evolución de la especie humana, que la diferencia esencialmente de la
evolución de las demás especies. "Lo que se llama progreso técnico nada tiene que ver
con el proceso biológico de la evolución, pues se funda en situaciones objetivadas y
no en mutaciones del organismo. Si el hombre ha progresado técnicamente, no es
porque su soma se haya ido perfeccionando, sino porque se ha apoyado en la dinámica
especial de la técnica que marcha a partir de objetivaciones. El hombre es un ser que
integra objetos en su conducta y actúa a partir de esos objetos. El animal recibe un
estímulo del exterior; lo asocia en su sistema nervioso, y lo transforma en una
representación que a su vez determina una reacción del animal: una respuesta. El
hombre es así en determinados moldes de su ser; pero lo decisivo del hombre no es
esto; la conducta del hombre no se desencadena desde su constitución biológica: no es
instintiva. La conducta del hombre se desencadena en la medida en que asimila el
espíritu objetivado"[280]. Es decir, en la medida en que se hace capaz de manejar ideas y
luego modificar la realidad según ellas.
Hasta aquí estoy dando vueltas para introducir sin demasiados sobresaltos un
viejo tema: los hábitos. He querido acercarme a la cuestión paulatinamente, sin
alejarme mucho de las bases empíricas de lo que ahora vamos conociendo sobre el
sistema nervioso. Lo he hecho así de intento, porque esa palabra -hábito-, y más en su
forma ética -virtud-, tiene ahora difícil venta. Ese descubrimiento clásico está en gran
parte olvidado, cuando no se le mira con suspicacia. Sin embargo, ese hallazgo
aristotélico, que sistematiza una intuición de Sócrates, introduce una forma de pensar
sobre el animal humano que aporta mucha comprensión. Siempre, pero especialmente
ahora, necesitamos echar mano del mejor utillaje mental disponible que permita
comprendernos. No expondré la historia de cómo hemos llegado a olvidar o
desprestigiar aquella magnífica manera de discurrir[281], sólo intento exponer por qué
compensa redescubrirla.
Aristóteles desarrolló una forma de pensar al hombre que, con una terminología
que nos puede resultar más cercana, cabe calificar de cibernética. "El hombre es un ser
cibernético (...) La interpretación clásica de los hábitos como perfeccionamiento de la
potencia intelectual queda justificada desde un planteamiento de origen antiguo, pero
que está en plena marcha al final del siglo XX. La última palabra de la investigación
teórica de nuestro siglo repone la noción de hábito intelectual de Aristóteles. No se trata
de tomar una pieza teórica del pasado e intentar traerla al presente, sino que tal como se
desarrollan las disciplinas teóricas de hoy es necesario recuperarla. El estudio de los
sistemas en función de su propio funcionamiento repone la noción de hábito, bien
formulada en Aristóteles y en la tradición aristotélica hasta Tomás de Aquino. En
Escoto, esta noción se tambalea, porque Escoto es demasiado objetivista. Los modernos
son una continuación de esta línea objetivista inaugurada por él. Se puede decir
inaugurada, porque Escoto es suficientemente importante e influyente: de escotistas
están llenos los siglos XV y XVI; también bastantes tomistas modernos son escotistas sin
saberlo"[282].
La noción cibernética de hábito puede exponerse así: el sistema humano,
mediante el poderoso feed-back de que es capaz, se puede dotar de nuevas habilidades
por el procedimiento de inventarlas y practicarlas. Así lo describe Aristóteles: "En todo
aquello que tenemos por naturaleza, adquirimos primero la capacidad y después
hacemos la operación. Esto es evidente en el caso de los sentidos: no adquirimos los
sentidos por ver u oír muchas veces, sino a la inversa: los usamos porque los tenemos,
no los tenemos por haberlos usado. En cambio, adquirimos las virtudes mediante el
ejercicio previo, como en el caso de las demás artes: pues lo que hay que hacer tras el
aprendizaje previo lo aprendemos haciéndolo; por ejemplo, nos hacemos constructores
construyendo casas y citaristas tocando la cítara"[283]. Este proceso sucede también con
los hábitos intelectuales que nos hacen capaces de conocer más, de comprender mejor.
"Tal como es formulado por la filosofía aristotélica, el hábito intelectual se puede
entender como una realimentación, es decir, como una especie de feed back, porque la
inteligencia no se limita a ejercer operaciones, sino que al ejercerlas, el haberlas ejercido
comporta para ella algo intrínsecamente perfectivo. Si se compara esto con la cibernética
mecánica, la salida sería la operación y la entrada el hábito. Bien entendido que esa
entrada es la salida convertida en entrada, es decir, la salida en tanto que el haber
ejercido la operación modifica la estructura del sistema"[284]
Con la adquisición de hábitos se dota el hombre de una segunda naturaleza.
Porque, para los clásicos, la naturaleza no era algo fijo sometido a unas pocas leyes
rígidas, como pensaron los mecanicistas. Era también el lugar del crecimiento y de la
vida; de la multiplicidad y diversidad; del orden y el perfeccionamiento. Más
importante aún: esa segunda naturaleza de la que podemos dotarnos es justamente el
ámbito de la libertad. "La libertad es un trascendental del ser humano que conecta con
la naturaleza a través de los hábitos"[285]. La naturaleza biológica, nuestra información
genética, nos provee de la plasticidad; lo que hagamos con ella depende luego de
nuestra libertad.
Conquistamos terreno para la libertad y ampliamos el ámbito de nuestras
posibilidades cuando nos hacemos Homo habilis, y adquirimos habilidades técnicas.
Más aún avanzamos si conseguimos hacernos Sapiens, y acumulamos información
junto con las muchas teorías -software mental- necesarias para manejarla con sentido. Y
nos hacemos todavía mucho más libres si conseguimos forjarnos Cybersapiens. Es
decir, si nos paramos a pensar, y procuramos pensar en serio. Si nos dotamos de hábitos
cognoscitivos que nos permitan conocer a fondo y comprender de veras; sin quedar
aturdidos por la avalancha de información, y desconcertados por la multitud de
métodos mentales para tratarla. Pero el paso de Habilis a Sapiens y a Cybersapiens
hemos de hacerlo nosotros, cada persona, porque corresponde a cada uno conquistar su
libertad. Podemos conformarnos con poco, y limitarnos a saber hacer, valorando
nuestra vida por la utilidad, como se mide la de una máquina. O quedarnos en
acumular y tratar información, cosa que también hacen con ventaja las máquinas
racionales. Pero podemos también aspirar a una existencia más plenamente humana,
más profundamente humana, y embarcarnos en el empeño de no conformarnos con
medianías mentales, para aspirar a pensar con plenitud y comprender.
Llevamos toda la Edad Moderna oponiendo conceptualmente naturaleza y
libertad. Es un necio enfrentamiento: la libertad no es «liberarse de» las imposiciones
una naturaleza mostrenca, sino capacidad de crecer y perfeccionarse dotándonos de
una segunda naturaleza que se expande mediante los hábitos. "Tomás de Aquino
observa que hablar de naturaleza libre es una contradicción: la libertad sólo llega a
tomar contacto con una naturaleza en la medida en que esa naturaleza ha adquirido
hábitos. Los hábitos son la vehiculación, la conexión, de la libertad con la acción. Esta
tesis abre una gran perspectiva. Los hábitos no sólo cumplen la función de modificar un
sistema en virtud de una realimentación, de transformar la salida en entrada al captar el
valor significativo de la salida (consideración del autocontrol de un sistema por
realimentación); los hábitos no solamente perfeccionan la facultad (lo cual es común a la
inteligencia y a la voluntad), sino que son el paso de la libertad a la naturaleza: sin
hábitos, una naturaleza no es libre"[286]. Somos naturaleza perfeccionable
intrínsecamente, como se perfecciona un ser vivo que crece: se hace distinto porque va a
más. Con la ventaja de que el ir a más que nos provee el crecimiento mediante los
hábitos no tiene techo.
Por eso la libertad no es una cualidad etérea de la res cogitans descorporeizada
que diseñó la modernidad. Es algo más sencillo y, para empezar, mucho más «físico».
"Es tan sólo un modo diferente de realizar los mismos quehaceres y operaciones que
ejecutan nuestros parientes los animales. Sólo añade un nuevo carácter, un nuevo modo
que acabará distanciándonos irremisiblemente, espléndidamente, del animal. El hombre
se posee a sí mismo: se autodetermina. No es éste un concepto metafísico, sino
descriptivo. No soy libre, sino que realizo algunas actividades libremente. Es en el
terreno de la percepción o la memoria donde puedo descubrir lo que llamo libertad, y
no en las discusiones morales ni en las logomaquias metafísicas. Libertad es poder
dirigir la mirada, para captar la información que necesito y deseo. Y también aprender
lo que quiero (...) Cuando un niño aprende a suscitar una imagen mental y a operar con
ella, está poniendo los cimientos de su libertad. Cada vez que dirige su atención, y no
sólo es dirigido por los estímulos externos, ejecuta un minúsculo/grandioso acto de
libertad. Al evocar voluntariamente un recuerdo, sin esperar a que sea suscitado por
otro suceso, es libre"[287]. Sólo puedo tocar la guitarra libremente si me he ejercitado
mucho y bien; sólo puedo escribir como me da la gana y deseo si he aprendido a
escribir bien; si no me entreno estudiando física y dotándome para comprenderla,
cualquier libro de esa ciencia me parecerá un galimatías indescifrable. Aquí no hay
espontaneidad que valga: sólo puedo hacer libremente aquello para lo que me doto de
los hábitos oportunos. La libertad no es algo que se tiene, sino que se conquista.
Esa libertad tiene consecuencias radicales para el animal humano. "De la libertad
se desprende esta descripción: el hombre es un sistema abierto; no un sistema en
equilibrio, sino un sistema que en el tiempo no alcanza nunca su equilibrio. En la
terminología actual, un sistema en equilibrio se llama «homeostático», y esto significa
que si pierde su equilibrio en virtud de un estímulo, intenta restablecerlo con una
respuesta. Aunque también en el animal hay una fase de crecimiento, como el
crecimiento animal es limitado, llega a una situación que para él es la mejor. Si esta
situación es alterada, la conducta del animal tiende a restablecerla. Por lo común, el
ecosistema, es decir, la concurrencia armónica entre las formas de vida y el medio
ambiente, se piensa como un sistema homeostático. Se sostiene, y es cierto, que el
hombre altera el equilibrio natural; se añade que lo destruye hasta el punto de hacer
inhabitable el planeta. Pero esto último es una alternativa (de la libertad). Desde luego,
como sistema abierto que es, el hombre tiende a más, está embarcado en el proyecto de
sí mismo, de acuerdo con el cual llegará a un óptimo. Pero este óptimo no está dado en
el tiempo y, en rigor, no es homeostático. Es una profunda equivocación, que a veces
nos ronda la cabeza, que el hombre debe contentarse con aspirar a la homeostasis. Esto
es recortar el carácter sistémico del hombre. El hombre es intrínsecamente perfectible y
el único equilibrio que le conviene es dinámico, tendencial, no estático. Las tendencias
humanas no se armonizan si no se fortalecen"[288].
El carácter abierto, perfectivo, del sistema humano permite que nos
embarquemos en la tarea de hacer reales diversos proyectos de nosotros mismos. De
niños nos bosquejamos siguiendo el modelo de padres, héroes, campeones, cabecillas, o
líderes. Luego nos soñamos triunfadores, sabios, encantadores, útiles, innovadores,
afamados, capaces; y nos ponemos a la tarea de hacer reales esas ilusiones. "Hay que
afirmar que la invención y elección de los fines es un comportamiento intrínsecamente
inteligente, y que la inteligencia debe ser evaluada atendiendo a los fines que se
propone"[289]. Lugo nos sentimos bien si los proyectos van cuajando; y fatal si quedan en
la cuneta todas las expectativas que habíamos depositado en la biografía que nos
creíamos capaces de escribir. Nos dicen entonces que nos conformemos, que nos
ciñamos a la elemental homeostasis del que se limita a permanecer vivo. Pero no nos
basta: frustrados y desesperanzados nos seguimos soñando de otra forma.
No somos capaces de conformarnos. "El poder de la inteligencia para sobreponerse a sí misma, ascendiendo a un nivel más alto desde donde superar las
contradicciones, es, literalmente, fantástico, es decir, estupendo e irreal. La inteligencia,
que es el modo de vivir nuestra libertad encarnada, crea continuamente irrealidades con
las que hacerse cargo de la realidad, teorías para conocerla o proyectos para
transformarla. Forzado está el hombre a habitar poéticamente la tierra, porque su
inteligencia es poética, poiética, creadora"[290].
También esbozamos aspiraciones que encandilan a muchos y se convierten en
esfuerzos colectivos. Así planeamos hacernos demócratas, instruidos, abiertos,
modernos, tolerantes, ecologistas, plurales. Son muchos los proyectos colectivos que el
animal humano se ha propuesto. Algunos de ellos nefastos (en el siglo XX, el de los
totalitarismos, hemos tenido algunas muestras) y otros muchos magníficos, que han
hecho crecer en estatura al animal humano.
Los proyectos ideales que nos proponemos, en los que embarcamos nuestra vida
y orientamos nuestros actos, son ámbitos de posibilidades que abre nuestra libertad.
Porque "la autodeterminación actúa por medio de proyectos. Gracias a ellos la
facticidad del hombre es horadada por la presencia, el poder y la acción de la irrealidad,
que no es un añadido fantástico, sino la suma de trayectos posibles dibujados en la
realidad. La inteligencia no es un ingenioso sistema de respuestas, sino un incansable
sistema de preguntas. No vive a la espera del estímulo, sino anticipándolos y
creándolos sin parar. Todas las operaciones mentales se reorganizan al integrarse en
proyectos. La realidad entera se amplía, dando de sí nuevas posibilidades, y en esta
expansión universal también resulta transformada nuestra inteligencia computacional,
cuyas capacidades estaban pendientes de una última determinación. Embarcada en
proyectos rutinarios, se convertirá en inteligencia rutinaria; embarcada en proyectos
artísticos, se hará inteligencia artística; embarcada en proyectos racionales, se convertirá
en razón "[291].
En ese último tipo de proyectos, los racionales, es por el que aquí me intereso.
Porque efectivamente una de las aspiraciones que el animal humano se ha propuesto a
lo largo de su historia fue la de hacerse racional. Habré de retroceder ahora unos
cuantos siglos para acercarme a la época y a los hombres que fraguaron ese proyecto,
que nos ha tenido encandilados más de dos mil quinientos años.
Cuando el Homo Habilis urdió hacerse Sapiens
Llevamos mucho tiempo intentando convertirnos en animales que se definen a sí
mismos como racionales y que, a pesar de las carencias de la red neuronal de la que
están dotados, intentan serlo. "La razón no es una facultad especial: es un proyecto de la
inteligencia, decidida a saber si hay evidencias más fuertes que las privadas, a
evaluarlas y a aceptarlas si llegara el caso. Por eso es más correcto usar el adjetivo
«racional». Hay una inteligencia racional, que es un paso más en la larga historia que
comenzó con una inteligencia computacional capaz de autodeterminarse"[292]. En esa
aventura hemos pasado por multitud de peripecias: momentos de exaltación en los que
nos hemos autotitulado homo sapiens sapiens, porque creímos vislumbrar de cerca la
meta; y otros de fuerte desánimo, en los que hemos desconfiado de la viabilidad del
proyecto y nos hemos vuelto escépticos.
Actualmente andamos recelosos y cautos, porque la razón ha originado
monstruos y ha dejado incumplidas muchas promesas. También estamos
desconcertados, porque en el empeño por sacar adelante aquella quimera hemos
inventado las máquinas racionales, que nos superan en las operaciones para las que con
tanta dificultad entrenábamos a nuestra red neuronal durante años. Son máquinas
lógicas, mientras que nosotros sólo contamos con una red neuronal biológica, poco
dada a la estricta disciplina racional a que aspiramos. Nos pueden, como nos podían las
bibliotecas para recordar; o nos superan las calculadoras, que trituran estupendamente
ese otro invento nuestro: los números.
Durante todo este camino pocas veces nos hemos parado a pensar el mismo
proyecto: creíamos en él o perdíamos la fe, pero no lo pensábamos. Los que lo
inventaron si hubieron de pensarlo. No es este el lugar adecuado para hacer una
historia de las aventuras y desventuras del animal humano en su empeño por ser
inteligente. Tampoco me puedo referir a lo que hubieron de pensar las personas de
aquella otra civilización que también inventó la lógica y puso los cimientos de la
racionalidad: la hindú. No la conozco; e ignoro el detalle de los avatares históricos por
los que aquel proyecto no ha cuajado en saberes metódicos, acumulables y
transmisibles, como son las ciencias y sus tecnologías inventadas en Occidente. Así
limitado, he de referirme sólo al proyecto intelectual que se gestó en Grecia y que volvió
a repensarse en el siglo XIII europeo. Ahora también hay quien nos está ayudando a
caer en la cuenta de lo que supuso aquel esfuerzo intelectual de comprensión que cuajó
en un espléndido proyecto[293].
Comenzaré haciendo una parada para distinguir entre lo que llamaré habilidades
racionales y hábitos intelectivos. No es una denominación muy técnica, aunque espero
que resulte suficiente para mi propósito. Lo ilustraré con un ejemplo de mi querencia: la
física. En las facultades de Físicas de todo el mundo se enseña la teoría de la Relatividad
Especial que inventó Einstein. Son muchas las personas que adquieren la habilidad
racional que les permite manejar las ecuaciones de la transformación de Lorentz y
resolver problemas planteados en el marco de esa teoría. No son tantas las que
consiguen hacerse cargo de algo que Einstein hubo de pensar para desarrollarla: la
noción de simultaneidad. De manera semejante es posible ser un honrado trabajador
que gana su sueldo manejando las ecuaciones de la mecánica cuántica. En este caso
tampoco hay que hacerse cargo del núcleo de las discusiones que enfrentaron a los
grupos encabezados por Einstein y Bohr en las conferencias Solvay a principios del
siglo XX. No hay que sumergirse en las discusiones que los más teóricos se plantean:
¿qué significan esas ecuaciones? ¿de qué tratan? ¿cómo interpretarlas? A la mayoría les
basta con saber que funcionan para manejarlas con soltura; igual que le sucede a las
máquinas racionales que ahora fabricamos. Propondré aún otro ejemplo: hemos estado
enredando durante milenios con ese invento nuestro que son los números sin saber a
ciencia cierta qué eran. Unos cuantos matemáticos se enfrentaron no hace mucho con la
tarea de averiguarlo: ahora tenemos una teoría de los números, y sabemos un poco de
qué va la cosa. La mayor parte de las personas, sin embargo, siguen usándolos
tranquilamente, sin haberse parado a pensar qué sean. Una vez que el pensamiento
inventa un camino, es fácil recorrerlo como si fuera un sendero trillado, sin tomarse el
trabajo de pensar de los que lo abrieron, o el de los que se pararon a pensar dónde
podía llevar. Ya digo que en esto nos diferenciamos bien poco de las máquinas
racionales, salvo en que lo hacemos peor que ellas.
Las habilidades racionales son fáciles de adquirir: ideas, y rutinas mentales para
trabajarlas, se aprenden durante años a lo largo de todo el proceso educativo. El
Síndrome de Optimismo Semántico no impide adquirir esas habilidades; pienso que,
más bien, lo facilita. Da seguridad creer que una idea es «científica» o «está
demostrada»; imprime un sentido de adhesión reverencial que genera confianza. Creer
que «las cosas son así» introduce en un cálido y abrigado mundo de certezas. Impide
aventurarse en el proceloso océano de las paradojas y las preguntas. Uno no se topa con
misterios; tiene unas ideas claras que le protegen de enigmas por contestar, y le libran
de tener que salir a la intemperie. Para huir de aquello que no se sabe cómo pensar
queda también el refugio del escepticismo. El escéptico dice: no estoy capacitado para
atreverme a transitar por lo desconocido; más vale quedarse en casa, entre la cuatro
hogareñas certezas pequeñitas que me abrigan y que son mías, sin plantearme unas
cuestiones para las que no doy de mí. La arriesgada aventura de pensar de veras, que
tantas incertidumbres tiene, queda para unos pocos locos malditos, que se empeñan en
dejarnos sin el abrigo de las ideologías y de los cómodos esquemas mentales transitados
y políticamente correctos.
Se pueden tener muchas habilidades mentales y pensar muy poco. Mientras
escribo estas líneas me ha sacudido la noticia de un nuevo suicidio colectivo de los
miembros de una secta. Ya son demasiadas las noticias de esa clase. Me asombra que,
en bastantes casos, no son analfabetos fácilmente manipulables, sino gente salida de la
universidad, con todas las bendiciones académicas que certifican un buen cerebro en
uso. Personas, además, bien situadas profesionalmente, con habilidades mentales útiles
y exitosas; en una ocasión los suicidas fueron unos 30 jóvenes profesionales bien
situados, expertos en informática. Sabían hacer cosas, también eran hábiles con sus
neuronas, pero comprendían poco. Hemos inventados sistemas de adquirir habilidades
mentales que parecen producir gente incapaz de pensar, de comprender y entenderse.
En Francia, unos 20.000 adivinadores, astrólogos, echadores de cartas y especialistas en
ciencias esotéricas, no dan abasto para atender más de cuatro millones de clientes. En
España no sé cuantos ejemplares hay de esa fauna, pero es una industria cuyas revistas
y publicaciones crecen continuamente; sus inversiones en publicidad también son
cuantiosas, y van en aumento. Tal parece que, sin llegar a ser suicidas, nos formamos
para hábiles, incluso para hiperhábiles; pero no sabemos cómo ser sabios para encontrar
un poco de sentido a todo.
También nos asombra que las máquinas racionales sean capaces de realizar
mucho mejor que nosotros las habilidades racionales que hemos inventado. Adquieren,
almacenan y procesan información de una forma que nosotros jamás seremos capaces
de igualar. ¿Qué hace un superordenador cobrando por hora de trabajo más que
cualquier red neuronal humana? ¿No éramos superiores? Para cualquier habilidad
racional que inventemos, somos también capaces de construir máquinas que nos
superen en ellas. Pasarán los test de Turing con más alta puntuación que ningún
humano. Si consideramos que nuestra inteligencia se reduce a la habilidad racional,
entonces las máquinas son mucho más inteligentes. En el futuro cada vez irá a más,
pues las mismas máquinas racionales se podrán encargar de diseñar otras mucho más
potentes y racionalmente más dotadas.
Las habilidades racionales evolucionan y se acumulan sin tener que pensarlas.
Sucede algo semejante a las demás habilidades de las que se dota el animal humano,
que pasó de la edad de piedra a la de bronce y luego a la del hierro sin saber
metalurgia: pensar lo que hacía para comprenderlo fue muy posterior. Igualmente ha
sucedido con la biotecnología que, sin saberlo, hemos hecho durante milenios al
seleccionar, cruzar, eliminar, injertar, cultivar, trasplantar... El continuo movimiento que
introduce nuestro afán de novedades produce de todo: los aciertos prosperan, los fallos
desaparecen. Pero no sabemos distinguir las destrezas de las pifias; hemos dejado que
un "benigno" proceso selectivo las elija por nosotros. La creencia en el progreso nos
ahorra el trabajo de pensarlas: avanzamos, y "alguien" o "algo" se encarga de que sea
para bien.
Hasta la revolución industrial cultivábamos y transmitíamos sobre todo
habilidades "manuales" con muy poca racionalidad añadida. Bastaba para apañarse con
la sentenciosa sabiduría popular acumulada en dichos, refranes, historias y creencias.
Por su parte, la Edad Moderna es la del know-how: importa saber cómo se hace algo;
no importa tanto por qué siquiera podemos hacerlo; ni para qué lo hacemos. Es la
época de la ciencia entendida como predictibilidad eficiente, que lleva aparejadas sus
tecnologías: el construir de hecho. Gran acierto de la Edad Moderna es haber
desplegado las posibilidades de la razón como arte de formar ideas eficaces mediante
métodos rigurosos. El método es lo más importante, es el know-how del pensamiento.
Para aquellos asuntos donde no descubrimos el método hemos desarrollado otras
tecnologías para producir ideas: Brainstorming, Brainwriting, Mind-Mapping,
Bisociación, Provocación mental, Abstracción progresiva, Random-Imput, La lista de
Osborn, Los 6 sombreros de Bono y las 3 sillas de Disney... En todo este proceso hemos
ido acumulando y transmitiendo poderes: saber hacer es poder hacer. Tras la
Revolución Industrial el aprendiz de brujo acumuló poderes hasta obnubilarse; luego
cayó en la cuenta de los desastres que producía con sus acciones y se paró a pensar.
Descubrió que no sabía como hacerlo; tampoco entendía muy bien lo que sabía. Se
enteró de las calamidades que estaba procurando, pero ignoraba como pararlas.
De pronto hemos caído en la cuenta de un montón acumulado de ignorancias y
nos quedamos pasmados. Relataré algunas de las sorpresas que nos abruman cuando
intentamos comprender lo que estamos haciendo.
La primera nos la llevamos al intentar pensar qué sea eso que llamamos
«conocimiento científico», en el que tanto confiamos. Los que se han dedicado a ello
sacan conclusiones que mueven al desánimo: "Hablando estrictamente no hay hipótesis
científica que se haya sometido jamás a contrastación por la experiencia. Lo único
contrastable son ciertas «traducciones» de las consecuencias de nivel más bajo que
tienen las hipótesis científicas, a saber, sus traducciones al lenguaje de la
experiencia"[294]. "El antiguo ideal científico de la «episteme» -de un conocimiento
absolutamente seguro y demostrable- ha mostrado ser un ídolo. La petición de
objetividad científica hace inevitable que todo enunciado científico sea provisional para
siempre: sin duda, cabe corroborarlo, pero toda corroboración es relativa a otros
enunciados que son, a su vez, provisionales. Sólo en nuestras experiencias subjetivas de
convicción, en nuestra fe subjetiva, podemos estar «absolutamente seguros»"[TAA1][295].
Así resulta que no sólo creíamos en la ciencia, sino que también los
conocimientos "científicos" son creencias. ¿Por donde hemos de avanzar? Respuesta:
por cualquier sitio, porque todo es cuestión de modas, paradigmas mentales y
creencias. Las teorías científicas ciertamente cambian: ¿cómo?, no se sabe. Antes
pensábamos de un modo, ahora pensamos de otro: tenemos otro paradigma, eso es
todo. ¿Comprendemos más?, no se sabe. Nos pasa que las formas de pensar cambian, y
nos sucederá que la evolución hará que permanezcan las ideas más aptas. Nosotros
tenemos poco que hacer en el asunto, no somos los protagonistas; sólo cabe agitar
mucho la coctelera mental para que surjan muchas ideas y funcione la selección
evolutiva. No tenemos manera de saber qué formas de pensar son las mejores para
producir ideas científicas. "Las teorías del conocimiento -según yo las conciboevolucionan al igual que todo lo demás. Encontramos principios nuevos, abandonamos
los viejos. Ahora bien, hay algunas personas que sólo aceptarán una epistemología si
tiene alguna estabilidad, o racionalidad como ellos mismos gustan decir. Bien: podrán
tener, sin duda, una epistemología así y todo vale será su único principio"[296].
El diagnóstico sobre la capacidad de las ciencias para aportar verdadera
comprensión es sombrío: "Los actuales intentos de clarificar la noción de racionalidad
en la ciencia han tenido como resultado el ahondar nuestra confusión. Nos hallamos en
el seno de una profunda crisis conceptual, y no sólo en un período de reveses pasajeros
que pueda ser fácilmente superado con más diligencia y aplicación. La filosofía de la
ciencia se encuentra al presente en peor situación que la astronomía de Ptolomeo en
tiempos de Copérnico. Simplemente: atravesamos un período en que impera el caos, la
anarquía y la sinrazón (conceptuales). Y pese a ello, se pretende que todo va bien y se
producen voluminosos escritos, que son sólo epiciclos construidos sobre epiciclos. Hay
un movimiento y un torrente de palabras, pero se ha perdido la visión de los fines y la
significación de estas palabras"[297]. Desconfiamos del poder suministrado por el
entramado científico y tecnológico, pues cabe que estemos poniendo nuestro destino en
manos de un loco, muy poderoso y eficaz, pero loco.
Sin embargo, con la crisis del conocimiento científico nos jugamos mucho. "Aquí
estamos tratando del procedimiento más audaz que el hombre ha inventado para
resolver problemas: la ciencia moderna. Esa ciencia inventa explicaciones acerca del
universo para poder controlarlo y, correlativamente, para que ese control, en su uso
socio-histórico, contribuya a llevar a la humanidad a una situación mejor. La ciencia
hoy confiesa sin recato que no puede garantizar nada"[298]. Como consecuencia hay un
rechazo hacia lo "artificial" y una vuelta a lo "natural", a lo no contaminado por el poder
de las ciencias y sus tecnologías.
Pero hay más aún: creíamos que los experimentos se encargaban de hacer
verdaderas nuestras ideas: las verificaban. Ahora nos han devuelto la pelota: está de
nuevo en nuestro tejado. Los responsables de hacer verdaderas nuestras ideas somos
nosotros. Pero no sabemos qué hacer con esa responsabilidad. Hemos caído en la cuenta
que la comprobación empírica no "verifica" nada; en realidad, tampoco lo "falsea", como
quería Popper. Por ejemplo, me asomo a la ventana con una sencilla hipótesis en la
cabeza: el sol es un carro de fuego donde viaja Apolo. Día tras día me asomo a la
ventana y "verifico" la hipótesis. También la someto a falsación. Pero, claro está, nada
sucederá ni a favor ni en contra mientras yo no sea capaz de elaborar mejores ideas con
las que dotarme cuando abro la ventana. Si todo lo que tengo en la cabeza es eso, no
vendrá ningún "hecho" a sacarme de mi error. De manera semejante, si pienso que en el
sol confluyen las energías positivas del cosmos y organizo un viaje hacia el sol para
empaparme de ellas, ocurrirá que me achicharraré en ellas irremediablemente. El sol no
me explica la astrofísica que he de hacer para conocerlo. Igualmente, ningún hecho
aporta su propia teoría. La verdad es responsabilidad mía, no de una instancia exterior
a mí a la que denomino "hechos". Soy yo quien ha de comprender. Los "hechos" no
aportan explicaciones. Tampoco gritan o hacen manifestaciones para que fije mi
atención en ellos, y los considere "hechos" relevantes. No doy el premio Nobel a los
"hechos", sino al Einstein que me permite comprenderlos y me abre un nuevo campo de
"hechos". Corre de mi cuenta trabajar mis ideas.
Pero, ¿cómo hacerlo? ¿dónde acudir? Me refugio en la lógica y, junto con el
idealismo alemán, elaboro la siguiente hipótesis: todo lo racional es real. La solución
está en ser racionalista. Me dejo llevar por ese Optimismo Semántico racionalista: si algo
está bien trabado y demostrado, seguro que es así. Durante un tiempo todo marcha
bien: la felicidad intelectual parece posible. Pero viene Gödel con su teorema y me
destroza el chiringuito racional: no hay manera de decidir lógicamente la verdad de
multitud de proposiciones. Hay verdades que escapan a la lógica, entre ellas la misma
consistencia del sistema lógico.
Pues bien, busco otra salida: haré teorías para avanzar a tientas. Pero, ¿cómo
hacer teorías? ¿Cómo teorizar sobre la mejor manera de construir teorías? ¿Hay alguna
teoría sobre cómo hacer hipótesis medianamente válidas? ¿O sobre cómo conseguir que
haya gente que sea capaz de hacer las hipótesis que necesitamos? "Cuando se formula
una hipótesis, se pregunta a la realidad; si la realidad no se adapta al modelo, sólo
podemos seguir construyendo otro modelo. Pero la ciencia no tiene criterio lógico para
construir ese otro modelo o hipótesis a partir del «falsado». Si no hay ningún criterio
discursivo, sólo cabe esperar que aparezca un genio capaz de formular nuevas hipótesis
o de ampliar las que tenemos. Pero esto no depende de la lógica de las hipótesis, sino de
la potencialidad e inventiva humanas. No hay nada en la física de Newton que indique
por dónde puede seguirse, a no ser que venga alguien más inteligente y formule otra
(...) La ciencia no dice cuál es el modelo que debe sustituir al anterior; eso depende
finalmente de la genialidad humana, de alguien que lo descubra al margen de la interna
racionalidad lógica de la ciencia. Es evidente que desde Newton, Einstein es
absolutamente imprevisible. ¿Por qué? Porque desde la lógica interna al propio sistema
de Newton, no se llega a la teoría de la relatividad de Einstein. Y cuando Einstein sea
falsado, y parece que en algunos aspectos ya lo está siendo, ¿con qué sustituiremos a
Einstein? No tenemos criterio de sustitución ni de avance. Toda explicación científica es
falsable, pero ninguna explicación científica dice cómo puede ser sustituida una vez
falsada. Hasta ahora el hombre lo ha hecho, pero no hay modo de saber si lo seguirá
haciendo: la aparición de genios no es programable"[299].
Por otra parte, nos hemos dotado con tal abundancia de habilidades racionales
que estamos aturdidos por la cantidad de conocimientos disgregados que acumulamos.
Son habituales las quejas por la dispersión de conocimientos que establece la creciente
especialización de los saberes. Al conocimiento científico le crecen cada vez más ramas,
formando un árbol tupido y complejo. Cada especialidad tiene su metodología, lenguaje
y publicaciones propias. Entre todas constituyen un desperdigado reino de taifas que
sólo consigue establecer relaciones diplomáticas entre sus feudos de manera precaria.
Lo normal es que se ignoren y desconozcan. ¿Vamos hacia una babelización del
conocimiento? Que la ignorancia produzca la confusión de Babel es hasta cierto punto
esperable; pero, ¿cómo imaginar que esa desconcertante confusión se produciría
también en la medida que conocemos más? Los ilustrados se llevarían las manos a la
cabeza viéndonos ahogados por una avalancha de conocimientos que no sabemos cómo
unir, ni cómo armonizar. Con la llegada de las máquinas racionales el proceso se
agudizará. Llegaremos a conseguir que sea verdad la perversa definición del
especialista: aquel que sabe cada vez más sobre cada vez menos. En el límite asintótico:
lo sabe todo acerca de nada.
Pero todavía quedan otros problemas. El conocimiento, ya lo vimos, sólo avanza
mediante la investigación, mediante el arte de hacer preguntas. Sólo puedo progresar si
voy más allá de lo sabido. Pero, ¿cómo sé que no sé? ¿qué tipo de conocimiento es ése,
por el que se sabe que no se sabe? La información me informa, pero no me dice que es
escasa o parcial; tampoco las teorías me comunican sus limitaciones y estrecheces.
Entonces: ¿cómo conozco que no conozco? Si sólo entiendo según el saber que ya he
adquirido, ¿cómo puedo preguntar? ¿Hay algún método que me permita saber lo que
no sé? No lo parece, porque precisamente "en la primacía de la pregunta para la esencia
del saber es donde se muestra de la manera más originaria el límite que impone al saber
la idea de método (...) No hay método que enseñe a preguntar, a ver qué es lo
cuestionable"[300]. Otro problema es la demostración. ¿Cómo decido cuales son las
demostraciones que demuestran? ¿Cómo invento los métodos que considero válidos
para demostrar? Además, ¿cómo concebir los modos de pensar que me permitan
comprender? ¿cómo inventar la lógica? No hay un método científico que nos permita
inventar las ciencias; ni otro racional que me permita desarrollar la racionalidad cuando
todavía no se me ha pasado por las mientes siquiera como proyecto.
Podría seguir acumulando razones, pero considero suficiente lo dicho para
justificar que invite a redescubrir lo que hicieron quienes inventaron la racionalidad, la
lógica y los métodos de demostración. Ellos diseñaron la bases de un buen proyecto,
que compensa proseguir. Tuvieron que pensar las formas de pensar, e inventaron unas
cuantas excelentes. Y lo mejor de todo es que, como hubieron de inventar la lógica y
lanzar el proyecto de la racionalidad, consideraron atentamente el tipo de conocimiento
que nos hace idóneos para, por ejemplo, saber que no sabemos. A ese conocimiento
Aristóteles lo denominó hábito de los primeros principios. Ese es el marco de las
exigencias a las que sometemos la información y también la forma mental de tratarla;
ver que no cumplen esas exigencias nos permite ir más allá de ellas. Este es el punto de
partida, el metaconocimiento que nos permite hacer metaciencia, metalógica y
metamatemáticas. Es la gran habilidad de la inteligencia que le permite pensar, poseer y
dirigir la razón; a la que el hombre "por una parte, la obedece; y, por otra, la domina y la
piensa"[301].
Según descubrió Aristóteles, ese hábito corresponde a la inteligencia, no a la
razón, que es instrumental y requiere ser dirigida. Es un conocimiento que no tenemos
mediante ideas, sino que, precisamente, es lo que nos permite inventarlas y trabajarlas.
Es una capacidad interna, una maestría cognoscitiva en la que cabe entrenamiento y
mejora. A la musculación interna de la inteligencia, que se ejercita en hacerse más capaz
de comprender, los clásicos la denominaron adquisición de hábitos o virtudes
especulativas. "Hay dos clases de obras: la exterior y la interior. Lo práctico u operativo,
que se distingue de lo especulativo, se dice en función de la ocupación externa, a la cual
no se ordena el hábito especulativo. Por el contrario, éste se ordena al quehacer interno,
que consiste en discurrir sobre la verdad, y en este sentido es un hábito operativo" [302].
Es un hábito operativo con cuyo ejercicio se adquiere el arte de pensar acertadamente.
Si tal discurrir se consigue hacer bien, el hábito se denomina virtud (fuerza, vigor,
capacidad) intelectiva, ya que considerar acertadamente la verdad es el "acto bueno del
entendimiento"[303]. Si se hace mal y la persona se entrena para necia, no para
inteligente, se dice que no adquiere virtudes intelectuales, sino vicios, porque no
aumentan la capacidad de comprender, sino que la lesionan, menoscaban y deterioran.
Los clásicos decían que el hábito de los primeros principios es innato, aunque
también afirmaban que nacemos sin conocimiento alguno. No es una contradicción.
Nacer dotados del empeño por comprender no significa que tengamos adquirido
conocimiento alguno, aunque esa disposición es lo que nos permite obtenerlos. Los
niños no tienen conocimientos, pero tienen una sorprendente capacidad de preguntar
apenas pueden hacerlo. Son animales capaces de preguntar: pugnan por adentrase en lo
desconocido; quieren saber, comprender. Preguntan hasta provocar la exasperación de
sus padres. Les gusta oír historias y cuentos llenos de sentido. No disfrutan con las
historias confusas que a veces agradan a la gente mayor por lo ingenioso de su estilo,
aunque no tengan nada que decir. Les gustan los cuentos que cuentan algo que se
puede comprender. Por más fantasiosas que sean, piden historias claras. No intuyen
nada, sólo saben lo que se les cuenta, pero quieren saber. Como tienen pocas
habilidades racionales, les bastan las explicaciones basadas en el Ratoncito Pérez y la
Bruja Turuja.
Luego les enseñamos las habilidades racionales que hemos desarrollado, y les
decimos que sólo hay unos cuantos tipos de preguntas y de respuestas que aporten
conocimientos. También les decimos que hay cosas que no se pueden saber, y les
hacemos escépticos. Pero ellos originariamente no lo son, confían en que es posible
comprender de veras. Los entrenamos para que aprendan ideas y adquieran
habilidades racionales, pero no tanto en preguntar y comprender. No los adiestramos
en desarrollar y muscular aquella capacidad espléndida de la que estaban dotados.
Hacemos que se sometan a las ideas y a los métodos, pero no les enseñamos a
señorearlos. Les decimos que "las cosas son así", y les aleccionamos para dejar de hacer
preguntas incómodas, a las que llamamos inmaduras o impertinentes. Los metemos por
carriles mentales y nos asombramos de que se rebelen, porque aquello no les basta.
Sin embargo, cuando nos encontramos cuarentones y confusos, añoramos
aquellos años en los que la claridad y la comprensión eran horizontes posibles:
ponemos la juventud como meta porque con los años no hemos sabido hacernos sabios.
Al recordar nos apenamos, pero seguimos ahondando la fosa afanados con unas
habilidades racionales en las que hemos depositado nuestra confianza, y manejando
ideas que no sabemos pensar. Creemos que ser inteligentes es solamente tener ideas y
algún método para producirlas. Si alguno observa que el rey está desnudo, lo
declaramos proscrito y ponemos a los expertos a trabajar para que consigan darle unas
habilidades mentales políticamente correctas. Y, como para entender nuestra libertad
todo lo que hemos conseguido inventar es la idea de «espontaneidad», intentamos
hacernos «espontáneos». Salvo en los asuntos económicamente relevantes, que son los
serios. Ahí no cabe espontaneidad alguna; hay que respetar las reglas.
Las habilidades racionales mal dirigidas y digeridas pueden convertirnos en
necios. Puede suceder que tengamos muchas ideas en la cabeza, pero que no sepamos
pensarlas para valorar lo que dan de sí, ni qué es lo que permiten comprender. De este
modo resulta imposible conocer lo que sabemos y lo que no. También nos entrenamos
para necios si somos precipitados y dejamos de pensar, encandilándonos con la primera
idea brillante que seamos capaces de producir o se nos ocurra: es el caso de muchos
reduccionismos. También podemos caer en la peculiar necedad del escéptico, que deja
de pensar porque decide que es imposible comprender.
Otra forma de quedar atrapado es venerar la propia cultura, y renunciar a
pensarla. Los filósofos griegos procedían de una cultura mítica. No dijeron: ésta es
nuestra cultura, así es nuestra forma de pensar; respetadla. Se atrevieron a pensar, a ir
más allá. Durante unos cuantos siglos de magnífico esfuerzo colectivo trabajaron sus
ideas y sus formas de pensar. Mantuvieron la tensión cognoscitiva y se entrenaron para
desarrollar unos espléndidos hábitos mentales. No se quedaron atrapados en los
productos mentales que les ofertaba su cultura, ni se atrincheraron en los paradigmas
cognoscitivos al uso. Fueron más allá de su cultura y superaron aquellos paradigmas.
Nos enseñaron el camino para sobrepasar lo que no deja de ser un producto humano:
las ideas y formas de pensar que respiramos en nuestro ambiente cultural. La cultura
hay que poseerla, trabajarla, mejorarla; no hay que someterse a ella. Suministra
conocimientos y habilidades racionales a nuestra inteligencia. Al mejorarla podemos
comprender más, hacernos más inteligentes; podemos, incluso, hacernos mejores.
Hay muchas formas de quedar atrapado en las ideas, en las que ya se tienen, sin
poder ir más allá de ellas. Para alcanzar la libertad del pensamiento necesitamos
ejercitarnos en los hábitos. "Si el conocimiento limitado es el conocimiento operativoobjetivo, sólo si además de las operaciones existen otro tipo de actos superiores, que son
los hábitos, podemos abandonar el límite: si no, la limitación de nuestro conocimiento
sería insuperable"[304]. Hoy producimos y distribuimos más ideas y símbolos que
nunca:: sólo nos desconcertarán si no nos hacemos capaces de pensarlos, quedando
encerrados en su barahúnda.
Por último, para adiestrarse en adquirir los hábitos que nos hacen ser inteligentes
y capaces de dirigir la propia racionalidad, los clásicos distinguieron tres campos
fundamentales de musculación interior, que denominaron principios: identidad, no
contradicción y causalidad. Son como las raíces o el fundamento donde arraigar un
pensar que no quede atrapado en las ideas y habilidades racionales adquiridas. Si
queremos ser capaces de comprender hemos de adiestrarnos a pensar según esos tres
principios. Bien entrenados en ellos podemos darnos cuenta de la limitación de las ideas
con las que conocemos lo que sabemos, y podemos ir más allá. Somos capaces de
avanzar en la medida en que descubramos el amplio horizonte de comprensión que
despliegan los primeros principios, para luego dirigir hacia él los pasos de la
racionalidad. En ese caminar contamos con la inestimable ayuda de las máquinas
racionales que acabamos de inventar. Es un viejo chiste el del borracho que, habiendo
perdido las llaves en el portal de su casa, las buscaba lejos, bajo un farol de la acera.
Decía: no es el sitio, pero aquí hay luz. Pues bien, siguiendo la metáfora, es tarea nuestra
no ya buscar donde hay luz, sino inventar los faroles que nos permitan iluminar, y
también mantenerlos encendidos: para eso sirve ejercitarse en el hábito de los primeros
principios. No me importa repetirme: sólo entiendo según lo que yo mismo elaboro
con mi inteligencia; sólo encuentro según lo que yo mismo pongo para buscar.
Hay mucho en juego tras la noción de hábito, en particular el poder conquistar la
libertad para nuestra inteligencia. "Estamos acostumbrados al mecanicismo, y eso nos
hace dudar a menudo de que somos libres: no sabemos cómo lo somos, o decimos que
también la libertad tiene que ser una condición inicial (...) La condición inicial es próton
según el tiempo: su valor causal se ejerce desde la anterioridad temporal, lo cual quiere
decir que, en el fondo, no hay nada nuevo. Esto lo solemos aceptar porque es uno de los
ingredientes tópicos de nuestra cultura. Muchos aún piensan así porque no se han
enterado de lo que comporta la cibernética, o han oído hablar de ella y no han
modificado sus prejuicios, los postulados desde donde ven todo. Por eso, hablar hoy de
los hábitos es imprescindible. No podemos aceptar la visión mecanicista, porque es
reduccionista: no es una consideración integral de lo real, sino que prescinde de lo más
importante de lo real: que se modifica como consecuencia de su funcionamiento: más
cuanto más informático sea el sistema. Por lo demás, el sistema más informático es la
inteligencia humana, al menos entre los seres de este planeta. Por tanto los hábitos
tienen que darse ante todo en la inteligencia"[305]. Son los que me permiten inventar,
dominar, armonizar y dirigir las habilidades racionales. Es decir, tener señorío sobre
ellas y no estar esclavizado por ellas. Tener una inteligencia libre.
Tendemos a oponer objetividad a subjetividad. Una persona objetiva se atiene a
los "hechos"; mientras que llamamos subjetiva a la que "racionaliza" sus ideas sin
tenerlos en cuenta. Esta oposición se basa en una pobre idea de la inteligencia humana
heredada de la modernidad. Quien se limite a ser "objetivo" someterá su inteligencia a
"hechos objetivos" o a unas "razones objetivas". Por su parte, el que es "subjetivo"
esclaviza su inteligencia al vaivén de lo que se le pase por la cabeza. Ninguna de esas
dos posturas es del todo inteligente, pues para ser "objetivos", es decir, capaces de tener
ideas acertadas y comprender de veras, lo que se necesita es desarrollar la subjetividad,
para que se haga más inteligente y no sea pobremente rígida o necia. Mucho más
acertada es la postura clásica, también más acorde con la dignidad humana: consigue
ser eficazmente objetivo (con muy buenos y acertados objetos mentales que le permitan
comprender) sólo quien cultiva una subjetividad poderosa y profunda,
armoniosamente fuerte, enérgicamente articulada, rica en hábitos y recursos. "La
profundidad de lo entendido es mi propia profundidad"[306].
Ahora que las máquinas racionales nos sustituyen ventajosamente en la
adquisición de habilidades, habremos de aprender a adquirir hábitos intelectivos. "En la
sociedad postindustrial, la educación habrá de estar dirigida hacia la adquisición de
hábitos intelectuales y prácticos que faculten a la persona para seguir aprendiendo toda
su vida, es más, para hacer de toda su vida un continuo aprendizaje. Los hábitos a los
que me refiero no son simples destrezas o habilidades. Son potenciaciones estables y
dinámicas de la persona misma, enriquecimientos vitales, «capitalizaciones» -por
decirlo así- de sus actividades cognoscitivas y morales. Adquirir hábitos es la única
forma de no perder el tiempo, de que la vida no se nos vaya como agua entre las manos.
Los hábitos son una memoria vital que remansa los aprendizajes positivos y los lanza
hacia el saber nuevo"[307].
Salir del autismo
Después de invitar a redescubrir el camino andado por los que inventaron la
racionalidad, he de pasar a otra cuestión, que ellos no desarrollaron y cuyo hallazgo es
reciente. Puede afirmarse que ha sido un descubrimiento realizado en el siglo XX, que
es fundamental para entender el modo humano de ser inteligentes. Con él se puede
ampliar el camino abierto por los clásicos y resolver algunas cuestiones que ellos no se
plantearon.
Cultivar los hábitos intelectivos, ejercitarse en las "acciones internas", es una
forma de "comportarse con uno mismo". Pero la cuestión es circular: soy yo el que con
mi inteligencia he de dirigir mi inteligencia. Esto plantea bastantes problemas, muy
semejantes a los que he considerado para la autoconciencia. En el arsenal conceptual
disponible hay pocas soluciones válidas. Si se consideran "los medios metodológicos, y
los modelos ontológicos y teórico-epistemológicos que, desde la tradición filosófica,
están a nuestra disposición para la tematización de la autoconciencia y de la relación
consigo mismo. Se pueden mencionar tres modelos por los que se ha orientado la teoría
tradicional de la autoconciencia.
"El primero es el modelo ontológico de la sustancia y de sus estados, un modelo
que ha determinado la tradición desde Aristóteles y que está profundamente enraizado
en la estructura fundamental de nuestro lenguaje, en la estructura de sujeto-predicado.
El segundo modelo es la llamada relación sujeto-objeto. Se supone como evidente que la
conciencia es tener delante de sí o «representar» un objeto; que consiste en esta relación
característica entre el sujeto y un objeto. Esto ha llevado a comprender la
autoconciencia, y en general el comportarse consigo mismo, como una relación entre el
sujeto y él mismo como objeto: uno se tiene a sí mismo delante de sí. El tercer modelo es
el supuesto teórico-epistemológico de que todo saber empírico inmediato tiene que
basarse en la percepción. Este supuesto condujo a que se comprendiera el saber de sí, y
en general todo comportarse consigo mismo, como un percatarse interior (...) es claro a
primera vista que los tres modelos fallan sin remedio para la comprensión del
comportarse práctico consigo mismo"[308].
Para salir del atolladero, se podría pensar que la reflexión es el remedio; la
concepción clásica de la inteligencia parece ponerlo en ella. En las páginas precedentes
yo también he llamado reflexión a la capacidad que tenemos de conocer que la
información es sólo información. Sin especificar demasiado qué sea la reflexión,
también he dado por supuesta esa noción cuando hablaba de la artesanía de nuestras
ideas y sobre los métodos de pensar. Pero, aunque corra el riesgo de caerme, he de
cortar la rama en la que se apoyaban esas afirmaciones, porque está seca. He de buscar
otro asidero para ellas.
Para mostrar por qué soy del parecer que la reflexión no soluciona el problema,
acudiré a la metáfora del ordenador. Todo lo que tengo es una red neuronal: si me
cortan la cabeza y me privan de ella, ni conozco ni reflexiono. Ahora bien, ¿qué
significaría reflexionar para una red neuronal? Sería tanto como poder salir de sí misma
para poder mirarse. Si estuviera nimbado por un aura y pudiera hacer viajes australes
alrededor de mí mismo, quizá podría conseguirlo. Mas, que yo sepa, no es mi caso. Si
me habitara un fantasma, o el famoso ente submicroscópico, que sería la conciencia,
quizá podría salir para darse una vuelta a mi alrededor y mirarme. Pero tampoco es mi
caso. Si no puedo salir de mí para conocerme, ¿cómo pretendo contratarme como
entrenador para mi inteligencia? Otra posibilidad es suponer que reflexionar es
meterme dentro de mí para hacer una introspección. Pero ya he segado la hierba bajo
esa idea al tratar la autoconciencia. Por más que aumente la información sobre mí
mismo que tengo en el sistema neuronal de información, no podré saber que la
información es sólo información, porque sólo tengo información para saberlo. Es decir,
en términos informáticos: utilizando bits no puedo conocer que un bit es sólo un bit.
Aunque pudiera, me introduciría en laberintos circulares que siempre me llevarían al
mismo sitio: ¿con qué bits conocería los bits con los que conozco que un bit es un bit?
Hasta aquí he tratado del sistema de tratamiento de información humano como
si fuera autónomo, es decir, como si sólo dependiera de cada individuo en su ejercicio,
dominio y dirección. Ahora bien, esto no es propiamente cierto: Las investigaciones
psicológicas sobre el desarrollo cognitivo de los niños muestran la necesidad del
contacto interpersonal, la comunicación y el diálogo para el normal desarrollo de las
capacidades cognitivas de la persona. Tanto la psicología evolutiva, clínica y
experimental como la psiquiatría ponen de manifiesto hasta qué punto es necesario el
trato interpersonal para desarrollar y mantener formas de pensamiento coherentes. El
estudio empírico de las etapas del desarrollo humano señala con claridad la necesidad
de la comunicación y el diálogo para alcanzar una personalidad armónica, que llegue a
tener pensamiento propio. En cualquier caso, es evidente que, "en el niño normal, las
facultades cognitivas, sociales y lingüísticas están estrechamente relacionadas"[309].
Pero las evidencias empíricas más fuertes que poseemos acerca de la incapacidad
de un individuo por sí sólo, de forma autónoma, de desarrollar eso que se llama
"pensar" o "razonar" quizá vengan por vías negativas. Un primer ámbito de evidencias
empíricas proviene de los casos conocidos de individuos desarrollados en ausencia de
contacto con otras personas; su estudio muestra hasta qué punto es necesario el diálogo
y el contacto interpersonal en el proceso de humanización de cada persona y para su
normal desarrollo cognitivo. Así, por ejemplo, es notoria la degradación de las
facultades mentales de los niños criados en extremo aislamiento, de forma que se han
visto privados de la comunicación interpersonal. Es el caso de los ya citados niños
salvajes[310]; así como de otros semejantes por haber sido mantenidos solitarios[311]; por
carencias en los sentidos, como la famosa sordomuda Hellen Keller[312]; o en grave
desamparo y deprivación de contactos humanos[313]. Un caso aparte lo forman los niños
autistas, de los que aún no sabemos del todo qué tipo de lesión neuronal les incapacita
para la comunicación. Pueden tener algunas habilidades racionales, incluso notables,
pero no llegan a adquirir un comportamiento que se pueda denominar inteligente[314].
Igualmente, si los niños son criados en un contexto pobre en relaciones
interpersonales, el desarrollo cognitivo se ve afectado enormemente. Esto puede
suceder por tener entornos familiares deteriorados; por haber recibido atención
insuficiente; o por reclusión en instituciones que hayan descuidado dar un trato
personal idóneo[315]. Siempre que faltan unas relaciones interpersonales intensas y una
comunicación dialógica normal, el sujeto parece incapaz de desplegar su propio
pensamiento. Mucho menos es apto para dominarlo y dirigirlo. Además, no es que estas
personas piensen poco pero de forma acertada; sino que se ven aquejadas con facilidad
de verdaderas patologías cognoscitivas y déficits, a veces irreversibles, de sus facultades
intelectivas. Si se atiende a la maduración equilibrada y sana de otros aspectos de la
personalidad, como el afectivo, el deterioro alcanza igualmente unos niveles
asombrosos.
Por otra parte, el estudio de las enfermedades mentales, que afectan a la
capacidad de diálogo interpersonal y a las aptitudes comunicativas, ponen de
manifiesto que el pensamiento, si el individuo carece de posibilidades de diálogo, no se
desarrolla o lo hace de manera más o menos desajustada, dependiendo de la fuerza de
las incapacidades. Por otra parte, uno de los rasgos característicos de las enfermedades
mentales más graves, como la psicosis, es la incapacidad de comunicarse: el psicótico,
como mucho, sólo se escucha y habla a sí mismo, por lo que vive en un mundo irreal,
que suele tener una sintaxis muy precisa, pero escasa semántica. En bastantes
desequilibrios patológicos de la personalidad parte de la terapia se basa en la
comunicación y el diálogo, ya sea con el psiquiatra (hasta los límites que ha
popularizado el psicoanálisis más estricto, con diván y sesiones que se eternizan) o en
terapias de comunicación de grupo.
Asimismo el deterioro de las relaciones interpersonales y de la capacidad de
diálogo produce patologías. Por ejemplo: las condiciones de vida impuestas en las
sociedades industrializadas tienen como consecuencia dificultar en grado notable la
calidad de la comunicación interpersonal; la organización social y el estilo de vida
impone un cierto autismo, con el consiguiente deterioro del pensar. Esto ha tenido
también consecuencias patológicas: "Los tres datos referidos como los cambios más
característicos ocurridos en la psicopatología del siglo XX: la transformación de la
histeria en neurosis visceral, el incremento de la morbilidad depresiva y la
desdramatización de los cuadros psicóticos, comparten el radical común de hallarse
impregnados de valencias autísticas e incomunicantes. Es por ello por lo que podemos
afirmar que el específico emblema de la psicopatología neurótica y psicótica del siglo
XX viene dado por el perfil del autismo"[316]. En el siglo XXI no parece que las cosas
vayan a variar, sino para peor: el continuo deterioro de la calidad de las relaciones
interpersonales así lo hace temer.
Otras evidencias empíricas señalan cómo el pensamiento, para desarrollarse,
necesita del diálogo. Con menos fuerza que lo que la psicología del desarrollo y la
psiquiatría sistematizan, pero con mucha mayor cercanía, es común la experiencia de
cómo expresar y expresarse es el camino para aclarar las ideas y aclararse. No podemos
decir que sabemos algo hasta que no podemos expresarlo con claridad. En muchas
ocasiones, sólo cuando aprieta la necesidad de expresar algo con exactitud (vgr: un
examen) se llega a la conocer lo que se sabía y desconocía del asunto. También es
habitual la constatación de que, para dominar un tema, no hay nada mejor que tenerlo
que explicar; por ejemplo, en unas clases o en una conversación con un colega. Esto es
así particularmente con el conocimiento y dominio propio, que parece necesitar como
ningún otro del diálogo: nos conocemos, nos aclaramos sobre nosotros mismos al
expresarnos en la comunicación interpersonal. Igualmente, la soledad se experimenta
como vía de oclusión en la cárcel del un pensar que se vuelve laberíntico y sin salida. El
hombre necesita transcenderse en el diálogo para no quedar atrapado en la pobretería
de su soledad.
La observación del desarrollo psicológico de los niños ha llevado paulatinamente
a dejar de lado lo que la teoría de Piaget tenía de solipsista. Ahora el autor de referencia
es Vygotski, y el paradigma dominante gira con preferencia alrededor del análisis
sociogenético e histórico cultural del desarrollo cognitivo. Este autor merece que
hagamos parada y fonda por un momento. Era un marxista convencido, que desarrolló
su trabajo en la antigua Unión Soviética, donde falleció en 1934. Por esas cosas que
pasaban por allí, cayó en desgracia y su obra estuvo prohibida en su país. Fuera de él su
producción se conoció muy lentamente. Sus obras completas, sin las añadiduras a las
que le obligaron los jerarcas del Partido Comunista Ruso, se han editado en las últimas
décadas del siglo XX. Es un autor que ha irrumpido tardíamente pero con mucha
fuerza[317].
Según Vygotski la conciencia y el control aparecen sólo en una etapa tardía del
conocimiento. Para poder dirigir una habilidad cognoscitiva primero hemos de
poseerla. La génesis de los procesos psicológicos cognoscitivos complejos va de fuera a
dentro: primero son sociales y requieren la interacción con otras personas, luego el
individuo los interioriza y domina. "El desarrollo consiste en una trasposición al plano
intrapsicológico de los procesos que han estado antes presentes en el plano
interpsicológico (es decir, de las relaciones con los demás); así, por ejemplo, no seríamos
capaces de hablar y no desarrollaríamos una autoestima positiva (plano
intrapsicológico) si no fuera porque antes nos han hablado y nos han querido y
valorado (plano interpsicológico) quienes para nosotros son significativos"[318]. Piaget
consideraba que la fase de "lenguaje privado" de los niños es una etapa inmadura, pues
la cháchara que mantienen consigo no sirve a la comunicación. Vygotski, por su parte,
considera fundamental el lenguaje privado de los niños, al que pone un origen social y
comunicativo. Sirve para que los niños interioricen el lenguaje adulto, y desarrollen las
funciones cognitivas más altas: atención selectiva, memoria voluntaria, planificación,
formación de conceptos, y reflexión. Los recientes estudios se inclinan, frente a la más
autista y solipsista de Piaget, en señalar la dirección correcta de la teoría de
Vygotski[319].
Siguiendo esta línea de investigación, los psicólogos han llegado a convencerse
de que "el lenguaje es, antes que ninguna otra cosa, un sistema para explicitar y
negociar estados mentales, un sistema que permite la comunicación entre las
mentes"[320]. Algunos explican esto acudiendo al expediente de dotar a los niños de una
«teoría de la mente»; como si los bebés elaboraran hipótesis sobre las capacidades
mentales de sus interlocutores. Otros hablan de la «estrategia intencional»: la
inteligencia consiste en suponer inteligentes a los interlocutores. Algunos aplican esta
idea para suponer inteligentes a la máquinas racionales: "La estrategia intencional
consiste en tratar al objeto cuyo comportamiento se quiere predecir como un agente
racional con creencias y deseos y otras etapas mentales que exhiben lo que Brentano y
otros llaman intencionalidad"[321]. Me temo que, con esta suposiciones, aportan poca
luz y no poca confusión a la cuestión. Un niño viene dotado de nacimiento de la misma
«teoría de la mente» que pueda tener una cría de chimpancé. "Las habilidades
psicológicas, que presuponen la atribución de estados mentales a otros, no son
exclusivas de los humanos. Se dan en antropoides superiores, en chimpancés y gorilas y
(quizá en menor grado) en orangutanes. Estos animales también son, en cierto sentido
«psicólogos mentalistas». Sin embargo, sus capacidades psicológicas son limitadas
cuando se comparan con las que tienen niños de pocos años"[322]. Los retoños de simio
tampoco adquieren habilidades cognitivas y lingüísticas por mucha «estrategia
intencional» que despliegue al dirigirme a él. Para llegar a ser inteligente parece que se
requiere algo más.
En cualquier caso, la forma de pensar inaugurada por Vygotski subraya la
estructura dual y lingüística -es decir, interpersonal- del desarrollo de la intimidad.
Aporta un buen inicio de solución para comprender cómo es posible la reflexión y el
"salir de sí". "Por ejemplo, el tema de ascender «intelectualmente a niveles superiores» a
través de la reflexión y de la conciencia de los propios actos -«metaconocimiento», como
se denomina en la actualidad. Se deduce de la perspectiva de Vygotski que hay formas
de diálogo e interacción que llevan más fácilmente a la reflexión que otras. Cualquier
cosa que lleve al niño a distanciarse de sus propios actos, a girar en torno a su propia
actividad, es probable que le conduzca a comprensiones súbitas y a ganar en
perspectiva"[323].
Salir de sí a través de los otros: estupenda solución al problema de la reflexión y
el comportarse consigo mismo. Darse y ser aceptado; escuchar y comprender, hablar y
ser comprendido. Parece que la psicología experimental confirma la intuición de
Jaspers: "El hombre sólo llega a su propio ser por conducto de «otro», jamás por el
propio saber"[324]. Sobre la aportación de Vygotski sólo añadiría una cosa: padecía un
ramalazo de Optimismo Semántico -como buen marxista creía en LA SOCIEDAD-, que
pesa en parte sobre los que le han continuado. Se habla de LA SOCIEDAD y LAS
RELACIONES SOCIALES hasta creer que tienen existencia propia. Sin embargo, no la
tienen: son relaciones interpersonales. Lo que existe realmente es la persona, que abre
su intimidad y quiere comunicarse en diálogo con otras. Se ha discutido si es primero el
lenguaje o las habilidades cognitivas. Ni uno, ni otras. Lo primero es la persona, que
inventa el lenguaje y las habilidades cognitivas en las relaciones interpersonales. Por lo
demás, si se evitan esos escollos conceptuales, soy de la opinión que la aportación de
Vygotski abre un buen camino para comprender.
Sin comunicación no parece poder darse pensamiento propio ni lenguaje. Puedo
afirmar, con pretensiones de autonomía adolescente, que mi cabeza y mis ideas son
mías y de nadie más; puedo también pretender un pensamiento autónomo y
autosuficiente, totalmente desligado de los demás; incluso puedo hacer un análisis
filosófico del pensamiento que considere a éste casi como una operación que la persona
puede hacer en solitario; pero la investigación psicológica y psiquiátrica pone de
manifiesto hasta qué punto esas ideas son ajenas a la realidad experimental.
La res cogitans, si quiere pensar de veras, es decir dominar y dirigir el propio
pensamiento, carece de la autonomía que ha imaginado el racionalismo y que también
ha supuesto una buena parte de la tradición filosófica clásica o "realista". La res
cogitans (o el nous griego, tanto da) aislada no llega a ser pensante de ninguna manera,
sino que cae en un autismo estéril. De la misma manera, tampoco cabe hacer una teoría
"realista" del conocimiento si se deja de lado el carácter manifiestamente dialógico que
presenta, estudiándolo como si fuera una capacidad o facultad que pueda desarrollar el
individuo aislado. Es evidente, por el contrario, que para llegar a tener pensamiento
propio necesito a los demás.
Como consecuencia, no cabe hacer una filosofía del conocimiento, si quiere ser
acertada en su semántica, que no tenga en cuenta la dimensión de apertura
interpersonal, de comunicación y diálogo, que se pone de manifiesto en el conocimiento
humano. Dicho de otra manera: si en el pensar humano lo primero característico y
singular es la dimensión reflexiva de la verdad, para que pueda darse tal reflexión es
necesaria la apertura interpersonal. Esto es así, no por ningún a priori metafísico -en el
peor sentido de la palabra: como algo que no tiene en cuenta la realidad empírica-, sino
por la misma fuerza de las evidencias empíricas que la investigación acumula.
Sin embargo, este aspecto tan esencial no parece ser considerado en toda su
importancia por la mayor parte de las diversas teorías filosóficas del conocimiento, ya
sean de tipo inmanentista o realista. Ya se ha señalado más arriba que las más de las
veces la discusión entre unos y otros aparece centrada en la cuestión de si la sintaxis -los
objetos mentales o las ideas bien elaboradas y lógicamente relacionadas- tienen o no
semántica. Ambas corrientes parecen desconocer, o al menos no lo subrayan
suficientemente, la necesidad de que haya apertura interpersonal -salir de sí para
alcanzar una posición excéntrica al propio pensar- para que se pueda dar esa reflexión.
Para nuestro sistema de tratamiento de información el lenguaje es, a la vez e
inseparablemente, instrumento de autoprogramación y de comunicación. Mediante el
lenguaje no sólo elaboramos objetos semejantes a la realidad, sino que también nos
comunicamos con los demás, poniendo así en relación mundos interiores simbólicos.
Puestos a decidir cuál de esas dos funciones es primera y fundamental, parece que
habría que inclinarse a favor de la dimensión comunicativa del lenguaje. Todos los
datos experimentales señalan que el desarrollo del lenguaje como dominio del propio
sistema de tratamiento de información tiene una dependencia estrecha e insustituible de
la comunicación interpersonal. Las personas que carecen de posibilidades de
comunicación o diálogo, quedan sin dominar al propio sistema de tratamiento de
información; o lo hacen de manera muy incipiente y escasa. Igualmente, parece también
claro que la forma más sencilla y directa de permanecer esclavizado a las operaciones
automáticas y "espontáneas" del propio sistema de tratamiento de información es la de
practicar el solipsismo por incomunicación interpersonal. Con ello se establecen,
además, no pocos desequilibrios personales: es uno de los primeros factores que activan
los elementos de labilidad psicológica del hombre, ya que la incomunicación hace que
no se pongan en marcha los recursos cognitivos personales tanto en situación normal
como patológica. Sartre decía que el infierno son los otros; sin embargo, más bien parece
que, al menos para desarrollar mi inteligencia, el infierno soy yo, mi soledad.
En definitiva, lo que parece claro es que no hay posibilidad de
autoprogramación, dominio y dirección del propio sistema de tratamiento de
información sin comunicación interpersonal. El ejercicio del pensar se muestra
necesariamente unido a las relaciones dialógicas interpersonales, de manera que casi
puede decirse que no existe pensamiento -mejor, capacidad de pensar- en solitario.
Puesto que la capacidad de pensar se desarrolla dialógicamente, la comunicación
interpersonal también parece necesaria para no quedar atrapado y limitado a los modos
de funcionamiento ya conseguidos del sistema de tratamiento de información. Una vez
adquirido el ejercicio del pensar, el diálogo sigue siendo necesario para poder salir y
situarse en posición excéntrica respecto de las operaciones del sistema de tratamiento
de información para dominarlas, dirigirlas y desarrollarlas.
La insuficiencia de la teorías solipsistas o autistas de la inteligencia ha sido
puesta de manifiesto también desde otros ámbitos. Por ejemplo, desde la reflexión sobre
el arte: "El lenguaje existe, el arte existe, porque existe «el otro»"[325]. Como
consecuencia, la conquista de la libertad depende de la intensidad y excelencia de las
relaciones interpersonales: "Hacen falta dos libertades para hacer una"[326]. En el terreno
de la antropología la insistencia en la necesidad del «otro» para la persona proviene de
las filosofías del diálogo, con autores como Ebner, Buber, Rosenzweig o Lévinas[327]: sus
hallazgos son interesantísimos para entender como el hombre es un ser
constitutivamente dialogante, aunque haría falta mucho espacio para exponerlos y me
van sobrando páginas. La filosofía analítica, la filosofía del lenguaje, es otro campo
sobresaliente que recalca la misma cuestión. Habré de hacer una breve parada, porque
tiene más que ver con el punto de vista desde el que enfoco el tema: la comparación de
la inteligencia humana con las máquinas racionales y sus lenguajes simbólicos.
Desde la perspectiva de la filosofía del lenguaje quizá haya sido Wittgenstein (en
su segunda etapa filosófica) quien ha sabido criticar mejor la concepción solipsista del
pensamiento y ha mostrado la imposibilidad del «lenguaje privado». "El solipsista
revolotea y revolotea en la campana cazamoscas, choca contra las paredes, revolotea de
nuevo. ¿Cómo se puede hacerle parar?"[328]. Los límites de la propia forma de pensar
son la campana de cristal contra la que continuamente choca el solipsista que quiere ser
autónomo y solitario. Con el solipsismo el pensamiento acaba perdido en el laberinto de
las propias ideas, en el caso que consiga llegar a tener algo semejante a ideas propias, y
no variantes caleidoscópicas de los tópicos al uso. Para el solipsista el lenguaje es
vericueto sin salida que sólo sirve para dar vueltas y revueltas, con las que, quizá,
incluso consiga llegar a hacer alguna floritura lingüística vendible. Puede también
quedar encerrado en una racionalidad estrecha y sin semántica alguna, a la que cabe
aplicar la definición que Chesterton daba de la locura: "Loco es aquel que ha perdido
todo menos la razón". El solipsista, como mucho, consigue quedar atrapado en una
racionalidad que por sí misma -de nuevo Gödel- no asegura siquiera su coherencia
interna.
A caballo entre el análisis del lenguaje y lo que luego se ha llamado psicología
social (que yo prefiero llamar interpersonal) se encuentra Mead[329], un autor muy
influyente que llega a conclusiones similares. "Según Mead el comportarse consigo
mismo ha de ser entendido como un hablar consigo mismo y éste como internalización
del hablar comunicativo con los demás. El comportarse consigo mismo, entonces, está
esencialmente condicionado tanto lingüísticamente como socialmente, pero para Mead
existe también la relación de condición inversa, pues sólo entes que se pueden
comportar consigo mismos de modo que pueden hablar consigo mismos, pueden hablar
en la forma específicamente humana de lenguaje y pueden tener la forma
específicamente humana de sociabilidad, o sea, una sociabilidad normativa. La tesis de
la relación entre leguaje y sociedad normativa es antigua -se remonta a Aristóteles[330]pero la inclusión del comportarse consigo mismo en este complejo de condiciones es
nueva"[331].
Desde posiciones enraizadas en la gran corriente de la filosofía más clásica
también se hacen afirmaciones que insisten en el carácter locutivo y comunicativo del
pensamiento, en el que muestra su mayor perfección: "El entendimiento, no sólo por
indigencia y en razón de ausencia o desproporción del objeto, sino por su propia
naturaleza y perfección es, a la vez, cognoscitivo y manifestativo y locutivo. De modo
que el decir mental, formador del concepto y el enunciado conceptual, es el entender
mismo en cuanto acto emanativo de la propia plenitud y perfección del inteligente en
acto"[332]. "A la función expresiva del lenguaje mental, y a su originación desde la
plenitud y actualidad del conocimiento en su grado más pleno, es decir, el entender, no
consiste únicamente en la posesión aprehensiva de lo entendido, sino que también,
formalmente, en virtud de su naturaleza, el entender es un acto manifestativo y
locutivo. «El entendimiento tiene un ser expresivo», «el entendimiento es manifestativo
y locutivo por su propia naturaleza»"[333]. "La palabra humana está orientada desde el
principio hacia la comunicación, como el hombre en general está desde el comienzo
volcado hacia fuera. Sin palabra exterior al menos esbozada, sin intención verbal, no
existe palabra interior plenamente formada, sino un pensamiento evanescente y sin
contorno, un pensamiento rápidamente cubierto por el olvido. El hombre es un animal
hablante y significante; sólo se revela a sí mismo al revelarse a los otros (...) El sujeto
sólo puede conocerse plenamente por mediación de los otros sujetos"[334].
Sólo puedo hablar cuando tengo con quién hablar, es decir, si hay otra intimidad
con quien comunicarme. Igualmente, tampoco puedo hablar si no poseo una intimidad
que comunicar. Sin estos dos elementos (dos intimidades personales en diálogo) sólo se
puede decir nada a nadie, cosa que ya hace una piedra con toda honradez y propiedad.
Por consiguiente, sólo hay lenguaje verdaderamente expresivo, y no mera acumulación
de símbolos, cuando hay motivo para comunicar la propia intimidad a otra intimidad
que se reconoce como tal. Por ello puede decirse que "el origen del lenguaje es la fiesta:
«est autem sermo quedam cantus obscurior» (Cicerón) (...) El lenguaje nace de la fiesta
porque sólo la fiesta me saca fuera de mí, y, así, me hace hablar"[335].
Sin comunicación interpersonal no hay lenguaje; sin lenguaje no hay posibilidad
de dominar y dirigir el sistema de tratamiento de información. De esta manera, si se
prescinde del carácter comunicativo y expresivo del conocimiento, se deja a la
inteligencia en precario, se anula la libertad del hombre, y se elimina de raíz su
capacidad creativa. "La praxis, la actividad deliberada y libre por la que el hombre
opera en orden al bien humano como tal; la poiesis, técnica o arte en la que la
causalidad racional humana ejerce una eficiencia reveladora de la soberanía del espíritu
sobre la «naturaleza», serían imposibles en su raíz, si el conocimiento no consistiese sino
en simple presencia inmediata de lo conocido, no expresada en la «palabra del
hombre». Ninguna libertad podría ser afirmada ni en lo finito ni en lo infinito; ninguna
creatividad, eficiencia del ser de los entes en la creación divida, o conformadora
racionalmente de los productos del arte humano, serían posibles, si el espíritu
consciente de sí, poseedor originariamente, o por apertura intencional, de la esencia del
ente, no fuese en sí mismo expresivo"[336].
Por consiguiente, se debe insistir mucho más en el enraizamiento del entender en
la persona y en su capacidad de apertura y comunicación de la propia perfección e
intimidad, más que quedarse en concebir el pensamiento como mera recepción pasiva
de formas, como ha hecho la manualística que quería exponer la concepción clásica de
la inteligencia. A la conocida expresión clásica que afirma que, por el intelecto, el alma
es en cierta manera todas las cosas, hay que añadir: siempre que tenga a alguien junto a
sí con quien dialogar y comunicarse. Porque "entender es hacerse otro. Justo al
contrario de lo que Hegel decía, en mi interpretación la operación de entender no se
ejerce como unión consigo mismo a través de lo otro mediante una especie de nutrición
intelectual, sino como un hacerse uno mismo, dentro de sí, otro. El fin de la intelección
no es entenderse, sino abrirse a la alteridad, o mejor, abrir en uno mismo la
alteridad"[337]. Por esa alteridad ínsita en el acto mismo de conocer es por lo que puede
afirmarse que "entender es la operación que instituye la comunidad. Entender no es
mero entenderse, no es clausura en sí mismo, sino apertura universal. «Hacerse otro» es
albergar lo otro cabe sí, es abrir en el propio acto un espacio para los demás, y un
espacio coactual, o sea, del mismo rango y naturaleza que el entender. Sin este otorgar
el mismo estatuto a lo otro que a lo propio no habría comunidad alguna, pues la
comunidad no es mera yuxtaposición externa, sino la inclusión de lo otro dentro de
uno, o dicho más exactamente, el compartir el acto propio con los demás. No hay aquí
dialéctica alguna, porque la dialéctica es pensamiento trófico, pero hacerse otro es la
antinutrición por excelencia: en vez de transformar lo otro en uno o utilizar lo otro
como medio para el autoconocimiento, es otorgar a lo otro el propio acto, acoger a lo
otro como otro dentro de uno"[338]. Cosa que, propiamente, sólo se puede hacer con otra
intimidad personal y, después, con todo lo demás que es «nombrado» en el diálogo
interpersonal.
Si entender es la primera operación que instituye la comunidad, el entender
humano está en la base de carácter social -interpersonal, de apertura y relación con
otros- que el hombre tiene por naturaleza. Esto es así porque el entender mismo tiene
carácter social, lo cual se puede mostrar atendiendo, en primer lugar, al iniciarse del
conocer y, en segundo lugar, a su crecimiento.
Respecto del inicio del conocer, en tanto que supone dominar la operación del
sistema de tratamiento de información, en el animal humano no parece que se pueda
dar ese dominio sin el «salir de sí» que se da en el diálogo y en la intercomunicación
personal. En lo que al entendimiento se refiere, el hombre es social por naturaleza
porque para dominar la racionalidad, para desarrollar el lenguaje, para no quedar
atrapado en el automatismo de las operaciones de su sistema de tratamiento de
información, necesita de los demás. El «otro» es el que hace posible las operaciones en
las que se despliega el conocimiento. Esto es así tanto respecto del conocimiento de las
cosas externas, como del conocimiento propio. El hombre alcanza el conocimiento del
«yo» sólo en la relación interpersonal con el «otro», con el que se comunica en diálogo.
Si falta ese diálogo el «yo», o permanece desconocido -niños salvajes-, o perdura
sumido en una oscuridad caótica -enfermos mentales-. Sin la comunicación
interpersonal el «yo» se repliega sobre sí mismo para ingresar en una noche autista, o
cae en la ruptura psicótica con la realidad. Los datos empíricos, también los que
provienen del estudio del desarrollo psicológico en la infancia y adolescencia, no dejan
lugar a dudas. Es más, cada vez resulta más claro y manifiesto que la calidad, equilibrio,
e intensidad del propio yo dependen de la calidad, armonía e intensidad de las
relaciones interpersonales.
Igualmente sucede si se considera el crecimiento del conocer humano, una vez
que ya ha iniciado el despliegue de sus operaciones. En este caso las evidencias
empíricas que suministran la evolución de las culturas; el desarrollo de las ciencias; la
acumulación de saberes en cualquier ámbito; el planteamiento de nuevos problemas; la
apertura de campos inéditos; el hallazgo de soluciones; etc., muestran sobradamente
que el crecimiento del conocer humano también tiene un carácter interpersonal. En este
caso son las limitaciones del propio sistema de tratamiento de información las que lo
hacen necesario, por más que se le domine y dirija de manera adecuada no es capaz
sino de realizar un trabajo muy limitado y sólo consigue abarcar con profundidad áreas
relativamente pequeñas. En cualquier ciencia, o en el mismo uso del lenguaje, se utiliza
el trabajo acumulado y sintetizado por muchas personas a lo largo de mucho tiempo. El
carácter interpersonal del aumento del conocer es indudable. Esta naturaleza
interpersonal es la base del carácter social, cultural e histórico del conocimiento
humano, así como de la posibilidad de que sea acumulativo o regresivo.
Sin embargo, estos dos aspectos interpersonales del conocer -primero, posesión y
dominio de las operaciones y, luego, su desarrollo- son distintos y conviene no
confundirlos. El primero es intrínseco o esencial al conocer y es el más fundamental; con
él se subraya el carácter dialogal del intelecto, su capacidad de apertura radical a otro.
Esa capacidad de comunicación interpersonal es la que está en la base de las
peculiaridades de la sociedad humana, que la hacen distinta de las sociedades animales:
es sociedad de personas en comunicación y diálogo; no sólo organización o estructura, o
conjunto de símbolos comunes. También es la que hace posible el dominio y
desenvolvimiento de la racionalidad, con lo que se pone en marcha el aspecto cultural e
histórico del conocer y surge lo que ahora, de forma reductiva, se suele llamar «social».
A pesar de que este primer aspecto interpersonal del conocer humano es el más
fundamental y definitivo, sin embargo ha sido poco desarrollado filosóficamente. Se ha
prestado más atención al segundo, que sólo es su consecuencia: el dominio y despliegue
histórico de la racionalidad como cultura. Pero si la cultura se da en el hombre con
características únicas y bien diversas a las de las culturas animales es únicamente
porque es capaz de diálogo interpersonal, con lo que puede salir del sistema de
tratamiento de información para dominarlo y dirigirlo. De hecho históricamente las
culturas parecen morir cuando les falla ese fundamento de la comunicación
interpersonal y quedan reducidas a la evolución automática de un conjunto de
representaciones y de símbolos. Pero esto ya es otra cuestión.
Precisamente en este campo asistimos al nacimiento de una nueva era por la
existencia de las máquinas racionales, junto con todos los estupendos procedimientos
que ha surgido para acumular, trasmitir y analizar la información. Facilitan
enormemente el intercambio de conocimientos y las relaciones entre personas que antes
ni habrían soñado con poder entrar en comunicación; cada vez más personas, en
cualquier lugar del mundo, pueden intercambiar información, transmitir
conocimientos, y confrontar ideas. Están haciendo que el aspecto interpersonal,
objetivado,
del
conocimiento
humano
tome
unos
derroteros
nuevos,
extraordinariamente prometedores. También ofrece nuevos peligros, que han aparecido
en la figura de esos autistas informados que se vuelven adictos a Internet. Como
siempre, también aquí los medios sólo son medios, y nada nos dicen de los fines, de la
dirección que hemos de darles para que perfeccionen.
CONCLUSIÓN: VIVIR INTELIGENTEMENTE
Es hora de concluir obteniendo alguna moraleja que nos ayude a forjarnos como
Cybersapiens, y no devenir informávoros aturdidos. Centraré la atención en dos
conclusiones que me parecen especialmente importantes ante la revolución puesta en
marcha por las máquinas racionales que acabamos de inventar. Se trata, primero, de las
virtudes intelectivas y, en segundo lugar, sobre la necesidad del diálogo interpersonal.
Comenzaré por tratar las virtudes, porque la palabra "virtud" ha tenido muy mala
prensa, suena a moralina, y requiere alguna introducción para mostrar su importancia.
Parece claro que las máquinas racionales van a modificar nuestra forma de estar
en el mundo. Los arúspices sociológicos diseccionan con sus navajas estadísticas las
entrañas de la sociedad para otear su futuro; vaticinan que, gracias a las máquinas
racionales interconectadas a través del mundo entero, nos dirigimos hacia la sociedad
de la información. Bienvenida sea. La cuestión ahora es ver si conseguiremos hacernos
capaces de estar a la altura de ese invento nuestro, o seremos engullidos por él. Ya nos
ha sucedido con tantos otros inventos estupendos, que nos han encandilado y no hemos
sabido digerir de manera sana. ¿Seguiremos corriendo muy rápido hacia ninguna parte,
o seremos capaces de orientar nuestros pasos hacia metas más plenamente humanas?
Algunos, de manera optimista, denominan «sociedad del conocimiento» a la
sociedad de la información que se avecina. Hay otros que no son tan confiados: "Tal
conocimiento puede ser compatible con un cierto grado de inconsciencia que no
reflejaría un dominio del saber sino, más bien, una forma precisa y curiosa de
ignorancia"[339]. La sociedad de la información puede serlo también de la ignorancia, no
del conocimiento. "La ignorancia de todos y cada uno que encuentra un consuelo fácil
en la tipografía de los titulares de moda, en las ondas y en los bits que las transportan
por doquier expandiendo un reino de uniformidad, mediocridad y ceguera
intelectual"[340]. Puede ser una sociedad de necios informados, pero no menos necios por
ello. Personas que, por estar informadas, creen que saben, pero no comprenden nada
porque no se han entrenado a pensar. Una persona que ocupe sus neuronas en temas
minúsculos o necios, se condena a ser una necedad atareada. Otra que comience su día
conectándose a Internet para estudiar atentamente su horóscopo, y según él dirija su
vida, se condena a vivir neciamente, empeñado en verse como una especie de marioneta
o pelele movido por hilos que controlan los astros. Hay muchas formas de entrenarse
para ser necios bien informados, incluso eruditos.
Identificar la abundancia de información con el conocimiento y la capacidad de
comprensión es una precipitación. Una información profusa y exuberante no es sino
ruido para quien no es capaz de tratarla de forma conveniente, para quien carezca del
potente software mental que tanta información exige para ser asimilada. La sociedad de
la información puede ser también la del aturdimiento y la perplejidad para el que se
haya dotado de escasos recursos cognoscitivos. Para sacar adelante la sociedad de la
información bastan las máquinas racionales, que adquieren, almacenan y tratan mucha
más información que cualquier animal humano; además, con una velocidad y precisión
inigualables. Para establecer la sociedad del conocimiento quizá hagan falta, además,
personas que se entrenen para ser inteligentes y para vivir inteligentemente.
Llegado a este punto he de deshacer algunas confusiones. La Edad Moderna
tiene fama de ser una época antropocéntrica; algo que unos consideran su mayor acierto
y, los del equipo contrario, como la mayor desgracia que ha traído. Se suele decir que la
Modernidad ha puesto al hombre en el centro y el quicio de sus reflexiones filosóficas.
Discrepo de ese parecer, al menos en lo que a la inteligencia se refiere. La Edad
Moderna es la de la oposición sujeto-objeto; la del planteamiento dialéctico de la
relación entre la persona y sus ideas u objetos mentales. En ese falso enfrentamiento la
modernidad se ha decantado por la primacía del objeto sobre el sujeto. Su versión actual
es la primacía de la información sobre la vida inteligente de las personas. Para la
Modernidad el saber corre a cargo del objeto mental y de su intrínseca racionalidad. No
es tarea de la persona, que sólo asiste como conciencia, es decir, como espectador y no
como protagonista. Las ideas y las teorías pueden ser inteligentes, pero no las personas.
Así LA RAZÓN o LA CIENCIA devienen más importantes que las personas que
conocen, y que las ejercen. Las personas, si quieren ser inteligentes, deben someterse al
método racional; a las ideologías (objetos mentales que se quieren definitivos); a la
cultura (conjunto de objetos mentales comunes a un grupo); o a cualquier constructo
semejante al que se otorgue la primacía.
No es cierto que la Edad Moderna sea antropocéntrica: no está centrada en el
hombre, en la persona. Su centro de gravedad, alrededor del cual gira constantemente,
es el método, son los medios, a los que somete la inteligencia humana y la entera
persona. Focaliza su atención en las técnicas, a las que somete el pensar y actuar
humanos. Esclaviza al hombre y lo somete a sus inventos, racionales o técnicos; lo hace
sujeto pasivo de los artificios ideológicos o de las ingenierías sociales. Después de
someterlo a multitud de horrores, acumulados especialmente en el siglo XX, ha
terminado por negar al hombre, a la persona. Los últimos coletazos de la Modernidad,
antes de agotarse en la postmodernidad, con autores desde Lévy-Strauss a Barthes, de
Foucault a Derrida o de Althusser a Baudrillard y teorías como el estructuralismo o el
deconstructivismo, llegaron a hablar de la muerte del hombre, de la disolución del
sujeto. Desde su punto de vista tienen razón, porque no se puede entender ni pensar la
persona cuando sólo se considera la estructura del lenguaje, o el texto que puede ser
deconstruido. Es un defecto común a la modernidad en que al final se ha caído en la
cuenta: el sujeto, la persona, no es pensado y, por tanto, no comparece en los montajes
conceptuales fabricados en la Edad Moderna; o lo hace en precario. La teoría del
conocimiento elaborada en la Edad Moderna no es antropocéntrica, ni fomenta la libre
autonomía humana que busca ser inteligente.
Mucho más antropocéntrica que la moderna es la teoría del conocimiento
elaborada por la tradición filosófica que parte de Aristóteles. Para los clásicos, la
operación de conocer es inmanente, vale decir, en terminología moderna, subjetiva.
Pensar, en primer lugar, es algo que hago yo y lo realizo interiormente. Es un acto o
perfección que depende de la misma perfección del sujeto y que, si se hace bien la
operación cognoscitiva, aumenta la perfección intrínseca de la persona cognoscente: la
hace más capaz de conocer, de comprender con más hondura. Ser inteligente, llegar a
pensar y vivir inteligentemente, es algo que corre a cargo de la persona y de sus actos
libres. No hay así oposición entre lo objetivo y lo subjetivo, pues los mejores objetos
mentales, los que aportan más conocimiento y comprensión, sólo son elaborados por
subjetividades que se han hecho capaces, que no se encandilan con la primera idea
atractiva que encuentran, sino que la piensan en serio y se atreven a ir más allá de las
ideas trilladas.
Otra confusión heredada es la siguiente: En ocasiones se plantea la diferencia
entre la filosofía clásica y la moderna como una oposición entre realismo cognoscitivo e
inmanentismo. La filosofía clásica sería realista, trascendente; la moderna, por el
contrario, inmanentista. No estoy de acuerdo con esta visión de las cosas. Es un error
atribuir tal inmanencia a la teoría cognoscitiva elaborada por la modernidad, que tiene
más bien una pobre idea de los actos inmanentes de la persona. El inmanentismo
moderno es escasamente inmanente. En la mayor parte de las teorías cognoscitivas
modernas la persona no es actor, sino espectador de su pensamiento. Así, por ejemplo,
Kant considera que mi inteligencia viene dotada de unos ordenados casilleros (las
categorías), y que pensar consiste casi únicamente en introducir las ideas en su casilla
correspondiente. El orden viene dado de fábrica y mi tarea es colocar cada cosa en su
sitio en el almacén mental, en el que yo no mando para nada: no lo determino ni puedo
diseñar otros tipos de almacenes conceptuales. En el fondo soy un empleado de mi
razón, no su dueño.
La escasa inmanencia del la teoría cognoscitiva moderna es la causante de oponer
objetividad a subjetividad. La dialéctica sujeto-objeto es típica de la modernidad y trae
más bien confusiones, porque el conocimiento es siempre objetivo, pero el sujeto -la
persona- no se limita a asistir como mera conciencia al despliegue de sus objetos
mentales. Precisamente el problema del conocimiento humano es que es siempre
objetivo, sea verdadero o falso, claro o confuso, aporte comprensión o aturdimiento.
Objetivos somos siempre, es lo que no nos queda más remedio que ser. No podemos
conocer sino elaborando objetos mentales: ideas, imágenes, modelos, teorías,
razonamientos, etc. El producto neto del ejercicio de nuestra inteligencia siempre son
objetos mentales: nada más y nada menos. Siempre conocemos no la realidad, sino los
objetos mentales que hacemos acerca de ella. Conocemos mediante ideas, que no nos
dicen nada de si mismas: si son verdaderas o falsas, inteligentes o estúpidas. De las
ideas no podemos salir para conocer directamente la realidad, ni para intuir, ni para ir
más allá de ellas. Pero si podemos trabajarlas, mejorarlas, para conocer y comprender
más mediante nuevas y superiores ideas. El que no lo hace, aquel que cree en sus ideas,
queda atrapado en ellas: su conocimiento será irremediablemente objetivo. La cuestión,
por tanto, no consiste en ser más o menos objetivos: reitero que siempre lo somos
queramos o no. Más bien el intríngulis del asunto está en cómo dotar a nuestra
subjetividad personal de talentos que nos hagan capaces de trabajar y mejorar nuestros
objetos mentales.
Hacer de nuevo a la persona protagonista de su conocimiento es una buena tarea
para emprender, a la que compensa dedicar esfuerzo. Así no habrá que decir a nadie: sé
más objetivo; sino: procura ser más subjetivo. Es decir, dótate de recursos cognoscitivos,
crece. Ten una subjetividad mayor y mejor, más cultivada, más capaz de entender y
conocer. Desarrolla tu capacidad de ser inteligente, no te quedes con medias respuestas,
busca comprender de veras. Atrévete a pensar, párate a pensar, y piensa en serio.
Entrénate para estar a la altura de la inteligencia que posees, sin ocuparla en necedades
o intentar calmar tu ansia de saber con sucedáneos.
Aún otra posible confusión más: es frecuente escuchar que uno de los peores
males de nuestra época es el relativismo: en parte estoy de acuerdo con el diagnóstico.
Sin embargo, aquí tampoco coincido del todo; porque las más de las veces se intenta
remediar ese mal invocando la existencia de una "verdad objetiva", situada más allá y
fuera de la persona que conoce, e independiente de ella. Apelar a la existencia de la
"verdad objetiva", como recurso frente al relativismo, me parece que es dar una salida
falsa a la cuestión. Con ese remedio precipitado se reedita el mundo de las ideas, el
etéreo nous uranós platónico, que Aristóteles hizo descender a la tierra y puso a
disposición de la persona que conoce. También se comete el error de dar un lustre
nuevo a los errores modernos, que defienden la razón y sus productos por encima y con
independencia de las personas, que son las que han de procurar ser inteligentes. No hay
una "verdad objetiva" al margen de la persona que con su inteligencia elabora
trabajosamente las ideas u objetos mentales para conocer y comprender. La realidad no
viene acompañada de un aura de ideas flotantes, que son objetivas porque acompañan a
la realidad como fotocopias explicativas anexas. Producir ideas es tarea mía; no las
encuentro hechas, ninguna realidad me las da adjuntas.
En algunas críticas habituales al relativismo hay una confusión básica: olvidar
que todo conocimiento es, en efecto, relativo a las capacidades cognoscitivas de la
persona. Porque conocer es una operación inmanente: se da en el interior de la persona
y depende de su perfección intrínseca, de los recursos con que se haya dotado para
conocer. El relativismo, por tanto, es inevitable; la cuestión es respecto de qué hacemos
relativo el conocer. Para la Modernidad el conocimiento era relativo al objeto mental, no
a la persona, reducida a conciencia que levanta acta de lo que se le pasa por la cabeza.
Según la clase de objetos mentales que se fabriquen, y que se consideren óptimos o
simplemente posibles, resulta todo lo que es viable comprender. Así surgen los
relativismos historicistas, o los que todo lo hacen pasar por las relaciones sociales...
También hay quienes hacen depender el conocimiento del lenguaje, o de los genes, o de
los objetos mentales que provee la cultura, o de aquellos que se trabajan en el propio
campo científico, etc. Pero decidir luego que sólo se puede conocer eso, es reducir la
capacidad humana de pensar y comprender a los estrechos límites de unos cuantos
objetos y métodos mentales que unos pocos han decretado que son los únicos válidos.
Además, como nos hemos vuelto postmodernos, ya no creemos en la bondad de
ningún método único, ni admitimos que haya objetos mentales omnicomprensivos:
hemos matado las ideologías. Sin embargo, como hijos de la Modernidad, seguimos
creyendo que el conocimiento depende más de las ideas que de la persona que conoce.
Salvo que ahora ya no sostenemos la existencia de unas ideas superiores a otras; ni
confiamos en ningún método que las haga infalibles y absolutamente válidas en todas
partes para siempre jamás. Por ello nos conformamos con defender nuestras ideas, las
que se me pasan por la cabeza, pero de forma respetuosa y no fanática, como simples
opiniones, que todas son válidas y respetables. Hartos de los dogmáticos, y a menudo
sangrientos, defensores de una única "verdad objetiva", hemos pasado a defender un
calidoscopio múltiple de pequeñas "verdades subjetivas", que lo son para mí; y, por
favor, respétalas como yo respeto las tuyas. Ni tu, ni yo comprendemos nada, ni
sabemos cómo hemos de pensar para conseguirlo, pero respetemos nuestras respectivas
ignorancias, y que se pudra cada uno en su rincón conceptual; con gusto, porque es el
rinconcito propio. Con esta actitud no es que renunciemos a la "verdad objetiva";
renunciamos a pensar, sin más. Quien defiende lo primero que se le pasa por la cabeza
porque es su opinión; y no sólo pide que la respeten sino que -y esto es lo más grave- él
mismo se la cree, renuncia a pensarla. Ese tal afirma irreflexivamente todo lo que se le
ocurre, pero no dirige ni manda en su pensamiento. Jamás conquistará su libertad
respecto de la ideas para trabajarlas y mejorarlas: le pasa o le sucede que piensa de una
forma determinada, pero no podrá hacer nada al respecto. No es el actor y protagonista
de su pensar, no podrá conquistar la libertad para su pensamiento.
Sólo quien se atreva a pararse a pensar en serio sus ideas será capaz de descubrir
que son relativas, limitadas, parciales; que sólo conoce lo que conoce y según él es capaz
de pensarlo, según los instrumentos conceptuales y los modos de pensar con los que
cuenta en ese momento. Si busca de veras saber y comprender, será también el primer
interesado en buscar más información; querrá contar con otros puntos de vista, e
indagará formas de pensar que aporten más comprensión. Es decir, sólo quien cae en la
cuenta del relativismo de sus ideas, y se toma en serio su inteligencia, es capaz de salir
del relativismo.
La solución al relativismo no pasa por invocar la existencia de una "verdad
objetiva" frente a una babel de minúsculas opiniones descerebradas sostenidas por
inteligencias insolventes. Pasa, más bien, por devolver a la persona el protagonismo de
sus operaciones cognoscitivas, para que se haga capaz de conocer y comprender
dotándose de hábitos, creciendo en capacidades, adquiriendo virtudes intelectivas. Por
eso sostengo que proseguir el camino abierto por la perspectiva filosófica clásica es
ahora muy necesario.
Ese camino no está concluido, únicamente ha sido apuntado. El tratamiento
clásico de las virtudes intelectivas sólo es incipiente. Aristóteles hizo los trazos de un
esbozo en la Ética[341], pero no desarrolló el cuadro. Señala cinco virtudes en las que
ejercitarse si se quiere llegar a pensar bien. Tres son hábitos teóricos: el de la ciencia, el
de los primeros principios y el de la sabiduría. Los otros dos son prácticos: la prudencia
y el arte. Sus continuadores añadieron poco más a aquellos apuntes primerizos:
bastaban para sus necesidades.
Era una conquista notable, que no ha sido continuada, respecto de la cual la Edad
Moderna supone un retroceso. "Parte de aquello que pone a la tradición filosófica que
va de Sócrates a Tomás de Aquino en conflicto con el pensamiento filosófico de la
modernidad, sea enciclopédico o genealógico, fue tanto su modo de concebir la filosofía
como un arte, una techné, como su concepción de lo que tal arte es en buenas
condiciones"[342]. Aquellos filósofos clásicos se interesaron por los modos de cultivar el
arte de pensar y vivir inteligentemente. Les preocupó más cómo entrenarse en pensar
bien y a fondo, que perderse en los productos de tal ejercicio, por muy buenas ideas que
fueran. Nunca olvidaron que es la persona quien ejerce el pensar, y que comprender
corre a su cuenta, no va a cargo de la ideas. Iniciaron un tema de investigación que
luego se ha abandonado, también por parte de muchos que decían continuarlo pero
acabaron empantanados en la defensa de la "verdad objetiva", con olvido de la persona
que conoce y comprende.
Haríamos bien en retomar ese camino y proseguirlo si queremos transformar la
incipiente sociedad de la información en una verdadera sociedad del conocimiento. En
caso contrario será una sociedad del ruido y el aturdimiento, porque la mucha
información que no puede ser asimilada no es sino ruido. En esa algarabía dominarán
los que griten más y tengan más medios para hacerse oír. La deseable sociedad del
conocimiento sólo será posible en la medida que las personas nos entrenemos a ser
inteligentes, a vivir inteligentemente.
De camino meteríamos a la ética por caminos inteligentes, en vez de condenarla a
transitar confusos senderos voluntaristas trufados de un sentimentalismo bonachón. La
ética no es otra cosa que el arte de vivir humanamente, de perfeccionar y plenificar la
propia existencia. Para la capacidad humana de ser inteligente la dimensión ética
tampoco es otra cosa que el empeño por vivir a la altura de la propia inteligencia. Lo
diré en forma de sentencia: sólo se puede vivir humanamente si se procura vivir
inteligentemente. En terminología clásica: el acto humano, o es inteligente, o no es
humano ni es libre. Es tan sólo lo que denominaban un acto del hombre: un acto con
déficit de humanidad, por debajo de lo que queda a la altura de la vida humana. "Lo
que constituye una operación vital es saber, llegar a saber, aprender. El conocimiento es
el rendimiento de un organismo vivo que se enriquece, que llega a ser más, que avanza
hacia sí mismo. Los humanos no poseemos un saber innato ni podemos adquirirlo como
el que se apropia de un bien mostrenco, por el simple procedimiento de fotocopiar unos
apuntes, mirar la pantalla de un ordenador, escuchar una clase o leer un libro. El saber
no es naturaleza sino praxis vital, así como la huella que el renovado ejercicio de esa
actividad vital deja en nuestros cuerpos y en nuestras mentes. La ignorancia del carácter
vital del conocimiento es el primer fallo que está detrás de esa retórica al uso acerca de
la nueva galaxia postindustrial. Se trata de un equívoco acerca de la misma índole del
saber; equívoco que, además, implica pasar por alto la dimensión ética del
conocimiento. Porque resulta que la ética se encamina hacia el logro de una vida plena.
La ética no es una especie de armatoste constrictivo, impuesto por no se sabe quién, que
viniera a aguarnos la fiesta con sus mandatos y prohibiciones. La ética es una disciplina
práctica que persigue la intensidad de la vida humana, que responde al interés que
todos tenemos en que nuestra vida se logre y no se estrague"[343].
La vía abierta por los clásicos tuvo escasa continuación. La ética desarrollada en
la manualística -que decía partir de ellos- deja al hombre y a su libertad (origen de la
ética) prácticamente reducidos a la voluntad. La inteligencia comparece escasamente
sólo en la virtud de la prudencia. También asoma como una especie de convidado de
piedra, que no se sabe muy bien qué función inteligente hace allí, al que se denomina
conciencia. Ésta se encarga, sobre todo, de aprender ristras de preceptos, leyes, deberes
y normas, para que luego los aplique la prudencia, pero no es tarea suya pensarlos.
Formar la conciencia deja de ser un quehacer para la que se requiere una inteligencia
muy dotada en recursos y bien equipada para suscitar fines a la altura del hombre, y
luego planear los mejores medios para alcanzar objetivos verdaderamente magnánimos.
De esta forma se olvida la sentencia de Pascal: "Esforcémonos en pensar bien: he ahí el
principio de la moral"[344]. Es decir: si se quiere tener un comportamiento ético, lo
primero necesario es esforzarse en saber, en comprender. Una acción bienintencionada
pero con poco cerebro no es ética. La mejor forma de vincular la ética con la verdad no
es unirla a ristras de preceptos y reglas, sino poner uno de sus pilares fundamentales en
el ejercicio empeñado de la inteligencia.
No queda mejor parada la inteligencia en las éticas intentadas por la
modernidad. Ninguna trata sobre la importancia ética que tiene entrenarse en el arte de
ser inteligentes, de vivir inteligentemente. La modernidad descubre que saber es poder,
pero no sabe qué hacer con ese poder, ni se plantea la responsabilidad que ese poder
comporta. Actúa como el aprendiz de brujo, encantado por las nuevas posibilidades que
le brinda la fuerza del abracadabra mágico que ha descubierto. El conocimiento, para la
modernidad, es amoral, nada sabe de éticas. La ética trata de los "buenos" sentimientos
y cosas similares. Pero no es cierto: la ética es el arte de perfeccionar al hombre para
que, a su vez, pueda perfeccionar. Esa tarea es imposible sin el empeño por hacerse
inteligentes, sin tener que añadir moralina alguna a tal propósito. La primera obligación
ética es conquistar la libertad para la propia inteligencia, para señorear ideas y métodos
mentales, para atreverse a pensar de veras, y hacerse capaz de grandes alientos, de
profundas ambiciones cognoscitivas.
Si comprendemos eso, también podríamos entender cómo hacer bio-ética, o
físico-ética, o economía-ética, o lo que sea-ética; que no es añadir consideraciones
bienintencionadas a una ciencias amorales, sino hacerlas en serio, pensarlas de veras,
atreverse a aportar comprensión unitaria y armónica a partir de los conocimientos
limitados que en ellas se adquieran. El adjetivo «ético» no debe venir por añadidos
moralizantes, sino por el talante y la hondura de miras de quienes hagan esas ciencias,
empeñados en no quedarse con la pobretería de saberes parciales; ambiciosos para no
transitar por el mundo con las orejeras de un método y unas técnicas fragmentarias. De
camino quizá también podríamos acabar con la absurda separación entre «ciencias» y
«humanidades», porque conquistemos que todo conocimiento tenga un tamaño
verdaderamente humano.
El empeño personal por no contentarnos con saberes parciales reduccionistas y
desquiciados, el esfuerzo por orientar nuestra inteligencia hacia horizontes de
comprensión verdaderamente amplios y profundos, es parte fundamental de lo que los
clásicos denominaron hábito de la sabiduría. "La palabra sabiduría es una palabra muy
bella y que encierra un profundo significado. Hoy se encuentra desprestigiada y casi se
la emplea sólo irónicamente, lo cual dice muy poco de nuestro tiempo. En principio
hace referencia a un conocimiento sin restricciones de lo que es importante, de lo que
merece ser conocido. Además, no se trata de un conocimiento aséptico y neutral, sino de
un conocimiento que implica y anima al que lo posee, impulsándole a vivir en
conformidad con él. Así, el sabio es el verdadero hombre, el que ejerce correctamente y
desarrolla al máximo todas sus capacidades, sin quedar mutilado por la atrofia de
ninguna facultad que pudiera y debiera practicar en su existencia, y enfoca
correctamente tanto la elección de fines como la disposición de los medios para
conseguirlos. Por consiguiente, la sabiduría es un ideal al que nadie sensato puede
renunciar, es un signo de plenitud humana en el que el rasgo más característico de
nuestra especie, la capacidad de conocer y de conocerse, se pone al servicio de un
desarrollo cabal de nuestro ser en todos los órdenes. En cuanto ideal de humanidad es
un ideal universal: todos deben aspirar a ser sabios y, lo que es más importante, todos
pueden conseguirlo, independientemente de las culturas y de las circunstancias
personales de cada cual, ya que, por muy disminuidas que estén objetivamente las
facultades físicas e intelectuales de un individuo, siempre es posible, en la medida que
se mantenga la condición humana, aprovechar al máximo la capacidad de conocer para
orientar la vida en dirección de su mejor acabamiento"[345].
Hemos de aprender a hacernos sabios. En ese empeño la máquinas racionales nos
brindan unos magníficos medios. "Constituyen la única puerta entreabierta hoy para
cruzar el umbral histórico de la sociedad del saber. Pero, si no se quiere perder el
tiempo con ellas, si se les quiere sacar partido, resulta imprescindible advertir que los
multimedia son precisamente eso, medios, y no fines. Ofrecen procedimientos de
descarga, porque lo importante no es lo que se hace con esas tecnologías sino lo que es
posible dejar de hacer gracias a ellas. Nos exoneran de infinidad de tareas rutinarias
para permitir que nos concentremos en el conocimiento intelectual, es decir, en esa
actividad que constituye el rendimiento propio de los seres vivos racionales. Prescindir
hoy de esos recursos informáticos y telemáticos es una insensatez. Pero creer que su
simple instalación y uso produce conocimiento, educación o bienestar, equivale a tomar
el rábano por las hojas. Las nuevas herramientas del saber liberan vida, tiempo de vida,
intensidad de vida. Nos dejan en franquía para la investigación, el diálogo, la
formación, la amistad, la lectura de los grandes libros. En lugar de ir tan azacanados
trajinando con los instrumentos, tal vez nos quede sosiego para dedicarnos a esas
actividades -el conocimiento y el amor- que tienen sentido en sí mismas. Quizá
volvamos a interesarnos por la contemplación de la realidad, por la búsqueda de la
verdad, con independencia de la utilidad que ello nos reporte. Si lo lográramos,
volveríamos a disfrutar de eso que alguien llamó «la no comprada gracia de la
vida»"[346]. Con las máquinas racionales y la revolución informática seremos capaces de
hacer un mundo más humano sólo si nos embarcamos en el empeño por forjarnos como
Cybersapiens.
Hasta aquí sobre la importancia de aquel descubrimiento griego: los hábitos
intelectivos. Paso ahora a la segunda moraleja: el diálogo. Porque, si es cierto que, según
averigua la psicología cognitiva y sugieren cada vez más autores, sin diálogo no es
posible salir de sí; si es verdad que sin diálogo, sin comunicación interpersonal, no es
posible evitar el quedar atrapado en las propias ideas y modos de pensar, por lo que
resulta inalcanzable conquistar la libertad para el propio pensamiento, y dirigirlo y
dominarlo; si esto es así, entonces fomentar la capacidad de diálogo, de escuchar y
explicar, de comprender y proponer, es un elemento esencial para edificar la sociedad
del conocimiento. Pero el arte del diálogo, es decir, dotar de riqueza y calidad
cognoscitiva a las relaciones interpersonales, es algo que también debemos aprender, ya
que estamos poco entrenados.
Como siempre, comenzaré por referirme a la modernidad, a la que he tomado
como chivo expiatorio. Pido disculpas por ello, pero lo hago a conciencia, por el motivo
siguiente: la forma de entender la inteligencia humana durante la Edad Moderna -como
razón simplemente razonante- es la que nos ha llevado a fabricar las máquinas
racionales. No es pequeño el logro, y merece ser convenientemente destacado.
Igualmente son innumerables las conquistas de la modernidad, entre las que destacan
las ciencias y sus tecnologías, que han venido del aprecio por la racionalidad. Por otra
parte, no deseo renunciar a ninguno de esos éxitos ni prescindir de las metas ambiciosas
que los modernos propusieron a la razón. No quiero ser postmoderno y renunciar a un
pensamiento ambicioso, ni anhelo plantearme como meta sólo el sobrevivir en las
ruinas que ha dejado el fracaso de la modernidad. Si aquella estructura mental no
soporta la mole de conocimientos que ha conseguido, habrá que poner mejores
cimientos y una estructura más capaz, para poder seguir edificando.
Sin embargo, aquella manera moderna de concebir la inteligencia humana es la
que ahora nos impide ver qué diferencia existe entre las máquinas racionales y las
personas. Con la forma de pensar de la modernidad no hay modo de averiguar cual es
el modo humano de ser inteligentes -tarea que aquí intento- y, por tanto, no permite
indagar cómo vivir inteligentemente. Como consecuencia, tampoco ofrece mucho
espacio para vislumbrar por dónde puede encaminarse un uso humano de los medios
que nos proveen tan extraordinarias máquinas. Por ello, para resaltar por contraste, me
refiero a la modernidad.
En la Edad Moderna se solemnizan las ideas y lo métodos racionales: eso es lo
objetivo; es lo que importa, mucho más que la persona, de la que procede lo "subjetivo",
que es así despreciado. También tienen ideas similares, muchas veces sin caer en la
cuenta, los defensores de la "verdad objetiva" que se pretenden continuadores de los
clásicos. Como consecuencia se menosprecia lo que pertenece a la intimidad personal,
eso es lo subjetivo. Lo meramente subjetivo no tiene posibilidades de ser inteligente: es
lo que yo deseo, o lo que siento, o me apetece. Lo inteligente pertenece a las ideas
fabricadas usando técnicas y métodos racionales. La candidez de la más sencilla fe
racionalista consideraba que hay un método racional de pensar que produciría las
ideas verdaderas o científicas. Una vez encontrado el método, y desarrolladas con él
las ideas, la tarea de la inteligencia quedaría concluida. La Humanidad (curioso sujeto
abstracto e inexistente, muy del gusto moderno) sería ilustrada y todos viviríamos
felices y benéficos en la época de las luces. Como si no fuera la inteligencia de la
persona, de cada persona, la que hubiera de aportar la luz.
Ese sueño ingenuo no era más que una quimera, que más de una vez se ha hecho
pesadilla. Como hay muchos métodos, y con ellos se pueden producir todo tipo de
ideas, cada cual se atrincheraba detrás de las que consideraba «científicas» y rechazaba
las ajenas. Durante un tiempo estuvo de moda imponer a los demás lo que se
consideraba la «explicación científica» -la propia ideología-, aunque fuera a palos;
procedimiento que ha llenado el siglo XX de cadáveres. En la actualidad hemos caído en
la cuenta de la inhumanidad que suponen esos intentos. La moda ahora es la tolerancia
y el consenso: hay muchos modos de pensar que producen ideas variadísimas. Todas
son igualmente válidas y respetables, porque no hay modo de averiguar cuales son
mejores. Todo lo que cabe hacer es conseguir acuerdos para que no llegue la sangre al
río.
Fomentar la tolerancia es un buen método para evitar violencias; pero no es
acertado si se quiere que abunden las personas inteligentes, capaces de edificar la
sociedad del conocimiento. Admitir la tolerancia y el consenso como todo horizonte de
diálogo presupone que las personas están sometidas a sus ideas y a su forma de pensar,
sin poder salir de ellas, imposibilitados para trabajarlas en unión con otros. Todo lo
permitido es negociar compromisos entre las personas que sustentan distintas
opiniones para tener la fiesta en paz. La tolerancia y el consenso valen para aquellos que
están atrapados en sus ideas. Para quien venera y se somete a unas ideas, a las que
considera LA EXPLICACIÓN, las ideas de los demás no tienen nada que aportar, sólo
son discrepancias de gente que no entiende LA EXPLICACIÓN. También pueden
servir para los que son incapaces de tomar en serio la inteligencia ajena y la propia, por
lo que todo lo que cabe es tener opiniones, de las que no hay modo de averiguar si son
más o menos inteligentes: todas son respetables.
Sin embargo, más que respetar a las ideas habría que entrenarse a respetar la
dignidad de las personas, también la propia. Y estar a la altura de nuestra dignidad
supone, para empezar, comportarnos y tratarnos como personas capaces de ayudarnos
a vivir inteligentemente. Esa sería una sociedad pluralista verdaderamente humana.
Aquella en la que no hubiera tolerancia, sino aprecio por lo que los demás tuvieran que
aportar; afán de no prescindir de ningún conocimiento, ya lo dijese Agamenón o su
porquero; empeño por crear un clima en el que cada persona cultivase de veras su
capacidad de ser inteligente porque se viese capaz de participar con una aportación
positiva. Podemos ayudarnos a vivir inteligentemente. Para eso hacen falta personas
que no respeten las ideas o las opiniones, sino la inteligencia de los demás, y cultiven la
propia, para hacerse capaces de comprender, atender y aportar, para trabajar juntos las
opiniones y las ideas.
La sociedad del conocimiento ha de serlo también del diálogo, en caso contrario
no tendrá altura humana. Será un conglomerado precario de seres que se han vuelto
autistas ante la pantalla del ordenador. En ese caso todo lo que importará es saber quién
se queda con la sartén por el mango en la sociedad de la información, porque podrá
«comer el coco» de quienes no consigan vivir inteligentemente. Una sociedad de la
información de ese estilo sería una sociedad de la manipulación edificada sobre la
pobreza de las relaciones interpersonales, cuya calidad requiere subjetividades capaces
de enriquecer y enriquecerse en la comunicación.
Sólo las personas dialogan. Ciertamente las ideas no dialogan entre sí; tampoco
un método se habla con otro. Sólo las personas que los utilizan pueden hacerlo. Con un
método se llega sólo donde el método da de sí. Llegar más allá es tarea de personas
inteligentes, que no se limitan a pensar encerradas en las estrecheces de un método. Los
saberes no dialogan; sólo lo hacen las personas que se empeñan en ser sabias, capaces
de comprender y de aportar comprensión. Los conocimientos, las ideas, por sí mismas
no pueden ser interdisciplinares, porque no se piensan a sí mismas en relación a otras, y
porque ninguna idea aporta conocimiento alguno acerca de sus limitaciones. Sólo las
personas de inteligencia magnánima, espléndida en su afán de comprender, pueden ver
las limitaciones de los métodos y las ideas, para suscitar nuevos ámbitos de
comprensión. Personas así son las que se empeñan en completar sus propios hallazgos
con las aportaciones de los demás, y contribuyen a la unidad del saber, desperdigado en
especializaciones minúsculas.
Si queremos edificar la sociedad del conocimiento, quizá sea bueno aprender del
modelo a escala reducida que nos ofrecen los investigadores científicos, que forman
sociedades especializadas del conocimiento. En ellos se observa una ética estricta, sin la
cual el conocimiento es inviable. "Se trata de un ethos de búsqueda y respeto de la
verdad. Nos encontramos aquí con algo que se tiende a suponer inadmisible en la
sociedad pluralista: la presencia de prohibiciones incondicionadas. En un instituto de
investigación está, por ejemplo, absolutamente prohibido falsear resultados de
experimentos. Ningún interés o conveniencia del instituto o de sus miembros autoriza
nunca a faltar a la verdad sobre el desenlace de sus investigaciones. La exigencia de
veracidad -no mentir nunca- constituye la regla básica de una comunidad de
investigación y representa el hilo conductor para descubrir la indeclinable presencia de
la ética en una sociedad que quiera hacer de conocimiento su recurso primordial.
Porque lo primero que se exige del saber es que sea, precisamente, verdadero. Un
conocimiento falso no es realmente un conocimiento. Ya tenemos, entonces, a la ética en
el centro de la escena postindustrial. Porque buscar sistemáticamente la verdad y
decirla siempre, implica un formidable temple moral"[347].
Tenemos otro modelo en aquella época de la historia griega en la que se
produjeron las formas de pensar que cultivamos cuando queremos pensar en serio. La
filosofía griega nació en ambientes en los que se cultivaba el diálogo entre personas
verdaderamente apasionadas por saber, por comprender. Resultan paradigmáticos los
Diálogos de Platón para conocer aquel fértil clima humano que rindió tan espléndidos
frutos. Los que en la Edad Media continuaron aquella tradición de cultivo del saber
inventaron la Universidad, creación que todavía no hemos conseguido superar y que
sigue en la punta de lanza del progreso del conocimiento. Quienes la inventaron,
concibieron la Universidad ante todo como un lugar de diálogo; de discusión franca de
las ideas; de intercambio creativo de pareceres; de exploración de los modos de pensar
más aptos para aportar comprensión. No era una pasiva y memorística transmisión de
conocimientos, sino un ejercitarse en adquirir la musculatura mental necesaria para
vivir inteligentemente. La cima de la actividad académica no era la lección magistral,
sino la quaestio disputata: la discusión razonada sobre una cuestión. Allí se debían
tomar en serio las opiniones ajenas, y fundamentar adecuadamente la propia. Esa
costumbre es la que ahora hace insólitas y difíciles de leer obras magistrales del
pensamiento, como pueden ser las de Tomás de Aquino.
En fin, sólo son unos ejemplos que cito con la intención apuntalar la siguiente
tesis: cultivar un clima de verdadero diálogo, y aprender a entrenarnos en adquirir
hábitos intelectivos, es el inicio del camino para conquistar la libertad para nuestro
pensamiento. Esa es la gran diferencia que nos separa de las máquinas racionales; y es
también la gran tarea a la que nos enfrentan esos magníficos inventos nuestros. "El mito
de los «robots» que vencen a sus creadores no es otra cosa que la metáfora técnica de un
problema moral. El verdadero «hombre-máquina», que puede sojuzgarnos, no hay que
ponerlo fuera de nosotros, como el último engendro de una técnica que se nos hubiera
ido de las manos. Somos nosotros mismos los que tenemos dentro la posibilidad de
transformarnos en máquinas humanas. Basta con que perdamos el sentido de nuestra
efectiva libertad"[348].
EULER, L., Enodatio quaestionis: Utrum materiae facultas cogitandi tribui
possit nec ne? ex principiis mechanicis petita, en Opuscula varii argumenti,
Hande&Spener, Berlin 1746, vol. I, pp. 277–86. Cfr. ARANA, J., La mecánica y el
espíritu, Editorial Complutense, Madrid, 1994, pp. 191–204.
[2] STEINBUCH, K., Principios de una antropología cibernética, en GADAMER
y VOGLER, Nueva antropología, Vol. I, Omega, Barcelona, 1975, pp. 56–57.
[3] POLLOCK, J., My brother, the machine, en Nous, 22 (JE, 1988) pp. 173–211.
[4] MORAVEC, H., Mind children. The future of robot and human intelligence,
Harvard University Press, Cambridge, MA, 1988. Cfr. MORAVEC, H., Robot: Mere
Machine to Transcendent Mind, Oxford University Press, Oxford, 1998; KURZWEIL,
R., The Age of Spiritual Machines, When Computers Exceed Human Intelligence,
Viking, 1999; McCORDUCK, P., The universal machine: Confessions of a
technological optimist, McGraw–Hill, New York, 1985.
[5] Así por ejemplo: BERRY, A., La máquina superinteligente. Una odisea
electrónica, Alianza, Madrid, 1983.
[6] MINSKY, M., ¿Serán los robots quienes hereden la tierra?, en Investigación y
Ciencia, XII–1994, p. 92. Ver también MAZLISH, B., The fourth discontinuity. The CoEvolution of Humans and Machines, Yale University Press, New Haven, 1993.
La cuarta discontinuidad. La coevolución de hombres y máquinas, Alianza,
Madrid, 1995.
[7] Una acumulación de argumentos contra la Inteligencia Artificial que considero
insuficientes puede verse en: DREYFUS, H. L., What computers can't do: A critique of
artificial reason, Harper & Row, New York, 1972; DREYFUS, H. L. y DREYFUS, S. E.,
Mind over machine: The power of human expertise in the era of the computer, The
Free Press, New York, 1986; DREYFUS, H. L., What computers "still" can't do: A
critique of artificial reason, MIT Press, Cambridge, MA, 1992.
[8] VV. AA., ¿Es posible una inteligencia artificial? Perspectivas filosóficas, en
Atlántida, 7, Julio–Septiembre, 1991, p. 13.
[9] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 243.
[10] Pueden verse historias mejores y más completas que este breve resumen en:
TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998;
GOLDSTINE, H. H., The computer from Pascal to Von Neumann, Princeton
University Press, Princeton, 1972; GREVIER, P., The tumultuous history of the search
for Artificial Intelligence, Basic Books, New York, 1993; McCORDUCK, P., Machines
[1]
who think, Freeman, San Francisco, 1979 (Máquinas que piensan, Tecnos, Madrid,
1991).
[11] LA METRÌE, J. O. de, L'Homme Machine, Princeton University Press,
Princeton, 1960: En realidad, la obra consiste en una acumulación de datos para mostrar
cómo multitud de sustancias físicas afectan al pensamiento, a la res cogitans, que
Descartes consideraba separada del mundo físico. Ver también: LA METRÌE, J. O. de,
Histoire naturelle de l'âme, David Néaulme, La Haye, Paris, 1745.
[12] DESCARTES, R., Discurso del método. Quinta parte, Tecnos, Madrid, 1987,
p. 78 s.
[13] RAIMUNDO LULIO, Arte General Demonstrativa, en SALZINGER, I.,
Opera omnia, Maguncia, 1721–42.
[14] Cfr. CARRERA, J., De Ramón Lull a los modernos ensayos de formación de
una lengua universal, Madrid, 1946.
[15] Cfr. DESCARTES, R., Geometría, Buenos Aires, 1947. Sobre la historia y
génesis de la idea ver: CRAPULLI, G., Mathesis Universalis. Genesi di un'idea nel
XVI secolo, Ed. dell'Ateneo, Roma 1969; VILLALOBOS, J., Idea metafísica de la
«Mathesis Universalis», en VILLALOBOS, J. (Ed.), Radicalidad y Episteme, ORP,
Sevilla, 1991. Un intento, algo anacrónico, de revitalizar la idea puede encontrarse en:
SCHOLZ, H., Mathesis Universalis. Abhandlungen zur Philosophie als strenger
Wissenschaft, B. Schwabe, Stuttgart, 1961.
[16] LEBNIZ, G. W., Nova methodus pro maximis et minimis, en Acta
eruditorum, Lipsia, 1684: "Quando orietur controversiae, non magis disputatione opus
erit inter duo philosophos, quam inter duo computistas. Sufficet enim calamos in
manus sumere, sedereque ad abacos et sibi mutuo (accito si placet amico) dicere:
calculemus".
[17] COUTURAT, L., La logique de Leibniz, París, 1901.
[18] RUSSELL, B., A critical exposition of the Philosophy of Leibniz, Cambridge,
1900.
[19] HOBBES, Leviatán, Fondo de Cultura Económica, México, 1940, p. 32. Sobre
la idea de la mente como una especie de máquina cfr.: WEBB, J., Mechanism,
mentalism and metamathematics, Reidel, Dordrecht, 1980.
[20] BOOLE, G., The Mathematical Analysis of Logic, being an essay towards a
Calculus of Deductive Reasoning, Cambridge, 1847; An Investigation of the Laws of
Thought, on which are founded the Mathematical Theories of Logic and
Probabilities, London, 1854. Hay traducción de los dos artículos juntos: BOOLE, G.,
Investigación sobre las leyes del pensamiento, Paraninfo, Madrid, 1982. Cfr.
MANGIONE, C. y BOZZI, S., Storia della logica. Da Boole ai nostri giorni, Garzanti,
Milán, 1993.
[21] CHURCH, A., The calculi of lambda–conversion, en Annals of
Mathematicals Studies, nº 6, Princeton, 1952. Una sencilla y amena exposición del
Cálculo Lambda puede verse en PENROSE, R., La nueva mente del emperador,
Mondadori, Madrid, 1991, pp. 100–106. Pido disculpas a los especialistas por escribir
con tanta imprecisión. El cálculo lambda, con más exactitud, es una formalización del
razonamiento matemático, o más bien, de la matemática, sobre todo de la teoría de los
números naturales. Evidentemente, toda formalización de la matemática implica una
simbolización del razonamiento lógico: la regla del modus ponens y del modus tollens;
por ello en el texto me refiero a la lógica, sin más precisiones, que no interesan al
propósito de la breve exposición que pretende ser este capítulo. Sirva el aviso para
muchas otras imprecisiones del texto.
[22] Los artículos fundamentales de Turing están recopilados en TURING, A. M. y
WOODGER, M., The automatic computing machine: Papers by Alan Turing and
Michael Woodger, MIT Press, Cambridge, MA, 1985. Sobre Turing, ver también:
HODGES, A., Alan Turing: The enigma of intelligence, Burnett, London, 1983;
LASSÈGE, J., Turing, Les Belles Lettres, Paris, 1998; TURING, A. M. y GIRARD, J–Y., La
machine de Turing, Le Seuil, Paris, 1995. Ver también las voces Church-Turing Thesis
y Turing, Alan Mathison en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia
of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999..
[23] Cfr.: MACKAY, D. M., On comparing the brain with machines, en American
Scientist, 42 (1954): 2.
[24] TURING, A., On computable numbers with an application to the
Entscheidungsproblem, en Proceedings of the London Mathematical Society, 42, pp.
230–265; 43, pp. 544–546, 1936–1937.
[25] SHANNON, C. E., A Symbolic Analysis of Really and Switching Circuits,
en Transactions of the American Institute of Electrical Engineers, 57, 1938, pp. 1–11.
Shannon también desarrolló las bases de la teoría de la comunicación en otro famoso
trabajo: SHANNON, C. E., A mathematical theory of communication, en Bell Systems
Tech. Journal 27, pp. 379-423 y 623-656; SHANNON, C. y WEAVER, W., Teoría
matemática de la comunicación, Forja, Madrid, 1981.
[26] SLOMAN, A., The computer revolution in philosophy, science and models
of mind, Harvester press, Harrocks, Sussex, 1976; KURZWEIL, R., The age of
intelligent machines, MIT Press, Cambridge, MA, 1992; BODEN, M., Artificial
intelligence and natural man, Harvester Press, Brighton, Sussex, 1977 (Inteligencia
artificial y hombre natural, Tecnos, Madrid, 1984); AUGARTEN, S., Bit by bit. An
illustred history of computer, Ticknot and Fields, New York, 1984; BRETON, P.,
Histoire de l'informatique, Seuil, Paris, 1990.
[27] WIENER, Cybernetics, or control and communication in the animal and the
machine, John Wiley, New York, 1948; GEORGE, F. H., The foundations of
cybernetics, Gordon & Breach, London, 1977.
[28] BRETON, P., El primer ordenador copiaba el cerebro humano, en Mundo
Científico, 17, Noviembre, 1996, pp. 970–973.
[29] VON NEUMANN, J., The general and logical theory of automata, en
JEFFRESS, L. A. (ed.), Cerebral mechanisms in behaviour, the Hixon Symposium,
John Wiley, New York, 1951; ASPRAY, W., John Von Neumann and the origins of
modern computing, MIT Press, Cambridge, MA, 1991. Hay edición castellana: John
Von Neumann y el origen de la computación moderna, Gedisa, Barcelona. También
existe una breve colección de artículos originales: VON NEUMANN, J., El ordenador y
el cerebro, A. Bosch Ed., Barcelona, 1980.
[30] Sobre aquella reunión y sus protagonistas hay una buena exposición en
TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998,
pp. 64-83.
[31] MINSKY, M. L., Semantic information processing, MIT Press, Cambridge,
MA, 1968, p. V.
[32] WHITEHEAD, A. N. y RUSSELL, B., Principia Mathematica, 3 vols.,
Cambridge University Press, Cambridge, 1925–1927.
[33] SIMON, H. y NEWELL, A., Heuristic problem solving: The next advance in
operations research, en Operations Research, 6 (Enero–Febrero, 1958) p. 6.
[34] SIMON, H., The shape of automation for men and management,
Harper&Row, New York, 1965, p. 96. Ver también: SIMON, H., Models of man, Wiley,
New York, 1957.
[35] Un magnífico libro para entender el auge y caída de la metáfora del
ordenador para enfocar la psicología humana es el de RIVIÈRE, A., Objetos con mente,
Alianza, Madrid, 1991. El primero en desarrollar la comparación con el ordenador para
entender la mente humana como procesador de información puede ser MILLER, G. A.,
Psychology: the science of mental life, Hutchinson, London, 1964. Ver también:
ARBIB, M. A., The metaphorical brain: An introduction to cybernetics as artificial
intelligence and brain theory, Wiley, New York, 1972; ADARRAGA, P. y
ZACCAGNINI, J. L. (eds.), Psicología e inteligencia artificial, Trotta, Madrid, 1994.
MILLIKAN, Language, thougth and other biological categories, Bradford Books, MIT
Press, Cambridge, MA, 1984; STERBERG, R. J., Metaphors of mind: Conceptions of the
nature of intelligence, Cambridge University Press, New York, 1990; WAGMAN, N.,
Artificial intelligence and human cognition, Praeger, New York, 1991; JOHNSON–
LAIRD, P. N., The computer and the mind: An introduction to cognitive science,
William Collins, Glasgow, 1988 (El ordenador y la mente: Introducción a la ciencia
cognitiva, Paidós, Madrid, 1990); BODEN, M., Computers models of mind:
Computational approaches in theoretical psychology, Cambridge University Press,
New York, 1988; MONSERRAT ESTEVE, S., Psicología y psicopatología cibernética,
Herder, Barcelona, 1985.
[36] SHANNON, C. y WEAVER, W., Teoría matemática de la comunicación,
Forja, Madrid, 1981.
[37] CHOMSKY, N., Syntactic structures, Mouton, The Hague, 1957 (Estructuras
sintácticas, Siglo XXI, Madrid, 1974); CHOMSKY, N., Aspects of the theory of Syntax,
MIT Press, Cambridge, MA, 1965 (Aspectos de la teoría de la Sintáxis, Aguilar,
Madrid, 1970); CHOMSKY, N., Current issues in linguistic theory, Mouton & Co., The
Hague, 1964; CHOMSKY, N., Language and mind, Harcourt Brace & Jovanovich, New
York, 1972; CHOMSKY, N. Knowledge of language: Its nature, origins and use,
Praeger, New York, 1985 (El conocimiento del lenguaje: Su naturaleza, origen y uso,
Alianza, Madrid, 1989); LYONS, J., Noam Chomsky, Viking Press, New York, 1970.
PIAGET, J., La representation du monde chez l'enfant, Presses Universitaires
de France, Paris, 1926 (La representación del mundo en el niño, Morata, Madrid, 1984);
La naissance de l'intelligence chez l'enfant, Delachause et Niestlé, Neuchatel, 1936 (El
nacimiento de la inteligencia en el niño, Aguilar, Madrid, 1969); La psychologie de
l'intelligence, A. Colin, Paris, 1947 (La psicología de la inteligencia, Psique, Buenos
Aires, 1971); Logic and psychology, Manchester University Press, Manchester, 1953.
[39] HEBB, D. O., The organization of behavior, John Wiley, New York, 1949.
[40] VARELA, F. J., Conocer. Las ciencias cognitivas: Tendencias y perpectivas.
Cartografía de las ideas actuales, Gedisa, Barcelona, 1990; GARDNER, H., The mind's
new science: A history of the cognitive revolution, Basic Books, New York, 1985 (La
nueva ciencia de la mente: Historia de la revolución cognitiva, Paidós, Buenos Aires,
1987); GARFIELD, J. L. (Ed.), Foundations of cognitive science: The essential readings,
Paragon House, New York, 1990; STILLINGS, N. A., Cognitive science: An
introduction, MIT Press, Cambridge, MA, 1987; JOHNSON–LAIRD, P. N. y WASON, P.
C., Thinking: Reading in cognitive sciences, Cambridge University Press, Cambridge,
MA, 1977; ANDERSON, J. R., Cognitive psychology and its implications, Freeman,
San Francisco, 1985; WAGMAN, N., Cognitive science and concepts of mind toward a
general theory of human and artificial intelligence, Praeger, New York, 1991.
[41] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 48.
[42] Cfr. NEWELL, A. y SIMON, H. A., Human problem solving, Prentice–Hall,
Englewood Cliffs, New Jersey, 1972; BUNDY, A., The computer modelling of
mathematical reasoning, Academic Press, London, 1983. CHANG, C. y LEE, R. C. T.,
Symbolic logic and mechanical theorem proving, Academic Press, London, 1973.
NILSSON, N. J., Problem–solving methods in Artificial Intelligence, McGraw–Hill,
New York, 1971. ROBINSON, J. A., Logic: form and function, Edinburgh University
Press, Edinburgh, 1979. CUENA, J., Lógica informática, Alianza, Madrid, 1985;
OMONDI, A. R., Computer arithmetic systems, Prentice Hall, New York, 1994 .
[43] Ver, por ejemplo, el artículo: La muerte de la demostración, en Investigación
y Ciencia, diciembre, 1993, pp. 70–77.
[44] Se puede encontrar el informe de Sir James Lighthill, así como la réplica de
otros autores en: VV. AA., Artificial Intelligence: A paper symposium, Science
Research Council, Londres, 1973.
[45] Es muy interesante ojear Artificial Intelligence, 59 (1–2) 1–462 (February,
1993): Número especial monográfico dedicado a trazar una perspectiva sobre los
realizado desde los comienzos de la IA.
[46] El nombre fue propuesto por Feigenbaum en el congreso mundial de
Inteligencia Artificial de 1977. E. Feigenbaum junto con A. Barr ha editado uno de los
libros básicos en Inteligencia Artificial: The Handbook of artificial intelligence,
Kauffman, 1982.
[47] En la actualidad MACSYMA se ha quedado viejo, pero ha dado lugar a una
numerosa descendencia. Para el cálculo formal o simbólico en matemáticas se ha
desarrollado otros programas de tipo general (Reduce, Maple, Mathematica, Axiom,
MuPad, etc.) y algunos especializados en campos concretos: Schooschip para la física de
[38]
partículas elementales; Camal para la astrofísica y la relatividad; Magma y Gap para la
teoría de grupos; etc.
[48] Era demasiado general y lo ha mejorado CADUCEUS.
[49] VV. AA., Keyguide to information sources in artificial intelligence–expert
systems, Mansell, London, 1990; WATERMAN, D. A., A guide to expert systems,
Addison Wesley, New York, 1986; PATTERSON, D. W., Introduction to artificial
intelligence and expert systems, Prentice–Hall, New York, 1990; HAYES–ROTH, F.,
WATERMAN, D. y LENAT, D. (Eds.), Building expert systems, Addison Wesley, New
York, 1983; CUENA BARTOLOME, J. (Ed.), Inteligencia artificial: sistemas expertos,
Alianza, Madrid, 1986; SCOTT, A. C., CLAYTON, J. E. y GIBSON, E. L., A practical
guide to knowledge acquisition, Addison–Wesley, Reading, MA, 1991; NILSSON, N.
J., Principles of artificial intelligence, Springer Verlag, 1983; RICH, E., Artificial
intelligence, McGraw–Hill, New York, 1983; WINSTON, P. H., Artificial intelligence,
Addison–Wesley, New York, 1984; MacDERMOTT, D. y CHARNIAK, E., Introduction
to artificial intelligence, Addison–Wesley, New York, 1985; BUNDY, A. (Ed.),
Artificial intelligence, Edinburgh University Press, Edinburgh, 1978; O'SHEA, T. y
EISENTADT, M. (Eds.), Artificial intelligence, Harper Row, London, 1984.
[50] CARBONELL, J. G., Machine learning: paradigms and methods, MIT Press,
Cambridge –Mass, 1990; MICHALSKI, R. S., CARBONELL, J. G. y MITCHELL, T. M.,
Machine learning: An Artificial Intelligence approach (2 vols.), Tioga Publishing
Company, Palo Alto, 1983; HOLLAND, J., Adaptation in natural and artificial systems:
An introductory analysis with applications to biology, control and artificial
intelligence, University of Michigan Press, Ann Arbor, 1975.
[51] WEIZENBAUM, J., Computer power and human reason: From judgement to
calculation, Freeman, San Francisco, 1976 (La frontera entre el ordenador y la mente,
Pirámide, Madrid, 1977). Este libro había sido precedido por un artículo: On the impact
of the computer on society: How does one insult a machine?, en Science, 176 (1972)
pp. 609–614. Un debate sobre el uso y abuso de los ordenadores en el que intervienen
los protagonistas puede verse en: KUIPERS, B. J., McCARTHY, J. y WEIZENBAUM, J.,
Computer power and human reason: Comments, en SIGART Newsletter, nº 58 (Junio)
1976. Para conocer el programa ver: WEIZENBAUM, J., ELIZA. A computer program
for the study of natural language, en Communications of the Association for
Computing Machinery, 9, 1966, pp. 36–45. Es posible utilizar a ELIZA como consultor
psicológico en http://www–ai.ijs.si/eliza/eliza.html.
[52] SCHANK, R. C. y ABELSON, R. P., Guiones, planes, metas y entendimiento,
Paidós, Barcelona, 1987, p. 17. El original es: SCHANK, R. C. y ABELSON, R., Scripts,
plans, goals and undertanding, Erlbaum, Hillisdale, New Jersey, 1977.
[53] SCHANK, R. C. y COLBY, K. M. (Eds.), Computers models of thought and
language, Freeman, San Francisco, 1973; WINOGRAD, T., Understanding natural
language, Academic Press, New York, 1972; ALTMANN, G. T. M., Cognitive models of
speech processing, MIT Press, Cambridge, MA, 1991; DAVIDSON, J. y HARMAN, G.
(Eds.), Semantics of natural language, Humanities Press, New York, 1972; LAKOFF, G.,
Women, fire and dangerous things: What categories reveal about the mind,
University of Chicago Press, Chicago, 1987; SEBEOK, R. A. (Ed.), Current trend in
linguistics, Mouton, La Haya, 1974; GARFIELD, J. (Ed.), Modularity in knowledge
representation and natural language understanding, Bradford Books, MIT Press,
Cambridge, MA, 1987; Número especial monográfico dedicado a los progresos en
procesamiento del lenguaje de Artificial intelligence, 63 (1–2) 1–532 (October), 1993;
BODEN, M., Artificial Intelligence and Piagetian theory, en Synthese 38 (Jl. 1978) pp.
389–414.
[54] TURNER, R., Logics for Artificial Intelligence, Horwood, Chirchester, 1984;
GENESERETH, M. y NILSSON, N., The logical foundations of Artificial Intelligence,
Morgan–Kaufmann, Los Altos, California, 1987; THAYSE, A., Approche logique de
l'intelligence artificielle (3 vols.), Dunod, Paris, 1988; BACCHUS, F., Representing and
reasoning with probabilistic knowledge, MIT Press, Cambridge, MA, 1991; HELMAN,
D. H. (Ed), Analogical reasoning: perspectives of artificial intelligence, cognitive
science, and philosophy, Kluwer Acad., Dordrecht, 1988; ZADEH, L. A. y KACPRZYK,
J., Fuzzy logic for the management of uncertainty, Wiley, New York, 1992; TRILLAS,
E. y GUTIERREZ RIOS, J. (eds.), Aplicaciones de la lógica borrosa, C.S.I.C., Madrid,
1992; TRILLAS, E., ALSINA, C. y TERRICABRAS, Introducción a la lógica borrosa,
Ariel, Barcelona, 1995; KOSKO, B., Pensamiento borroso; la nueva ciencia de la lógica
borrosa, Crítica, Barcelona, 1995; McCARTHY, J., Circumscription: A form of non–
monotonic reasoning, en Artificial Intelligence 13 (1,2) (1980) pp. 27–39; REITER, R.
A., A logic for default reasoning, en Artificial Intelligence 13 (1,2) (1980) pp. 81–132;
McDERMOTT, D. y DOYLE, J., Non–monotonic logic I, en Artificial Intelligence 13 (1)
(1980) pp. 41–72.
[55] En Computational intelligence, 3 (1987) 149–237, puede verse un debate,
iniciado por McDermott, sobre la necesidad de una mayor o menor fundamentación
lógica para la Inteligencia Artificial.
[56] SIMONS, G. L., Introducción a la inteligencia artificial, Ed. Díaz de Santos,
Madrid, 1988, p. 53.
[57] Lo máximo que se ha conseguido hasta el momento puede verse en:
SAVAGE–RUMBAUGH, S. y LEWIN, R., Kanzi: The ape at the brink of the humand
mind, John Wiley & Sons, New York, 1994. Cfr.: RUMBAUGH, D. M., Language
Learning by a Chimpanzee: The LANA Project, Academic Press, New York, 1977;
GARDNER, R. A., GARDNER, B. T. and Van CANTFORT, T. E., Teaching Sign
Language to Chimpanzee, SUNY Press, New York, 1989; SAVAGE-RUMBAUGH, E. S.,
Ape Language: From Conditioned Response to Symbol, Columbia University Press,
New York, 1986; TERRACE, H. S., Nim, Alfred A. Knopf, New York, 1979.
[58] HEBB, D. O., The organization of behaviour, John Wiley, New York, 1949.
[59] McCULLOGH, W. S. y PITTS, W. H., A logical calculus of the ideas
immanent in nervous activity, en Bulletin of Mathematical Biophysics 5 (1943), 115–
155; McCULLOGH, W. S. y PITTS, W. H., How we know universals: The perception of
auditory and visual forms, en Bulletin of Mathematical Biophysics 9 (1947): 127;
McCULLOGH, W. S. (Ed.), Embodiments of mind, MIT Press, Cambridge, MA, 1965.
Están recogidos en BODEN, M. (Ed.), The psychology of Artificial Intelligence, Oxford
University Press, Oxford, 1991.
[60] ROSENBLATT, F., The Perceptron. A probabilistic model for information
storage and organization in the brain, en Psychological Review, 62 (1958): 386;
ROSENBLATT, F., Principles of Neurodynamics: Perceptrons and the theory of brain
mechanisms, Spartan, New York, 1962.
[61] MINSKY, M. y PAPERT, S., Perceptrons, MIT Press, Cambridge, MA, 1969:
En este trabajo señalaban, con acierto, algunas limitaciones de los Perceptrones, cfr.
TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998,
pp. 78-80. Puede verse un artículo de Papert defendiendo aquel trabajo ante los
actuales ataques de los conexionistas en: GRAUBARD, S. R. (ed.), The artificial
Intelligence debate: False starts, real foundations, MIT Press, Cambridge, MA, 1988.
[62] ROSENBERG, C. R. y SESNOWSKI, T. J., Parallel network that learn to
pronunce English text, en Complex System, 1, 1987, pp. 145–168.
[63] Como libros de divulgación sobre el conexionismo pueden servir: ALLMAN,
W. F., Apprentices of Wonder: Inside the Networks Revolution, Bantam Books, New
York, 1989; JOHNSON, R. C. y BROWN, C., Cognizers: neural networks and machines
that think, Wiley, New York, 1988; JOHNSON, G., Machinery of the mind: Inside the
new science of artificial intelligence, Times Books, New York, 1986; JUBAK, J., La
máquina pensante: el cerebro humano y la inteligencia artificial, Ediciones B,
Barcelona, 1993. Para conocer más a fondo las redes neuronales ver: RUMELHART, D.
E., McCLELLAND, J. L. y PDP RESEARCH GROUP, Parallel distributed processing:
Explorations in the microstructure of cognition, MIT Press, Cambridge, MA, 1986
(Traducción castellana: Introducción al procesamiento distribuido en paralelo,
Alianza, Madrid, 1992); GLUCK, M. A. y RUMELHART, D. E., Neuroscience and
connectionist theory, L. Erlbaum, Hillsdale, New Jersey, 1990; ZEIDENBERG, M.,
Neural networks in Artificial Intelligence, Ellis Horwood, Chischester, 1990; MORRIS,
R. G. M. (ed.), Parallel distributed processing: implications for Psychology and
Neurobiology, Clarendon Press, Oxford, 1989; SIMPSON, P. K., Artificial neural
systems: foundations, paradigms, applications and implementations, Pergamon, New
York, 1990; ARBIB, M. A. y ROBINSON, J. A., Natural and artificial parallel
computation, MIT Press; Cambridge, MA, 1990; HERTZ, J., KROGH, A. y PALMER, R.
G., Introduction to the theory of neural computation, Addison–Wesley, Redwood City,
1992; CLARK, A., Microcognition, Philosophy, Cognitive Science and Parallel
Distributed Processing, Bradford Book, MIT Press, Cambridge, MA, 1989.
[64] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 103.
[65] CARLSON, N. R., Fisiología de la conducta, Ariel, Barcelona 1998, p. 509.
[66] Ver las voces Cognitive Modeling, Connectionist; Cognitive Modeling,
Symbolic; Computational Theory of Mind y Connectionism, Philosophical Issues en
WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences,
MIT Press, Cambridge, MA, 1999.
[67] NIELSEN, M. A. y CHUANG, I. L., Quantum computation and quantum
information, Cambridge University Press, Cambridge, 2000.
ADLEMAN, I. M., Science, 266, 1021, 1994.
GÖDEL, K., Uber formal unentscheidbare Sätze der «Principia
Mathematica» und verwandter Systeme I, en Monatshefte für Mathematik und
Physik, vol 38, 1931, pp. 173–198. Puede verse una edición castellana hecha por M.
GARRIDO, A. GARCIA SUAREZ y L. M. VALDES, en Cuadernos Teorema,
Universidad de Valencia, 1976. Las Obras completas de Gödel han sido editadas por
Alianza Editorial, Madrid, 1987. Algunas obras generales sobre el teorema de Gödel
son: DÍAZ ESTÉVEZ, E., El teorema de Gödel, Eunsa, Pamplona, 1975; NAGER, E. y
NEWMAN, J. R., El teorema de Gödel, Tecnos, Madrid, 1994 (Gödel's proof, New York
University Press, New York, 1958); SMULLYAN, R. M., Gödel's Incompleteness
Theorems, Oxford University Press, New York, 1992; DAWSON, J. W., Logical
Dilemmas: The Life and Work of Kurt Gödel, A. K. Peters, New York, 1997;
WEINGARTNER, P. y SCHMETTERER, L., Gödel remembered. Gödel–Symposium in
Salzburg, Bibliopolis, Napoli, 1987; RIVETTI BARBÒ, F., Il teorema e il corolario di
Gödel: indagine critica, Vita e pensiero, Milán, 1964; DELESSERT, A., Gödel: une
Révolution en Mathématiques, Presses Polytechniques et Universitaires Romandes,
Lausanne, 2000. Exposiciones accesibles del teorema de Gödel pueden verse en:
PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p. 130 ss.
(The emperor's new mind, Oxford University Press, Oxford, 1989); ARBIB, M. A.,
Cerebros, máquinas y Matemáticas, Alianza, Madrid, 1987. Ver también la voz Gödel's
Theorems en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the
Cognitive Sciences, MIT Press, Cambridge, MA, 1999.
[70] GALILEO GALILEI, Il Saggiatore, en Opere, Edizione Nazionale, Barbera,
Florencia, 1929–1936, vol. VI, p. 333.
[71] Una interesante recopilación de artículos fundamentales en el desarrollo de la
lógica puede encontrase en HEINEJOORT, J., From Frege to Gödel, Cambrigde, MA,
1967.
[72] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 78.
[73] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p.
139.
[74] Hilbert expuso su programa en el congreso de matemáticos que inauguró el
siglo XX; cfr. HILBERT, D., Mathematical problems, Second International Congress of
Mathematics, Paris, France, 1900. Entre las diez cuestiones pendientes que enumeró
Hilbert tiene especial importancia la que se conoce como Entscheidungsproblem:
¿Puede haber en el futuro un método universal para resolver cualquier problema
matemático mediante algoritmos? El Entscheidungsproblem también está en:
HILBERT, D. y ACKERMANN, W., Grundzüge der theoretischen logik, Springer–
Verlag, Berlin. Para conocer la cuestión de los fundamentos de la matemática, junto con
la exposición del programa de Hilbert puede verse un buen resumen en E. DÍAZ
ESTÉVEZ, El teorema de Gödel, Eunsa, Pamplona, 1975, pp. 81–121.
[75] cfr. LAURIÈRE, J. L., Intelligence artificielle (2 vols.), Eyrolles, Paris, 1987, I,
pp. 80–92. Para ver con amplitud los teoremas de limitación: LADRIERE, J., Las
[68]
[69]
limitaciones internas de los formalismos, Tecnos, Madrid, 1969; GALVAN, S.,
Introduzione ai teoremi di incompletezza, Ed. Angeli, Milano, 1992; DAVIS, M. (ed.),
The undecidable, Raven Press, New York, 1965; CHAITING, G., Information,
randomness, and incompleteness papers on Algorithmic Information Theory, World
Scientific, Singapore, 1987. El teorema de limitación de Church fue publicado en:
CHURCH, A., A note on the Entscheidungsproblem, en Journal of Symbolic Logic, 1,
1936, pp. 40–41. Realizó una corrección que publicó en Ibidem, pp. 101–102.
[76] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991
(The emperor's new mind, Oxford University Press, Oxford, 1989); PENROSE, R.,
Shadows of the mind: A search for the missing science of consciousness, Oxford
University Press, Oxford, 1994 (Las sombras de la mente, Grijalbo Mondadori, Madrid,
1996); BENACERRAF, P., God, the Devil and Gödel, en The Monist 51 (1967) pp. 9–32;
HOFSTADTER, D. R., Gödel, Escher, Bach: An eternal golden brain, Basic Books, New
York, 1979 (Gödel, Escher, Bach. Un eterno y grácil bucle, Tusquets, Barcelona, 1987);
TYMOCZKO, T., Why I am not a Turing machine: Gödel's theorems and the
philosophy of mind, en GARFIELD, J. L. (Ed.), Foundations of cognitive science: The
essential readings, Paragon House, New York, 1990, pp. 170–186; LUCAS, J. R., Minds,
machines and Gödel, en Philosophy 36 (1961) pp. 120–124; WEBB, J., Gödel's theorem
and Church's thesis: A prologue to mechanism, en Boston studies in the philosophy
of Science XXXI, Reidel, Dordrecht, 1976; GOOD, I. J., Gödel's theorem is a red
herring, en British Journal for the Philosophy of Science 19 (1969) pp. 359–373.
[77] LAURIÈRE, J. L., Intelligence artificielle (2 vols.), Eyrolles, Paris, 1987, I, p.
91.
[78] MUÑOZ DELGADO, V., Lógica matemática y lógica filosófica, Ed. Revista
«Estudios», Madrid, 1962, p. 24 s.
[79] AGAZZI, E., La lógica simbólica, Herder, Barcelona, 1986, p. 316.
[80] Ibidem, p. 319.
[81] CAMMILLERI, R., I monstri della ragione. Dai greci al Sessantotto: viaggio
tra i deliri di utopisti & rivoluzionari, Edizioni Ares, Milano, 1993.
[82] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 55.
[83] VEGA, M. DE, Introducción a la psicología cognitiva, Alianza, Madrid, 1990.
p. 463.
[84] ORTEGA Y GASSET, J., Sobre la razón histórica, Madrid, 1979, p. 214.
[85] Cfr. BOCHENSKI, I. M., Historia de la lógica formal, Gredos, Madrid, 1967.
[86] Cfr. Ibidem, pp. 20–23 y 267–280.
[87] TUGGENDHAT, E., Autoconciencia y autodeterminación, Fondo de Cultura
Económica, México, 1993, p. 238.
[88] HEIDEGGER, M., ¿Qué significa pensar?, Nova, Buenos aires, 1978, p. 213.
[89] UNAMUNO, M. de, Del sentimiento trágico de la vida en los hombres y en
los pueblos, Alianza, Madrid, 1994.
[90] HEIDEGGER, M., Sendas perdidas, Losada, Buenos Aires, 1979, p. 221.
[91] MARCUSE, H., One–Dimensional Man: Studies in the ideology of
advanced industrial society, Beacon Press, Boston, 1964, p. 34.
TURING, A. M., Computing machinery and intelligence, en Mind, 59 (1950)
pp. 433–460. Puede encontrase en: ANDERSON, A. R., Controversia sobre mentes y
máquinas, Tusquets, Barcelona, 1984, pp. 11–50.
[93] SHANON, B., A simple comment regarding the Turing test, en J. Theor. Soc.
Behav. 19 (JE 1989) pp. 249–256.
[94] LEIBER, J., Shanon on the Turing test, en J. Theor. Soc. Behav. 19 (JE 1989)
pp. 257–259.
[95] RANKIN, T. L., The Turing paradigm: A critical assement, en Dialogue
(PST) 29 (AP 1987) pp. 50–55.
[96] Defender esta postura puede servir para que me acusen de funcionalista. La
teoría funcionalista de la inteligencia fue un invento de Putnam en su fase de
entusiasmo por la Inteligencia Artificial (PUTNAM, H., Minds and machines, en
HOOK, S. (Ed.), Dimensions of mind,Collier Books, 1960; The mental life of some
machines, en CASTAÑEDA, H–N (Ed.), Intentionality, minds, and perceptions,
Wayne State University Press, 1967). Posterirmente se reconvirtió en duro crítico de la
Inteligencia Artificial (cfr. PUTNAM, H., Realism and reason, Cambridge University
Press, Cambridge, 1983; Representation and reality, MIT Press, Cambridge, MA, 1987;
Trad. castellana: Representación y realidad, Gedisa, Barcelona, 1990; Renewing
Philosophy, Harvard University Press, Cambridge, MA, 1992). En ambas etapas estoy
en desacuerdo con Putnam.
[97] LAIN ENTRALGO, P., Bichot, Col. Clásicos de la Medicina, CSIC, Madrid.
[98] MILLER, G. A., «Informavores», en MACHLUP, F. y MANSFIELD, V. (eds.),
The study of information: interdisciplinary messages, Wiley, New York, 1984: Ese
nombre, "informávoros" ha quedado para designar los sistemas –como el hombre y los
animales– que procesan información. Miller, en 1956, fue el primero que describió las
bases conceptuales de la mente humana modelada como procesador de información,
que tanto han gustado en la Facultades de Psicología (pueden verse sus ideas en
MILLER, G. A., Psychology: the science of mental life, Hutchinson, London, 1964).
[99] McGAUGH, J. L., WEINBERGER, N. M. y LYNCH, G., Brain and memory.
Modulation and mediation of neuroplasticity, Oxford University Press, Oxford, 1995;
ANDERSON, J. A. y HINTON, G. E. (Eds.), Parallel models of associative memory,
Lawrence Erlbaum, Hillsdale, New Yersey, 1989; KOHONEN, T., Self organization and
associative memory, Springer–Verlag, New York, 1984; LYNCH, G., Synapses, circuits
and the beginnings of memory, MIT Press, Cambridge, MA, 1986; GAZZANIGA, M.
(Ed.), Perspectives in memory research, MIT Press, Cambridge, MA, 1988; SQUIRE, L.
R., Memory and brain, Oxford University Press, New York, 1987; JOHNSON, G., In the
palaces of memory, Knopf, New York, 1991; ALKON, D. L. y FARLEY, J. (Eds.),
Primary neural substrates of learning and behavioural change, Cambridge University
Press, New York, 1984; NEISSER, U., Memory observed, Freeman, San Francisco, 1982.
[100] Puede comprobarse en las cartas que, en su momento, se cruzaron Simon y
Russell, y que pueden verse en las pags. 207 a 209 de la autobiografía del primero,
Models of my Life, publicada en 1996 por The MIT Press. (Debo esta precisión a la
[92]
amabilidad del Prof. Enric Trillas, Departamento de Inteligencia Artificial, Facultad de
Informática, Universidad Politécnica de Madrid).
[101] MORAVEC, H., El apogeo de los robots, en Investigación y Ciencia, enero
2000, pp. 78–86. p. 86.
[102] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 54.
[103] IFRAH, G., Historia general de las cifras, Espasa–Calpe, Madrid, 1997.
[104] Una sencilla exposición del argumento puede verse en: SEARLE, J. R., The
myth of the computer: An exchange, en The New York Times Review of Books, 24
(Junio, 1982) pp. 56–57. Aquí utilizaré la expuesta en: SEARLE, J. R., ¿Es la mente un
programa informático?, en Investigación y Ciencia, Marzo–1990. Para una discusión
más amplia (26 artículos incluido el de Searle) puede verse el número de la revista: The
Behavioral and Brain Sciences, Vol. 3, nº 3, 1980 (el artículo de Searle en pp. 417–458); y
también: BISHOP, M. y PRESTON, J. M. (eds.), Views into the Chinese Room,
Clarendon Press, Oxford, 2002. Searle ha expuesto sus ideas en varios libros: SEARLE, J.
R., Mentes, cerebros y ciencia, Cátedra, Madrid, 1990; Intentionality: An essay in the
philosophy of mind, Cambridge University Press, Cambridge, MA, 1983; The
rediscovery of the Mind, MIT Press, Cambridge, MA, 1992. Ver también la voz Chinese
Room Argument en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the
Cognitive Sciences, MIT Press, Cambridge, MA, 1999.
[105] SEARLE, J. R., ¿Es la mente un programa informático?, en Investigación y
Ciencia, Marzo–1990, pp. 10–11.
[106] Cfr. FREGE, G., Escritos lógico–semánticos, Tecnos, Madrid, 1974; Ueber
Sinn und Bedeutung, Kleine Schriften, 1879.
[107] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990.
[108] TARSKI, A., Logic, semantics, metamathematics, Clarendon Press, Oxford,
1956; CARNAP, R., Introduction to semantics, Harvard University Press, Cambridge,
MA, 1959; BUNGE, M., Antología semántica, Nueva Visión, Buenos Aires, 1960;
MARTIN, R. M., Verdad y demostración, Tecnos, Madrid, 1962; BENACERRAF, P. y
PUTNAM, H. (eds.), Philosophy of mathematics: Selected readings, Cambridge
University Press, Cambridge, 1984; TYMOCZKO, T., New directions in the Philosophy
of Mathematics, Birkhäuser, Basel, Boston, 1986; WHITE, A. M. (ed.), Essays in
Humanistic Mathematics, Mathematical Association of America, Washington DC, 1993;
DEAÑO, A., Las concepciones de la Lógica, Taurus, Madrid, 1980; NIDDITCH, P. H.,
The development of Mathematical Logic, Routledge, London, 1980 (El desarrollo de la
Lógica Matemática, Cátedra, Madrid, 1980); SIMPSON, T. M., Formas lógicas:
Realidad y significado, Editorial Universitaria, Buenos Aires, 1975.
[109] GOLEMAN, D., Inteligencia emocional, Kairós, Barcelona, 1996; MARINA,
J. A., El laberinto sentimental, Anagrama, Barcelona, 1996; ANDERSON, D. y
MULLER, P., Faking it. The sentimentalism of modern society, The Social Affairs Unit,
London, 1998.
[110] STEINER, G., Presencias reales, Destino, Barcelona, 1991, p. 71.
[111] WITTGENSTEIN, L., Philisophische Untersuchungen, Vortwort, Schriften,
38, p. 300 s.
SPINOZA, B., Cogitata metaphysica II.
G. W. F., HEGEL, Filosofía del Derecho, Prólogo, UNAM, México, 1975.
[114] STEINER, G., Presencias reales, Destino, Barcelona, 1991. En el párrafo el
autor resume las tesis de MAUTHNER, F., Beiträge zu einer Kritik der Sprache, libro
que desconozco. La misma denuncia, en forma novelada, puede verse en: MILLÁS, J. J.,
El orden alfabético, Alfaguara, Madrid, 1998.
[115] No puedo evitar la tentación de referir el chusco episodio protagonizado por
Alan Sokal, un físico de la Universidad de Nueva York, que consiguió publicar en la
prestigiosa revista Social Text un largo artículo sin pies ni cabeza, pero con una
verborrea muy conseguida. Luego denunció el asunto y protagonizó una extensa y
jugosa polémica -con primeros espadas como Derrida o Vattimo- por haber puesto de
manifiesto que el rey iba desnudo. El artículo original es: SOKAL, A. D., Transgressing
the Boundaries: Toward a Transformative Hermeneutics of Quantum Gravity, en
Social Text nº 46/47 (spring/summer 1996), pp. 217-252. Desveló la parodia en:
SOKAL, A. D., A Physicist Experiments with Cultural Studies, en Lingua Franca,
May/June 1996, pp. 62-64. Ver también: SOKAL, A. D. y BRICMONT, J., Fashionable
Nonsense: Postmodern Intellectuals' Abuse of Science, St. Martin's Press, New York,
1998 (Imposturas intelectuales, Paidós, Barcelona, 1999). Multitud de artículos y
réplicas pueden verse en: http://www.physics.nyu.edu/faculty/sokal/.
[116] TOMÁS DE AQUINO, In VIII Metaph., Lect. 1, nº 1683.
[117] TOMÁS DE AQUINO, Summa Theologica, I, q. 85, a. 5, ad 3.
[118] STICH, S. P., From Folk Psychology to Cognitive Science: The Case Against
Belief, MIT Press, Cambridge, MA, 1983; Morton, A., Frames of Mind: Constraints on
the Commonsense Conception of the Mental, Clarendon Press, Oxford, 1980;
Greenwood, J. D., The Future of Folk Psychology: Intentionality and Cognitive
Science, Cambridge University Press, Cambridge, 1991.
[119] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 305.
[120] NEWELL, A. y SIMON, H. A., Computer science as empirical inquiry, es un
trabajo que hizo época, puede verse en HAUGELAND, J., Mind design, Bradford
Books, MIT Press, Cambridge, MA, 1981; también está recogido en BODEN, M., The
psycology of Artificial Intelligence, Oxford University Press, Oxford, 1991; asimismo
en GARFIELD, J. L. (Ed.), Foundations of cognitive science: The essential readings,
Paragon House, New York, 1990. Simon es el más arrojado al dar opiniones polémicas
para su época, cfr.: SIMON, H., Models of man, Wiley, New York, 1957.
[121] CHURCHLAND, P. S. y SEJNOWSKY, T. J., The computacional brain, MIT
Press, Cambridge, MA, 1992; HAUGELAND, J., Artificial intelligence: the very idea,
MIT Press, Cambrigde, MA, 1987; HAUGELAND, J., Mind design,MIT Press,
Cambrigde, MA, 1981; FODOR, J. A., The modularity of mind, MIT Press, Cambrigde,
MA, 1983; FLANAGAN Jr., O. J., The science of mind, MIT Press, Cambrigde, MA,
1984; CHURCHLAND, P. M., Matter and consciousness, MIT Press, Cambrigde, MA,
1984 (Materia y conciencia: Introducción contemporánea a la filosofía de la mente,
Gedisa, Barcelona, 1990); PYLYSHYM, Z., Computation and cognition, MIT Press,
Cambrigde, MA, 1984; FODOR, J., The language of thought, Cromwell, New York,
[112]
[113]
1975 (El lenguaje del pensamiento, Alianza, Madrid, 1984; FODOR, J.,
Representations, Bradford Books, MIT Press, Cambridge, MA, 1981; PYLYSHYM, Z.,
Computation and cognition, MIT Press, Cambrigde, MA, 1984 (Computación y
conocimiento: Hacia una fundamentación de la ciencia cognitiva, Debate, Madrid,
1988); JOHNSON–LAIRD, P. N., The computer and the mind: An introduction to
cognitive science, William Collins, Glasgow, 1988 (El ordenador y la mente:
Introducción a la ciencia cognitiva, Paidós, Madrid, 1990).
[122] GAZZANIGA, M. S., Dos cerebros en uno, en Investigación y Ciencia,
septiembre, 1998, pp. 15–19. Es un tema conocido y popularizado para el que señala
como bibliografía actualizada: PINKER, S., How the mind works, W. W. Norton, 1997;
GAZZANIGA, M. S. (ed.), The bisected brain, Appleton Century Crofts, New York,
1970; GAZZANIGA, M. S., The mind's past, California Press, 1998; IVRY, R. B. y
ROBERTSON, L. C., The two sides of perception, MIT Press.
[123] Ibidem, pp. 15-19.
[124] Quizá fuera mejor poner byte –ocho bits–; aunque bit es más popular, por lo
que seguiré utilizando el término, dado que aquí no tiene importancia esa precisión.
[125] PRIBRAM, K. H. y MARTÍN RAMÍREZ, J., Eds., Cerebro y conciencia, Díaz
de Santos, Madrid, 1995; JACKENDOFF, R., Consciousness and the computational
brain, Bradford Books, MIT Press, Cambridge, MA, 1987; DENNETT, D. C., Content
and conciousness, Routledge, London, 1969; DENNETT, D. C., Consciousness
explained, Little Brown, Canada, 1991; JACKENDOFF, R., Consciousness and the
computational mind, Bradford Books, MIT Press, Cambridge, MA, 1987; ORNSTEIN,
R., The evolution of consciousness: of Darwin, Freud, and cranial fire: The origins of
the way we think, Prentice Hall, New York, 1991; CULBERTSON, J. T., Consciousness:
Natural and artificial, Libra, Roslyn Heights, 1982; BAARS, B. J., A cognitive theory of
consciousness, Cambridge University Press; Cambridge,, MA, 1988; CHURCHLAND,
P. M., Matter and consciousness, MIT Press, Cambrigde, MA, 1984 (Materia y
conciencia: Introducción contemporánea a la filosofía de la mente, Gedisa, Barcelona,
1990) ; CARRUTHERS, P., Language, Thought and Consciousness, Cambridge
University Press, Cambridge, 1996; CHALMERS, D., The Conscious Mind: In Search of
a Fundamental Theory, Oxford University Press, New York, 1996; SHEAR, J., Ed.,
Explaining Consciousness: The Hard Problem, MIT Press, Cambridge, MA, 1997; TYE,
M., Ten Problems of Consciousness: A Representational Theory of the Phenomenal
Mind, MIT Press, Cambridge, MA, 1995.
[126] TUGENDHAT, E., Autoconciencia y autodeterminación. Una interpretación
lingüístico–analítica, Fondo de Cultura Económica, México, 1993, p. 28.
[127] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
432.
[128] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p.
284.
[129] TOMÁS DE AQUINO, De Veritate, q. 1, a. 9.
[130] BRENTANO, F., Psychologie von empirischen Stanpunkt, Meiner,
Hamburg, 1955. La edición original es de 1874; Brentano hizo varias redacciones.
PUTNAM, H., Representation and Reality, MIT Press, Cambridge–Mass.–,
1987 (Representación y realidad, Gedisa, Barcelona, 1990); SEARLE, J. R., The
rediscovery of the Mind, MIT Press, Cambridge, MA, 1992.
[132] LLANO, A., Metafísica y lenguaje, Eunsa, Pamplona, 1984, p. 182.
[133] TOMÁS DE AQUINO, De potentia, q. 9, a. 5. También Contra gentes, lib. IV,
c. 11: "El concepto no es en nosotros ni la misma cosa que se entiende, ni la misma
sustancia del intelecto, sino que es cierta semejanza concebida en el intelecto".
[134] TOMÁS DE AQUINO, De Veritate, q. 1, a. 9. Sobre la reflexión en la teoría
tomista del conocimiento cfr. SEGURA, C., La dimensión reflexiva de la verdad. Una
interpretación de Tomás de Aquino, Eunsa, Pamplona, 1991.
[135] TOMAS DE AQUINO, De Veritate, q. 1, a. 9, c. in fine.
[136] JUAN DE SANTO TOMAS, Cursus Theologicus, disp. 32, a. 5, n. 11:
"Intellectus noster intelligit intra se considerando, non extra se inspiciendo".
[137] CRUZ CRUZ, J., Intelecto y razón. Las coordenadas del pensamiento
clásico, Eunsa, Pamplona, 1982.
[138] ARISTÓTELES, Política, 1253a, 10.
[139] ARISTÓTELES, Ética a Nicómaco, 1.098a.
[140] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p. 24.
[141] TOMÁS DE AQUINO, Contra gentes, III, 59.
[142] GRACIA, D., Prólogo a LAÍN ENTRALGO, P., Cuerpo y alma, Austral,
Madrid, 1992, p. 29.
[143] HEIDEGGER, M., La pregunta por la técnica, en Época de filosofía, I (1985)
p. 29.
[144] HEIDEGGER, M., ¿Qué significa pensar?, Nova, Buenos Aires, 1978, p. 16.
[145] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
160.
[146] HEGEL, G. W. F., Enzyclopädie der Philosophischen Wissenschaften im
Grundisse, ed. Nicolin y Pöggeler, Hamburgo, 1969, par. 60.
[147] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p.
207.
[148] GADAMER, H–G, Verdad y método, Sígueme, Salamanca, 1977, p. 439.
[149] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
363.
[150] GADAMER, H–G, Verdad y método, Sígueme, Salamanca, p. 443.
[151] ALVIRA DOMINGUEZ, R., La noción de finalidad, Eunsa, Pamplona, 1978,
pp. 119 s.
[152] UEXKÜLL, J. von, Umwelt und Innenwelt der Tiere, J. Springer, Berlin,
1921; LORENZ, K., La acción de la naturaleza y el destino del hombre, Alianza,
Madrid, 1988; GEHLEN, A., Der Mensch: seine Natur und seine Stellung in der Welt,
Athenäum Verl., Frankfurt a. M., 1966 (El hombre. Su naturaleza y su lugar en el
mundo, Sígueme, Salamanca, 1987); GEHLEN, A., Del encuentro y descubrimiento del
hombre por sí mismo, Paidós, Barcelona, 1993; PLESSNER, H., Die Stufen des
[131]
Organischen und der Mensch: Einleitung in die philosophische Anthropologie, de
Gruyter, Berlin, 1975.
[153] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p.
217.
[154] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p.31.
[155] ADORNO, T. W., Consignas.
[156] GADAMER, H–G., Verdad y método, Sígueme, Salamanca, 1977, p. 585.
[157] DESCARTES, R., El discurso del Método, ed. bilíngüe, Universidad de
Puerto Rico, 1960.
[158] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
195.
[159] BOCHENSKI, I. M., Los métodos actuales del pensamiento, Rialp, Madrid,
1974, p. 74.
[160] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
308.
[161] Ibidem, p. 362.
[162] JUAN DE SANTO TOMAS, Cursus Theologicus, disp. 32, a. 5, nº 13.
[163] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.
232.
[164] EINSTEIN, A., Physik und Realität, en Zeitschrift für freie deutsche
Forschung, 1938, pp. 6–7.
[165] MILLÁN–PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p. 203.
[166] Un análisis filosófico, pormenorizado y completo, de la capacidad de laborar
objetos con independencia de la semántica y a muy diferentes niveles se puede
encontrar en MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990.
[167] POLO, L., Indicaciones acerca de la distinción entre generalización y razón,
en VV. AA., Razón y libertad, Rialp, Madrid, 1990, pp. 87–91.
[168] MICHELSON, A. A. y MORLEY, E. W., On the Relative Motion of the Earth
and the Luminiferuos Ether, en American Journal of Science, 3ª serie, vol. 34, pp. 333–
341.
[169] Puede verse en LORENTZ, H. A., EINSTEIN, A., MINKOWSKI, H. y WEYL,
H., The Principle of Relativity. Un breve resumen se encuentra en PEARCE
WILLIAMS, L. (Ed.), La teoría de la relatividad, Alianza Universidad, Madrid, 1986,
pp. 46–50.
[170] HUME, D., Enquiry concerning human understanding, es el famoso y citado
final del libro.
[171] Cfr. CROMBIE, A. C., Styles of scientific thinking in the european
tradition, 3 vols., Duckworth, London, 1994; BOCHENSKI, I. M., Los métodos actuales
del pensamiento, Madrid, 1974.
[172] Cfr. ARANA, J., La racionalización del movimiento, en Thémata, Revista de
Filosofía, nº 9, 1992, pp. 47–71.
BOCHENSKI, I. M., Los métodos actuales de pensamiento, Rialp, Madrid,
1974, p. 158 ss.
[174] TOMÁS DE AQUINO, Summa Theologica, I, q. 88, a. 1, ad 2.
[175] TOMÁS DE AQUINO, In Metaphys., lib. VII, lect. 6, nº 1405.
[176] KANT, I., Crítica de la razón pura, Prólogo a la segunda edición, B XXII,
Alfaguara, Madrid, 1978.
[177] LACAN, afirmación recogida en CARUSO, P., Conversaciones con Lévi–
Strauss, Foucault y Lacan, Anagrama, Barcelona, p. 114.
[178] KANT, I., Crítica de la razón pura, Alfaguara, Madrid, 1978, Prólogo a la
segunda edición, B XXII.
[179] ARISTÓTELES, Metafísica, IV, 4, 1006 b 10.
[180] HERÁCLITO, Fragmentos, 3.
[181] POLO, L., ¿Quiés es el hombre?, Rialp, Madrid, 1991, p.49.
[182] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p. 227.
[183] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 114.
[184] FINANCE, J. DE, Ensayo sobre el obrar humano, Gredos, Madrid, 1966, p.
416.
[185] Ibidem, p. 418.
[186] GEERTZ, G., The interpretation of culture, Basics Books, New York, 1973, p.
141 (La interpretación de las culturas, Gedisa, Barcelona, 1987).
[187] BRUNER, J., Actos de significado. Más allá de la revolución cognitiva,
Alianza, Madrid, 1991, p. 28.
[188] La analogía de la evolución de las ideas con la evolución biológica ha llevado
a fraguar los memes -siguiendo una propuesta de Dawkins, que inventó la palabracomo equivalentes de los genes, y a proponer toda una serie de teorías sobre la
evolución cultural construidas a imagen y semejanza de la genética evolucionista. Cfr.
DAWKINS, R., The selfish gene, Oxford University Press, Oxford, 1976 (El gen egoísta,
Labor, Barcelona, 1979); BLACKMORE, S., The meme machine, Oxford University
Press, Oxford, 1999; BOYD, R. y RICHERSON, P. J., Culture and the evolutionary
process, University of Chicago Press, Chicago, 1985; LUMSDEN, C. y WILSON, W. O.,
Genes, mind and culture: the coevolutionary process, Harvard University Press,
Cambrigde, MA, 1981; PLOTKIN, H. C., Darwin machines and the nature of
knowledge, Penguin Books, New York, 1993; DENNETT, D. C., Darwin's dangerous
idea: Evolution and the meanings of the life, Simon and Schuster, New York, 1995. Ver
también la voz Cultural Evolution en WILSON, R. A. y KEIL, F. (eds.), The MIT
Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999.
[189] TOMÁS DE AQUINO, De Veritate, q. 24, a. 2, in c. Cfr. Summa Theologiae
I–II, q. 17, a. 1, ad 2.
[190] MONOD, J., Le hasard et la nécessité: Essai sur la philosophie naturelle de
la biologie moderne, Seuil, Paris, 1973 (El azar y la necesidad: ensayo sobre la
filosofía natural de la biología moderna, Tusquets, Barcelona, 1985).
[173]
HEGEL, G. W. F., Enciclopedia de las ciencias filosóficas, par. 482.
TOMÁS DE AQUINO, Summa Theologica I–II, q. 17, a. 1, ad 2.
[193] WOJTYLA, K., Persona y acción, BAC, Madrid, 1982, p. 140.
[194] MILLÁN–PUELLES, A., Fundamentos de Filosofía, Rialp, Madrid, 1962, p.
[191]
[192]
379.
SARTRE, J.–P., L'Être et le Néant, Paris, 1943, p. 516.
LAPLACE, P. S., Théorie analytique des probabilités, Paris, 1812, Prefacio.
[197] BERGSON, H., Essai sur les données immediates de la conscience, PUF,
Paris, 1970, p. 39.
[198] ARISTÓTELES, De Anima, II, 1, 412b, 6–9.
[199] MILLÁN–PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p. 396.
[200] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990, p. 832.
Con estas palabras –en cursiva en el original– termina el libro.
[201] Ibidem, p. 768.
[202] Ibidem, p. 805.
[203] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p.24.
[204] ARISTÓTELES, Metafísica, A, c. 1, 980.
[205] LLANO, A., El futuro de la libertad, Eunsa, Pamplona, 1984, p. 76.
[206] Ibidem, p. 42 y 44.
[207] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p. 20.
[208] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990, p. 832;
la cursiva es del original.
[209] Esta es la tesis que puso en circulación Chomsky y que ha tenido cierto éxito.
Cfr, CHOMSKY, N., The Logical Structure of Linguistic Theory, Plenum, New York,
1975; Rules and Representations, Columbia University Press, New York, 1980;
Knowledge of Language, Praeger, New York, 1986.
[210] GADAMER, H–G., Verdad y método, Sígueme, Salamanca, 1977, p. 532 s.
[211] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 166.
[212] POINCARÉ, H., La ciencia y la hipótesis, Austral, Madrid, 1963, p. 213.
[213] HEISENBERG, W., Physik und Philosophie, Ullstein, Frankfurt–Berlin, 1961,
p. 156.
[214] MAXWELL, J. C., Scientific Papers II, Cambridge, 1890, p. 418.
[215] DE BROGLIE, L., Materia y luz, Espasa–Calpe, Buenos Aires, 1945, p. 302.
[216] Ibidem, p. 248.
[217] WHITEHEAD, A. N., Mathematics, en Encyclopaedia Britannica.
[218] LAIN ENTRALGO, P., Bichot, Col. Clásicos de la Medicina, CSIC, Madrid.
[219] POLO, L., Presente y futuro del hombre, Rialp, Madrid, 1993, p. 38.
[220] POLO, L., La persona humana y su crecimiento, Eunsa, Pamplona, 1996, p.
103.
[221] TOMÁS DE AQUINO, Summa Theologica, III, q. 75, a. 6.
[195]
[196]
[222]
[223]
TOMÁS DE AQUINO, In Metaphys., XII, lect. 2.
HEISENBERG, W., Physik und Philosophie, Ullstein, Frankfurt–Berlin, 1961,
p. 132.
POINCARÉ, H., La ciencia y la hipótesis, Austral, Madrid, 1963, p. 126 s.
NIETZSCHE, F., Nachgelassene Fragmente, en Nietzsche Kritische
Studienausgabe, t. 12, p. 304.
[226] POLO, L., Filosofar hoy, en Anuario Filosófico, XXV, 1 (Pamplona, 1992) p.
31.
[227] ROSSI, P., Los filósofos y las máquinas (1.400–1.700), Labor, Barcelona, 1970,
p. 12.
[228] Ibidem, p. 11.
[229] Cfr. Génesis, 2, 15.
[230] ALVIRA DOMINGUEZ, R., Reivindicación de la voluntad, Eunsa,
Pamplona, 1988, p. 234.
[231] ROSSI, P., Los filósofos y las máquinas (1.400– 1.700), Labor, Barcelona,
1970, p. 12.
[232] FUDENBERG, D. y TIROLE, J., Game Theory, MIT Press, Cambridge, MA,
1991; MYERSON, R. B. (ed.), Game Theory, Harvard University Press, Cambridge, MA,
1991; OSBORNE, M. J., y RUBINSTEIN, A., A Course in Game Theory, MIT Press,
Cambridge, MA, 1994; AUMANN, R. J., Lectures on Game Theory, Westview Press,
Boulder, CO, 1989; AUMANN, R. J. y Hart, S., Handbook of Game Theory with
Economic Applications, vols. 1 - 3, Elsevier, Amsterdam, 1992, 1994 y 1997; Von
NEUMANN, J. y MORGENSTERN, O., Theory of Games and Economic Behaviour,
Princeton University Press, Princeton, 1944; MEGIDDO, N., Essays in Game Theory,
Springer, New York, 1994; KREPS, D. M., Game Theory and Economic Modelling,
Clarendon Press, Oxford, 1990; AXELROD, R., The evolution of cooperation, Basic
Books, New York, 1984.
[233] LÓPEZ QUINTAS, A., La experiencia estética y la formación integral del
hombre, en Actas de las XXV Reuniones Filosóficas de la Univ. de Navarra,
Pamplona, 1991, t. II, p. 1.306.
[234] Ibidem, p. 1.303 s.
[235] ARISTÓTELES, Partes de los animales, I, 5.
[236] WEIZSÄCKER, C. F. von, La imagen física del mundo, BAC, Madrid, 1974,
p. 167.
[237] PRIGOGINE, I. y STENGERS, I., Entre el tiempo y la eternidad, Alianza,
Madrid, 1990, p. 12.
[238] ALVIRA DOMINGUEZ, R., La noción de finalidad, Eunsa, Pamplona, 1978,
p. 25.
[239] POLO, L., Introducción a la filosofía, Eunsa, Pamplona, 1995, p. 123 s.
[240] De hecho, para comprender los procesos de autoorganización, la vida
artificial es una campo incipiente y activo de investigación con ordenadores. Cfr.
EMMECHE, C., The Garden in the Machine: The Emerging Science of Artificial Life,
Princeton University Press, Princeton, 1994; KAUFFMAN, S. A., The Origins of Order:
[224]
[225]
Self-Organization and Selection in Evolution, Oxford University Press, Oxford, 1992;
LEVY, S., Artificial Life: The Quest for a New Creation, Panteon, New York, 1992. Ver
también las voces Artificial Life y Self-Organizing Systems en WILSON, R. A. y KEIL,
F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge,
MA, 1999.
[241] ALVIRA DOMINGUEZ, R., ¿Qué significa trabajo?, en Estudios sobre la
"Laborem exercens", BAC, Madrid, 1987, p. 192.
[242] TOMÁS DE AQUINO, Summa Theologiae I–II, q. 1, a. 1, c.
[243] MARX, K., Tesis sobre Feuerbach, XI.
[244] BRUNER, J., Acción, pensamiento y lenguaje, Alianza, Madrid, 1984, p. 31.
Para hacerse una idea de la evolución de la psicología en las últimas décadas es muy
grata la lectura de su autobiografía: En busca de la mente, Fondo de Cultura
Económica, México, 1983.
[245] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p.
508 s.
[246] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p. 93.
[247] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 357.
[248] POLO, L., Curso de teoría del conocimiento, Tomo III, Eunsa, Pamplona, 2ª
ed, 1999, p. 235.
[249] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p. 173.
[250] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 286.
[251] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid,
1967, p. 147.
[252] Ibidem, p. 135.
[253] Ibidem, p. 167.
[254] Ibidem, p. 117.
[255] Ibidem, p. 98.
[256] Ibidem, p. 66.
[257] Ibidem, p. 66.
[258] Ibidem, p. 68.
[259] Ibidem, p. 386 s.
[260] BRUNER, J., Actos de significado. Más allá de la revolución cognitiva,
Alianza, Madrid, 1991, p. 11.
[261] Ibidem, p. 13.
[262] RIVIÈRE, A., El sujeto de la Psicología Cognitiva, Alianza, Madrid, 1987, p.
97.
[263] ARISTÓTELES, Ética a Nicómaco, lib. I, cap. 7.
[264] Muchos de los casos conocidos de niños salvajes pueden verse en: SINGH, J.
A. L., y ZINGG, R. M., Wolf–children and feral man, Harper, New York, 1942. Más
completo –trata los 53 casos conocidos hasta entonces– es MALSON, L., Les enfants
sauvages, Union Génèrale d'Editions, Paris, 1964.
L'enfant sauvage de Trouffaut, basada en un caso real que se puede ver en:
ITARD, J. M. G., The wild boy of Aveyron, Appleton Century Crofts, New York, 1962.
[266] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 208–209. Todo este libro, cuya lectura es un placer, puede verse como una estupenda
crítica a la idea de espontaneidad aplicada a la inteligencia.
[267] Ibidem, p. 226.
[268] Ibidem, p. 226.
[269] PIAGET, J., La formation du symbole chez l'enfant, Delachaux et Nietslé,
Neuchâtel, 1967; La naisance de l'intelligence chez l'enfant, Delachaux et Nietslé,
Neuchâtel, 1968; Seis estudios de psicología, Seix–Barral, Barcelona, 1968; The stages
of the intellectual developement of the child, en Bulletin Menninger Clinic, nº 26
(1962) pp. 120–128; PIAGET, J. y INHELDER, B., De la logique de l'enfant à la logique
de l'adolescent. Essai sur la construction des structures opérationelles formelles, P. U.
F., Paris, 1955.
[270] BANDURA, A., Pensamiento y acción, Martínez Roca, Barcelona, 1987, p.
513.
[271] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 230.
[272] WIENER, N., Cybernetics or control and communication in the animal and
the machine, M.I.T. Press, Cambrigde, Mass., 1948. Sobre la cibernética ver también:
WIENER, N., Cibernética y sociedad, Ed. Sudamericana, Buenos Aires, 1969; ASHBY,
Introducción a la cibernética, Nueva Visión, Madrid, 1960; Proyecto para un cerebro,
Tecnos, Madrid, 1965; PASK, G., An approach to Cybernetics, Londres, 1968; ROSE, J.,
La revolución cibernética, México, 1977.
[273] ARACIL, J., Introducción a la dinámica de sistemas, Alianza, Madrid, 1978,
p. 28.
[274] La Teoría General de Sistemas es un completo paradigma, una forma de
pensar muy fecunda para entender la complejidad, que engloba multitud de campos
como la teoría de conjuntos (Mesarovic), teoría de las redes (Rapoport), cibernética
(Wiener), teoría de la información (Shannon y Weaver), dinámica de sistemas
(Forrester), teoría de los autómatas (Turing), teoría de los juegos (von Neumann), etc.
Cfr. BERTALANFFY, L. von, General Systems Theory; Foundations, Development,
Applications, George Braziller, New York, 1968 (Teoría General de los Sistemas,
Fondo de Cultura Económica, México, 1976.); BERTALANFFY, L. von, Perspectives on
General Systems Theory. Scientific-Philosophical Studies, Georges Braziller, New
York, 1975 (Perspectiva en la Teoría General de Sistemas, Alianza Universidad,
Madrid,1982.); KLIR, G.J. (ed.), Trends in General Systems Theory, John Wiley & Sons,
New York, 1972.
[275] En la terminología cibernética elaborada por Wiener y su escuela, la simple
regulación por mecanismos de feed–back se denomina regelung, mientras que el
«mando», que incluye comportamiento predictivo y por estrategias, se denomina
steuerung.
[276] ARACIL, J., Máquinas, Sistemas y Modelos, Tecnos, Madrid, 1986, p. 67.
[265]
CARLSON, N. R., Fisiología de la conducta, Ariel, Barcelona, 1998, p. 99.
PONCIN, M. le, Nueva gimnasia cerebral, Temas de Hoy, Madrid, 1997.
[279] DE GARAY, J., Los sentidos de la forma en Aristóteles, Pamplona, 1987, p.
[277]
[278]
400 s.
POLO, L., Presente y futuro del hombre, Rialp, Madrid, 1993, p. 134.
Quien esté interesado puede ver una breve exposición histórica en: SELLÉS,
J. F., Hábitos y virtud (I), en Cuadernos del Anuario Filosófico, nº 65, Servicio de
Publicaciones de la Universidad de Navarra, Pamplona, 1998.
[282] POLO, L., Conocimiento habitual de los primeros principios, Servicio de
Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 56 y 58.
[283] ARISTÓTELES, Ética a Nicómaco, II–1, 1103a 26–34.
[284] POLO, L., Nominalismo, idealismo y realismo, Eunsa, Pamplona, 1997, p.
228.
[285] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988,
p.31.
[286] POLO, L., Conocimiento habitual de los primeros principios, Servicio de
Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 59.
[287] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 225.
[288] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 115–116.
[289] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p. 227.
[290] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992,
p. 242.
[291] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona,
1993, p. 149.
[292] Ibidem, p. 232.
[293] Me refiero a un autor que ha retomado la tarea de proseguir aquella
investigación, con notables resultados. Cfr. POLO, L., Curso de teoría del
conocimiento, 4 vols., Eunsa, Pamplona, 1984–1996. Es una obra notable, escrita en un
lenguaje cuya comprensión requiere buenos conocimientos. Obras más accesibles son:
Introducción a la filosofía, Eunsa, Pamplona, 1995; Quién es el hombre. Un espíritu
en el mundo, Rialp, Madrid, 1991; La persona humana y su crecimiento, Eunsa,
Pamplona; Ética: hacia una versión moderna de los temas clásicos, Universidad
Panamericana, México, 1993 (reedición española: Unión editorial, Madrid, 1996);
Presente y futuro del hombre, Rialp, Madrid, 1993; Nominalismo, idealismo y
realismo, Eunsa, Pamplona, 1997.
[294] BUNGE, M., La investigación científica. Su estrategia y su filosofía, Ariel,
Barcelona, 1976, p. 306.
[295] POPPER, K. R., La lógica de la investigación científica, Tecnos, Madrid,
1977, p. 261.
[296] FEYERABEND, P. K., Contra el método: esquema de una teoría anarquista
del conocimiento, Ariel, Barcelona, 1974, p. 163.
[280]
[281]
SKOLIMOVSKI, H., Racionalidad evolutiva, Publicaciones del
Departamento de Lógica de la Universidad de Valencia, Valencia, 1979, p. 35.
[298] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 31.
[299] Ibidem, p. 29–30.
[300] GADAMER, H. G., Verdad y método, Sígueme, Salamanca, 1977, p. 443.
[301] ARISTÓTELES, Ética a Nicómaco, lib. I, cap. 7.
[302] TOMÁS DE AQUINO, Summa Theologiae I–II, q. 57, a. 2, ad primum.
[303] Ibidem, a. 2, in c.
[304] POLO, L., Conocimiento habitual de los primeros principios, Servicio de
Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 9.
[305] Ibidem, p. 60, nota 18.
[306] YEPES, R., Persona: Intimidad, don y libertad nativa, en Anuario Filosófico,
1996 (29) p. 1080.
[307] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro
Tiempo, Marzo–1995, p. 120.
[308] TUGENDHAT, E, Autoconciencia y autodeterminación, Fondo de cultura
Económica, México, 1993, p. 28–29.
[309] HOWLIN, P., Lenguaje, en RUTTER, M. (Ed.), Fundamentos científicos de
la psiquiatría del desarrollo, Salvat, Barcelona, 1982.
[310] Cfr.: SINGH, J. A. L. y ZINGG, R. M., Wolf–children and feral man, Harper,
New York, 1942; MALSON, L., Les enfants sauvages, Union Génèrale d'Editions, Paris,
1964; ITARD, J. M. G., The wild boy of Aveyron, Appleton Century Crofts, New York,
1962.
[311] Cfr.: CURTISS, S., Genie: A psycholinguistic study of a modern–day "Wild
Child", Academic Press, New York, 1977. Relata el caso de una niña, Genie, a la que sus
padres mantuvieron encerrada, en estricto aislamiento.
[312] KELLER, H., The story of my life, Doubleday, New York, 1927. Una película,
El milagro de Anna Sullyvan, popularizó el caso.
[313] Cfr.: LANGEMEIER J., y MATEJCEK, Z., Psycological deprivation in
childhood, University of Queensland Press, Queensland, 1975; CLARKE, A. M. y
CLARKE, A. D. B., Early experience: myth and evidence, Open Books, London, 1976.
[314] PETER HOBSON, R., El autismo y el desarrollo de la mente, Alianza,
Madrid, 1995.
[315] Cfr.: STEVENSON, J. y HAMILTON, M. L., Behaviour, language and
developement in three–year–old childrem, en Journal Autism Cild. Schiz. 8 (1978) pp.
299–313; PRINCE, C. S., Mental health problems in pre–school West Indian childrem,
en Matern. child care, 3 (1960) pp. 483–486; LENNENBERG, E. H., Biological
foundations in the study of language, Wiley, New York, 1967.
[316] ALONSO–FERNÁNDEZ, F., Psicología médica y social, Salvat (Barcelona,
1984) p. 596.
[317] VYGOTSKY, L. S., El desarrollo de los procesos psicológicos superiores,
Crítica, Barcelona, 1979; VYGOTSKY, L. S., Pensamiento y lenguaje, Paidós, Buenos
Aires; The Collected Works of L. S. Vygotski, Vol. 1 (1987), Vol. 2 (1993), Vol. 3 (1997),
[297]
Plenum, New York; FRAWLEY, W., Vygotsky and Cognitive Science: Language and
the Unification of the Social and Computational Mind, Harvard University Press,
Cambridge, MA, 1997; WERTSCH, J. V., Vygotsky and the Social Formation of Mind,
Harvard University Press, Cambridge, MA, 1985.
[318] PALACIOS, J. M., MARCHESI, A. y COLL, C. (eds.), Desarrollo psicológico
y educación: 1. Psicología evolutiva, Alianza, Madrid, 1999, p. 58.
[319] DIAZ, R. M. y BERK, L. E. (Eds.), Private speech: from social interaction to
self–regulation, L. Erlbaum Ass., Hilsdale, New Jersey, 1992.
[320] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 150.
[321] DENNETT, D. C., La estrategia intencional, Gedisa, Barcelona, 1991, p. 27.
[322] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 160.
[323] BRUNER, J., Acción, pensamiento y lenguaje, Alianza, Madrid, 1984, p. 40.
[324] JASPERS, K., Autobiografía filosófica, Ed. Sur, Buenos Aires, 1984, p. 98.
[325] STEINER, G., Presencias reales, Destino, Barcelona, 1991, p. 169.
[326] Ibidem, p. 189.
[327] CASPER, B., Das dialogische Denken, Herder, Viena–Freiburg, 1967; LAÍN
ENTRALGO, P., Teoría y realidad del otro, Revista de Occidente, Madrid, 1961;
EBNER, M., Schriften, 3 vols., Munich, 1963–1965; LUCAS, J. de S., Antropologías del
siglo XX, Sígueme, Salamanca, 1972; SÁNCHEZ MECA, D., La filosofía de M. Buber.
Fundamento existencial de la comunicación, Herder, Barcelona, 1984; SCHILPP, P. A.
y FRIEDMAN, M. (Eds.), The philosophy of Martin Buber, Open Court Publications,
La Salle, Illinois, 1967; BUBER, M., Yo y tú, Caparrós, Madrid, 1993; BUBER, M., ¿Qué
es el hombre?, Fondo de Cultura Económica, México, 1964; MISRAHI, R., Martin
Buber, le philosophe de la rélation, Seghers, Paris, 1968; ADRIANUS, M., Martin
Buber, Queriniana, Brescia, 1972; JARAUTA, F. (Ed.), Franz Rosenzweig. El nuevo
pensamiento, Visor, Madrid, 1989; GLATZER, N., Franz Resenzweig. His life and
thought, Schocken Books, New York, 1975; FREUND, E., Die Existenzphilosophie
Franz Rosenzweig, Hamburg, 1959; ROSENZWEIG, F., El libro del sentido común
sano y enfermo, Caparrós, Madrid, 1995; GONZÁLEZ, G. y ARNÁIZ, R., E. Lévinas.
Humanismo y ética, Cincel, Madrid, 1988; AGUILAR, J. M., Trascendencia y alteridad.
Estudio sobre E. Lévinas, Eunsa, Pamplona, 1992; LÉVINAS, E., Totalidad e infinito.
Ensayo sobre la exterioridad, Sígueme, Salamanca, 1977; LÉVINAS, E., Humanismo
del otro hombre, Siglo XXI, México, 1974; LÉVINAS, E., De otro modo que ser, o más
allá de la esencia, Sígueme, Salamanca, 1987; BURGGRAEVE, R., Emmanuel Lévinas.
Une biblographie primarie et secondaire (1929–1985), Vrin, Paris, 1987.
[328] WITTGENSTEIN, L., Notes for Lectures on «Private Experience» and
«Sense data», en The Philosophical Review, 77 (1968) p. 300, nota 20. Cfr. KRIPKE, S.,
Wittgenstein on rules and private language, Harvard University Press., Cambridge,
MA, 1984; VILLANUEVA, E., El argumento del Lenguaje Privado, Universidad
Autónoma de México, México, 1979.
[329] MEAD, G. H., Espíritu, persona y sociedad, Paidós, México, 1990.
[330] ARISTÓTELES, Política I, 1.253a9 ss.
TUGENDHAT, E, Autoconciencia y autodeterminación, Fondo de cultura
Económica, México, 1993, p. 193.
[332] CANALS VIDAL, F., Sobre la esencia del conocimiento, P. P. U., Barcelona,
1987, p. 30 s.
[333] Ibidem, p. 229 s.
[334] FINANCE, J. de, Ensayo sobre el obrar humano, Gredos, Madrid, 1966, p.
188 s.
[335] ALVIRA DOMÍNGUEZ, R., Reivindicación de la voluntad, Eunsa,
Pamplona, 1988, pp. 241 s.
[336] CANALS VIDAL, F., Sobre la esencia del conocimiento, P.P.U., Barcelona,
1987, p. 36.
[337] FALGUERAS, I., El crecimiento intelectual, en Actas de las XXV Reuniones
Filosóficas de la Univ. de Navarra, t. I, Pamplona, 1991, p. 611.
[338] Ibidem, p. 620 s.
[339] GONZÁLEZ QUIRÓS, J. L., El porvenir de la razón en la era digital, Síntesis,
Madrid, 1998, p. 156.
[340] Ibidem, p. 171.
[341] ARISTÓTELES, Ética a Nicómaco, VI, 3, 1139b 15–17. Todo el capítulo VI de
la Ética desarrolla el tema de las virtudes intelectivas.
[342] MACINTYRE, A., Tres versiones rivales de la ética, Rialp, Madrid, 1992, p.
91.
[343] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro
Tiempo, Marzo–1995, p. 116.
[344] PASCAL, B., Pensées, ed. Brunschvicg, p. 488, nº 347.
[345] ARANA CAÑEDO-ARGÜELLES, J., De la sabiduría clásica a la ciencia
moderna. El cambio de método y sus consecuencias culturales, en Civilización
mundial y cultura del hombre, Servicio de Publicaciones de la Universidad de Sevilla,
Sevilla, 1987, p. 35.
[346] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro
Tiempo, Marzo–1995, p. 125.
[347] Ibidem, p. 118.
[348] MILLÁN–PUELLES, A., Técnica y humanismo, en Sobre el hombre y la
sociedad, Rialp, Madrid, 1976, p. 209.
[331]
[TAA1]Hacer referencia en la nota a Lakatos, Feyerabend y Stegmüller.
Descargar