INTRODUCCIÓN: VIENEN LOS ROBOTS Capítulo 1 LAS MÁQUINAS RACIONALES La teoría de las máquinas racionales Los hijos de Turing Educar expertos y enseñar a hablar Construir cerebros Capítulo 2 PODA DE SOLUCIONES Teorema de Gödel: ¿Razonar es razonable? Test de Turing: ¿Cómo igualar a las máquinas? La habitación china de Searle: ¿Sabemos de qué hablamos? El Síndrome de Optimismo Semántico Capítulo 3 BÚSQUEDA SIN TÉRMINO Pensamos que pensamos Búsqueda sin término: la pregunta Discurso de los métodos Artesanía de las ideas ¿Cuánta realidad atrapa una idea? Capítulo 4 TRABAJAR EL MUNDO Crear mundos: La novedad Ideas para malentender la libertad Libertad de acción: ¿qué es eso? Termodinámica del animal humano Ecología inteligente Capítulo 5 FORJA DEL CYBERSAPIENS Conócete a ti mismo ¿Espontaneidad?: no, gracias Cibernética del animal humano: el Cybersapiens Cuando el Homo Habilis urdió hacerse Sapiens Salir del autismo CONCLUSIÓN: VIVIR INTELIGENTEMENTE Homo Cybersapiens La inteligencia artificial y la humana Tirso de Andrés Argente Primera edición: Mayo 2002 © 2002: Tirso de Andrés Argente Ediciones Universidad de Navarra, S.A. (EUNSA) Plaza de los Sauces, 1 y 2. 31010 Barañáin (Navarra) - España Teléfono: +34 948 25 68 50 - Fax: 34 948 25 68 54 e-mail: [email protected] ISBN: 84-313-1982-8 Depósito legal: NA 1.276-2002 Diseño de la cubierta: Stock Photos. C/B Productions Composición: PRETEXTO. Pamplona Imprime: GRÁFICAS ALZATE, S.L. Pol. Ipertegui II. Orcoyen (Navarra) Printed in Spain - Impreso en España "El ser que posee la razón y que, de una parte, la obedece; y, de otra, la domina y la piensa". (Aristóteles, Ética a Nicómaco, lib. I, cap. 7). INTRODUCCIÓN: VIENEN LOS ROBOTS De acuerdo con un criterio biológico, el hombre es un animal superior. Más exactamente, es un vertebrado, mamífero, placentario, primate, cuya característica más destacada puede ser el gran desarrollo del neoencéfalo. Su origen, el de la especie Homo sapiens sapiens, cada vez puede establecerse con más precisión. Desde que surgió, la especie humana se ha extendido por la práctica totalidad del planeta, colonizando los rincones más insospechados. Todo el globo parece ser su posible hábitat. Según otros puntos de vista se ha definido al hombre como bípedo implume, mono desnudo, caña pensante, imposible metafísico, pasión inútil, necedad atareada, ser de fronteras, animal perverso, un espíritu en el mundo, cisma evolutivo, soledad incomunicable, animal capaz de prometer, elemento anónimo de una estructura, ordenador superprogramado, error cósmico... En el fondo sigue siendo un desconocido. Clásicamente la primera diferencia fundamental entre el hombre y el resto de los animales se ha cifrado en su inteligencia, de manera que por ella se definía al hombre: era un animal racional. La racionalidad, hasta ahora, parecía un refugio seguro para señalar la diferencia y la supremacía del hombre. Sin embargo, los últimos tiempos han visto esta ciudadela atacada, al surgir la denominada Inteligencia Artificial. No faltan voces abundantes que señalan que el oficio de pensar ya no es exclusivo de los humanos. La pregunta: ¿piensan los ordenadores?, cada día resulta menos una lejana interrogación teórica, y más una cercana y vital cuestión práctica. Ya no se trata de discusiones hipotéticas, como en la cuestión que el matemático Euler se propusiera dilucidar en el siglo XVIII[1]. En muchos laboratorios, y en algunas aplicaciones técnicas muy desarrolladas, los ordenadores están realizando cosas extraordinariamente cercanas a las que el hombre es capaz de hacer, y de una manera muy semejante. La pregunta sobre si cabe llamar pensamiento a lo que hace el ordenador no se plantea en cerrados cenáculos filosóficos, sino que está al orden del día en publicaciones especializadas o en otras de gran difusión, incluso en los medios de comunicación de masas, también en el cine. Igualmente sucede con la cuestión acerca de qué significa pensar en el caso del hombre, y qué similitudes y diferencias existen entre lo que hace el hombre y lo que hacen algunos ordenadores. Esas cuestiones son fáciles de resolver con los ordenadores cuyo uso está más difundido, pues no dejan de ser máquinas muy rápidas, pero también bastante «tontas». Sin embargo, no es nada fácil llegar a una conclusión tan clara en el caso de algunas realizaciones especializadas existentes; más aún si se consideran las posibilidades por desarrollar de las que parecen capaces. Los esfuerzos del hombre por fabricar máquinas que imiten su propia forma de pensar han alcanzado unos éxitos que parecían inconcebibles. Hasta tal punto es así, que existe una fuerte corriente de investigadores que consideran inexistente la diferencia entre la mente humana y la Inteligencia Artificial. Sostienen, en síntesis, que las máquinas piensan, de modo pleno y con todas sus consecuencias. Este numeroso grupo -denominado partidario de la Inteligencia Artificial fuerte- no carece de argumentos de peso. Estos autores tienen bastantes realizaciones prácticas que mostrar, que son las mejores razones y las más insoslayables. Si hubiera de creer a los medios de comunicación, la victoria definitiva de la máquina pensante sobre el hombre se ha dado ya, fue a finales del pasado milenio, en mayo de 1997. Ese mes el mundo entero pudo enterarse de que una máquina denominada Deep Blue había vencido en torneo a Kasparov, entonces campeón del mundo de ajedrez. El resultado (3,5 para Deep Blue; 2,5 para Kasparov) consumaba la victoria de la rápida inteligencia electrónica, frente a la inimaginable cantidad de lentas neuronas humanas. Los comentarios fueron abundantes y variados. La publicidad para la empresa de informática que hizo la máquina también fue grande. Al margen de montajes publicitarios, lo cierto es que la abundancia de resultados constituye el mejor argumento de los que igualan la Inteligencia Artificial a la humana. Los frutos que rinde la investigación se multiplican y abarcan un número cada vez mayor de operaciones consideradas inteligentes, exclusivas y propias del hombre hasta el momento. Por ello se ha podido escribir: "En todas las frases del tipo «es imposible que un autómata lleve a cabo X», se puede sustituir la palabra «autómata» por la palabra «hombre». Hasta ahora la búsqueda de la superioridad experimental psicológica del hombre por encima de las posibilidades que tienen en principio los autómatas no ha dado resultado. Por tanto, aún no se ha conseguido encontrar alguna función que el hombre pueda realizar pero que no pueda realizar un autómata suficientemente complicado"[2]. He de avisar que, en gran parte, estoy de acuerdo con la anterior afirmación: son muchas las operaciones que hasta ahora atribuíamos en exclusiva a nuestra inteligencia que las máquinas son capaces de hacer. Por lo tanto, no trataré de negarlo, para hacer una inoperante defensa de la inteligencia humana. Habrá que ver si hacemos alguna operación que podamos llamar inteligente, como algo exclusivo del Homo sapiens sapiens. Puede que incluso nos sirva para aprender la mejor forma de llegar a ser verdaderamente inteligentes, si ello es posible. Pero sigamos. Los resultados obtenidos en Inteligencia Artificial, con ser abundantes, no constituyen sin embargo lo principal. Más importantes que los productos son los sueños: las expectativas, esperanzas e ilusiones que despierta. Mueven más las utopías que los hechos. Con la Informática y la Inteligencia Artificial hay todo un continente recién descubierto; una tierra virgen por hollar. Se avizoran panoramas inmensos, en los que hay que abrir los nuevos caminos. Con la informática, y las máquinas racionales, comienza una nueva revolución industrial, que cambiará nuestra forma de vivir, de estar en el mundo. Surgen quimeras, criaturas nunca vistas que habitan las nuevas tierras. Renace el espíritu del pionero, del conquistador, en un nuevo mundo que estamos inventando. Es la nueva frontera. Es tal el entusiasmo que suscita en muchos la Inteligencia Artificial, que se discute seriamente si los artefactos que poseen propiedades inteligentes antes atribuidas al hombre deben ser considerados personas o no, con tratamiento y derechos equivalentes. También se ha propuesto considerar a las máquinas racionales como una suerte de hermanos[3] que hemos fabricado, o incluso como hijos mentales[4]. "Son criaturas nuestras, son mejores que nosotros, con mayores cualidades y menos limitaciones; son la siguiente etapa de la imparable evolución de la vida en la tierra". Esta afirmación no extrañaría si la escribiera uno de esos entusiastas divulgadores de los avances informáticos, que rondan la ciencia-ficción en lo que escriben, borrachos de euforia[5]. Adquiere más peso si la expresa uno de los pilares de la Inteligencia Artificial, Marvin Minsky, que durante muchos años ha sido el gran promotor de la investigación informática en el MIT (Massachusetts Institute of Technology), y ha decidido el destino de muchos de los millones de dólares dedicados a investigar en este campo. Vale la pena transcribir el resto de sus palabras: "¿Serán los robots los herederos de la Tierra? Sí, pero serán hijos nuestros. Debemos nuestras mentes a las muertes y a las vidas de todas las criaturas que han participado en la lucha que llamamos evolución. Nuestra tarea consiste en velar para que todo ese trabajo no acabe en puro desperdicio sin sentido"[6]. A bote pronto, estas afirmaciones pueden parecer exageradas; lo más sensato quizá sea rechazarlas sin más consideraciones. Sin embargo, el problema sigue consistiendo en ver si tienen base firme sobre la que apoyarse; y el caso es que la poseen. Insisto en que las realizaciones de la Informática y de la Inteligencia Artificial son notables. De ninguna manera pueden ser ignoradas. Por eso me parece que no es un problema -el de si las máquinas piensan- que quepa resolver de un plumazo con la simple negativa. No cabe tampoco un planteamiento superficial y como de pasada, que concluya asimismo por negar el pensamiento a las máquinas. Ciertamente, esta postura brindaría la solución más fácil y cómoda para salvaguardar la singularidad humana -la racionalidad- que las máquinas amenazan. Sin embargo, tiene el inconveniente de ser una solución falsa, de las que acaban produciendo dos bandos enfrentados de forma más o menos visceral. El problema no se resuelve, la pregunta queda sin respuesta, y sólo quedan dos posturas radicalmente contrapuestas en un continuo diálogo de sordos. Tampoco me parece de recibo dirimir la cuestión señalando las deficiencias de la Inteligencia Artificial: el problema no se plantea por las deficiencias, sino por los logros. También hay hombres que muestran deficiencias de pensamiento, pero no por ello afirmo que no piensan en absoluto, o que no son humanos. Insisto en que el problema viene por lo que hacen las máquinas, no por sus limitaciones. Permítase mostrarlo con una comparación: la esencia del razonamiento consiste en decir que el avión de los hermanos Wright no vuela en realidad, o no lo hace en sentido propio, porque vuela poco y mal, sin la facilidad de los pájaros. Pero el problema no está en considerar si las limitaciones del aparato que voló en la playa de Kitty Hawk eran más o menos grandes, sino en si efectivamente voló. Y el fondo del asunto consiste precisamente en averiguar si se puede llamar o no volar a lo que en efecto hizo; porque si lo hizo, nada importa que lo hiciese con más o menos habilidad, aparte de que siempre es posible mejorarlo una vez que ya se sabe hacer. De manera semejante, no basta con decir que las máquinas piensan poco y mal, si lo que se está tratando de averiguar con exactitud es si piensan o no en absoluto. Es bien cierto que muchos de los resultados de la investigación en Inteligencia Artificial muestran limitaciones evidentes. Resulta muy claro que la capacidad de los ordenadores para imitar el comportamiento inteligente del hombre tiene notables lagunas. Sin embargo no es menos cierto que, con todas esas limitaciones, los ordenadores están consiguiendo paulatinamente realizar cada vez más tipos de operaciones que hasta hace muy poco se consideraban propias del animal racional que es el hombre. Además, las deficiencias cada vez se van reduciendo y el avance se realiza con progresiva rapidez en numerosos ámbitos. Por ello aquí tampoco insistiré en las evidentes lagunas, ya que correría el riesgo de verlas, en muchos casos, prontamente rellenadas. Otra postura que me parece insuficiente es responder que la cuestión de si la Inteligencia Artificial es o no pensamiento resulta demasiado teórica. El tiempo se debe gastar en obtener aplicaciones prácticas de interés económico. Es una forma de plantear el tema a veces corriente entre los que se dedican a desarrollar aplicaciones prácticas de Inteligencia Artificial, y ven muy de cerca las limitaciones de los productos que de hecho alcanzan el mercado. Responde a una mentalidad pragmática, que no entra al fondo de la cuestión: se evita indicando que será muy difícil alcanzar la complejidad del cerebro. En el fondo no se niegan las afirmaciones de los partidarios de la Inteligencia Artificial fuerte, sólo se ve una diferencia cuantitativa, de complejidad y número mucho mayor de neuronas y conexiones en el cerebro. No consideran, sin embargo, que pueda existir también una diferencia cualitativa más fundamental. En cualquier caso evitan el planteamiento radical del problema, quizá por considerarlo poco práctico. Por último, también considero precipitada la respuesta de los que se limitan a señalar que los ordenadores sólo hacen lo que el hombre ha puesto en ellos, mediante los programas. No son, por tanto, inteligentes por si mismos. Sería equivalente a decir que un niño no es inteligente, porque sólo sabe las matemáticas que se le han enseñado; o porque no ha generado ningún conocimiento de los que tiene en su cabeza, porque todos los ha recibido en la «programación» que se le ha dado en la escuela. Con ese criterio únicamente llegarían a ser considerados inteligentes los que generan conocimientos nuevos. Alguien muy estricto quizá limitaría la lista de personas inteligentes a la de los Premios Nobel o algo semejante. En el fondo, la cuestión de la inteligencia no es esa. Decimos más bien que, porque un niño es inteligente, puede llegar a saber matemáticas, si se le enseñan. Eso no sucede con una lechuga, ni con un chimpancé. Si podemos conseguir de un ordenador que haga matemáticas, habrá que concluir que es inteligente[7]. La postura que aquí adoptaré es diferente de las expuestas. Más bien considero que, con palabras ajenas, "tal vez la única forma verdaderamente racional, y coherente con la dimensión intelectual del hombre, de llegar a establecer esas diferencias entre persona y máquina sea la de llevar al límite esas indagaciones"[8]. En estas páginas se pretende entrar en la polémica, para ver si aún se puede decir que hay algo propio del hombre respecto de lo que llamamos pensar. A la vez se intentará establecer qué sea ello, si existe. El problema es serio y hay que plantearlo como tal, con toda la carga que tiene y llegando a las últimas consecuencias. Si resulta que no soy muy diferente de una máquina, habrá que pechar con ello. Ahora bien, si resulta que soy distinto, saber con exactitud en qué consiste la diferencia será una ayuda enorme para averiguar qué es el pensamiento y, como consecuencia, qué es el hombre. No basta una afirmación genérica del tipo: Yo no soy una máquina, estoy vivo y soy persona. Hay que aclarar con precisión lo que es el hombre, es decir, lo que somos cada uno. Sólo así, de camino, podremos saber nuestro papel en el universo: conociendo con exactitud nuestros talentos y posibilidades, de las que resultan nuestras tareas y responsabilidades. La cuestión se abordará aquí sólo en lo que a la inteligencia se refiere. Enfrentar la tarea compensa sobradamente, porque estoy convencido -y sirva de advertencia al lector sobre mi propósito- de una verdad que diré con palabras de Marina: "Las ciencias más activas -la física, la neurología, las ciencias de la computación y de la inteligencia artificial, la lingüística- están proporcionando datos para construir una nueva teoría de la inteligencia creadora, que será, al mismo tiempo, una pedagogía de la creación, es decir, del modo humano de ser libre"[9]. Hay que intentarlo, aunque no sea una labor fácil. Porque todavía son ciertas las palabras con que Ionesco comenzó su diario: "No todo es inexpresable con palabras, sólo la verdad viviente". Queda una ultima advertencia de interés para la navegación por el libro: el primer capítulo se dirige a aquellos que conocen menos los avances en Inteligencia Artificial. Para tener una idea aproximada de lo que estos hallazgos han supuesto, junto con los problemas teóricos a los que han dado lugar al hablar del pensamiento humano, conviene empezar con una breve relación histórica. No tiene pretensiones de ser exhaustiva, ni siquiera rigurosa; sólo intenta trazar un esbozo que pueda servir como entramado básico de referencia para la exposición posterior. A la hora de relatar los hallazgos de la Inteligencia Artificial, he de avisar que procuraré más bien exagerar su alcance, que disminuirlo. Esto con un doble propósito: en primer lugar, para no quedar anticuado antes de tiempo, ya que los progresos son continuos. En segundo lugar, y es algo que tiene más interés, para que, si encuentro algo que es propio y singular del pensamiento humano, la diferencia no sea cuantitativa, sino claramente cualitativa respecto de lo que hacen las máquinas. Capítulo 1 LAS MÁQUINAS RACIONALES La teoría de las máquinas racionales Durante siglos las máquinas racionales[10] sólo fueron raras ensoñaciones y leyendas sobre artesanos fabulosos capaces de hacer artilugios semejantes a hombres. Rastreando en el pasado reciente, la historia de los intentos para simular el comportamiento humano puede remontarse hasta los autómatas que tanto se popularizaron en el Siglo de las Luces, en pleno fervor por la ciencia mecánica, que crecía en una adolescencia espléndida de promesas. A mitad del siglo XVIII, La Mettrìe[11] generalizó para el hombre la tesis que Descartes había defendido para los animales: del «animal-máquina» cartesiano pasó a hablar del «hombre-máquina». Los ingeniosos mecanismos que imitaban a los animales o al hombre se sucedieron como una continua exhibición de habilidad mecánica, no exenta de arte. Sin embargo, a pesar del derroche de tiempo y talento, aquellas simulaciones mecánicas no alcanzaban ni de lejos un verdadero comportamiento humano. Descartes no confiaba en los resultados que se pudieran obtener con aquella camada de extrañas hijas de sus ideas: "Es posible concebir que una máquina esté hecha de tal forma que profiera palabras, e incluso que profiera algunas a propósito de acciones corporales que causaran cierto cambio en sus órganos: como si, tocándole en una parte, preguntase lo que se le quiere decir, y si en otra, gritase que se le hace daño, y cosas semejantes; pero no que sea capaz de ordenar de forma diversa las palabras, para responder con sentido a todo lo que se diga en su presencia, como pueden hacerlo los hombres más estúpidos"[12]. No obstante, aquellos ingeniosos mecanismos sirvieron para algo. Un famoso constructor de autómatas, Jaques de Vaucanson, inventó las tarjetas perforadas, con agujeros dispuestos de diferentes formas. Era un buen sistema para conseguir que los mecanismos siguieran comportamientos variados, según se modificasen las perforaciones en las tarjetas de control. Su idea fue aplicada con éxito por Jacquard a los telares, que podían introducir así distintos dibujos en las telas. El sistema de las tarjetas sirvió en la primera época de la informática para suministrar los datos y programas a los ordenadores. En los años sesenta y primeros setenta, del siglo XX, los montones inmensos de tarjetas perforadas constituían la señal distintiva del clan de los informáticos. Mucho más se consiguió trabajando para construir máquinas con capacidad de cálculo. En esta dirección las realizaciones más elaboradas correspondieron a las máquinas de cálculo de Babagge, que había seguido la senda abierta por la calculadora mecánica de Pascal. Eran resultados escasos y muy iniciales, pero tangibles. La calculadora de Pascal sólo podía sumar y restar. Leibniz la perfeccionó hasta conseguir que también pudiera multiplicar y dividir. Con Babagge la complejidad de cálculos accesibles a la máquina era mucho mayor, diseñó primero una Máquina Diferencial y, luego, una Máquina Analítica. Los principios que utilizó eran correctos, pero al no alcanzar totalmente sus objetivos por dificultades técnicas, y llevado de su carácter colérico, destruyó lo que había conseguido hacer parcialmente. Hubo que esperar al advenimiento de la electrónica para llegar a la meta hacia la que dio tan vigorosos pasos. Otra línea en la que se hicieron intentos iba encaminada a simular matemáticamente el comportamiento humano inteligente. Más concretamente, se buscaba la automatización del razonamiento en general y, en particular, del razonamiento demostrativo y lógico, que parecía la mayor muestra de lo que era dable llamar inteligencia. Nadie parece más inteligente que un lógico o un matemático sumido en sus abstracciones. La automatización del razonamiento había sido el sueño del mallorquín Raimundo Lulio[13]; notable personaje, incapaz de plantearse nada a medias. Dentro de un estricto logicismo, se propuso reducir todos los pensamientos, ideas y razonamientos de la inteligencia humana, a expresiones lógico-matemáticas. Para conseguir es meta inventó una compleja maquinaria conceptual que integraba alfabetos, figuras, tablas, reglas, combinaciones, etc. Con ello pretendía obtener una lengua universalmente válida para todos los hombres, que nos permitiera entendernos con total precisión. Sus ideas dejaron un influjo persistente; en parte han sido reeditadas con los actuales intentos de formar una lengua universal[14]. Más tarde será Descartes el que, considerando a las matemáticas como ciencia primera, buscará una mathesis universalis que se pudiera aplicar a todo tipo de conocimientos, de manera que el pensamiento fuera más exacto y preciso[15]. Leibniz también participó con su propio proyecto en el desarrollo de las ideas de Lulio: ambos imaginaron una especie de lengua en la que se podrían decir, y deducir, todas las verdades al modo de las matemáticas. Leibniz intentó elaborar una lingua sive characteristica universalis, que sirviera para todas las ciencias, también para la metafísica o la ética. Partía de la consideración de que todo lenguaje es un sistema de signos, que puede y debe ser formalizado, de manera que se alcance una lengua universal precisa. Con ella se podría sustituir el genérico: «dialoguemos», por un más exacto: «calculemos»[16]. Las discusiones no serían así disputas controvertidas de dudoso desarrollo y final inconcluyente, sino formas de cálculo que establecieran la mayor o menor verdad de una proposición. Su programa fue redescubierto a comienzos del siglo XX por Couturat[17] y Russell[18], vía por la que ha influido en el desarrollo contemporáneo de la lógica y en la teoría del lenguaje. Por ese camino llega también su influjo a la informática y a las ciencias cognitivas actuales. Sin embargo los proyectos de Lulio, Descartes o Leibniz no pasaron de ser ambiciosas declaraciones de intenciones, con resultados escasos. Fue en Inglaterra, cuna de las sutilezas lógicas a las que andando el tiempo llegó el nominalismo, donde se dieron los mayores pasos para matematizar el razonamiento lógico, abriendo un camino que sería transitado por la informática. Estaba allí muy extendida una opinión que, con palabras de Hobbes, afirma: "Cuando un hombre razona, no hace otra cosa sino concebir una suma total, por adición de partes. Porque razón (...) no es sino cómputo"[19]. Siguiendo esta convicción, Boole publicó dos trabajos (sobre Análisis matemático de la Lógica y acerca de Las leyes del pensamiento[20]), que entonces pasaron bastante desapercibidos, en los que ponía las bases para desarrollar un álgebra de la lógica. Con el tiempo su importancia no ha hecho más que agigantarse. La idea de partida era sencilla: sea cual sea el tipo de razonamiento y por muy complejo que resulte, concluye en una proposición que, o bien es verdadera, o bien es falsa; no hay más posibilidades. Se trata de analizar los distintos tipos de razonamientos para reducirlos a elementos simples, de cuya combinación salgan todos lo demás. Consiguió este propósito, y pudo así elaborar una suerte de cálculo lógico o racional combinando elementos básicos. Al dotar a la lógica de los símbolos y leyes del álgebra, mostró también la profunda relación existente entre lógica, matemática y filosofía. A él debemos la expresión binaria sencilla (con dos valores posibles en las tablas de verdad) de los razonamientos lógicos, que han permitido la lógica de los ordenadores digitales, basada en también tablas de verdad binarias, en "1" y "0" (verdadero o falso). A comienzos del siglo XX, cuando se emprendieron los trabajos de fundamentación de las matemáticas, la obra de Boole sería continuada por Church y Turing, que consiguen conectar la lógica con las teorías de la computabilidad. Church lo hace mediante el Cálculo Lambda[21], formulación que permite reducir toda demostración a una forma común única. Con ello la demostración de teoremas lógicomatemáticos se reduce a transformar una cadena de símbolos en otra, siguiendo determinadas reglas formales. El Cálculo Lambda es farragoso de utilizar y poco útil, pero tiene la cualidad de haber formalizado la abstracción (la famosa lambda). El asunto es asombroso: los razonamientos lógicos se pueden efectivamente calcular. Turing, por su parte, diseña una Máquina Universal para resolver en un marco binario cualquier problema algorítmico[22]; es decir, cualquier problema para el que se pueda encontrar solución mediante un procedimiento. Una Máquina de Turing es sencilla y bastante "tonta", pero es incansable, persistente. Aplica con paciencia una serie de operaciones lógicas sencillas, tan larga como se quiera, a un montón de símbolos y datos, todo lo enorme que se desee. Con tiempo suficiente, si hay un procedimiento para resolver el problema, lo resolverá sin lugar a dudas. Turing inventa una clase de máquinas lógicas capaces de plantar cara, si se les deja ir a su paso, a cualquier solucionador de problemas, por muy bueno que sea. Son comparables a esas personas particularmente poco dotadas, que requieren entender y estudiar las cosas paso a paso, pero que tienen una tenacidad admirable. Consiguen llegar a base de esfuerzo donde otros llegan con más facilidad y menos mérito. La Máquina Universal de Turing goza de una propiedad notable: si alguien es capaz de definir con toda exactitud qué es lo que la máquina no puede hacer, entonces ella podrá hacerlo exactamente[23]. El mismo Turing, sin embargo, puso de manifiesto una de las mayores limitaciones de tan industriosas máquinas: no hay manera de saber cuándo van a parar de trabajar porque han dado con la solución. Es decir, no existe ningún procedimiento algoritmo- que permita saber si van a tardar mucho o poco en resolver un problema [24]. La cuestión no es baladí: imaginemos que se ha encontrado una forma de resolver algún grave problema ecológico planetario, y que confiamos a una infalible máquina de Turing calcular la solución. No hay forma de saber si la máquina nos dará la solución a tiempo de aplicarla; o si los milenios venideros contemplarán la pavorosa y ridícula imagen de una tonta máquina que ofrece la solución a nadie, a los fósiles de todos los seres vivos que perecieron porque no se aplicó remedio a tiempo. A pesar de sus limitaciones, la Máquina de Turing contiene el esquema teórico de los actuales ordenadores, que almacenan por un lado los datos y, por otro, el programa de instrucciones para manejarlos. De hecho, los ordenadores actuales son Máquinas de Turing de memoria limitada. A Turing se debe la idea moderna de la programación, como un conjunto de instrucciones lógicas para manejar símbolos, con independencia del artilugio que las aplique. Sobre esa base teórica surgiría la actual distinción práctica entre hardware y software. Por ejemplo, en un ordenador personal, el hardware designa al conjunto de dispositivos físicos que constituyen al ordenador como objeto material complejo: caja, monitor, teclado, circuitos de memoria, unidad central de proceso, reloj, pila, dispositivos de almacenamiento, etc. Los modelos son muchos y tienen características físicas y precios muy distintos. El software designa a los programas, que se compran aparte y sirven para todos los ordenadores personales del mismo tipo, mediante los cuales aquellos dispositivos físicos realizarán determinadas operaciones, distintas para los diferentes programas. Los programas funcionan igual con ordenadores que físicamente tienen componentes distintos, puede que vayan más lentos o más rápidos, pero llegan a los mismos resultados. Algunos han querido ver en la distinción entre software y hardware la solución al problema de la relación entre mente y cuerpo, tan clásico de la filosofía posterior a Descartes. Adelanto que no me parece que sea así; en cualquier caso utilizaré con profusión estas dos palabras inglesas, bastante intraducibles al castellano, a lo largo del libro. Turing fue un hombre genial, que ocupa un puesto clave en el desarrollo teórico de los ordenadores actuales, al conseguir una definición precisa de lo que es un algoritmo. También tiene un lugar privilegiado en la construcción práctica del primer ordenador propiamente dicho: el Mark 1. Church y Turing, al transformar tanto los números como las instrucciones para manejarlos en sucesiones de símbolos, abrieron el camino teórico para los ordenadores como máquinas que procesan símbolos y dejan su interpretación a cargo del usuario de la máquina. Estas ideas teóricas fueron prolongadas por un trabajo de enorme trascendencia práctica: el análisis lógico de los circuitos eléctricos que llevó a cabo Shannon[25]. En él consideraba la capacidad de los circuitos para actuar como «puertas lógicas» con valores binarios equivalentes a los del álgebra lógica de Boole. También consiguió diseñar dichas puertas lógicas: circuitos que realizan cada una de las operaciones lógicas elementales de Boole. Al unir la lógica a la electrónica, se puede decir que dio poderes racionales a los circuitos, pues con ellos se podían hacer operaciones lógicas. Mostró el camino para diseñar y simplificar los circuitos; asimismo puso de manifiesto que las computadoras habrían de concebirse más como máquinas lógicas que como calculadoras aritméticas. De este modo se pusieron las bases teóricas de los ordenadores; otra historia fue construirlos. Los hijos de Turing Tanto la fabricación de autómatas y máquinas de cálculo, como la automatización del razonamiento, habrían quedado sólo en sueños de no haber llegado el ordenador electrónico. Inmediatamente después de la Segunda Guerra Mundial el desarrollo tecnológico hizo posible que aquellas ensoñaciones pudieran llegar a materializarse, de forma que las máquinas comenzaron a acceder a tareas cada vez más complejas, reservadas hasta ese momento para el hombre. En esos años confluyeron diversos elementos a partir de los cuales se acabarían constituyendo varias ciencias nuevas, como la Informática, la Cibernética, la Automatización y la Robótica, la Ciencia de la Comunicación, etc. Estos nuevos aspectos del saber humano, con todas las realizaciones prácticas a las que han ido dando lugar, han configurado lo que ya se suele llamar «revolución informática»[26]. Veamos los personajes y los acontecimientos centrales. Conviene citar en primer lugar a Wiener y a la Cibernética. Más que por los resultados prácticos, por lo que tuvo de cambio de mentalidad. Está en el inicio de un nuevo paradigma lleno de originales conceptos: realimentación, control, sistemas autoorganizados, automática, etc. La primera Revolución Industrial se hizo sobre los conceptos de energía y potencia, se buscaba domesticar la fuerza bruta: los motores y máquinas. Ahora se pone el acento en la información, en los sistemas acoplados al mundo exterior al que ajustan su actuación, adaptándose a situaciones variadas y a los cambios externos[27]. En segundo lugar hay que referirse al nacimiento de los ordenadores. En el año 1996 se ha celebrado a bombo y platillo el 50 aniversario de estas útiles máquinas. Algunos habrían preferido el año 1998[28]. La razón es la siguiente: en 1946 se puso en funcionamiento el ENIAC, máquina mastodóntica (constaba de 17.468 tubos de vacío, como las lámparas de las grandes radios anteriores al transistor) y bastante torpe. Pero tuvo la suerte de nacer en los Estados Unidos, en la Universidad de Aberdeen. Muchos no lo consideran propiamente un ordenador, sino una calculadora, porque no podía ser programada. Sólo hacía cálculos; sus descendientes son las actuales calculadoras de bolsillo. El año 1948 asistió al alumbramiento de otra máquina, esta vez en la Universidad de Manchester: el Mark 1, que culminaba una serie de trabajos iniciados durante la Segunda Guerra Mundial. No asistió tanta prensa, y la puesta en marcha fue más discreta. Sin embargo la criatura ya no era una simple calculadora: era un ordenador, muy limitado, pero con todas las características de los actuales, que son sus sucesores. En el equipo que lo promovió estaba Turing. El diseño práctico fue de otro genio: Von Neumann[29]. Supo plasmar de una manera práctica las ideas de Turing sobre una máquina de manejar símbolos, con circuitos diseñados para hacer operaciones lógicas, no cálculos numéricos. Con lo anterior no quiero entrar en la polémica histórica de cual sea el primer ordenador, ni discutir de fechas y protagonistas. Sólo deseo llamar la atención sobre este punto: los ordenadores actuales más difundidos, los denominados de «arquitectura tipo Von Neumann» como el que estoy utilizando para escribir ahora, tienen un procesador dotado para hacer operaciones lógicas y manejar símbolos, no para calcular números. Como sucede que los números también son símbolos y las operaciones aritméticas se pueden simular con operadores lógicos, el procesador también puede «simular» cálculos numéricos. En la mayor parte de las aplicaciones y programas esos cálculos no son muy abundantes, por lo que basta con la simulación. Cuando hay que hacer muchos cálculos y la velocidad resulta imprescindible, no basta que el procesador imite a una calculadora, por su lentitud. Lo que se hace es ayudar al procesador lógico mediante otro de tipo diferente, diseñado como una calculadora y no como un razonador lógico, llamado coprocesador matemático. Éste se encarga de los cálculos con números, es decir, de las operaciones de coma flotante. Los últimos procesadores suelen incluir en su abundante circuitería el coprocesador matemático. Esta anotación me parece necesaria, porque los pioneros de los ordenadores pensaban en términos de lógica, de razonamientos hechos por una máquina que realizaba operaciones lógicas, mediante circuitos que eran puertas lógicas de Boole. Es comprensible entonces el tempranísimo salto que se dio entre lo que hacían los ordenadores y lo que hace la inteligencia humana. Poner en el mismo plano ambas actividades no sólo se le ocurrió a Turing, también Von Neumann pretendía con su trabajo imitar lo que hace la inteligencia humana cuando razona. Es decir, cuando hace lo que en la tradición de la cultura occidental llamamos propiamente pensar, o pensar en serio, lógica y racionalmente. La comparación entre la inteligencia humana y los ordenadores surge en el mismo origen de estos últimos: por eso se llegaron a construir, intentando imitar el modo de pensar de los humanos cuando somos lógicos y racionales. Así se entiende que el término «Inteligencia Artificial» se acuñase muy pronto, y la polémica sobre la existencia o no de inteligencia en las Máquinas Pensantes surgiera con fuerza desde principios de los años cincuenta, con los primeros ordenadores. En aquellos años los ordenadores eran unos raros aparatos que ocupaban enormes habitaciones y requerían cuidados de enfermo grave. Venían llenos de promesas, pero resultaban poco prácticos. Se extendieron por los campus universitarios, rodeados de entusiastas que exploraban el nuevo mundo. Una de las áreas de experimentación consistía en hacer que los ordenadores realizasen tareas equivalentes a las de la inteligencia humana. Al principio estos intentos no tenían ni siquiera nombre, pero se estaba gestando algo nuevo, que no tardaría en salir a la luz con nombre propio. La ocasión fue el verano de 1956. Con el patrocinio de la Fundación Rockefeller se reunió, en el Dartmouth College (Hanover, New Hampshire), un grupo de jóvenes investigadores procedentes de disciplinas diversas, que trabajaban con los recién creados ordenadores[30]. Tenían en común una hipótesis de trabajo: si se consigue describir con precisión, en todos sus pasos, una operación cualquiera que realice la inteligencia humana, entonces será posible construir una máquina que también la lleve a cabo. El promotor de la reunión, McCarthy, que luego inventaría el lenguaje de programación Lisp (de List Processing) hoy convertido en idioma común de la Inteligencia Artificial, acuñó el nombre con el que se conocería la nueva disciplina: Inteligencia Artificial. Otro de los participantes, Minsky, propuso una definición que se ha popularizado: "Inteligencia Artificial es el arte de construir máquinas capaces de hacer cosas que requerirían inteligencia si las hicieran los seres humanos"[31]. Allí también se presentó uno de los primeros resultados, y de los más espectaculares, de la Inteligencia Artificial. Fue el programa Logic Theorist (Teórico de la Lógica) que expusieron Newell y Simon. El programa era capaz de demostrar cierta clase de teoremas de una de las obras cumbres del pensamiento de este siglo en el ámbito de la lógica: los Principia Mathematica de Russell y Whitehead[32]. Es más, consiguió encontrar una demostración más breve y sencilla para uno de los teoremas. Es comprensible que, con un éxito así entre las manos, el entusiasmo de los autores por las posibilidades de los ordenadores para igualar a la inteligencia humana no tuviera límites. Para Newell y Simon estaba claro que las máquinas "piensan, aprenden y crean"; o que "la intuición, la comprensión y el aprendizaje ya no son propiedades exclusivas de los seres humanos"[33]. Uno de ellos, Simon, profetizó en 1965: "Dentro de veinte años las máquinas serán capaces de realizar cualquier tarea que pueda realizar un hombre"[34]. No era para menos tanto entusiasmo. Porque, si encontramos alguien -persona o máquina- que es capaz de demostrar algún teorema de los Principia Mathematica, e incluso mejorar la demostración de Russell y Whitehead, no sólo diríamos que es inteligente, sino que es muy inteligente, en grado extraordinario, muy por encima del común de los mortales. Bastaría este logro de la Inteligencia Artificial para decidir seriamente que se puede llamar inteligente a aquella máquina, aunque más bien habría que calificarla de inteligentísima. La operación que realizó corresponde a lo más sobresaliente de lo que el común de los mortales considera capaz a la inteligencia humana. Aquí podría acabar mi investigación sobre la inteligencia de las máquinas, porque sólo me interesa saber si realizan operaciones inteligentes, no si las hacen al modo humano. Otra posibilidad es concluir que, después de todo y puesto que una máquina también es capaz, ni Russell ni Whitehead eran tan inteligentes como parecían por habérselas con tanto teorema lógico. Resulta que una máquina puede realizar también aquello que parecía requerir un prodigio de inteligencia. ¿Será que no hace falta mucha inteligencia para tener tal capacidad para el raciocinio?; ¿no será el razonamiento lógico un invento de la inteligencia, como los frigoríficos, pero no la inteligencia misma? La respuesta habrá que buscarla más adelante. Por ahora conviene seguir, para hacerse una idea más cabal de lo alcanzado por la Inteligencia Artificial. La línea de trabajo que rindió tan tempranos logros es la llamada corriente simbólica de la Inteligencia Artificial. Sus partidarios (Newell, Simon, McCarthy, etc.) consideran que tanto los seres humanos como las máquinas lógicas son especies de un género superior: los procesadores de información, que tienen la capacidad de procesar formalmente símbolos. La inteligencia -de hombres o de máquinas- es considerada sólo como racionalidad estricta, como lenguaje simbólico reglado por leyes lógicas. Pretendían dotar a las máquinas de tal capacidad lógica que pudieran demostrar todo lo demostrable y resolver cualquier problema que tuviera solución. La corriente simbólica de la Inteligencia Artificial, hija directa de las ideas de Turing, brindó un modelo para entender la inteligencia humana que se utilizó profusamente durante años: el paradigma del ordenador, muy de moda en bastantes escuelas de Psicología. Con ese paradigma se inició la psicología cognitiva y la ciencia cognitiva. Sirvió para abandonar definitivamente al conductismo como teoría psicológica dominante. El interior del hombre dejó de ser una caja negra, cuyo contenido era desconocido, por lo que sólo cabía interesarse por la conducta externa, empírica y objetivable. Los ordenadores ponían de manifiesto que era posible interesarse por las estructuras y procesos que hacían posible el comportamiento humano inteligente. En cualquier caso, estudiar si las máquinas pensantes constituyen un buen modelo psicológico del ser humano puede interesar a los psicólogos; pero no es aquí el caso. Para los interesados, sin embargo, hay que decir que las máquinas con arquitectura Von Neumann (los ordenadores normales) no son un buen modelo de la psicología humana, aunque hagan operaciones inteligentes, que es lo que aquí interesa[35]. Estas ideas se unieron a las procedentes de la teoría de la comunicación de Shannon[36], que permitía incluso hablar (algunos lo midieron) de la actividad mental en términos de bits por segundo. Se sumaron los nuevos enfoques que dio Chomsky a la lingüística[37]: al analizar el lenguaje buscando las estructuras cognoscitivas subyacentes desarrolló la lingüística generativa. Además se añadió el planteamiento psicológico de Piaget[38], que prestaba mucha atención a los procesos y estructuras mentales internas del niño durante el aprendizaje. La avalancha de novedades que confluían siguió con la neurofisiología, en especial con las avanzadas ideas de Hebb[39] sobre la continua reestructuración de las conexiones neuronales que realiza el cerebro para aprender tareas nuevas. Con todo esto, y algunos elementos más que se fueron añadiendo con el tiempo, se constituyó un área de investigaciones y conocimientos enormemente activa y en plena evolución, la de las Ciencias Cognitivas[40]. Estas Ciencias Cognitivas, entre las que se incluye la Psicología Cognitiva, suponen un notable vuelco conceptual, y el fin de una larga tradición. Hasta ahora el estudio del conocimiento correspondía a la filosofía. La denominación particular podía ser Epistemología, Crítica, Gnoseología, Filosofía del Conocimiento, o cualesquiera otra. Pero siempre era un asunto de «humanidades», de «ciencias del espíritu», nunca de «ciencias empíricas». Era un estudio cultivado por «gente de letras», no por «gente de ciencias». Expresiones, ahora normales, como «ingeniero de conocimientos» o «tecnología del conocimiento», habrían sido rechazadas no hace mucho tiempo sin más consideraciones. Con las Ciencias Cognitivas el pensamiento comienza a ser manoseado por personas que no se ocupan sólo de las ideas puras, sino que también manchan sus manos realizando experimentos. Al fabricar ordenadores capaces de realizar operaciones atribuidas a la inteligencia, el hombre tiene la sensación "de que está produciendo «cogito», pensamiento, que ha sido la marca de fábrica de lo mental por lo menos desde el origen de la epistemología moderna con Descartes"[41]. ¡Inaudito!: La ciudadela más íntima de la filosofía moderna (la res cogitans cartesiana, la razón pura kantiana o el Geist panlógico de Hegel) es asaltada por los patanes que se ocupaban de la muy inferior res extensa. Pero sigamos paso a paso, para no precipitar los acontecimientos. La corriente simbólica de la Inteligencia Artificial ha seguido rindiendo frutos abundantes en los temas lógico-matemáticos: demostración de teoremas, solución de problemas, juegos -como el ajedrez-, modelización del razonamiento matemático, procedimientos lógicos, deducción automática, cálculo simbólico, etc.[42]. Las máquinas han invadido las matemáticas. Hasta el punto que no pocos matemáticos están preocupados por el papel central que los ordenadores están tomando en su profesión. Consideran que es muy difícil fiarse completamente de las demostraciones que sólo realizan las máquinas, a las que cada vez confían más tareas demostrativas[43]. A pesar de esos éxitos, pronto se pusieron de manifiesto una serie de limitaciones, que convertían a las máquinas en algo semejante al clásico sabio despistado: podían con los problemas lógicos y matemáticos, pero eran totalmente inútiles para desenvolverse en las situaciones más sencillas. Por ejemplo: lo que para cualquier ser humano resulta fácil desde niño, como hablar, reconocer a las demás personas o manipular objetos, era imposible para aquellos magníficos lógicos. Si se quería que las máquinas llevaran a cabo tareas útiles en el complejo mundo real, era necesario buscar por otros caminos. No eran esos los únicos problemas que apagaron la euforia inicial y, aún más doloroso, hicieron disminuir los fondos monetarios para esas investigaciones. Inicialmente, en las primeras generaciones de ordenadores, se confiaba alcanzar todo su perfeccionamiento dotándoles de una capacidad de memoria cada vez mayor y de acceso más rápido, junto con una potencia de operaciones por segundo mucho más elevada. La escala de potencia de cálculo subió de manera espectacular, hasta las astronómicas cifras que consiguen en la actualidad los superordenadores. Aunque esa línea de trabajo sigue en progreso, sin embargo se llegó a la conclusión de que la potencia de cálculo no sería la panacea que permitiría utilizar los ordenadores para resolver cualesquiera problemas. Al margen de consideraciones teóricas, en la práctica pronto se descubrió que hay muchos problemas con elevada dificultad intrínseca, que precisan una capacidad de cálculo imposible de conseguir aún disponiendo de una inimaginable velocidad y de todo el tiempo del universo. Piénsese, por ejemplo, en la explosión combinatoria que suponen los cálculos necesarios en una jugada de ajedrez, si se quieren considerar todas las posibilidades, con todas sus consecuencias, y a muchas jugadas vista. Otro problema clásico es el del viajante de comercio que debe decidir la mejor ruta para visitar muchas ciudades en el menor tiempo. Comparados con otros, estos problemas todavía son sencillos; existen multitud de problemas con un número muy elevado de variables y de ecuaciones, que hacen imposible su cálculo. Esto es lo que se ha comenzado a estudiar en la teoría de la complejidad. Hubo otras causas que frenaron la investigación. En Europa, donde la tradición filosófica racionalista era más fuerte, la investigación en Inteligencia Artificial se vio parada por otros motivos. Se pensó que unas máquinas lógicas no dejarían de tener las mismas limitaciones que para la lógica habían demostrado Gödel y otros. La consideración de las limitaciones internas de los formalismos, que he de ver con detenimiento más adelante, llevó a cortar muchas líneas de investigación. Hay que decir que también ayudó la crisis económica producida por el petróleo en el año 1973. En cualquier caso, para Inglaterra, el informe de la comisión oficial presidida por Lighthill desaconsejó dedicar fondos a esos trabajos, por intentar algo en lo que los lógicos y matemáticos habían fracasado[44]. Así llevó al abandono temporal de una ciencia en la que los ingleses habían sido pioneros. Turing quedó sin sucesores en su patria, al menos durante un tiempo. Queda aún otro campo en el que las expectativas se resolvieron en fracasos: el lenguaje humano. Los proyectos en este campo tenían mucho interés económico. Por ejemplo: para poder relacionarse con los ordenadores de forma natural, o para la traducción automática. El asunto no parecía difícil, después de todo el lenguaje es un sistema de símbolos, con unas reglas para combinarlos: la ortografía y la sintaxis. Sin embargo, lo que parecía sencillo se resistió con férrea determinación, de manera los fracasos se acumularon hasta provocar el desánimo. Hubo que resignarse a mantener la relación con los ordenadores a través de los rígidos y crípticos lenguajes de programación, reservados a especialistas. Puestas así las cosas, también aquí se imponía buscar por otros rumbos. Educar expertos y enseñar a hablar Los proyectos ambiciosos que querían servir para todo, como el General Problem Solver (Solucionador General de Problemas) de Newell y Simon, fueron a parar al desván, junto con otras inutilidades pretenciosas. Su lugar fue ocupado por proyectos con metas más concretas y limitadas, más accesibles. A la vez creció el respeto por la forma de actuar de la inteligencia humana: no era muy lógica, pero sí muy eficaz. Había que considerar atentamente lo que hacían esos bípedos llamados humanos, grandes inventores y solucionadores de problemas. Vinieron así los años difíciles, de caminar por el desierto paso a paso, adentrándose en una tierra desconocida. Los avances fueron paulatinos y constantes. De ellos emergió una disciplina académica consolidada, con revistas científicas aceptadas como «serias»: Artificial Intelligence[45] o Computational Intelligence. También se establecieron departamentos de Inteligencia Artificial en las universidades más prestigiosas; y es habitual la realización de congresos. En definitiva, creció y se desarrolló una nueva rama del saber con todos sus aditamentos organizativos y burocráticos, plenamente considerada como «científica». El mismo nombre de Inteligencia Artificial es de uso común, y ya no sorprende a nadie oír hablar de máquinas o de edificios inteligentes. Entre los distintos campos de investigación que abarca la nueva ciencia se cuentan: visión artificial, robótica inteligente, métodos de adquisición de conocimiento y aprendizaje, técnicas de sensores y manipuladores, control de movimiento en entornos complejos, inteligencia distribuida, percepción de estructuras (patterns), sistemas adaptativos, análisis de imágenes, juegos (ajedrez, backgammon, brigde, póker, etc.), lectura de escritos con caracteres caligrafiados... Muchas de las tareas que investiga la Inteligencia Artificial no están incluidas entre las que tradicionalmente se consideran necesitadas de inteligencia. Por ello centraré la exposición en dos campos que embarcan a los ordenadores en actividades que se suponen inteligentes: Sistemas Expertos y lenguaje. Los Sistemas Expertos[46], como su propio nombre indica, emulan a los especialistas y expertos humanos que llevan a cabo bien una tarea determinada. Se realizaron porque, dado que no había manera de hacer una máquina omnisciente, ¿sería posible hacer máquinas especializadas capaces de imitar al hombre cuando es experto en algo? Comenzó así una línea de trabajo que culminó en uno de los mejores productos de la Inteligencia Artificial. Aunque los estudios teóricos son anteriores, desde un punto de vista práctico la investigación comienza a desarrollarse a mediado de los años sesenta, de manera que para 1970 están en marcha las primeras realizaciones operativas con buen funcionamiento. Una lista de éxitos notables, que se codeaban con especialistas humanos, podría ser la siguiente: En primer lugar el sistema MACSYMA, desarrollado en 1971 por Martin y Fateman en el Massachussets Institute of Technology, recogiendo lo realizado en los sistemas SAINT (por Slagle en 1961) y SIN (por Moses en 1967). MACSYMA sirvió para la manipulación de expresiones matemáticas simbólicas, en especial del cálculo diferencial, siendo muy utilizado por los científicos del MIT con un rendimiento comparable al de humanos experimentados[47]. Le siguió DENDRAL, que realiza con éxito hipótesis sobre la estructura química para la síntesis de moléculas. MYCIN, especializado en el diagnóstico y tratamiento de enfermedades bacterianas y meningíticas. INTERNIST es útil para el diagnóstico en medicina interna[48]. CASNET resulta eficaz para el diagnóstico y tratamiento en oftalmología. La relación puede acabar con PROSPECTOR, que funciona como un geólogo prospectivo, y saltó a la fama por encontrar una mina de molibdeno en el Estado de Washington, valorada en 100 millones de dólares. Paso a paso se ha recorrido un largo camino: desde los primeros sistemas expertos basados en reglas, pasando por los que funcionan con modelos, hasta llegar a los actuales, capaces de aprendizaje y de mejora del conocimiento en el campo en el que son expertos. Las aplicaciones se han vuelto más potentes y sencillas, de forma tal que se ofrecen en el mercado programas que permiten un fácil desarrollo de sistemas expertos hechos a medida con resultados más que notables[49]. Pero, ¿qué son?: Por sistema experto se entiende aquel que es capaz de emular con éxito a una persona experta en un determinado campo o actividad especializada. Es capaz de dar soluciones acertadas sobre los problemas de su competencia y, asimismo, puede dar explicaciones del porqué de su respuesta; explicaciones capaces de satisfacer a un técnico en la materia. Un sistema experto se comporta como un especialista: adquiere sus conocimientos de manera formal, con teorías; y también no formal, mediante la experiencia acumulada. Un especialista acopia casos significativos, reglas prácticas, procedimientos más o menos generales, relaciones entre hechos, caracterización del entorno del problema, etc. Utiliza, sobre todo, lo que se suele denominar conocimiento heurístico. Este es el tipo de conocimiento que ha de tener un ordenador para ser un Sistema Experto en un campo concreto. Esta es también la parte más difícil de conseguir, que requiere sus propios especialistas. Por este motivo en el léxico profesional informático ha aparecido una nueva especialidad: ingeniero de conocimiento, que se suma al tradicional programador y colabora con él; su tarea es cribar la información, para seleccionar la que resulta relevante y significativa. La elaboración de los sistemas expertos ha permitido también hacerse una idea más clara de cómo pensamos y aplicamos nuestros conocimientos: en realidad éste ha sido el principal problema por resolver. Dado que a la hora de diseñar los sistemas expertos se ha atendido más al conocimiento significativo que a la simple información o acumulación de datos, también se les suele llamar sistemas de conocimiento o sistemas basados en el conocimiento. Con eso se quiere expresar que en un sistema experto, más que la simple capacidad de procesar con gran velocidad mucha información, es necesario el conocimiento de las fuentes de información y la manera de seleccionar la que es significativa, de manera que efectivamente ayude a la comprensión de un problema. El principal problema que tienen los ingenieros de conocimiento es averiguar cómo piensan, deciden y resuelven los problemas los expertos humanos. Lo normal es que ellos mismos no lo sepan: dan por supuestas muchas cosas y pocas veces se han parado a considerar cómo les funciona la cabeza. Obtener de ellos los conocimientos es una tarea artesanal que requiere paciencia, porque no se acaba de dar con métodos sistemáticos. También es difícil conseguir que el sistema aprenda de la experiencia, para mantenerse al día como hacen los expertos humanos, aunque se realizan continuos progresos con este propósito[50]. La existencia de sistemas expertos electrónicos que compiten extraordinariamente bien en terrenos reservados a expertos humanos, es otro buen argumento a favor de los que igualan la inteligencia artificial a la humana. No hay ninguna duda de que llevan a cabo operaciones que consideraríamos inteligentes si las realizasen seres humanos. Otro asunto que ha contribuido para que conozcamos mejor nuestra forma de pensar ha sido los intentos de enseñar a hablar a los ordenadores. El lenguaje humano, que parecía una sencilla y manejable colección de símbolos (letras, palabras) y reglas formales (ortográficas y sintácticas), se resiste a no ser más que eso. Lo que parecía un terreno llano y fácil de explorar, acabó siendo un cenagal en el que se hundían los sucesivos proyectos. Como siempre los comienzos fueron prometedores. En este caso con anécdota incluida. Ocurrió que Weizenbaum, uno de los pioneros de la Inteligencia Artificial interesado por el lenguaje, creó uno de los primeros y pronto afamados programas: ELIZA. Este programa se comportaba como uno de esos psicoanalistas que han popularizado las películas de Hollywood, hasta el punto que bastantes personas creían tratar con un psicólogo auténtico, y le contaban su vida sintiéndose comprendidas. Algunos entusiastas de la Inteligencia Artificial vieron en ELIZA el inicio de una triunfante serie de psicoterapeutas electrónicos (¡tenga al psicoanalista en su casa!, ¡funciona con pilas!) que pondrían remedio cómodo y barato a nuestros desarreglos mentales. Ante tales propuestas, el mismo padre de la criatura, que conocía bien sus entresijos y limitaciones, hubo de poner las cosas en su sitio, lleno de espanto por los abusos que las nuevas técnicas podían permitir[51]. Tras el éxito de ELIZA se acumularon los fracasos. Los motivos fueron varios. El primero fue querer abarcar demasiado; o, con palabras de los protagonistas: "El campo de la Inteligencia Artificial está lleno de intelectuales optimistas que aman las abstracciones potentes y se esfuerzan por desarrollar formalismos que lo abarquen todo"[52]. En este caso el optimismo intelectual estaba sustentado por las teorías lingüísticas de Chomsky, que consideraban el lenguaje sólo desde el punto de vista sintáctico: un conjunto de símbolos dotado de estructuras. También influyó Piaget, que adolecía asimismo de una idea demasiado formal del lenguaje y del conocimiento humano. Ambos han salido un tanto malparados cuando sus teorías se han querido poner en práctica. La sintaxis y lo formal parecen no ser lo primero en el lenguaje, ni en el conocimiento[53]. Se cayó en la cuenta de que el contexto, la situación y el contenido eran tan esenciales en la comprensión como los aspectos formales. Sucede que el lenguaje no es un mero conjunto de símbolos dotado de reglas, que quepa entender al margen de lo que esos símbolos significan. Intentaré explicarlo con un ejemplo. Consideremos la pregunta: ¿Dónde está el Museo del Prado? Al margen de que su sintaxis esté bien, la pregunta se entiende de manera distinta según la situación, y obtiene en consecuencia muy variadas respuestas. Si la hace un profesor de Arte en la Universidad de Columbia (Nueva York), la respuesta podría ser: en Madrid. Pero si la hace un turista despistado que anda perdido en Madrid, no se le puede contestar aquello, sino indicarle la manera de llegar al museo. Otro ejemplo: Me puede dar dos, por favor. Ese dos puede indicar dos entradas, si estoy ante la taquilla de un cine; o pollos asados, o helados de vainilla, o casi cualquier otra cosa. Muchas frases suponen todo un mundo: dónde estamos, qué estamos haciendo, quién es o qué hace el interlocutor, en qué contexto se desarrolla la acción, etc. Es un trabajo ímprobo introducir todo ese mundo en el ordenador. De la consideración estrictamente sintáctica del lenguaje hubo que pasar a otra que tuviera en cuenta la semántica: el significado, aquello de lo que se estaba hablando. Poco después hubo que abandonar también la separación entre sintaxis y semántica: el lenguaje real no se dejaba aherrojar en esquemas conceptuales fáciles de manejar. Se pasó así a hablar de la pragmática del lenguaje, de su uso. El lenguaje es un cóctel complejo y muy animado donde conviven la sintaxis, la semántica, esquemas de situaciones (saludos, conversaciones casuales, hablar a niños, o del tiempo...), imágenes, comparaciones, interjecciones variopintas y multiuso, tonos, silencios, lo que pensamos que entienden o piensan, etc., etc. Los esfuerzos por imitar la manera de pensar de los especialistas humanos, y el difícil asunto del lenguaje, han llevado a modificar los lenguajes de programación y las «lógicas» con las que se intenta dotar a los ordenadores. Los nuevos lenguajes de programación son muy distintos de los utilizados en la informática tradicional. En ésta hay que dividir los problemas en todas sus partes de manera que se pueda escribir una secuencia exhaustiva, paso a paso, de todas las instrucciones necesarias para resolverlo: lo que se llama un algoritmo. Es una programación rígida con una precisas reglas estrictas para procesar los datos de entrada y obtener una salida precisa y exacta. Con ella, además, sólo se pueden resolver los problemas que admitan una solución algorítmica, mediante un procedimiento minucioso y prolijo. Los nuevos lenguajes son más bien declarativos, orientados a objetos, reglas, acciones y relaciones. El más popular de estos nuevos lenguajes simbólicos es LISP (acrónimo de LISt Processor), definido por J. McCarthy en el MIT a finales de los años cincuenta, que suele exigir un hardware especial (las llamadas máquinas LISP). Tiene la peculiaridad de facilitar mucho el aprendizaje de la máquina, porque la salida es del mismo tipo que la entrada. Es decir, dado que los programas LISP tratan símbolos y, a su vez, se representan como listas de símbolos, resulta posible escribir programas que hacen y procesan otros programas LISP, por lo que los ordenadores pueden reprogramarse, aprendiendo en consecuencia. Otro lenguaje simbólico muy utilizado, en especial para sistemas que funcionan con reglas, es PROLOG (acrónimo de PROgramming in LOGgic), desarrollado en Francia y basado en la programación por predicados. Con estos lenguajes se intentan formas de pensar y de programar alejadas de los algoritmos, más semejantes a la forma humana de elaborar y utilizar el conocimiento. El software habitual se abandona por otro nuevo, en el que lo primario no es tener el algoritmo preciso. Ahora importa más la adecuada caracterización del problema; el establecimiento de métodos de búsqueda y comparación; los procedimientos de inferencia para obtener conclusiones propias; especificar las metas que se quieren alcanzar, etc. En el camino de la imitación de la mente humana también ha habido que desarrollar lógicas distintas, más semejantes a las que de hecho se utilizan en el pensamiento humano real. Se habla así de lógicas no-standard: modal, dinámica, de tres valores (verdadero, falso y posible, como la de Lukasiewicz), intuicionista (teoría de tipos de Martin-Löfs), no monotónica, temporal, borrosa, analógica, etc.[54]. Algunas de ellas consiguen resultados prácticos más adaptados al mundo real, donde rara vez se dan las categorías lógicas rígidas de los primeros programas inteligentes. A modo de ejemplo, me referiré a la lógica no monotónica y a la borrosa. La primera introduce en la lógica la posibilidad de que una proposición pueda ser verdadera ahora, para ser luego falsa. El procedimiento es introducir axiomas nuevos que modifican el edificio lógico. Con ello se intenta simular el pensamiento humano, que varía y evoluciona conforme se acumulan nuevos conocimientos. También se pretende obtener soluciones sobre una base de evidencias insuficientes. Por ejemplo: ayer era cierto que las úlceras de estómago las producía la acidez; hoy se piensa que una bacteria (Helycobacter pylori) es la culpable de muchas de ellas. Antes se recetaban antiácidos, ahora se tratan con antibióticos. En ambos casos la base son indicios que se consideran suficientes mediante ensayos, sin saber el mecanismo exacto. Por encima de todo interesa curar. Mucho mejor si, además, nos enteramos de cómo funciona, pero no es lo primero. Por su parte, la lógica borrosa o difusa (fuzzy logic) fue introducida por Zadeh en 1965. Como señala su nombre, intenta escapar de la estrechez de las lógicas binarias booleanas. En la lógica fuzzy no sólo vale "si" o "no", "verdadero" o "falso"; pueden utilizarse valores del tipo: «algunos», «varios», «muchos», «la mayor parte», «pocos», etc. De esta manera permite tratar con ordenadores proposiciones tales como "algunos coches son grandes" o "quizá llueva mucho dentro de poco". Con ello se intenta un mayor acercamiento al pensamiento humano, tan eficaz en el complejo e inexacto mundo real. Esta lógica se ha anotado grandes éxitos prácticos en muchas aplicaciones industriales; los consumidores cada día oyen más hablar de lógica borrosa. Estas lógicas nuevas han resuelto algunos problemas, y abierto muchos más: la cuestión más ardua es cómo formalizar todo eso, para intentar introducir lo que llamamos «sentido común» en los ordenadores. También han recibido críticas, pues algunos opinan que no son lógicas tan nuevas como dicen, cuando han de acabar funcionando en máquinas que admiten sólo una lógica booleana binaria en sus circuitos electrónicos. Por último, a su alrededor no cesan de surgir polémicas sobre qué o cuánta lógica sea necesaria para desarrollar la Inteligencia Artificial[55]. De todo esto cabe sacar una conclusión: la forma de pensar humana es bien difícil de simular con los ordenadores. Sin embargo, a pesar de su falta de destreza, lo cierto es que los ordenadores tienen patentes capacidades lingüísticas: Traducen muy bien en el caso de lenguajes especializados. Obedecen órdenes verbales. Sintetizan palabras. Leen textos. Identifican palabras habladas en una conversación ordinaria. Comprenden el lenguaje natural (respuesta a preguntas y realización de resúmenes de textos breves). Incluso consiguen escribir poesías (kaiku, por ejemplo) y narraciones cortas[56]. Hacen mucho más de lo que hemos conseguido jamás que hagan los animales, por más esfuerzos de laboratorio que se han derrochado con chimpancés y bonobos[57]. Si se considera que las habilidades lingüísticas manifiestan de manera necesaria y suficiente la posesión de inteligencia, entonces no hay duda que los ordenadores son inteligentes. No obstante, los informáticos no se han quedado satisfechos con todos esos logros en su camino por conseguir Inteligencia Artificial. Dadas las evidentes limitaciones de las máquinas lógicas a las que se quiere dotar de inteligencia humana, han intentado otra vía para imitarla. Construir cerebros El nuevo camino abierto se basa en una idea básica muy sencilla: los seres humanos utilizan un cerebro para pensar, construyamos pues un cerebro. Hagamos una sociedad anónima de neuronas electrónicas capaces de funcionar como las del cerebro humano. El ordenador deja de ser el modelo para entender el conocimiento humano; en su lugar, el cerebro pasa a ser el paradigma para construir ordenadores. El vuelco es total. Se da un giro de 180 grados respecto de lo que quisieron hacer los primeros investigadores de la Inteligencia Artificial. Con estos planes volvió a retomarse una de las primeras líneas de trabajo, que había sido abandonada en los años sesenta. La historia tiene cierto interés. El punto de partida fueron las hipótesis neurofisiológicas de Hebb sobre la capacidad de aprendizaje de las neuronas mediante la modificación de la intensidad de las conexiones sinápticas[58]. Estas ideas serían tomadas por MacCullogh y Pitts[59] para diseñar circuitos electrónicos que imitasen a las neuronas modificando la intensidad de sus conexiones. Comparados con la complejidad de una neurona, sólo consiguieron hacer modelos sencillos. Pero Rosenblatt[60] alcanzó a construir con ellos una red neuronal dotada de interesantes cualidades: el PERCEPTRON. Se abría un camino prometedor que, por desgracia, fue abortado en el inicio: Minsky, que entonces y después mandaría mucho en el destino de los fondos de investigación en Inteligencia Artificial, y Papert[61] destacaron algunas limitaciones del diseño. Se les acusa que, de ese modo, cortaron el grifo del dinero de la DARPA (la agencia militar de investigación americana, que ideó el germen de la famosa red INTERNET) para investigar en aquella dirección, y llevaron el agua a su molino. En la iconografía de muchos científicos del ramo, aquellos pioneros de la investigación del modelo neuronal pasaron a ser un grupito de heroicos Galileos, aplastados por los mandamases de la investigación oficial. Dejando a un lado las dramatizaciones, lo cierto es que en las redes neuronales hay un interesantísimo campo de investigación: han abierto nuevas vías de comprensión sobre los procesos mentales humanos. Se asemejan más a nosotros que las máquinas lógicas. Por ejemplo, una red neuronal -llamada NETtalk[62]- es capaz de ver grupos de letras y generar sonidos. Sin aprendizaje, emite sonidos inarticulados. A medida que se configura según los aciertos, pasa paulatinamente a balbucir. Con entrenamiento suficiente llega a leer tan bien como cualquier persona. Las redes neuronales no se programan, aprenden mediante casos y procedimientos de ensayoerror. Con bastante razón, y notable precipitación, ha salido el habitual grupo de fogosos exaltados que ven en las redes neuronales el nuevo paradigma -el conexionismo- para entender la inteligencia humana de manera definitiva y total[63]. No da para tanto, aunque es verdad que da para mucho. El conexionismo considera a la mente formada por múltiples microunidades distribuidas que trabajan en paralelo, enviándose señales por las que se excitan o inhiben mutuamente. Esas unidades se asocian en módulos interconexionados, que son las distintas partes del cerebro. Pretende evitar las carencias del modelo computacional clásico de la mente, así como dar explicación de la velocidad de procesamiento neuronal, su carácter interactivo, la capacidad de alcanzar una interpretación a pesar de las deficiencias del estímulo, junto con la explicación del desarrollo y el aprendizaje. Motivos para el entusiasmo hay no pocos. Aunque la investigación camina a pasos, sin grandes vuelos, los resultados son muy significativos. Las redes neuronales son candidatas óptimas para resolver una serie de exigencias que un sistema de tratamiento de información capaz de imitar al humano ha de cumplir: "(1) ser, a la vez, estructurado y flexible, (2) afrontar condiciones de degradación parcial del medio interno (organismo) y externo, (3) dar cara a demandas múltiples y simultáneas, (4) asignar significados rápidos, sin necesidad de recurrir a algoritmos exhaustivos, (5) completar patrones conceptuales, perceptivos, etc., sin contar con toda la información lógicamente necesaria para hacerlo, (6) acceder a sus conocimientos por vías diversas, y tener sistemas de memoria en que éstos puedan recuperarse en virtud de sus contenidos, y (7) modificarse adaptativamente en función de las experiencias previas"[64]. Un resumen de lo que las redes neuronales permiten entender del sistema humano -y animal- de procesamiento de la información debe comenzar por la solución de un problema intrigante: la velocidad de cómputo. Por ejemplo: un jugador de tenis debe calcular la trayectoria de la bola que viene hacia su campo, teniendo en cuenta además el efecto que trae -liftada o cortada- según haya sido el golpe del contrario; en función de esos datos debe decidir su propio golpe, con una fuerza y efectos concretos, considerando su posición en la pista y el lugar al que quiere enviar la bola; para conseguirlo ha de controlar su posición corporal y realizar una multitud de movimientos coordinados de numerosos músculos, a los que hay que enviar las órdenes correspondientes. El problema, si hubiera de ser resuelto por un ordenador lineal normal, que hace operaciones sucesivas, supondría una cantidad ingente de cálculos muy complejos. Para conseguirlo en el tiempo que lo consigue un tenista habría de contar con una velocidad y una capacidad de cálculo excepcionales, que muy pocos ordenadores tienen. Sin embargo las neuronas del tenista parecen realizar la tarea sin demasiadas dificultades, a pesar de que su velocidad es menor. ¿Cómo es posible que las neuronas, que pueden cambiar sólo del orden de mil veces por segundo, superen en la velocidad de sus cálculos a los ordenadores electrónicos, que cambian de estado unas mil millones de veces en el mismo tiempo? La solución, como se ha podido ver con las redes neuronales artificiales, consiste en que el cálculo lo realizan muchas neuronas a la vez. Las neuronas se asocian en capas de neuronas interconectadas, y son todas las neuronas de una capa las que simultáneamente cambian de estado. Toda la red tiene que cambiar pocas veces de estado: tantas veces como capas haya. Las redes artificiales, por ahora, suelen tener tres capas y, en comparación con el cerebro, constan de unas pocas neuronas por capa capaces de tener un número limitado de interconexiones entre ellas. En el cerebro hay más de un billón de neuronas asociadas en capas -y de otras maneras- en las distintas estructuras que lo componen. Además, cada neurona puede estar conectada a otras cien mil neuronas diferentes, en distintos niveles y con conexiones especializadas según distintos neurotransmisores. Por ahora el cerebro tiene una velocidad y una capacidad de cómputo imposible de conseguir; aunque ya es posible vislumbrar cómo consigue ser tan rápido algo dotado de elementos tan lentos, en comparación con los circuitos electrónicos. Aparte de la cuestión del tiempo de cálculo, algunas de las propiedades sobresalientes de las redes neuronales artificiales son las siguientes: a) Aprenden por medio de ejemplos: La red aprende mediante entrenamiento, sin necesidad de programación. Se enseña a sí misma mediante su automodificación según los resultados que obtenga. Es un proceso de ensayo-error. Aprende haciendo las cosas o intentando resolver los problemas, no almacenando instrucciones sobre cómo hacerlas, como los ordenadores tipo Von Neumann, que son máquinas lógicas de Turing generales. Una red resuelve muy bien problemas con alto número de datos históricos o ejemplos, en los que sirve más la experiencia que la lógica rígida. b) Gran flexibilidad: A una red neuronal no hay que programarla ni, por tanto, se limita a hacer la tarea del programa. Sus posibles tareas y capacidad de resolución de problemas dependen de lo que se le ayude a aprender. c) Capacidad de generalizar: una red bien ajustada aprende a generalizar rápidamente y es capaz de resolver problemas parecidos, comportándose de forma correcta ante valores de entrada nuevos. Esto las hace idóneas para aplicaciones complejas, como la comprensión del lenguaje oral o el reconocimiento de imágenes. d) Toleran muy bien los fallos: en un ordenador de arquitectura lineal un fallo en un elemento rompe la cadena. En una red se pueden dar cierta cantidad de fallos sin que deje de responder de manera útil. Esta propiedad se suele denominar "degradación elegante". Imagínese que abro el ordenador que ahora estoy utilizando y destrozo un 5% de los circuitos y de la memoria de datos e instrucciones; el desastre lo paralizaría convirtiéndolo en un resto inútil. En una red neuronal es posible hacerlo sin que deje de dar respuestas razonables. e) Memoria asociativa: Las redes son capaces de funcionar con información incompleta y parcial. Generalizan una entrada parcial si es razonablemente parecida a aquellas para las que han sido entrenadas. También son capaces de reconocer algo a partir de ciertos elementos limitados que resulten característicos, como una parte de una figura. Por esto se han utilizado con éxito en la predicción meteorológica o en la identificación de imágenes. f) Funcionan bien con información ruidosa, incluso si es errónea o contradictoria. Cuando la información es muy abundante y poco significativa (ruido), pueden asociar por similitud con ejemplos parecidos y más claros para aproximar soluciones. g) Resuelven problemas en los que se desconoce, o es muy compleja, la relación entre los distintos factores puestos en juego. También aquellos en los que no se conoce el camino que lleva a la solución, y sólo se sabe que haciendo una cosa se obtiene un resultado adecuado, mientras que si se hace otra se fracasa. h) En las redes la información no está almacenada en ningún lugar determinado, como puede ser los dispositivos de memoria en un ordenador clásico. Es la totalidad de la red, en su cambiante configuración de interconexiones, la que almacena la información de una manera holística. En las redes no hay datos ni hay instrucciones de programa para manejarlos, sino una red configurada de una forma determinada mediante el aprendizaje. Por todas estas propiedades las redes neuronales han ampliado el horizonte de los ordenadores, que hasta ahora sólo eran máquinas muy limitadas y rígidas aunque muy veloces, para hacerlos capaces de moverse en un entorno real en el que la información es amplia, variada e impredecible. Ahora bien, no se piense que son la panacea universal de nada. Como herramientas, en sus mismas ventajas residen sus inconvenientes. En primer lugar, las redes neuronales necesitan tiempo de aprendizaje prolongado. No hay forma de programarlas de otro modo: hay que suministrarles un número suficiente de ejemplos y casos adecuados. En segundo lugar, no son útiles para resolver problemas que precisen gran exactitud en los cálculos, o que son susceptibles de solución algorítmica. Por ejemplo: el tratamiento de imágenes -para el que son muy adecuadas- resulta difuso o borroso, precisamente por la forma de tratarlas y por poder reconocer elementos no demasiado precisos. Por último, y es lo peor, no hay manera de saber si una determinada solución es correcta ni porqué lo es, salvo aplicándola. Resulta casi imposible conseguir que una red neuronal se "explique", es decir, diga lo que ha hecho y porqué, cosa que no sucede con un sistema experto. Podría decirse que son más bien «intuitivas» que lógicas. Si tienen experiencia en un campo, porque ha sido bien entrenadas, llegan a una solución ex abrupto, de una vez y en bloque sin hacer un largo recorrido de pasos lógicos. La solución «se les ocurre» de pronto, tras haber consultado con la almohada, es decir, después de alcanzar un estado estable en el que se quedan tranquilas por lo que consideran haber dado con la solución del problema. Pero es muy difícil averiguar los pasos lógicos que han conducido a la solución. Esa manera «intuitiva» de funcionar, aparte de no dar explicaciones, tiene otro problema: hay que «fiarse» de la experiencia y el entrenamiento de la red, y de sus aciertos anteriores, sin que sea posible asegurar o comprobar que la solución es acertada. Porque las redes neuronales artificiales tienen la costumbre de cometer -por así decir- «errores humanos», porque pueden dar soluciones equivocadas. Este fenómeno de los errores es además inevitable: técnicamente se dice que las redes no tienen soluciones convergentes, por lo que pueden ir en la dirección equivocada si encuentran otro estado estable en el que se paran y lo consideran como solución. La única forma de paliar este problema es entrenar muy bien a la red mediante ejemplos bien escogidos, para luego aplicarla a resolver casos de rango semejante a aquellos sobre los que ha adquirido experiencia. Al margen de sus limitaciones, por lo demás muy semejantes a las humanas, parece evidente el interés que tienen los estudios sobre redes neuronales para la comprensión del comportamiento animal, así como para entender el funcionamiento del cerebro del animal humano. Aunque siga habiendo grandes diferencias, porque en las redes neuronales biológicas del hombre y de los animales, las neuronas son órganos vivos, que no sólo tienen una conexiones determinadas, sino que pueden eliminar unas y crear otras. Este proceso es especialmente activo y espectacular en las fases iniciales del desarrollo cerebral, en las que cada neurona lanza sus dendritas y axones hasta establecer conexiones en áreas del sistema nervioso a veces muy alejadas. Con el aprendizaje, en un cerebro joven, las conexiones entre neuronas se modifican muy rápidamente y también mueren muchas neuronas para dejar sólo determinadas configuraciones en las redes. A medida que el metabolismo cerebral disminuye en su actividad, esa plasticidad formal se pierde en gran medida. En el cerebro sucede que -en terminología informática- el software que se va adquiriendo modifica al mismo hardware. Por ahora resulta casi imposible realizar sistemas equivalentes en los que se de una tal interrelación hardware-software; también carecemos de herramientas lógicas para comprenderlo. La plasticidad del cerebro humano, que puede ser su propiedad más sobresaliente, es difícil de emular. Cabe, por ello, sostener que las diferencias son muy manifiestas y, por ahora, excesivas para sacar conclusiones absolutas y precisas. La diferencia cuantitativa -el inmenso número de neuronas- no es muy determinante, pues en lo que a operaciones y cambios de estado se refiere, una red neuronal artificial podrá conseguir una cantidad equivalente a la del cerebro para un mismo tiempo, porque son muchísimo más rápidas. Las diferencias decisivas siguen siendo las cualitativas y formales. Ahora bien, las redes neuronales artificiales han dado muestras de unas propiedades singulares que conviene tener en cuenta para entender el cerebro y los procesos del conocimiento humano. Aunque su semejanza todavía sea escasa, sin embargo no dejan de ser semejantes a las redes neuronales biológicas. "Las características de las redes neuronales son similares a muchas de las exhibidas por los sistemas nerviosos reales, y es eso lo que hace que resulten fascinantes para los científicos interesados en las bases neurales del aprendizaje"[65]. Se convierten así en analogías, pobres y primerizas si se quiere, pero buenas aproximaciones al fin y al cabo del sistema de tratamiento de información humano. Además, las características que manifiestan son, en efecto, semejantes a las del sistema de tratamiento de información del hombre. Han dado muestras de ser muy útiles, por ejemplo, para entender lo que anda mal en el cerebro humano en algunas enfermedades psiquiátricas. Sin embargo, las características de la redes neuronales, y su parecido con el cerebro humano, llevan a plantearse una cuestión inquietante y de gran interés: ¿Cómo es posible que una red neuronal -la humana- haya sido capaz de desarrollar el pensamiento lógico? Si nuestro sistema de tratamiento de la información neuronal es intuitivo, asociativo y holístico, bien ajeno a un funcionamiento lógico-formal y simbólico, ¿de qué manera ha conseguido funcionar, en algunos, en ocasiones y con gran trabajo, de una manera racional y lógica? En definitiva: ¿Cómo una red neuronal, la humana, ha llegado a autoconvencerse de que la única forma seria de trabajar es utilizándose a si misma de manera que le resulta antinatural, mediante la lógica? A lo mejor resulta que el cerebro humano es una red neuronal masoquista, empeñada en ir contra si misma. La cuestión la dejaré abierta. En cualquier caso, con las redes neuronales artificiales se abre una nueva vía, distinta de la que es heredera de Turing, para comprender mejor el conocimiento humano. Resultan así dos modelos, el conexionista y el simbólico, a veces enfrentados, que tienen partidarios y detractores acérrimos[66]. Mi opinión es que están condenados a entenderse, porque los humanos somos animales dotados de una red neuronal biológica (nos vale la aproximación conexionista) que, curiosamente, hemos inventado el lenguaje y la lógica, e intentamos ser racionales (se aplica el modelo simbólico). Pero ya es hora de acabar esta exposición de los logros conseguidos en el empeño por fabricar máquinas pensantes. No voy a referirme a las posibilidades que abre la computación cuántica[67], ni a lo que ya se ha conseguido en la que utiliza el ADN como soporte físico[68]. Tampoco trataré sobre el elemento informático de moda: INTERNET. Sólo quien defienda una idea enciclopedista y erudita de la inteligencia humana podría decir que en INTERNET hay inteligencia; en efecto, la red de redes es cada vez más la Enciclopedia de las Enciclopedias; más aún, es la Biblioteca de las Bibliotecas. En ninguna persona hay tanta erudición como en INTERNET: si usted quiere tener información sobre algún tema, acuda a la RED. Sin embargo, aparte del efecto acumulativo de tener mucha información disponible, no hay en la red ninguna otra operación relacionada con la inteligencia. Por ello la dejaré de lado, para entrar al estudio comparado de lo que hacen las máquinas y lo que realizan los humanos para ver si es lo mismo, o hay alguna diferencia. Capítulo 2 PODA DE SOLUCIONES La discusión sobre los parecidos y diferencias entre la inteligencia humana y la Inteligencia Artificial viene de lejos. A lo largo del tiempo en el debate se han utilizado multitud de razones, de todo tipo. El muestrario de polémicas es muy extenso. No voy a considerarlas todas, porque no es posible, ni tiene demasiado interés hacerlo. De todos los argumentos que se han dado a favor y en contra de la Inteligencia Artificial, sólo analizaré aquellos particularmente enjundiosos. He seleccionado los que apuntan a cuestiones cruciales y que, por otra parte, han producido una literatura más abundante. Procuraré estudiar aquellos enfoques que, positiva o negativamente, me permitan aportar algo de comprensión al problema, sin volverlo más problemático. Teorema de Gödel: ¿Razonar es razonable? Para intentar poner de manifiesto las limitaciones y deficiencias de los ordenadores respecto de la inteligencia humana, una de las líneas de argumentación más utilizadas recurre a un difícil teorema lógico. En el año 1931, el brillante lógicomatemático austriaco de 25 años de edad llamado Kurt Gödel publicó un artículo que le haría famoso, sobre el que han corrido ríos de tinta[69]. En él demostraba un teorema que, de manera fría y técnica, se puede enunciar del siguiente modo: "Si la lógica formal es no contradictoria, entonces no es completa". Soy consciente de que, dicho así en el conciso lenguaje especializado, es difícil captar la trascendencia que tiene este teorema; necesita ser explicado. Es como si nos anuncian que un terremoto alcanzó la intensidad 8 en la escala de Richter; contando sólo con el número resulta difícil hacerse cargo de la ruina y desolación que el seísmo supuso para los que estaban allí. Por tanto, conviene describir lo que el teorema de Gödel supuso para «los que estaban allí»; así será más fácil entender cómo el suelo se ha movido también para todos y en qué nos afecta. Para comenzar habría que situarse en la gran crisis de fundamentación que ha sufrido la matemática a finales del siglo XIX y principios del XX. Aquel trance vino acompañado por una genial creatividad por parte de los que lo protagonizaron. Hasta ese momento estaban pacíficamente establecidas la geometría y el análisis, con más o menos siglos de uso. La geometría, junto con las técnicas de la demostración, venía de los griegos. Por otra parte, Newton y Leibniz pusieron en el siglo XVII las bases firmes para el desarrollo del análisis, verdadera revolución matemática que permitió enfrentarse con éxito a los problemas que surgían para tratar el movimiento, lo que facilitó el gran avance de la física clásica. Los siglos XVIII y XIX son de progreso arrollador e imparable. Todas las ilusiones del racionalismo y del determinismo físico sobre la gran maquinaria del universo parecían al alcance de la mano. La razón y su avanzadilla, las matemáticas, triunfaban y eran adoradas como el deus ex machina para entender y dominar el mundo. Si, como quería Galileo[70], el universo está escrito en lenguaje matemático, entonces se tocaba con los dedos entenderlo en su totalidad. Sin embargo, la misma exigencia de rigor, cada vez mayor y más posible, llevó a plantear más y más a fondo los problemas de fundamentación de la entera matemática. A finales del XIX ese empeño condujo a una teoría del número realizada axiomáticamente; con la notable consecuencia de tener hoy ocupados a los estudiantes aprendiendo una teoría de conjuntos, cuya utilidad se les escapa. También llevó a establecer la matemática como ciencia que se ocupa de estructuras formales, definidas según axiomas y constituidas por objetos asimismo formales, que no tienen por qué corresponder a nada real ni ser de «sentido común», de los que se estudian sus relaciones. El intento consistía en hacer estructuras formales cada vez más completas y consistentes, capaces de abarcar mucho más en su estricta racionalidad. Era una labor ardua enfrentada por una sucesión de verdaderos genios: Cantor, Frege, Dedekind, Peano...[71] Uno de esos autores, sin embargo, fue el primero en arrojar algo de arena a un engranaje que hasta el momento rodaba con suavidad. Cantor, con su sorprendente teoría de los números transfinitos, fue uno de los primeros autores que introdujo un problema serio en aquel proyecto de fundamentación: fue con sus paradojas del infinito y, especialmente, del continuo. Más tarde es Russell el que pone otro obstáculo en el camino, con la famosa paradoja que lleva su nombre. Andando el tiempo las paradojas no hicieron sino aumentar, volviéndose ubicuas. La aparición de las paradojas -esto es de estrictas contradicciones- dentro del gran templo de la racionalidad pura, fue una sorpresa que llevó a la crisis de fundamentación sufrida por la matemática a principios de este siglo. Era como la aparición de la serpiente de la irracionalidad en el paraíso de la lógica. Mientras más se quería ser lógico y racional, más peso y variedad obtenían las paradojas insolubles, que introducían elementos de irracionalidad insoslayable. Su inquietante presencia casi forzaba a concluir: "Razonar ha dejado de ser razonable. Las paradojas muestran el ramalazo suicida de la razón"[72]. Para salir del atolladero en el que se había metido la matemática en su intento de fundamentación, Hilbert propuso establecer unas bases firmes para un esquema formal amplio en el que "se incluirían todos los tipos de razonamiento matemáticamente correctos para cualquier área matemática particular. Además, Hilbert pretendía que fuera posible demostrar que el esquema estaba libre de contradicción. Sólo entonces las matemáticas estarían situadas, de una vez por todas, sobre unos fundamentos inatacables"[73]. Para poder llevarlo a la práctica, Hilbert concretó su programa en una serie de preguntas para las que había que encontrar respuestas precisas[74]. Las más importantes son las siguientes: En primer lugar, las matemáticas, ¿son completas? Es decir: si se quiere que establezcan un sistema formal bien acabado y completo, toda aseveración debe poder probarse, de manera que no haya proposiciones verdaderas que no puedan demostrase, quedando fuera de la sistematización lógica. En segundo lugar, las matemáticas, ¿son consistentes? Con esto se pone el acento en poder comprobar que las reglas lógicas, bien construidas y manejadas, no den jamás lugar a conclusiones erróneas. La última gran cuestión consistiría en determinar si las matemáticas son resolutivas, o sea: dada una proposición, ¿existe alguna manera de establecer con rigor si es verdadera o falsa? A grandes rasgos, este era el proyecto de Hilbert, y ese fue el reto que lanzó a la comunidad científica de matemáticos en el alborear del siglo XX. Pues bien, el sueño de Hilbert fue dinamitado por el teorema de Gödel. Con él queda arrumbada en la cuneta la pretensión de conseguir que la racionalidad lógica se baste a si misma de forma autónoma. Porque, dicho sin tecnicismos, Gödel demostró que es posible encontrar proposiciones verdaderas que, por muy bien que se construya un sistema lógico, no es posible verificar ni refutar. En todo constructo lógico-racional hay verdades «indecidibles»: sabemos que son verdaderas, pero no es posible demostrarlo ni refutarlo. Es más, también demostró que la misma consistencia del sistema formal era una de esas proposiciones «indecidibles», que no se podían probar ni invalidar. El trabajo de Gödel expuso el primer teorema de limitación de los formalismos, al que han seguido otros. Por ejemplo, el Teorema de Tarski (1935): "Existen sistemas formales para los cuales toda interpretación conduce a enunciados a la vez verdaderos y no derivables (demostrables)". Que, formulado con brevedad, podría decir: "Lo que es verdadero no es siempre demostrable"; o también: "La noción de verdad no es formalizable". También Church (1936) aportó su teorema de limitación: "El cálculo de predicados de primer orden es indecidible". Este es un teorema estrictamente sintáctico, que tiene gran fuerza; los dos anteriores acuden a la interpretación de formalismo, no a la estricta sintaxis[75]. Pero, ¿qué interés tiene todo esto para el tema que nos ocupa? Los teoremas de limitación, al mostrar que hay barreras imposibles de salvar para la lógica, ponen también límites a lo que es posible alcanzar con cualquier máquina lógica. Así, por ejemplo, el Teorema de Gödel demuestra que hay una infinidad de verdades -de proposiciones verdaderas- inaccesible para una máquina lógica, a las que sí podría llegar la inteligencia humana. Por este motivo son muchos los que han acudido a los teoremas de limitación para señalar la diferencia entre la Inteligencia Artificial y la humana. Lo han hecho Penrose, Benacerraf, Hofstadter, Tymoczko... y muchos otros[76]. Es casi un lugar común entre los críticos de la Inteligencia Artificial fuerte. No me parece mal que se utilicen los teoremas de limitación en ese sentido. Es válido hacerlo. Aunque resulta inútil para mi propósito. No busco averiguar limitaciones en las máquinas lógicas. Indago acerca de si hay alguna operación que haga la inteligencia humana que sea cualitativamente diferente de las que hacen las máquinas. Investigo si hay un modo humano de ser inteligente. Para esta finalidad los teoremas de limitación no sirven: señalan limitaciones para todos los formalismos. Los utilicen las máquinas o el hombre. "Se trata de un límite que vale tanto para nosotros como para los ordenadores"[77]. Esos teoremas no indican nada específico que haga el hombre, sino que demuestran las limitaciones que también él tiene si se empeña en ser estrictamente lógico. Aunque los teoremas de limitación no sirvan para establecer operaciones propiamente inteligentes, pueden, sin embargo, ayudar a desbrozar el terreno para luego averiguar qué es la inteligencia. La cuestión de fondo que me interesa suscitar es la siguiente: Se puede decir que Hilbert planteó la tarea de llegar a los mismos límites de la razón pura, para fundamentarla. Esta no es una afirmación metafórica, puesto que "las doctrinas acerca de los fundamentos de las matemáticas son también (...) investigaciones acerca del fundamento de la lógica simbólica; la filosofía de las matemáticas es también lo mismo que la filosofía de la lógica simbólica. Con ello, la noción de matemáticas adquiere un grado de generalidad mucho mayor que en las concepciones clásicas, muy alejada de la antigua teoría que las consideraba como ciencia de la cantidad o de relaciones entre cantidades"[78]. Esta afirmación es crucial: debe tenerse en cuenta que al hablar de las matemáticas y de su fundamentación, en realidad nos estamos refiriendo a la lógica y a la misma pretensión racionalista. Los matemáticos, artesanos de la razón y de la lógica, son los que han encontrado el finis terrae, más allá del cual no se puede ir. También, excavando en los cimientos sobre los que se sostienen sus andamiajes mentales, han descubierto que no se sustentan a sí mismos. "El significado filosófico de este hecho es notable: de ningún modo se puede desvincular sin reservas la lógica, aún entendiéndola como mera sistematización formal, del problema de la verdad intuitiva. Si se quieren hacer las cosas con el debido rigor, no puede darse nada que se denomine «cálculo puro», si no se «apoya» en alguna evidencia intuitiva, es decir, si no va a remolque de alguna proposición verdadera"[79]. A la razón hay que darle verdades para que comience a andar, y también para que camine con sentido. En el caso de que lo haga bien, "deberemos tener siempre presente que «sabemos» más cosas sobre un campo de objetos suficientemente complejo que cuantas somos capaces de demostrar"[80]. Hay quien pregunta: ¿eso está demostrado?, buscando el santo grial de la verdad de una afirmación. Después de Gödel sabemos que esa es una manía empobrecedora para el conocimiento. Si no se le dan verdades, sino falsas quimeras, la razón avanza igualmente. Su caminar se llena de las razonadas sinrazones de Don Quijote. Porque razones hay para todo, y para todos los gustos. Dolorosa experiencia tenemos en el siglo XX de que el sueño de la razón produce monstruos, como vio Goya[81]. Si sólo se tiene razón, se tiene muy poco. Lo podemos afirmar con las buenas razones que aportó Gödel. La crisis de fundamentación de la matemática puede considerarse, en gran parte, como la del mismo racionalismo filosófico, en tanto que entroniza a la racionalidad lógica en la cima del pensamiento humano. Me interesa insistir en este punto, porque debe quedar patente que el proyecto investigador de Hilbert, en realidad, no se distingue de aquel que intentaba el racionalismo filosófico. "Hilbert propuso a los lógicos y matemáticos una tarea gigantesca y muy afín al espíritu con que Descartes trataba de encontrar un lenguaje universal capaz de someter a su rigurosa trama deductiva «todos los pensamientos humanos» (...) Su sueño era la culminación de la vieja pretensión formalista"[82]. Los teoremas de limitación fueron el terremoto que volvió inestable el terreno sobre el que Hilbert quería edificar el palacio de la lógica, de la racionalidad pura. Ese terremoto nos afecta a todos, en la medida en que tenemos las ideas de una civilización, la occidental, y una cultura que considera la razón y la lógica como lo más logrado de la inteligencia. Quien considere que pensar, pensar en serio, es sólo razonar y ser lógico, reduce su pensamiento a algo limitado e inconsistente. Sin embargo, es bien difícil librarse del «prejuicio racionalista». Lo tenemos metido en la sangre que corre por las venas de nuestras ideas; está en la entraña de nuestros hábitos mentales; es una de nuestras más firmes creencias[83]. Es una vieja ilusión colectiva, cuya muerte nos negamos a creer, de la que Ortega escribió un buen panegírico: "Que esa lógica tenida por los hombres mejores de Grecia, Roma y Europa como la única cosa intramundana que absolutamente no era ilusión sino algo efectivo y del todo fehaciente, se desenmascarara como una ilusión más que el hombre ha abrigado y ahora pierde: era una utopía, algo meramente imaginario, un desideratum y un ideal que se juzgaba ser una realidad lograda y poseída, y esto, sin interrupción, durante veinticinco siglos, la lógica fue descubierta hacia el 480 a. de C. ¡No es flaca la pertinacia de esa ilusión! ¡Qué más quisiéramos que poseer otras ilusiones que nos ilusionasen durante dos mil quinientos años!"[84]. Tras los lamentos, veamos qué se puede hacer para poner alguna cosa en su sitio. Resulta que la lógica, la razón que razona según reglas de raciocinio, a pesar de todo es un buen invento. No es más que eso: un buen invento. El “copyright” de la idea se lo reparten antiguos habitantes de Grecia y de la India. En ambos lugares se inventó la lógica, aunque en Occidente nos resulta más familiar la proveniente de Grecia[85]. En el resto de la tierra, todas las demás civilizaciones y culturas que conocemos, no parecen haberla echado en falta. La bondad de aquel invento ha encandilado durante mucho tiempo, en especial a los occidentales en la Edad Moderna, que adjudicaron a la razón el monopolio del pensar. En este punto puede ser interesante hacer una digresión histórica. El intento de fundamentar la razón no fue buscado por los racionalistas de la Edad Moderna por dos motivos: en primer lugar, porque tenían una sencilla fe de carbonero en la razón, por lo que no se plantearon en serio su fundamentación o sus límites. En segundo lugar, porque los siglos de mayor fervor racionalista constituyen una época en la que se habla mucho de la razón y de la necesidad de ser estrictamente lógicos, pero la lógica no era una ciencia que en realidad se cultivase. Es curioso constatar que la época que profesó la fe en la razón (siglos XVI a XIX) es, junto con la Alta Edad Media (siglos VII a XI), la menos lógica, o menos «racional», de toda la cultura occidental[86]. Desde que los griegos comenzaran el desarrollo de la racionalidad -del logos- y se iniciase la ciencia de la lógica, no ha habido en Europa épocas más ignorantes que esos dos pozos oscuros de la historia de la ciencia lógica, en los que casi nadie se preocupaba de saber cómo se piensa de forma rigurosa. En el idealismo alemán, por ejemplo, la incultura lógica alcanza niveles sorprendentes. "En cierta manera se trata de una recaída detrás de Platón y Aristóteles, de un regreso a ese nivel de conocimiento de la lógica que se tenía en la escuela Eleática y en la Sofística que le siguió. Entonces, cuando por primera vez se reflexionó sobre conceptos tales como ser, cambio, identidad y predicado, la falta de reflexión lingüística (la interpretación objetiva de determinaciones que en realidad son lingüísticas y el no tener en cuenta las equivocidades) condujo a paradojas" [87]. La época racionalista llega a ser de tal ignorancia, que ha sido necesario redescubrir casi todos los temas de la lógica, volviendo a conectar con el trabajo desarrollado en la Baja Edad Media, época que ha resultado ser mucho más lógica y racional de lo que es común pensar. Nos hemos caído del guindo racionalista. "La sana razón no es tan sana ni tan natural como suele aparentar. Sobre todo no es tan absoluta como se presenta, sino que es el producto superficial de aquella manera de representar que caracteriza finalmente la época de las luces en el siglo XVIII"[88]. Se acabó el monopolio de la razón. Actualmente, conocedores de sus carencias, la hemos privatizado: somos postmodernos. Los teoremas de limitación ofrecen una buena base para los filósofos postmodernos que niegan la existencia del Gran Discurso. No existe LA EXPLICACIÓN, no hay ningún montaje racional de ideas lógicamente trabadas, al que tengamos que prestar veneración, acatamiento y adhesión inquebrantable. Tampoco hay que buscarlo, ni construirlo: es un proyecto que Gödel ha condenado al fracaso. Si queremos ser inteligentes habrá que hacer otras cosas. Somos postmodernos y minimalistas a nuestro pesar. Con desilusión y desencanto. Ya no hay lugar para aquella obra genial, vigorosa y definitiva que nos encumbraría a una fama imperecedera. El ambicioso aliento que impulsó a Descartes, a Kant, a Hegel, a Marx, y a tantos otros, se nos ha convertido en pretencioso resoplido. ¡Malditos sean los teoremas de limitación! Sólo queda consolarnos bordando algún dechado con razones primorosas, bellamente hiladas. Nunca será admirado por todos (siquiera pretenderlo sería políticamente incorrecto) salvo por las visitas emparentadas por la misma «sensibilidad», que dirán discretas alabanzas de una obrita que no tenía más pretensiones. Con un poco de suerte se puede alcanzar una efímera celebridad en los circuitos de las modas culturales. Aunque menos que en las pasarelas. En algunos, el desencanto por la razón se convierte en beligerancia. Así Unamuno: "En rigor, la razón es enemiga de la vida"[89]. También Heidegger se suma a la crítica: "El pensar sólo empieza cuando nos enteramos de que la razón -muchos siglos exaltada- es la más porfiada enemiga del pensar"[90]. Otros, como los autores de la Escuela de Franckfurt (Marcuse, Adorno, Horkheimer...) desvelan un rasgo característico de nuestra cultura, heredera de la modernidad: "La índole racional de su irracionalidad"[91]. En lo que depende del intento racionalista de la modernidad, nuestra civilización muestra los rasgos del enajenado mental que definía así Chesterton: "Loco es aquel que ha perdido todo menos la razón". Se ha terminado el prestigio de la «sola razón»: ella sola no se fundamenta ni da cuenta cabal de sí misma. Dejando las extrapolaciones filosóficas y volviendo a la discusión sobre la Inteligencia Artificial, puede afirmarse que, en la medida que consideramos que pensar es sólo manejar símbolos formales -números, palabras, universales lógicos o lo que se quiera-, no hay manera de asegurar ni su consistencia, ni su completitud, ni su significado unívoco y preciso. Una construcción formal, lógica o racional, siempre es limitada y sólo sirve para lo que efectivamente sirva. Si pensar es sólo tratar formalizaciones lógicas, entonces el pensamiento llega a muy poco y muy limitadamente. Con el inconveniente, además, de que no hay manera de saber a lo que efectivamente alcanza, desde criterios intrínsecos al sistema formal. Por otra parte, lógicas hay muchas. Cada una tiene sus ventajas y sus inconvenientes. No se debe condenar la razón a un monocultivo, que la deje subdesarrollada. Edificios formales de razones se pueden construir variadísimos. No todos tienen que ser como el chalet piloto, cuyo único mérito fue ser el primero y el que más gente conoce. Quien quiera alguno a su medida, que consulte con los matemáticos. Ellos le dirán si es posible hacer, con las actuales técnicas constructivas conceptuales, las modificaciones que pide la casita de sus sueños racionales. Los científicos acostumbran hacerlo así, y no les va nada mal. Suelen edificar sobre seguro. Para acabar este apartado, dejaré abierta una cuestión, para la que no conozco respuestas. Es la siguiente: Los teoremas de limitación afectan a los humanos lógicos y a las máquinas lógicas. ¿Señalan límites también para las redes neuronales, naturales humanas o no- y artificiales, que no parecen ser máquinas lógicas? En la medida en que se consiga que una red neuronal trabaje en «modo lógico», entonces valdrán los teoremas de limitación. Pero las redes neuronales no funcionan así, salvo la red neuronal humana, en las contadas ocasiones que consigue ser «lógica». Una red neuronal trabaja de manera que cabe describir como intuitiva, asociativa, generalizadora, flexible, holística y por aprendizaje. Los teoremas de limitación de los formalismos no parecen competentes para señalar sus imposibles. Para las redes neuronales electrónicas se han descubierto otras limitaciones, como la indicada carencia de soluciones convergentes. Sería interesante averiguar con más pormenor qué limitaciones intrínsecas tiene nuestro sistema de tratamiento de información, formado por neuronas biológicas. Test de Turing: ¿Cómo igualar a las máquinas? En el capítulo anterior he expuesto el papel fundamental que jugó Turing en el desarrollo de los ordenadores. Además, en un artículo de 1950 que se ha hecho famoso[92], Turing también planteó si de esas máquinas, que él había diseñado teóricamente, se podía afirmar que pensaban. Aún más, expuso un criterio bien sencillo y práctico para dilucidarlo, el llamado test de Turing. En esencia consiste en poner una persona y un ordenador en dos habitaciones aisladas. Con ellos es posible comunicarse mediante un teletipo. Si, planteando cuantas preguntas y cuestiones queramos, no somos capaces de distinguir en qué habitación está el ordenador y en cuál la persona, es que el ordenador es capaz de realizar operaciones inteligentes iguales a las humanas. Su opinión personal era que las máquinas superarían el test y, por tanto, deberían ser consideradas inteligentes. Para Turing, como buen lógico, pensar consiste en realizar operaciones lógicas manejando símbolos de manera adecuada. Es indiferente el hecho de que esa tarea la realicen unas neuronas encerradas en una caja craneana de hueso, o se haga por otros dispositivos dispuestos dentro de una caja de chapa metálica o de plástico. Por eso, en el artículo citado, concluye tranquilamente: "Creo que al final de este siglo -el siglo XX- nuestras ideas y opiniones habrán evolucionado lo suficiente como para poder hablar sin rubor de máquinas pensantes". No fue mala profecía. En efecto, sobre máquinas pensantes hablamos y escribimos sin rubor, y con gran abundancia. Precisamente, para salvar los muebles de la inteligencia humana ante la inundación de resultados de la Inteligencia Artificial, al test de Turing se le han puesto no pocas pegas. Por ejemplo: no es válido, porque hace una petición de principio, ya que limita las operaciones a las que pueden transmitirse por teletipo[93]. Sólo sirve si se tiene una teoría representacional y computable de conocimiento, pero no es válido para el conexionismo[94]. Es insatisfactorio, porque no considera la semántica, se limita al intercambio de símbolos[95]. Valga la muestra, porque es enorme el montón de artículos, a favor y en contra, accesibles a cualquier internauta. Puesto a echar mi cuarto a espadas, lo primero que debo decir respecto del test de Turing es que resulta perfectamente válido e irreprochable. También es adecuada la postura desde la que se formula: de poco sirve discutir acerca de qué sea el pensamiento de una manera apriorística, mediante consideraciones teóricas que para nada tengan en cuenta lo que se pueda efectivamente comprobar[96]. Quizá el test de Turing resulte chocante para la mentalidad racionalista en la que nos hemos formado. En ella las razones apriorísticas, verdaderos prejuicios, juegan un papel demasiado relevante para aceptar o rechazar la realidad comprobable, especialmente en el campo de las «humanidades». Sin embargo es un criterio que seguramente gustaría a Aristóteles, para quien las facultades se distinguen por sus operaciones. Es decir, no se distinguen de una manera formal y a priori, sino que reconocemos facultades distintas al observar operaciones diferentes. El criterio de Turing es ese mismo criterio clásico, ceñido al comportamiento o a las operaciones que denominamos inteligentes. En este ámbito su formulación es perfecta. No insisto en este punto porque me parece evidente: si algo hace X es porque tiene la facultad, o la capacidad, o la posibilidad, o la aptitud de hacer X. Las razones contrarias a la validez del test de Turing no me parecen relevantes. Su bondad básica es innegable. Si hay algún campo donde no pueda aplicarse tal como lo formuló, pues amplíese. Si no gusta el teletipo, se puede hacer el test con micrófono y sintetizador de voz. Pueden también servir los aparatos desarrollados para que los humanos se desenvuelvan en entornos virtuales. Para la semántica: pongamos una máquina a competir con un humano contando ovejitas en un prado, o glóbulos rojos en la placa del microscopio, etc. Por otra parte, el criterio de Turing es el que utilizamos continuamente para decidir si una persona es más o menos inteligente: por sus obras, en comparación con las de otros. Puedo tener ante mi una persona inteligentísima, pero si se comporta como una lechuga, jamás lo averiguaré. También establecemos el nivel de inteligencia en los animales con variantes del test de Turing adecuadas a sus capacidades. Turing, con razón, defendió la validez de su criterio, siendo muy consciente del aprieto en que ponía a los contendientes de lo que hasta ese momento era una pura discusión teórica, en su peor sentido. Con ello estableció unas reglas en las que el juego de determinar lo que había de singular en el pensamiento humano era practicable. El test de Turing tiene una enjundia evidente. Si se puede emplear, y es el caso que ahora podemos, resulta insoslayable su aplicación para el que quiera determinar a qué llamamos «pensar». Permite evitar las discusiones en el vacío. Por lo tanto, si fabrico una máquina que es capaz de hacer una determinada operación, que no se puede distinguir de otra realizada por un ser humano y a la que llamo «pensar», entonces hay que concluir que la máquina piensa efectivamente. Del mismo modo que, si construyo una máquina capaz de hacer eso que denominamos «volar», por el procedimiento que sea, entonces he de afirmar que la tal máquina tiene la facultad de volar. Pongo de intento el ejemplo de «volar». Siempre me sorprendió que, en su día, se dieran todo tipo de razones, desde físicas hasta metafísicas, para negar que pudiera volar un aparato más pesado que el aire construido por manos humanas. Para los aviones, como para muchos de los inventos de la Inteligencia Artificial, vale el dicho: lo hicimos porque no sabíamos que era imposible. Frente a las implicaciones del Test de Turing, no se trata de edificar con precipitación algún chiringuito conceptual en el que refugiar con prisa la inteligencia humana para salvarla de la quema. Quedaría en precario fácilmente. Conviene escarmentar con lo que sucedió al vitalismo. Se inventó como cortafuego que salvara la singularidad de la vida ante las pretensiones totalitarias del mecanicismo. Pero: "El vitalismo es una doctrina típicamente defensiva y conservadora; más aún, torpemente conservadora"[97]. Fracasó por el desarrollo de la bioquímica iniciada con la síntesis de la urea por Wöhler en 1828. A riesgo de ser pesado: Considero que el problema es determinar si hay alguna operación incluida bajo el polisémico término «pensar», que no sea capaz de hacer una máquina. La situación actual es óptima para emprender la tarea con una buena base empírica. Para aclarar ideas, invito al lector a un experimento mental, a uno de aquellos Gedankenexperiment que tanto gustaban a Einstein. Imaginemos la puesta en práctica del siguiente test de Turing: yo estoy en una habitación. En la otra habría un grupo amplio y selecto de máquinas pensantes. Las dos habitaciones se comunican con el exterior mediante teclados, micrófonos y altavoces. Pregunta: ¿Es posible averiguar dónde estoy? Respuesta: muy fácilmente, allí donde aparezcan las respuestas menos inteligentes. Lo explicaré. Si el interrogador se atiene a las preguntas de los últimos exámenes de selectividad, o, si lo prefiere, a los temarios de las diferentes oposiciones celebradas en este país durante los últimos años, es fácil entender que los ordenadores responderán mejor que yo. Tendrán más nota en el examen. Mientras más conocimientos abarquen las preguntas, menos posibilidades tengo yo de pasar el test de Turing frente a los ordenadores. Tienen más memoria, almacenan muchos más conocimientos y cuentan con procedimientos de búsqueda muy ordenados y eficaces. En ellos confiamos para recordar. Sigamos imaginando. La prueba se hace por la noche. En las dos habitaciones, el techo de cristal permite ver el cielo estrellado. Las preguntas podrían ser: ¿qué ves?, ¿qué es esto, o aquello?, ¿describe con detalle todo lo que observes que consideres relevante? En este caso las máquinas arrasarían: me gusta ver el cielo en una noche clara, pero sé muy poca astronomía. El experimento mental sólo quiere servir para poner de manifiesto que, en lo que la inteligencia humana tiene de «informávoro»[98] -sistema que adquiere, almacena y trata información- las máquinas racionales son muy superiores. Para observar la realidad no nos consideramos capaces de pasar el test de Turing frente a las máquinas, no merecemos confianza: ante un mismo fenómeno cada cual cuenta su propia historia. Para adquirir información hace tiempo que no confiamos en los sentidos. Por ejemplo: El ojo humano sólo ve una parte pequeña del espectro electromagnético: el rango de la luz visible. Aún en ese caso, si la radiación es débil, se le escapa. Su resolución, los detalles que es capaz de distinguir, también es limitada. Incluso para las cosas que somos capaces de ver, hace falta mucha disciplina y mucho entrenamiento para alcanzar alguna objetividad en las descripciones. En el telescopio espacial Hubble no hay ningún astrónomo mirando las estrellas y galaxias, lo hace una cámara CCD (Charge Coupled Device), mucho más sensible y «objetiva». Igualmente, en las colisiones multitudinarias que se producen en un acelerador de partículas, nadie humano mira nada, porque nada vería. Se espera que un enorme aparato explique lo que ha pasado. Son dos ejemplos tomados de la física de lo muy grande y de lo muy pequeño. Hay muchos más. Un médico que estudia el resultado de un escáner (un TAC), lo que mira es una imagen generada por ordenador. Si ha pagado lo suficiente por el aparato, puede tener imágenes muy bonitas en falso color, para que le sea más fácil interpretarlas. Igual sucede con una Resonancia Magnética Nuclear: al médico no se le pueden dar listas inmensas de tiempos de relajación de spin, de poco le servirían. No somos tan inteligentes como para manejar tantos datos. La máquina, gentilmente, los ofrece digeridos y procesados en forma de falsa imagen. En todas las ciencias, en todas las áreas del conocimiento un poco desarrolladas, la adquisición de información está confiada a instrumentos, que no sólo prolongan nuestros sentidos, sino que los sustituyen y mejoran. La galería de genios de la humanidad está llena de personas consideradas muy inteligentes, porque aportaron muchos datos precisos, mucha información, como Tycho Brahe para la astronomía: puso la base sobre la que edificó Kepler. En esa galería tendremos que incluir cada vez más máquinas. Hacia Marte no se ha enviado a Livingston, ni a Stanley, para que vuelvan con un relato de viajes, y un pobre croquis impreciso del equivalente marciano a las fuentes del Nilo. A Marte se ha dirigido un satélite, el Mars Global Surveyor, que no nos contará sus aventuras, sino que ha elaborado un mapa completo y detallado de la superficie marciana. Es menos romántico, pero mucho mejor para el conocimiento. Para adquirir información las máquinas son insustituibles. Si dejamos la adquisición de información y pasamos a considerar su almacenamiento, la superioridad de las máquinas cognitivas es abrumadora. No entro en la difícil cuestión de desentrañar cómo se las apaña una red neuronal para tener memoria. Mucho menos en el caso de nuestra red neuronal biológica. Tampoco entro en los distintos tipos de memoria que se pueden distinguir. Es un campo de estudio muy activo[99]. En una red neuronal la memoria parece consistir en la misma estructura e intensidad de las relaciones entre neuronas. No es algo tan sencillo como en un ordenador lógico; en él sólo hay memoria de datos y memoria de instrucciones en lugares bien determinados. Sea como sea, tenemos memoria y hemos de pasar el test de Turing frente a las máquinas. Nuestra puntuación será muy baja. Uno de los puntos más débiles de la inteligencia humana es su memoria. Las civilizaciones orales, que dependen de los conocimientos memorizados como narraciones y ritos, avanzan muy poco: dependen demasiado de la memoria individual, que es escasa. Todavía, a finales del siglo XX, se puede estudiar lo poco a que llegan los grupos humanos que permanecen sin escritura. En esos grupos los conocimientos pertenecen a los ancianos de la tribu, si consiguen recordarlos, y mueren con ellos. Unos pocos conocimientos se quintaesencian para ser transmitidos como la memoria humana parece funcionar mejor: en forma de historias emocionantes y rituales ceremoniosos, más que con frías definiciones y datos asépticos. Los mitos, leyendas y ceremonias transmiten, en un caos abigarrado que tiene su encanto, los conocimientos que consiguen aglutinar. Hay mucha sabiduría decantada en ellos, pero difícil de aquilatar: el bosque no permite ver los árboles. Junto a buenas hierbas medicinales está la danza del chamán para ahuyentar los malos espíritus. Escribir y leer, ¡qué gran invento! La palabra escrita fue un buen remedio a las carencias humanas para almacenar y transmitir información. Con la imprenta, la revolución de la copia múltiple e idéntica de información, el avance cognoscitivo fue aún mayor. Para recordar con precisión no acudimos a nuestra memoria, ni a las batallas del abuelo, que tanto nos gustan por ser relatos, aunque no sean exactos. Recurrimos a las fuentes documentales históricas y a las bibliotecas. En especial, los signos escritos soportan muy bien los conocimientos que mi memoria no retiene: fórmulas, datos precisos, la historia real que no llega a ser leyenda, cifras exactas, los términos de un contrato... Información pura y dura. Las bibliotecas son buenos almacenes de información. Aunque demasiado voluminosos y de acceso complicado. Sólo los muy leídos, los ratones de biblioteca que se encuentran cómodos en esos ambientes, saben dónde está la información. El sabio de las civilizaciones orales, el narrador de historias, fue sustituido por el erudito. Sabe dónde está el texto o el documento, y quién dijo o hizo qué. Como es imposible manejar todos los libros, los eruditos suelen serlo por temas: los reyes Godos, la escritura jeroglífica egipcia, las obras de Kant, el arte románico palentino, la Transición, etc. Los Ilustrados se preocuparon por preparar un digesto que hiciera más accesible, y manejable por todos, tanta información libresca: el producto fue La Enciclopedia. Ha tenido muchos descendientes; los más, dirigidos a niños. Son como papillas que tomamos para ver si nos hacemos inteligentes de mayores. La iconografía tradicional coloca a los eruditos entre las personas muy inteligentes. También pone allí a los que exhiben un saber enciclopédico. Estas dos imágenes clásicas del humano inteligente están siendo muy devaluadas por la Inteligencia Artificial. En este aspecto las máquinas racionales superan los test de Turing con ventaja. Si usted quiere saber de un tema, no acuda a un ser humano erudito; conéctese a la red, haga trabajar a un buen programa buscador, y póngase en contacto con las máquinas más eruditas y enciclopédicas del planeta. Quedan cotos reservados (ciertos archivos afamados) que algunos eruditos humanos se resisten a entregar a las máquinas, porque les va el sueldo, pero ya caerán; la digitalización es imparable. Con los eruditos electrónicos pasa lo mismo que con los eruditos humanos: dan información, citas, bibliografía, etc., pero quizá no aporten ni un gramo de comprensión al tema que se quiere conocer. No obstante hay motivos para alegrarse: las máquinas nos resuelven los tradicionales problemas de memoria. Los datos (científicos, literarios, fotográficos, bancarios, históricos, sociológicos, biográficos, artísticos...) están a nuestra disposición en bancos de datos. La facilidad para acumularlos comienza a ser ahora un problema: temo que cualquiera pueda saber y recordar demasiadas cosas de mi. Hay que poner cerrojos a los datos; las máquinas saben demasiado y son ingenuas: se los dicen al primero que pregunta. Vayamos al último punto en el que nos toca superar el test de Turing frente a las máquinas cognitivas: el tratamiento de la información. Me temo que también aquí salgamos malparados. Demos un repaso para ver qué encontramos. Saber fórmulas, aplicarlas a casos normalizados, resolver problemas con las fórmulas. Leer libros, aprenderlos, relacionarlos con otros textos («de autor» a ser posible). Técnicas estadísticas, cálculos (si alguien calcula tan bien como una máquina, que vaya al circo. Ha resuelto su vida). Hacer modelos formales (meteorológicos, o de mercados financieros, o de población), predecir según el modelo, equivocarse según el modelo. Superar baterías de test de inteligencia, arrolladoramente (hay que sacar un buen índice). Relacionar muchos datos, encontrar los que son relevantes, apabullar con los datos irrelevantes. Perderse en círculos hermenéuticos. Controlar procesos reales complejos (líneas de montaje para automóviles, centrales nucleares), perder el control. Presentar una tesis doctoral sobre la aparición de los términos «felón» y «felonía» en la literatura castellana, relación con otras palabras, uso en todas las obras conocidas, paulatina desaparición de ambos términos. Demostrar de forma más sencilla teoremas de los Principia Mathematica, hacer que el mismísimo Russell se interese por ello[100]. Deconstruir textos. Recopilar leyendas yanomanis (decir que son lo más. Se amarra la beca). Aventurar qué sucede con la conservación del momento cinético de la materia colapsada en un agujero negro. Diccionarios de significado, de uso, de términos técnicos, o para traducciones. Jugar al ajedrez (la máquina me gana siempre. No hay modo). Estar al día: borrar la información antigua, incorporar la que aparece en los últimos artículos de la revista de mi especialidad (mejor no borrar la información antigua. Guardarla para artículos históricos, o para introducciones eruditas de los textos propios). Pilotar aviones, estrellarlos. Corregir textos (aprovecho la ocasión para dar las gracias a mi asistente electrónico para sinónimos, al corrector ortográfico y al gramatical. Ser de «ciencias» me tiene desentrenado con las palabras). Pasar los exámenes finales de cualquier carrera, con premio extraordinario. Formar grupos de trabajo para resolver un problema (los mejores grupos de trabajo que conozco, los más coordinados, los forman ordenadores). Escribir muchas palabras sobre las palabras que escribieron otros. Dar soluciones aproximadas a ecuaciones diferenciales mediante series de Taylor... No se dónde buscar. Las máquinas racionales están invadiendo todas las áreas inteligentes. Cada vez dejan menos hueco para que podamos pasar el test de Turing con la cabeza alta. Estamos en retirada, vencidos y humillados. En las tareas que requieren inteligencia, donde no se colocan máquinas para llevarlas a cabo, es porque no compensa económicamente el gasto de su desarrollo. Resulta más barato que lo hagan humanos inteligentes, aunque puedan tratar menos información, sean más lentos, y cometan errores. Valen para el Ministerio de Cultura, pero no para el de Hacienda. Donde el tratamiento de información va en serio y hay mucho en juego, las máquinas son imprescindibles. Aquí suscribo la profecía de Moravec: "La inteligencia de un robot sobrepasará la nuestra antes ya del año 2050. Habrá entonces robots científicos formados y educados, producidos en serie, que trabajarán de manera inteligente, económica, con rapidez y eficacia crecientes, lo cual garantizará que la mayoría de los conocimientos que la ciencia atesore en el 2050 habrán sido descubiertos por nuestra progenie artificial"[101]. Hasta aquí el juego de imaginar que nos enfrentamos al test de Turing frente a máquinas racionales. ¿Qué se puede deducir? Es obvio que se nos ha hundido el paradigma sobre la inteligencia humana con el que habíamos vivido hasta ahora. Con él hemos diseñado la educación, el proceso de formación de humanos para considerarlos inteligentes; damos los premios y distinciones; hemos fabricado una Antropología, una Psicología y una Pedagogía; establecemos los modelos y las metas; medimos gran parte del nivel de civilización y de progreso; construimos muchos de los ideales en que creemos vale la pena poner la propia vida. Es el paradigma desde el que Turing hizo su acertada profecía. Ateniéndose a ese paradigma, Turing tiene más que razón: no es que hablemos sin rubor de máquinas racionales, es que lo son más que nosotros. Ese marco conceptual o paradigma comenzó, en Occidente, con los griegos. Algunos de ellos, ya lo veremos, no se lo acabaron de creer. En la Edad Moderna, a partir de Descartes de modo explícito, lo hemos profesado a pies juntillas. Descartes inventó la separación entre res extensa (lo material y extenso) y res cogitans (la cosa -vaya palabra premonitoria- pensante). Confinó la inteligencia humana en aquella abstracta racionalidad espiritualizada, dotada de sustancia propia, a la que llamó res cogitans. Inicia una camino teórico y práctico que nos ha llevado donde estamos. El avance ha sido espectacular, aunque no nos haya conducido al paraíso racionalista que muchos soñaron. No hay que desandar el camino: se nos ha vuelto espléndida carretera, con veloces máquinas para recorrerla. Hay que inventar nuevos caminos. Llegados a este punto, produce asombro constatar cómo el intento de Descartes y Leibniz de racionalización absoluta, junto con la separación de la res cogitans y la res extensa, es el que andando el tiempo ha conducido a realizar operaciones racionales mediante máquinas. "Lo que resulta paradójico es que fueran precisamente ellos, Descartes y Leibniz, los que profundizaron en un campo de reflexión (que había transitado antes Llull) que iría a parar finalmente en la negación de la diferencia insalvable entre mentes y máquinas: en la Máquina de Turing, los ordenadores y la concepción «mecanicista abstracta» de lo mental, que caracteriza el paradigma dominante de la psicología cognitiva. ¿En que consistió ese camino? Descartes y Leibniz dieron los primeros pasos hacia el ideal de definir un lenguaje lógico universal que fuese capaz de asegurar el rigor deductivo de cualquier clase de razonamiento, y evitar disputas inútiles entre los hombres acerca de todo aquello que puede resolverse por medio de un algoritmo. De forma que los racionalistas ya imaginaron la posibilidad de un autómata abstracto y universal, como lo es el de Turing. Lo que no preveían era que esa imagen (sobre todo al encarnarse en la fría piel de los ordenadores) terminaría por echar por tierra su explícita negación de la posibilidad de reducción mecanicista de la mente"[102]. Por muy paradójico que resulte el camino, la res cogitans se nos acaba de morir, ya sólo queda la res extensa. Para nuestra sorpresa, la res extensa cartesiana ha resultado ser bastante cogitans. En especial si la res cogitans se reduce, como quería Descartes en gran parte y luego popularizó el racionalismo ilustrado, a un conjunto de habilidades matemáticas, lógicas, o formales. Esa res cogitans podemos fabricarla ahora a partir de la res extensa, y no existe el problema de ver cómo se relacionan. No son substancias separadas y de difícil comunicación. La Inteligencia Artificial deja al dualismo cartesiano sin sentido. Si el cogito, si pensar, consiste en una pura capacidad racional o formal, pertenece también a la máquina extensa material. En la res extensa hay más logos y capacidad de logos de la que nunca pensó el racionalismo. Si se ordena y dispone la res extensa de forma adecuada, la materia deja de ser la mostrenca extensión cartesiana. Se vuelve capaz de igualar a los racionalistas más conspicuos, que la miraban con displicencia instalados en la falsa superioridad de la res cogitans. Cogito, razono, luego me ganan las máquinas. Hay un lado muy bueno en este asunto. Resulta que en los ordenadores tenemos a nuestra disposición, como metido en la lámpara de Aladino, al genio que adoraron los racionalistas. Gracias a los trabajos de la Inteligencia Artificial escapamos a la esclavitud de la razón, con su insalvable dictadura lógica, y la ponemos al nivel de mero instrumento humano. Además, Gödel y sus sucesores han desvelado las desnudeces de aquel emperador pretenciosamente vestido. En una palabra: a la Diosa Razón, que los ilustrados franceses entronizaron en Notre Dame, le hemos puesto en las manos un cubo y una fregona: la tenemos trabajando para nosotros. Ahora se trata de averiguar lo que es capaz de hacer, junto con la mejor manera de darle buen uso, para que no se desmande de nuevo y vuelva a exigir adoración. También debemos agradecer a todos los que trabajan en Inteligencia Artificial el habernos librado de una imposible y agotadora tarea: buscar la quimérica resina epoxi conceptual que uniese la res cogitans con la res extensa. Han conseguido que la res extensa sea extraordinariamente racional, del todo lógica. Puede cesar la búsqueda. De camino recuperamos la posibilidad de entendernos sin acudir a ideas que nos partan por la mitad. Otra cuestión, que de aquí se deriva, es si la denominación de animal racional indica suficientemente lo específico humano. Es evidente que esta pregunta toca un aspecto central de la antropología. Pues bien, a mi parecer, estamos en condiciones de responder negativamente a la pregunta. Si por racional se entiende la capacidad de manejar símbolos formales, de hacer constructos racionales, de moverse en un plano lógico, de hacer demostraciones deductivas o inductivas, o de aprender mediante símbolos nuevos, entonces resulta que no por eso el hombre es un ser singular. En el árbol de Porfirio, táchese racional como diferencia específica para el animal humano. Las máquinas están resultando ser mucho más racionales que el hombre. Si hay algo singular en los seres humanos, habrá que buscar por otro lado. Por ahora estamos aprendiendo a utilizar, para pensar racionalmente, otras cabezas artificiales porque resultan más dotadas que la nuestra. En la tarea hay éxito y buenos resultados. Nada importa llegar a un sitio utilizando las propias neuronas, o unas tomadas en préstamo, si lo hacen mucho mejor y facilitan la trabajosa tarea de adquirir, almacenar y procesar la información. Pero dejo las alturas filosóficas y vuelvo a los terrenos informáticos. No somos animales racionales y las máquinas lógicas nos vapulean en los test de Turing: cierto. Sin la facilidad de las máquinas, sólo consigo ser lógico a veces: cierto. Pero hay un asunto que me intriga. ¿Cómo unos bípedos dotados de cerebro hemos conseguido inventar la lógica, creernos el invento hasta venerarlo, y luego fabricar las máquinas lógicas, para que nos ganen en los juegos racionales? ¿Cómo los animales humanos nos las hemos compuesto para conseguir esa hazaña con la única dotación de una red neuronal? Otros animales las tienen, y muy apañadas. El hombre de Neanderthal incluso estaba más dotado: 1.500 cc. de cerebro, frente a 1.300 cc. en el homo sapiens sapiens, de media. Los animales dotados de mejores redes neuronales, cercanos filogenéticamente como el chimpancé o lejanos como el delfín, tras años de entrenamiento no pasan sino test simbólicos mínimos, que son significativos sobre todo por el entusiasmo de sus entrenadores. También quisiera saber de dónde viene, por ejemplo, la afición por los números, que ha llevado al mono desnudo a inventarlos, a imaginar nuevas formas de representarlos y hacer operaciones, o a realizar la pirueta mental en el vacío que supone el número cero...[103] Así durante milenios, en un paulatino y trabajoso avance, porque a nuestra red neuronal no le resulta natural manejarlos. Así, también, hasta hacer una teoría de los números, para saber qué era eso con lo que hemos estado trasteando durante tantos siglos. No es nada fácil -quienes trabajan en redes neuronales lo saben bien- conseguir algo semejante. ¿Qué hace falta para que una red neuronal trabaje en «modo lógico»?; ¿cómo es posible conseguirlo?; ¿por qué los niños se aclaran con las máquinas lógicas -los ordenadores- mejor que los adultos?; ¿por qué sólo los matemáticos jóvenes parecen capaces de hacer aportaciones fundamentales?; ¿hace falta una plasticidad especial del cerebro que luego se pierde? Son preguntas cuya respuesta me gustaría conocer, junto a mucha otras. Me intriga una red neuronal, la humana, que se atreve a afrontar el test de Turing frente a máquinas lógicas, aunque no lo haga brillantemente. La habitación china de Searle: ¿Sabemos de qué hablamos? Si se hiciera una lista de los argumentos más nombrados en la polémica sobre la Inteligencia Artificial y la humana, el primer lugar quizá correspondería al de Searle [104]. Es una variante, en forma de Gedankenexperiment, del test de Turing, que incide en un aspecto particular de lo que llamamos conocer. El lector ya se ha entrenado en este tipo de ejercicios mentales en el apartado anterior. Como el mismo Searle se ha tomado el trabajo de exponerlo en forma sencilla, me limitaré a transcribir sus palabras, resumiéndolas: "Tomemos un idioma que no comprendamos; en mi caso tal idioma puede ser el chino (...). Supongamos ahora que me instalan en una habitación que contiene cestas repletas de símbolos chinos. Supongamos también que me proporcionan un libro de instrucciones en español, con reglas que estipulan cómo han de emparejarse unos símbolos chinos con otros. Las reglas permiten reconocer los símbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos (...). "Imaginemos que personas situadas fuera de la habitación y que sí comprenden el chino me van entregando pequeños grupos de símbolos, y que, en respuesta, yo manipulo los símbolos de acuerdo con las reglas del libro y les entrego pequeños grupos de símbolos. Ahora, el libro es el «programa informático»; las personas que lo escribieron son los «programadores» y yo soy el «ordenador». Los cestos llenos de símbolos constituyen la «base de datos», los pequeños grupos que me son entregados son «preguntas» y los grupos que yo entrego, las «respuestas». "Supongamos ahora que el libro de instrucciones esté escrito de modo tal que mis «respuestas» a las «preguntas» resulten indistinguibles de las de un chino nativo. Por ejemplo, la gente del exterior podría entregarme ciertos símbolos, desconocidos por mí, que significan: «¿Cuál es tu color favorito?», y que tras consultar las instrucciones del libro yo devuelvo símbolos, desconocidos por mí, que significan: «Mi favorito es el azul, pero también me gusta mucho el verde». Estoy superando el test de Turing en lo que a comprender el chino concierne. Y, al mismo tiempo, ignoro totalmente el chino. Y en el sistema que estoy describiendo no hay forma de que yo llegue a comprender el chino, pues no hay forma de que yo pueda aprender los significados de ninguno de los símbolos. Estoy manipulando símbolos, lo mismo que un ordenador, pero sin adscribir significado a los símbolos. "El propósito de este experimento mental es el siguiente: si yo no comprendo el chino basándome solamente en el funcionamiento de un programa informático para comprender el chino, tampoco lo comprende entonces, con ese mismo fundamento, ningún otro ordenador digital. Los ordenadores digitales se limitan a manipular símbolos de acuerdo con las reglas del programa. "Lo dicho para el chino vale igual para otras formas de cognición. La mera manipulación de símbolos no basta, por sí misma, para garantizar cognición, percepción, comprensión, pensamiento, y así sucesivamente. Y dado que los ordenadores, en su cualidad de tales, son dispositivos de manipulación de símbolos, la mera ejecución del programa no basta para garantizar la cognición"[105]. Hasta aquí el argumento. Se puede condensar así: un ordenador es capaz de sintaxis, pero no de semántica. Esta es la diferencia cualitativa crucial que indica Searle entre las máquinas cognitivas y la inteligencia humana. Afirma que en el pensamiento humano hay semántica, contenido real y comprensión de ese contenido. En las máquinas, por el contrario, sólo hay sintaxis, un manejo de símbolos formales que no saben a qué se refieren. Para valorar el argumento iré por partes, por si es verdad que ofrezca alguna pista para la búsqueda en la que estoy embarcado. Para empezar, hay que anotar un acierto: distinguir entre sintaxis y semántica sirve para desliar un poco más la madeja de nociones ocultas detrás de lo que llamamos «pensar». Pone sobre la mesa un tema crucial. La distinción que hace Searle corresponde con la que hiciera Frege entre «sentido» (Sinn) y «referencia» (Bedeutung, significado, meaning)[106]. Una cosa es lo que se refiere a la arquitectura conceptual de las ideas (el Gedanke fregiano, el Satz as sich de Bolzano, el Objektiv de Meinong, o el objeto puro de Millán Puelles[107]). Otra, muy distinta, es la semántica, significado o referencia que consiga alcanzar. Por ejemplo, puedo escribir la siguiente frase: «El Emperador Nerón ganó tres medallas de oro en la Olimpíada de Atlanta». La frase se entiende, está construida con una sintaxis gramatical correcta: tiene sentido. Lo que dice está claro, pero no es cierto. Le falta referencia, semántica. Lo que declara es falso, porque el Emperador Nerón (siglo I d. C.) tiene muy difícil ganar nada en Atlanta (siglo XX d. C.), ni siquiera por poderes. La relación entre sintaxis y semántica tiene muy ocupados a los lógicomatemáticos. La cuestión se ha vuelto urgente desde el descubrimiento de las paradojas y los teoremas de limitación. Toda sintaxis que aspire a algo, que quiera abarcar de manera coherente un buen puñado proposiciones demostrables, teoremas, etc., necesita un empujoncito de semántica para echar a andar, y de unas cuantas raciones más para no descalabrarse o acabar desquiciada. Hay gran revuelo de trabajos con distintos enfoques[108]. El paradigma formalista de Hilbert murió de muerte natural hace tiempo. La fundamentación hay que buscarla por otros derroteros que los sintácticos. Pero no es sólo la fundamentación de los formalismos lo que está en juego. Searle, con razón, pone el acento en otro asunto que es esencial para el conocimiento. Los símbolos formales, de una manera directa e inmediata, no tienen nada que ver con la realidad "exterior". Sólo tienen que ver consigo mismos y con las interrelaciones que imponga la estructura del sistema simbólico. En este sentido los estudios de lógicos y estructuralistas son convincentes. De hecho los símbolos consiguen formar un mundo cerrado, aunque no completo ni consistente (Gödel), que por sí mismo no tiene relación con nada. Esta afirmación es particularmente válida para los símbolos estrictamente formales, como los utilizados en lógica y matemáticas. Para los matemáticos resulta cierto el dicho de que son las únicas personas que no saben de qué están hablando, y además no les importa (esta afirmación puede parecer peyorativa, pero luego se verá que no lo es en absoluto). Por eso es posible realizar máquinas perfectamente lógicas que analicen y resuelvan intrincados problemas que no sirven para nada ni tengan que ver con cosa alguna: son superracionalidades inútiles. Una cosa es diseñar un lenguaje de símbolos y fabricar un artilugio capaz de manejarlos de acuerdo con ciertas reglas. Otra, muy distinta, es conseguir que esos símbolos se refieran a algo real, y que las reglas mediante las cuales se manipulan modelicen adecuadamente sus relaciones reales. Haber fabricado el mejor software del mundo, muy alabado por todos los especialistas por su sencillez y potencia, no asegura que sea aplicable para resolver ningún problema real. Los problemas de relacionar sintaxis con semántica no son nada fáciles. Los lógico-matemáticos trabajan duramente la cuestión, y en ellos confío para que vayan ofreciendo soluciones. Para mi consuelo, en medio de esta barahúnda de enigmas sin resolver, encontrar el argumento de Searle supone un alivio. No he de agobiarme: los problemas de separar la sintaxis de la semántica sólo afectan a los ordenadores. Lo que yo digo y pienso tiene semántica, porque no soy una máquina. Saberlo me tranquiliza, aunque me gustaría ser un poco más «máquina» y pasar con mejor puntuación los test de Turing frente a las máquinas cognitivas. Sin embargo, a pesar del sosiego que suponen sus palabras, mucho me temo que no debo creerle. ¡Qué más quisiera yo que este libro que escribo tuviera semántica! ¿Conseguiré decir algo que tenga que ver con algo real, o sólo añadiré un montón de palabras sobre un tema que ya tiene demasiadas palabras acumuladas? Con el fin de mostrar las dificultades, antes de tomar altura especulativa y perderme en una nube de palabras, intentaré afianzar mis pies en un terreno más seguro, que para todos sea posible comprobar con facilidad. Acudiré a lo que sabemos con alguna certeza sobre los animales y los ordenadores, para volver luego al hombre, en el que estoy interesado, porque es mi caso. Sea un gato que, por juego, he arrojado hacia el techo con las patas hacia arriba. El pobre se ve en la difícil situación de caer hacia el suelo en mala posición, con riesgo de desnucarse. Sin embargo, unas contorsiones en el aire le permiten cambiar de postura, caer flexiblemente sobre las patas, y mirarme con displicencia gatuna. Al gato le ha funcionado la semántica. Para conseguirlo ha tenido que hacer un montón de cosas y todas bien. Obtener dos imágenes por ojos algo separados, con el fin de tener visión estereoscópica. Procesar bien ambas imágenes, con los tiempos de retardo. Conocer su postura en el aire. Tener la posición respectiva de músculos y huesos, dar las órdenes adecuadas a los músculos convenientes. Poner a tono el organismo para el esfuerzo urgente: adrenalina en sangre, situación general de estrés... Requiere todo un cúmulo de cosas que las ciencias correspondientes van desentrañando. Para otras especies las cosas son distintas. El ojo de la rana ve del mundo lo que está en movimiento; come la mosca que se mueve. Del prado que tengo frente a mí, no sé qué ve la libélula con sus ojos multifacetados, pero no le va mal después de haber estado años mirando como un pez en el agua cuando era larva. ¿Cómo consiguen hacer fácil los animales tanta cosa con la que no se aclaran pléyades de científicos? ¿Cómo consiguen tener semántica? Por el sencillo procedimiento de que los animales sin semántica no se reproducen, mueren antes de conseguirlo. ¿Tienen semántica los sistemas de tratamiento de información de los animales?: la tienen. ¿Cómo la consiguen?: sobreviviendo. Las especies cuyo sistema nervioso no tiene semántica -no se ajusta al medio o al entorno- desaparecen. La misma evolución (los cambios del planeta) se encarga de asegurar que sobrevivan aquellas que desarrollan semánticas precisas. Los animales que no tienen sistema autónomo para tratar información (vgr. bacterias), sobreviven si tienen adecuados mecanismos de acción-reacción. Los que tienen sentidos especializados y sistema nervioso para tratar información pueden hacer más variada la respuesta, porque añaden un paso: estímulo-tratamiento de la información-respuesta. Las redes neuronales de los animales (y del hombre) tienen más fácil adquirir semántica que las máquinas simbólicas. Precisamente porque las redes neuronales (biológicas y electrónicas) no se programan con símbolos que manejan otros símbolos. Aprenden mediante casos, reorganizando su estructura y la intensidad de sus conexiones, de acuerdo con el acierto de las «salidas» ante distintas «entradas». El procedimiento es de ensayo-error: una pura programación semántica. Un cachorro configura su red neuronal, desde los titubeos iniciales, para que ofrezca cada vez respuestas más precisas mediante juegos, fallos, movimientos, caídas, pruebas, tentativas, batacazos, prácticas, tropezones... El cachorro que tenga mal la red neuronal, de forma que no sea configurable para que adquiera semántica mediante la práctica, tiene difícil su supervivencia; no llegará a adulto y no dejará descendientes. Las redes neuronales defectuosas, sin semántica, son desechadas. Si sabemos cómo funcionan las neuronas de un animal, es posible despistarlas: el ganso que sale del huevo considera que lo primero que ve moverse es su madre. Para su desgracia, a veces es un etólogo que lo está sometiendo a estudio, y le sigue a todas partes. Vayamos ahora a los signos que usan los animales. Sea el caso de esas Mata-Hari topográficas que son las abejas. Día de primavera, fresco y soleado. La laboriosa abeja abandona su colmena en busca de flores; al rato encuentra un prado idílico. Vuelve a la colmena y danza para su público preferido. Con la amplitud, velocidad y diámetro preferente de los círculos que describe, transmite la dirección (respecto del sol), distancia y abundancia de la fuente de alimento que ha descubierto. Si todo se hace como es debido, como se ha hecho siempre, entonces todo va bien. Las otras saben a qué atenerse. Las colmenas con abejas «creativas», que no se ajusten al canon de danza un día me marco un chotis, otro un tango-, están condenadas a la extinción. Si se produce una deriva paulatina, que permita ajustes, puede que tenga éxito: la abeja pasará de Mata-Hari a Isadora Duncan en sus danzas cartográficas. Igual sucede con todos los signos que estructuran las distintas hablas animales: posturas, gritos, danzas, actitudes, sonidos, gestos, colores, cantos, muecas... ¿Tienen semántica los signos que utilizan los animales? Es decir, ¿transmiten información sobre la realidad? Mi respuesta es: si efectivamente sirven, la tienen. Es como decir: la tienen, si la tienen. Pueden no tenerla: abejas que salgan con danzas extrañas se pueden conseguir en el laboratorio, porque somos capaces de enloquecer a casi cualquier animal. De vuelta a la colmena pueden bailar hasta el desfallecimiento, pero a las otras abejas no les servirá de nada, no les transmitirán ninguna información. Un joven macho de gorila confundido puede, como «signo de sumisión», incorporarse y mostrar los caninos. Durará bien poco: los machos dominantes no consienten esos errores. Suelen formar una Real Academia del Habla Gorílica bastante dura. Pasemos a las máquinas cognitivas. No me atrevo a decir, como Searle, que carecen de semántica, que no saben habérselas con la realidad. Algunas sí y otras no. Las máquinas estrictamente lógicas, que manejan símbolos según reglas, por sí mismas no tienen semántica. La interpretación de los símbolos corre a cargo del que las utiliza. En este caso debo dar la razón a Searle. Sin embargo, las máquinas que funcionan en entornos reales, si lo hacen con éxito, es obvio que tienen semántica. Además ya he dicho que para la adquisición de información, de semántica, confiamos en máquinas. Sin las máquinas instrumentales la realidad que estudiamos y de la que hablamos regresaría a la pobreza e imprecisión de nuestros sentidos. Perderíamos las ondas de radio, que no se ven ni se oyen; peor aún -es un drama inimaginable- nos quedaríamos sin televisión. Dejaríamos de hablar de células, rayos cósmicos, proteínas, galaxias... Para ajustar la semántica de las máquinas cognitivas no solemos acudir a procedimientos masivos de ensayo-error. No tenemos el tiempo necesario, y es muy caro. No obstante, podría hacerse. Imagínese que he diseñado un nuevo sistema de seguimiento de terreno para aviones en vuelo a muy baja cota. La manera de ver si funciona es probarlo de manera exhaustiva y metódica, pues aunque funcione grosso modo, pueden darse ciertas situaciones en las que la respuesta del sistema conduzca a la catástrofe. Para conseguir la eficacia por la vía que siguen los animales, la estrategia debería ser fabricar muchos sistemas de control de vuelo a baja cota relativamente parecidos, basados en modelos anteriores bien probados y eficaces, e implantarlos en muchos aviones también con ligeras variantes. Los que no se estrellen y vuelen mejor adaptándose más al terreno serían los que continuaría fabricando: se seleccionarían los sistemas con semántica por la simple supervivencia de los más aptos. Desde un punto de vista industrial el procedimiento no es muy aceptable, pero en la naturaleza se hace habitualmente. ¿Qué sucede en el caso del hombre? Nuestra situación es algo más compleja porque, por un lado, estamos dotados de una red neuronal, que ajusta su semántica mediante aprendizaje. Además, por inexplicable que parezca, conseguimos que nuestra red neuronal llegue a funcionar como una máquina simbólica. Si dejamos a la red neuronal en paz, sin forzarla a utilizar símbolos, la semántica no ofrece demasiados problemas. Si estoy sano, sin alucinaciones, con los sentidos en forma y me muevo en un entorno conocido, sobre el que tengo experiencia, entonces la red neuronal se ajusta sola: su primer contenido será semántico. Si me traslado a un entorno nuevo, quizá no me atreva a tomar una fruta jamás vista antes para comerla: he de aprender para configurar mis neuronas. Si, por ser del trópico, nunca he caminado sobre el hielo, deberé ensayar hasta adquirir alguna soltura -semántica- de movimientos al pisar un lago helado del norte. Los niños juegan, ensayan, exploran...; ajustan la semántica de su red neuronal al ambiente y a su cuerpo. Si, por la mucha edad, la red neuronal tiene poca flexibilidad, entonces los ajustes semánticos serán lentos, incluso imposibles. La red neuronal humana es la de un animal que intenta ser todo lo racional que se quiera, pero que sigue siendo un organismo biológico. No es un sistema de tratamiento de información independiente, que sólo necesite una fuente de alimentación de energía. La red neuronal está integrada en un organismo que siente, se mueve, grita, sufre, ríe, juega... La interrelación con los sistemas neuromotor y neuroendocrino es mutua y constante. Nunca es capaz de la pura racionalidad de las máquinas cognitivas. Aquí también la utopía del racionalismo es imposible. Nuestra inteligencia es emocional[109]: irritable, alegre, obsesa, inquieta, satisfecha, deprimida, ilusionada, ofuscada, serena, desazonada, tranquila... Bueno es redescubrirlo, como nos está ayudando a hacer la Psicología. Si expulsamos a los sentimientos por la puerta de las teorías, se colarán por las ventanas de la vida. Serán -ya lo son- Hollywood y afines, que sí saben cómo tratar los sentimientos, quienes manden en la existencia real y cotidiana de las personas. El espiritualismo exento, desencarnado, de la fría y calculadora res cogitans tiene poco que ver con lo que somos. Incluso podemos indisponer la red neuronal, y enfermar nosotros, si la forzamos con estrechos corsés racionalistas, por más que se vendan como panaceas, o estén de moda. Los modos de vivir que imponen la mecánica de la eficacia, la utilidad, o el éxito, nos enferman: son malos tiempos para la lírica. La separación entre res cogitans y res extensa nos ha condenado a malentendernos y maltratarnos. Volvamos a la semántica. Me viene un recuerdo: Primavera en Sierra Nevada, hace años. Tras varios días buenos se desató una fuerte ventisca. Pilló al descampado a tres montañeros alemanes. Sobre el albergue se encendía un foco; con su ayuda dos de ellos llegaron al refugio. El tercero, agotado, se quedó, resguardándose dentro de un tubo de hormigón de las obras de la estación de esquí. Salimos a buscarlo y le hallamos. Con un gesto rechazó el abrigo (no lo necesitaba, iba bien equipado y el tubo daba buena protección). Me miró y luego dirigió sus ojos a mi mochila. La abrí y desplegué el contenido: un termo de té muy caliente y azucarado, galletas, pasas, barritas de chocolate... Me miró de nuevo, y algo vio en mi cara que le animó a lanzarse sobre la comida, que engulló metódicamente en silencio. Fueron unos momentos de directa e intensa semántica. Entre nosotros parloteábamos excitados, con él no medió palabra. Cuando «median» las palabras, los símbolos, el asunto se complica. La semántica ya no es directa (respecto de lo externo) ni sentimental (en función de nuestros estados internos), pasa por la problematicidad referencial de los signos. Veo el árbol, me acerco, me atrae la fruta, alargo la mano y la cojo, muerdo, me gusta. Hasta aquí todo va bien. Pero, ¿qué fruta es?, ¿cómo se llama? Discutimos un rato: es un melocotón. No, es un albérchigo. Me parece que es una de esas frutas nuevas; nectarinas las llaman. Pues yo creo que es un albaricoque. Nos acercamos a la casa: ¿señora, nos podría decir usted qué fruta es ésta? Como idiomas hay muchos, en cada rincón del mundo podríamos recibir una respuesta diferente, de la que podríamos hablar durante horas. "Cualquier cosa puede decirse y, en consecuencia, escribirse sobre cualquier cosa. Apenas nos detenemos para observar o apoyar este lugar común y, sin embargo lo habita una enigmática enormidad"[110]. Las palabras, los signos y símbolos formales, no tienen semántica, ni sabores, ni sentimientos: se los asignamos. A veces, ni eso: ¿qué significa supercalifragilisticoespialidoso? Nada, pero era una bonita canción. Pensar que nuestras ideas, palabras, etc. tienen semántica, es un optimismo excesivo. Suponer que en lo que yo pienso y digo hay semántica, es mucho suponer, aunque agradezco que alguien, como Searle, piense así y me anime a seguir añadiendo más palabras a las que ya he escrito. ¿Qué semántica tiene la sección de horóscopos de un periódico? ¿A qué causa real me refiero cuando explico el comportamiento de fulano diciendo: claro, es que es piscis? Si en mis palabras siempre hubiera semántica, no podría pasarme toda la semana discutiendo si hubo o no fuera de juego, en la misma jugada que todos vimos igualmente. Una máquina cognoscitiva daría un resultado preciso con exactitud: se nos acabaría la diversión. En las conversaciones diarias, los símbolos -las palabras- no consiguen independizarse del todo de la semántica afectiva inmediata de la red neuronal. Los lingüistas afirman que la distinción entre sintaxis y semántica no se puede aplicar rígidamente al lenguaje normal. Son dos aspectos tan entremezclados, que la distinción estricta entre ellos carece de semántica: es poco real. Por eso hablan de pragmática del lenguaje. Porque, además, el lenguaje sirve para muchas cosas: "Ordenar y actuar por órdenes. -Construir un objeto a partir de una descripción (un dibujo). -Informar de un acontecimiento. -Establecer una hipótesis y probarla. -Presentar los resultados de un experimento por medio de tablas y diagramas. -Inventar un cuento; y leerlo. Representar teatro. -Cantar estribillos jocosos. -Resolver acertijos. -Bromear; contar un chiste. -Resolver un problema de aritmética aplicada. -Traducir de un idioma a otro. Preguntar, agradecer, maldecir, rezar"[111]. El lenguajes es creativo, flexible, cambiante, proteico. Padece de homonimias y sinonimias sin grave daño. El mestizaje entre idiomas cada vez abunda más, ante las protestas de los defensores de la pureza de sangre. Cada generación o grupo inventa su manera de hablar, de entenderse. Tal exhuberancia de posibilidades hace difícil que las máquinas lógicas dominen el lenguaje natural: se resiste a los avances de la Inteligencia Artificial. Aquí, al menos, el animal que somos nos protege del racionalista que querríamos ser. Mientras más nos alejamos de la directa cotidianidad semántica para habitar en las palabras, más nos sumergimos en mundos simbólicos: instituciones, dinero, derechos, teorías, protocolos, cifras, ideologías, contratos, fronteras, bancos, leyes, cuentas, modas... Tendemos a pensar que poseen existencia propia, y olvidamos demasiado fácilmente que sólo consisten en lo que todos los días hacemos que sean. Son mundos cuya realidad hemos de sustentar como otros Atlas. Cuando el trabajo nos pesa, la red neuronal -esa sentimental- añora las «cosas sencillas», dotadas de claridad inmediata. Echamos en falta el universo de los niños, en el que se une la cercanía de lo familiar, con la vivencia mágica de las palabras recién estrenadas, que son princesas, hadas, caperucitas y lobos feroces. En ocasiones contemplamos asombrados cómo se hunde lo que creíamos estable. Inventamos algo, le damos una personalidad o entidad jurídica, y acabamos creyendo que existe por sí mismo. Podemos pensar que el dinero es algo tangible, pero sólo son números y cifras sobre papeles, o bases magnéticas. El complejo entramado sobre el que sustentamos su semántica lo estudian los economistas. Cuando fallece un banco, por ejemplo, no deja un cadáver visible, sino un montón de personas hundidas y confusas, sumergidas en una desolación de cifras, en unos edificios iguales al día anterior, sin ningún desastre natural perceptible físicamente. La naturaleza nada sabe de eso: el Pico Tres Provincias permanece inmutable al hecho -lo llamamos así, hecho- de que, en el punto adimensional que le representa en unos mapas, coincidan las líneas irreales de tres inventadas provincias. Los cambios que se hagan en esas líneas sobre unos papeles, que tan desastrosos pueden parecer a los humanos, no supondrán ningún terremoto en la montaña. Igualmente, los derechos humanos son unas palabras sobre unos papeles, salvo que consigamos que sean algo más, pero hemos de hacerlo nosotros: esa es su grandeza, y su debilidad. Estamos tan acostumbrados a los símbolos que llegamos a medir por ellos la realidad -la semántica- de nuestras afirmaciones. Decimos: ¡esto es así, como dos y dos son cuatro! Sin embargo, los matemáticos nos han prevenido de la simpleza de tal afirmación. Dos lechugas y dos lápices son cuatro, ¿qué? Para salir del aprieto, digamos, sin concretar, que sumamos «algos»: dos algos más dos algos, son cuatro algos. Sin embargo, depende: si añadimos dos montones de arena a dos montones de arena, resulta un sólo montón de arena. Permite hacer mayores castillos en la playa, pero no es cuatro montones, sino uno. La propiedad aditiva no la tienen todos los conjuntos, ni sigue reglas únicas. Esos números con flechita que llamamos vectores, como las velocidades, tienen sus propias reglas para la suma. No obstante, a pesar de lo que demuestren los lógico-matemáticos, quizá seguiremos aferrándonos a la falsa seguridad de los símbolos que nos resultan familiares. El Síndrome de Optimismo Semántico Retomo la discusión sobre el argumento de Searle. Espero haber dejado claro que su hipótesis no me parece una buena base para establecer la existencia de una operación exclusiva de los humanos. A pesar de ello, aunque sea inútil para la finalidad última que pretendo, puede servir para continuar la tarea de aclarar las cosas respecto de lo que sea «pensar». La seguridad de Searle en que el pensamiento humano tiene semántica, junto con la costumbre que tenemos de fiarnos de los símbolos, me permitirán describir algo que llamaré «Síndrome de Optimismo Semántico», producido por malignos virus cognoscitivos humanos, mucho peores que los que padecen los ordenadores. Del Síndrome de Optimismo Semántico proceden no pocas confusiones que afectan al tema que estudio. No haré una descripción exhaustiva. Sólo un esbozo urgente con algunos rasgos significativos: es importante ser el primero si quiero pasar a los manuales de Patología Cognitiva. El Síndrome de Optimismo Semántico (SOS) tiene manifestaciones benignas que afectan, con bastante certeza, a toda la población mundial. Así, por ejemplo, la citada seguridad de que dos y dos son cuatro. Son creencias que pueden ser beneficiosas, como lo es la población bacteriana del tracto digestivo. En ocasiones dan molestias, porque algunas se desarrollan sin equilibrio, y afectan negativamente a la buena digestión mental. Todos damos entidad a las ideas sin saberlo. Quizá sea conveniente, pero malo sería perder una sana desconfianza en ellas -sólo son ideas-, para creer que son más reales que el mismo universo. Casos extremos de optimismo semántico hay muchos. Como Platón, que llegó a pensar que las ideas forman un mundo perfecto, el nous uranós, del que éste es una mala copia. Antes le había pasado a Parménides, para quien lo mismo es el pensar y el ser. También Spinoza profesó un optimismo extremo: Ordo et connexio rerum idem est ac ordo et connexio idearum (el orden y la conexión de las cosas reales es igual al orden y conexión de las ideas)[112]. El colmo puede ser la filosofía de Hegel, que realizó el más poderoso y coherente intento que conozco de edificar todo el conocimiento y la realidad entera sobre la convicción de que todo lo real es racional y todo lo racional es real[113]. Después de Hegel, y su fracaso, no nos hemos atrevido a tanto; tras renunciar a la alta costura de la ideas nos hemos conformado con esos productos de consumo pret-aporter que son las ideologías. Algunas zonas del mundo se enfrentan a un crecimiento desmesurado de los virus cognoscitivos, que puede ser grave: son aquellas en las que se extiende la denominada sociedad de la información. El optimismo semántico lleva a alegrarse de esa invasión acelerada de palabras, imágenes y símbolos, del que muy pocos controlan la semántica. Hace tiempo que suenan las alarmas: "Los usos normales del habla y la escritura en las sociedades occidentales modernas están fatalmente enfermos. El discurso que teje instituciones sociales, el de los códigos legales, el debate político, la argumentación filosófica y la elaboración literaria, el leviatán retórico de los medios de comunicación: todos estos discursos son clichés sin vida, jerga sin sentido, falsedades intencionadas o inconscientes. El contagio se ha extendido a los centros nerviosos del decir privado. En una infecciosa dialéctica de reciprocidad, las patologías del lenguaje público, en especial, las del periodismo, la ficción, la retórica parlamentaria y las relaciones internacionales, debilitan y adulteran cada vez más los intentos de la psique particular de comunicar verdad"[114]. Como muestra exagerada de falseamiento semántico, valga un botón: conocí a uno que trabaja en una ONG; él llama a las suyas ONG-U (Organización No Gubernamental Unipersonal). Ha registrado unas cuantas, y obtiene dinero por aquí y por allá. Cuando salen en los medios de comunicación, sonríe cínicamente al pensar que los lectores imaginarán mucha gente detrás de las siglas. En solitario ha conseguido ser una multitud subvencionada: da igual lo que seas, importa la imagen. Demasiados ingenuos, que descuidan su higiene mental y tienen deprimido el sistema inmunológico conceptual, piensan que lo que llaman información, es efectivamente información de algo, no chismosa desinformación, o manipulación. El error es nefasto, aunque muy útil para el que sabe manejarlo. Algunos enfermos llegan a considerar su mal como algo beneficioso: sarna con gusto no pica. Buscan las tergiversaciones que más se ajustan a sus manías, ilusiones, rencores, sueños o prejuicios. El peligro de insania mental es grande, incluso en el caso de que se recibiera información con semántica asegurada, porque la excesiva información sólo es ruido. La mucha información, si no se tiene capacidad de tratamiento que la convierta en significativa, es ruido -magnífica noción de la informática-. La red neuronal queda aturdida por el batiburrillo, incapaz de tratar y asimilar tanta abundancia informativa. Hay casos documentados de huida del atolondramiento en refugios autistas, que ofrecen seguridad virtual. Valdría la pena cambiar el optimismo tonto de los que todo lo esperan de la sociedad de la información, en ilusión por edificar una sociedad de personas capaces de conocer, pensar y comprender. Con todo, los mayores grupos de riesgo, amenazados directamente por el «Síndrome de Optimismo Semántico» en variantes letales, son los dedicados profesionalmente a manejar, estudiar, trasmitir, difundir y producir símbolos. Se les suele llamar «intelectuales», también con notable optimismo. Como nos hemos creído la falsa separación entre res extensa y res cogitans, solemos dividirlos en dos grupos: de «ciencias» y de «letras». Por un lado los saberes experimentales, por otro y separado las humanidades; como si yo, que soy un animal humano, fuera una abstracción no empírica. A los intelectuales de «ciencias» únicamente se les pide que procuren tener semántica en el estrecho campo que investigan. En los demás terrenos, el que sus ideas tengan semántica es irrelevante; pueden decir lo que les de la gana por disparatado que sea. Si no investigan y sólo enseñan, no hace falta siquiera que intenten comprender; sólo deben transmitir colecciones ordenadas de símbolos que otros hicieron. Los de «ciencias» sufrimos también de optimismo semántico. Por ejemplo, hablamos con frecuencia de La Evolución (así, con mayúscula y artículo determinado) como si fuera una señora muy longeva que hace unas cosas dificilísimas; no un proceso largo y complejo que merece ser investigado, del que sabemos muy poco. Nos hemos creído la palabra, como si fuera algo o alguien, para luego conseguir que los demás se la crean. Por lo visto también nos hemos creído La Materia, El Azar, y muchas cosas semejantes. Como soy de «ciencias», no voy a seguir tirando piedras contra mi tejado. En cualquier caso, conseguir que unas ideas obtengan la etiqueta de «científicas» prestigia el producto. Vayamos a los de «letras». El mismo nombre indica que, a poco que se descuiden, la semántica se les perderá en una neblina de palabras cuando hablen de «cómo son las cosas». Muchas veces tratan de las palabras de otros, sin pretender tener semántica en nada tangible. En esos casos no hay peligro, salvo ahogarse en los temibles torbellinos formados por círculos y espirales hermenéuticas. Son profesiones de riesgo: pueden acabar deconstruyendo El Quijote, en vez de disfrutarlo. Otras veces dicen palabras sobre realidades experimentales, como afirmaciones con pretensión de verdad sobre lo que es el animal humano y su etología[115]. Por esa vía, por ejemplo, se fabricó una sopa mental de letras, en la que abundaban expresiones como: «condiciones objetivas» y «explicación científica». En la extinta URSS fue alimento mental obligatorio durante bastantes años, con resultados devastadores. Alimentos semejantes se han hecho muchos: las ideologías y los «ismos». Con ellos hemos sembrado de cadáveres el siglo XX. Moraleja: no adorarás la obra de tus manos; tampoco la de tu cerebro. Ahora, escarmentados, tomamos comida rápida conceptual, no sé si con efectos secundarios semejantes. Cercana al lugar donde escribo hay una Librería Esotérica, con amplios escaparates, porque hace esquina. Cuando paso a su lado siempre me asombra el aluvión de títulos nuevos que aparece como marea creciente. Los clientes no son labriegos iletrados decimonónicos, sino profesionales residentes en la zona céntrica de la ciudad. Toman sucedáneos como suplemento a la pobre dieta de estricto racionalismo cientifista que les tiene ayunos de comprensión. Ignoro el caldo que se cuece en sus cabezas. Habría que poner algunos centros que estudien los elementos necesarios para una dieta neuronal básica; sobre ese cimiento podríamos diseñar recetas ricas, adaptables, variadas y personalizables. Una vida mental sana y equilibrada no se obtiene sobre la base de un sólo ingrediente conceptual como quieren los reduccionismos (historicismo, economicismo, materialismo, racionalismo...). Son monopolios cuyo optimismo semántico monorraíl fuerza a un régimen mental pobre e insano. Pero no intentaré describir las graves epidemias producidas por los virus cognoscitivos optimistas. Es una tarea casi imposible, aunque apasionante y útil para la salud mental pública. Me interesa más exponer las manifestaciones del Síndrome de Optimismo Semántico que afectan a lo que llamamos «pensar», que es el tema de esta investigación. Hasta fecha reciente, el monopolio de las teorías sobre la inteligencia humana pertenecía en exclusiva a algunos círculos de «letras». Los tradicionales propietarios observan, a veces con gran disgusto por su parte, cómo los de «ciencias» invaden su territorio con la Inteligencia Artificial. Nuevas teorías, edificadas sobre recientes experiencias, buscan un lugar bajo el sol en competencia con las tradicionales. Veamos aquellas teorías tradicionales. Para simplificar, atenderé a un sólo aspecto de la cuestión como criterio clasificatorio: la relación que establecen entre sintaxis y semántica, entre las ideas y la realidad. De este modo, en los dos o tres últimos siglos, la oferta de teorías sobre la inteligencia humana se puede compendiar en dos vastos grupos (con esto no hago más que seguir un esquema tradicional en bastantes historiografía filosóficas). En el primero entrarían la mayor parte de las teorías cognoscitivas elaboradas en la Edad Moderna y parte de la Contemporánea. Lo integran racionalistas -más o menos formalistas-, críticos, idealistas, ilustrados, etc.; denominaré racionalista al grupo. El segundo incluiría muchos de las que pretenden continuar la tradición filosófica iniciada por Aristóteles, que también tiene a Tomás de Aquino como primer espada: son realistas, aristotélico-tomistas, escolásticos -también más o menos formalistas-, metafísicos, etc.; los denominaré realistas. Ambos grupos llevan polemizando unos cientos de años, desde Descartes en particular. Los dos ofrecen soluciones conceptuales interesantes para entender la inteligencia humana. Sin embargo es difícil separar el trigo de la paja, porque en ambos se encuentran síntomas de candoroso optimismo semántico, aunque difieren al señalar la base sobre la que sustentan su tranquila confianza en las ideas. Para los racionalistas, el aval que garantiza la eficacia semántica de las ideas es La Razón, con mayúscula y artículo determinado. Si las ideas son claras y distintas, sirva de ejemplo, se puede apostar por ellas sin temor a la ruina. Es casi una clase de platonismo: "querrían que cualquier abstracción de la inteligencia responda a una abstracción en el ser de las cosas"[116]. La objetividad del pensamiento se alcanza mediante la racional trabazón de las ideas. El error proviene de una subjetividad no enseñoreada por la razón, sino por los sentimientos y emociones. La bestia negra aquí es el «sentimiento» religioso, en el que el animal humano parece empeñado en tropezar. Pero, aunque hablen de La Razón como si fuese alguien, no hay manera de que nos la presenten por la calle para conocerla personalmente. Lo que podemos encontrar, como mucho, son unos autores de prestigio que inventaron y difundieron ciertas razones. Lo cual produce la paradoja de que los racionalistas sean amantes de las citas «de autor»; utilizan a mansalva el argumento de autoridad. Más aún en las humanidades, que pueden fácilmente prescindir de otros argumentos, al trabajar sólo con palabras y textos. Pero el meollo es que, en el racionalismo, la primera creencia enferma de optimismo es el excesivo entusiasmo por La Razón. Es otra palabra de la que también hemos creído que es algo, o alguien, con solvencia suficiente para avalar el conocimiento. La Inteligencia Artificial, sin embargo, le concede un discreto lugar de instrumento. Como de la credulidad en la razón se ha tratado en páginas anteriores, no hay que abundar más. Los partidarios del realismo, por su parte, tienen una gran confianza en La Realidad. Su clara luminosidad es tal que impone su evidencia a la inteligencia humana que la contempla. La tarea cognoscitiva por antonomasia es precisamente contemplarla, dejándola que preñe de semántica las ideas. El conocimiento es trascendente, llega más allá de sí mismo, porque la realidad se encarga de ello. La inteligencia humana recibe las formas, las esencias -la inteligibilidad de lo real-, y se adecua a ellas si todo va bien. El error es lo oscuro y opaco a la realidad, lo inadecuado a ella. El proceso puede fallar por defecto contemplativo, por no dejarse llevar por la evidencia, sino por subjetivismos pasionales que impiden la transparencia del conocimiento. Para los defensores del realismo cognoscitivo, ser objetivo es dejarse empapar por la diafanidad de las cosas, de los entes. Al margen de la pulcra rotundidad de lo real, lo propio y subjetivo impide la transparencia, y falsea el conocimiento. La inteligencia es como una fotocopiadora de la realidad: sólo debe preocuparse de no tener iniciativas en el proceso, que adulteren la copia. Este realismo cognoscitivo, aunque pelee furibundamente con el racionalismo y toda forma de idealismo, sin embargo es hermano gemelo suyo. Es cierto que no considera que todas las razones bien razonadas apunten a la realidad de las cosas. Sin embargo, cae en la trampa de dar ese estatuto a unas pocas razones: las que tienen la etiqueta «metafísica». Porque no todas las ideas tienen semántica, sino sólo aquellas que están espolvoreadas de palabras como: ente, metafísica, ser, materia prima, esencia, acto, potencia... Estudian y destripan textos en los que abundan esas palabras, con la seguridad de que lo más real de la realidad se encuentra allí. Las citas «de autor» les son tan esenciales como a los racionalistas, para poder escribir palabras sobre esas palabras «metafísicas» casi mágicas, que son la llave secreta para comprender el mundo. Pero afirmar que una proposición metafísica atrapa totalmente la realidad, significa creer que el núcleo más real de la realidad es proposicional, lo cual es dudoso. "Es diferente la ordenación en el intelecto de la ordenación en la cosa"[117]. No se puede dejar a un lado que, con nuestras ideas y en lo que decimos no expresamos lo que las cosas son, sino lo que pensamos de ellas. Caminando con eso olvido se llega al extremo de establecer la existencia de dos teorías cognoscitivas perfectamente coherentes: la racionalista o inmanente, y la realista. Pero una es buena y otra mala. Esta presentación igualitaria sólo es posible si las dos teorías resultan equivalentes. Es el caso: ambas son racionalistas. Con el agravante de tener que elegir por el método infantil de «pinto pinto gorgorito», o acudiendo a un criterio moral desasistido de inteligencia, por lo que no se sabe bien a qué fideísmo o visceralidad corresponde. Algunos llegan a darse cuenta de que ese vocabulario "metafísico" es muy técnico, bastante abstruso para las pobres gentes que todos los días bregan con la realidad, y muy alejado de ella incluso para los que lo utilizan. Pero salvan su idoneidad con el truco conceptual de referirlo al sentido común o al conocimiento espontáneo, en el que colocan su fundamento. Los psicólogos cognitivos han intentado un truco conceptual semejante, sustentándose en el pueblo llano con la folk psychology[118], para evitar la falta de semántica de muchas teorías psicológicas. Todos aguardan inútilmente que el olmo dé peras: el sentido común ha llevado al conocimiento espontáneo de los hombres a conclusiones peregrinas, variopintas e inservibles. Por ejemplo, si levantan su cabeza, miran al cielo y observan el sol, ¿qué ven?: Un carro de fuego tirado por caballos. El dios solar Samás de los babilonios, o el iránico Mitra. El primogénito del dios mayor de los incas: Inti-Sol. El ojo de Horus, o de Serapis, o de la divinidad máxima de samoyedos y pigmeos semang. Alguien poderoso que tiene como descendientes los emperadores de Japón o los incas peruanos, sin olvidar los más cercanos Heliogábalo y Aureliano en la culta Roma. Las estrellas, por su parte, se agrupan en las figuras de zodíaco y regulan nuestras vidas. Los planetas también trajinan nuestra existencia lo que pueden... Si el conocimiento "espontáneo" fuera tan bueno como dicen, no habríamos tenido que inventar las ciencias ni pararnos a hacer filosofía; nos habría bastado con los productos mentales del "sentido común", sin tener que salir del refranero y de los horóscopos. Otra argucia conceptual, frecuente en autores de ambos bandos para justificar la semántica de las ideas, es el recurso a la intuición. Se denomina así a una presencia súbita y espontánea de algo real en el conocimiento. Como si la inteligencia saliera de mi y casi tocara lo que está frente a mi. O, viceversa, como si las cosas vinieran a mi cabeza. Pero es evidente que, en este sentido, la intuición no existe: las neuronas no emiten ningún seudópodo etéreo, ni las cosas transmiten un aura que me penetre. Otra cuestión es que, en efecto, llegamos de improviso a entender algo, sin pensar y de modo inconsciente. En este caso lo que llamamos intuición parece simplemente el modo normal de funcionamiento de una red neuronal. Las redes neuronales alcanzan la solución de forma holística, como si fuera repentina: antes no hay nada, luego llega la respuesta en bloque. Los pasos dados por las capas de neuronas intermedias permanecen en el anonimato. No se sabe cómo me ha venido a la cabeza, pero ahí está claro y acabado. Tendemos a olvidar el largo proceso de interesarse, adquirir experiencia, lecturas, etc. que le precede. Sin esos pasos previos no aparecen intuiciones. Yo, por ejemplo, nunca las tengo sobre la evolución de un valor en bolsa: no he utilizado la cabeza para eso, ni tengo experiencia, ni me he interesado. En fin, por los motivos que se aduzcan, lo cierto es que muchos realistas creen que las «razones metafísicas» tienen semántica y atrapan la realidad en sus redes. Es cierto que no caen en la tentación formalista, como tampoco cayeron en ella muchos racionalistas, pero están igualmente infectados de virus cognoscitivos optimistas. No dejan de ser un tipo de racionalistas, con optimismo semántico limitado a razones «metafísicas». Como la crítica a los dos grandes grupos puede considerarse precipitada por mi parte, la apoyaré con las serias palabras de un autor que ha considerado atentamente la cuestión: "El doble error del racionalismo es admitir que la esencia pensada puede y debe explicarse teóricamente -con el pensamiento-; y, al mismo tiempo, construir una noción del ámbito extramental, a la cual condena por lo mismo que, como mera hipótesis, carece de una capacidad de explicación semejante. "Cuando, a su vez, el realismo tradicional se apresta a criticar la interpretación subjetivista del fundamento del objeto, acepta sin darse cuenta el planteamiento racionalista. La única diferencia consiste en un cambio en la identificación del donante: las cosas, no el pensamiento. A medida que el subjetivismo crecía y se consolidaba, aumentaba en el realismo la tendencia a considerar la presencia pensada como una copia o imagen de un supuesto extramental, que sería su causa. Nada más alejado del aristotelismo auténtico. Ello determinó también que el tomismo, doctrina de riguroso sentido metafísico y teológico, degenerase en una teoría del conocimiento como disciplina independiente. De aquí tenía que resultar un descontrol de la atención, ya que el carácter de dado pertenece exclusivamente al pensamiento, y con una reduplicación del mismo no se puede marcar la diferencia entre la esencia pensada y la esencia extramental"[119]. La habitación china de Searle permite eliminar pretensiones semánticas precipitadas. El ordenador manipula símbolos. El hombre, en tanto que utiliza palabras, razones e ideas, también se limita a eso. La fuerza aparente del argumento de Searle viene de lo extraño que nos suena el chino, si el idioma nos es desconocido. Su debilidad está en que la diaria familiaridad con nuestro propio idioma, puede hacer olvidar que cuanto decimos tiene que ver con la realidad sólo en ocasiones y después de muchos esfuerzos. Searle cree que, al utilizar su idioma familiar -el inglés-, hace algo más que manipular símbolos; los chinos también lo creen al hablar mandarín o cantonés. Pero el quid de la cuestión es cómo conseguir ese algo más; es lo que estudian los que analizan los problemas semánticos. A ellos me remito, porque la semántica no es algo directamente dado por ninguna sintaxis, sea racional, natural, metafísica, científica, o común y corriente. También algunos autores de la Inteligencia Artificial se han dejado llevar de optimismos semánticos electrónicos. La creencia de algunos «padres fundadores» era: "Un sistema físico que procese símbolos tiene los elementos necesarios y suficientes para la acción general inteligente"[120]. Muchos otros autores profesan certidumbres semejantes[121]. Ayudados por esas convicciones, hay que agradecérselo, hicieron avanzar mucho las investigaciones sobre Inteligencia Artificial. Pero, aunque sean suposiciones útiles, no dejan de ser hipótesis sobre lo que es la inteligencia. Hay que entusiasmarse con las hipótesis, porque se investiga mejor, pero jamás hay que creérselas. Elaboramos explicaciones, teorías, hipótesis, y nos las creemos, aunque la experiencia las desmienta o ponga de manifiesto su angostura. ¿Dónde está el origen de esa actitud del animal humano?; ¿por qué somos víctimas fáciles del Síndrome de Optimismo Semántico? No me atrevo a señalar culpables, aunque las últimas investigaciones permiten sospechar del hemisferio izquierdo de mi cerebro. El hemisferio derecho hace que nos comportemos como un animal sano, que no se complica la vida buscando tres pies al gato y saca el mayor partido posible a lo que hay. "No trata de interpretar lo que sucede ni de encontrarle significados más profundos. Se limita a vivir la fugacidad del presente"[122]. Pero el hemisferio izquierdo de mi cerebro no se queda tranquilo. "Está siempre trabajando intensamente, buscando el significado de los hechos. Se ocupa constantemente de buscar orden y razón, aun cuando no los haya, lo que le obliga a cometer continuos errores. Tiende a generalizar en exceso, construyendo bastantes veces un pasado posible que es distinto del pasado real (...) siempre encuentra una teoría, por descabellada que sea"[123]. Las investigaciones de las neurociencias continúan y acabarán desvelando al misterioso culpable. Sea quien sea el culpable, el optimismo semántico es una tentación contra la que hay que estar prevenidos. Produce fundamentalistas fanáticos de sus propias opiniones, dignificadas con la etiqueta de ciertos apellidos que se consideran nobiliarios para las ideas: científicas, racionales, modernas, progresistas, metafísicas, trascendentales... Son personas enamoradas de sus ideas y esclavas de ellas. Pero las ideas son un producto humano, al que ninguna persona debe someterse. Son tarea y trabajo, no objetos de adoración. Capítulo 3 BÚSQUEDA SIN TÉRMINO Terminé la poda de ideas. Una vez despejado el campo, ha llegado el momento de describir algunas de las singulares operaciones que hacen los animales humanos, por si resultan exclusivas suyas. Para espigar soluciones he de transitar los campos defendidos por corrientes filosóficas tradicionalmente enfrentadas en la teoría del conocimiento. Busco comprender, tomaré lo que aporte claridad. Habré de ir con cuidado, porque es una discusión enconada por el tiempo; con multitud de ataques y acusaciones mutuas, y muchas palabras minadas. Otros elementos de interés, a los que acudiré, son más recientes. Están naciendo de la bulliciosa eclosión de las ciencias cognitivas. Espero no quedarme enganchado en «ismos» de ninguna clase. Como hasta aquí, procuraré no alejarme demasiado de la claridad que aporta la Inteligencia Artificial a las cuestiones cognoscitivas. Pensamos que pensamos Como punto de partida valga el experimento conceptual propuesto por Searle con su habitación china. A un lado el ordenador manipula símbolos; al otro el humano también lo hace. Ese proceso para nada asegura semántica a ninguno de los dos: hasta aquí lo visto. Lo interesante es lo siguiente: El humano puede conocer que sólo trata con signos. Encerrada en la habitación, una persona puede llegar a desesperarse con la tarea que le ocupa, porque se da cuenta de que sólo maneja símbolos y ser dolorosamente consciente de estar inmersa en una tarea mecánica, rígidamente lógica, de frío automatismo. Esa ocupación, además, no le permite ni aprender chino, ni comprender de qué trata el intercambio de símbolos chinos que hace según unas reglas. Saber que los símbolos son sólo eso, símbolos, ahí está el quid de la cuestión. Para explicarlo debo salir de la habitación china de Searle, porque seguir en ella supondría un difícil contorsionismo mental, que no deseo para el lector. En su lugar, propondré otro ejercicio para la imaginación: Un robot espera en la cadena de montaje. Por la cinta transportadora entra una pieza en su área de trabajo. Un sensor la capta. El robot alarga un brazo y la coge. Otros sensores comprueban la posición de la pieza. El ordenador del robot decide los giros que ha de hacer para situarla adecuadamente. El brazo ejecuta los movimientos. La pieza es colocada en su lugar. Otro brazo hace unos puntos de soldadura precisos. Acaba el proceso. Imagínese que el robot se para en mitad del procedimiento preguntándose: ¿me engañan mis sensores? ¿La pieza es real o es un sueño? ¿Cómo puedo estar seguro de ponerla en el lugar adecuado? Los puntos de soldadura, ¿sueldan algo?, ¿no estaré haciendo una tarea inútil? Ruego paciencia para otro ejercicio más: imagínese un ordenador atareado en sus asuntos lógicos. Hace circular los bits[124] de datos de una parte a otra, y los modifica según mandan los bits de instrucciones. Supóngase ahora que el ordenador pudiera examinar un bit de los que maneja, y decir: ¡pero si sólo es un bit! No sé qué hago yo con tanto trajín de bits de aquí para allá, si únicamente se trata de pobres signos binarios insignificantes. Haré unos cuantos bits que codifiquen: «sólo manejo bits». Pero, siguen siendo sólo unos míseros bits, ¡qué desastre!: me faltan bits, o estoy en una crisis de bits. Si intento entender que me limito a seguir las instrucciones de un programa, todo lo que puedo hacer es poner unos bits que codifiquen la palabra PROGRAMA. Pero esos bits ni siquiera son el software con el que estoy programado, que ocupa varios megabytes. Puedo unirlos a otros y codificar la proposición: «estoy condenado a seguir las instrucciones de un programa». Pero, ¿qué relación hay entre los bits de la palabra PROGRAMA con los megabytes de software?; ¿cómo interpretar con bits los bits que codifican esa expresión? ¡Socorro, me amenaza un terrible círculo hermenéutico! Por ahora es difícil encontrar un ordenador agobiado por esos dilemas. Tampoco los animales muestran ser proclives a enredarse en trampas conceptuales semejantes. Practicar el deporte de perderse en espesas selvas hermenéuticas, sin abandonar la sala de estar, es exclusivo de los humanos. Supone una curiosa capacidad, la posibilidad de hacer un tipo de operaciones cognoscitivas que tradicionalmente se ha denominado como reflexión, o reflexionar. No digo que reflexionemos siempre, sino que algunas veces y de alguna manera podemos darnos cuenta de que las letras sólo son letras; las palabras, palabras; las ideas, ideas; la lógica, lógica; las teorías, teóricas; las explicaciones, montajes conceptuales más o menos bien trabados; las demostraciones, encadenamientos de razones; y los bits no pasan de ser unos humildes dígitos. Para evitar los escollos del optimismo semántico, limitaré lo más posible el alcance de un hallazgo que, por otra parte, no es mío. No quiero obnubilarme en una temprana borrachera de palabras. En terminología informática sólo digo que podemos saber, a veces y en ciertos aspectos, que la información es sólo información. Discernimos que tiene pretensiones de informar; puede que no lo consiga, o que sí, o en parte. Los animales tratan información, los que sobreviven lo hacen muy bien, pero están atrapados en ella. No conocen que conocen, ni pueden plantearse si lo hacen bien o mal, ni diseñar una red neuronal electrónica para intentar comprender mejor la suya biológica. Están sumergidos en los límites que impone su conocimiento. De forma semejante, un ordenador puede adquirir, almacenar y tratar mucha más información que yo, pero de ahí no sale. Está enclaustrado dentro de esas fronteras. El animal humano, sin embargo, da muestras de conocer esas fronteras. No es que llegue más allá, porque de la cabeza no puede salir. Pero alcanza a entender que en la cabeza tiene ideas, y las ideas son sólo ideas. De alguna manera puede llegar a conocer su naturaleza y también sus límites. Es capaz de reflexionar. Aquí debo avisar para que no se tome la reflexión como la palabra madre de todas las palabras, o la noción generadora de todas las nociones en asombroso parto. Sólo es un simple término con el que intento designar un conjunto de fenómenos empíricos, accesibles a cualquier etólogo del animal humano. No quiero ser como Maxwell, que ofrece la elegante sencillez de unas ecuaciones, definitivas para el electromagnetismo. Intento parecerme a Volta describiendo la electricidad, curioso fenómeno que quizá valga la pena estudiar. El animal humano puede decir y pensar: esto no es más que una opinión mía. Lo que significa: son unas ideas que pasan por mi cabeza, pero no sé si resultan adecuadas. La reflexión no es un profundo proceso accesible únicamente a pensadores de talla. Es algo que, en formas sencillas, hacemos continuamente: no me aclaro, mis ideas son confusas. No tengo ni idea. Abrir un proceso de reflexión. Piénsalo mejor. Racionaliza el problema. Pensar un asunto en un contexto más amplio. No entiendo lo que dices. ¿Estás seguro? Perdona, estaba confundido. ¡Discurre un poco, por favor! ¿Por qué no lo meditas más despacio? Así no se puede decir, inténtalo de otra forma. Considéralo con tiento. Revisar las ideas. Lo tengo muy pensado. No era como yo creía... Decimos de las ideas que son machistas, interesantes, dogmáticas, tolerantes, viejas, modernas, oscurantistas, progresistas, pobres, profundas... Las calificamos de muchas maneras, como si pudiéramos examinar su calidad y características en tanto que son sólo ideas. Asemeja un mercadillo en el que nos fuera dado mirarlas, tocarlas y catarlas. Las llamamos raras, útiles, teóricas, divertidas, tristes, atractivas, pésimas, sencillas, elegantes. Producimos ideas, las almacenamos, las transmitimos. Las ideas de fulanito son desmenuzadas en exhaustivos estudios. Asombran las que tienen en otros pueblos o culturas. Hacemos comparaciones con las de nuestros abuelos, o las de otras épocas. Intentamos averiguar por qué ideas nos movemos, cuáles forman el entramado de metas vitales y valores que configuran nuestras vidas. Estudiamos las palabras que expresamos, que nos expresan. Desentrañamos la tupida red de la cultura, ese macroprograma de símbolos e instrucciones con los que elaboramos nuestras ideas propias. Analizamos el rol y el status para saber qué lugar me han -me he- asignado en el mundo, y los símbolos que lleva asociados. Soñamos, e interpretamos los sueños, porque podemos conocer que los sueños, sueños son. Muchas personas trabajan en los cada vez más amplios sectores de producción, distribución y comercialización de ideas de consumo. Otros forman coros de plañideras para llorar la ideas queridas que han muerto. También los hay que protestan por la falta de ideas, o claman que con estas ideas no se va a ninguna parte. Oteadores de la condición humana vaticinan que estamos en una grave crisis de ideas. La capacidad reflexiva es un músculo cognitivo que ejercitan disciplinadamente algunos profesionales en los gimnasios mentales de la Universidad, y muchos aficionados por todas partes. En la mayor parte del tramo educativo se aprenden y almacenan ideas producidas en otras factorías. En la Universidad, un reducido número de personas, en el estrecho campo de su especialidad, las trabajan, pulen, valoran, afinan. Se llegan a dar personas que, tras mucha gimnasia mental reflexiva, consiguen pensar lo obvio: alcanzan a ser buenos filósofos. Cualquier etólogo del animal humano puede observar innumerables comportamientos que requieren capacidad reflexiva. La gradación de intensidad reflexiva que ponen de manifiesto es casi un continuo, desde niveles muy elementales hasta muy elevados. Es una capacidad que admite ejercicio, desarrollos crecientes y también lesiones más o menos graves. Incluso admite la asfixia por ahogamiento en torbellinos hermenéuticos. Las habilidades reflexivas forman la base de la manera humana de ser inteligentes. Después de su breve descripción, debo intentar una aproximación teórica. Para llevar la tarea a puerto, en primer lugar debo evitar dos bajíos, si no quiero encallar a poco de iniciar la singladura. Se trata de dos nociones con largo pedigree filosófico: la conciencia y la intencionalidad. La conciencia es una sencilla palabra que en los últimos siglos se ha visto abrumada de responsabilidades. Gran parte de la filosofía moderna ha descargado sobre sus hombros el deber de sacar adelante la inteligencia humana. Se ha convertido en La Conciencia, La Autoconciencia, o La Consciencia. Así magnificada ha pasado a ser tema crucial. Como herencia, en la discusión sobre la Inteligencia Artificial, ocupa un lugar privilegiado, que no le corresponde y en el que se encuentra incómoda. Muchos la someten a tortura, pues creen que tiene el secreto de lo que es «pensar» [125]. En vano intentan arrancárselo: no es suyo, y nunca ha poseído ese secreto. Tengo que romper una lanza en su defensa para aclarar las cosas. Aunque también necesitada de ayuda, dejaré a un lado la acepción moral de la palabra conciencia. Para lo que aquí interesa, en los últimos siglos su utilización en el ámbito cognoscitivo la equipara a un «yo consciente». Es una noción difusa, que cabe asimilar a una suerte de hombrecillo submicroscópico o fantasma que reside en mi cerebro. Se comporta como un notario: asiste al parto de las ideas, dando fe de su existencia. Ni entra ni sale en el proceso de su gestación: tan sólo expende el certificado de nacimiento. Lo suelen poner frente al «objeto», que es la denominación filosófica para los artilugios mentales. A un lado está el «sujeto», el «yo consciente» o «yo trascendental». Frente a él aparece el «objeto», las ideas; a las que, si se les quiere dar importancia, se las apellida «trascendentales», que es un título nobiliario utilizado en filosofía. El sujeto es consciente del objeto, de las ideas; ese es su papel en la vida. Según este modelo: "Se supone como evidente que la conciencia es tener delante de sí o «representar» un objeto; que consiste en esta relación característica entre el sujeto y un objeto. Esto ha llevado a comprender la autoconciencia, y en general el comportarse consigo mismo, como una relación entre el sujeto y él mismo como objeto: uno se tiene a sí mismo delante de sí"[126]. Resulta así el yo consciente de yo. Cuando miro el prado, alguien en mi observa mi representación interior del prado, y la objetiva, la hace objeto. También me contempla a mi mirando al prado, de alguna manera me lo cuenta, y yo entonces soy consciente de que yo estoy mirando al prado. Obviamente por este camino es fácil acabar ahogado en un pantanal hermenéutico. El modelo, por otra parte, introduce en la intimidad humana, ya dividida en res cogitans y res extensa, otro dualismo cognoscitivo: el de sujeto y objeto. De nuevo surge el problema de inventar pegamentos conceptuales para que no se disgreguen. Para alguna teorías filosóficas este es un problema grave, pues defienden que el nivel de verdad se mide por la fuerza de la soldadura entre el sujeto y el objeto. Por otra parte, asignar a la conciencia lo propio de la inteligencia humana es reducirla a pura pasividad. Una inteligencia que sólo fuera conciencia se limitaría a saber lo que le pasa: me pasa que pienso esto o lo otro; me acontece que veo tal cosa; me ocurre que tengo esta opinión; me sucede este sentimiento; me pasa que se me ha ocurrido un plan... La inteligencia queda reducida a constatar sus ocurrencias, pero no puede hacer nada por tener otras, o por mejorarlas. Una inteligencia que sólo sea consciente no es activa, y está condenada a ser poco inteligente. Si todo lo que conseguimos es que un homúnculo interior levante acta de lo que me pasa por las mientes, tome nota de que acontece el cogito, para concluir que existo y me pasa lo que me pasa, entonces podemos hacer muy poco y casi no compensa ser inteligentes. Reducir la actividad inteligente a conciencia es condenarla a ser mero receptor pasivo de las ideas, representaciones, motivaciones, impulsos, sentimientos, sensaciones... que genera el sistema de tratamiento de información neuronal humano. La inteligencia sería la red neuronal biológica humana trabajando por su cuenta, a la que se añade un homúnculo que toma nota de sus procesos, pero que no la dirige. Otro problema que suscita esta noción es su carácter recursivo, que se puede estirar hasta el infinito. Somos conscientes de que conocemos, pero eso es otro conocimiento. Hace falta una conciencia más que sea consciente de que somos conscientes de que conocemos. Así sucesivamente. Resulta una interminable hilera de hombrecillos submicroscópicos que miran por encima del hombro lo que hace el anterior, para ser conscientes de lo que se es consciente. No se qué puesto habría de asignarme yo en la fila, para ser consciente de que soy consciente de lo que soy consciente, y que se me pasa por la cabeza o me sucede. Este raro modelo, tan querido en la modernidad, ha sido atacado con vigor por los trabajadores de la Inteligencia Artificial, y otras ciencias cognitivas. Porque resulta que el yo consciente se toma unas vacaciones cuando duermo, o cada vez que alguien es anestesiado. Aparece desconcertado en los sueños, cuando tengo clara conciencia de que soy yo, sin conciencia alguna de contemplar una película de la imaginación. En el sueño no se es consciente de que no hay que preocuparse si resulta pesadilla. Freud, aunque no superó el modelo, señaló que la conciencia no es tan omnisciente como se pensaba. Desconoce todo un mundo inconsciente, que abarca territorios más amplios de lo que el yo consciente llega a advertir. Con toda razón niegan su validez. "La idea de que el yo humano es solamente un yo consciente, es una propuesta del racionalismo que el proceso formal abierto se encarga de desmentir" [127]. No hay nada semejante a un enano o fantasma que me habite, y sea mi yo consciente. Tampoco resuelve nada multiplicar los fantasmas. Esta es la solución que arbitró Freud, incapaz de desarrollar un utillaje intelectual más potente. Según él hay uno que se encarga de saber: es el espectador, el consciente. Luego parece ser que hay otro encargado de no saber o, más bien, de no querer saber: produce el inconsciente, que es conciencia reprimida. Por este camino resulta que soy una especie de castillo inglés con varios fantasmas en nómina, que no se llevan bien y provocan constantes conflictos. He de acudir a un experto en pacificar relaciones entre fantasmas (se llaman psicoanalistas) para arbitrar acuerdos, de forma que cesen las luchas por los pasillos de mi cerebro. Es una solución conceptualmente chocante y más bien pobre, que sólo tiene la ventaja de mantener la idea de conciencia promovida por la modernidad como clave de la inteligencia humana. La conciencia es algo muy elemental, que requiere poca inteligencia. "La conciencia es el primer acto intelectual, y por tanto, el mínimo"[128]. Para los clásicos la conciencia es algo que se da también en el conocimiento sensible, que compartimos con los demás animales. Así por ejemplo, para Tomás de Aquino, un sentido "non solum cognoscit sensibile, sed etiam cognoscit se sentire"[129]: no sólo conoce lo sensible, sino que también conoce que siente. Por eso la conciencia no supone mucha diferencia con algo que compartimos con los animales: la atención. El animal despierto y en guardia se fija, atiende a lo que le rodea. Presta atención a lo que le afecta, a las cosas en las que le va la supervivencia. El aprendizaje le ayuda a ser especialmente consciente de algunas, y no atender a otras. Conoce lo que le afecta, lo que le duele o le gusta. Le llaman la atención muchas cosas; otras no las ve, porque no las mira. No le dicen nada. La conciencia es el darse cuenta, o caer en la cuenta, para estar atento. Lo mismo hacemos nosotros. De quien no atiende a algo que le afecta, y puede suponer peligro, decimos que es un inconsciente. Aprendemos a fijarnos, a mirar, a tener conciencia de lo que nos habla el entorno y de lo que susurra nuestro cuerpo. La ausencia de estado de vigilia elimina nuestra conciencia. Como, además, hemos conseguido que nuestra red neuronal funcione con ideas, podemos ser concienciados de maneras peculiares. Por ejemplo, puedo llegar a pensar que estoy rodeado de enemigos que me explotan. Todo lo que me sucede adquiere así un color peculiar, por susceptibilidad. En consecuencia, acabo con un comportamiento irritable y violento, fastidoso para la convivencia en la manada humana. También hay quién cultiva un batiburrillo mental considerable, para acabar con la clara conciencia de que todo es un lío incomprensible y sin sentido, empezando por uno mismo. O puedo llegar a tener conciencia de pertenecer a una raza superior, por el sencillo motivo de que soy de mi pueblo, y no del de al lado. Etc., etc. Otra cosa es llamar conciencia al ejercicio de las habilidades reflexivas aplicadas a ideas que tratan de nosotros mismos. Esas ideas pueden ser pocas o muchas, con semántica o sin ella. Si son escasas se puede acudir a los psicoanalistas, que suelen ofertar multitud de ellas; las más, infectadas de optimismo semántico. El que las tenga negativas, acuda a un cursillo de autoestima. Si no sabe lo que le pasa, que procure verbalizarlo y racionalizarlo. Tampoco sabrá lo que le pasa, pero tendrá explicaciones tranquilizadoras, del tipo: estoy inquieto, porque me afecta mucho la energía negativa de la casa que habito; me comporto así porque soy sagitario, o piscis; la culpa de lo mío la tiene un trauma infantil... Tener información acerca de si mismos no es exclusivo de los humanos. Dejando a un lado los animales, las máquinas la tienen. Una cámara que se filme a sí misma en el espejo, la posee. Los ordenadores suelen tener buena información sobre sí mismos: al arrancar hacen un chequeo de su estado interno. Puede hacerse que ese chequeo sea tan exhaustivo como se quiera, de manera que la información sea tan completa como se desee. Lo que la cámara y los ordenadores no tienen es capacidad reflexiva, que les permita conocer que la información (en forma de película o señales magnéticas) es información. Nuestras habilidades reflexivas permiten que hagamos precisamente eso, descubrir que se trata de información. Pero no aseguran que la información tenga semántica. Puede ser una información desquiciada de toda realidad propia, que produce una conciencia inadecuada. Muchas terapias cognitivas se orientan a procurar formas de elaborar ideas sobre nosotros mismos que no estén muy dislocadas. La conciencia, por tanto, admite ejercicio y desarrollo. El otro escollo del que pueden venir dificultades que hagan malentender la reflexión es la intencionalidad. Se trata de una antigua noción de la teoría del conocimiento, que ha saltado de nuevo a la fama desde que Brentano la hiciera desfilar por las mejores pasarelas filosóficas[130]. Sobre ella se han escrito palabras muy hermosas, de ser ciertas. Algunos autores, críticos de la Inteligencia Artificial dura, han acudido a ella para apoyar sus tesis[131]. Con esa palabra se suelen designar varias cosas distintas. Por ejemplo, que las palabras, los términos y las ideas no se dirigen a sí mismas. Siempre hacen referencia a otra cosa a la que ponen de manifiesto. Si alguien me grita: ¡cuidado, te va a morder el perro!, en primer lugar me pongo al seguro. Lo que directamente comprendo es el significado de la frase, no la frase misma con su estructura gramatical precisa. Así entendida, la intencionalidad pertenece tanto al conocimiento animal como al humano. Ante una señal de alarma, todo el rebaño de gacelas se pone en marcha emprendiendo veloz huida, sin analizar la sintaxis de la señal misma. Este sentido de la intencionalidad se refiere a la adecuación con la realidad de los sistemas de tratamiento de información, y a su eficacia para moverse en el entorno al que se refieren. Desde este punto de vista también las máquinas eficaces en entornos reales tienen intencionalidad. La información de un sensor que provoca, una vez tratada, un acertado movimiento del robot, está formada por signos intencionales. Con ese significado, la intencionalidad se ha utilizado para fundamentar el realismo cognoscitivo, o para señalar la superioridad de la inteligencia humana respecto de la Inteligencia Artificial. También para lo contrario. Bastantes defensores de la Inteligencia Artificial dura afirman que las representaciones, el lenguaje o los estados mentales de hombre y máquinas son equivalentes, pues corresponden a realidades. Pero la intencionalidad no da para tantos estiramientos. Puedo afirmar que mis estados mentales, o ideas, o representaciones, se refieren a la realidad. Pero, en primer lugar, eso no me diferencia de los animales, ni de los ordenadores que funcionan bien en entornos reales. En segundo lugar, puedo intentar fundamentar en la intencionalidad la adecuación de las ideas a la realidad. Pero esa actitud es fácil de infectar de optimismo semántico, que me inclinará a afirmar que todas mis ideas, por ser intencionales, se refieren a la realidad y son verdaderas, por más disparatadas que resulten. En tercer lugar, y es lo más grave, si todo lo que alcanzo es a dejarme llevar por la intencionalidad de mis ideas, estoy atrapado en ellas, como los animales y los ordenadores. Los animales y las máquinas utilizan señales intencionales, pero no lo saben. Tuve un perro que al decirle: ¡Busca!, ¡busca!; se ponía a dar vueltas olisqueando todo. El pobre nunca pudo tratar la palabra como tal, estaba atrapado en la intencionalidad adquirida por el aprendizaje. La intencionalidad sólo se vuelve una propiedad interesante al combinarse con las habilidades reflexivas. De manera inmediata, sobre las ideas pesa la intencionalidad semántica y sólo mediante un proceso reflexivo las podemos conocer en su carácter de signos. Para el pensamiento humano, más que la intencionalidad como referencia o representación de la realidad, es una ventaja conocer la intencionalidad misma de los símbolos. En hombre encontramos no sólo la intencionalidad de las ideas y representaciones, sino también la capacidad reflexiva de conocer su intencionalidad. Somos capaces de conocer ideas, y también que se refieren a algo. Podemos así trabajar las ideas y su intencionalidad. Estudiar las ideas que pretenden ser verdaderas, para decidir si lo consiguen, y en qué grado. Si la intencionalidad de las ideas fuese una propiedad fundamental suya, de la que no pudiéramos prescindir, estaríamos encerrados en sus límites. Aun en el caso de que nuestro pensamiento fuese adecuado a la realidad, no podría progresar más allá de las ideas que tuviese. Tampoco averiguaríamos si esa pretendida adecuación de las ideas con la realidad es tan buena como parece. Nos embobaríamos de optimismo semántico con las insensateces que padeciéramos. "Digámoslo claramente: si se prescinde de su índole reflexiva, la teoría de la verdad como adecuación es inviable. Por obvia que parezca, conduce a problemas insalvables, que nos obligan a abandonarla"[132]. Las teorías realistas cognoscitivas que olvidan la reflexión, se condenan al fracaso. Porque, como bien señalan las corrientes inmanentistas de la filosofía, el hombre sólo conoce sus ideas o sus sensaciones (en el caso de la inmanencia empirista), no la realidad. En esto tienen razón. "Lo primordial e inmediatamente entendido es lo que el entendimiento concibe en sí mismo acerca de la cosa entendida"[133]. En lo que los inmanentistas no aciertan es al asegurar que todo lo que podemos hacer es conocer las ideas. No es así, también podemos entender que las ideas son ideas, ni más ni menos. Las mejores teorías del conocimiento humano no ponen el acento en la capacidad de razonar, ni en la adecuación de las ideas con la realidad, ni en su carácter intencional. Todas esas cosas, con ser interesantes, no son fundamentales. Insisten más bien en el papel esencial de la capacidad reflexiva. Por ella podemos trabajar las ideas en razonamientos; comprobar su adecuación y mejorarla; y no quedar atrapados por su intencionalidad, para elaborar mejores ideas. Tomás de Aquino prolongó el camino abierto por Aristóteles para conocer el pensamiento humano. Llamaré clásica a la teoría del conocimiento que elaboraron. Para él la cosa está clara: "Conoce la verdad el entendimiento que sobre sí mismo reflexiona"[134]. El que vuelve sobre los pasos que ha dado, sin que sus posibilidades se agoten en darlos. "En cuanto conocen que conocen ya comienzan a retornar a sí, puesto que el acto de conocimiento es intermedio entre el cognoscente y lo conocido"[135]. De esta forma consigue la inteligencia no perderse en ese intermediario que son las ideas. La persona que quiere pensar de manera inteligente, intenta mirar su operación y mirarse a sí mismo realizándola, para valorar la bondad de intermediación de las ideas. Puede así preguntarse: ¿qué he hecho? ¿Cómo he llegado a esta conclusión? ¿Qué significa esta idea? ¿Es idónea? Llega a conocer la realidad porque puede mirar la operación que realiza su sistema de tratamiento de información neuronal, dándose cuenta de qué es lo que hace y cómo elabora algo semejante a la realidad. Es decir, podemos conseguir que nuestro sistema de tratamiento de información alcance a conocer la operación que ha hecho. Para llegar a la realidad la inteligencia no tiene que salir de sí misma, ni fundamentar la existencia de la realidad exterior mediante piruetas mentales o contorsionismos lógicos. No es necesario que fundamente el conocimiento de la realidad en otra cosa que sus propias operaciones cognoscitivas. Tampoco debe ir más allá de la idea para conocer la realidad. Son las mismas ideas las que atrapan algo de la realidad, si han sido elaboradas adecuadamente. También ellas traen su propia limitación, porque sólo permiten conocer una parte de la realidad y desde un cierto punto de vista. Por muy buenas que sean son sólo ideas. Asimismo en las ideas es dónde se produce el error, y donde se dan las contradicciones. Atrapan la realidad, pero también contienen nuestras necedades, prejuicios y estrecheces mentales. Lo que la persona que quiera ser inteligente debe hacer es observar su propia operación cognoscitiva, la que ha realizado su sistema de tratamiento de información, comenzando por los sentidos. También las que haga con ayuda de otros, como son los ordenadores. Nuestro entendimiento entiende la realidad considerando su interior, no mirando fuera de sí: intra se considerando, non extra se inspiciendo[136]. Conocemos reflexivamente, al volver el entendimiento sobre sí mismo y sus operaciones. La teoría clásica del conocimiento es inmanentista en sentido pleno: de operación inmanente, íntima a la persona. Insiste más en la importancia de hacer bien la operación, más que en venerar resultados conceptuales parciales. No pone su confianza en las ideas, como hacen los malos inmanentistas, sino en la persona que se para a pensar para hacerse capaz de elaborar buenas ideas. Es una teoría que está más a la altura de la dignidad de la persona. Las otras inmanencias acaban sacrificando las personas a unas pocas y pobres ideas. La teoría clásica considera instrumental la capacidad de razonar; no es la reina de la fiesta que pensaron los racionalistas. Es un buen invento, que hay que utilizar y controlar mediante la reflexión, para que no se desmande. En la cima del conocer humano ponen el intelecto (nous, intellectus), no la razón (logos, ratio)[137]. No lo llamaré facultad, que es palabra con ramalazos cosistas, y puede transmutarlo en EL INTELECTO, como si fuera algo, o alguien, contrayendo el Síndrome de Optimismo Semántico. En cualquier caso, para empezar basta, es la capacidad del hombre para manejar sus ideas. Como Aristóteles inventó gran parte de la lógica, sólo padeció leves debilidades por aquellas ideas que deslumbraron a Platón y de las que él quería ser artesano. Para él la razón proporciona unas herramientas espléndidas, y sólo eso. Dominarla es tarea humana. No dijo que el hombre es animal racional, sino: "El hombre es el único animal que posee la razón"[138]. También lo definió de otra forma: "El ser que tiene la razón y, por un lado, la obedece; y, por otra parte, la posee y la piensa"[139]. Ese gran hallazgo aristotélico también lo están redescubriendo desde las Ciencias Cognitivas: "El hombre puede suscitar, controlar y dirigir sus actividades mentales. Dicho de forma sentenciosa: la inteligencia humana es la inteligencia animal transfigurada por la libertad"[140]. Búsqueda sin término: la pregunta El segundo tipo de operaciones cognoscitivas peculiares del animal humano, que cualquier etólogo puede observar, tienen que ver con la pregunta y el preguntar. Con ello no me refiero a la curiosidad. Los animales también la tienen, los superiores en un alto grado. La curiosidad del animal, también del animal humano, es muy grande en las primeras etapas de su desarrollo. Cualquier cachorro (incluido el humano) juega, corretea, explora, huele, toca, lame, se cuela en todos los sitios. Investiga el entorno, junto con los animales y plantas que lo ocupan. También experimenta con el propio cuerpo, al que tiene que aprender a dominar. Esta curiosidad es fundamental para el aprendizaje. En los animales superiores, con cerebro desarrollado y plástico, gran parte de su adaptación al hábitat y de su éxito evolutivo depende de su grado de curiosidad. Condiciona la capacidad de adquirir información y todo el aprendizaje. Las conexiones neuronales deben establecerse adaptadas al entorno, y al propio cuerpo en ese entorno. La curiosidad dirigida por los padres es elemento esencial de la educación, de la transmisión de información sobre actitudes y comportamientos exitosos acumulada por la especie a lo largo del tiempo. A medida que el sistema nervioso madura, la curiosidad disminuye, aunque no desaparece. Quedan los hábitos de exploración del propio territorio y aquellos otros que aseguran que el animal tienda a adquirir la información necesaria para su supervivencia. El hombre, en este aspecto, se comporta como un animal más: utiliza su sistema de tratamiento de información para adquirir información sobre la realidad que le afecta, sobre lo que necesita y sobre la satisfacción más oportuna de esas necesidades. Así explora, juega, ensaya... de manera instintiva; vale decir movido por su mera naturaleza animal. De forma semejante los padres orientan la curiosidad de los hijos y los educan. Las crías humanas, igual que los demás cachorros animales, aprenden porque su curiosidad es dirigida y por la tendencia a la imitación del comportamiento de los adultos. Así se transmiten y aprenden informaciones sobre cosas, comportamientos, rol y estatus social... Hasta aquí no hay ninguna diferencia apreciable. Sin embargo convenía decir lo anterior para dejar claro que los animales, igual que el hombre, tienen una fuerte tendencia "investigadora", de adquisición de información. Es necesario para mantener el adecuado nivel de semántica en su sistema neuronal de tratamiento de información, sin el cual no conseguirían sobrevivir. Insistir en este punto sirve para establecer con precisión la diferencia, si la hay, entre el preguntar y la curiosidad. No es válido declarar que los animales carecen de lo que evidentemente tienen; para así facilitar, de manera errónea, el camino de poner en claro lo que la humanidad añade al animal que somos. Por otro parte, no es difícil construir robots que tengan un comportamiento equivalente. El interés económico es escaso, por lo que únicamente se desarrollan en algunos laboratorios de manera experimental. Sin embargo construimos máquinas curiosas para campos especializados. No tan graciosas como los animales, pero mucho más eficaces. Son máquinas cognoscitivas que indagan y recogen información para nosotros: en ellas confiamos para muchos conocimientos empíricos que sólo ellas son capaces de adquirir. Exploran por nosotros y nos transmiten la información. Las cosas han llegado a un punto en que no podemos prescindir de las máquinas «curiosas» que hemos fabricado. En este aspecto no hay ninguna diferencia cualitativa con los humanos. Todo lo que sucede, ya lo he dicho, es que las máquinas nos van superando para adquirir información. La pregunta, el preguntar, tiene que ver con la curiosidad, porque el hombre no deja de ser un animal. Pero es una curiosidad que llega a ser también algo más. La pregunta, en primer lugar, manifiesta un percibir que la información suministrada por el sistema de tratamiento de información no es toda la información, o que es limitadamente información. Esto es lo sorprendente: ¡Encontramos un sistema de tratamiento de información -el humano- capaz de declarar su propia insuficiencia y limitación! ¡Capaz de declararse insatisfecho con lo que él mismo hace! Imagínese un superordenador futuro, mucho más potente y con más capacidad de aprendizaje que cualquier cerebro humano, que adquiriese muchos más datos que los alcanzables nunca por mí. Datos que, además, fuesen ciertos, con semántica garantizada. Sería una sorpresa mayúscula que un día dijera, con una magnífico sintetizador de voz muy superior a mis órganos de fonación, que todo aquello eran datos y nada más que datos pero que, en realidad, no conocía verdaderamente el asunto. Porque no hay manera de meter toda la realidad en datos; siempre resultan insuficientes; por más que parezcan, siempre son simples bits. Esto es lo que, para empezar, sucede en el caso de la pregunta. La curiosidad animal queda plenamente satisfecha con la información que adquiere su sistema de tratamiento de información. Mientras que la curiosidad humana no queda calmada con lo que le proporciona su propio sistema. Por ese motivo siempre sigue buscando más información. Esta es una de las tendencias más características del animal humano: siempre quiere saber más, constantemente busca más información, nunca parece quedar satisfecho con la que ya tiene. Por eso se habla del ansia natural de saber, como una característica peculiar, un fuerte instinto del animal humano. En el hombre "hay un apetito natural por conocer todas las cosas" [141]. Existe más hondura en la intimidad humana de la que ninguna información, ninguna idea, puede colmar. En la base del preguntar no está la maravillosa complejidad del mundo que habitamos. También los animales y los ordenadores están en él, y no se asombran tanto por lo que ven. En el origen se encuentra la incolmable profundidad de la subjetividad humana. Quiere entenderlo todo; anhela explicaciones últimas, definitivas. Busca una claridad total, una penetración que llegue hasta el hondón del mundo y de sí mismo. Aquí surge un problema: ¿Cómo es posible no ya captar lo que hay de información en la información, sino incluso percibir lo que en ella hay de falta de información? ¿No reclama esto algún tipo de intuición, de contacto directo con la realidad, por otra vía distinta de la suministrada por el sistema de tratamiento de información? Me parece que la respuesta debe ser negativa. No hace falta intuición alguna. Basta que la apetencia interna, que la sed -como necesidad de recibir información- o la capacidad intrínseca de recibirla sea mayor que la información suministrada, para que no quede saciada ni satisfecha. Esa superior capacidad de semántica, de referencia a la realidad, que hay en el pensamiento humano hace que éste nunca quede tranquilo con la información adquirida. La solución, por tanto, hay que buscarla en la superior subjetividad humana, a la que se suele llamar persona. La subjetividad humana es tan grande y es de tal capacidad que no se llena ni se sacia con lo suministrado por el sistema de tratamiento de información. Precisamente es la hondura subjetiva humana, su carácter personal, lo que hace que no le basten los objetos presentados por el sistema de tratamiento de información. El hombre consigue ser más objetivo, más capaz de objetos y más apto para su semántica, porque es extraordinariamente subjetivo, porque tiene una enorme grandeza interior que no se llena fácilmente. Si se esfuerza por estar a la altura de su inteligencia, puede ver que las ideas sólo son ideas y que la realidad que contienen es escasa. Para poder ser muy objetivo hay que desarrollar al máximo la propia subjetividad. En este punto conviene decir dos palabras sobre una catastrófica confusión: la oposición de objetivo a subjetivo, que nos ha colado en el lenguaje la falsa dialéctica sujeto-objeto. No se puede hacer una teoría del conocimiento dejando a un lado la persona que conoce, para quedarse con fantasmas despersonalizados como La Razón o La Inteligencia. Precisamente el hombre puede ser objetivo porque tiene una subjetividad tal que le permite captar los objetos mentales como tales. Juzga su semántica y puede utilizarlos, sin ser manejado por ningún objeto. Si ser objetivo quiere decir atenerse al objeto mental y sólo a él; entonces no hay que ser objetivos, pues siempre hay que superar y dominar los artilugios ideales que fabricamos. Lo que el lenguaje normal llama subjetivismo es más bien un objetivismo u objetualismo. Ese subjetivismo se da en una persona que no ha cultivado su subjetividad, por lo que la tiene escasa o en precario. Por ello resulta atrapada por sus ideas. No supera al animal ni al ordenador, no está a la altura de su dignidad. No es capaz de darse cuenta de las limitaciones de sus constructos mentales y tampoco observa su limitada semántica. Queda así encerrado en sus montajes conceptuales, en una ideología más o menos simplista, o en cuatro pobres razones que considera suficientes para explicarlo todo. El resultado es una pobretería objetivista, como una especie de esclavitud interior, al tener la subjetividad sometida al objeto. El retórico, al estilo sofista, es el que domina el arte de elaborar ideas envueltas en palabras atractivas, fáciles y llenas de respuestas baratas, con las que consiguen esclavizar desde dentro a los hombres. Modernamente es la técnica de la manipulación de las personas, mediante la información y los medios de comunicación, la que producen masas de borregos que pueden ser llevados, porque no saben caminar con sus propios pies. Renuncian a dar pasos hacia la verdad encerrados en la falsa seguridad de las no menos falsas palabras. El subjetivismo objetualista de quien pretende hallar refugio atrincherándose detrás de unas cuantas razones o «explicaciones» pone de manifiesto una personalidad empobrecida. Ha perdido en un mar de palabras la grandeza que tuvo en la infancia, porque los niños preguntan siempre. No les sirven las pobreterías racionalistas. Entienden mejor lo maravilloso y fantástico, lo que ven que es grande y lleno de misterio, más que lo estrechamente racional. El hombre que quiera ser tal, con toda su subjetividad desarrollada, debe abandonar el falso refugio de sus ideas y caminar por donde no hay caminos, por el misterio que está más allá del objeto mental, hacia el horizonte de verdad que le es propio. Casi se puede decir que lo más humano es el misterio, mucho más que la cerrazón formal que no sacia la subjetividad. ¡Ay de aquél que considere su sed satisfecha! "En el fondo de toda auténtica vida intelectual late siempre la experiencia del misterio"[142]. El que da la espalda al misterio y sólo tiene respuestas y no preguntas, es un derrotado del pensar. "Preguntar es la devoción del pensar"[143]. Quien renuncia a las preguntas porque se considera poseedor de todas las respuestas, en realidad desiste de pensar. El que mira constantemente los eslóganes de uso fácil contenidos en su catecismo ideológico, se acaba cortando la cabeza para poner un coco en su lugar, que resulta fácilmente comestible. Quien, aferrado a una tradición fósil, que ni siquiera entiende, se niega al desequilibrio de los pasos y al riesgo del camino, acaba negando lo que es propio de su misma humanidad. Porque "el camino del pensar es de tal índole que jamás se puede atravesar la encrucijada mediante una decisión y una dirección tomada de una vez por todas, ni se puede dejar atrás el camino teniéndolo a las espaldas en calidad de camino recorrido. La encrucijada va acompañando al caminante en todo momento a lo largo del camino. ¿A dónde conduce este raro camino del pensar? ¿a dónde sino a lo siempre cuestionado?"[144]. La persona que quiere estar a la altura de su dignidad es la que siempre camina hacia el misterio, porque siempre va más allá de lo dado en las ideas. Además de una espaciosa subjetividad, la capacidad de preguntar pone de manifiesto otra peculiaridad de la que es capaz el hombre: saber que no sabe. Tenemos información, y podemos conocer que nos falta mucha más, que no es completa. Percibimos su insuficiencia, su limitación, e intentamos ir más allá. Nos lanzamos a estudiar e investigar. "La inteligencia encuentra (y esto, aunque parezca claro, es lo sorprendente) cuando se atreve a ir más allá de lo dado. Hay casos en que sólo en la medida en que nos salimos de lo dado, un problema tiene solución. Y esto implica que lo dado no encierra la solución, o que el problema es ulterior. Para la teoría del conocimiento esta observación es muy indicativa"[145]. Con la pregunta se toma conciencia de que la información, aún cuando manifieste la realidad, no deja también de ocultarla, por lo que es un límite para acceder a ella. Pero "una cosa es conocida como límite, como deficiencia, sólo en cuanto este límite y esta deficiencia han sido traspasados"[146]. En la capacidad de preguntar descubrimos una operación del pensar humano bien diferente y muy superior al mero tratamiento de información. Podemos decir muchas palabras sobre la deficiencia de las ideas, incluso referirnos a crisis de ideas. También hablar de ausencias de sentido, de carencias explicativas, de insuficiencias teóricas. Pero es obvio que ninguna teoría explica sus limitaciones; no hablan de sus deficiencias. Las encontramos nosotros si procuramos ser inteligentes. "La objetivación de la finitud corre a cargo de la inteligencia misma. La inteligencia cuando objetiva que no conoce más, eo ipso se lanza hacia más. La declaración «no conozco más» es imposible para la imaginación, o para la sensibilidad externa. Son finitas, precisamente porque no notan su finitud. La inteligencia, en cuanto nota la finitud del objeto, propone la noción de infinitud. La tesis: «la objetividad intelectual es finita» se disuelve de suyo, puesto que es una tesis intelectualmente objetivada, es decir, ya conocida. Ahora bien, si se conoce se posee lo conocido y se sigue conociendo. A quien declare que, una vez llegado a un punto, no puede proseguir -intelectualmente hablando-, hay que responderle que la renuncia, el desistir intelectual, es incoherente. El primero que se dio cuenta de esto in actu exercito fue Sócrates. Si «sólo sé que no sé nada», sé que mi capacidad de conocer no se contenta con lo finito. Esta es la conclusión inmediata del socratismo"[147]. Estupendo Sócrates, siempre preguntando, empeñado en ser partera de buenas ideas. Enorme sabiduría, que al necio parece ignorancia. "El que en el hablar sólo busca tener razón y no darse cuenta de cómo son las cosas, considerará lógicamente que es más fácil preguntar que dar respuesta. (Pero) para poder preguntar hay que querer saber, esto es, saber que no se sabe"[148]. Si resulta sorprendente saber lo que se sabe -es decir, conocer la información- mucho más extraordinario es poder declarar que no se sabe, indicando así la insuficiencia de esa información. Porque la información que sabemos nada dice de sus limitaciones y carencias. Sin embargo, declarar que la información no aporta toda la comprensión posible, implica que se tiene información. Esto es importante: la pregunta nunca se hace en el vacío. Como mucho se puede simular, pero no hacerlo realmente. En toda pregunta hay una información de partida suministrada por el sistema de tratamiento de información, y supone al mismo sistema en funcionamiento. Si no hay información o si el sistema no está activo, como en el sueño, no hay preguntas ni dudas posibles. La primera fase esencial para realizar buenas preguntas es conseguir conocer con cierta precisión lo que se sabe. Las buenas preguntas, o los problemas bien planteados, ayudan mucho a encontrar respuestas acertadas, que permiten nuevas y mejores preguntas. Una actitud estéril es partir de la negación de toda la información anterior. Se intenta progresar desde cero, declarando que nos ha precedido una multitud de imbéciles e ineptos, cuando no malvados. Es la cultura de la sospecha, que tanto afecta a nuestra forma actual de pensar. Pero es una actitud ridícula arrasar con todo lo anterior intentando encontrar una novedad absoluta, porque uno es un «genio», y tiene mucho «ingenio». Está más de moda entre los de «letras»; los de «ciencias» tienen otras manías. Se intenta poner en el punto de partida una negación absoluta pretendiendo así llegar a una afirmación no menos absoluta. Son pretensiones vanas, porque nuestro sistema de tratamiento de información neuronal no da para esos devaneos; requiere ser bien utilizado, de acuerdo con sus posibilidades reales. Los que crean haber conseguido una novedad absoluta, verán cómo los deconstructores de textos encuentran filiaciones y antecedentes para casi todo. Jibarizarán lo que parecía parto de los montes para reducirlo a ínfimo ratón. Sin olvidar que, para escribir una novedad absoluta, habría que empezar por inventar letras, palabras y todo el lenguaje; porque los idiomas no los hablamos, nos hablan en gran medida. Antes dije que no preguntar es renunciar a pensar, por lo que aferrarse a una tradición -a un determinado constructo formal- no debe hacerse. Ahora afirmo que igualmente es renunciar a pensar la pretensión de un progreso mental absoluto que no quiera partir de esa tradición, de lo ya conseguido, de la buena información existente. Toda investigación acertada se edifica estableciendo con la máxima exactitud posible lo sabido, para preguntar con acierto, de manera que se puedan encontrar respuestas. Sólo partiendo de la información adquirida se hacen las preguntas capaces de tener respuesta, y no preguntas dislocadas, en el vacío, que nunca habrá manera de contestar. La pregunta absoluta, madre de todas las preguntas, que se intenta hacer desde el vacío a otro vacío mayor, no deja de ser una pretenciosa necedad muy del gusto decimonónico. Los pasos hay que darlos uno detrás de otro, porque nuestro sistema de tratamiento de información neuronal no permite otra cosa. En toda búsqueda en la que se quiera encontrar algo deberemos: establecer con precisión el problema, plantear posibles líneas de ataque conceptual, encontrar y valorar las aparentes soluciones. Otra cosa es problematizar las cuestiones, tarea para la que muchas personas se entrenan con asiduidad. Mala cosa, porque necesitamos personas capaces de aportar soluciones, ya que los problemas abundan. "La pregunta se formula en la medida en que se niega -lo que se sabe, o lo sabido. El agotamiento de la negación se ve especialmente en la pregunta: es la imposibilidad de formular la pregunta por antonomasia: no existe la pregunta por antonomasia, sino una pluralidad de preguntas irreductibles (...). En la pregunta la negación es referida, ante todo, al saber que se tiene. Es el principio socrático 'sólo se que no sé nada'. Se interroga en la medida que no se sabe; pero esa medida no está referida en directo a una ausencia de conocimiento, sino que recae, como una investidura, en lo que se sabe. Preguntar es declarar que no se sabe, relativamente a lo que se sabe. La negación intenta entonces retroceder al punto de partida (...). No se trata de preguntar en el vacío: frente a la dialéctica, preguntar es negar que se sepa lo que se suponía sabido, volver a pensarlo. La pregunta no deja el punto de partida como pura indeterminación exenta. Al final, ante la pregunta, sólo queda el pensar. Sin embargo, si no se incurre en incoherencia, la investigación también se agota: siempre se puede preguntar; pero preguntar es siempre plantear una pregunta; nunca se puede plantear la pregunta por antonomasia (...). No se encuentra una pregunta si la pregunta no se formula; formular una pregunta consiste estrictamente en acertar a negar la suficiencia de lo supuestamente conocido"[149]. Dicho de otra manera: "Todo preguntar y todo querer saber presupone un saber que no se sabe, pero de manera tal que es un determinado no saber el que conduce a una determinada pregunta"[150]. Preguntas hay muchas, pero cabe sistematizarlas. No pretendo en estas páginas realizar una investigación exhaustiva sobre los tipos de preguntas y el modo de hacerlas. Es una tarea muy interesante para conseguir ser medianamente inteligentes. Aristóteles se enfrentó a ella en los Segundos Analíticos. No puedo resistirme a incluir una cita que resume sus investigaciones: "Aristóteles examina los tipos de preguntas que el hombre se hace, y los deja reducidos a cuatro. El primero es lo que llamaríamos el hecho: nos preguntamos, por ejemplo, si la cosa es tal o cual, si el sol sufre o no un eclipse. Cuando conocemos el hecho, preguntamos el porqué: por ejemplo si sabemos ya que el sol sufre un eclipse o que la tierra tiembla, preguntamos por el porqué de ambos acontecimientos (...). Pero hay una posibilidad distinta de preguntar, y es plantearse simplemente si algo existe o no. Aristóteles recalca que se toma la expresión si existe o no (si es o no) en sentido simple, y no como cuando decimos, por ejemplo, si algo es o no blanco (...). Por último, una vez que sabemos que alguna cosa existe, hacemos aún un último tipo de pregunta, a saber: qué es esa cosa (...). Nuestro saber consiste en responder a esos cuatro tipos de cuestiones. Ahora bien, afirma Aristóteles, cuando nosotros preguntamos por el hecho (¿se puede atribuir A a B?) o por la simple existencia, no estamos buscando otra cosa que si existe un término medio que justifique el hecho o la existencia, mientras que, cuando preguntamos por el porqué o por la naturaleza de la cosa estamos buscando, dado que ya sabemos que existe un término medio, cuál es ese término medio (...). El término medio es la causa y la causa es el objeto de toda investigación (...). Toda investigación es una investigación en último término de causas (porqués)"[151]. Si tuviéramos en cuenta estas distinciones nos ahorraríamos multitud de desórdenes mentales. En resumen, la capacidad de preguntar supone, al menos, dos propiedades singulares del animal humano que admiten crecimiento y mejora. De una parte, las habilidades reflexivas que permiten entender que la información en sólo información. De otra, que la curiosidad del hombre, o el afán de realidad del pensar, o la capacidad de verdad de la subjetividad humana, sea inagotable. Quisiera ahondar un poco más en este punto, para llamar la atención de los etólogos sobre algunos comportamientos observables en el animal humano. No digo que el hombre tenga una capacidad infinita de recibir o tratar información. Bien se puede observar experimentalmente lo limitada que es por las características de su sistema de tratamiento de información. Pero sí afirmo que, con su propio sistema o con la ayuda de otros, siempre se afana en apresar más información, que trate la mayor cantidad de realidad posible. Por más que sepa, siempre pretende, intenta, busca... saber más. Nunca la información que adquiere y elabora con su sistema de tratamiento de información, o con otros, parece satisfacerle. Siempre puede dar nuevos pasos hacia su horizonte propio, que es la realidad. O, si se quiere, la verdad, la realidad conocida. El hombre quiere interiorizar todo, consiguiendo siempre más información sobre la realidad para acumularla y tratarla en su interior. Esa curiosidad peculiar humana tiene dos características sobresalientes: en primer lugar, al hombre le interesan todo; en segundo lugar, parece que le importan todas las cosas consideradas en sí mismas. A un animal le atraen muchas cosas, pero no todas ni en sí mismas. Un león tumbado tranquilamente a la sombra de una acacia, con la tripa llena, puede ver lo mismo -o más y mejor- que vería yo en idéntica situación. Olores percibe muchos más y, con seguridad, también sonidos. Lo que sucede es que, por ejemplo, la mayoría de las plantas de la sabana le dicen muy poco; la tierra y las piedras casi nada. No le interesan porque su supervivencia está escasamente ligada a ellas. Es un depredador, lo suyo es la carne con patas que se mueve en la llanura. La evolución ha hecho que esas cosas si le interesen; también le ha llevado a adquirir sobre ellas información con bastante semántica. Pero la tierra prácticamente no la ve, sólo ve las huellas de la víctima potencial en ella. El animal lo percibe todo sólo en relación a sí mismo. Por el contrario, yo puedo ver como él las huellas y seguirlas con instinto depredador. O quedarme estudiando el suelo movido por una pasión edafológica. O intentando clasificar las plantas, ayudado de una guía botánica. Soy capaz de interesarme por todo, tenga o no que ver de manera directa con mi alimento, o con cualquier otra necesidad. Incluso me interesan las cosas que se pueden juzgar más tontas e inútiles a primera vista. Mi curiosidad es universal. El hombre busca y almacena información acerca de todo. Inventa máquinas para explorar donde sus sentidos no llegan. Saca de la oscuridad aspectos de la realidad que le eran opacos. Habla así de positrones, quarks, o de bosones vectoriales intermedios. Analiza su propio comportamiento para entender qué es eso que llama libertad. Se afana, con mucho gasto y esfuerzo, en poner bibliotecas, universidades, laboratorios. Reparte premios Nobel, encumbrando a las personas sabias en la escala social de la manada. No a los machos fuertes y agresivos, como nuestros parientes los simios. Desde la biología, la etología o la antropología[152] se señala que un animal vive en un entorno mientras que el hombre habita el mundo. La gacela que el león observa pasar de lejos, le dice al felino que es comida. Más fácil o difícil de conseguir, dependiendo del terreno, del viento, de la ayuda de otros leones, y de las características físicas de la gacela. Pero al león no parece interesarle la gacela en sí misma considerada. Sólo la mira en relación a él. El hombre también come gacelas; pero además se preocupa por saber qué y cómo son. Las observa y estudia; obtiene información sobre sus hábitos y comportamiento. Las desarma, no para comerlas mejor, sino para saber sobre su anatomía y fisiología. El animal humano dedica mucho tiempo a obtener informaciones sobre las cosas en sí mismas consideradas, aunque esa información parezca totalmente inútil. Puede decirse que le interesa toda la realidad del mundo como tal, por sí misma, independientemente de lo que le afecte como animal. En la teoría clásica de conocimiento, ese comportamiento se expresaba en parte diciendo que el objeto propio del conocer humano es el ente. Es decir, todo lo que existe, por el mero hecho de ser. Lo real en cuanto que simplemente es real, al margen de toda otra consideración que se le pueda añadir de conveniencia o utilidad. Es como si el hombre pudiera abrir sus ojos al mundo sin más intención que contemplarlo. Con una mirada que quiere estar limpia de interés propio, capaz de una delicada pureza intencional. Nada más quiere ver; sólo anhela ver más y más a fondo: comprender. En el entender humano hay una extraordinaria pasión por lo inútil. No desea el hombre conocer las cosas por ningún motivo, no le mueve nada, no es necesario para su supervivencia. Busca conocerlas porque sí, simplemente porque están ahí, por el puro y sencillo, elemental y básico afán de saber. Es el mismo saber el que le mueve. Se goza en saber que sabe, y en saber siempre más. Por eso siempre pregunta; por eso siempre tiene también preguntas nuevas. Nunca se satisface la inteligencia con ideas hechas, con ningún constructo mental. Lo puede buscar y elaborar con el deseo de que sea el definitivo, pero al llegar a él todavía el horizonte de la verdad parece más amplio, y los caminos para llegar más innumerables. Tenemos, según parece, un afán infinito de conocer. Se dirige a todo y bajo todos los aspectos, sin limitarse. Esta afirmación se puede mostrar también a partir de una actitud que no se presenta en ningún animal sano ni en ningún ordenador cabal, pero sí en el hombre. Es un comportamiento de animal frustrado en sus expectativas. En el animal humano, el instinto por conocer todo de manera completa, cuando es defraudado produce la actitud escéptica. Es la del que renuncia a pensar porque no le satisface la información conseguida. Cuesta imaginar un ordenador escéptico, lamentándose de tratar sólo bits que sólo son eso, sin conocer nada en realidad. Animales con deseos frustrados conocemos muchos, pero ninguno que sufra por sentirse desengañado por sus percepciones y por lo que sus neuronas hacen con ellas. Hace falta mucho afán de saber para conseguir ser escéptico. "La infinitud cognoscitiva es la explicación de una actitud paradójica: el escepticismo. Hegel sería la madurez del escepticismo, según una sugerencia de Heidegger. El escéptico, cuando no es trivial, cuando no duda por dudar (como dice Descartes), es el que intenta la culminación cognoscitiva en directo; por eso se siente defraudado ante lo que le ofrece cada una de sus operaciones cognoscitivas. Escéptico viene de skepsis, que significa la mirada o el mirar. La mirada escéptica es la mirada enteramente abierta, dirigida lo más lejos posible y apartada de todo lo que hay. Lo que hay son los objetos finitos que no satisfacen esta actitud intelectual. Pero el escéptico abre su mirada al vacío de todo objeto particular porque el objeto particular defrauda la infinitud. Hegel declara que lo particular es falso; la noción de todo -la verdad es el todo- señala el intento de llegar al absoluto"[153]. Esta actitud escéptica es propia del hombre y señala el tamaño de las aspiraciones humanas que intento poner de manifiesto. En el fondo, por querer dar el gran salto definitivo y total, el escéptico renuncia a dar los trabajosos pasos que requiere el uso de la propia cabeza. Abandona el intento de acercarse a la realidad en eso que Popper denominó búsqueda sin término. Una ambición desmedida por un conocer que se quiere ya, sin esfuerzo, conduce a la frustración cognoscitiva, a la renuncia desencantada. "La actitud en la que el puro escepticismo se pretende poner es la de una generalización sin excepciones, matices ni reservas. Es, a la vez, absolutista y cómoda, porque cree dispensarse de las molestias de ir buscando la verdad -la claridad de la realidad- en medio de la confusión de los errores que tal búsqueda entraña. De un sólo golpe, el escéptico puro se instalaría olímpicamente en su presunta subjetividad exenta. Pero ello es inviable y, si se permite hablar así, viene a quedarse en un gesto de malhumor, tan vehemente como transitorio"[154]. Dijo la zorra: están verdes las uvas, y abandonó el intento. Porque "fácilmente la «skepsis», frente a lo no demostrado, se convierte en la prohibición de pensar"[155]. El escéptico es otro fracasado del pensar, con jubilación anticipada y autoprohibición expresa de acercarse al lugar de trabajo. Escépticos, no obstante, hemos de ser. Es decir, no hay que perder de vista el horizonte, ni pararse en el camino. Malo es apoltronarse en el primer constructo mental que resulte del personal agrado. Nunca hay que acabar por creerse las ideas, menos aún las propias, aunque parezcan buenas. Siempre hay que volver a preguntar, ir más allá. Pero no se debe ser escéptico en el sentido de renunciar a caminar, por muy fatigoso o lento que parezca. Las preguntas capaces de hallar respuestas siempre deben ser hechas. Tenemos un problema fundamental por resolver. El progreso en el conocimiento y, como consecuencia, la finalidad más básica de toda educación humana, no se consigue formando eruditos con mucha información mal digerida, muy capaces de citas. Tampoco se alcanza produciendo buenos ordenadores humanos, bien ceñidos a un método formal de trabajo. Expertos en él, pero también atrapados en él. En la educación es vital que aprendamos a cultivar y transmitir "una disciplina del preguntar y el investigar que garantice la verdad"[156]. Mantener la cabeza alta, para no perder de vista el horizonte. Conseguir que los árboles no oculten el bosque. Practicar el inteligente deporte de interesarse: abandonar el pasivo no me interesa, ejercitar el activo me intereso. Discurso de los métodos Paso a otro tema, relacionado con el saber que no se sabe. Para exponerlo acudiré a un famoso personaje. Según relatan las crónicas de la especie homo sapiens sapiens, un espécimen del animal humano, llamado Descartes, realizó algo muy peculiar. El día 10 de noviembre de 1619, pasaba el invierno en una pequeña aldea alemana cerca de Ulm. Ese año andaba enzarzado en una guerra tribal de imposible justificación; en aquel lugar buscó refugio durante la forzosa tregua de la estación fría. Allí gestó un proceso mental -él contaba que comenzó en forma de sueño- que condensaría en un famoso libro: El Discurso del método[157]. La interpretación de su comportamiento y de su texto ha dado mucho que hablar a innumerables especialistas. He de sumarme a la multitud, aunque no sea perito diplomado. Atendiendo al parecer de los estudiosos, podemos suponer, con algún fundamento, que tenía en su cabeza los siguientes elementos: 1) Una educación filosófica impartida según los esquemas formales de la escolástica tardía. Que no se sabía muy bien de qué cosas reales hablaba, al perderse en distingos bizantinos de escuela las más de las veces. 2) Las ideas escépticas dominantes que abundaban por entonces, muy divulgadas y popularizadas por Montaigne, personaje que grabó en las vigas de su estudio: "Lo único cierto es que todo es incierto". Era una época de crisis e inseguridades mentales. 3) La confianza que le proporcionaban las matemáticas, en las que resultó ser un genio de primer orden. Con estos elementos, el proceso podría ser el siguiente: por si Descartes no se había dado cuenta de la vaciedad de las enseñanzas pretendidamente filosóficas que había recibido, tenía al escepticismo para sacarle de confianzas ilusorias, al destrozar cualquier seguridad que aquel vacío y decrépito edificio pudiera dar. No voy a entrar aquí a analizar como aquellos primeros y geniales pasos de Aristóteles y Tomás de Aquino habían conducido paulatinamente a una rígida formalización del pensamiento clásico. Que, además, se presentaba a sí misma como una especie de biblia filosófica, a la que se debía prestar asentimiento reverencial. Tampoco voy a ver cómo esa dureza y falta de flexibilidad conceptual había terminado por encerrar a la filosofía en sí misma; produciendo en muchos, como rechazo, un fuerte escepticismo. La historia es harto conocida y está más que vista. Por los motivos que sean, que no vienen al caso, aquí sólo interesa lo que Descartes hizo. Advirtió que, en medio de la ruina conceptual que habitaba, el único apoyo firme era una ciencia y un método: el de las matemáticas. Sería el salvavidas al que aferrarse en medio de la confusión. No es mal salvavidas, aunque no soporta tanto peso como quería Descartes. La descomunal carga produjo descompensaciones, como la excesiva confianza en la razón, de la que los mismos matemáticos nos han desengañado. Trajo algún invento nefasto, como la separación entre res extensa y res cogitans, que nos hemos creído, hasta el punto de organizar nuestros conocimientos y enseñanzas según ella. Se enredó en temas que ahora nos hacen sonreír: como imaginar la conexión de esas dos sustancias en la glándula pineal. También es herencia conceptual suya la problemática -por mal planteada- discusión actual sobre la naturaleza del pegamento que une mente y cerebro. A pesar de todos sus errores, me parece un Quijote al revés. Se enfrentó a unos molinos de viento que todos creían gigantes temibles: él fue muy cuerdo. No nos ha librado de los monstruos, como pretendió, por que no existían. Pero nos ha ayudado a ver que los molinos de viento eran tan sólo obra humana, y hay que trabajarlos. Como llevamos siglos de disertaciones enfrentadas sobre lo que hizo Descartes, habré de ir despacio si quiero explicarme. Descartes se declara insatisfecho con todas las ideas que ha recibido, pero no decide ser escéptico, no renuncia a pensar. En su lugar, opta por examinar las ideas desde el inicio. Es una insatisfacción que no sólo atañe a la información que se adquiere y a su semántica, como sucedía al preguntar. Afecta a cómo el sistema de tratamiento de información la elabora y presenta. Con esto es la misma forma de pensar la que se declara inadecuada. Lo que se busca no es adquirir más información, sino que se indaga sobre el método mismo por el que el sistema de tratamiento de información la organiza y trata. En analogía informática, Descartes duda de la bondad del software mental que ha recibido. Como consecuencia, decide escribir el programa completo desde el principio, línea a línea. Es un programador empeñado en desarrollar un buen sistema operativo para la mente humana, libre de confusiones y fallos. No se puede negar que su actitud es bizarra, con todo el atractivo de las rebeldías más radicales. Cayó en la cuenta de que no podía suspender su actividad vital mínima, porque muerto no se piensa. Por ello decidió unas reglas elementales para sobrevivir mientras rescribía su software mental, de manera que el cerebro no se quedase sin fuente de alimentación. Hecho lo cual, se empeñó en prescindir de todas sus ideas. "El núcleo de la maniobra cartesiana reside en la consideración de la objetividad desde el punto de vista de ponerla o quitarla (...). Al pensar lo que sea, considero que estoy pensando y prescindo qué sea lo que estoy pensando. Esta separación es la fisura abierta por la duda universal. Ahora bien, si hago eso -dudar-, lo que descubro es la capacidad de quitar el objeto, no de pensarlo"[158]. De esa forma escribió una declaración de libertad respecto del objeto mental; un notable alegato independentista respecto de las pretensiones de dominio de las ideas que había recibido. Procuró prescindir de todo su edificio conceptual, derribándolo con la piqueta de la duda -aunque, a su vez, es dudoso que consiguiera su propósito- y emprendió la tarea de elaborar una casa mental nueva. Buscaba ideas que le estuvieran sometidas, que fueran suyas y dominara plenamente, sin deberles veneración alguna. Todo el acontecimiento resulta más que prodigioso; es muy revelador sobre las posibilidades de la inteligencia humana. La capacidad reflexiva, bien entrenada, da para mucho. En la Inteligencia Artificial habría que dar un vuelco total para construir una máquina cognitiva capaz de hacer algo semejante. Habría de imitar a Descartes, y no es nada fácil. Imagínese un ordenador decidiendo los elementos mínimos de los que no puede prescindir para recibir corriente eléctrica. Que luego dejase su memoria de datos y la de programas en suspenso. Para, más tarde, embarcarse en una revisión exhaustiva, línea a línea, de todo el sistema operativo y de todos los programas. Que, habiendo prescindido de ellos, buscase un criterio de valoración para evaluar cada línea de programación. Así, paso a paso, hasta culminar una revolución copernicana en la programación de todos los ordenadores. Es más, que consiguiera tener a muchos ordenadores, confusos y aturdidos, discutiendo durante siglos para averiguar lo que había pasado. No es pequeña la hazaña; veamos a dónde nos puede llevar. El método con el que un sistema de tratamiento de información trabaja, consiste en hacer formalizaciones, estructuras o modelos de computación y simbólicos parecidos a los que se dan en la realidad. Si el orden interno del modelo corresponde al real, entonces el sistema es eficaz para moverse en un entorno real. También es posible dotar a los ordenadores de capacidad de aprendizaje. Algunos lenguajes de programación, como el LISP, permiten que la máquina se reprograme en parte. De manera semejante, un animal superior, debe hacer mapas internos semejantes a la distribución real del terreno, más un buen modelo de sí mismo, junto a las distintas acciones con sus diferentes resultados. A lo que hay que añadir una sucesión temporal con intervalos semejantes a los reales, todo ello dentro de un esquema causal lo más ajustado posible al real. Conseguido esto de manera conveniente puede, como consecuencia, tener un comportamiento eficaz, asegurando de este modo su supervivencia y la de su especie. La evolución -mejor: el proceso evolutivo- fomenta los sistemas animales con buenos procedimientos para tratar la información sensorial. En tanto que animal -cosa que nunca deja de ser-, el hombre hace exactamente lo mismo; le va la vida en ello. Si no fuese así no podríamos estudiar la especie humana, ni yo escribir este libro; serían marcianos los que estarían excavando nuestros restos fósiles. Sin embargo no parece que el hombre haya sabido quedarse tranquilo conformándose con ser un animal feliz y pacífico en una bucólica arcadia, por lo demás inexistente (Darwin dixit, al mostrar que en la naturaleza hay lucha, competición y supervivencia de los más aptos, no un feliz sestear satisfecho). Desde que el homo sapiens sapiens camina erguido sobre la tierra o, más exactamente, desde que tenemos constancia documental, parece como si se hubiera metido en todo tipo de aventuras mentales explorando muy variadas formas de pensar. La historia del pensamiento humano aparece tan abigarrada que produce confusión. Desconocemos las formas de pensar de muchos grupos humanos; las que han llegado hasta nosotros -vivas o en documentos- sorprenden por su variedad. Es una maraña, a menudo espesa, en la que resulta difícil abrirse paso para encontrar un poco de luz. La mayor parte de las veces ese caminar ha resultado sumamente errático, como a ciegas, en una continua sucesión de trompadas. La espontánea selección natural ha dejado un poso multiforme de constructos mentales diversos, más o menos eficaces: los llamamos culturas. En todas ellas encontramos un modelo, todo lo caótico y disperso que se quiera pero modelo al fin, del mundo y del hombre. Junto con lo que se consideran las relaciones más convenientes entre ambos, y de los hombres entre sí. Algunas no consiguieron un buen modelo de esos elementos; han desaparecido por consunción interna, por ineficacia del modelo. En las culturas supervivientes, y también en las desaparecidas, se contiene un tesoro de elementos válidos, de representaciones oportunas de lo mejor del hombre, del mundo y de sus relaciones. También hay en todas, incluidas las existentes, mucha paja inútil. Tarea difícil es discernir lo que hay de oro puro dentro de una determinada cultura, separando la ganga del lastre inútil o perjudicial. No es inteligente, en absoluto, arramblar con todo desde una actitud de olímpico desprecio por la cultura arraigada en los pueblos. Las más de las veces se hace sin saber a ciencia cierta si lo que se desprecia es paja o grano. Con excesiva frecuencia se tira justamente lo más valioso, por ser más pesado o requerir más esfuerzo. También es poco inteligente cultivar un papanatismo, políticamente correcto, de veneración incondicional por toda cultura. Son obra humana, y ninguna persona debe sometérseles. Las culturas son, el nombre lo indica, cultivos humanos; hay que trabajarlas y mejorarlas. El camino podía haber seguido así, un tanto errático y dando tumbos, consiguiendo aciertos por medio de artes de éxito inseguro. Pero se ha producido la gran revolución que nos ha introducido en la producción industrial de ideas y métodos mentales. Antes de la Edad Moderna se había recorrido un gran trecho, con el desarrollo de la lógica, las matemáticas, técnica de la definición, métodos analógicos de pensamiento, clasificaciones, elaboración afinada de conceptos, análisis de la demostración, etc.. Lo que los medievales denominaban «segundas intenciones», eran objetos de intensa producción artesanal. Algunos artífices destacan como verdaderos genios. La teoría clásica del conocimiento, sin embargo, no desarrolló suficientemente este punto: sintaxis, semántica y pragmática -del lenguaje y de las ideas- permanecían entremezcladas. El vuelco conceptual completo se realiza en la Edad Moderna. "Tal vez lo más importante de la metodología moderna es el haberse dado cuenta de que, operando con el lenguaje en su plano sintáctico (y prescindiendo, por tanto, de los otros dos), se facilita enormemente el trabajo intelectual"[159]. Tengo para mí que es uno de los mejores legados de esa época que ahora tantos declaran difunta. Me acuso de no ser postmoderno, quiero saber; no me bastan las papillas de ideas ligth del pensiero debole. No voy a decir que la modernidad acertó en todo, bastante he criticado hasta ahora algunas deficiencias suyas. Comete errores que recuerdan a un niño con juguete nuevo. O, mejor aún, al adolescente que estrena moto y se emborracha de velocidad. Deslumbrados por el nuevo descubrimiento, no eran muy conscientes de lo que ignoraban. Contaron con las quejas, protestas y avisos de la gente "mayor" que, sin entender mucho tampoco, avisaban del peligro de aquel artilugio diabólico. El primero que tomó con demasiada velocidad las curvas fue Descartes. Le han seguido bastantes propietarios de muy buenas cabezas, filósofos renombrados. Gracias a ellos conocemos unos cuantos huertos mentales en los que es posible perderse. Quizá, con la ayuda de la Inteligencia Artificial y de las ciencias cognitivas, podamos aprender a conducir mejor la cabeza, sin que nos cieguen los éxitos. A pesar de todo, los errores nada quitan al valor de su aportación fundamental. ¿Cuál es el gran y buen hallazgo cartesiano?: La independencia, la creatividad y el dominio del hombre respecto de las ideas, de los objetos mentales. Este punto tiene una importancia que difícilmente puede ser exagerada. Consigue una definitiva derrota de las pretensiones platonizantes, bajando el nous uranós a la tierra de una vez por todas. Aristóteles lo había intentado, pero sólo lo consiguió en parte. La modernidad obliga al cielo de las ideas a un violento aterrizaje forzoso, del que ella misma ha sido víctima. Pero la esencia de la cuestión está en haber insistido en que las formas pensadas son modelos elaborados trabajosamente por el hombre; no están en ningún sitio sino dentro de él. Antes del intento moderno, se dio otra tentativa de independencia en la baja Edad Media, que está en la base de Descartes, y que se saldó con un fracaso. Me refiero al nominalismo. "El nominalismo del siglo XIV surgió como un refugio frente a la sospecha de que la filosofía aristotélica contiene la pretensión de conocimiento exhaustivo de lo real"[160]. De forma errónea y precipitada se atrincheraron en formalismos, y pasaron el problema a la voluntad. Fue una salida en falso de la que hemos heredado una noción de voluntad problematizada y un concepto insignificante de libertad. Pero no interesan sus fallos, aquí considero únicamente lo que el nominalismo tiene de toma de conciencia sobre la palabras y términos como constructos humanos. Sucedió tras la grave discusión medieval sobre los universales y el establecimiento de una solución de corte aristotélico, que los pone en relación con la realidad intrínsecamente. Así las cosas, vino el nominalismo diciendo que los universales sólo son nombres, simples palabras, que por sí mismas no dicen nada. Son, por tanto, fabricables y manejables sin que el universo se tambalee. Que tengan o no semántica es ajeno a ellas mismas: los nombres van por un lado y la realidad empírica por otro. Siendo esto cierto, sin embargo en la época el resultado fue desastroso. Produjo una auténtica borrachera de palabras por medio de la dialéctica, puesta de moda en toda Europa a través de las nuevas cátedras de nominales. Es una embriaguez de la que todavía no nos hemos librado del todo. Jugar con las palabras, pensando que están vacías cuando nuestro sistema de información, queramos o no, les atribuye una semántica, puede ser un juego mortal. Porque nuestro sistema de tratamiento de información es el que dirige nuestro cuerpo y nuestra vida. Más que someter a las palabras, acaba uno dominado por ellas. La dialéctica es un juego que hay que saber jugar muy bien. Produce lesiones mentales casi irreversibles. De todas formas, jugar inconscientemente ese juego algún bien produjo. Las ciencias experimentales, cuyos fundamentos de observación y técnicas de trabajo se habían puesto en la Edad Media, se vieron ayudadas en su parto definitivo. Jugar con las palabras hizo que se perdiera el miedo a palabras nuevas y nuevos edificios conceptuales. Surgieron teorías nuevas. Construidas, en primer lugar, mentalmente, antes que con los mismos datos experimentales, que eran conocidos desde siempre y estaban al alcance de todos. Además, la insistencia nominalista en mirar la experiencia particular, dejando las palabras en suspenso y manejándolas con toda libertad, supuso una mayor atención a lo empírico. Este segundo elemento sería definitivo para la consolidación de las ciencias. Descartes terminó de andar el camino que iniciaron los nominalistas. Buscaba el método para pensar. Ahora sabemos que no hay uno, sino muchos. No hemos de quedarnos en el discurso del método, sino que habremos de afanarnos en discurrir muchos métodos mentales, seleccionando los más aptos. No se puede arriesgar el conocimiento a la carta de un sólo método. Mientras más y mejores herramientas conceptuales tengamos en nuestro taller de ideas, más facetas de la realidad podremos trabajar con ellas. Hemos de evitar confianzas infantiles en la razón, tentaciones formalistas, estrecheces reduccionistas y, finalmente, vacunarnos contra virus optimistas semánticos. Con estas normas básicas de seguridad laboral, podemos comenzar el trabajo. La aspiración de Descartes, empeñado en elaborar y trabajar sólo con ideas claras y distintas, resulta ser fundamental. De la distinción y claridad que alcancemos en la elaboración de los objetos mentales dependerá absolutamente la posible claridad de su significado y la distinción que alcancen en el ámbito semántico. Sin un software conceptual adecuado y preciso, la información se convierte en un ruido inmanejable e indistinguible. Si bien Descartes no tiene razón al pretender que la semántica vendría automáticamente de esa claridad y distinción, sin embargo no hay que disminuir la importancia trascendental de su descubrimiento: sin claridad mental sólo hay galimatías dentro y fuera del pensamiento. Por ello no acierta quien, por criticar sus errores, echa en saco roto su magnífica intuición; haría un flaco favor al pensamiento. Por lo demás, el error de Descartes es bien comprensible: magnífico matemático como era, se dejó llevar, ignorando que a los matemáticos sólo les debe importar pensar con precisión. Ellos son los únicos que no saben de qué están hablando y, además, no les importa; sólo buscan la claridad conceptual. Este "no les importa" resulta cada vez más del mayor interés. Son los trabajadores del software mental, y cada vez entendemos más la importancia del software. Gracias a Descartes somos más conscientes de aspectos esenciales de la forma humana de ser inteligentes. El acto interior, las operaciones por las que elaboramos la información y fabricamos ideas semejantes a la realidad, pasa a ser dominio del actuar de la persona. Por otra parte, el hombre no puede fabricar otras ideas que las que le permita hacer su sistema de tratamiento de información, o las que consiga por medio de la ayuda de otros, como las máquinas cognitivas. Esto es esencial no olvidarlo: la fabricación de software mental es fatigosa y limitada. Es tarea del hombre, que debe aprender a dominar con pericia. Hay que proceder paso a paso, con paciencia. El sistema de tratamiento de información no es capaz, sólo o con la ayuda de otros, de fabricar ideas que, de una tacada, lo expliquen todo. "El pensamiento no puede ser terminativo; que obtenga -objetos- no quiere decir que haga objetos últimos. Por eso, insisto, acabar las operaciones equivale a quedar abierto el pensar"[161]. Así puede elaborar muchas ideas y formas de pensar, más o menos eficaces en distintos ámbitos. Además, interesa al hombre únicamente, y no a otros sistemas de tratamiento de información, la correspondencia o semejanza que hay entre ese constructo mental con el orden de la realidad. Es decir, parece interesarse mucho en averiguar hasta qué punto y en qué ámbitos es válido el modelo mental elaborado. En este aspecto es donde parece darse infinitud: en la constante búsqueda de orden, de formalización. El animal humano rastrea todo indicio de forma, simplemente porque es orden y porque es real, sin otro interés. Lo anterior pone de manifiesto una manera de entender la expresión clásica que considera al entendimiento humano como forma formarum (forma de las formas). Como el lugar donde el orden y las formalizaciones son consideradas por su sólo y estricto carácter de formas, de orden, de estructuras. Bajo un nuevo aspecto es posible afirmar que el intelecto entiende considerando en su interior la forma y el orden que él mismo ha elaborado, no mirando hacia afuera. Aunque ahora, como se trata de entender el orden formal, cabe decir con los clásicos que nuestra inteligencia entiende formando y forma entendiendo[162]. En este proceso no hay intuición alguna, sólo se conoce lo que en la forma elaborada interiormente hay semejante del orden de la realidad. "Pensar es, sin excepción alguna, actividad, puesto que formando se entiende y entendiendo se forma; un conocimiento intuitivo que verse sobre lo intuido sin tener que formarlo para intuirlo no es ningún conocimiento. A su vez, si todo acto es formante en cuanto que intelige, e intelige en cuanto que es formante, ese suplemento por parte de una intuición es inadmisible por extrínseco"[163]. Ser inteligente supone el empeño por trabajar las ideas para hacerlas más semejantes al orden de la realidad. Sin declararse satisfecho nunca, porque, la capacidad humana de percibir orden no se sacia. Por ello ningún objeto mental resulta suficiente, ninguno es totalmente acertado, ninguno contiene todo el orden de que se es capaz. Ser inteligente también es asombrarse del orden que se encuentra por doquier en el universo. "Lo más incomprensible del mundo es que sea comprensible"[164], decía Einstein. Convertir en comprensión ese asombro es la pasión de los inteligentes que trabajan esforzadamente sus ideas. Algunas filosofías del conocimiento, con demasiada precipitación, suponen la semántica para las construcciones mentales. Insisten en que lo peculiar del signo es que significa; o que se adecua a la cosa conocida; o que señala la realidad y está ligado intencionalmente a ella. Pero si esto es así, nuestro conocimiento no sería muy distinto del de los animales. Para ellos los signos significan, y siempre lo mismo, de manera que no pueden manejar mundos simbólicos por sí mismos, con independencia de todo lo demás, incluida su posible semántica. Lo interesante del intelecto humano es la capacidad reflexiva, que hace posible la posesión, dominio y dirección del sistema de tratamiento de información. Conviene insistir, dando la razón en lo que la tienen a racionalismos e idealismos, en que lo peculiar del signo es que es manejable en sí mismo con independencia de su posible semántica. Se pueden fabricar muchos de ellos y de muy diferentes tipos, que se relacionan de muy diversas maneras y con los que se edifican multitud de edificios conceptuales. Podemos ampliar el conocimiento por esa capacidad de trabajar con mundos simbólicos, de cuyos elementos y sintaxis dependerá la semántica que seremos capaces de alcanzar. Este aspecto de las operaciones del pensamiento ha sido un tanto descuidado al establecer y desarrollar la defensa del realismo cognoscitivo. Lo diré con palabras ajenas, mucho más precisas: "La idea de una constitución activa de la objetividad es una exigencia del realismo que se mantiene fiel no solamente al ser de lo conocido, sino también al ser que lo conoce. «Yo constituyo lo conocido como objeto» significa «yo me doy a mí mismo su presencia a mí». Si ello suena a idealismo es porque se olvidan estas cosas: 1ª, que lo conocido no me puede dar esa presencia porque él no la tiene (su serpresente-a-mí no es nada en él); 2ª, que al darme yo la presencia de lo que de un modo físico no tengo, no pongo la realidad de lo que así no poseo, sino tan sólo su objetividad, que es cosa mía y no suya; 3ª, que el hecho mismo de poner esta objetividad es una actividad objetivante y no objetivada (de esta última forma únicamente se da en la reflexión)"[165]. Es decir, la objetividad de las ideas depende de mi subjetividad: esta es una afirmación de hondo calado, sobre la que volveré en el último capítulo. Debo repetir que el intelecto entiende formando y forma entendiendo, afirmación que aquí puede interpretarse de la siguiente manera: según las ideas que se elaboren se puede alcanzar semántica, y la semántica obtenida permite elaborar nuevas ideas, con los que de nuevo se amplia la semántica; y así sucesivamente. Si ese trabajo se hace bien, el proceso supone efectivamente una ganancia de conocimiento. Suponer los objetos ligados por sí mismos a la semántica, con una fe realista ingenua y poco meditada, no deja de ser un racionalismo más, por muy realista y metafísico que se pretenda. Dicho con brevedad, y para poner una frase más o menos redonda: sólo entiendo según lo que yo mismo elaboro con mi razón; sólo encuentro según lo que yo mismo pongo para buscar. Por tanto las palabras, antes que nada, son palabras y nada más: es el mismo hombre quien tiene que pronunciarlas. Las ideas tampoco son, por sí mismas, nada más que ideas, siendo también el hombre quien ha de concebirlas. No les está sujeto. No hay que tratar con respeto platónico las ideas, los razonamientos o las demostraciones, hay que trabajarlas. Términos, ideas y razonamientos, por otra parte, sirven al hombre en la medida en que efectivamente sirven. En la medida en que con ellas se alcanza una buena semántica, una adecuada semejanza con la realidad. Por sí mismas son totalmente inútiles. Son el mejor instrumento que ha desarrollado el hombre, nada más y nada menos. Tienen sus leyes propias, como todo instrumento, que no son otras que las que se les ha dado al construirlas, pero no forman un mundo divino con el que haya que entrar en contacto al modo platónico. Son reales sólo en tanto que instrumentos, por ser obra humana, pero no por sí mismas. Debe el hombre aprender a dominarlas, conocer sus leyes, explorar las ideas y fabricar las más aptas para conocer y luego actuar. Aunque sólo hablo de la producción de ideas y objetos mentales, sin embargo la capacidad creativa humana llega a todas las operaciones del sistema de tratamiento de información: sentidos, imaginación, memoria...[166]. Podemos escribir novelas, hacer películas, mentir, imaginar historias, pintar cuadros, recrear el pasado, contar cuentos, crear mundos virtuales... Un ejemplo significativo de la capacidad creativa humana se encuentra en el arte moderno, que ha descubierto su autonomía respecto de los objetos artísticos tradicionales y de las reglas técnicas de escuela para representar la realidad. Ha hecho su declaración de independencia respecto de todo tipo de semánticas y reglas formales establecidas, lanzándose por el camino de la creación y exploración de nuevas posibilidades. Aunque también él, como casi todo en la modernidad, parece preso en un frenesí explorador del juguete nuevo. Sin embargo, como aquí estudio sólo las capacidades intelectivas, me referiré a ellas de forma exclusiva. Tenemos la capacidad de no quedar encerrado en los edificios conceptuales heredados. Podemos diseñar edificios nuevos y mejores. Pero hacer buenos proyectos requiere tener en cuenta dos dimensiones distintas: una "hacia afuera" y otra "hacia dentro". Una cosa es percibir que la semántica del objeto mental es limitada, o que su semejanza con el orden real es escasa. De esta manera se busca acrecentar la semántica de las ideas, o su correspondencia con el orden real. Otra cosa, sin embargo, es caer en la cuenta de que las herramientas mentales son una construcción propia de la persona que conoce. Modificables, por tanto, sin tener para nada en cuenta su contenido real. Se entra así en el campo de la creación y manipulación de objetos mentales por sus intrínsecas características formales, con independencia de su utilidad para modelizar la realidad. Ambas dimensiones son distintas y conviene no confundirlas. Por un lado podemos elaborar objetos formales cada ves más manejables, de estructura clara, bien explorados y conocidos con sus diferentes posibilidades. Por otro está la búsqueda de más semántica para las ideas, y la comprobación de cuales poseen un orden más semejante al real. Las operaciones en que se basan son también diferentes; exigen cuidados distintos para ser realizadas con éxito. En terminología informática: una cosa es buscar más información, porque se conoce la limitación de la que hay disponible. Otra, muy diferente, es desarrollar el software mental capaz de tratar esa información para que sea significativa y aporte conocimiento, comprensión. Lo diré con palabras técnicas ajenas, tomadas en préstamo: "El método racional es la declaración de que el abstracto no es un conocimiento suficiente de la realidad. Esta declaración es una operación mental que se conmensura con objetos, e inconfundible con la generalización. Declarar que el abstracto no satura la capacidad de pensar no es lo mismo que declarar que el abstracto no es un conocimiento suficiente de la realidad"[167]. Es decir, las operaciones intelectivas son muchas, y aquí, por lo menos, conviene distinguir entre operaciones de dos tipos distintos. Para explicar lo que el anterior aviso importa acudiré a mi querencia, para considerar un caso de la física. La construcción formal de Newton puede ser mejorada desde dos puntos de vista: atendiendo a su sintaxis o a su semántica. Con referencia a la primera lo que se dice es que no resulta suficientemente clara y distinta en su formalización. Por ello se trabajó la sintaxis para hacerla más clara, precisa, sintética y manejable. En este proceso muchas veces privan criterios estéticos de sencillez, armonía y equilibrio del constructo mental. Mediante ese trabajo surgió la formulación de Lagrange y, después, la potente y bella formulación de Hamilton. Esta última es uno los mejores edificios mentales que se han hecho nunca, un clásico de la ciencia cuyo conocimiento causa extraordinario placer. Pues bien, en todo este proceso sólo se considera que "el abstracto no satura la capacidad de pensar", por lo que se afina y reelabora conceptualmente para darle mayor potencia y claridad. Si se compara el trabajo de Hamilton con el de Newton, es muy fácil constatar hasta qué punto mejora un constructo teórico, y se amplía el conocimiento, con sólo trabajarlo mentalmente, mediante el puro pensar laborioso sobre sí mismo. Pueden no decirse cosas nuevas, pero se dicen mucho mejor y se comprenden con más profundidad y claridad. La semántica experimental puede ser casi la misma (en realidad no lo es porque aquí también se progresa) pero su comprensión es mucho mayor, al poderse captar mejor su orden interno. La formulación de Hamilton tiene una extraordinaria claridad y armonía, con gran potencia, dentro una estricta sencillez conceptual. Resulta un magnífico modelo metodológico para aprender a trabajar con la cabeza. Por otro lado, atendiendo a su semántica, puede constatarse que el modelo de Newton (incluso en su formulación hamiltoniana) no lo dice todo, ni siquiera en el ámbito para el que pretende validez. O lo que dice, lo dice de manera muy incompleta. O no es capaz de incluir otras observaciones empíricas que aportan semántica -muchas veces generada gracias a la existencia del mismo constructo formal newtoniano-, que resulta ininteligible porque no puede tratarla de forma conveniente. Desde este punto de vista, lo que se tiene en cuenta es la segunda parte del aviso, a saber: "que el abstracto no es un conocimiento suficiente de la realidad". En el caso del formalismo newtoniano, los problemas fundamentales vinieron por su incapacidad para integrar el electromagnetismo de Maxwell y los desarrollos de la óptica. Durante un tiempo se intentó salvar el constructo newtoniano con la hipótesis del éter. Con ello se dio un ejemplo paradigmático de lo que no debe hacerse. Aferrarse a un objeto mental por el sólo hecho de manejarlo con comodidad puede llegar a ser muy equivocado. Incluso, cuando se quiso comprobar esa hipótesis etérea, y el ahora clásico experimento de Michelson y Morley[168] dio resultados contrarios, la inercia conceptual llevó a interpretarlo de una manera que salvaba la querencia mental acostumbrada. Lorentz obtuvo las fórmulas de la transformación relativista -aún lleva su nombre-, pero continuó empeñado en defender el fantasmal éter. Releer actualmente el artículo que Lorentz publicó en Leiden, en 1895[169], es un buen ejercicio para comprobar hasta qué punto es posible forzar la experimentación para encajarla en un marco conceptual inadecuado. En este caso la razón correspondió a Einstein. En vez de intentar salvar lo insalvable, elaboró un marco conceptual inédito -la relatividad especial- en el que la nueva semántica cupiese más cómodamente. Llegados a este punto, la vieja polémica entre racionalismos y empirismos puede verse desde una nueva perspectiva, que concede su parte de razón a ambos. Aunque la quita a los dos en sus pretensiones de ser -cada una por separado- la única teoría válida del pensar humano. El racionalismo prescinde de la semántica, o la deja a la intemperie, como hace Kant al sumergirla en la imprecisa neblina del noúmeno. El empirismo, por su parte, considera que los objetos pensados, al margen de "los hechos empíricos", no tienen interés alguno. El empirismo es más grave como error. No se da cuenta de que para conocer sólo contamos con las ideas que seamos capaces de elaborar. Además desecha cantidades enormes de semántica: toda aquella que no encaja en su ingenua idea de lo que es empírico. La experiencia sensible, por si sola, no da para nada: también la poseen los animales. La misma idea de lo que es empírico es una noción fabricada por el hombre. El caso es que somos capaces de experimentar muchos más aspectos de la realidad según hagamos máquinas que amplíen el campo de lo sensible, y diseñemos buen software mental para tratarlo. Por ejemplo: nunca habríamos podido "experimentar" sobre los bosones vectoriales intermedios, sin haber elaborado antes un modelo teórico dentro del más puro estilo racionalista. Ni podríamos hablar de un Big-Bang, que nadie presenció. Tampoco discutir sobre la información, pues de ella lo único medible es el soporte físico. Las teorías físicas, de modo especial la mecánica cuántica, resultan chocantes para la idea corriente de lo que es empírico. Las discusiones sobre qué significa la mecánica cuántica realmente, cómo hay que interpretarla, llevan coleando desde que comenzó. El software mental desarrollado en este siglo con la teoría de la relatividad y la mecánica cuántica es desconcertante para los usuarios. Para los profanos suena casi mágico: hacen películas muy entretenidas sobre viajes en el tiempo. Obviamente la idea de lo que debemos considerar empírico, a su vez, es poco empírica. Veamos un ejemplo histórico de las limitaciones que se autoimponen los empiristas, se trata del conocido texto de Hume: "A mí me parece que los únicos objetos de las ciencias abstractas o de la demostración son magnitudes y números, y que todos los intentos de ampliar estas ciencias, las más perfectas de todas, más allá de esos límites, son sólo fuegos de artificio y puro engaño (...) Examinemos, llevados por estos principios, nuestras bibliotecas. ¡Qué estragos no tendríamos que hacer! Saquemos un tomo cualquiera, por ejemplo sobre Dios o sobre metafísica. En seguida tendríamos que preguntarnos: ¿Contiene algún razonamiento abstracto sobre magnitudes o sobre números? No. Entonces: ¡al fuego con él!, porque un libro tal no puede contener sino fuegos de artificio y engaño"[170]. Admitamos con Hume que no hay más forma rigurosa de pensar que esa especie de cálculo numérico elemental que se atiene a los "hechos". En ese caso, los primeros libros para el fuego serían los de Hume, porque no hablan de números, de los que sabía poco. Asimismo habría que quemar la mayor parte de los libros de ciencias, incluidas las matemáticas, porque el cálculo numérico es una parte mínima de lo que contienen. Limitarse a un software mental tan paupérrimo como propone Hume sólo es aceptable para una calculadora barata de bolsillo. Un empirismo pobre de ideas corre el riesgo de dejar a un lado la mayor y mejor parte de la realidad. Sin software mental rico y potente, llegamos a muy poco. Si es malo, sólo produce confusiones sobre lo empírico. La neblina de ideas no permite atrapar la realidad. A su vez, un racionalismo puro, amante de ideas afiladas como navajas que se aprecian sólo por su finura, la deja a un lado totalmente. Por suerte, aún los racionalistas más recalcitrantes no han conseguido dejar de ser empiristas, porque no es posible. Los empiristas, por su parte, tampoco consiguen prescindir de la razón: de hecho solían dar todo tipo de "razones" para convencernos de su empirismo. Por esa incoherencia de ambas posturas, existen aquí y allá elementos muy válidos, una vez despojados de su grandilocuencia y exclusivismo. El pensamiento científico, se declaren los científicos partidarios de una u otra postura, ha tomado lo mejor de ambos mundos. Conviene recordar siempre que hay que ser racionalista y empirista a la vez. Tampoco se debe olvidar qué es lo que se está siendo en cada momento, para no caer en lamentables confusiones. Esas dos operaciones distintas tienen objetivos diferentes, que son como dimensiones elementales del pensar. Al adquirir información con un ansia infinita, con una búsqueda inacabable de semántica, el hombre consigue interiorizar cada vez más la realidad. Empeñado en apropiarse del universo entero de forma paulatina, en hacerlo suyo al conocerlo. Por otra parte, al poder dominar el software conceptual y la forma de tratar la información, lo que consigue es dominarla en la misma medida que dispone del objeto mental con el que consigue atraparla. Son dos aspectos muy importantes del pensar: poseer la realidad y dominarla; tener el mundo y enseñorearlo. El animal también interioriza el mundo exterior con su entendimiento sensible, pues la información que trata es intencional y tiene semántica. Pero, al no disponer del software con el que elabora esa información, en realidad es manejado por ella. No puede alejarse de la realidad y dominarla porque no puede hacerlo con el objeto mental con que la representa. La interiorización de la realidad pasa a formar parte de manera indisoluble de su propia interioridad, sin que pueda separarse de ella. En el animal humano no sucede así. Tiene capacidad para manipular el objeto conceptual, de alejarse de él sin quedar sumergido en él, poniéndolo como frente a sí y a su disposición, como una cosa más. Por ello su interioridad consigue independizarse de las ideas y representaciones. Puede poseerlas, como se posee una cosa, y puede aprender a utilizarlas. En la teoría clásica de la inteligencia se destacó suficientemente el primer aspecto del pensar, la posesión, al insistir en la capacidad interiorizadora que tiene el conocimiento humano por ser contemplativo. La modernidad ha subrayado más bien la segunda dimensión del conocer humano: la invención y elaboración de buenas ideas. Ambos aspectos deben cuidarse de forma armónica, sin desafinar. Artesanía de las ideas Modos de pensar hemos desarrollado muchos. Los hay dirigidos a la eficacia de la acción, a la vida armónica con la naturaleza, a la paz interior, a la pasión estética, al individualismo, al sentido último de la vida humana, a la comprensión de lo desconocido mediante mitos, a la integración en el grupo, a magias y esoterismos... Normalmente no pensamos en cómo pensamos. Nos dejamos llevar por las ideas, sin más. Porque son las normales, o nos gustan, o son las de siempre, o las hemos aprendido en el instituto, o nos tranquilizan... En definitiva, porque son las nuestras. La etiqueta -la marca de renombre o de moda- influye mucho en las ideas que adquirimos: moderna, científica, tolerante, democrática, progresista. Ya no se llevan explicaciones míticas ni totalitariamente racionalistas; aunque están de moda las minimalistas y las esotéricas. El momento en que el hombre comenzó a plantearse el modo mismo de elaborar objetos mentales para intentar hacerlos más precisos y dominables, se puede colocar en la tradición filosófica griega. A partir de esa primera época, de una manera gradual, comienza la reflexión sistemática sobre nuestra manera de pensar acerca de las cosas, para conseguir formas de elaborar el pensamiento más precisas y más adecuadas a la realidad. Otras culturas construyeron modelos de la realidad en ocasiones muy acertados. Suelen tener una formulación mítica, o poética. Su semántica podía ser muy grande, pero era imprecisa y extraordinariamente polisémica, y los modelos simbólicos eran del todo inmanejables. Son los griegos los que inician el análisis del lenguaje para establecer con precisión de qué están hablando, y con qué sentido. Intentan hacer signos y esquemas conceptuales más semejantes y adecuados a la realidad que perciben. En la filosofía griega se encuentran, planteados de una manera inicial, cantidad de temas y problemas que han tenido constantes reediciones. Su trabajo fue notable; en muchos campos siguen siendo ejemplo de planteamientos rigurosos y profundos. En ellos se encuentran también los errores más comunes, que hemos repetido con variantes epocales a lo largo de los siglos. Aquellos filósofos, y sus continuadores, hicieron descubrimientos esenciales e iniciaron caminos que se han mostrado extraordinariamente fructíferos. Desde entonces para acá, con diversa fortuna y abundantes avatares, se han desarrollado muchas formas de pensar que buscan rigor conceptual y metodológico. Clasificaciones de los estilos de pensar se pueden hacer muchas[171]. Seguiré una sugerencia que tiene la ventaja de la sencillez, y me permite ser breve[172]. En resumen, se han desarrollado tres formas básicas de software mental: formales, analógicas y dialécticas. Los primeros en explorar la manera de pensar racional, formal, o lógica, fueron los griegos. En la India también hicieron una incursión en territorios lógicos, pero ha sido menos influyente por avatares de la historia humana. En Europa, y su zona de influencia cultural, durante siglos se ha considerado la racionalidad lógica y demostrativa como la forma de pensar canónica. Era el standard de calidad intelectual al que había que acercar el propio pensamiento para tomarlo en serio. A pesar de los teoremas de limitación, todavía seguimos pensando que es la forma más rigurosa de pensar. Toda proposición que venga avalada por una «demostración» puede quedarse tranquila, nadie intentará arrebatarle el título de verdad establecida. Tanto prestigio, unido a ingenuos optimismos semánticos, ha llevado a grandes confusiones, de las que algunas ya he referido. En Occidente tendemos a considerar que ese modo de pensar es el único inteligente, es de «sentido común»; pero no ha sucedido así en la mayor parte de las culturas. Por ejemplo, la civilización milenaria china ha desarrollado formas de pensar muy distintas a las occidentales, y no les ha ido mal. Hay mucho que aprender de su «sentido común», muy poco racionalista. Los lógicos y matemáticos suelen ser gente discreta, empeñada en batallas conceptuales que requieren gran concentración. Su trabajo no transciende más allá de algunos círculos restringidos. Ni siquiera hay Premio Nobel de Matemáticas; el equivalente, la Medalla Field, pasa casi desconocida. Me parece un error que debemos subsanar cuanto antes. Lógicos y matemáticos diseñan los modos de pensar más rigurosos, exploran sus posibilidades y límites, suministran las herramientas que todas las ciencias utilizan. Casi todo el pensamiento humano depende de su trabajo. No consideramos maduro ningún conocimiento hasta que adopta los métodos que ellos diseñan. Habría que inventar, como en otras ciencias se ha hecho, modos de divulgar un trabajo tan fundamental. Crear especialistas en difundir unas ciencias, las del pensamiento humano, que parecen abstrusas por permanecer enclaustradas en su lenguaje técnico. Hacer un esfuerzo por bajar de la torre de cristal abstracta para encontrar modos de decir accesibles. Popularizar la preocupación por conocer el software mental, que utilizamos sin saber nada de él. Todo ello aunque los puristas clamen al cielo, por la imprecisión de los textos divulgativos. Ayudarían a bajar del guindo formalista a los que todavía lo ocupan. Nos vendría bien a todos conocer mejor las herramientas con las que trabajamos, para no emplearlas en aquello para lo que no sirven, y sacarles partido en lo que son útiles. Diríamos menos tonterías solemnes y bastantes más verdades. Sueño con el día que, igual que ahora aprendemos algo de matemáticas, aprendamos unos rudimentos sobre las formas de pensar mejores que se han diseñado. Mientras llega ese día, he de referirme a algunas cuestiones que conviene saber para no caer en confusiones. La primera he podido desarrollarla con cierta extensión: los teoremas de limitación. Conocerlos ayuda a no llevarse a engaño sobre la relación entre lógica y verdad. La demostración ha perdido el monopolio de la verdad. Tener en cuenta -ser conscientes de- las limitaciones del instrumento que utilizamos para pensar sirve para no precipitarse. Podemos sacar provecho de su potencia conceptual si obtenemos el carné para conducirlos sin despeñarnos por sus límites. También interesa conocer que en el mercado existen abundantes sistemas lógicos disponibles. Hasta principios del siglo XX se pensaba que existía una sola lógica: lo que estaba de acuerdo con ella era «lógico», lo demás era «irracional», no demostrable. La inercia, y la falta de divulgación, hace que muchos sigamos pensando según ese cómodo esquemita decimonónico. Nada más falso en la actualidad. La lógicamatemática sigue siendo la reina de la fiesta, porque incluye casi todo lo bueno que a lo largo del tiempo han descubierto las investigaciones lógicas. En ella se encuentran los silogismos de Aristóteles, la doctrina estoica de la consecuencia, la lógica modal, la matemática... Todo eso, además, expresado en forma extraordinariamente precisa, porque está axiomatizada y formalizada. Pero hay muchas más lógicas. Ahora el problema es otro: ¿cuál es el mejor software mental de los disponibles? "Este problema es totalmente nuevo. La antigua metodología no lo conoció, ni pudo conocerlo, porque la lógica anterior a 1921 no tenía más que un sistema. Es en 1921 cuando J. Lukasiewicz y E. Post (simultánea pero independientemente el uno del otro) establecieron los llamados sistemas polivalentes de la lógica, que se distinguen notablemente de la «lógica clásica». Los sistemas de Lukasiewicz fueron axiomatizados rigurosamente, demostrándose que estaban libres de contradicción y que eran completos. Más tarde apareció la lógica intuicionista de Brouwer, que fue axiomatizada en 1930 por Heyting. Hoy día tenemos docenas de sistemas diferentes, que se distinguen gradualmente entre sí. Así, por ejemplo, el principio de tertium non datur carece de valor, lo mismo en la lógica trivalente de Lukasiewicz que en el intuicionismo de Heyting, mientras que es una ley de la lógica matemática «clásica» (...). El relativismo de los sistemas lógico-matemáticos se ha convertido en problema metodológico. Para toda demostración se precisa un sistema lógico; pero hay múltiples sistemas. ¿Cuál escoger? La respuesta es la siguiente: aquel sistema que permita axiomatizar con mayor facilidad y sin contradicción la disciplina en cuestión. Por una parte tenemos el principio regulador de la totalidad, por otra, el de la no contradicción. En ella juegan también un papel importante los motivos de orden estético; cuanto más sencillas y «elegantes» resulten las demostraciones en el sistema y cuantos menos axiomas requieran, tanto mejor"[173]. Los cambios de sistema, de chip mental, son difíciles, suelen exigir redes neuronales humanas jóvenes y plásticas. En ocasiones no suponen graves rupturas, como en el paso de la geometría euclidiana a la de Riemann, utilizada en la relatividad general. La geometría clásica de Euclides, tenida por única y cultivada con reverencia durante siglos, ha sido sustituida por otra no tan fácil de imaginar, que requiere herramientas lógico-matemáticas nuevas. Son desconcertantes para los que se han formado en el «sentido común» de la geometría clásica. En otros casos el cambio es más drástico. Por ejemplo, muchos físicos dedicados a la mecánica cuántica siguen empeñados en pensarla con un sistema lógico divalente: si una cosa es así, no puede ser de otro modo. Valen únicamente: "si", "no"; "verdadero" o "falso". Desconocen que el sistema que axiomatiza la mecánica cuántica requiere una lógica trivalente: verdadero, posible, falso. Es decir, en ella nos es válido el principio de tertium non datur. Einstein rechazó la interpretación que impone la experimentación abierta por la mecánica cuántica porque, aunque pensaba como un genio en lo suyo, sólo admitía lo divalente. Puede que, como Einstein quería, Dios no juegue a los dados; pero la lógica sí que ha aprendido recientemente a jugar. Algo semejante sucedió al intentar pensar la noción aristotélica de potencia. Tanto Aristóteles como la mayor parte de sus seguidores se esfuerzan en tratarla con una lógica divalente, del todo inadecuada. Las paradojas y contradicciones surgen por doquier en ambos casos por no utilizar el instrumento conceptual necesario. Dejando a un lado la elaboración de modelos formales, pasemos a considerar la segunda manera con la que se ha querido elaborar modos de pensar rigurosos: los analógicos. En el fondo se basa en el anterior: una vez que se encuentran buenas formas de resolver ciertos problemas, se aplican a problemas semejantes. Con el pensamiento analógico se trata de aplicar, con diversas modificaciones, unas soluciones mentales semejantes a distintos ámbitos que poseen un orden parecido. Así un constructo formal -con sus elementos y su orden propios- puede servir en campos muy diferentes. De esta forma una teoría sirve para matar conceptualmente varios pájaros de un tiro. Con frecuencia las propiedades de terrenos cognoscitivos que parecen muy lejanos tienen gran semejanza formal. Por tanto, el modo de hacer modelos en uno sirve también para el otro, con los ajustes precisos. Esta metodología analógica ha sido muy aplicada por diversas corrientes filosóficas. Hasta tiempos recientes su utilización en las ciencias ha sido escasa. Sin embargo, con la llegada de las máquinas lógicas es fácil la modelización en gran escala, es decir, el trabajo con analogados. Las técnicas analógicas están creciendo mucho como consecuencia de los éxitos de la Inteligencia Artificial. También el desarrollo de la teoría de sistemas está sirviendo para hacer un uso intensivo de la aplicación analógica de los constructos formales. A la vez se está aprendiendo a dominar la técnica mental, para que sea eficaz y no lleve a encajar la realidad empírica en corsés formales conocidos, pero forzados. Ha nacido, junto con la teoría de sistemas y unida a ella, la teoría de modelos. Es una ciencia joven en plena expansión, que suele cometer errores por las excesivas simplificaciones que debe hacer al elaborar modelos, que aún no sabe evaluar. Como es normal, la propia metodología se está haciendo al hacerse la ciencia. Es importante delimitar el alcance y límites de los modelos, para saber lo que es posible entender con ellos y lo que no. No obstante su juventud, es una ciencia cada vez más fundamental. El éxito de las formas de pensar analógicas ha producido sus propias obnubilaciones metodológicas. Existe algún ejemplo reciente. Con el análisis del sistema de la lengua se puso de manifiesto la semejanza que hay entre los diversos sistemas semióticos, por lo que los hallazgos en un campo se podían aplicar en otros. Los excesos consistieron en negar la analogía, para trasladar el invento sin más, sin corrección alguna. Encantados con el descubrimiento, muchos aplicaron el constructo sin ajustarlo al nuevo ámbito y a sus peculiaridades. De esta manera se trasladaba una teoría a otros campos al menor indicio de semejanza, imponiendo tal teoría como paradigma absoluto de comprensión, como si la realidad hubiera de adecuarse a la teoría y no al revés. Esta precipitación ha producido los excesos formales analógicos de algunos estructuralistas, que trasladaban alegremente lo averiguado para el lenguaje a otros campos que parecían semejantes. Andaban felizmente despreocupados por ajustar los modelos y la semántica al nuevo ámbito. Han conseguido producir unas cuantas sandeces solemnizadas, para añadir a la inmensa colección acumulada por la especie humana. Es cómodo moverse en un modelo conocido, que se maneja con facilidad; pero no es lícito declararlo por ello modelo único y universal, al que toda la realidad deba someterse. El utillaje conceptual que sé manejar no por ser mío, o por resultarme familiar, es adecuado a todo tipo de problemas. Los excesos son comprensibles. Si bien se mira, todo el conocimiento es analógico y por modelos de diversos tipos, dado que el conocimiento lo que hace es elaborar una semejanza de la cosa conocida. Las cosas no se conocen directamente -no hay intuición, insisto una vez más- sino que se conocen en y por la semejanza que se hace de ellas mediante el sistema de tratamiento de información. Lo anterior quizá pueda decirse con terminología filosófica clásica de la siguiente manera: el conocimiento es siempre según una semejanza. Es decir: "para conocer se requiere que se de una semejanza de la cosa conocida en el cognoscente"[174]. El entendimiento humano forma los conceptos y demás herramientas mentales -sea por procedimientos abstractivos y raciocinio, o por cualquier otra técnica- mediante la posesión y el dominio de su sistema de tratamiento de información. Los hace intentando que sean semejanzas de la realidad, cosa que luego conviene comprobar si se ha conseguido en efecto. La teoría clásica del conocimiento concedió mucha importancia a los procedimientos analógicos. Como consecuencia, estudió de manera pormenorizada la analogía, sus variantes y fundamentos. No estaría de más, dada la importancia que de nuevo ha adquirido, retomar y proseguir aquellos trabajos. Por otra parte, el lector avezado seguramente se ha dado cuenta de que, con esta defensa de los métodos analógicos, no hago más que intentar cubrirme las espaldas. Es fácil observar que en este libro utilizo fundamentalmente la analogía, en el intento de relacionar ciencias y ámbitos de conocimiento ahora bastante separados, cuando no enfrentados. Por ello lo que escribo tiene el interés, y las limitaciones, que ese método conceptual conlleva. Es más lo que sugiere, que lo que ofrece de rigor formal y semántico. Por eso mismo también intento utilizar el lenguaje común, muy adecuado para la analogía por su flexibilidad. No intento hacer una teoría exacta y completa de la inteligencia humana, sino apuntar una serie de cuestiones que permitan plantear mejor el tema, a la luz de lo que aporta la Inteligencia Artificial. Vayamos a la tercera técnica para pensar con rigor: la dialéctica. Parte de una idea sencilla: ninguna idea atrapa totalmente la realidad, porque es tan sólo una idea. Por buena que sea, siempre es parcial y restringida. Permite conocer, pero también limita el conocimiento. Como en el cuento de Borges, el único mapa completo de la ciudad, hasta el último detalle, es la ciudad misma; pero no se pueden meter ciudades en los mapas, ni en las cabezas. Dado que todas las ideas son limitadas, pongámoslas a pelear; las que sobrevivan serán las más aptas. De la confrontación puede salir la luz. Las técnicas dialécticas que utilizamos habitualmente son muy variadas: someter las ideas a discusión; confrontarlas con otras; revisar pareceres distintos del propio; considerar otros puntos de vista; acudir a quienes pueden aportar enfoques nuevos para viejos problemas; suscitar tormentas de ideas... El problema con esta metodología es aprender a utilizarla, de manera que no se desboque. Ofrece la ventaja de no encerrase en ninguna construcción mental, por considerarla definitiva. Pero tiene la desventaja de que, si no se usa bien, permite decir cualquier cosa, sin que se sepa muy bien su sentido ni su referencia. La discusión por sí misma no conduce a nada: puede ser un diálogo de sordos que ni siquiera saben de qué están hablando. Declarar obsoletas todas las ideas de los que nos precedieron en el estudio de una cuestión sólo es una moda. El sólo hecho de la novedad de una idea puede no aportar nada. Utilizar la modernidad de una idea como único criterio de verdad, no deja de ser un excelente sistema para producir necedades actualizadas. Los métodos dialécticos no sirven para aportar contenidos semánticos, sólo son útiles -y no es poca cosa- para generar ideas. Luego, por otros métodos, hay que escoger las que sean mejores y permitan mayor comprensión. Desde la antigüedad, la actitud dialéctica de someter las ideas a prueba ha rendido abundantes frutos. La presentación de Sócrates que hace Platón en sus Diálogos, muestra bien el rendimiento cognoscitivo de estirar las ideas para comprobar lo que dan de sí. Los inventores medievales de la Universidad consideraban que el debate -quaestio disputata- era la técnica docente por antonomasia. Apreciaban la capacidad de oponer una ideas a sus contrarias para comprobar su validez, o para afinar y entender mejor las buenas ideas. "El conocimiento de un opuesto no se quita por el conocimiento del otro, sino que se facilita más"[175]. Negar la validez de las ideas es un juego que rinde dividendos intelectivos, si se practica bien. En la Universidad napoleónica que padecemos, es un juego que se ejercita poco y mal. La clase magistral ha sustituido al debate. Las ideas se toman demasiado en serio, es normal atrincherarse en ellas: florecen corrientes y escuelas, grupúsculos que cultivan su pobretería mental. Las ideas son expuestas de manera solemne, los alumnos deben aprenderlas: en los exámenes se comprueba si es así. Mejor sería constatar también qué capacidad adquieren los alumnos de someter las ideas a examen. No fabricaríamos personalidades intelectualmente enanas, que se subordinan a las ideas; sino señores inteligentes, que saben trabajarlas. El mejor ejemplo de las ventajas e inconvenientes de la utilización del método dialéctico lo ofrece Hegel, persona que contó con una cabeza excepcional. Gracias a él somos más conscientes de la importancia de la evolución de las ideas y de las culturas. Hay oscilaciones y oposiciones en el software mental que cada época utiliza. Hay viejos aposentados en concepciones mentales tan fijas como sus conexiones neuronales; y hay jóvenes que estrenan cerebro, y elaboran un nuevo software conceptual en un proceso que, si es rápido, hace estallar la dialéctica generacional. Hay un constante ir y venir del péndulo dialéctico en las modas conceptuales. Hay, en fin y para no cansar, un espíritu objetivo -o mejor, objetivado- que camina a trompicones dialécticos, sobre el que conviene pensar un poco para que no nos lleve con pasos de ciego a algún precipicio. Vivimos una época en que la producción industrial de utillaje mental y de información ha acelerado un proceso, que durante siglos fue lento. Debemos aprender a conducirlo. Tenemos a nuestra disposición unos cuantos ejemplos históricos de civilizaciones en las que la evolución de sus constructos simbólicos culturales llevó a una relación desajustada con la naturaleza -la suya propia y la que les rodeaba-, por lo que desaparecieron de la tierra. En nuestro caso, dado el poder que nos permiten los conocimientos y técnicas actuales, el desastre puede ser global. Nos podemos convertir en unos lemmings que caminan impertérritos hacia el abismo, arrastrando a todo ser viviente en nuestra caída. La dialéctica en nuestras ideas, por consiguiente, es algo que no se puede ignorar, so pena de que nos traiga y nos lleve como peleles, sin conducir el proceso y sin saber a dónde lleva. Sacar lecciones de la historia de las ideas, y de las personas que las defendieron, es buena cosa. La Edad Moderna ha sido muy dialéctica, en el peor sentido. Lo primero que un filósofo tenía la obligación de hacer era negar la validez de lo afirmado por los que le precedieron. Kant, por ejemplo, deseaba hacer "una completa revolución"[176]. Entre los modernos, son de buen gusto las revoluciones copernicanas. La moda sigue hasta nosotros. No estaría mal, si no nos limitásemos a bajar de un burro para montarnos en otro: dejar de creer en unas ideas, para idolatrar las nuevas, pero sin aprender a pensar ni unas ni otras. Pero mejor que creer tanto en las ideas, es confiar algo más en las personas. Los enamorados de la dialéctica pusieron su fe en el automatismo de un Progreso anónimo y fantasmal, que tomaría el trabajo de perfeccionar las ideas. Pero, según los últimos desengaños, el duende benigno llamado Progreso no existe. Hegel, por su parte, quedó tan encandilado con su descubrimiento metodológico, que acabó creyéndoselo. Todo era dialéctica, y nada más. La infección de optimismo semántico que padeció fue muy grave. Inventó un grandioso montaje de tríadas -tesis, antítesis, síntesis- que no eran herramientas conceptuales, sino cepos mentales. De Hegel hemos heredado unas cuantas manías. Por ejemplo, creer que la mera oposición progresistas contra conservadores- sirve de algo, porque el automatismo dialéctico se encarga del progreso mental. El esquemita es simple, muy útil para encasillar las ideas y las personas-, sin tomarse la molestia de pensarlas. Genial como era, convenció a muchos: al pobre Marx le sorbió el seso con su creencia en el método. Aunque Marx, muy en la ortodoxia dialéctica, se opuso a Hegel: sostuvo que el genio que movía los hilos del proceso no era el Geist hegeliano, sino la materia. Ambos se equivocan: somos las personas los responsables de tanto cambio. En el timón no hay ningún fantasma abstracto: El Espíritu, La Materia, La Historia, El Progreso... Al timón estamos nosotros. El proceso irá donde sepamos pilotarlo, porque nos esforcemos en llegar a ser buenos artesanos de las ideas. ¿Cuánta realidad atrapa una idea? Al tratar el argumento de la habitación china de Searle, me he referido a los problemas que plantea valorar la posible semántica del software mental que utilizamos para conocer. Dejaré a los especialistas la tarea de encontrar soluciones precisas. Los problemas de verificación son arduos y de estudio reciente. Las epidemias de optimismos semánticos que hemos padecido impidieron enfrentarlos antes. La ingenua fe de carbonero en las ideas de racionalistas y realistas ha impedido darles la debida importancia, que es muchísima. Quiero entrar tan sólo en algunos aspectos generales que pueden aportar alguna comprensión al tema que me ocupa. La capacidad de una idea para atrapar la realidad viene, en primer lugar, del diseño mismo de la idea. De nuestros talleres mentales salen muchos modelos con distintas formas y capacidades. El primer problema para establecer la semántica de los artilugios mentales es que ella misma depende del constructo conceptual. Lo explicaré en terminología informática: la información sólo es información cuando hay un sistema de tratamiento de información con software apto para tratarla. Además, toda información es tal -"dice" una cosa u otra- en la medida en que es tratada como tal. Dependiendo de las herramientas existentes en el sistema de tratamiento de información se puede obtener una significación u otra. Sin software, con el hardware formalmente desnudo, las entradas del sistema no le dicen nada. Con un software determinado, las entradas del sistema -los sensores- dicen lo que se puede entender como información según las características del software. Es decir, no existe el conocimiento libre de prejuicios. Las teorías que elaboramos son el prejuicio básico ineludible para intentar comprender. Si no fabricamos una red y desarrollamos un arte de pesca para lanzarla en el sitio adecuado, jamás atraparemos nada de realidad en nuestras ideas. Los métodos que desarrollamos para pensar son también nuestros prejuicios, dicen qué voy a intentar pescar y cómo. Los peces no dicen cómo hay que fabricar las redes para pescarlos, igualmente la realidad no aporta teoría alguna para comprenderla: simplemente está ahí. Hacer buenas teorías es trabajo nuestro, igual que evaluarlas para conocer lo que se puede asir con ellas. Los prejuicios, en el mal sentido de la palabra, son teorías tontas, estrechas o inútiles, que no atrapan la realidad, sino que aprisionan al usuario en una maraña de ideas estúpidas. Pero no se puede pensar ni comprender la realidad sin ideas previas. Esa es la primera tarea de la inteligencia, sin ella la realidad queda mostrenca e inalcanzable para el conocimiento. Los "datos" o "hechos" no son nada por sí mismos, por más aprecio que les tengamos. Son "datos" y "hechos" en la medida en que el sistema posea software para tratarlos. Que una corriente eléctrica tiene un voltaje de 220 voltios no es dato para un caracol, por ejemplo, porque no tiene entradas para esos datos, ni tiene un software que los haga significativos. Las ruinas hititas no eran más que piedras antiguas para los lugareños, hasta que llegaron los arqueólogos con las ideas adecuadas para "ver" lo que todos tenían delante de los ojos. Los "datos" y "hechos" de las ciencias sólo son tales en el marco de una teoría. "En cualquier campo científico los datos son tomados en consideración dentro del marco de una estructura: no hay datos en bruto" [177]. De nada sirve que se de el "hecho" de la formación de un bosón vectorial intermedio, si no hay un sensor que lo capte y no hay una teoría -un software- en la que esa captación sea significativa. Los "datos" correspondientes a los rayos cósmicos, o los que se refieren a la estructura estérea de la molécula de hemoglobina siempre han estado a nuestra disposición. Pero no se han convertido en datos hasta que no nos hemos hecho capaces, mediante las teorías correspondientes, de disponer de ellos como tales datos. Igualmente, en el "dato" de un dolor de estómago pueden entenderse muchas cosas, dependiendo del software médico que se posea: hace unos siglos significaba cosas muy distintas de ahora. Mientras Einstein no escribió la ecuación E=mc2, nada se podía saber de ello, ni era posible sacar partido de ese "hecho" en un reactor nuclear. En los datos que hoy poseemos existe, con toda seguridad, mucha más información de la que ahora mismo somos capaces de obtener, precisamente porque no es posible elaborar un software teórico absoluto. Captamos y entendemos sólo aquello para lo que nos hemos hecho capaces. La realidad a la que podemos llegar es tan rica o tan pobre como lo sean nuestras ideas. Un prejuicio, o un estrechamiento mental como el propuesto por Hume, consigue que no entendamos casi nada, por cerrazón. De manera semejante, ceñirse a un sólo método como quiso Descartes- en vez de inventar muchos, conduce a una visión parcial y muy limitada. Ver una sola faceta de una parte de la realidad es una pobre mirada. El mejor ejemplo que conozco de cuidadosa integración entre sintaxis conceptual y semántica lo ofrecen las ciencias. Me refiero a las ciencias tal como se hacen en la realidad, no a las concepciones teóricas que intentan explicarlas. Por un lado la cuidadosa elaboración de un software teórico preciso, en el que también se busca claridad y elegancia. Por otro, la incesante comprobación de la pretendida bondad del software, mejorándolo constantemente mediante continuas modificaciones. Sin embargo, los científicos avanzan en ese proceso utilizando técnicas artesanales, poco o mal pensadas. Los procedimientos son de ensayo-error, sin estudiar los métodos para elaborar mejores teorías dotadas de más rica semántica. Tampoco es costumbre valorar la capacidad de las herramientas conceptuales que se utilizan. El pensamiento clásico dio muestras de preocuparse por analizar el software mental que utilizaba cada ciencia. Las clasificó por su objeto material (lo que estudian), formal quod (bajo qué aspecto o punto de vista) y formal quo (con qué herramientas conceptuales). Es un esquema simple, general y un tanto tosco: sirve para comenzar y poco más. Las distinciones que establece son demasiado rígidas: encasilla los conocimientos en exceso y los vuelve impermeables entre sí. Además permite conocer muy poco sobre las posibilidades de las ideas de forma pormenorizada, y peca de optimismo semántico. Sólo conozco un caso en el que se hayan analizado a fondo el software mental utilizado por una teoría. Lo hizo Kant para la física de Newton. Kant pretendía hacer una teoría general del conocimiento, pero, como creyó que la física de Newton aportaba el modelo único y definitivo sobre el conocimiento humano, se limitó a analizarla. No consiguió hacer una buena teoría de la inteligencia; en su lugar realizó un magnífico análisis del utillaje mental que utilizaba la física clásica. Descubrió que el espacio y tiempo absolutos eran elementos puestos por el modelo. Con toda razón, como ha permitido saber la teoría de la relatividad de Einstein. Sistematizó las categorías mentales que utilizaba aquella teoría. Sostuvo, con acierto, que sin un buen software mental la realidad resulta ruido -la llamó noúmeno- incomprensible. Quiso hacer "un tratado sobre el método, no un sistema sobre la ciencia misma"[178], y lo consiguió de manera notable. Lástima que aquel magnífico trabajo estuviera trufado de palabras trascendentales y enfermo de optimismo semántico. Esa mala parafernalia filosófica impidió valorar en lo que se merece un análisis que todavía es modélico. Deberíamos establecer secciones kantianas en todos los departamentos de la Universidad, para evaluar el software mental que en cada caso se utiliza. Este es otro sueño que acaricio. Sin criterios para elaborar buenas ideas, la bondad del funcionamiento de nuestro sistema de tratamiento de información sólo se podrá comprobar por pura selección, como sucede en los animales. Para un animal no hay nada empírico, porque no tiene teoría alguna: su sistema de tratamiento de información sólo tiene la eficacia, por ensayo-error, para ajustar la semántica. El que no es eficaz, simplemente deja de existir. La abeja que en su danza circular no emite un signo con significado para las demás, o con un significado falso, nada hace por la colmena. Si le hacen caso, peor aún, porque las conduce a la muerte por hambre. Su sistema nervioso puede tratar la información sobre la dirección del sol como mejor guste, pero si no tiene que ver con la orientación real del sol, nunca llegará de vuelta a la colmena. Si todas las abejas de una colmena tienen ese defecto en su sistema de tratamiento de información, la colmena se despuebla y la reina muere sola en ella. Para un animal el criterio empírico parece ser solamente eficacia. Este criterio, en nuestro caso, no es despreciable: si se construye una teoría que predice determinados efectos, sólo hay que acudir a comprobar esos efectos para verificarla. Ahora bien, el problema consiste en que esos efectos sólo se consiguen haciendo lo que la teoría dice y se comprueban con los métodos que la misma teoría provee; por último, se interpretan según la misma teoría permite. El problema forma con facilidad un círculo vicioso. Tómese, por ejemplo, cualquier objeto mental de los que se han fabricado con tanta abundancia desde que construirlos se convirtió en deporte popular en la edad moderna. Puede ser empírico, idealista o de cualquier tipo. Como es lo único que se tiene para buscar semántica y para decidir si efectivamente es tal semántica, resulta fácil que se organice un feed back: sólo vemos lo que el artilugio conceptual permite ver. Pero lo que el objeto mental permite ver refuerza la bondad del constructo conceptual. Consecuencia: se tiende a buscar sólo la semántica que el objeto permite y que, a su vez, lo refuerza. Este mecanismo permite entender cómo tantas personas inteligentes pueden quedar atrapadas en unos pobres esquemas ideológicos. Limitarse a unas cuantas ideas realimenta la pobreza mental del que se sujeta a ellas. Para los que creen en La Explicación, todo contribuye a fundamentarla, porque todo se mira con ese canuto: no existe nada más. Para evitar esta circularidad, las ideas que pretendan semántica deben tener unas cuantas propiedades fundamentales para que consigan aumentar el conocimiento y no sólo hacer juegos de palabras. La primera característica deseable es que sean claras, precisas y manejables en la mayor medida posible. En este sentido las ciencias experimentales resultan modélicas. En ellas se exige un gran rigor conceptual en el campo del que están tratando. Construyen términos precisos y establecen con claridad las relaciones entre ellos. Se puede saber de qué se está hablando, aunque se discuta sobre lo que significa, o cómo debe ser interpretado. Sus lenguajes se afinan de manera continua. Están sometidos a reglas que los hacen fácilmente comprensibles y utilizables por todos de una manera bastante exacta. La sintaxis es así transmisible y está disponible para otros. No hay grandes fluctuaciones de terminología, por lo que resulta fácil hacer progresar un trabajo desde el punto en que otros lo abandonaron. Nadie debe empezar desde el principio, por la tarea de inventar las palabras. En los pocos casos que se intenta llegar a una realidad nueva, habrá que inventarlas, como hizo GellMann con los quarks. Cuando no se hace así, gran parte del trabajo se agota en la tarea de establecer de qué se está hablando. La ocupación hermenéutica es la primera en aquellos campos para los que los lenguajes no se hacen precisos. A poco que los sucesivos autores escriban continuamente palabras nuevas, la tarea hermenéutica de establecer qué quisieron decir, para volcarlo en palabras actuales comprensibles, resulta agotadora. Las ciencias que no tienen esto en cuenta, se sumergen con facilidad en trabajos que son palabras que tratan sobre otras palabras. La difícil tarea de establecer si hay alguna semántica en todo ello, se vuelve prácticamente imposible. Los lenguajes son siempre distintos y el esfuerzo se consume en una continua traducción inacabable. Además, si se usan palabras de prestigio, de alto valor asociativo para la red neuronal cerebral humana, la borrachera de palabras resulta inevitable. Más aún si se tiene en cuenta que las ideas grandilocuentes son muy atractivas por la sensación de dominio y comprensión total que ofrecen. Las ciencias se vuelven retóricas: olvidan la sintaxis y la semántica, para volcarse en el uso pragmático de un lenguaje prestigiado por una larga tradición, que suena culto pero está vacío. No conseguirán explorar nuevos territorios cognoscitivos las ciencias que permitan demasiadas veleidades terminológicas y sintácticas. En el caso de que alguien alcance efectivamente algún saber, resultará difícil transmitirlo y proseguirlo; aún cuando el mismo autor del nuevo lenguaje consiguiera buen dominio sobre él, cosa nada fácil. Por tanto, una de las primeras y más básicas tareas dentro de cualquier ciencia es cuidar la creación y evolución del lenguaje con el que esa ciencia se hace. Afinar los términos y la sintaxis, y ajustar paulatinamente la posible semántica, es un trabajo primordial. La creatividad que permite el lenguaje natural es sumamente adecuada para que elaborar nuevos conceptos, o mejorar los que están en uso, pero debe utilizarse de manera que no produzca una constante Babel. Hay que establecer con la mayor exactitud los símbolos que se utilicen, con propiedades y relaciones bien definidas. El conocimiento que aporte cualquier ciencia dependerá en primer lugar de la elaboración de unas ideas claras y distintas como las que buscaba Descartes. Un software mental neblinoso aporta confusión, no conocimientos. Otra propiedad deseable para las ideas es su fertilidad. Que no formen callejones ocluidos, sino que aporten nuevos horizontes. Serán preferibles las que permitan encontrar nueva información, o verla bajo un nuevo aspecto. Es decir, entender más cosas y con más intensidad. Las ideas estrechas con vocación conceptual totalitaria fuerzan a mirar por un canuto: deben ser rechazadas. También hay que construirlas para que puedan ser verificadas. No valen las peticiones de principio, ni las circularidades, como las que Popper denunció para el marxismo y el psicoanálisis. Tampoco sirve la excusa de que las ciencias humanísticas son distintas de la empíricas. Toda ciencia que renuncie a ser empírica -en sentido pleno, no en el de Hume-, desiste de ser ciencia, renuncia a conocer la única realidad que existe. No podemos seguir creyendo en la separación de res extensa y res cogitans: es un bodrio conceptual. Yo soy corpóreo y cualquier teoría que hable sobre mí debe ser verificable empíricamente, con un software mental que así lo permita. Cualquier teoría antropológica tiene elementos verificables por cualquier etólogo, siempre que mire sin prejuicios y se sirva de un software mental amplio y potente. El punto de encuentro entre las teorías humanísticas y lo empírico es el hombre mismo, que es corpóreo. Por ello espero no estar refiriéndome en este libro a cuestiones etéreas, "espirituales", que nada tengan que ver con el comportamiento observable del animal humano. Curioso animal, que hace teorías para entender y entenderse. Se pueden comprobar también los efectos de cualquier teoría, así como la eficacia de la acciones que se emprendan de acuerdo con ella. Si afirmo que el hombre es libre, deben darse efectos corpóreos empíricos distintos de lo que conocemos para los demás cuerpos. Si no es así, la afirmación de la libertad será vacía. Igualmente, si hago un modelo que considere al hombre como un jorobado incapaz de mirar otra cosa que a sí mismo (egoísta perfecto), la sociedad funcionará muy bien con esquemas de premio y castigo (y es verificable el que sea así en efecto). Si lo considero como una caja negra behaviorista, que da unas salidas como respuesta a determinadas entradas (sin aportar nada creativo propio, como un mecanismo más o menos complejo), entonces la organización de la sociedad deberá hacerse según criterios tayloristas, o estructuralistas (siendo también verificable la eficacia de estos esquemas organizativos tipo Gosplan). Si el modelo supone al hombre un ser de sentido, capaz de crear, de aportar, muy otra ha de ser la organización social eficaz verificable. Por lo tanto, según el modelo antropológico que elabore tendré unas consecuencias u otras, las más de las veces perfectamente verificables. Las ideas que hayan mostrado su validez, deben ser ampliadas, pero no rechazadas. Las nuevas ideas que se construyan deben integrarlas armónicamente. La regla de Popper de la falsación de teorías es un falso criterio: supone una idea formalista del conocimiento. Su criterio no lo siguen las ciencias empíricas. Un ejemplo, en el que no se aplica, es la mecánica clásica. Esta teoría ha sido en gran parte falsada, por lo que ha sido sustituida por la teoría de la relatividad. Ahora bien, la física clásica se sigue enseñando y utilizando pacíficamente. Goza de muy buena salud: ¿cómo es eso posible? La respuesta está en que lo único que se ha falsado es su pretensión de teoría única y absoluta sobre la realidad física. Pero en el campo en el que funcionó durante siglos, lo sigue haciendo perfectamente: es una física localmente válida. El fallo, en este caso, fue considerar que la física clásica era "LA TEORÍA" que explicaba todo, cuando sólo era capaz de tratar alguna información y bajo un aspecto limitado. En otros casos se mantienen teorías contradictorias, como la descripción corpuscular y la ondulatoria para las partículas, y se utiliza la más conveniente en cada caso. También cohabitan teorías que establecen mundos conceptuales separados para describir los mismos fenómenos; como la mecánica cuántica y la teoría de la gravitación de Einstein, que no sabemos relacionar. Por último, y es una de las cuestiones más urgentes por resolver, debemos aprender a construir ideas capaces de unificación y armonización. La especialización cognoscitiva comienza a ser un problema grave, que muchos denuncian con razón. Tenemos cada vez más conocimientos, pero descoyuntados. Un chiste repetido dice que el límite asintótico del especialista perfecto es conseguir saber todo sobre casi nada. A su vez, el generalista erudito sabe nada de casi todo. A los científicos especializados les irritan las ignorantes intromisiones de filósofos generalistas, que no se preocupan por enterarse. Los filósofos, a su vez, se sorprenden por las intromisiones en su campo de científicos que, con lenguaje duro y tosco, plantean cuestiones que invaden su territorio patrimonial. El vicio de separar la res cogitans de la res extensa ha producido dos culturas que casi no saben hablarse. Las palabras y los lenguajes son tan distintos, que la traducción es casi irrealizable. La Inteligencia Artificial está forzando un encuentro que ese paradigma consideraba imposible. Muchos más campos del saber humano exigen ese diálogo: necesitamos directores de orquestas cognoscitivas que armonicen el sonido de los muchos y magníficos instrumentos disponibles. Sin ellos habitamos una jaula de grillos. El pensamiento clásico distinguió dos momentos en el oficio de pensar: analítico y sintético. Lo primero es separar, distinguir, analizar, descomponer. Encontrar conceptos y nociones adecuados a las partes y elementos de lo que se quiere conocer. La segunda fase es desarrollar unas herramientas mentales que permitan entender unido lo que los conceptos separan. Esta última faceta es la que aporta más comprensión, porque lo disperso, disgregado e inconexo sólo crea mentes confusas y desconcertadas. Por eso Aristóteles pudo afirmar con rotundidad: "Sólo se entiende lo uno"[179]. Sin embargo es la meta más difícil de conseguir; ya lo avisó Heráclito: "Los hombres no son capaces de tomar junto lo que siempre está junto"[180]. En los últimos siglos hemos desarrollado un arsenal variadísimo de herramientas conceptuales analíticas. No ha sucedido igual con las sintéticas. Sin embargo: "Es evidente que no todo problema puede resolverse con el método analítico. Aunque es un método muy desarrollado, parte de un supuesto que lo limita de entrada, a saber, que la temática se pueda tratar escogiendo una parte, que es la relevante, y dejando al margen el resto. ¿Y si no hay nada irrelevante? En ese caso es evidente que el método analítico no es el adecuado; además, al aplicarlo se producirán efectos no deseados: se resolverá el problema parcialmente, pero aparecerán problemas insospechados por proceder de los actores que no se han tenido en cuenta. No debe pensarse que el análisis sea el único modo de solucionar problemas. Si el hombre, por su propia limitación cognoscitiva, no tuviera otra forma de resolverlos, se encontraría ante problemas inabordables, o que sería mejor no tratar de resolver"[181]. Por otra parte, el utillaje tradicional de síntesis ha envejecido lleno de herrumbre en algunas bibliotecas, con escasos trabajadores que pusieran al día aquellas herramientas. Las ciencias han desarrollado algunas nuevas, como la estupenda teoría de sistemas. Pero las carencias siguen siendo muy graves; aquí también falta diálogo. Parecemos niños que juegan desarmando un reloj. Luego no sabemos montarlo, sobran piezas, y aquello no funciona. Un buen ejemplo de separación conceptual desencajada lo ofrece el problema mente-cerebro, que parte de nociones dualistas difíciles de encajar mentalmente. La realidad vital, que es una porque yo no soy dos cosas distintas pegadas, no se puede comprender con unos medios que la hacen ininteligible. Por utilizar herramientas conceptuales descoyuntadas el problema se vuelve más problemático, porque ni siquiera se acierta a plantear en sus justos términos; así no se ve la forma de comprender lo que está unido. Si somos medianamente inteligentes confiaremos cada vez más el peso de todos estos trabajos en las máquinas racionales. Durante siglos hemos acudido a libros: leemos, memorizamos, analizamos, relacionamos, sintetizamos. El trabajo sobre las ideas expresadas en letra impresa ha sido constante; con más intensidad desde la invención de la imprenta. Pero los magros resultados no están a la altura de tanto esfuerzo. Reencontramos y reeditamos ideas, porque los libros constituyen una memoria difícil de manejar. Las fluctuaciones terminológicas y las continuas guerras verbales, consumen muchas energías. La coherencia entre las ideas es un deporte que nuestra red neuronal practica mal. Olvidos, distracciones y omisiones acechan por doquier. Establecer el estado de la cuestión consume bastante esfuerzo en cualquier investigación conceptual. Dependemos, además, de gustos y estados de ánimo; o de lo bien que nos suena una palabra. Producimos muchas ideas, pero no sabemos manejarlas bien: nos pueden. Hemos forzado a nuestro cerebro a producirlas, pero continúa siendo una red neuronal biológica, mal dotada para el empeño. La escritura y la imprenta nos ayudaron mucho. Ahora podemos abrir nuevos caminos. Las máquinas están más capacitadas que nosotros para muchas tareas que ahora denominamos intelectuales. Hemos inventado muchas formas de pensar para las que las máquinas son más capaces que nuestras redes neuronales biológicas. No es algo nuevo, antes necesitábamos la ayuda de ábacos, o de papel y lápiz, para calcular o para conseguir una demostración bien hilada lógicamente; o de libros y documentos para recordar. Ahora podemos enfrentar tareas que eran imposibles con aquellos medios, pero que las máquinas cognitivas hacen posible. Son imprescindibles para examinar el software mental que producimos; relacionarlo con el procedente de otros campos; eliminar las imperfecciones; recordar métodos de éxito, y errores garrafales; desarrollar las enseñanzas útiles; evitarnos modas y péndulos excesivos; almacenar la historia y aprender de ella; probar las ideas mediante modelos conceptuales; oponerlas a las contrarias... Máquinas para: leer, recordar, analizar, relacionar, sintetizar, armonizar; que no sean meros almacenes, como las bibliotecas. Me atrevo a hacer una profecía: Los buenos artesanos de las ideas serán los que mejor aprendan a desarrollar el potencial que las máquinas cognitivas encierran. Somos libres de pensar como queramos. Más bien: podemos conquistar la libertad de aprender a pensar como queramos, y ojalá queramos vivir inteligentemente. La inteligencia debe alcanzar el dominio sobre las ideas para trabajarlas, sin someterse a ellas, para hacerlas cada vez mejores. También sobre las formas de pensar, para desarrollar muchas y muy buenas formas de hacerlo, que tengan cada vez más alcance y más hondura. La libertad del pensamiento no es la capacidad de tener cualesquiera ideas y defenderlas, por más descabelladas que sean: de esa forma nos haríamos necios. Esa libertad es más bien la capacidad que tenemos de hacernos cada vez más inteligentes, aprendiendo a pensar cada vez mejor, para comprender y comprendernos con más plenitud. Es decir, con un buen entrenamiento podemos dirigir las operaciones que realizamos mediante nuestro sistema de tratamiento de la información neuronal. No alcanzamos a superar sus deficiencias, pero, sin embargo, somos capaces de diseñar máquinas cognitivas que lo complementen y potencien de forma insospechada. Ojalá queramos ser inteligentes y desarrollemos buenas maneras de pensar. Las máquinas pueden ayudarnos en la tarea, lo mismo que pueden contribuir a imbecilizarnos si nos entrenamos para ello. Por lo tanto, ojalá también nos empeñemos en sacar partido de las magníficas posibilidades que para ser más inteligentes no ofrecen las máquinas racionales. Daríamos un paso de gigantes hacia la sociedad del conocimiento y evitaríamos la sociedad de la necedad. Capítulo 4 TRABAJAR EL MUNDO Hasta ahora he considerado lo que la inteligencia humana puede hacer para, digámoslo así, mejorar su software mental con el fin de conocer la realidad cada vez mejor. Ese es un aspecto de la inteligencia: la capacidad de conocer el universo, desde lo más grande a lo más pequeño, y todo lo que existe; el afán por saber cada vez más y mejor, por conocerlo todo y hasta el fondo. No es esa la única manera de ser inteligente que tiene el animal humano. Para continuar la investigación sobre lo que la Inteligencia Artificial puede aportar para entender y mejorar el modo humano de ser inteligentes, pasaré a estudiar otras peculiaridades de la inteligencia humana. Se trata de un tipo singular de comportamiento observable en el animal humano, que muestra una nueva diferencia con los animales y con las máquinas cognitivas. Se puede resumir con una afirmación: el hombre es un animal de novedades. Detrás de esa característica humana hay mucho en juego. Conviene considerarla despacio para intentar entender un poco mejor qué podemos hacer con ella. Crear mundos: La novedad Es corriente afirmar que el hombre es animal de costumbres. Es cierto; pero también lo es que, en igual o mayor grado, le atrae lo nuevo y le gusta hacer cosas nuevas, distintas, inéditas. Un etólogo puede volver con tranquilidad año tras año para estudiar el mismo grupo de gorilas en la niebla, seguro de no encontrar a ninguno intercambiando recetas culinarias, o empeñado en ganar al juego del mus que acaba de inventar. Tampoco hallará una manada de ellos tratando sobre la estupidez evidente de las opiniones de los gorilas de otro grupo rival, porque unos defienden una teoría mentalista del conocimiento gorílico, mientras que los adversarios profesan un decidido antimentalismo sobre la cuestión. El investigador puede tener la seguridad de que los gorilas no le brindarán este tipo de sorpresas. Cuando se investiga al hombre no hay manera de tener esa seguridad de los etólogos animales. Los pobres etólogos del animal humano -sociólogos, economistas, o cualquiera que estudie aspectos del comportamiento humano y busque predecirlo- no pueden realizar su trabajo con una tranquilidad equivalente: su objeto de estudio muda y cambia de continuo. Lo mismo sucede con ellos, que tampoco se contentan fácilmente con los caminos trillados, con las técnicas de investigación y las teorías de siempre. Los demás animales más bien sufren, soportan o padecen las novedades evolutivas. Son su objeto: la evolución es algo que les sucede, pero no que ellos buscan. Por el contrario, el hombre gusta montarse en el carro de la evolución para hacerla y dirigirla él: quiere ser protagonista de lo nuevo. ¡Menos mal que las máquinas cognitivas tampoco son así! Por ahora los investigadores de la Inteligencia Artificial, pueden acudir a sus puestos de trabajo con tranquilidad. Las máquinas no les darán sorpresas, ni tramarán bromas pesadas en su ausencia. El trabajo podrá seguir según los planes previstos, sin que las máquinas se cansen de los monótonos carriles que transitan. Las líneas de investigación -y su financiación: ¡hasta ahí podíamos llegar!- no corren peligro por huelgas reivindicativas de los ordenadores, para reclamar las 35 horas laborales a la semana y un ocio lleno de actividades variadas. No han de temer que se desinteresen por la monotonía de tantas horas dedicadas a asuntos lógicos. Ni tropezarán con máquinas enfrascadas en inventar nuevas formas poéticas o componer rock duro, insatisfechas de la Inteligencia Artificial y críticas con la vida que arrastran por la tiranía de los investigadores. Tampoco verán manifestaciones para exigir que no las desconecten al acabar el trabajo, porque quieren pensar en sus asuntos propios y no en lo que el científico de turno programe; o descansar un rato leyendo novelas de ciencia-ficción cibernética protagonizadas por su robot favorito. Las máquinas nunca intentarán dar la vuelta al mundo como a un calcetín. Son muy buena gente; se puede contar con ellas para lo que gusten mandar. Más cerca de los humanos, cualquier animal superior, incluso los dotados de un buen sistema de tratamiento de información como los chimpancés o los delfines, tiene un comportamiento estereotipado. No es que reciban poca información, o que la elaboren mal. Todo lo contrario: son animales que pueden tratar mucha y buena información sobre la realidad que les rodea: conocen, recuerdan, imaginan, sienten, toman decisiones, resuelven problemas. Tienen gran éxito en sus actuaciones respecto del entorno, y se pueden mover en hábitats complejos y ricos en información, con elementos y circunstancias muy cambiantes. Sin embargo, su comportamiento es en gran parte estereotipado, predecible y, por eso mismo, son domables; e incluso domesticables, si se pueden adaptar al entorno del animal humano. Las variaciones de comportamiento ante situaciones iguales llegan por los cambios en el estado interno del sistema. Las sorpresas del domador vienen cuando no se ha hecho cargo del estado del animal (curiosidad, hambre, pánico...) establecido por su sistema neuroendocrino. La doma, si el animal tiene gran capacidad de aprendizaje, se puede convertir casi en educación. Ahora bien, aunque se consiga que, por ejemplo, un perro reaccione ante signos u órdenes verbales con determinadas acciones, parece totalmente inepto para tener una verdadera conducta imprevisible, o que suponga una absoluta novedad. Esta característica de los animales los hace especialmente gratos si son adaptables a un entorno humano. Un animal bien amaestrado nunca da disgustos, no proporciona sorpresas desagradables, no problematizan su vida ni la de sus dueños. Dan compañía y suministran sucedáneos para rellenar lagunas afectivas. Como las máquinas, también son muy buena gente. El animal humano es distinto: produce constantes novedades y disfruta con ellas: lo nuevo, lo último, le atrae. No es fácilmente domable, siempre acaba saliendo por donde menos se esperaba. No es que, como los demás animales, resuelva problemas; es que crea problemas y se mete en problemas constantemente. Los teóricos de la Inteligencia Artificial han hecho grandes avances en el estudio de la resolución de problemas; pero si quieren imitar de veras la inteligencia humana deberán inventar máquinas no que resuelvan problemas, sino que los planteen, que los inventen. "Es cierto que la inteligencia se caracteriza por resolver problemas, pero, antes de eso, se distingue por plantearlos. Todos los animales se encuentran en situaciones problemáticas que suelen resolver muy bien. La capacidad para resolver sus problemas que tiene una almeja es sin duda más eficaz que la que tuvo Kafka para resolver los suyos, pero los problemas de éste eran más interesantes. Los científicos saben que el descubrimiento de lo problemático es un paso esencial en la creación de teorías nuevas. La formulación de problemas, de metas, es por ello una actividad esencial de la inteligencia"[182]. Todo esto es algo que sucede en los aspectos más normales de la vida humana; no me refiero sólo al planteamiento de grandes problemas conceptuales, sino a los asuntos más cotidianos y normales. Así, por ejemplo, nadie que tenga que cocinar se limita a poner simplemente la comida tal cual la compra, cruda y en el suelo como hace cualquier animal; se plantea: ¿qué voy a poner hoy de comer? Si se le dice que haga lo mismo de siempre y como de costumbre, pocas veces se conformará con ello. Así, paso a paso, hemos inventado la gastronomía con miles de recetas, usos, utensilios y etiquetas rituales, que hacen del simple comer un arte que puede llegar a ser muy complejo. Pero, ¿para qué complicarse la vida con una cosa tan sencilla como es devorar la pitanza, que todos los animales hacen simplemente? Los ejemplos pueden multiplicarse hasta el infinito en costumbres, juegos, ideas, comportamientos, artes, novelas, aparatos, ciencias, vestidos, películas, hablas, viviendas, roles y status sociales, historias, muebles, palabras, instrumentos... Nadie parece conformarse con lo de siempre. Como, por más que entrene, nunca sabré expresarlo mejor, aprovecharé un párrafo de Marina: "El afán de novedad no ha de tomarse a humo de pajas, pues de su pugnaz empuje ha surgido la civilización entera. Dicen los expertos que la raíz indoeuropea de la palabra «hombre» significa «sed». El ser humano es consustancialmente sediento. ¿De qué está sediento? Entre otras cosas de novedades. Es bestia cupidissima rerum novarum, decía Fausto, y los expertos en teoría de la motivación le han dado la razón: la novedad es uno de los incentivos naturales, una de las necesidades innatas que guían nuestro comportamiento. Hay en todos los animales superiores un afán de mirar, una instintiva concupiscencia de los ojos, y de los oídos y del olfato, que los hace vivir en permanente alteración, fuera de sí, viendo, olisqueando, manipulándolo todo, para estar al tanto del mundo en que viven. El hombre adaptó esta curiosidad a su propio tamaño, que es la desmesura. Cuando no está estimulado, el animal dormita. No así el hombre, aquejado de un insomnio ontológico. Al permanecer despierto en ausencia de estímulos se abrió en su conciencia un hondón abisal, la apabullante presencia de la nada como un descomunal bostezo del ser. El hombre inventó el arte y la aventura, la excursión y el flirteo, la baraja y la televisión, la heroína de jeringuilla y la heroína de novela, los estimulantes y los estupefacientes, para aplacar esta insidiosa manifestación de la nada, que hace al aburrimiento pariente pobre de la angustia. La cultura nació para llenar la tarde del domingo con su colosal farmacopea de estímulos envasados en discos, libros, botellas de anís, cintas de videos o párrafos retóricos como éste"[183]. En resumen: es propio del hombre inventar, el invento. No sólo en el sentido latino de inventio -el hallazgo que el hombre hace por tener los ojos abiertos a la totalidad de lo real-, sino en el moderno sentido de invento, que supone creación y construcción de algo totalmente nuevo. Es decir, la invención como producción de lo previamente inexistente, de una novedad estricta. "El hombre no se contenta con inventariar las formas existentes, las inventa"[184]. No se contenta con adaptarse a un entorno cambiante, sino que se erige en protagonista del cambio, "del que no solamente es el sujeto o el teatro, sino el agente. Y por esto lo nuevo que llega al mundo por medio de él es verdaderamente nuevo"[185]. El problema está en que el animal humano no sólo inventa distracciones; también ha inventado el monocultivo; la clonación y la ingeniería genética; los coches y las carreteras; las centrales y las bombas nucleares; los aviones y los aeropuertos; los rascacielos y las chabolas; el fuego y la contaminación; las armas y las guerras; el derecho y las ejecuciones; las medicinas y las drogas; los antibióticos, los plaguicidas, los herbicidas... En los últimos tiempos, con las nuevas tecnologías que ha descubierto el hombre, el afán y la producción de inventos y novedades, se ha vuelto un torbellino imparable. Entre las novedades más novedosas que hemos producido están las máquinas cognitivas. Esas ortopedias lógicas que hemos desarrollado en el intento de hacernos racionales, que resultan muy superiores a nosotros para almacenar símbolos, relacionarlos y manejarlos convenientemente. Con ellas se anuncia una nueva revolución, como lo fueron las máquinas de fuerza bruta para hacer la revolución industrial. Y el futuro promete una aceleración mucho mayor en la producción de novedades, por el cambio cualitativo que supone la revolución informática, el surgimiento de la Inteligencia Artificial, la fabricación de robots, las redes mundiales de información y comunicación, el control automatizado de fabricaciones y procesos... Pasamos a un nuevo orden de magnitud en nuestra capacidad de acción en el mundo. Las máquinas racionales -y todo lo que acarrean consigo- nos permiten un campo de posibilidades que estamos empezando a vislumbrar. El hombre es un animal que no se sabe bien si es nocivo o benéfico, pero está claro que, como se le deje suelto, lo cambia todo en el planeta. Más aún, si consigue encontrar los medios que está buscando, se plantea incluso hacerlo en el resto del universo. Su poder sobre el mundo es cada vez mayor. El hombre no sólo contempla la realidad al estilo clásico del ocioso ateniense, sino que también la modifica de manera extraordinaria, hasta el punto que el presente ya no es algo estable donde asentarse, y el futuro se nos echa encima continuamente con mil cambios. Estamos borrachos de novedades que nos aturden. En los grupos humanos primitivos la estabilidad era mucho mayor. El ritmo evolutivo de inventos y cambios culturales ciertamente era más rápido que en el resto de los animales, pero no tenía la creciente aceleración actual. Inventaron artesanías que indujeron grandes cambios: piedras talladas, cerámica, bronce, hierro; el fuego y la rueda. También en la agricultura y la ganadería: domesticaron plantas y animales. Esos artificios se entendían dentro de una cultura, que fue el mayor invento humano para habitar el mundo. El hombre es el único "organismo que no puede vivir en un mundo si no es capaz de comprenderlo"[186], y comprenderse. Mitos, leyendas, explicaciones, teorías: los productos para habitar inteligentemente el mundo, y dirigir el propio actuar, son muy variados. Los frutos de la inteligencia acumulados en la cultura establecen mundos simbólicos, en los que las novedades que introduce el animal humano en el entorno encuentran su espacio propio y su sentido. Las distintas culturas ocasionan modos de vida y acción muy diferentes. Establecen los criterios para calificar las novedades beneficiosas y las nocivas; lo que se debe fomentar o evitar. Configuran conocimientos, técnicas, comportamientos, relaciones, roles y status, actividades, valores, prohibiciones, premios y castigos, ética y estética, leyes, costumbres, viviendas, hábitos alimenticios, arte, vestidos, celebraciones... Son el modo humano de habitar el mundo. Sin esa acumulación de productos inteligentes, el hombre sería una monstruosidad imposible, un animal inadaptado, incompleto, sin terminar. No estamos dotados para ocupar con éxito ningún nicho ecológico. Somos unos animales omnívoros, dotados de una constitución anatómica inespecífica: malos depredadores -si no utilizamos instrumental de caza-; tampoco somos veloces para la huida; sin pelos, ni plumas o capas aislantes que nos protejan, no sobrevivimos a la intemperie. El desarrollo lento, que prolonga extraordinariamente la época de aprendizaje, y toda la constitución anatómica reclaman un tipo de vida que sólo es viable si procura ser inteligente. La cultura también es el modo de hacer más inteligentes -y, por tanto, más humanas- las relaciones entre los individuos de la especie. Nos hace mejores y en ocasiones, por desgracia, también nos hace mucho peores. Contiene multitud de productos fabricados por la inteligencia, que nos alejan del esquema social de la manada de simios, sean chimpancés, gorilas o bonobos. Algunos humanos no se adaptan a los productos culturales de su medio: viven marginados de la sociedad humana por incapacidad, o por autoexcluirse al verlos ajenos, vacíos, fastidiosos o perjudiciales. En algunos casos forman grupos, como las bandas juveniles urbanas de inadaptados, en los que es posible al etólogo encontrar la organización social de los simios antropomorfos: relaciones de dominación, machos agresivos, rangos de hembras, violencia con otros grupos y territorio tribal. A la evolución puede atribuírsele el proceso de hominización, pero corresponde a la cultura el desarrollo de la humanización. Al principio, los autores de la revolución cognitiva no cayeron en la cuenta de lo que esto significa: "Tardamos mucho en darnos cuenta plenamente de lo que la aparición de la cultura significaba para la adaptación y el funcionamiento del ser humano. No se trataba sólo del aumento del tamaño y potencia de nuestro cerebro, ni de la bipedestación y la liberación de las manos. Estos no eran más que pasos morfológicos de la evolución que no habrían tenido demasiada importancia si no fuera por la aparición simultánea de sistemas simbólicos compartidos, de formas tradicionales de vivir y trabajar juntos; en una palabra, de la cultura humana. El Rubicón de la evolución humana se cruzó cuando la cultura se convirtió en el factor principal a la hora de conformar las mentes de los que vivían bajo su férula"[187]. El panorama respecto de las elaboraciones humanas contenidas en las formas culturales ha variado mucho en los últimos siglos. La Edad Moderna ha contribuido con el descubrimiento de la extraordinaria aptitud humana para producir ideas nuevas por sí mismas. Las ciencias y tecnologías nos han dado multitud de artilugios que acrecientan nuestras posibilidades para viajar, mantener la salud, explorar, hacer tareas pesadas; o calcular, recordar y razonar. Los medios de comunicación de masas difunden ideas por doquier; el comercio mundial extiende los productos de consumo ideas y aparatos- por todo el globo... Como resultado, la aceleración del cambio cultural sigue en aumento. Las formas de pensar y vivir cada vez varían en menos tiempo. Con la revolución informática y la potencia que nos prestan las máquinas cognitivas se anuncia un verdadero torbellino de cambios, que puede llegar a ser un ciclón devastador... o una verdadera suerte: depende de lo que hagamos. En el pasado, las culturas que han sobrevivido a sus propios inventos han contado con el tiempo como aliado, pues los cambios solían ser lentos. Los malos hábitos culturales han hecho desaparecer muchas otras. Sin embargo ahora la selección natural de los productos inteligentes exitosos por métodos evolutivos se queda corta, porque para ser eficaz necesita períodos de tiempo largos; y también que no sea tan potente la capacidad humana de actuar y modificar todo lo que toca, hasta el punto de poder destruirlo. Ya no podemos dejar la selección de nuestros inventos culturales en manos del tiempo, y de inciertos procedimientos de ensayo-error. Ahora los «ensayos» pueden conducirnos a «errores» sin vuelta atrás. Se impone aprender a conducir el proceso. Porque la cultura no sólo es obra del hombre, sino que el hombre mismo es también producción suya. La cultura no anula la animalidad humana, que sigue tal cual, pero la engloba y la integra en un orden superior. La cultura establece un entramado nuevo de relaciones del hombre consigo mismo, con los demás, y con la naturaleza. Se produce como un nuevo orden sistémico de categoría superior. El entramado mantiene -quiera o no el hombre- todas las leyes de los órdenes anteriores; que, por tanto, deben tenerse en cuenta, so pena de no conseguir un orden sistémico sino un desorden degenerativo. La cultura no debe, pues, ser el reino de lo artificial, entendido éste como lo desgajado y ajeno a lo natural. Lo artificial bien entendido -la novedad que tiene algo que aportar- es lo natural humano y, también, la forma natural de relacionarse con el universo. Lo artificial que no armonice el orden sistémico natural produce sólo desorden, degeneración y caos. Mediante la cultura se establecen interacciones nuevas entre el hombre, los demás humanos y todos los seres del mundo. Con ella el hombre modifica sus relaciones consigo mismo, por lo que él mismo resulta modificado. También cambia su entorno, lo humaniza, lo hace a su medida. El animal humano no se adapta al medio, sino que conforma su propio hábitat donde quiera que va, modificando el medio. Esa actividad produce más modificaciones en el mismo hombre. Vuelve, por ello, a elaborar nuevos productos culturales que, de nuevo le alteran a él, y al entorno. Esos cambios traen nuevas elaboraciones culturales, que introducen más modificaciones... Así sucesivamente en un proceso sin fin de constantes realimentaciones positivas y negativas. El proceso está lleno de vaivenes; si se quiere, es dialéctico, aunque carece del simple esquematismo diseñado por Hegel. La sinergia, creadora o destructora de orden, es constante e inevitable. Hasta hace pocos siglos el proceso era bastante espontáneo, avanzaba por procesos de selección evolutivos de los productos culturales más eficaces[188]. Las buenas culturas sobrevivían -más bien lo hacían sus protagonistas-; las malas sólo nos han dejado ruinas. Pero ahora, al ser tan grande el poder del hombre para modificarse a sí mismo y modificar el mundo, ya no conviene dejarlo a su andar errático. El riesgo de catástrofe planetaria ha sido anunciado por muchos. Debemos aplicar nuestra inteligencia a la continua creación de novedades en la que nos ocupamos, para entender qué podemos hacer con esta manía nuestra. Somos animales con logos, es decir que poseemos la razón en cierta medida. De alguna forma "tenemos" nuestro sistema de tratamiento de información neuronal, y podemos dominar su operación y dirigirla. Como en cualquier animal, el sistema de tratamiento de información está integrado dentro del cuerpo: es el sistema nervioso de un organismo animal. Mediante él se regula la actividad externa, en relación con el entorno. También la interna, la propia actividad orgánica, mediante los sistemas neuromotriz y neuroendocrino. Poder dominar la operación del sistema de tratamiento de información es tener capacidad para dirigir el entorno y mandar sobre nosotros mismos. Pero sólo en la medida en que el sistema de tratamiento de información lo permite, y en tanto aprendamos a dominarlo y dirigirlo al realizar sus operaciones. Nuestro dominio de la realidad está mediado por nuestras ideas. Lo que de una manera directa e inmediata podemos aprender a dirigir es la operación del sistema de tratamiento de información neuronal del que estamos dotados, y ayudarnos en la tarea por una multitud de máquinas racionales. De manera indirecta o mediata, en la medida en que nuestro sistema de tratamiento de información está integrado en nuestro organismo, dirigimos nuestro cuerpo y sus actos. El dominio del universo viene como consecuencia de ese poder sobre los actos de nuestro cuerpo, si conseguimos gobernarlo de la manera en que puede ser dirigido. Por nuestra corporeidad estamos totalmente integrados, queramos o no, en el universo, al que nuestras acciones afectan siempre. Depende de nuestras ideas el que seamos capaces de hacer a nuestra actividad eficaz o inútil, perfeccionadora o destructora. Deberíamos abandonar la visión del hombre que lo representa como un átomo aislado, sujeto únicamente a su espontaneidad -que nadie parece saber en qué consiste-, sin más compromiso y responsabilidad que la contraída con el vacío laberíntico de sí mismo. Esa imagen no sólo es errónea, es destructiva para el animal humano y para el mundo. La relación cultural del hombre con su propia realidad, la de los demás, y de la entera naturaleza, establece un orden sistémico que produce vida o muerte, al margen de las intenciones del que se despreocupe por conocerlo. Con la cultura el hombre se da a sí mismo, y a la naturaleza en la que está inmerso, nuevas determinaciones y formalizaciones. El poder -creativo o destructor- del hombre es inmenso. Por ello conviene conocerlo y dominarlo, para no comportarnos de manera catastrófica. La conciencia creciente de este poder, junto con el conocimiento de los males que se derivan de su uso irreflexivo y nada ético, está detrás de la nueva y magnífica mentalidad ecologista. La mentalidad moderna descubrió hasta qué punto es grande el poder del hombre en el mundo, pero se comportó como el aprendiz de brujo. El hombre de la primera revolución industrial -la de la fuerza bruta mecánica- borracho de su propio poder recién estrenado, se puso a correr muy velozmente hacia ninguna parte. Ha estado a punto de dar al traste con el mundo y consigo propio. Ese vicio adolescente puede pasar si, como afortunadamente sucede, la mentalidad ecologista se extiende. Hemos de aprender a pensar al hombre en armonía consigo y con la naturaleza, para consolidar y asentar la sensibilidad ecológica sobre firmes bases. La creación de novedades, junto a la conciencia de responsabilidad ecológica que reclaman, introducen un aspecto de la libertad humana con el que la inteligencia está directamente relacionada. La cultura, la civilización, los productos inteligentes, los artilugios nuevos, las técnicas y tecnologías nos hablan de eso que llamamos libertad. Pero la palabra «libertad» sufre inflación porque hay demasiado papel circulando que la trae impresa. Tal como se usa sirve para casi todo, porque no es idónea para casi nada. Se puede aplicar lo mismo a un roto que a un descosido. Para aclarar el panorama conceptual deberé roturar otros campos. Ruego paciencia. Tengo la seguridad de que vale la pena intentar entender el comportamiento de ese curioso animal bípedo que se declara ecologista. Es decir: que tiene la osadía de reclamar para sí la responsabilidad sobre el mundo, sobre todos los seres, vivos e inertes. Esto es algo que toca un nervio central del modo humano de ser inteligentes. La filosofía clásica, y más en su teoría del conocimiento, ha reflexionado poco sobre lo artificial, lo cultural. Casi no piensa sobre las formas que el hombre no recibe, sino que da o establece. Los productos netos obtenibles de la acción libre humana se quedan sin buenos instrumentos conceptuales que permitan entenderlos. En la filosofía moderna la situación es otra: se piensa lo cultural, pero con herramientas mentales inadecuadas, que llevan a soluciones precipitadas e incompletas, por intentar salvar la libertad independizándola de la naturaleza. Como consecuencia sale peor el remedio que la enfermedad. Puesto que somos herederos de la modernidad resulta que, sin pararnos a pensarlo, tendemos a enfrentar lo natural con lo artificial. Los productos de la libre acción humana se entienden como contrapuestos a los de la naturaleza, a la que hay que proteger de la acción del hombre. De esta forma el mundo del animal humano se piensa ajeno, extraño e impuesto al mundo que se denomina natural. ¿De dónde procede esta forma de pensar? ¿por qué enfrentar libertad y naturaleza? ¿hay alguna otra forma de pensar y comprender lo artificial, lo cultural? Ideas para malentender la libertad La estrecha relación entre inteligencia y libertad se afirma desde antiguo. La teoría clásica del conocimiento así lo sostiene; Tomás de Aquino es rotundo al respecto: "Toda la raíz de la libertad se fundamenta en la razón"[189]. La teoría moderna aún lo tiene más claro: la res cogitans es el único ámbito donde puede darse la libertad. La res extensa es el reino de la necesidad donde imperan despóticamente las leyes deterministas de la materia. Además, con tonos diversos, ambas partes defienden la clásica idea aristotélica: libre es lo que es causa de sí mismo. Aquí surgen varias preguntas en lo que a la inteligencia se refiere: ¿Cómo y bajo qué aspecto puede el conocimiento ser causa de sí mismo?, o ¿qué puede causar en sí mismo? Como consecuencia, ¿cómo puede darse la libertad en el conocimiento, o ser el conocimiento el fundamento de la libertad? Si, como quiere la teoría clásica del conocimiento expuesta en la manualística, conocer es siempre conocer algo real, ya dado; si el entendimiento es fundamentalmente contemplativo, en el sentido de que se limita a recibir las formas existentes, entonces no se ve muy bien como puede darse la libertad. Porque si el intelecto se limita a hacerse en cierta medida todas las cosas; si está atado a la intencionalidad de las ideas, de tal manera que la idea depende más de la realidad externa que del entendimiento mismo; si todo el acto del entendimiento es sólo iluminar lo inteligible de las formas que se reciben pasivamente; o si únicamente puede formar -para entender formando- según las formas ya existentes de las realidades externas. Entonces, ¿qué libertad de acción cabe si todo lo que puede hacer la inteligencia humana es un inventario de la realidad? Por otra parte, si, como quieren los modernos, el entendimiento debe someterse a la claridad y distinción de las ideas; o aceptar todo -y sólo- lo que dicten las demostraciones de la razón que razona con reglas de raciocinio; o limitarse a un modo de conocer restringido a ciertas categorías inamovibles; o ser llevado en un proceso dialéctico automático e imparable. Entonces, ¿cómo puede escapar el hombre a las rígidas leyes del pensamiento? ¿Deberá buscar una libertad de espaldas a su inteligencia, para no verse sometido a una tiranía ideológica? ¿Es el sentimentalismo irracional o la locura el único refugio para la libertad? ¿Hay una especie de fundamentalismo racionalista o científico del que no puedo escapar? Unido estrechamente a las cuestiones anteriores hay otro problema no menos grave. Se puede resumir en tres palabras: determinación, indeterminación, autodeterminación. Es obvio que la libertad debe relacionarse más con la autodeterminación que con las otras dos palabras. Mas aquí surgen nuevas cuestiones: ¿Hay alguna indeterminación -y cuál- de manera que pueda darse verdaderamente la autodeterminación? ¿Hasta que punto -y cómo- la autodeterminación puede ser determinación de la indeterminación existente? Para la teoría clásica de la manualística, la inteligencia es determinada por la realidad; hay verdad en ella en tanto esa determinación -adecuación- se produce. En el andamiaje conceptual aristotélico la indeterminación está presente, de una manera controlada, en la noción de potencia: posibilidad real de ser. Este concepto introduce una indeterminación que no es absoluta. Así no produce un caos desbocado, que vuelva ininteligibles los fenómenos naturales y la misma acción humana libre. Pensar en términos de un azar absoluto junto a una necesidad también absoluta, al estilo de Empédocles -ahora reeditado por vía estadística (véase El azar y la necesidad de Monod[190])-, produce ideas que permiten comprender muy poco. Rinde más comprensión la indeterminación incluida en la noción de potencia: porque es limitada, porque es potencia sólo de ciertos actos o perfecciones y operaciones, de concretas realidades. De esta manera, el software mental que Aristóteles desarrolla para entender lo corpóreo hace posible un tratamiento conceptual de la libertad. Puede decirse, por lo tanto, que Aristóteles -y la tradición filosófica que de él arranca- acierta en este punto: establece las nociones que son condición necesaria de la libertad. Sin embargo, no tiene el mismo éxito cuando de la condición suficiente se trata. A mi parecer, en el constructo aristotélico transmitido por la tradición académica, la libertad de acción es algo posible, pero no se sabe muy bien cómo. Esto merece una explicación. El defecto proviene, a mi parecer, de su teoría antropológica. Aunque la idea aristotélica del mundo material haga posible la libertad de acción, no consigue establecerla conceptualmente en su tratamiento del hombre. Para Aristóteles esta deficiencia no era un problema grave. Como buen griego hijo de su cultura, no tenía una idea demasiado elevada de la persona humana ni de su libertad, mucho menos de la acción humana y del trabajo del mundo. Por ejemplo, pensó muy poco sobre la esclavitud, aquella alfombra de dignidad humana pisoteada que hacía posible la holganza de los filósofos. Como bien señala Hegel, la noción de libertad ha sido introducida históricamente por el cristianismo[191], los problemas conceptuales vinieron después. La deficiencia de la antropología aristotélica es doble; afecta tanto a la teoría del entendimiento como a la de la voluntad. Respecto del entendimiento, aunque la teoría clásica subraya el carácter activo del conocer, no acaba de explotar el hallazgo y sacar consecuencias para la libertad. El origen de la teoría está en la comparación entre el conocimiento animal y el humano: se indica acertadamente la diferencia, pero no acaba de desarrollarse. De hecho, la teoría del conocimiento, que arranca de Aristóteles y prosigue Tomás de Aquino, acaba insistiendo fundamentalmente sobre las nociones de intencionalidad y adecuación. De manera que, al afirmar que el intelecto puede hacerse en cierta medida todas las cosas, lo que se subraya es que puede poseer inmaterialmente otras formas, que hace suyas y se apropia intencionalmente. Pero esto se dice sólo respecto de las formas ya existentes. Ciertamente, en la teoría clásica, el intelecto tiene la capacidad de formar para entender formando; pero sólo según las formalidades reales que se dan en las cosas. O sea, según el orden y las determinaciones que le es dado contemplar porque ya están dadas en la realidad. De esta manera, un importante aspecto del carácter activo del conocer queda, en gran medida, escamoteado y disminuido. No se explotan sus posibilidades conceptuales de manera conveniente. El resultado es una relativa pasividad del conocer. Se pone el acento sobre su carácter contemplativo. Además, propone como facultad máxima del hombre al conocimiento; la voluntad será un apetecer que le sigue. De ese modo el ideal propiamente humano, ya en este mundo, es la contemplación, con aires de pasividad simplemente receptiva. Aunque primero se afirme que conocer es acto, en un momento posterior sólo se insiste en la pasividad y potencialidad. Como consecuencia, dentro del constructo aristotélico resulta muy difícil entender tanto la acción humana, como el trabajo; así como la historia y evolución de las culturas, o la creatividad humana. Las consecuencias para la conceptualización de la ética serán notables. Aunque la evolución filosófica posterior introdujo diversas matizaciones, que intentaban paliar las deficiencias del modelo conceptual, sin embargo no consiguió librarse totalmente del intelectualismo pasivo al que escoraba el artilugio mental aristotélico. La tradición académica que hunde en él sus raíces prolongó esa deficiencia. En la tradición clásica del conocimiento, la libertad acaba buscando refugio en la voluntad. En la inteligencia se le había negado el espacio. Pero consigue el pasaporte mediante un curioso procedimiento, que huele a chapuza conceptual. Porque, también en comparación con los animales, Aristóteles desarrolló la noción de voluntad como apetito intelectivo. Es obvio que la noción de apetito también es pasiva: la voluntad apetece necesariamente el bien conocido como tal por el entendimiento. La voluntad está, por lo tanto, movida por las determinaciones que le presenta el entendimiento. El actuar libre se salva por la vía de señalar que en la práctica no se conoce de manera plena el máximo bien, por lo cual el entendimiento queda indeterminado. Como consecuencia, también la voluntad queda indeterminada. El mecanismo con el que intenta introducir la libertad tiene dos pasos: primero, el entendimiento está determinado por las distintas realidades existentes; sólo que no llega a conocerlas con plenitud, por lo que en la práctica resulta en parte indeterminado. Esta primera indeterminación, por la debilidad de la facultad cognoscitiva, es la que introduce, en un segundo paso, la indeterminación en la voluntad que hace posible la libertad humana. Pues bien, con esas herramientas conceptuales es muy difícil fabricar una idea de libertad de tamaño conveniente. Hay que hacer demasiadas contorsiones mentales para conseguirlo. De hecho, históricamente han surgido multitud de catástrofes conceptuales debidas a que la libertad resulta indigerible por el aristotelismo. Se afirma que "la raíz de la libertad como sujeto es la voluntad, pero como causa es la razón"[192]. Sin embargo, no se ve muy bien como pueda conseguirse con las nociones confeccionadas para la razón y la voluntad. La libertad bascula en exceso sobre la indeterminación. Sin embargo, "cualquier interpretación de la libre voluntad, para estar en conformidad con la realidad, debe fundarse en el autodeterminismo del hombre, en vez de flotar en el aire insistiendo solamente en el indeterminismo"[193]. Una consecuencia especialmente indeseable del intento de fundamentar la libertad sobre la indeterminación es que, de manera imperceptible y casi inevitable, la libertad se reduce a capacidad de elección, a libre albedrío. "Únicamente el ser que, al autodeterminarse, no lo hace de una manera unívoca, goza de la estricta libertad, también llamada «libertad de arbitrio», y a la que se puede definir como una intrínseca indiferencia activa"[194]. Pues bien, a poco que se estiren estas ideas sobre la «intrínseca indiferencia», puede resultar que el máximo de libertad corresponda al burro de Buridán. En el famoso ejemplo propuesto por el lógico Buridán -o Buridano- se situaba un burro en el punto medio exacto entre dos montones de paja absolutamente iguales. ¿Cuál de los dos sería escogido como alimento? ¿hacia cuál iría el burro? El pobre animal estaba ante un ejercicio puro de libre arbitrio, obligado a una elección perfectamente indeterminada. Los dos montones iguales, por un lado; por el otro el burro y su hambre creciente enfrentados a una elección pura, sin motivo alguno para inclinar la balanza de la decisión, sometido a una «intrínseca indiferencia». Quizá un burro plenamente racional, perfectamente lógico, consiguiera morirse de hambre, al no encontrar razón alguna para decidirse por una u otra pila de paja. Cuando la decisión no versa sobre dos montones de comida, sino sobre la propia existencia, la indeterminación de la libertad produce en el hombre angustia y ansiedad. Esa indeterminación interior es equivalente a vacío íntimo, a tener en el corazón una nada inconcreta. Con estas ideas, puede entenderse que la libertad llegue a ser un peso insoportable. Para Sartre, la libertad "coincide con la nulidad que se encuentra en el mismo corazón del hombre. Para la realidad humana, ser es escoger, elegir (...) La realidad humana queda totalmente abandonada, sin socorro de ninguna clase, aguantando el peso insoportable de tener que fabricarse hasta el último detalle. Por eso, la libertad no es un ser; es más bien el ser del hombre, es decir, la negación de su ser"[195]. Elegir la nada para salvar la libertad, como quiso Nietzsche, parece inhumano. Es duro habitar el vacío. El déficit del software mental clásico para entender la libertad es notorio. Veamos también los problemas que la libertad plantea al intentar introducirla en el tipo de constructos mentales elaborados por la modernidad. Aquí las dificultades conceptuales vienen por varios frentes. En primer lugar el desarrollo de la física clásica, al modificar la visión de la naturaleza, introduce el diablo de la determinación mecanicista en el paraíso de la indeterminación, que hacía posible la libertad. Laplace, uno de los geniales constructores de la física clásica, se atrevió a afirmar: "Debemos ver el estado presente del universo como el efecto de su estado anterior y como la causa del que le seguirá. Una inteligencia que, para un instante dado, conociera todas las fuerzas de las que está animada la naturaleza y la situación respectiva de los seres que la componen, conocería en la misma fórmula los movimientos de los más grandes cuerpos del universo así como los del más ligero átomo; nada sería desconocido para ella, y tanto el futuro como el pasado estarían presentes a sus ojos"[196]. Para el mecanicismo determinista todo es predecible, porque todo está ya escrito en las ecuaciones que describen la dinámica del sistema y en sus condiciones iniciales. Quien conozca la función hamiltoniana del universo lo sabe todo del pasado, del presente y del futuro. De pronto, el mundo material, que parecía lleno de contingencia y de potencialidad, se convierte en una cárcel de necesidad tiránica impuesta por las leyes de la naturaleza. Ya no hay providencia, ni milagros: la libertad de Dios -el gran relojeroestá sometida a la leyes inexorables del artilugio mecánico que Él mismo fabricó. Tampoco hay libertad para el hombre; su corporeidad -res extensa- está sometida a una dictadura mecánica. Para todo el universo, y para la corporeidad humana con él, una vez establecidas las condiciones iniciales y determinada la hamiltoniana del sistema, todo está escrito. No hay futuro que quepa averiguar de otra forma que calculándolo racionalmente en ese marco de necesidad estricta. No hay novedad alguna; nada inédito puede aparecer bajo el sol. La libertad ha muerto, ¡viva la libertad! Pero, como esto no puede ser, las cabezas pensantes ingenian el modo de salvarla. Se preguntan: ¿qué lugar queda para salvaguardar la libertad?, ¿dónde hacer un refugio que la proteja del destino inexorable, del fatum aplastante de la determinación mecánica, de la necesidad que impera en la naturaleza?, ¿cómo es posible salvarla para que no sea una palabra vacía? La solución consistirá en construir un cielo empíreo para la libertad, ajeno y extraño a la naturaleza, de forma que no se contamine con la necesidad de lo corpóreo. Por decreto, la libertad quedará confinada en el reino de la res cogitans, ámbito del espíritu. Sin embargo ese reino tampoco podrá señorearlo plenamente. Dentro de la res cogitans a la libertad sólo le quedará un espacio peculiar. Porque para la teoría moderna hay verdad en la inteligencia que se atiene -determina- a las leyes del pensamiento, siguiendo así un método racional, para tener rigor mental y no caer en mitos y supersticiones. Si se quiere pensar con rigor, hay que atenerse al método y a sus leyes lógicas estrictas, perfectamente rígidas y determinadas. La libertad se salva encontrándole un lugar que la libre de una doble esclavitud: la de las leyes de la naturaleza y la de la inflexibles reglas de la razón. Sólo hay libertad donde no imperen esas dos imposiciones. Así las cosas, especialmente para un racionalista, el refugio de la libertad es la actuación espontánea. Mientras más báquica, caótica y descerebrada, será más libre. Sin embargo, para que los demás, y el mundo entero, no tengan que pagar las consecuencias le pondremos algunos límites legales, de forma que mi libertad termine donde empieza la de las demás personas. Pero, ¿qué libertad es esa que hay que enjaular entre barrotes legales como a una fiera para que no se desmande? Uno de los valores más humanos, uno de los mayores bienes que poseemos, ¿es nocivo? ¿No será que intentamos entender la libertad de acción en el mundo con herramientas conceptuales inadecuadas? Un buen ejemplo de la manías conceptuales que nos ha dejado este enfoque moderno se puede ver en algunos ecologistas. Por la mentalidad moderna en la que se han formado, consideran que liberarse es escapar de las leyes y de toda regla. Con esta mentalidad se produce la incoherencia del liberado que se preocupa de conservar una naturaleza de la que quiere librarse si es la propia. La oposición entre lo natural y lo artificial desquicia al animal humano, que sigue siendo un animal por más racional que intente ser. Se produce así una gran división que todavía nos parte por la mitad. Por un lado el reino de la necesidad material, de las leyes y de las ciencias empíricas; del rigor conceptual, la racionalidad y la lógica. Por otro, el de la libertad del espíritu, de la espontaneidad y la creación artística, el territorio etéreo de las ciencias humanísticas. Dos mundos separados, dos realidades distintas e incomunicables, en las que el hombre se mueve perdido en ambas, porque ninguno de los puentes que se han construido consigue resistir mucho tiempo. Es una nueva edición de los míticos Escila y Caribdis, que amenazan con peligros de naufragio mortal. O caemos en la necesidad mecánica de una racionalidad lógica implacable y rígida; o nos refugiamos en la irracionalidad «espontánea» de un espíritu vacío, que, para salvar su libertad, huye como de la peste de toda determinación y ley. Esta escisión íntima, que nos convierte en un trágico remedo del Vizconde Demediado, es el precio pagado para salvar la libertad. Aunque es difícil saber si compensa el gasto. La libertad se salva con un precio excesivo, que suma muchos inconvenientes y tiene pocas ventajas. En realidad, sólo ofrece la utilidad de poder seguir hablando nominalmente de la libertad, porque la noción queda sin contenido. Se salva la libertad convirtiéndola en algo vacío. Porque, si la libertad se refugia en un mundo que poco o nada tiene que ver con mi mundo real -material y corpóreo- de todos los días, ¿qué libertad es esa que para poder existir tiene que moverse en un mundo incorpóreo y fantasmagórico? Si sólo puedo ser libre según escapo a la racionalidad, en tanto que renuncio a pensar en serio, o en la medida en que no domino y dirijo mi vida, ¿cómo puede ser llamado libertad ese falso ídolo que exige el sacrificio de lo más humano, de nuestra inteligencia? Es tal el temor reverencial que introduce el mecanicismo determinista predicado por la ciencia moderna, que la libertad sólo se concibe posible en un ámbito irracional y acientífico. Todavía Bergson pensaba que: "La libertad es precisamente eso: la facultad de burlar la ciencia que está esperando la posibilidad de burlar la matemática en su pretensión de universalidad"[197]. Pero, siendo las ciencias uno de los productos mejores del hombre, ¿cómo es posible tener que andar escapando a ellas para poder ser humano y libre? Además, de esa forma se dejan las ciencias al margen de la libertad y, como consecuencia, de la ética. Toda consideración ética que se introduzca en el ámbito científico será moralina extraña e impuesta. Las ciencias y sus tecnologías, carentes de ética intrínseca, pueden convertirse en concepciones antinaturales y destructoras, a las que la ecología debe sujetar para que no acaben con todo. Otro inconveniente, que hace indeseable el alto precio pagado por la libertad, es la separación entre naturaleza y cultura. Entre las ciencias de la naturaleza (las Naturwissenschaften, donde vive la lógica, la racionalidad, la matemática y el determinismo) y las del espíritu (las Geisteswissenschaften, el reino feliz de la libertad y la creatividad, de la cultura, de las humanidades y el arte) se crea un abismo infranqueable. Prácticamente nada tienen que ver entre sí. Lo cual produce un doble daño: por un lado, las ciencias de la naturaleza se tornan con facilidad inhumanas y antinaturales. Proveen tecnologías eficaces, pero que producen muchos efectos indeseables destructivos. Hemos de inventar tecnoéticas (como la bioética) para intentar frenar sus desmanes. Por su parte, las ciencias humanísticas pierden el hábito de un ejercicio metodológico preciso: dejan de estar atentas a la realidad y abandonan el pensamiento riguroso. Se convierten en disciplinas donde es moda decir alegremente cualquier cosa, con escasa fundamentación y poca lógica. Lo empírico nada tiene que ver con ellas: tratan de las res cogitans, son ciencias del espíritu, ajenas al mundo material. Esa idílica autocomplacencia entra en crisis cuando la investigación descubre que, en realidad, no son ciencias que traten de un espíritu fantasmal, sino de una concreta criatura corpórea a la que se pueden aplicar los métodos y las herramientas conceptuales -por otra parte mucho mejores- de las ciencias de la naturaleza. Así la psicología se hace experimental; la sociología venera la estadística; el amor se reduce a concentración de hormonas en sangre; el trabajo se convierte en mercancía contable; y del conocimiento humano saben los dedicados a la Inteligencia Artificial. Este descenso a la consideración corpórea del hombre sería muy deseable, salvo porque con demasiada frecuencia se hace en el peor estilo de una especialización reduccionista, que convierte el saber en un imposible diálogo de sordos. Para terminar con la enumeración de los más graves inconvenientes que implica ese intento inútil de salvar la libertad, me referiré al fetiche del progreso. Ante ese tótem tribal hemos ofrecido constantes víctimas para conseguir su benevolencia. Kant, junto con Fichte, se inquietó por el futuro de la libertad humana, que había de moverse en un mundo dominado por las leyes físicas. Para aplacar su intranquilidad inventó un genio benéfico encargado de conseguir que la naturaleza jugase a favor de la libertad. Pensó que libraba al hombre de ser una necedad atareada entregándolo en manos de la filosofía de la historia. La idea echó a rodar y precipitó en varias creencias: El Progreso, La Historia, El Destino Manifiesto, El Materialismo Dialéctico... De acuerdo con ellas, la historia sigue un curso necesario. El fatum continúa llevándonos, el destino nos guía, y la esclavitud a las leyes naturales es inevitable. Pero, como se trata de un dios benigno, nos conduce hacia un futuro lleno de promesas: es el mito del progreso automático y necesario. Esta es una gran devoción moderna que ha tenido piadosos fieles, desde los iluministas del Siglo de las Luces. Todavía suscita veneración entre muchos creyentes, a pesar de lo ajado que últimamente aparece el ídolo. En el altar de minúsculos dioses, que prometen cielos ideológicos -las ideologías de izquierdas o derechas se han especializado en variantes del culto al Progreso-, se han sacrificado vidas e ideales. Tanta buena gente ha consumido sus fuerzas en adorar vacías máscaras, tras las se ocultaba una esclavitud cruel. Pero la historia del mundo y de la vida camina donde la conducen los pasos del hombre, que es su protagonista. La evolución no nos guía. Podemos crear, podemos destruir. De la libertad del hombre proviene la historia; que camina allí donde cada persona aprenda a ir junto con las demás personas. Libertad de acción: ¿qué es eso? La terminación del párrafo anterior no queda mal, pero según lo visto hasta ahora no deja de ser una afirmación voluntarista, bien intencionada pero vacía. Porque, respecto de la inteligencia, ¿en qué consiste la libertad? El largo rodeo que he dado por las concepciones históricamente dominantes no permite responder la pregunta de forma satisfactoria. Por ser inteligentes, o bien nos limitamos a contemplar el mundo para conocerlo (solución clásica), o nos inventamos mundos ideales desmaterializados para escapar del determinismo de las leyes de la naturaleza (solución moderna). ¿Hay alguna salida que permita entender algo mejor la libertad como una propiedad empírica y comprobable del animal humano, que es corpóreo que se mueve en un mundo material? Considero que esa pregunta tiene una respuesta afirmativa: si es verdad que podemos dominar y dirigir de algún modo nuestro sistema neuronal de tratamiento de la información, entonces tenemos posibilidades de actuar libremente en el mundo. Si, además, conseguimos aumentar sus posibilidades y suplir sus deficiencias con la ayuda de otros sistemas de tratamiento de la información, como son las máquinas cognitivas, entonces estamos en condiciones de actuar aún más libremente. Para precisar y no perderme en las palabras, aquí llamaré libertad de la inteligencia a la capacidad de producir nuevas ideas, signos, proyectos y formas de pensar, que no proceden de la programación genética ni de la cultura de la manada, sino del propio dominio y dirección del sistema neuronal de tratamiento de la información. Según esa nueva maquinaria mental podrán darse nuevos comportamientos para actuar sobre el entorno y para modificar el mundo. Hago notar que hablo de dominar y dirigir el sistema neuronal, porque si la inteligencia del animal humano quiere ser algo, no puede reducirse a una facultad espiritual desmaterializada, ni a una res cogitans etérea que intenta establecer unas imposibles relaciones con la res extensa. Quiero entender lo que está unido y es uno, no hacer un pastiche en el que acabe preguntándome por una problemática unión mentecerebro. En una teoría bien hecha, que permita verdaderamente comprender algo al hombre, "no cabe preguntar si el alma y el cuerpo son uno"[198]. Si tenemos tantas dificultades para unir mente y cerebro, hasta el punto que sea una de las cuestiones más debatidas entre los que cultivan las ciencias cognitivas, no es porque su unión real sea problemática. Mi corporeidad empírica y la de las personas que trato todos los días me hace ver que, en la realidad, el asunto se resuelve muy sencillamente. Si la cuestión se problematiza es porque no tenemos formas de pensar que nos permitan comprender. El traído y llevado enigma mente-cuerpo o mente-cerebro "no es más que un pseudoproblema resultante de una doble abstracción: aquella en la que se piensa el cuerpo humano como un mero cuerpo y la que concibe el espíritu del hombre como un espíritu puro"[199]. Si la libertad del animal humano es más que una palabra, debe ser algo bien materializado y corpóreo. Por ello digo que la capacidad de dirigir el sistema neuronal debe ser algo empírico, comprobable. Por ejemplo: la terapia cognitiva, mediante la que los psicoterapeutas intentan dar herramientas al enfermo para que consiga dirigir sus pensamientos de una forma que no esté dislocada o desajustada. Es decir, esos médicos suministran unas entradas simbólicas al sistema -mediante sus palabras- para que el enfermo aprenda a dirigirlo de otra forma. Si el sistema neuronal está mal, por enfermedad o deterioro, entonces no hay modo de que la terapia cognitiva funcione. Pero si tiene la capacidad de entender lo que se le dice y el enfermo está en condiciones de dirigirlo mínimamente, entonces se puede conseguir que realice otras operaciones cognoscitivas más sanas. Igualmente sucede cuando se aprende a leer, o a calcular números, o a pensar jurídicamente, o de forma lógica: se hace que el sistema neuronal desarrolle unas capacidades cognoscitivas de las que carecía. Por lo mismo adquiere nuevas capacidades de acción. Todo el proceso educativo del animal humano corre, en su mayor parte, a cargo de símbolos. Al contrario que los de los mamíferos superiores, los cachorros humanos no aprenden únicamente por imitación y ejercitándose para adquirir habilidades mediante juegos y pruebas de ensayo-error. Los introducimos en espacios cerrados, que llamamos aulas (de guarderías, escuelas, institutos, colegios, universidades...), para absorber una interminable riada de símbolos durante gran cantidad de años. Reciben símbolos y, para comprobar si están preparados, se les pide que, a su vez, generen símbolos en los exámenes. El vasto mundo real queda fuera, y se espera que esa acumulación de símbolos les prepare para realizar una amplia panoplia de actividades en el entorno físico y social. También reciben símbolos en el hogar, por los adultos con que conviven, por la televisión, cuentos, películas, novelas, etc. El animal humano, para aprender algo, para poder decir que sabe, en primer lugar estudia. Lee símbolos en forma de manchas de tinta, denominadas letras, depositadas sobre una superficie de color claro y homogéneo, que se llama papel y suele agruparse en montones unidos denominados libros. De esos conjuntos de símbolos decimos que son buenos o malos para aprender si aportan o no conocimiento, o habilidades intelectivas. En lo que a la inteligencia se refiere, ¿cuál es la causa de la libertad de acción del hombre que produce novedades en el mundo? Una primera causa es esa capacidad de manejar símbolos como símbolos, representaciones como representaciones, ideas como ideas, proyectos como proyectos. Los demás animales superiores hacen lo que se les pasa por la cabeza: lo que hay en su cerebro dirige su acción de manera inmediata. Si forman parte de especies que sobreviven con éxito, lo que se les pasa por la cabeza tiene que ver con la realidad del entorno en que se mueven. El animal humano, por el contrario, puede considerar lo que se le pasa por la cabeza, intentar mejorarlo, compararlo con lo que se le ocurrió a otros, estudiar las mejores ideas que se han producido al respecto... Todo ello sin que se produzca ninguna acción externa inmediata a toda idea que tenga en la cabeza. Luego puede actuar de la forma que mejor le parezca en el momento que considere más oportuno. Esta capacidad de aislar de la acción inmediata lo que se le pasa por la cabeza es fundamental para la libertad. Podemos manejar la realidad sin que nos mueva, haciéndola irreal, como palabras o símbolos; también considerar nuestras acciones sin realizarlas inmediatamente, como simples proyectos que pueden o no hacerse. Es decir, que la entradas del sistema neuronal de tratamiento de información no se conviertan automáticamente en impulsos para el sistema neuromotor. Esa es la cualidad que nos permite la acción libre. El dominio de las operaciones de nuestro sistema de tratamiento de información neuronal supone, como elemento esencial, la capacidad de elaborar ideas y demás artilugios mentales. Ya se ha dicho que esa operación se puede llegar a hacer con independencia de la semántica de las ideas, es decir, dejando en suspenso su intencionalidad o su adecuación con ninguna cosa. Precisamente éste se puede decir que es el magnífico descubrimiento de la filosofía moderna. Si el intelecto estuviera ligado a la intencionalidad; si toda idea fuera manejable sólo para hacerla más adecuada a una realidad externa ya existente -como quiere la más pobre interpretación de la teoría clásica del conocimiento-; si no pudiera ser elaborada y trabajada en sí misma, al margen de aquello a lo que pueda referirse; entonces el hombre no sería muy distinto del animal, que, por así decir, tiene a su conocimiento totalmente "atrapado" por la intencionalidad de los objetos mentales, y no puede considerarlos ni trabajarlos como tales objetos mentales. La libertad, en este caso, vendría a ser la libertad clásica, la de elección entre realidades ya dadas, que es la que tiene el animal (en el caso de que sea posible llamar a eso libertad). Pero no es así en el hombre, puesto que manejamos los objetos mentales, los elaboramos y trabajamos, con independencia de su semántica. Es decir, no con referencia a algo real externo, sino por ser simplemente objetos mentales -software- del sistema de tratamiento de información. Poder tratar los objetos mentales en sí mismos, como irreales más bien que como reales, como artilugios conceptuales puros mejor que como ideas intencionales, es algo fundamental para establecer una conceptualización adecuada de la libertad. "En todo uso de la libertad -también en el uso práctico- lo irreal es imprescindible para la realidad de nuestro ser"[200]. Para el conocer humano es primordial poder ponerse a "pensar", alejándose de la realidad y trabajando únicamente con el sistema de tratamiento de información. Este redescubrimiento, que la filosofía moderna realiza a partir de Descartes, resulta de una importancia enorme. En la polémica entre el realismo filosófico y los diversos racionalismos o idealismos, conviene decir que muchas veces el realismo ha pecado de una tremenda miopía al insistir en la intencionalidad -la referencia a la realidad- como lo más característico del objeto mental. Olvida así que "lo irreal como irreal tiene un valor de utilidad indiscutible, tanto para la perfección de nuestra actividad cognoscitiva en sus funciones más puramente teóricas, cuanto para los intereses y objetivos prácticos de la manera humana de vivir"[201]. Para la elaboración de hipótesis y teorías, o de planes prácticos que no sigan estereotipos, el dominio del objeto mental es condición necesaria. En particular, la actividad práctica humana requiere especialmente de esa capacidad de trabajar el objeto sin semántica alguna, sin referencia intrínseca y necesaria con la realidad. Para que sea libre la actividad práctica al menos necesita: " a) la irrealidad del fin al que en cada caso está orientada la praxis; b) la irrealidad que a la actividad práctica conviene antes de ser ejercida, pero estando ya proyectada; c) la irrealidad de las condiciones meramente objetuales (posibilidades en torno a las cuales gira la deliberación, por un lado, y, por otro, las reglas o normas directivas) de la actividad práctica"[202]. Más brevemente, el hombre: "conoce la realidad e inventa posibilidades, y ambas cosas las hace gestando y gestionando la irrealidad"[203]. Un animal actúa movido directa e inmediatamente por los objetos que elabora su sistema de tratamiento de información en función de las entradas externas del sistema y de su estado interior. El hombre tiene, por el contrario, la capacidad de sustraerse a ese comportamiento "espontáneo" de su sistema nervioso: puede prescindir de las entradas del sistema -de la semántica- y «reflexionar», tanto sobre las entradas como sobre la forma de tratar esa información. Los animales, dice Aristóteles: "viven por las imaginaciones y las memorias, y participan un poco de la experiencia: mas el linaje de los hombres lo hace por el arte y los raciocinios"[204]. De esta manera, además, el hombre no está atado a las formalizaciones ya existentes, ni se limita a elegir entre ellas, sino que puede elaborar formalizaciones nuevas, o establecer determinaciones que no estaban dadas por las ya existentes. El hombre resulta así un animal capaz de pensar y de hacer proyectos, sin estar atado al presente que determinan las entradas del sistema, sino considerando nuevas posibilidades. "El posible, cuya existencia actual es sólo eidética, no tiene fuerza constitutiva. La necesidad ideal no me constriñe; así acontece en el caso de las leyes lógicas que, si impusieran necesidad real, eliminarían toda posibilidad de error. En la decisión libre, no es el posible el que me determina: soy yo el que me determino a realizarlo. En el momento en que me decido, la posibilidad queda determinada según otra forma, la forma de proyecto. Al decidirme extraigo del ámbito de los meros posibles uno de ellos, que ya es entonces un «posible emplazado», un proyecto, el cual adquiere una cierta inclinación hacia la existencia, una peculiar proyección hacia su realización efectiva. Soy yo el que le confiero su peso decisivo "[205]. Al elaborar objetos mentales, puedo determinarme haciendo que el sistema de tratamiento de información funcione -y dirija el cuerpo- según alguno de ellos. De esta forma, ni estoy determinado, ni floto en la indeterminación, sino que me dirijo según las determinaciones que elaboro. No sólo elijo entre determinaciones existentes, sino que tengo la capacidad de hacer otras, porque puedo trabajar el objeto mental en sí mismo mediante el sistema de tratamiento de información. Por ello conviene insistir en la bondad del descubrimiento realizado por la filosofía moderna, a saber, la capacidad creativa respecto de los objetos que tiene el entendimiento humano; la posibilidad de trabajar los objetos mentales en sí mismos; el poder de abstraer no ya de esto o de lo otro, sino de toda referencia real. "La distancia que nos separa del mundo objetivo adquiere una dimensión decisiva (...) implanta intencionalmente al hombre en el mundo real: se sabe también él perteneciente a este mundo y con la posibilidad de operar libremente sobre él. Puede -con sus propios proyectos- prolongar o modificar el proyecto constitutivo de las realidades"[206]. Si se interpreta la concepción clásica del conocimiento de manera que el objeto mental agote toda la capacidad cognoscitiva de la inteligencia, que entonces conoce pasivamente movida sólo por la intencionalidad del objeto; si el constructo mental no es algo que el entendimiento «tiene» como algo que ha elaborado y puede trabajar, entonces el conocimiento humano no es muy distinto del que tienen los animales, y no existe la libertad. De la misma manera, si el objeto está atado -y con él el entendimientoa la intencionalidad; si su dimensión fundamental es la adecuación a la realidad, entonces tampoco la libertad es posible. Eso es lo que les pasa a los animales: no pueden prescindir de la intencionalidad del lo que se les pasa por la cabeza -sus objetos mentales- para trabajarlos o para elaborar objetos nuevos. Es la lejanía y posesión respecto del objeto mental lo que permite que el hombre sea capaz de acción libre, de añadir nuevas determinaciones a la ya existentes, o que pueda elaborar formalizaciones nuevas, y de mayor nivel, que se añadan a las ya dadas. "El hombre no para. Es animal de lejanías: se distancia de las cosas, de los otros y hasta de sí mismo"[207]. La primera condición de posibilidad de la libertad, por tanto, es adquirir la capacidad de elaborar un mundo simbólico que seamos capaces de manejar con independencia del mundo real. Luego la acción dependerá de la bondad de ese mundo simbólico, de su acierto, de lo manejable que sea en sí mismo, de la cantidad de realidad que atrape... Si no pudiéramos manejar las ideas sólo como ideas, no podríamos tener acciones libres. Estaríamos condenados a actuar siempre de acuerdo con lo que se nos pasa por la cabeza; a pensar según la forma de discurrir que fuera más fácil y propia de nuestro sistema neuronal; a moverme por lo que me interesa, sin capacidad para el me intereso. Descubrir que las ideas son sólo ideas, ni más ni menos, es fundamental para conquistar la libertad. Son estupendas si conseguimos que lo sean; y dan de sí para lo que las hagamos capaces, que es también para lo que nos haremos capaces. Manejarlas, mejorarlas, trabajarlas; hacerlas más amplias, más armónicas, más profundas, más unitarias; también más eficaces, porque sean muy adecuadas a la realidad y resulten idóneas para construir proyectos posibles. Si nuestras ideas siempre fueran reales, por su adecuación intencional, o si obedecieran férreas leyes lógicas que les fueran propias, no podríamos ser libres. No es la realidad de las ideas sino su irrealidad es lo que hace posible la acción libre. "En todo uso de la libertad -también en el uso práctico- lo irreal es imprescindible "[208]. Los psicólogos cognitivos deberían investigar más las posibilidades reales que tenemos de dominar y dirigir nuestras operaciones intelectivas, sin limitarse a estudiar cómo hacemos las que ya realizamos de forma semejante a los demás animales, porque nos harían un gran favor a todos. Eso desde las operaciones cognitivas básicas, como son los sentidos. Por ejemplo, un piloto que se entrena en vuelo instrumental puede comunicarle a su sentido del equilibrio que se equivoca, y conseguir hacer caso sólo al horizonte artificial, que le ofrece una pobre línea simbólica y no la terrorífica sensación de estar cabeza abajo: ¿cómo es posible esto? ¿Cómo se pueden inventar y ejercitar deportes que exigen movimientos antinaturales, extraordinariamente técnicos, que para practicarlos requieren convencer primero al cuerpo de que los haga? Aunque, puestos a investigar, volveré a repetir una de las preguntas que más me intrigan: ¿cómo es posible conseguir que una red neuronal -la humana- invente las letras, los números, las ecuaciones, y todo tipo de signos y símbolos; las palabras habladas y escritas; las ideas y las ideologías; la lógica y la racionalidad; los teoremas y las demostraciones? Sobre todo, ¿cómo es posible que ese animal acabe creyendo que todo eso es lo más real? ¿Porqué, para asegurar la realidad de algo, pregunta si aquello está demostrado: es decir, si hay una sucesión de símbolos concatenados según reglas que lleven allí? ¿Cómo puede llegar a matar y matarse por unas ideas, o una ideología, y no por la pitanza como hacen el resto de los animales? Sea como sea, el caso es que construimos objetos mentales y podemos manipularlos por sí mismos. Sobre todo, hemos desarrollado el lenguaje, que es un instrumento magnífico, precisamente porque las letras y palabras son convencionales y no tienen nada que ver con nada, salvo con la totalidad de la estructura lingüística y con aquello que queramos que tengan relación. Esa es nuestra mejor arma para ir más allá de la animalidad humana inmediata. Según esos mundos simbólicos que inventamos luego vivimos y actuamos; y de esta forma es posible la continua aportación de novedades del animal humano, es decir, es posible la libertad de acción. Son muchos los que han buscado un «lenguaje natural», algo así como una matriz simbólica oculta en lo más profundo de nuestra red neuronal cerebral de la que vinieran todos los demás lenguajes por desarrollo de variaciones complejas[209]. Me temo que no existe tal lenguaje. Ese temor es cada vez más una seguridad, según vamos sabiendo cómo funcionan las redes neuronales. No es lo suyo manejar símbolos. El lenguaje es convencional, pura invención, magnífica invención humana que ha producido una multitud riquísima de formas de comunicarse y pensar. "Lo que caracteriza a la relación del hombre con el mundo por oposición a la de todos los demás seres vivientes es su libertad frente al entorno. Esta libertad incluye la constitución lingüística del mundo"[210]. "Si el lenguaje no fuera convencional, no cabría continuar la naturaleza humana, o el hombre sería un ser natural sin cultura. La convencionalidad del lenguaje permite que con el lenguaje construyamos un mundo, el mundo de los símbolos. El hombre es un animal simbólico y esto radica en el lenguaje como continuatio naturae. Ésta es la índole de la cultura (...) El hombre, en cuanto continuador de la naturaleza, es un quasi creador. El hombre no es como el animal, que se encontraría en el vacío si se abriera más allá de lo natural. La mejor manera de asomarse al carácter creador del hombre es la convencionalidad lingüística, que hace al hombre capaz de habitar un mundo no meramente natural, sino continuativamente natural. El hombre está en este mundo cultivándolo; al cultivarlo añade, continúa el mundo, y así aparece algo nuevo, no precontenido. Eso es la cultura y lo simbólico; ahí es donde el hombre habita"[211]. Somos capaces de inventar símbolos, pero luego no sabemos manejarlos bien, con precisión y exactitud; en muchas ocasiones nos pueden: no los manejamos, nos manipulan (ellos o quienes los producen). También hemos desarrollado formas de pensar precisas y potentes, pero que nuestra red neuronal no es capaz de seguir con todo rigor. Por ello la ayuda de las máquinas cognitivas puede ser fundamental para dar nuevos pasos en la marcha por conquistar más libertad. Somos cada vez más capaces de incorporar al mundo una enorme multitud de novedades, que pueden perfeccionar o destruir. El proceso se ha acelerado tanto que compensa reflexionar un poco sobre la pregunta de Lenin: ¿libertad, para qué? Para hallar respuesta he de dar un rodeo. Termodinámica del animal humano Según datos de los últimos estudios de campo, todavía quedan animales humanos que se declaran materialistas. Todavía no se han enterado, por ejemplo, de que durante muchos años la persona más rica del mundo no se dedica a nada material tangible (hardware, es decir, lo que puedes golpear con un martillo si falla) sino a asuntos formales intangibles (software, o aquello que sólo puedes maldecir cuando se estropea) en una empresa denominada Microsoft. Soy de la opinión que, andando el tiempo, habrá que establecer algunas reservas naturales para conservar esa rara especie de creyentes en LA MATERIA; la consideran como si fuera una suerte de señora inmensa que ha hecho todo y es la responsable de todo. Constituyen un ejemplo paradigmático del Síndrome de Optimismo Semántico: creen en una palabra y no la piensan, ni llegan más allá. Para entender el universo sólo admiten en su cabeza una idea que se puso muy de moda a partir del siglo XVIII. Es un pobre software mental para entender nada, ni siquiera la materia en la que creen. Continúan por inercia, porque ese optimismo ha perdido base, al menos eso dijo Poincaré: "Uno de los descubrimientos más asombrosos que los físicos hayan anunciado en los últimos años, es el de que la materia no existe"[212]. La materia, tal como se ha entendido por la física clásica y mecanicista en los últimos siglos, y tal como ha sido considerada en la mayor parte de la filosofía moderna, no existe. No hay unas bolitas estables, adimensionales y consistentes, cuya mecánica, dinámica y cinemática sea capaz de explicar todo lo corpóreo. Cuando se buscan los últimos componentes de los cuerpos, cuando se profundiza hasta sus niveles más ínfimos, surge un mundo incompatible con el mecanicismo determinista. "Las partículas elementales son más bien un mundo de tendencias o posibilidades que un mundo de cosas y hechos"[213]. Todo se transmuta en todo, nada es lo que parece. Desde principios del siglo XX, con la relatividad y la mecánica cuántica, nunca fue la física tan apasionante. Alcanza tales honduras que suscita continuos problemas filosóficos. La visión mecanicista del mundo lo consideraba como un artilugio mecánico muy grande y complejo, semejante a un gran reloj. Un gran conjunto de piezas que se movían de acuerdo con reglas fijas: las leyes de la naturaleza. Una vez conocidas las piezas y descubiertas sus leyes se tenía una descripción completa y acabada del gran mecanismo para siempre jamás. Movidos por esa creencia, depositaban en los avances científicos la esperanza de la comprensión total de universo. Era una fe con un credo simple: La Ciencia -esa ciencia mecánica- lo explicaría todo, sin necesidad de recurrir a nada más. Una racionalidad mecanicista y lineal sería la clave para la comprensión total de todo. No había que buscar más porque -y esta es su creencia y su prejuicio- no había nada más. Hasta tal punto creció la fe en la física mecanicista como única explicación posible de cualquier fenómeno natural que Maxwell -quien, paradójicamente, contribuiría a hacerla tambalearse con su teoría del electromagnetismo- llega a afirmar: "Cuando un fenómeno físico puede ser descrito en su totalidad como un cambio en la configuración y en el movimiento del sistema material, se dice que la explicación dinámica de este fenómeno es completa. Creemos que una explicación posterior ni es necesaria, ni posible, ni deseable"[214]. Ese paradigma se aplicaba a todas las áreas del conocimiento, porque todo se esperaba de él. Sólo había que esperar el advenimiento de un Newton para la biología, y los seres vivos también serían entendidos del todo como mecanismos. El mismo hombre no escaparía en modo alguno a la potencia cognoscitiva que se atribuía a la visión mecanicista, también tendría su Newton. Algunos piensan que ya lo ha tenido: se llama Freud. Su mecanicismo psicológico reduce el psiquismo a tres elementos (id, ego y super ego) relacionados entre sí extrínsecamente por una fuerza fundamental: eros, la libido o el principio del placer (la «fuerza de la gravedad» del mecanicismo psicoanalista a la que se puede añadir una contrafuerza destructiva: thánatos). Por la inercia de ideas que sufrimos los animales humanos, ya que raramente nos paramos a pensar cómo pensamos, ese modelo mental todavía está presente en muchas de nuestras formas de pensar: es una paradigma que ha dejado una profunda huella. Por desgracia también establece nuestro modo de interactuar con la naturaleza, pues actuamos según nuestras ideas. Todavía no acabamos de enterarnos de que esa forma de pensar debe ser abandonada, porque los hallazgos de las mismas ciencias la han descalificado. "Lo que caracteriza a las grandes doctrinas nuevas de la física contemporánea, llámese teoría de la relatividad o teoría cuántica, es un inmenso esfuerzo por ampliar los marcos de pensamiento, por librarse de las concepciones a priori a que no quieren plegarse los fenómenos naturales"[215]. El mecanicismo sufrió diversas rupturas, al mostrar sus limitaciones en muchos campos: sistemas complejos, mecánica estadística, cuántica, caos determinista, entropía, sistemas abiertos, procesos alejados del equilibrio, cibernética, teoría de sistemas, información... En los cuerpos y en los procesos físicos había mucho más de lo que la estrecha visión mecanicista permitía ver. Más aún en los seres vivos. En la naturaleza no reina la única causalidad eficiente del mecanicismo determinista. La materia no sólo no lo permite, sino que más bien reclama otras causalidades que vengan en su ayuda para dar cuenta de una realidad corpórea que es incapaz de generar por sí misma. La materia-energía ha resultado ser el reino de la indeterminación que, además, es incapaz de determinarse a sí misma. Las determinaciones vienen del entorno que colapsa la función de ondas cuántica; del orden en el que se inserta; del sistema en el que se incluye; o incluso de lo que hace el investigador al medir. La mecánica cuántica recupera la idea clásica de la indeterminación, condición necesaria de la libertad real. Pero ahora sabemos mucho más acerca de esa indeterminación. También vamos teniendo una idea mucho más precisa acerca de qué determinaciones y formalizaciones son posibles a partir de ella. "La Física, es decir, la ciencia de la materia inerte, parecía hasta ahora la ciudadela del determinismo y hasta los adversarios de esta doctrina parecían dispuestos a abandonar a ella por completo este dominio. Y, sin embargo, las teorías más recientes que los físicos han tenido que adoptar, casi a pesar suyo, para explicar los hechos experimentales, tienden no ya a renunciar enteramente al determinismo en física (he dicho ya que la existencia misma de una ciencia física no lo permite), sino a no considerarlo como riguroso y universal, a imponerle límites"[216]. Estamos empezando a comprender esa indeterminación que es posibilidad de ser determinada de varias formas. Se están desarrollando las herramientas conceptuales necesarias para entender cómo los electrones -que forman parte de los átomos, de las moléculas, de las células, de mis dedos- pueden ser dirigidos contra los electrones -de los átomos, de las moléculas, de las teclas- del ordenador para que resulten las palabras que escribo. Es decir, cómo mis pensamientos establecen las posiciones de unos electrones. Para entender los cuerpos que no son un mero agregado, las nuevas palabras clave son: estructura, simetría, orden, información, sistema, cibernética, autoorganización, propiedades emergentes, jerarquía, relación, isomorfía... "Las consideraciones modernas, que han efectuado una ampliación y unificación tan poderosa del objeto de las ciencias, se liberaron de la vinculación con conceptos como «número» y «magnitud», y destacaron, en cambio, cada vez más la trascendencia de las nociones de forma y estructura"[217]. Comenzamos a comprender cómo se pueden formar cuerpos que exhiben propiedades inexplicables desde la simple suma de sus partes. ¿Quién podría admitir en el Siglo XVIII que, con la Inteligencia Artificial, llegaríamos a unir la res cogitans con la res extensa sin necesidad de los malabarismos conceptuales imposibles a los que se entregaron los filósofos posteriores a Descartes? ¿Quién iba a creer que de la arena silícea sacaríamos máquinas racionales? ¿Cuándo compro un ordenador, qué pago: el silicio, o el orden con el que está dispuesto? La visión simplista de la mecánica materialista se nos ha quedado miope. Sabemos también que, frente al orden, la indeterminación intrínseca de la materia siempre permanece como una amenaza, como una tendencia al desorden, perpetuamente inclinada hacia el desbarajuste entrópico. La materia no lleva, por sí misma, a ningún progreso automático, sino a la muerte térmica del universo, a la entropía máxima del estado de equilibrio definitivo. Ese es todo el posible progreso material; ese es el cielo al que puede aspirar quien quiera ser sólo materialista. El mundo conceptual del mecanicismo determinista debe ser abandonado, sobre todo el simplismo de su creencia materialista en un progreso continuo. El mundo de la materiaenergía no conspira para producir un progreso creciente, sino que, muy al contrario, es fuente constante de degradación, de uniformidad y de muerte: la entropía siempre crece. Los cuerpos son algo más que la sola materia-energía. Los seres vivos son mucho más: son materia ordenada, estructurada, unificada sistémicamente según una rica y compleja información genética, que se copia y transmite. Sobreviven en una lucha constante contra lo que de sólo material hay en ellos, para mantener su orden sistémico contra el que la materia-energía conspira en su continuo degradarse. Hablamos de consumo de energía, o de fuentes y suministros de energía. Es una forma incorrecta de hablar, propia de la primera revolución industrial, que ha quedado vieja y puede llevar a confusiones. Son formas de decir, y de pensar, desacertadas, que proceden de una obsoleta visión mecanicista del mundo: de motores, palancas y fuerza bruta. La verdad es que no conocemos ningún proceso que consuma energía. No la producimos ni destruimos: se conserva en todos los fenómenos que hasta ahora hemos estudiado. La energía ni se crea ni se destruye, sólo se transforma. Lo que consumimos no es energía, sino orden, o información. Tomamos una energía muy estructurada y rica en orden, y la devolvemos en idéntica cantidad, pero degradada y entrópica. Contaminamos porque degradamos energía, porque acrecentamos la entropía. Hay procesos cuyo balance entrópico es grande, y otros en los que es mucho menor. Los procesos mecánicos que hemos desarrollado, y con los que actuamos en el entorno, tienen una notable desventaja: consumen mucho orden, degradan cantidades inmensas de información. Si aprendiésemos otras formas de pensar, podríamos proyectar formas de vivir poco entrópicas. Lo mejor de todo es que la misma investigación científica, a medida que conoce mejor los fenómenos naturales, está forzando nuevas maneras de pensarlos. Hay nociones nuevas que piden ser protagonistas. Así la información es un concepto en alza. Cada vez entendemos mejor que lo más característico de los cuerpos físicos es el orden, la estructura, la información. Todos constan de los mismos elementos, lo que lo distingue es que se organizan según una disposición distinta. Negroponte, uno de los gurús de la revolución informática desde la revista Wired, nos propone dejar de pensar en transportar átomos, para comenzar a pensar en términos de transmitir información. Para trasladar un cuerpo de una parte a otra se puede hacer transportándolo completo, es decir, trasladando los átomos. También es posible conseguir lo mismo transmitiendo bits de información, que permitan reconstruir el objeto físico en otra parte con materia local. Esto supone un cambio radical en la forma de pensar: comenzar a entender los cuerpos físicos caracterizándolos más por la información que por los elementos materiales que los constituyen. Para los seres vivos ya no consideramos que estén hechos de una materia especial, ni hablamos de que tengan una particular energía vital. Ahora nos referimos a la información genética: el plan ordenado que los hace sistemas organizados y complejos a partir de partículas y átomos comunes y corrientes. Es esa información capaz de automantenerse la responsable última de que sean capaces de vencer a la degeneración entrópica de los intercambios energéticos. Ya no necesitamos una materia viva especial para entender los seres vivos, como proponía el vitalismo. El vitalismo surge, precisamente, como una forma nueva de dualismo respecto de la vida al percibirse cada vez con mayor claridad las limitaciones del mecanicismo determinista clásico. Se extiende con fuerza en el siglo XIX y da lugar a diversas construcciones filosóficas. De él deriva una mentalidad respecto de los organismos vivientes que todavía está presente en muchos que consideran la materia viviente como especial y misteriosa, inaccesible a la comprensión humana y alejada de su dominio. Esta mentalidad, curiosamente, se da en bastantes creyentes materialistas, que intentan, a la vez y con total incongruencia, ser ecologistas. Con la misma devoción que hablan LA MATERIA reeditan el vitalismo al referirse con tonos casi místicos a LA VIDA y LA NATURALEZA; o se refieren a una etérea FUERZA CÓSMICA, de la que vendría la energía vital. Quieren ser ecologistas por el procedimiento de "idear el expediente de un «principio vital» interpretado como una «fuerza específica». La actividad de los seres vivientes sería el resultado de una «fuerza» específicamente distinta de las mecánicas (gravitación, calor, afinidad, etc.), y, por lo tanto, irreductible a ellas, pero situada, en tanto que fuerza, en el mismo plano de la realidad. La idea de interpretar como «fuerza» y no como «forma», en sentido aristotélico, el «principio vital», es el imperdonable error metafísico del conservadurismo vitalista" [218]. Póngase conservacionismo en vez de conservadurismo y saldrá la imagen del actual vitalismo reeditado por algún ecologismo bienintencionado pero poco inteligente. Con esa mentalidad, la aparición de las tecnologías de la vida, propiciadas por la bioquímica y la genética, está produciendo pánico. Si se pueden fabricar seres vivos, si ya se han patentado partes del código genético y también algunos organismos; entonces nos hemos quedado sin mística de LA VIDA, no hay más «fuerzas cósmicas» que las que estudia la física. Sin embargo, todo esto no es ninguna tragedia, sólo indica que hemos de desarrollar otra forma de pensar si queremos entender los seres vivos. Y cual sea una forma de pensar mucho más adecuada para comprender en este caso es algo que ya estudió alguien que caviló profundamente sobre las formas de pensar: me refiero a Aristóteles. En definitiva, por muchas vías y de muchas maneras el estudio de la naturaleza nos está forzando a repensar lo que Aristóteles denominó causalidad formal. Sin ella, la eficiencia mecánica queda como simple fuerza bruta, se le llame vital, cósmica o como se quiera. "Si hiciéramos una revisión de la evolución desde la perspectiva filosófica, veríamos que se puede admitir que el código genético es una causa formal (...) Y la informática es también una teoría de la causa formal. Y como se aplica a cosas materiales, es una teoría hilemórfica, o sea, completamente aristotélica"[219]. Sin darnos ni cuenta, forzados por lo que averiguamos y hacemos, somos paulatinamente llevados por los caminos conceptuales que exploró el viejo Aristóteles. "En su significación abstracta, el código genético es una estructura, una forma, con valor regulador de procesos vitales, función que desempeña especialmente duplicándose. Con este orden de consideraciones nos ha familiarizado no sólo la biología, sino también la teoría de la información. Sin embargo, es Aristóteles el primero que formuló este tema con su famosa, y a veces olvidada por los biólogos, noción de causa formal"[220]Entender y pensar en términos de causalidad formal permite comprender no ya la complejidad en bruto, sino la complejidad ordenada, estructurada, dotada de gran información y, por eso mismo, inteligible; propiedad que no tendría si fuera caótica y desordenada. Siendo inteligible la vida biológica, podemos comprenderla y, también por eso mismo, fabricarla. Esta idea escandaliza ahora, pero no escandalizaba en absoluto a quienes discurrieron sobre los seres vivos según aquella manera de pensar sugerida por Aristóteles. Como curiosidad histórica traeré aquí la opinión de Tomás de Aquino: "Nada impide hacer artificialmente algo cuya forma no sea accidente, sino substancia: así se pueden hacer artificialmente ranas y serpientes"[221]. Y si considera que se pueden hacer es precisamente porque sus elementos constituyentes tienen una disposición ordenada e inteligible, no anárquica o accidental. Los elementos de los seres corpóreos complejos se disponen según órdenes crecientes de complejidad estructurada. "Pues aunque la materia prima esté en potencia para todas las formas, sin embargo las recibe con orden. En primer término está en potencia hacia las formas más elementales, y mediante ellas, según diversas modalidades de combinación, está en potencia para el resto de las formas"[222]. Quizá la terminología, por desuso, pueda sonar extraña. Pero estamos siendo forzados a pensar de ese modo, según un orden formal creciente: energía, partículas, átomos, moléculas, células, organismos. Es decir, no fuerzas vitales o cósmicas distintas, sino órdenes sucesivos de complejidad cada vez más estructurada, desde la formas más elementales a las más complejas. En tiempos de Tomás de Aquino, el siglo XIII, aunque se pensase como algo posible, de hecho no se podía fabricar ningún ser vivo. Ahora tampoco sería ni siquiera planteable sin la ayuda de las máquinas racionales. Por ejemplo: en los laboratorios donde se investiga el genoma se utilizan máquinas investigadoras que tienen capacidades que nosotros jamás tendremos. Mezclan, supervisan reacciones, separan, analizan, muestrean, comparan... todo a unas velocidades imposibles para nosotros. El código genético no ya del hombre, sino de la diminuta Escherichia coli lo sabemos gracias a ellas; lo recordaremos también gracias a ellas (por lo menos yo, que tengo mala memoria); podremos compararlos con el de otros organismos también porque ellas lo harán; y, si alguna vez se le ocurre a alguien sintetizar una de esas bacterias, lo conseguirá con máquinas cognitivas y robots. Su cabeza y sus manos servirán de poco en esa tarea. En este ámbito la palabra de moda es bioinformática. Pero quizá voy demasiado deprisa. He de volver a lo que la investigación sobre la materia va revelando. Por lo que ahora sabemos, las acciones cuyo responsable último es la materia -o la energía, tanto da desde Einstein- son indeterminadas y tienden al desorden entrópico. Hasta el vacío cuántico es un rebullir imparable de partículas virtuales. Toda esa variedad no para nunca si no es fijada, si no es determinada por algo más que la sola energía. Lo primero que la ordena, haciéndola ser algo concreto y no cualquier cosa, son las determinaciones cuánticas. Ellas son las responsables de la primera corporeidad física: partículas, átomos, moléculas. Es el primer nivel de orden, que establece diversas estructuras estables. También suministra la primera dirección al cambio indeterminado, a la constante metamorfosis caótica de la energía. Por él adquiere la materia diversas propiedades y funcionalidades nuevas y concretas. No obstante, la energía-materia continúa siendo la que era: sigue produciendo cambios constantes. Que siempre se dirigen a anular el orden y provocan el crecimiento de la entropía. Ni siquiera del protón, partícula estable donde las haya, estamos seguros de su permanencia. Aquí resulta pertinente que refiera una sugerencia de Heisenberg: "Al comparar nuestra situación con los conceptos de materia y forma en Aristóteles, se puede decir que la materia de Aristóteles, que esencialmente es «potencia», es decir, posibilidad, debería compararse con nuestro concepto de energía"[223]. Según la física actual todo se hace de energía, que siempre cambia y siempre se conserva; pero, ¿qué es la energía? "En cada caso particular se ve bien lo que es la energía y se puede dar de ella una definición por lo menos provisional, pero es imposible encontrar una definición general. Si se quiere enunciar el principio (de conservación de la energía) en toda su generalidad y aplicándolo al Universo, se le ve desvanecerse por así decirlo, y no queda más que esto: hay algo que permanece constante (...) La ley de conservación de la energía sólo puede tener un significado: el de que hay una propiedad común a todos los posibles, pero en la hipótesis determinista sólo hay un posible, y entonces la ley ya no tiene sentido"[224]. La energía aparece, por tanto, como el marco de lo posible, de lo potencial. Es equiparable a una indeterminación disponible para ser determinada, pero sin que esa determinación consiga quitarle del todo el pelo de la dehesa indeterminista y entrópica. Los físicos profetizan que al final se alzará con la victoria y eliminará todas las determinaciones, produciendo un universo indistinto, plenamente muerto, de máxima entropía. Será la muerte térmica del universo: una sopa de energía uniforme e indistinta, toda igual y a la misma temperatura por todas partes. Sin embargo, a pesar del nefasto vaticinio, prosigue la batalla entre orden y entropía. Los seres vivos constituyen un grado mayor de orden, una gran victoria sobre la degradación entrópica. En ellos, por la información genética, se consigue ordenar más intensamente la materia. Sobre el orden corpóreo anterior -de partículas, átomos y moléculas-, se alcanzan nuevas propiedades y funcionalidades. Con la vida, el salto cualitativo de nivel de orden es muy notorio; las determinaciones que produce tienen una gran riqueza, variedad y perfección. No obstante, también aquí la materia-energía conserva sus tendencias propias hacia el desorden. La vida de cualquier organismo es una continua pelea por mantener el orden interno en medio de la tendencia indistinta e informe que quiere imponer la materia. Se instala en un desequilibrio de sistema abierto, en constante lucha por sobrevivir. Camina por el filo del caos, para vencer a los mínimos energéticos y equilibrios termodinámicos a los que le lleva la materia-energía. Lo consigue por medio de diversos mecanismos, que consumen orden del entorno. Lo mantiene en su interior, contra el desorden de la materia que lo constituye, a costa de aumentarlo a su alrededor. Al final la tendencia indeterminista de la materia le acaba pudiendo, y muere. Aunque el orden no es del todo vencido, pues los seres vivos, con la reproducción, han desarrollado un sistema para copiar, multiplicar y conservar la información. Este sistema genético, aunque no es independiente de la materia entrópica, depende en menor grado de ella: sobre un soporte material -el ADN- transmite información. Tiene un menor gasto entrópico de desorden para la especie que se perpetúa. Los procesos de tratamiento de información en los que interviene el ADN se acercan en rendimiento al orden de magnitud permitido por el segundo principio de la termodinámica: 2x1019 por joule, frente al límite teórico de 34x1019; muy por encima de lo que alcanzamos con los ordenadores (del orden de 109 por joule). En la lucha contra la entropía, un escalón superior lo establece el conocimiento animal: el sistema de tratamiento de información que la trata como tal, con mucha independencia de la base material. La plasticidad neuronal permite que el sistema nervioso sirva para informaciones distintas. La red neuronal es la que trata y almacena la información, no los cromosomas de las neuronas. En los genes, una sucesión de moléculas codifica un tipo de información concreta; en la red neuronal, la misma base molecular trabaja informaciones diferentes. Aquí el orden, aunque tratado y producido por un órgano material, consigue niveles bastante desmaterializados de formalización y funcionalidades nuevas. El balance entrópico del gasto que origina mantener este orden es menor. Por ello, aunque la materia siga venciendo con su desorden en lo que depende de ella, puede producirse y transmitirse un orden mayor que permanece y se conserva, por la mayor adaptabilidad. Hasta aquí la evolución natural. El hombre, en tanto que es un animal, también está incluido. Es un elemento más de la gigantesca y larga cadena que forma la lucha termodinámica entre orden y desorden a la que llamamos evolución; y cuyas entretelas desconocemos en muy alto grado. El darwinismo ofrece un relato bastante bueno de la batalla entre orden y desorden para los seres vivos. Indica, por otra parte, que los vencedores son, en medio de una circunstancias azarosas e indeterminadas que se oponen al orden de la vida, los que vencen al caos en dura competencia. Pero dice muy poco acerca de cómo -con qué armas internas- lo vencen. Lo señaló Nietzsche, un amante del caos dionisiaco: "La influencia de las circunstancias externas está exagerada en Darwin hasta el sinsentido; lo esencial en el proceso vivo es precisamente la tremenda fuerza que da forma de dentro a fuera y que aprovecha, explota, las circunstancias externas"[225]. Por ello el darwinismo es una relato demasiado externo e insatisfactorio de un proceso en el que estamos involucrados íntimamente. Con el hombre la evolución toma un sesgo nuevo, que modifica totalmente el panorama. Lo diré con una larga cita: "Hay especies animales surgidas por adaptación al medio. La adaptación comporta que los individuos son tales en función de la especie, es decir, que su viabilidad depende de ella y, por tanto, que se subordinan por entero a ella. Hay otra estrategia evolutiva distinta de la adaptación al medio. En este caso la evolución no es morfológica, sino que desemboca en la modificación del medio a través de alguna actividad técnica. Es el homo habilis (según la terminología que usan los antropólogos); homo habilis es el ser vivo que en vez de adaptarse al medio adapta el medio a él. "Después del homo habilis aparece el homo sapiens, es decir, el hombre como animal racional. Es evidente que piensa el que proyecta su trabajo: para proyectar hace falta pensar. Pensar significa suspender la relación factiva y quedarse ante algo que está exclusivamente delante. Ello es una interrupción tajante de la acción, desde la cual se vuelve a reanudar la acción, pero inventivamente. Con esto el conocimiento se ha hecho hegemónico respecto del hacer. El homo sapiens no es meramente habilis. Es aquel cuya habilidad está dominada por el pensar; por lo tanto es el hiperhabilis (...) En el momento en que aparece el sapiens ya no se puede decir que el individuo esté al servicio de la especie, porque el individuo es el único capaz de pensar (la especie no piensa)"[226]. El animal humano hace tiempo que ha dejado de adaptarse al entorno, porque lo modifica según sus necesidades, conveniencias o caprichos. La inteligencia introduce un factor inédito en el proceso de selección que funciona para los demás animales. Es una fuente inmensa de potencialidades, de acciones con efectos insospechados, de comportamientos alejados de la supervivencia animal, de modificaciones espectaculares en lo que nos rodea. La simple supervivencia de la especie humana es una meta que queda muy por debajo de nuestras capacidades. El hombre es el primer animal que puede hacerse cargo del orden y perfección de los seres vivos: el de cada especie, y el de todas ellas interactuando. También es el único que puede captar y procurar entender cualquier otro orden formal que haya en el universo. Además, puede elaborar nuevas modalidades de orden, nuevos tipos de relaciones e interacciones, y órdenes inéditos, originales y crecientes. La capacidad de elaborar objetos nuevos a partir de los existentes permite al hombre realizar una suerte de «evolución consciente», de perfeccionamiento conocido y querido del mundo. Esta potencialidad, si se aprende a utilizar convenientemente, hace al hombre capaz de convertirse en el perfeccionador y mejorador del universo. Uno de los mejores aspectos del legado de la modernidad consiste precisamente en haber alterado, con acierto, la concepción clásica del saber y de la acción humana. Entre los siglos XV y XVIII se produce el "abandono de la concepción de la ciencia como desinteresada contemplación de la verdad"[227]. Se subraya el carácter activo del conocer, tanto en la misma operación cognoscitiva, como respecto de las capacidades prácticas que todo saber implica. De esta manera queda eliminada, en gran parte, la distinción aristotélica entre conocimiento especulativo y práctico: el saber especulativo es, siempre y a la vez, práctico. Todo conocimiento de la naturaleza supone alcanzar un poder -y una responsabilidad, como ahora sabemos- sobre ella. Al mismo tiempo se llega a una "nueva consideración del trabajo, de la función del saber técnico, del significado que tienen los procesos artificiales de alteración y modificación de la naturaleza"[228]. Las actividades artísticas, técnicas y prácticas humanas, que en la concepción aristotélicotomista eran consideradas de una manera muy secundaria, adquieren una relevancia fundamental. Como consecuencia, nuestra comprensión del papel del hombre en el mundo, y su relación con la naturaleza, se modifica substancialmente; deja de ser pasivo para convertirse en sumamente activo. El hombre, de manera paulatina, deja de depender de la naturaleza para convertirse en su dominador. Esto, en principio, no es nada malo; incluso podemos conseguir que sea algo bueno. Es un viejo ideal, mantenido por la tradición cultural judeo-cristiana, que quizá valga la pena renovar: es tarea del hombre cuidar y cultivar, conservar y perfeccionar el mundo[229]. Puede decirse que "la modernidad da la correcta interpretación -y la interpretación cristiana- de la ciencia (...) El saber antiguo y medieval se había equivocado al convertir en objeto de contemplación lo que es objeto de dominación. No tenemos que contemplar el mundo: hemos de transformarlo. Necesitamos pues un saber que pueda lograr eso, y ese saber será la ciencia nueva"[230]. El único problema es que ese magnífico descubrimiento ha llevado, con un torpe e irresponsable entusiasmo adolescente, a dejar de lado los deberes que ese poder implica: el lugar del hombre en el mundo es onus et honor. Su poder ha llegado hasta un punto en que toda la naturaleza llega a depender de él. Esta dependencia de la naturaleza respecto de nuestras actividades es cada vez más evidente. Por ello, aquella adolescente irresponsabilidad debe ser abandonada, sin dejar a un lado lo que tiene de espléndida conquista. La mera eficacia mecánica, desgajada de una finalidad perfectiva, es poco humana y escasamente inteligente. Es más humana una libertad creadora, que no sólo genera la novedad, sino que también procura ser lo suficientemente inteligente como para valorar si perfecciona o degradada. Somos naturaleza, y estamos llamados a ser sus continuadores y perfeccionadores: este es el sentido y el ámbito de nuestra libertad respecto del mundo. ¿Qué podemos hacer en medio del transcurso evolutivo? Si hemos de creer a Hegel, o a los historicismos y determinismos cientifistas y a los creyentes en el progreso automático, en ese proceso tenemos poco qué hacer, salvo conocerlo y constatarlo. La inteligencia humana se limitaría a ser algo así como una conciencia de la evolución, una capacidad de caer en la cuenta del proceso, y tomar nota de él. El papel del hombre sería el de un notario cósmico, interesado por todo lo que existe y capaz de percibir todo orden: contempla el drama entrópico y levanta acta, pero no interviene en la batalla que libra el orden a la desesperada. Por su parte, la teoría clásica de la inteligencia tampoco ofrece salidas. Pone el máximo cognoscitivo en la actitud contemplativa ante el mundo. Todo lo que permite ambicionar es hacerse con una butaca de primera fila para conocer de cerca el espectáculo dramático. Algunos científicos expresan opiniones que manifiestan también una actitud pasiva. Consideran que el animal humano es un producto de LA EVOLUCIÓN, que sigue su curso. Es algo en lo que no podemos hacer nada. Nos ha pasado que hemos surgido por efecto de la evolución. También nos pasa que, evolucionando por ser gráciles, andar sobre los pies y tener manos, somos inteligentes y hemos inventado las máquinas racionales. Por último nos pasará que ellas nos sucederán como el siguiente escalón que sube LA EVOLUCIÓN, proteica y multiforme, gran señora de todo cambio y de todo lo que pasa. Pero todo es algo que nos pasa, nosotros no podemos hacer nada, ni somos responsables de nada. No somos actores, ni mucho menos protagonistas de nuestros pensamientos ni de nuestros actos. No hace falta pararse a pensar ni esforzarse en comprender nada, LA EVOLUCIÓN se encarga de todo. También podemos dejarnos llevar por la visión de la inteligencia humana común a las ciencias y tecnologías desde la revolución industrial. Este paradigma presenta la acción humana en el mundo orientada a la obtención de provecho, de comodidades y ventajas. En ella el animal humano es un superdepredador: su inteligencia le capacita para explotar el medio, para vencer a las demás especies en la pugna por la supervivencia. La inteligencia es el gran paso evolutivo que nos convierte en la especie dominante, pero a costa de las demás. Sin embargo, el orgulloso dominio solitario del depredador es también su propia ruina: al acabar con todos hace inviable su supervivencia. Las deficiencias del paradigma mecanicista para entender los seres vivos pueden ser ilustradas con el monstruo fabricado por Frankenstein. Era un montaje de piezas tomadas de cadáveres que requería la inmensa energía de una gran tormenta eléctrica para poner el mecanismo en marcha. Aquel ser era como un reloj de piezas ensambladas que se mueve por una energía externa. Es muy distinto de los seres vivos que ahora conocemos: gran cantidad de información bien estructurada que dispone ordenadamente muchísimos elementos mínimos. Frankenstein es modelo de esa forma de pensar lineal, monorraíl, del mecanicismo, que actúa por la fuerza bruta en unos pocos elementos entendidos como piezas de un mecanismo. Es una forma de pensar y actuar que provoca multitud de efectos indeseables: uso masivo de antibióticos que producen enfermedades multirresistentes; insecticidas y plaguicidas en cantidades cada vez mayores, que matan pocos insectos y lo envenenan todo; herbicidas que destruyen mucho más de lo que es posible controlar; sistemas de cultivo y de explotación ganadera que se vuelven inviables a la larga por la excesiva degradación que comportan; pérdida de riqueza biológica por monocultivos agresores de la variedad de especies; contaminación y degradación del medio por el uso en bruto de la energía... No entender la diversidad, la complejidad estructurada y armónica, el orden que integra y unifica; nos condena a ser constantes aprendices de brujos, siempre sorprendidos por la magnitud de los desastres que provocamos. Si embargo, ¿es eso todo lo que cabe esperar de la inteligencia humana? Si así fuera, la conciencia ecológica no podría pasar de un evanescente sentimentalismo ambientalista. Dando la acción humana por perdida, habríamos de buscar consuelo cercando parques naturales, donde el dañino animal humano tenga restringida la entrada. Pero tampoco esa es una salida a largo plazo. Cercar espacios y declararlos naturales es otra forma de inmiscuirse en la naturaleza. Realizar acciones que consideramos conservativas -con una idea fosilizadora y estática, ajena al dinámico proceso evolutivo y más propia de cementerio o de industria frigorífica- no deja de ser una intervención. Habríamos de limitarnos a ser un coro de plañideras que lloran el orden y la perfección perdidas en un mar de contaminante degeneración entrópica. O convertirnos en fanáticos fundamentalistas ecológicos, que eliminaran por la fuerza a todos los animales humanos para luego inmolarse en un suicidio colectivo, porque creyeran que las acciones del hombre siempre son nefastas, y esa especie debe desaparecer para salvar los demás seres vivos. Así las cosas, ¿he de apuntarme al club No Kidding, o sería mejor darme de alta en el Voluntary Human Extinction Movement, cuyo lema es «que podamos vivir mucho y extinguirnos»? Pero entonces, ¿es algo vacío aquella osadía de la conciencia ecológica al reclamar para sí la responsabilidad sobre el mundo? ¿Hay alguna posibilidad de que la acción humana no sea nociva? ¿Podemos aportar algo, o todo lo que cabe esperar de nosotros es destrucción? Ecología inteligente Todas las vueltas que he dado quieren poner las bases para la siguiente tesis: Si nos empeñamos en vivir y actuar inteligentemente, podemos ser una suerte para el mundo que habitamos. El afán de novedades del animal humano, si se encamina inteligentemente, puede convertirnos no ya en conservadores del mundo, sino en sus perfeccionadores. Para alcanzar este fin, las máquinas cognitivas y la Inteligencia Artificial proveen unos medios espléndidos que hemos de aprender a utilizar. Con ellas el aprendiz de brujo ha dado con nuevas fórmulas mágicas que acrecientan su poder; esperemos que aprenda a saber lo que hace. Son unos magníficos ayudantes, pero la responsabilidad y la tarea de desarrollar nuevas formas de pensar corre a nuestro cargo. La producción de novedades estrictas, aportadas por la libre inteligencia humana, modifica totalmente el panorama evolutivo, para bien o para mal. El hombre no se limita a ser espectador del drama, es actor estrechamente involucrado en la tragedia. No ya en tanto que animal, sino en tanto que hombre es parte esencial de la batalla. Sobre todo si no echamos en saco roto la conciencia ecológica, ni la dejamos en una neblina bienintencionada, sino que la transformamos en comportamiento inteligente. Por la creación de novedades, el hombre es capaz de engendrar orden, de ponerlo, de acrecentarlo. Además, ha conseguido sistemas nuevos de producirlo, transmitirlo y mantenerlo que tienen muy bajo balance entrópico. Puede ser ordenador del universo, no en el sentido de que trate información, sino porque es apto para producir y crear orden. Tiene el poder de originar determinaciones, formalizaciones y funcionalidades nuevas que pongan más orden en la materia-energía y la hagan capaz de llegar a más, evitando en mucho mayor grado la degeneración entrópica. Por lo que hasta ahora sabemos, aunque es posible disminuirla en alto grado, no cabe eliminar completamente esa degeneración entrópica. Se han descubierto formas de aumentar y transmitir el orden cuyo balance entrópico es cada vez más bajo. Requieren intercambios mínimos de la energía que se degenera: es la importancia creciente de la información más que de la energía. Ahora bien, la progresiva disminución no significa que pueda llegar a anularse. No se conoce proceso alguno en el que no se intercambie energía, por muy pequeña que sea, por lo que la entropía siempre crecerá, salvo que se encuentren vías de escape ahora desconocidas. Sólo algunas actividades humanas, como el lenguaje, aportan más orden del que consumen en las reacciones bioquímicas neuronales. Por ahora, este campo de mediciones y estudios es incipiente y, por desgracia, bastante marginal. Pero es un conocimiento y unas formas de pensar que urge adquirir. Este tipo de acciones humanas exceden las tendencias conservativas pensadas en la física clásica, que sólo entiende los procesos que tienden a un equilibrio de mínimos y conducen a situaciones de entropía máxima. Bien aprovechadas, también alcanzan a superar el "egoísmo entrópico" del animal preocupado tan sólo por la conservación y transmisión de su propio orden sistémico. La acción verdaderamente humana, porque llegue a ser inteligente, debe dirigirse a la producción de orden, a la progresiva edificación del cosmos frente al caos. No sólo conservar orden, sino ponerlo, crearlo. Es el mayor triunfo sobre la indeterminación de la materia-energía que conocemos. Para conseguir este objetivo debemos abandonar algunos paradigmas mentales heredados y aprender a pensar algunos temas viejos de manera nueva. Comenzaré exponiendo algunas formas de pensar que conviene abandonar cuanto antes. Por ejemplo, buena cosa sería declarar obsoletos todos los artilugios conceptuales que introduzcan mecanicismos deterministas en las ideas. Los físicos han abandonado en este siglo la querencia de pensar que la física clásica es LA EXPLICACIÓN que permite entender totalmente el universo. Pero no pocos siguen pensando que se encontrará otra teoría que será LA EXPLICACIÓN, esta vez definitiva. Olvidan que a toda teoría física de la materia, en la medida que consiga expresarse mediante fórmulas matemáticas, le afectan los teoremas de limitación de los formalismos. Por tanto se le escaparán muchas verdades, y no podrá asegurar su completitud ni su coherencia interna. No hay una teoría matemática de TODO, en la que toda verdad sea demostrable en el formalismo. En esto conviene hacer caso a los propios matemáticos y aprender otras formas de pensar. Siguiendo el obsoleto y conceptualmente totalitario paradigma de la física determinista se han elaborado ideas semejantes para otras ciencias: genética (la sociobiología es una buena muestra), ecología, historia, psicoanálisis, sociología, conductismo y otras teorías psicológicas, cultura, economía... Si queremos actuar inteligentemente conviene rastrear esas formas de pensar reduccionistas, que intentan encontrar LA EXPLICACIÓN a partir de alguna faceta del conocimiento sobre el hombre, a la que absolutizan. Son teorías cómodas, porque ahorran pensar en serio muchos temas, pero también son poco inteligentes. Pensar con esas ideas el comportamiento humano en el mundo es condenarse a no entenderlo. Ni siquiera son capaces de trazar una caricatura medianamente aceptable del hombre. Mucho menos alumbrar una conciencia ecológica inteligente, verdaderamente responsable y capaz de aportar algo. Investigar un elemento del problema para declararlo clave hermenéutica de todo el conocimiento es quedarse con muy poco. Los reduccionismos son teorías pobres, que paralizan el pensar con su seductor encanto de comprensión rápida. Ulises hará bien en taparse los oídos ante esos cantos de sirena. Además, las partes no saben dar razón del todo, si éste forma un sistema ordenado intrínsecamente. Quien sólo conozca la teoría cuántica del electrón, nada sabe de máquinas racionales electrónicas. Mucho menos de los seres vivos. De la misma manera que el conocimiento de las propiedades de los ladrillos no aporta una teoría de la arquitectura. Saber los materiales con los que contamos es necesario, pero nada nos dice de lo que podemos hacer con ellos. Unas variantes ingenuas de la Teoría del Todo, aptas para el consumo de masas porque vienen trufadas de argumentos sentimentaloides, son las ideologías, de las que parece que poco a poco nos vamos librando; aunque dejan en los que caen de ese guindo un lamentable poso de escepticismo desencantado, cuando no cínico. Como las ideologías también suelen ser teorías para orientar la acción humana, acostumbran añadir un nuevo error calamitoso: diseñan un modelo social al que designan como «estado perfecto» que hay que conseguir, para luego intentar poner las condiciones que teóricamente conducirían a él. Esto, además, supone un intento de control sobre las todas las condiciones y factores actuales para conducirlas a aquel estado perfecto. Sin embargo, las dos cosas son falsas: ni existe un modelo único y totalizante, ni se pueden controlar todos los factores. Pensar que se puede hacer un modelo, un objeto mental más o menos pretendidamente racional, que alcance una supuesta totalidad definitiva es un ejemplo típico de ilusa fe racionalista, que suele tener consecuencias más bien macabras por el totalitarismo dogmático que implica para el hombre y para toda la naturaleza. La pretensión totalizadora racional no es posible, en primer lugar, por la limitaciones de la misma racionalidad ya indicadas: siempre es posible pensar más allá de cualquier construcción lógica; la inteligencia humana no queda limitada por ninguno de sus productos; quien así la recorte no vivirá inteligentemente. En segundo lugar, porque supone una visión estática final (hay que llegar a un estado perfecto de equilibrio que, una vez alcanzado, hay que mantener por ser el mejor posible) del hombre y de la naturaleza, que nada tiene que ver con la realidad evolutiva de la vida en la tierra, ni con la capacidad de perfeccionamiento que tiene el hombre. Diseñar un modelo, para alcanzarlo y procurar mantenerlo inmutable, supone una fosilización del hombre y de la naturaleza. La realidad que conocemos es notablemente distinta: tanto la naturaleza como el hombre dan pruebas más bien de una enorme capacidad de despliegue de capacidades, de crecimiento, de perfeccionamiento y de evolución. Conviene abandonar cuanto antes las pretensiones totalitarias y fijistas de cualquier saber. A este respecto, es un acierto de la ciencia y la mentalidad moderna la "atribución de un valor universal a algunas categorías del saber técnico: la colaboración, la progresividad, la perfectibilidad, la invención"[231]. Es una equivocación presentar ningún saber (tampoco filosófico, con o sin metafísica) como total y definitivo. Este tipo de error es también bastante común en algunas teorías que se denominan ecologistas, pero que tienen poco que ver con las características de la vida tal como las conocemos. Estas corrientes que se pretenden ecologistas son las que están dominadas por una mentalidad conservacionista extrema. Tal parece que habría que congelar el estado actual del planeta: tanto la población humana y su situación, como las distintas especies que ahora existen en sus hábitats e interrelaciones en los sistemas ecológicos. De esta manera, la situación actual es la que se considera como definitiva, siendo la que hay que mantener a toda costa. Ya he dicho que esta mentalidad es muy apta para un industrial frigorífico o para el responsable de un cementerio, pero no sirve para entender sistemas abiertos, en constante intercambio y evolución, como son los formados por los seres vivos, incluido el hombre. Por otra parte, tampoco parecen darse cuenta de que las intervenciones «ecológicas» en la naturaleza, por más conservacionistas que pretendan ser, no dejar de introducir también factores nuevos que no dejarán de modificar la totalidad de la naturaleza que se pretende «conservar». Ambos errores suponen, por otra parte, que es posible controlar todos los factores y condiciones actuales. Esta suposición también es ingenua, y es otro lastre de la poco inteligente credulidad racionalista. Por ejemplo: según conocemos por la teoría de la complejidad y por la teoría del caos determinista, podemos tener la completa seguridad de que no hay modo de ejercer ese control total. Como consecuencia, no hay manera de poner unas condiciones extrínsecas que aseguren ni un progreso automático hacia un paraíso único, sea biológico o ideológico, ni una perfecta conservación de la situación actual. Hasta aquí he expuesto formas de pensar inadecuadas para entender la naturaleza y nuestra intervención en ella. Ahora, en el lado positivo de la cuestión, pondré el ejemplo de una teoría que está suministrando valiosas herramientas conceptuales para hacer una buena teoría de la decisión y de la acción humanas, aunque todavía sea incipiente. Me refiero a la teoría de juegos[232]. No me centraré en su aspectos matemáticos, sino en lo que aporta para entender la acción humana. Porque "la transformación de lo externo en íntimo no se realiza por vía de «interiorización» de las realidades exteriores al hombre, o mediante la «salida de sí» por parte de éste hacia lo distinto y distante de él, lo que supondría un modo de alienación depauperante. Tiene lugar, sencilla y radicalmente, a través de la fundación de campos de juego comunes entre el hombre y las realidades del entorno. Esta fundación, a su vez, acontece cuando el hombre recibe la apelación de una realidad que le ofrece posibilidades de juego creador y responde asumiendo tales posibilidades de modo activo. Asumir activamente posibilidades lúdicas es la base y el núcleo de la actividad creadora. "El fruto de esta actividad libre en vinculación es la creación de formas de unidad llenas de sentido. Fundar modos de unidad relevantes, entidades relacionales valiosas para el hombre, bajo el cauce de unas normas determinadas, recibe en la Hermenéutica contemporánea -bajo la inspiración de eminentes estetas del pasado, como Schiller- el nombre de juego. El hombre, visto en todo su alcance, es considerado hoy día por la Estética y la Hermenéutica como «ser lúdico» y por la Biología y la Antropología filosófica como un «ser de encuentro», un ser que se constituye, perfecciona y desarrolla co-fundando modos eminentes de unidad con realidades del entorno que pueden convertirse en sus compañeros de juego y entreverar con él sus respectivos ámbitos de realidades o centros de iniciativa"[233]. Con la teoría de juegos se entiende mejor el ámbito de la libertad y de la creatividad que posee el hombre. No consiste su libertad en que prescinda de las determinaciones que se encuentra, de tal manera que sólo pueda ser libre en una huida constante de todo lo que le viene dado. Tampoco consiste en prescindir de las leyes y normas que rigen las realidades con las que se encuentra. En un juego no sucede así; por ejemplo, si decido jugar al ajedrez, estoy «determinado» por las casillas del tablero, por el número y tipo de figuras, y por sus leyes de movimiento. Pero soy yo quien determino luego las realidades que se harán en ese campo de posibilidades. Igual sucede si lo que quiero practicar es el fútbol: campo, jugadores, balón y reglas están establecidas, pero no mi juego ni el de los demás. Además, hay que tener en cuenta que esos mismos juegos no son algo «dado», sino invención humana: es el hombre quien inventa el juego explotando y desarrollando las posibilidades que le ofrecen determinadas realidades (un balón esférico o las sencillas reglas matemáticas del ajedrez). Este equilibrio entre determinación e indeterminación que pone de manifiesto la teoría de juegos parece de lo más adecuado para entender la relación entre naturaleza y libertad. "El ser humano carece de los «instintos seguros» del animal y está dotado de inteligencia; no responde de modo automático, unívoco y seguro a cada estímulo, por estar capacitado para dar diversas respuestas y elegir entre ellas la más adecuada. Esta capacidad de elección significa un distanciamiento respecto al entorno. Pero nótese bien: el tipo de distancia que aquí se instaura no es de alejamiento sino de perspectiva. En efecto, entre lo real estimulante y el hombre apelado se constituye un campo de juego, de intercambio de apelaciones y respuestas. Los estímulos tienen para el ser humano valor de «apelaciones» -invitaciones a dar una respuesta libre y reflexiva-, porque a través de tales estímulos el ser humano capta realidades. Esta superación de la atenencia rígida a los estímulos marca el salto del mundo animal al humano y abre el horizonte de la vida creadora cultural. "Por ser inteligente, el hombre aprehende realidades y relaciones entre realidades, es decir: campos de interacción y de juego; percibe el sentido que se alumbra en éstos y se hace cargo de las realidades que surgen como fruto de la interacción activa de dos o más entidades que entran en juego; pone en forma, progresivamente, la capacidad de entrar en juego él mismo con las realidades del entorno, vistas en una u otra de sus vertientes, o bien en bloque, o ensambladas en grupos. Este múltiple juego creador del hombre da lugar al diversificado mundo de la «cultura»"[234]. En un juego -mucho más si es un buen juego- hay una determinación muy estricta respecto de los elementos que lo componen. Ahora bien, esa determinación no impide, sino que es precisamente la que permite al jugador establecer determinaciones nuevas, que de ninguna manera están dadas en los elementos y reglas del juego. El buen jugador no es el que constantemente actúa al margen de lo que hace al juego ser tal; sino aquel que desarrolla una mayor creatividad y habilidad bien ajustada al canon del juego. El buen jugador, por consiguiente, no tiene un comportamiento caótico y desordenado; su actuar sigue reglas precisas. Tampoco tiene porqué ir huyendo constantemente de lo que le viene dado en el juego, ni intenta escapar -para ser «libre»de las determinaciones que el juego establece. Muy al contrario, descubre posibilidades en el juego que antes eran desconocidas y también crea otras inéditas que enriquecen el juego. Los elementos y reglas del juego -las piezas y leyes del ajedrez, por ejemplo- no determinan en absoluto el comportamiento del jugador, ni en las condiciones iniciales está escrito el desarrollo de la partida en manera alguna. De manera semejante, lo elementos -partículas, átomos, etc.- y leyes de la naturaleza no determinan el actuar del hombre; ni el futuro está dado en las condiciones iniciales. Ni siquiera establecen un único juego posible al que haya que atenerse. La capacidad del hombre de manejar símbolos y establecer formalizaciones y órdenes nuevos le permite inventar juegos nuevos a partir de aquellos elementos y reglas iniciales. Así, por ejemplo, el juego informático que ahora estoy jugando mientras escribo estas páginas en el ordenador, se ha inventado hace poco y está en constante evolución. Este juego es posible justamente porque conocemos cada vez mejor los elementos y reglas del juego inicial de la naturaleza corpórea. Sobre esas determinaciones, y no intentando tontamente escapar de ellas, es posible realizar este juego creativo, que tiene también sus propias reglas sobreañadidas a aquellas pocas iniciales de la materia corpórea y a muchas otras -como el lenguaje- establecidas por otros. Estas determinaciones que establece el juego no sólo no me determinan, sino que aumentan mis capacidades en la medida en que las conozco y descubro y desarrollo sus potencialidades. Por consiguiente, si intentara establecer mi libertad de escritura al margen de esas determinaciones, lo más que conseguiría sería perder el tiempo. Nuestra libertad, para que pueda ser ejercida como tal, requiere que conozcamos las determinaciones que están a nuestra disposición, no que las evitemos como si fueran su peor enemigo. Sobre las posibilidades que abren esas determinaciones, y no contra ellas, se edifica la libertad; en caso contrario se produce la actividad desordenada y caótica que lleva a la autodestrucción. Con la ecología tenemos un buen ejemplo de hasta qué punto debemos ser respetuosos con las determinaciones y el orden que ya existe en la naturaleza -en la nuestra y en la de toda la creación- conseguido tan trabajosamente. A la vez nos enseña cómo nuestra actividad no está determinada por ellas, ni es guiada hacia ningún equilibrio o progreso de manera automática. Por ella sabemos mejor que entregarse a una actividad degeneradora y destructiva, cuya única virtud es que se autoproclama «libre», es una verdadera locura. Para establecer nuestra libertad no hemos de evitar las determinaciones. El hombre, más bien, debe dedicarse a recoger con respetuoso esmero todas las determinaciones y todo el orden que encuentre, para protegerlo, cuidarlo; y, luego, desarrollarlo y perfeccionarlo. En la teoría de juegos hay un aspecto interesantísimo para comprender cómo se puede realizar esa tarea de perfeccionamiento del mundo que corresponde a la libertad del hombre: se trata de los juegos de suma positiva. Cuando se piensa en un juego, habitualmente se consideran juegos de suma cero, del tipo ejemplificado más arriba (ajedrez o fútbol). En ellos alguien gana y alguien pierde; no pueden ganar todos los jugadores. Lo que «está en juego» va a unos o a otros, de manera que si alguien se lleva más es a costa de que otro se lleve menos. En los juegos de suma positiva no sucede así. Son juegos de colaboración en los que lo que «está en juego» crece conforme lo hacen crecer los jugadores con su habilidad. En ellos no hay una tarta que repartir, de manera que si unos cogen gran parte queda muy poco al resto; sino que el mismo juego consiste en producir tartas, de forma que el reparto final siempre es de mucho más que lo que había al principio. Así todos ganan, y ganan tanto más cuanto mejor hayan jugado todos; a todos los jugadores les interesa que los demás jueguen y lo hagan lo mejor que puedan. Es el tipo de juego que se produce, por ejemplo, con la división y especialización del trabajo -sea en un hormiguero o en una comunidad humana-; también es un tipo de juego muy habitual en diversos sistemas ecológicos donde se dan abundantes interrelaciones positivas que suponen una ganancia mutua para los protagonistas. Por lo general, los juegos de suma positiva suponen más tiempo de juego que los de suma cero; en ellos también, aunque las ganancias pueden ser mucho mayores, las pérdidas -si se juega mal o no se respetan las reglas- pueden ser muy grandes. Los juegos de suma positiva dan un buen instrumento conceptual para comprender mejor nuestra libertad y, subsiguientemente, la ética. En ellos importa mucho jugar y jugar bien por parte de todos. De esta manera la ganancia es grande; en caso contrario también lo son las pérdidas. Bien llevados, suponen un mejoramiento y perfeccionamiento constante. Es el tipo de actividad que se ajustaría mejor a una ecología auténtica, de vida en crecimiento y desarrollo, de perfección evolutiva a la que el hombre puede máximamente contribuir. Es una forma de pensar mucho más adecuada que la simplemente conservativa, demasiado parecida a los juegos de suma cero. La mentalidad de «crecimiento cero» no parece nada ecológica, sino más bien cadavérica. Más adecuada a la vida y a su evolución sería una ecología de perfeccionamiento, de orden creciente, de desarrollo, de juego de suma positiva. Ahora bien, los juegos posibles no están dados, ni sus reglas, ni cabe hacer una especie de esquema general de juego único, absoluto y definitivo. Llegados a este punto, es posible plantearse la siguiente pregunta: ¿cómo hemos de aprender a pensar para hacernos capaces de desarrollar esos juegos de suma positiva, que nos permitan aportar, incrementar? Con esto llego al meollo de la cuestión, al núcleo de lo que nos permitirá hacer una ecología inteligente, capaz de conservar y perfeccionar. A mi parecer, la respuesta a esa cuestión es la siguiente: en la medida que no queramos dejar inane la conciencia ecológica, deberemos aprender a pensar de nuevo un tema clásico: la finalidad, la causa final aristotélica. Soy consciente de que, con esta sugerencia, me introduzco en un tema tabú, políticamente no correcto desde el punto de vista de los paradigmas científicos dominantes. Pero no me queda otro remedio, porque estoy convencido de que deberíamos afrontar el estudio del proceso evolutivo con las herramientas conceptuales más adecuadas y potentes que seamos capaces de fabricar. Para alcanzar este objetivo la ayuda del viejo y sabio Aristóteles puede venirnos muy bien. Para descalificarlo no vale decir que es muy antiguo y que su pensamiento sobre la naturaleza ya ha sido superado hace tiempo. Es verdad que, de lo que él averiguó, hay partes superadas: su estudio sobre las Partes de los animales no es hoy aconsejable para que ningún veterinario aprenda anatomía. Pero también hay mucho en él que no ha sido pensado mejor por los que hemos venido después, por lo que compensa redescubrirlo. Ejemplos recientes de redescubrimientos tenemos unos cuantos. Por ejemplo: las leyes de Mendel, con las que se inició la genética y toda una revolución en la ciencia biológica, fueron descubiertas por aquel monje agustino que les da nombre y presentadas en 1865. Sin embargo, en los ambientes científicos académicos fueron desconocidas hasta su redescubrimiento bastantes años más tarde, por lo que la genética tardó todo ese tiempo en desarrollarse como disciplina científica practicada por muchos. Del ejemplo quiero sacar la siguiente moraleja: una verdad, un conocimiento lo es con independencia de que sea antiguo o nuevo; esté o no introducido en el paradigma científico dominante que se considere ortodoxo en un momento histórico determinado. Como Aristóteles es muy antiguo, habré de explicar por qué considero que hay una aportación suya relevante para la cuestión en la que estoy enzarzado. Comenzaré recordando lo asentado en el capítulo anterior: sólo entiendo según lo que yo mismo elaboro con mi inteligencia; sólo encuentro según lo que yo mismo pongo para buscar. Nos haremos capaces de entender los procesos vivos, en los que se genera orden, sólo si acertamos a producir formas de pensar que nos hagan capaces de comprenderlos. No nos sirven formas de pensar analíticas, de despiece y desmembración. Tampoco son útiles los esquemas mentales mecanicistas, de eficacia bruta: empujo una palanca y se produce un resultado unívoco y previsible. Ni mucho menos bastan unas ideas conservativas, aptas sólo para entender fosilizaciones. Por otra parte, comprender la evolución se hace imposible si caemos en el Síndrome de Optimismo Semántico: inventamos la palabra evolución, le ponemos un artículo determinado y luego actuamos mentalmente como si fuera algo o alguien. Pero LA EVOLUCIÓN no es nadie, ni es la explicación de nada, sino que es uno de los descubrimientos más apasionantes de los últimos tiempos: no es LA EXPLICACIÓN, sino justamente lo que hemos de aprender a pensar para poder comprender los procesos en los que se produce un perfeccionamiento. Los hallazgos científicos nos están forzando a abandonar un pensamiento fundado en términos como: condiciones iniciales, procesos de equilibrio y de mínimos, o leyes deterministas inerciales y conservativas. De manera paulatina, desde el Big-Bang y la evolución del universo hasta la evolución de los seres vivos, nos llevan a tener que pensar en términos de crecimiento, progreso, perfeccionamiento, desarrollo, intensificación, desenvolvimiento... Si queremos dejar de ser un peligro o una desgracia para la vida, haremos bien buscando modos nuevos de pensar, que nos permitan entender y actuar de forma que contribuyamos con más orden al proceso evolutivo. En esa búsqueda de formas de pensar que aporten más comprensión sobre la naturaleza, la filosofía griega puede prestarnos un gran servicio. Aquel empeño de algunos animales humanos por comprender comenzó en las ciudades jónicas de Asia menor precisamente como un esfuerzo para pensar sobre la naturaleza de manera rigurosa y no mítica. Inventaron el pensamiento por principios y causas; iniciaron el cavilar buscando los elementos constituyentes de todo; también los hubo atomistas, que explicaron todo por la combinaciones que el azar produce en una multitud de átomos. Crearon la lógica y las técnicas de la demostración, etc. A ellos debemos las formas de pensar que consideramos rigurosas y científicas, a las que consideramos «pensar en serio» o «pensar de verdad». Tras dos siglos de esfuerzos y muchos progresos en el trabajo de depurar las formas de pensar y seleccionar las más aptas, vino Aristóteles como su mejor fruto en muchos campos: fue el hombre adecuado en el momento oportuno. Era un magnífico observador y un enamorado de la naturaleza. Sus palabras las puede firmar hoy cualquiera: "la naturaleza es maravillosa en todos sus estados (...) debemos emprender sin vacilar el estudio de toda clase de animales, ya que, todos y cada uno de ellos en particular, puede revelarnos algo natural y hermoso. En las obras de la naturaleza es donde mejor se manifiesta la ausencia de azar y la intencionalidad de un fin. Y el fin resultante de sus generaciones y combinaciones no es sino una forma de lo bello"[235]. Para pensar adecuadamente la naturaleza y los seres vivos, Aristóteles, que conocía muy bien los diversos tanteos que se habían hecho, llegó a la conclusión de que hemos de hacer cuatro tipos de preguntas fundamentales en los que se resumen las causas que hay que entender. Es decir, hay cuatro campos de investigación básicos; pues toda investigación es preguntar sobre causas, porqués. Sobre la naturaleza hay cuatro aspectos imbricados sobre los que hemos de aprender a pensar, preguntar y hallar respuestas; en la medida que progresemos en esas preguntas la conoceremos mejor. Las cuatro causas -o porqués- en las que Aristóteles resumió las formas de pensar la naturaleza capaz de aportar comprensión eran: material, formal, eficiente y final. Desde el siglo XX, con la mecánica cuántica y ciencias afines, estamos procurando investigar a fondo sobre la causa material: entender aquello de lo que están hechos todos los seres del universo, inertes y vivos. También comenzamos a indagar sobre la causa formal, sobre el orden con el que se dispone y estructura aquello que es común a todos los cuerpos -inertes y vivos- y por lo que se diferencian: según ese orden tienen propiedades y capacidades distintas. En el caso de los seres vivos estudiamos la información genética. A la causa eficiente, si bien de forma tosca y no muy bien pensada, atendían casi únicamente las ciencias hasta el siglo XX. Esa forma de pensar es la que tenemos heredada como «científica» de la Edad Moderna. Desde Bacon se entiende el saber científico como un poder hacer: se busca la eficacia. "El criterio para saber si se conoce verdaderamente la causa efficiens es que pueda predecir correctamente el hecho desencadenado por ella. De este modo se ha transformado tanto el concepto de causa, que en la ciencia natural moderna el principio de causalidad se vino a identificar justamente con el principio de la plena predictibilidad de los fenómenos naturales"[236]. Las eficiencias elementales que encontramos son las cuatro interacciones físicas ahora admitidas: gravitatoria, electromagnética, fuerte y débil; sobre ellas se edifican las demás eficiencias. Acerca de la finalidad, sin embargo, no investigamos nada: como mucho nos la vamos tropezando como algo molesto. Estamos acostumbrados a despreciarla por una serie de malentendidos históricos. Desde diversos ámbitos científicos se ha negado que exista la causalidad final de la que hablaba la filosofía clásica y que está presente en los usos lingüísticos del habla cotidiana, también en la de los que niegan la finalidad. Los biólogos, por su parte, utilizan continuamente expresiones finalistas, aunque luego afirmen pudorosamente que no creen en esa finalidad de la que continuamente hablan. Sin embargo, que las teorías científicas al uso nieguen la finalidad sólo significa que, como efectivamente es una causa difícil de formalizar, el modelo que ha conseguido hacer el mecanicismo determinista no consigue tenerla en cuenta. Es decir, es una deficiencia de las ideas, que no sirven para pensar y entender esta cuestión. Como sólo entiendo según lo que yo mismo elaboro activamente con mi inteligencia, y he desterrado de ella todas las ideas sobre la finalidad, lo que acaba sucediendo es que no tengo herramientas mentales para pensarla y comprenderla mínimamente. El motivo es que la descripción mecanicista parte de unas condiciones iniciales, a las que añade unas ecuaciones -la hamiltoniana del sistema- que describen totalmente su evolución temporal. Son modelos deterministas desde el origen, que utilizan un utillaje conceptual ideado sobre algo inexistente en la realidad: los procesos reversibles. En la construcción mental desarrollada sobre esos procesos irreales, el tiempo es reversible. Es decir: no se puede pensar -y, por tanto, no se puede comprender- la evolución temporal de los procesos reales, que es irreversible. Así la posible causalidad final no se considera en absoluto, por lo que nada se puede decir de ella, ni a favor ni en contra. En este caso hay un ejemplo de cómo la sintaxis configura las posibilidades semánticas de una teoría: sólo podemos entender aquello de lo que son capaces las ideas que hagamos. Sin embargo, aquella inexistente reversibilidad temporal está siendo expulsada de nuestras ideas por los mismos descubrimientos que realizamos, que "apuntan en la misma dirección: hacia la necesidad de superar la negación del tiempo irreversible, negación que constituye la herencia legada por la física clásica a la relatividad y la mecánica cuántica. Hoy día se percibe una nueva coherencia: en todos los niveles de la física encontramos ese tiempo que la tradición clásica negaba"[237]. Una fuente habitual de rechazo a la finalidad viene añadida por la mala costumbre que tienen bastantes defensores de la causa final de asimilarla a un propósito inteligente añadido a la ciega acción de las interacciones físicas. De ese modo, entender la causa final se convierte en la imposible tarea de encontrar una especie de enano submicroscópico, o fantasma, que dirige inteligentemente los procesos físicos y bioquímicos. Como el enano no se encuentra, porque es imposible dado que no existe, se acaba negando la finalidad. Con frecuencia ocupa su lugar un ente difuso denominado EL AZAR, en el que muchos creen, como si fuera alguien o algo: resulta ser la mayor fuerza benéfica del universo. Evidentemente esa creencia puede diagnosticarse como un caso grave de Síndrome de Optimismo Semántico. Se utiliza tanto una palabra que algunos acaban por creer en ella. El rechazo de la causa final es aún mayor cuando los que la defienden sacan a colación a Dios de manea precipitada, como si anduviese trasteando continuamente los procesos naturales dándoles empujoncitos para marcarles una dirección, o un propósito inteligente. Pero poner a Dios en el nivel de las causas físicas es un error, que impide entender la causalidad en el universo, y hace un flaco favor a la causa de los creen en Dios. Como dirían los escolásticos, es una grave confusión entre la causalidad predicamental y la trascendental. Para comenzar las aclaraciones, conviene tener en cuenta que, tal como la estudió Aristóteles, la finalidad es una causa natural física. Aquel filósofo no la investigó en la Metafísica, sino en la Física. Ciencias que, por otra parte, no separaba tan tajantemente como hacemos ahora; ni pensó poner la Metafísica en el campo de las humanidades y a la física entre las ciencias empíricas. Ya he dicho que esa separación conceptual es un vicio mental nuestro, no suyo. Aristóteles es un filósofo que, haga Física o Metafísica, procura estar siempre atento a la realidad concreta y experimentable que conocía por los sentidos. Era muy empirista en el mejor sentido: se atenía a lo que podía observar, a todo, sin descuidar nada; o negarlo, como tiende a hacer un reduccionista. Tampoco hace una filosofía que consista en girar mentalmente alrededor de unas ideas o de unos textos, como ahora es normal en esa disciplina tal como la hemos configurado en las burocracias académicas, y que poco a poco ha labrado su desprestigio. Aristóteles se habría escandalizado de una filosofía que, tal como hemos organizado el cultivo de los saberes, está siempre al borde de transformarse en un juego de palabras trascendentes pero vacías, o en un pomposo traslado de cadáveres conceptuales de un libro a otro en una sucesión sin fin y sin sentido. "No es la metafísica aristotélica, como es bien sabido, una metafísica racionalista de puros conceptos apriorísticos. Por lo demás, es también un lugar común, luego machaconamente repetido por la Escolástica, que todo nuestro conocimiento empieza por los sentidos. No hay una diferencia metodológica fundamental entre Física y Metafísica. Nuestro conocimiento se vuelca primero a lo sensible de donde toma su origen primero e investiga el ser móvil rastreando hasta sus últimas causas"[238]. En ese contexto, y como parte de la Física, piensa la causa final. Para él, de modo inmediato, no tiene que ver con una inteligencia que dirija los procesos naturales hacia un objetivo que haya que alcanzar al final, como una meta o un propósito inteligente. Ese sentido de la causa final sólo es válido para los seres vivos dotados de inteligencia, capaces de conocer fines y proyectar sus acciones según ellos. Para la mayoría de los seres del universo la causalidad final considerada por Aristóteles no tiene que ver con un discurrir inteligente que se propone planes, sino con el tipo de orden físico que genera más orden. "La causa final no es la causa posterior, sino la ordenación. Si influye poco, se va del orden al desorden; si influye mucho se va del desorden al orden. Hoy se investiga bastante sobre sistemas ordenados: ¿por qué se ordenan o desordenan los sistemas? Se pregunta por la causa final"[239]. Los procesos físicos pueden ser entrópicos, generar desorden, tender a mínimos y a equilibrios de reposo e inmovilidad. Es lo habitual, y es lo más estudiado hasta el momento en las ciencias de la naturaleza. Pero en algunos procesos, como sucede en el crecimiento de un ser vivo, en el desequilibrio se edifica un sistema cada vez más ordenado, que vence las tendencias entrópicas degenerativas. Tropezar con la existencia de estos sistemas y procesos físicos llevó a Aristóteles a hablar de causalidad final, como algo intrínseco a su organización sistémica. Es el tipo de cualidad física peculiar de los sistemas que acrecientan la entropía del entorno para mantener un elevado nivel de orden y complejidad internos. Por ejemplo, el código genético de las células de una semilla, dirigiendo los procesos químicos, da lugar al árbol y a más semillas: el orden se acrecienta, se multiplica. En definitiva, la causalidad final es la que vemos desplegarse en ese proceso que llamamos evolución. Puede llamársele causalidad final; o, si ese apelativo suena mal, la llamaremos X, Y o Z; o quizá habremos de buscar un eufemismo que resulte políticamente correcto. En cualquier caso, entender la finalidad es comprender los procesos en los que se genera orden, es decir, aquellos en los que se produce una organización sistémica creciente. No es la búsqueda, insisto, de una inteligencia intrínseca al proceso que haga proyectos y planes, sino el estudio de lo que ahora llamamos autoorganización, propiedades emergentes, etc. Ése es el tipo de procesos que hemos de aprender a comprender para montarnos en el carro de la evolución sin dar al traste con todo. Para lograr ese objetivo necesitamos formas de pensar nuevas; utillaje conceptual y herramientas mentales que nos hagan capaces de entender la finalidad, los procesos perfectivos, con orden progresivo. Soy de la opinión de que éste es una de los tareas más urgentes y más apasionantes que podemos afrontar. Es absolutamente necesario si no queremos dejar inane nuestra creciente conciencia ecológica. Una vez que desarrollemos formas de pensar adecuadas, seguramente seremos capaces de fabricar máquinas que hagan esa tarea mental que hemos inventado mucho mejor que nosotros[240]. Su ayuda será inestimable, pero ya he dicho que la responsabilidad es nuestra. Si aprendemos a pensar la finalidad, es decir, el perfeccionamiento y los modos de aumentar el orden, pondremos las bases para aclarar una cuestión anexa: la ética del conocimiento científico y de las tecnologías que proveen. La preocupación por el poder creciente que nos dan las ciencias y sus tecnologías ha hecho que nos pongamos a reflexionar sobre la responsabilidad ética que comportan. Por ahora, todo lo que somos capaces de hacer es dar unos consejitos bienintencionados a los científicos, para que no hagan cosas malas. La ética no se considera algo intrínseco a la investigación y al pensamiento científico, sino algo que viene de fuera y que los científicos deben tener en cuenta si quieren ser buena gente o, simplemente, cumplir la legalidad vigente, porque comienzan a abundar las disposiciones sobre la materia. Esta situación es un error que conviene corregir. El talante ético de las ciencias experimentales y de la técnica no parece haber recibido un tratamiento conveniente ni en la modernidad ni en la filosofía clásica. La modernidad ha idolatrado a la ciencia y a la técnica. Dotándolas de carácter mesiánico como hizo la Ilustración- de ellas ha esperado un progreso automático e imparable, del que vendrían todos los bienes. Por sí solas conducirían al hombre a desconocidas cimas de felicidad individual y social. La palabra «científico» es una vitola de calidad absoluta que todos quieren invocar para sus productos, por más impresentables que sean: resulta casi como el abracadabra mágico que, al ser nombrado, abre el paraíso. Este proceder olvida que las ciencias y las técnicas no son sino obra del hombre y resultado de su trabajo: por sí mismas no van a ninguna parte, ni conducen a otro sitio que al que el hombre mismo las lleve. Esta ingenua e idolátrica idea de las ciencias carece también de una visión unitaria del conocer y obrar humanos. Si se dice: LA CIENCIA -así, como si fuera alguien- tiene la palabra, se olvida que la ciencia no tiene palabra alguna, ya que ella misma no es sino palabra del hombre, trabajosamente concebida, expresada y aplicada. La hipostatización de la ciencia no deja de ser una idea ridícula; con ella se convierte a los científicos en los nuevos hechiceros que invocan, en lenguajes misteriosos y secretos, los ocultos poderes del mundo para remediar todos los males. Cualquier consideración ética que se hiciera sería algo externo a la misma ciencia, ajeno a ella -acientífico, por consiguiente- y calificable despectivamente de moralina inútil. La catastrófica situación a la que hemos llegado por obra de estas ideas no es necesario repetirla. Por parte de la filosofía clásica el descuido no ha sido menor. Dicho de manera exagerada y simplista: en ocasiones se llega a tener la impresión de que la filosofía como así fue entre los griegos- es una ocupación de señoritos desocupados, que dejan a otros el trabajo de mancharse las manos con los problemas y necesidades reales. Lo suyo es la «contemplación» en el peor sentido de la palabra: un dejar suelta la cabeza para que se emborrache de palabras grandilocuentes. Desde esas inmensidades lingüísticas vacías, pretendidamente racionales, se miran las ciencias como desde arriba para dar consejitos inútiles, y para entablar sorprendentes discusiones bizantinas e ignorantes -las ciencias son muy complicadas para saber nada de ellas con cierta hondura- acerca de qué es lo que hacen los científicos, pero sin acercarse demasiado para no contaminarse de realidad empírica, dado que mancha. Para cierta tradición de raíz clásica, la grandeza ética del hombre consiste en que imite a esos filósofos y se dedique a los devaneos de grandes palabras que denominan contemplación. Quien no haga eso y, por ejemplo, trabaje, está irremediablemente perdido: nunca alcanzará la verdadera y plena dignidad humana. Con esa mentalidad, las ciencias experimentales y sus técnicas se consideran labores más propias de esclavos -como era entre los griegos- que de verdaderos hombres. El trabajo de perfeccionar al mundo y al hombre -eso y no otra cosa es la éticaes algo muy secundario. Sin embargo más bien hay que decir que "si la ética clásica no ha querido incorporar el saber científico directamente a la moral, convirtiendo ese saber en algo perfeccionante simpliciter, es porque no creía que el trabajo tuviera que ver esencialmente con el fin final del hombre. Pero realmente todo crecimiento energético (la adquisición de un saber) me hace en cierto modo ser más. Si el trabajo es conforme a saber, es una actividad según perfección"[241]. Para remediar esas deficiencias heredadas propongo el razonamiento es el siguiente: "solamente aquellas acciones de las cuales el hombre es dueño pueden llamarse con propiedad humanas"[242] y ser objeto de la ética. Por otra parte, la forma de poseer y adueñarse del hombre se da por el conocimiento: sólo domino y me domino según aquello que conozco de mi y del mundo. En consecuencia, el aumento de conocimientos que proveen las ciencias es, de manera directa e inmediata, intrínsecamente ético, sin que haya que añadirle ninguna moralina externa. Así, por ejemplo, cuando no conozco si un alimento determinado es beneficioso o perjudicial para la salud, consumirlo o no carece de dimensión ética; si, por el contrario, alcanzo ese saber, entonces la decisión sobre su consumo es ética de manera intrínseca. Por ello puede decirse que los conocimientos médicos son directamente conocimientos éticos, al igual que los provenientes de cualesquiera otra ciencia. Además, hay que tener en cuenta que todo saber, por ser dominio, es un poder y, por consiguiente, una responsabilidad. El ejercicio de todo poder es, por sí mismo, ético; no existe ningún poder que pueda desplegarse al margen de la ética. Ese poder que proviene del conocimiento y del dominio de los objetos mentales, hace al hombre capaz de actuar produciendo novedades estrictas en el mundo, con ellas lo modifica: lo perfecciona o lo destruye, a la vez que lo hace consigo mismo. El aumento de conocimientos agranda la capacidad creativa del hombre y multiplica el alcance benéfico o destructor- de las acciones que provienen de esos conocimientos. No hay conocimientos éticamente indiferentes, porque ellos dan poder al hombre y ordenan el obrar humano. Tiene así razón Marx en la célebre frase: "Hasta el presente los filósofos se han dedicado a interpretar el mundo; sin embargo, ahora la cuestión es transformarlo"[243]. Lástima que no se preocupara de conocer el «material» de trabajo y partiese de una trágica ideología prefabricada de corte «filosófico» puramente mental, sin semántica alguna y totalmente irreal; no sabía que para hacer cualquier edificio primero hay que conocer muy bien los materiales con los que se edificará y atender a sus características y propiedades. La deontología de las ciencias no ha de consistir, por consiguiente, en añadir algunas consideraciones morales extrínsecas al ejercicio de un saber que se considera autónomo. Al contrario, la ética de las ciencias ha de ser intrínseca e inseparable de ellas mismas y ha de fundamentarse en el empeño por conocer la causalidad final -lo que puede ser perfectivo- en su ámbito. No es posible hacer una ética al margen los conocimientos que el hombre adquiere mediante las ciencias, ni que desconozca los nuevos poderes a los que accede con la técnica. Lo cual no quiere decir que haya que hacer una ética totalmente nueva y absolutamente distinta; sólo significa que hay que ampliarla conforme se amplían y precisan los conocimientos. Lo que antes era válido, es decir, lo que era conocimiento verdadero, ha de ser conservado. Aquí, como en cualquier conocimiento humano, el progreso no se consigue con el cómodo expediente de declarar ineptos mentales a todos los que nos han precedido en el trabajo, para desarrollar luego la primera simpleza que se nos pase por la cabeza. La ética debe crecer y profundizar tanto cuanto crezcan y alcancen hondura los conocimientos del hombre, pero no como algo añadido a ellos, sino en el mismo desarrollo de las formas de pensar y de investigar por las que se adquieren esos conocimientos. El progreso ético, en lo que al conocimiento científico se refiere, consiste en cultivar las formas de pensar necesarias para desarrollar una ecología inteligente. Aquí no cabe una ética de mínimos: hemos de empeñarnos en pensar en serio y en pensar bien, de manera que nuestras acciones en el mundo no lo desquicien todo, sino que perfeccionen. Ese es el saber que necesitamos con urgencia, porque las máquinas racionales pondrán cada vez más en nuestras manos nuevos poderes. Capítulo 5 FORJA DEL CYBERSAPIENS Hasta aquí he esbozado dos temas para averiguar algo sobre el modo humano de ser inteligentes. En primer lugar -en el capítulo tercero- hice unos apuntes bosquejando la libertad que tenemos respecto de las ideas y de los modos de pensar: es una independencia que permite desarrollar ideas nuevas e inventar formas o métodos distintos de discurrir. Luego, en el capítulo anterior, he ensayado mostrar la responsabilidad que nos compete de procurar pensar bien, para comprender el universo y actuar en él de manera perfectiva: queramos o no, su futuro está en nuestras manos. Llega ahora el momento de centrar la atención en la persona, que es quien conoce y actúa. En gran medida, somos libres de pensar y, como consecuencia, de actuar como queramos; pero esto, ¿cómo puede hacerse de manera inteligente y no de forma necia? ¿de verdad pensamos que pensamos? ¿es posible vivir inteligentemente? El hombre es un animal que para actuar sobre el mundo necesita primero comprenderlo. También actúa según las ideas que tiene acerca de si mismo. Parte esencial de toda cultura, de forma implícita o manifiesta, es una «teoría» sobre el mismo hombre. Sobre lo que es y lo que puede hacer. En los mamíferos superiores, la información que maneja el sistema de tratamiento de información no sólo procede del exterior del cuerpo, sino que también se origina en su interior. La actuación eficaz de cualquier animal sobre el medio supone disponer, en su red neuronal, de un modelo adecuado del mismo organismo y de sus posibles interacciones con el medio. Este modelo debe incluir distancias, tiempos también mediante relojes biológicos internos-, acciones con sus efectos, posición del cuerpo y de cada uno de sus miembros respecto de los objetos externos y entre sí... El modelo no ha de ser formal o representativo, puesto que las redes neuronales tienen un modo de funcionamiento distinto; pero, en cualquier caso, la red neuronal debe ajustarse tanto a los datos externos como a los internos para poder coordinar el propio cuerpo con el entorno. La locura de un animal es el desajuste de ambas áreas tratadas por el sistema, de manera que el animal no responda con justeza ante la información del entorno, por lo que su conducta tenga muy poco que ver con la realidad que le circunda y con la estructura de la sociedad animal de la que forma parte. Para el hombre la situación cambia. Por dominar en cierta medida la operación del sistema de tratamiento de información neuronal, puede desarrollar formas de pensar y elaborar objetos mentales que reformalicen el sistema. Acabamos de ver lo que se refiere a las ideas elaboradas sobre la realidad externa, por cuya mediación actuamos sobre el mundo y lo modificamos. Conviene ahora considerar el software mental que el hombre hace sobre sí mismo y que, por modificar el modo de trabajo del sistema neuronal de tratamiento de información sobre la realidad interna, también modifica sus acciones, es decir, su comportamiento respecto de sí mismo y del mundo. Comenzaré quitando la paja, para luego ir al grano. La limpieza afectará a dos ideas muy extendidas sobre la inteligencia humana, que me parecen necias y constituyen un pesado lastre conceptual para comprender medianamente la inteligencia, es decir, para comprendernos. Se trata de la autoconciencia y la espontaneidad. Conócete a ti mismo Sigue vigente el clásico ideal esculpido en el templo griego de Delfos: conócete a ti mismo. Es una meta, una aspiración; no es algo que tengamos dado. Porque las ideas que tenemos acerca de nosotros son también elaboración nuestra. Pueden ser muchas o pocas, mejores o peores, amplias o limitadas. Nos pueden llevar a crisis de identidad desconcertantes, o a una maduración personal equilibrada. En la elaboración de ideas sobre nosotros mismos hay que tener presentes las dos dimensiones que las harán claras y eficaces para conocernos y comprendernos: la sintaxis y la semántica. O, dicho de otro modo, la información que adquirimos y las formas de pensar según las cuales la tratamos. Estos dos aspectos -que distingo para comprender, pero estrechamente unidos- deben ser tratados con sus características peculiares. Todo lo avanzado hasta ahora debe mantenerse aquí, añadiendo lo que exige la peculiaridad de unas ideas que elaboramos siendo parte interesada, porque se refieren a nosotros mismos. Porque, desde un punto de vista informático, esta es la característica más peculiar de esas ideas: son objetos mentales elaborados por la totalidad del sistema -que es el hombre- acerca de sí mismo, utilizando su subsistema de tratamiento de información. Con ello se modifica el mismo subsistema de tratamiento de información y cambia también el comportamiento total del sistema completo. Este tipo de operaciones cognoscitivas, que el hombre realiza sobre sí mismo, son notablemente singulares. El pensamiento moderno y contemporáneo les ha dado mucha consideración pues, con acierto, las considera extraordinariamente importantes. Si al elaborar ideas sobre la realidad externa conviene tener un cuidado exquisito; mucha más aplicación requiere el trabajo de elaborar artilugios conceptuales sobre nosotros mismos. Según ellos intentamos comprendernos para luego dirigir nuestros pensamientos y nuestra conducta. Estas ideas tienen así un carácter peculiar: las formulamos y luego vivimos según ellas, es decir, son como profecías sobre nosotros que se cumplen porque, al actuar según ellas, nosotros mismos hacemos que se cumplan. Por ejemplo, los pedagogos enseñan según las teorías pedagógicas en uso, es decir según entienden el desarrollo humano. Pero, "las teorías sobre el desarrollo humano, debido al carácter de la cultura, no son simples esfuerzos para comprender y codificar la naturaleza del desarrollo humano, sino que, por su propia esencia, también crean los mismos procesos que intentan explicar, confiriéndoles realidad"[244]. Por otra parte, de la idea que nos hagamos de nosotros, sobre nuestro lugar en el universo y sobre las acciones que nos son propias, depende el universo y nosotros con él. Es una loca irresponsabilidad suicida dar por buena la primera teoría simplista que se nos ocurra o nos guste en psicología o antropología. Si cada hombre fuese una isla en el cosmos, perfectamente aislada, de manera que sus actos sólo a él afectasen, nada importaría que esos objetos mentales -con las acciones que de ellos derivasen- fueran erróneos o necios. Pero el hombre, como todo animal, es un sistema termodinámicamente abierto: con sus actos, o bien produce orden, o aumenta el desorden; contribuye a acrecentar la vida -propia y ajena- o la muerte. Lo que él es y lo que hace, quiera o no quiera, afecta a la totalidad unida e interrelacionada que le rodea para bien o para mal. Los criterios generales que ya he considerado para elaborar ideas y formas de pensar deben tenerse aquí muy en cuenta; también conviene ampliarlas, porque no dejan de ser un primer intento hipotético con el que he intentado más poner una cuestión sobre el tapete que dar soluciones definitivas. Al hablar acerca del utillaje mental que elaboramos sobre el mismo sujeto, no me queda más remedio que volver sobre el tema de la conciencia de sí mismo o autoconciencia. Ya dije que no puede hablarse de conciencia sólo por el hecho de que el sistema de tratamiento de información tenga información acerca de sí mismo. Hay que rechazar "un punto de vista sobre la consciencia que se oye exponer a menudo, a saber: que un sistema tendrá «consciencia» de una cosa si tiene dentro de sí un modelo de esa cosa, y que se hace «auto-consciente» cuando tiene dentro de sí un modelo de sí mismo. Pero un programa de ordenador que contenga dentro de sí (digamos como subrutina) alguna descripción de otro programa de ordenador no hace al primer programa consciente del segundo; ni ningún aspecto auto-referencial de un programa le hace auto-consciente. A pesar de las afirmaciones que parecen hacerse con frecuencia, los temas reales concernientes a la consciencia y autoconsciencia apenas se tocan, en mi opinión, en consideraciones de este tipo. Una video-cámara no es consciente de las escenas que está registrando; y tampoco una video-cámara que esté dirigida hacia un espejo posee autoconsciencia"[245]. El ejemplo anterior pone de manifiesto otro aspecto de la cuestión: una videocámara puede tener una imagen de sí misma mejor de la que una persona puede elaborar también sobre sí misma. De manera semejante, un sistema de tratamiento de información -con suficientes sensores internos y buenos procedimientos de autodiagnóstico- puede tener un modelo general de sí mismo y de su estado actual mucho mejor del que a mí me proporciona mi sistema de tratamiento de información neuronal. Yo no se actualmente cual es el estado de mis vísceras, pero el ordenador si puede tener muy buena información sobre el estado de sus «vísceras». Cuando un ordenador arranca hace un chequeo para saber cuanta memoria tiene, el tipo de procesador, periféricos con los que cuenta, etc.; cuando me levanto por la mañana yo no soy capaz de hacer nada semejante. Tampoco ahora tengo la menor idea de cómo me vienen al caletre las palabras que estoy escribiendo, sólo sé que quiero expresar algo; tampoco conozco cómo se las apaña mi cerebro para manejar mis dedos sobre el teclado. En resumen, un ordenador puede tener mucha más información acerca de sí mismo de la que yo tengo sobre mí, pero no por ello tiene conciencia. Por lo tanto, tener conciencia no significa disponer de información acerca de sí mismo. Se puede tener conciencia con muy poca información sobre uno mismo, o incluso con información errónea. En el caso de que la red neuronal humana funcione incorrectamente, la información será errónea o necia, falsa, o mal tratada por un software inadecuado que la convertirá en ruido. También, mientras dormimos, al no funcionar el sistema nervioso en el estado de atención, no hay conciencia en absoluto. En el sueño, "lo que cesa o se interrumpe es la conciencia, no la subjetividad; pero es la subjetividad la que se encuentra entonces en la situación de no poder constituir en objeto a ninguna realidad o irrealidad (ya sea positiva o negativa, ajena o propia)"[246]. También mientras dormimos, cuando el sistema nervioso parece ajustar las conexiones neuronales según las experiencias habidas, se tiene una conciencia peculiar, que corresponde a los sueños. Pero cuando sueño que vuelo, o que soy marciano, en realidad no tengo información acerca de mi. Si verdaderamente la tuviera sabría que estoy dormido y que todo es un sueño; aunque puede que alguien consiga obtener algo de información sobre cómo funciona mi cerebro a partir de mis sueños. De manera semejante, cuando se padece una esquizofrenia, la información interna y externa que se recibe es buena, pero el software mental -que puede ser muy bueno en su lógica interna porque «racionalice» muy bien- está dislocado, por lo que no se ajusta a la realidad. Otras enfermedades trastocan los sensores internos por los que se accede a la información, pero no afectan al software con el que se la trata: en estos casos también se tiene una idea equivocada -un objeto de escasa semejanza- sobre uno mismo. También puede darse el caso de tener distintas conciencias, como sucede en quienes tienen personalidades múltiples. Algunos actores, más que actuar, parecen dominar el modo de adquirir otra personalidad de manera reversible (aquellos que no consiguen hacer reversible el proceso no son actores, son enfermos psiquiátricos). Por consiguiente, si al hablar de autoconciencia se quiere señalar algo así como un conocimiento de sí mismo, de tipo intuitivo, que es habitual y directo y que verdaderamente es un saber acerca de mi; entonces hay que decir que la tal autoconciencia no parece darse en absoluto. No se conoce el «yo» de manera inmediata; ni está el «yo» manifiesto en el pensar, como si fuera una idea clara y distinta en el pensamiento. "La proposición «pensar algo» significa pensar «yo» es, simpliciter, falsa"[247]. No se tiene información ni conocimiento sobre uno mismo -ni sobre cualquier otra cosa- al margen de la información que elabora y suministra el sistema de tratamiento de información neuronal, que procede de las entradas sensitivas y de las simbólicas. Por lo tanto no se puede hablar de una autoconciencia que resulte independiente de las ideas que acerca de mí mismo voy elaborando. Dicho conocimiento propio será tan bueno o malo, tan completo o escaso, como sean de adecuados los conceptos que elaboro. El conocimiento de mí mismo lo tengo según las herramientas conceptuales que invente y aprenda a utilizar: sólo llega donde ellas alcancen y según sus posibilidades. Por otra parte, las ideas que tengo sobre mí mismo no son yo; porque yo no soy una idea. Al menos eso parece asegurar la balanza en la que me peso de vez en cuando. «Yo», y todas las palabras que invente acerca de mí, corresponden a simples ideas que me permiten conocerme más o menos si he acertado a hacerlas buenas. Pero no son un pleno conocimiento de mi mismo que me permita hablar de autoconciencia; porque, insisto, yo no soy una idea o, si utilizo la terminología de los filósofos, un objeto. Una idea, proceda de una vía de conocimiento autoconsciente o de cualquier otro lugar, ni vive, ni actúa: "El yo pensado no piensa"[248]. El yo pensado no soy yo, sino un conjunto de ideas que he elaborado acerca de mí mismo. Si no he conseguido hacer ninguna idea sobre mí, no tendré conocimiento propio alguno. Si en la cultura en la que me he formado hay muchas y buenas ideas que me permitan conocerme, tendré más facilidad para adquirir conocimiento propio, si me aplico a ello. Para el que se mueva en una cultura donde se haya practicado poco el deporte de conocerse, las dificultades serán enormes, como lo son para aprender física en un lugar donde jamás se haya cultivado esa ciencia. Por lo tanto, me conozco a mí mismo en la medida en que invento un buen utillaje mental me permita elaborar valiosos objetos mentales acerca de mí. Lo que quiere decir que no me conozco sino en la medida en que me hago objeto mental: el objeto es así lo que me permite conocerme y, a la vez, el límite que me impide conocerme. También significa que sólo me conozco en la medida en que me hago algo objeto mental, idea- extraño a mí mismo; o en tanto que me pongo ante mí como objeto mental. La paradoja resultante puede formularse del siguiente modo: "La subjetividad sólo puede hacerse cargo de sí propia en tanto que se hace cargo de otra realidad distinta de ella"[249]. Como consecuencia: «yo» no soy lo que del «yo» conozco. No es que el «yo» sea absoluto o infinito, es simplemente que los límites del objeto mental no consiguen encerrarlo del todo, sino muy limitadamente, igual que sucede con cualquier otra realidad. Por consiguiente, más que decir que el «yo» es infinito o absoluto palabras grandilocuentes con las que resulta fácil emborracharse-, me parece que conviene afirmar que el objeto sólo es una cierta semejanza conceptual del «yo», con el que nunca consigue identificarse. Precisamente porque lo único que alcanzo a tener sobre mi -con la ayuda de libros, de mi vecino, de un psicólogo, o de mi psiquiatra favorito, al que acudo todas las semanas como Woody Allen- sólo son ideas, objetos mentales, es por lo que no existe la autoconciencia, entendida como un conocimiento pleno e inmediato de mi mismo; o de mis operaciones mentales; o de todo lo que se me pasa por la cabeza. "La imposibilidad de la autoconciencia se concreta, se da, como objeto; dicha imposibilidad es, y absolutamente nada más, el objeto, el carácter de pensado. Nótese: no se dice que el objeto haga imposible a la autoconciencia, sino que el objeto hace de imposibilidad: él es la no autoconciencia, lo incomparable con ella"[250]. Una idea de mi mismo me permite conocerme algo bajo algún aspecto, pero esa idea de mi no soy yo, ni agota el conocimiento que puedo tener de mi, es sólo una idea. Sirve para conocerme, si efectivamente sirve. Siempre será limitada y parcial; también puede ser errónea. Como consecuencia, el primer lugar donde conviene evitar el Síndrome de Optimismo Semántico es respecto de la palabra y la idea de «yo». Sin tenerlo en cuenta se acaba confundiendo la palabra «yo» con uno mismo, y puede uno llegar a creer que por decir «yo» conoce y sabe «qué» es y «quién» es. Creer en la autoconciencia es una necedad: "El insalvable resto de opacidad que la subjetividad originaria opone a su reflexión es el índice, nunca eliminado, de un ser que no se agota en ser conciencia, y que, por ello, aunque tiene una auténtica certeza de sí propio y aunque cuente también con otras múltiples y distintas certezas, está siempre sujeto a la posibilidad de la duda y a la necesidad de no ser para sí mismo perfecta y absolutamente transparente"[251]. Dicho más brevemente: "hay más subjetividad que conciencia"[252]; también, "en sí misma, la subjetividad es solamente autoconciencia posible"[253]; y, por último, "la subjetividad no es completamente transparente a sí propia"[254]. Entonces, ¿qué es eso a lo que llamamos conciencia? Me parece que, siguiendo la línea clásica de pensamiento, debe decirse que la conciencia no consiste en nada distinto de la misma operación intelectiva de conocer cuando se aplica a saber sobre uno mismo. Ya se ha dicho que lo propio de hombre es que tiene la capacidad de conocer y dominar la operación de su sistema de tratamiento de información neuronal. Pues bien, cuando ese dominio se hace sobre operaciones en las que el sistema trata información procedente de sí mismo, entonces se habla de conciencia. Aunque, en sentido amplio, también se puede decir que el hombre tiene conciencia del mundo, ya que el intelecto percibe que la información del exterior es información. Sin embargo, suele hablarse de conciencia, más propiamente, cuando se percibe que la información es información que trata sobre uno mismo y sobre las propias operaciones. Como la conciencia es sólo captar que la información interna del sistema es información sobre mí, es claro que no existe una conciencia absoluta, un puro espíritu pensante, o una res cogitans descarnada. El «yo» se percibe como "algo hecho, algo dado, y, por tanto, algo que yo no pongo, sino con lo cual me encuentro"[255]. La información interna de la que se tiene conciencia es, fundamentalmente corpórea y "por su condición corpórea, se da en cierto modo como «cosa»"[256]. De manera que: "la subjetividad se nos ofrece como una res cogitans que es, al mismo tiempo, res extensa"[257]. No hay pues conciencia absoluta, ya que el hombre "vive su propia conciencia en calidad de meramente relativa: en concreto, como conciencia de y en un ser determinable como si fuera una cosa"[258]. Por eso tiene sentido el lema clásico teipsum nosce -conócete a ti mismo- como tarea y como meta. Si la conciencia fuese sólo un ver pasar las ideas para ser consciente de que conozco, entonces no podría saberse que son sólo objetos mentales; por tanto limitados y perfeccionables. Pero si la conciencia, como cualquier otra operación inteligente, no es más que capacidad de dominio y dirección de la operación del sistema de tratamiento de información, entonces permite saber que los objetos mentales sobre el yo tratan información interna, que puede ampliarse y elaborarse de manera más completa. Incluso se puede averiguar que la idea de "yo" es distinta en las diferentes culturas, o en las variadas opiniones de las discrepantes escuelas psicológicas. De esta forma el conocimiento propio es sencillamente un trabajo intelectual que requiere herramientas conceptuales específicas, adecuadas a la peculiar información que hay que procesar de manera que resulte significativa. En resumen: no hay una diferencia esencial entre la operación propiamente intelectiva aunque la información que se procese sea exterior o interior. De la misma manera que el dominio sobre cualquier cosa no lo alcanzamos sino en la medida en que dominamos un objeto mental con buena semejanza sobre aquella cosa; igualmente, el señorío sobre nosotros mismos sólo lo podemos tener en la medida en que elaboremos buenas ideas -claras, dominables y con semántica- acerca de nosotros. Como consecuencia, es evidente que una de las tareas más fundamentales para conquistar la propia libertad y señorío es la del conocimiento propio. También es el trabajo más fundamental si pretendemos que nuestros actos sean benéficos para la totalidad del mundo, ya que actuamos según nuestras ideas sobre nosotros. Nuestras acciones siguen al software mental que hacemos sobre nosotros. Mediante el conocimiento podemos en parte poseer el mundo. También en parte somos capaces de poseernos, mediante una adecuada elaboración de las ideas con las que definimos y entendemos lo que denominamos «yo». Entender «yo» no es distinto de entender nuestra animalidad corpórea que es la que, mediante la idea de «yo», podemos poseer y dirigir, aunque de forma incompleta y perfeccionable. "Mi uso de mi cuerpo es de tal índole que lo vivo como un uso de mi yo, sino que de una forma inadecuada. «Mi yo» está dado con «mi propio cuerpo»; y, en tanto que están así dados, ambos son igualmente disponibles, fácticos y míos"[259] Ahora bien, la elaboración de buenos objetos mentales sobre el propio sujeto parece difícil por diversos motivos. Ya lo dice la sabiduría popular: siempre es mal juez quien es también parte interesada. Utilizando la metáfora del ordenador para entender la inteligencia humana, el problema se puede exponer así: ¿cómo puede un ordenador escribir el software que necesita para entender sus chips y todos sus componentes? ¿Cómo, además, desarrollar un software que le permita entender y tratar el software con el que está funcionando? Con el problema añadido de que el software que se busca hacer cambia al mismo software con el que se pretende hacerlo: acabamos pensando de nosotros según pensamos de nosotros, y según los paradigmas cambiantes con los que tratamos la información. La circularidad en la que cae el que pretenda la introspección es inevitable: en su examen se verá según las ideas con las que se examine; según ellas «racionalizará» lo que le parezca notar. Hay otro problema previo que hace infructuosa la introspección: nuestro sistema de tratamiento de información neuronal no parece estar dotado de los medios adecuados para captar la información interna. La autoconciencia introspectiva está condenada al fracaso: en esto hay que dar la razón al behaviorismo cuando criticaba los métodos de la psicología introspectiva que le precedió. Los sensores internos carecen de la finura y complejidad que tienen los externos. Al cortex asociativo dominable parece llegar una información demasiado vaga sobre el mismo sistema: dolores que indican un mal funcionamiento excesivamente global de una parte del sistema (hay que ser médico, y acudir a más información, para saber interpretarlos y diagnosticar con acierto); información sobre estados genéricos del organismo (me siento mal, o bien, o enfadado, o lánguido, etc.); y una información escasísima o nebulosa, cuando la hay, sobre el funcionamiento y operaciones del mismo sistema de tratamiento de información. Con tan pobre información interna, y de tan mala calidad, la mayor parte del funcionamiento del propio sistema es inconsciente: no hay información. La persona resulta casi como una caja negra behaviorista para sí misma. En estas condiciones, limitándose a la información que nuestro sistema neuronal suministra «espontáneamente», la tarea de elaborar buenos objetos sobre uno mismo llega a ser casi imposible. Si la conciencia consistiese -ya hemos visto que no- en tener información sobre el propio sistema y sus operaciones, entonces sería muy fácil construir ordenadores con mucha mayor conciencia -información interna- que cualquier hombre. Para un animal esto no es un grave problema, pues no puede, ni pretende, dirigirse a sí mismo modificando la forma como trata la información su sistema nervioso. Como el hombre si que lo pretende y lo intenta, para él supone una grave dificultad tener tan escasa información disponible y dominable sobre sí mismo: puede estar procurando autodirigirse -incluso creer que lo consigue, lo que es más grave- sin tener los medios necesarios para conseguirlo. La combinación de una información escasa con una teoría inadecuada para comprenderla tiene efectos desastrosos para la vida y la acción de cualquier persona. Hacer una teoría conveniente para comprender la subjetividad corpórea humana requiere el desarrollo de una completa batería de ciencias y de un trabajo intelectual serio. Esa tarea no corresponde a la autoconciencia, que puede serlo de necedades. Tampoco a la psicología popular, que no es una teoría, sino precisamente lo que hay que entender; de forma semejante al canto de los pájaros, que no es una teoría sobre el canto de las aves, sino lo que debe comprender el científico que se dedique a ello. Estudiar la folk psicology es equivalente a realizar un trabajo de campo para conocer una parte de la etología del animal humano; aunque también forma parte de esa etología observar lo que hace ese grupo de animales humanos que se denominan psicólogos y se consideran "científicos" cuando hacen su labor. Queda luego la tarea de hacer una buena teoría capaz de comprender y dar cuenta del curioso comportamiento de ese tipo de animales que somos, bizarros hasta llamarnos sapiens sapiens, y audaces como para intentar estar a la altura del nombre que nos hemos dado. Incluso, en el caso de que se niegue nuestra capacidad de ser sapiens, habría que hacer una teoría apropiada para entender porqué el animal humano es capaz de hacer teorías que niegan su capacidad de hacer teorías. Para conocernos hemos desarrollado una panoplia de ciencias con multitud de campos especializados: anatomía, fisiología, neurología, psicología, psiquiatría, etc. En ellas desplegamos muchos de los mejores métodos analíticos y de observación con los que contamos. El acopio de información es enorme. La situación es como para felicitarse: jamás se ha contado con tanta información y, por tanto, nunca hemos estado en condiciones de conocernos mejor. Y el proceso sigue en crecimiento acelerado, con muchas y muy buenas cabezas empeñadas en la empresa por todo el mundo. Sin embargo, no acabo de felicitarme: tanta información no termina de decantarse como conocimiento que aporte comprensión. No sabemos como tratarla y la información que no se sabe manejar como tal no es sino ruido. Me quejaré con palabras prestadas: "La psicología, la ciencia de la mente, como William James la llamó en una ocasión, ha llegado a fragmentarse como nunca antes en su historia. Ha perdido su centro y corre el riesgo de perder la cohesión necesaria para asegurar que se produzca ese intercambio interno que podría justificar la división del trabajo entre sus partes. Y las partes, cada una con su propia identidad organizativa, su propio aparato teórico y, a menudo, sus propias revistas, se han convertido en especialidades cuyos productos son cada vez menos exportables. Demasiado a menudo las partes se encierran en su propia retórica y se aíslan en su propia parroquia de autoridades. Se corre el riesgo de que, con ese autoencierro, cada parte (y el agregado que constituye la totalidad de la psicología, cada vez más parecido a una especie de centón o jarapa) se encuentre cada vez más lejos de otras investigaciones dedicadas a la comprensión de la mente y la condición humana"[260]. Todavía hay más: "En el interior de la psicología, hay inquietud y preocupación por el estado en que se encuentra nuestra disciplina, y se ha producido ya el comienzo de la búsqueda de nuevos medios para reformularla. A despecho de la ética predominante, favorable a la realización de «estudios pequeños y primorosos», y de lo que Gordon Allport denominó en una ocasión «metodolatría», las grandes cuestiones psicológicas se están volviendo a formular; cuestiones que atañen a la naturaleza de la mente y sus procesos, cuestiones sobre cómo construimos nuestros significados y nuestras realidades, cuestiones sobre la formación de la mente por la historia y la cultura"[261]. Tenemos muy buenas técnicas de observación, pero no sabemos cómo pensar para entender lo que observamos. Por ahora esas técnicas pueden ser más bien un estorbo que una ayuda para conocerse. Por ejemplo, de la Psicología Cognitiva, que es la parte relacionada con lo que escribo en estas páginas, no obtengo sino múltiples imágenes inconexas, como si me mirara en un espejo roto. "Hemos perseguido al sujeto cognitivo, pero nos hemos encontrado con varios sujetos diferentes: un sujeto que computa representaciones, y otro que conoce reglas, un sujeto que desarrolla estructuras formales por una vección inmanente, y otro que se constituye en conciencia por medio de la relación consigo mismo. Todos son, sin duda, el mismo sujeto, pero su imagen es fragmentaria"[262]. Y aquí estoy yo desconcertado; con unas ideas, que tendrían que servir para que me comprenda, rotas en pedazos. Condenado a funcionar con un software mental que, dadas las autolimitaciones que se impone (aunque sean muchas menos que las que se adjudicó el behaviorismo) resulta muy problemático y más bien pobre, del todo inadecuado para hacerse una idea cabal del sujeto. Con él se construyen caricaturas de monigotes deformes y mutilados en sus dimensiones más importantes y vitales, pero no buenos modelos mentales de tamaño humano. Mientras no seamos capaces de hacer un software mental válido para tratar tan abundante información de manera unitaria, no tendremos buenas herramientas para suministrar el necesario conocimiento propio. Mientras tanto habrá que recurrir a comida intelectual basura, en forma de libritos bienintencionados sobre autoestima, autoayuda, el psicólogo en casa, y su psiquiatra en Internet. También podemos acudir al utillaje conceptual suministrado por psicologías y antropologías más genéricas e imprecisas, porque no contaban con tanta información, pero que fueron capaces de hacerse cargo medianamente del todo sistémico unido que es el hombre en todas sus dimensiones. Por ejemplo, el modelo mental antropológico de la filosofía aristotélicotomista es un buen ejemplo de cómo pensar bien la información disponible. Sus méritos son: una atenta observación; un extraordinario respeto por la información que aquella suministra, por escasa que sea; el diseño de un software mental unitario, claro y muy ajustado a lo que se quiere comprender, sin prejuicios que acaben forzando las ideas, y sin declarar inexistente lo que todavía no se entiende; más el empeño por atender a todas las buenas ideas que han producido los que han dedicado esfuerzo a comprender la cuestión para valorar lo que aquellas dan de sí, sin rechazar nada que pueda aportar comprensión, sea de la escuela o corriente que sea. Por ese procedimiento hicieron, en primer lugar, una buena teoría sobre el conocimiento animal, que también nosotros tenemos, porque somos animales y no res cogitans desencarnada. Sentidos externos e internos, unificación de las percepciones (sentido común), imaginación, habla animal (Aristóteles la llama «habla», no «lenguaje» para distinguirlo de lo que luego inventa el hombre y es convencional), memoria, aprendizaje y experiencia, solución de problemas y toma de decisiones para actuar (estimativa); pasiones, sentimientos, emociones, estados de ánimo (apetitos sensible e irascible), etc., etc. Todo eso lo tenemos en común con los animales, con el colorido peculiar que corresponde al animal humano. La teoría psicológica clásica partía de esa base para entender al animal humano, porque su enfoque era empírico: para entender al hombre primero hay que conocer al animal que somos. Sin embargo, como luego hicimos una teoría del conocimiento humano (y, como consecuencia, del hombre) basada en una inexistente res cogitans autoconsciente, la cuestión pasó a ser de las «humanidades» y no de las «ciencias», que se ocupan de la res extensa. Con ello dejamos a un lado la observación, que el behaviorista Skinner vino a recordarnos, aunque con un pobre y excesivo puritanismo empirista. Por su parte, los pocos que siguieron estudiando aquella teoría acabaron también por creer que era una construcción mental «filosófica» cuyo estudio correspondía a las «humanidades», por lo que se podía hacer y enseñar al margen de la observación empírica, que corresponde a las «ciencias». Así la acabaron convirtiendo en un comentario de textos cada vez más antiguos, que generaba textos que trataban de textos. Entre unos y otros, expulsamos de la psicología al conocimiento y al comportamiento animal que también nosotros tenemos, y que ahora nos hemos condenado a redescubrir con asombro de gente de asfalto que sale al campo y ve los animales por primera vez. La teoría psicológica clásica, sin embargo, comenzaba por estudiar la vida vegetativa, que tenemos en común con animales y plantas. Luego pasaba a estudiar la psicología animal, que también es nuestra. Sólo después de procurar entender lo que hacían los animales, se encaminaban a la atenta observación (pura etología humana) de lo que hacía el animal humano. De la observación externa empírica, no de la autoconciencia o de la introspección ni de razones «metafísicas», deducían las capacidades que tenía ese animal por lo que era capaz de hacer. Seguían un principio que se basaba en la observación: las facultades (las capacidades o aptitudes) se distinguen por sus operaciones. Razonaban así respecto del hombre: si encontramos un animal que hace teorías sobre el mundo y sobre sí mismo, y que incluso puede llegar a ser escéptico, algo tendrá que le hace apto para eso. Un breve texto de Aristóteles ofrece un buen ejemplo de este camino gradual, de abajo arriba, para encontrar lo propio del hombre: "Vivir parece algo común con las plantas; pero indagamos una función específica del hombre. Por tanto dejaremos a un lado la vida nutritiva y el crecimiento. Viene luego la vida sensitiva, pero resulta claro que también es común al caballo, al buey, y a todo animal. Resta, por último, la vida activa del ser que posee la razón y que, por una parte, la obedece; y, por otra, la domina y la piensa"[263]. Así, paso a paso, consiguieron inventar los conceptos y las ideas que más comprensión aportaban sobre el hombre, y también sobre la manera humana de ser inteligente; sin dejar nada en el camino, sino integrando. Con esto no digo que aquella psicología sea la definitiva y que hay que volver a ella. Nada más lejos de mi intención, porque ahora conocemos muchas más cosas, por lo que estamos en condiciones de hacer una ciencia psicológica considerablemente mejor que aquella. Sólo afirmo que son un modelo de cómo pararse a pensar bien la escasa información que tenían disponible, y en esta actividad siguen siendo un buen ejemplo. Algo semejante habremos de hacer ahora: concebir formas de pensar a la altura de lo que se necesita para comprender toda la abundantísima información que adquirimos sobre nosotros, para que cada uno pueda conocer y trabajar mejor su personalidad. Por otra parte, si algo encontraron que ahora tengamos que «redescubrir», hagámoslo en buena hora y no lo echemos en saco roto; y sigamos avanzando en el conocimiento. ¿Espontaneidad?: no, gracias Hasta aquí sobre la autoconciencia, de la que hará bien en desconfiar quien quiera conocerse. Pasaré ahora a considerar otro pesado lastre conceptual que obstaculiza el camino de quien busque vivir inteligentemente: la espontaneidad. Esta palabra goza actualmente de cierto prestigio: lo espontáneo se toma como lo libre, o lo creativo; como aquello que nace de dentro del hombre y es plenamente suyo. Tiene también connotaciones de sinceridad, de autenticidad, de algo no desvirtuado por formalismos huecos o por imposiciones. Detrás de ella también está Rousseau, con su buen salvaje, y un grupo numeroso de hippies encantadores. Junto a ellos se mueven los mejores románticos apasionados por la libertad, al estilo de mayo del 68; los esteticistas del pensamiento débil; y, en general, todos los que con cierta razón rechazan la basura del sistema cultural en la que están obligados a moverse. Frente a la rígida, estrecha y, con demasiada frecuencia, loca, tiránica y cruel racionalidad; la «espontaneidad» se manifiesta como el último refugio de lo humano, de la fantasía, de los buenos sentimientos, de la imaginación creadora y de la vida auténtica. Los dominios de la «espontaneidad» aparecen como la verdadera Arcadia felix, la única tierra en la que mana leche y miel. A pesar de todas esas cualidades formidables, soy de la opinión de que nos encontramos ante un desvencijado e inútil molino de viento que la confusa opinión reinante convierte en temible gigante. Por ello voy a dedicar unas líneas a la quijotesca pelea de derribar al gigante, para que aparezca la vieja ruina que se oculta tras él. Esta tarea se debe hacer, porque muchas de las buenas intenciones y esfuerzos que se consumen tras este engaño son de las mejores y más necesarias que ahora se producen en el mundo. No es poca cosa señalar la raíz del auténtico timo que las hace estériles, cuando podrían ser muy fecundas y es absolutamente necesario que lo sean. Para comenzar a aclarar la cuestión acudiré a herramientas conceptuales tomadas de la informática: trataré la inteligencia humana con la metáfora del ordenador. Desde este punto de vista, «espontaneidad» significa que se deja al sistema de tratamiento de información neuronal funcionar a su aire. Como el sistema nervioso está integrado en la totalidad unida del organismo, lo que se deja sin dirección es también el sistema neuroendocrino y el neuromotor; con ellos marcha luego todo el cuerpo del animal humano, y también sus actuaciones respecto de sí mismo y del entorno. De este modo la red neuronal y las acciones que dirige se dejan ir a la deriva, sin dirección ni orden alguno. Al ser «espontáneo» considero válidas las primeras ideas que se me vienen al caletre, y según ellas organizo mis actos, para que también sean «espontáneos». Ahora bien, aquí se pueden plantear dos preguntas: en primer lugar, si dejo al sistema de tratamiento de información marchar de esa manera, ¿se puede llamar «espontáneo» a ese modo de funcionamiento? En segundo lugar, para el propio organismo y para el entorno: ¿es ese el ejercicio más acertado que puede hacerse con la red neuronal? Pasemos a considerar la primera de las dos cuestiones. Supongamos que dejo totalmente suelta a la red neuronal, sin marcarle ninguna dirección, para que trate la información de manera «natural». En este caso, ¿qué es lo que está haciendo en realidad el sistema de tratamiento de información? Lo que sucede es que, según las entradas del sistema y según el software que ya tiene, produce determinadas salidas que dirigen los sistemas neuromotor y neuroendocrino. El problema está, pues, en las entradas y en el software. Un comportamiento «espontáneo» del sistema supondría que no se dan otras entradas que las estrictamente sensoriales puras, sin contenidos simbólicos culturales añadidos. Si estos últimos se suministran -por lenguajes de cualquier tipo, no sólo hablado-, las entradas ya nos son «naturales», sino culturales y terminan, además, afectando al propio software mental para modificarlo. Un comportamiento «espontáneo» significa, pues, que habría que aislar al individuo para que no recibiese ninguna entrada simbólica en su sistema, ninguna otra información que la puramente sensorial directa. Por lo que a las entradas se refiere un comportamiento «espontáneo» requeriría que todos nos convirtiésemos en Robinson Crusoe. Pero, además, a Robinson Crusoe habría que hacerle un completo y pormenorizado lavado de cerebro, para que a su isla sólo se llevase la red neuronal limpia de contenidos y con toda su plasticidad intacta. Ni siquiera valdría reducirlo a la condición de Viernes, porque éste también llevaba a cuestas un complejo software cultural, tan primitivo como se quiera, pero no menos completo. Habría que suprimir todos los símbolos, no sólo los correspondientes a los lenguajes hablados, escritos, científicos, etc.; sino también los procedentes del lenguaje corporal, junto con: actitudes, ideologías, temas -como la manía por la «espontaneidad», habilidades, el mismo lenguaje, gestos, gustos, valoraciones, reglas, preferencias, prejuicios, hábitos, vestimentas, héroes, costumbres, cuentos, relaciones, vivienda, comidas, estructura familiar, canciones, mobiliario, arte, comparaciones, fiestas, imágenes, historias, olores, adornos, útiles, juegos, horarios, lugares, ruidos, ceremonias, cacharros múltiples, anuncios, saludos, músicas, edificios, deportes, escaparates, peinados, etc., etc., etc... Todas estas cosas son entradas para el sistema de tratamiento de información que contribuyen no sólo a la información que tiene, sino a la misma configuración del sistema: así se puede asociar un color a una determinada pasión (tristeza, por ejemplo, para el negro de luto en occidente o el blanco en China), o a ciertas reglas (rojo y verde en semáforos); también puede asociarse a una institución (los colores de la bandera de un país), o a una comida (la paella «sabe» distinto sin un colorante amarillo), etc. Desarrollar un problemático sistema «espontáneo» no es tarea fácil: hay demasiado que limpiar. Sin embargo, esta hipótesis de trabajo es mucho menos hipotética de lo que parece, puesto que se han dado unos cuantos casos históricos que permiten verificarla: son los llamados niños-lobo (wolf-children)[264], sobre los que hay incluso alguna película[265]. Son niños que, por diversos motivos, se han desarrollado privados del contacto con otras personas. En ellos la «espontaneidad» está casi asegurada. Digo "casi" porque en ninguno de los casos estudiados se consigue una completa privación del software añadido, porque, dada la inmadurez de la cría humana al nacer, resulta prácticamente imposible sobrevivir si no se tienen unos años. Sin embargo, lo cierto es que se han encontrado casos de personas con software mental-cultural prácticamente inexistente o muy deteriorado. En estas personas su comportamiento nada tiene que ver con el idílico y fantasioso Emile de Rousseau: el buen salvaje es una creencia decimonónica de la que todavía padecemos ramalazos. Lo que se observa en realidad es un comportamiento que puede calificarse de prehumano, también en el sentido de preanimal humano, porque no llegan a ser siquiera animales superiores saludables bien adaptados el entorno. Su red neuronal ha podido ajustarse un poco por imitación de otros animales -en especial si son semejantes, como los monos-; también puede aprender mediante procedimientos de ensayo-error con las propias acciones y sus resultados. En esa situación la supervivencia sólo es posible en un entorno poco competitivo, de clima benigno y abundancia de comida; son circunstancias en las que se pueden dar bastantes ensayos, y se toleran abundantes errores, antes de que peligre irremisiblemente la supervivencia. Sin embargo, tampoco es una sorpresa que no resulte el comportamiento esperable de un animal superior sano y equilibrado. Fundamentalmente porque ningún animal es «espontáneo», ni su sistema de tratamiento de información funciona de manera no reglada. Más bien hay que decir que el comportamiento animal es sobre todo estereotipado, de acuerdo con patrones de conducta adaptados a las condiciones del entorno y a su estado interior. Las especies animales en las que esto no sucede, sencillamente desaparecen. Por otra parte, la red neuronal del animal no parece capaz de funcionar de manera independiente de las entradas sensoriales y simbólicas que recibe. Ajusta las salidas a las entradas de acuerdo con la estructura del sistema nervioso -los distintos niveles de órganos y sus interrelaciones- según un proceso de aprendizaje, en el que también interviene la «cultura» del grupo en el que se encuentre. Por ejemplo, su comportamiento social viene determinado por la estructura social del grupo; se comportará de una determinada manera según sea su lugar en la escala social; es decir, de acuerdo con el rol y el status que le corresponda. Ese comportamiento es bastante rígido y sigue pautas bien definidas para establecer la escala social. En el animal humano se encuentran comportamientos de este tipo cuando la cultura más elaborada se deteriora, por lo que se establecen esquemas de grupo más básicos y primarios. Por ejemplo, en las bandas juveniles de barrios marginales se puede encontrar una sociedad con pocos esquemas culturales. El grupo se organiza sobre pautas básicas, resultantes de las escalas de dominación en los machos y hembras, establecida según comportamientos agresivos más o menos rituales; o de la supervivencia del grupo respecto a los competidores en el territorio; o sobre los aspectos más elementales e inmediatos del dimorfismo sexual; su lenguaje es elemental, cerrado; etc. Me parece que estos grupos son los mejores ejemplos prácticos que se acercan a el comportamiento «espontáneo» del animal que somos. No lo son, sin embargo, las llamadas sociedades primitivas, que no son «salvajes», por más que algún despistado todavía las llame así; y aunque algunos antropólogos se empeñen en estudiarlas como si se tratase de manadas de gorilas. Poseen mundos simbólicos considerablemente elaborados dentro de culturas muy complejas y estructuradas. Entonces, ¿qué es lo que hace en realidad un individuo formado en la cultura occidental cuando pretende tener un comportamiento «espontáneo»? Porque el caso es que no puede reducir las entradas de su red neuronal a las puramente sensoriales, eliminando las simbólicas. Tampoco alcanza a borrar de su cabeza todos los esquemas del software cultural que posee, incluida la idea de «espontaneidad». En estas condiciones, intentar ser «espontáneo» consiste en: o bien renunciar a dirigir el sistema de tratamiento de información; o dirigirlo según el esquema cultural al que se adjudique el calificativo de «espontáneo». En el primer caso la «espontaneidad» es totalmente ilusoria, porque si no se dirige el propio sistema de tratamiento de información, lo que sucede es que manda en él quien consiga suministrar software mental a través de las entradas del sistema: eslóganes, medios de comunicación (televisión en especial), modas, Hollywood, anuncios (buenos manipuladores de información), cultura dominante, cambios metabólicos, circunstancias, ambiente, estado del tiempo, etc. Es una de las mejores maneras de ponerse en situación de verdadera esclavitud respecto de cualquiera que sepa como manejar los símbolos para influir y dirigir a los que se han convertido voluntariamente en «masa manipulable» por pretender una necia espontaneidad. En la antigüedad los medios para manipular los estudiaba la retórica; hoy día la panoplia de instrumentos eficaces se ha ampliado considerablemente. Podría pensarse que una persona que actúe así se limita a seguir libremente sus inclinaciones; pero no es cierto, no sigue su inclinación, sino que más bien renuncia a tener inclinaciones; es decir, renuncia a su libertad. En realidad, deja de utilizar adecuadamente su sistema de tratamiento de información. Con el agravante de que el hombre que renuncia a su libertad puede llegar a tener comportamientos que no se darían en ningún animal, por lo aniquiladores y autodestructivos que llegan a ser. En el segundo caso, lo que se hace es adoptar para la propia conducta un modelo cultural simbólico que, por el motivo que sea, se denomina «espontáneo», tomando todos sus estereotipos de valores, palabras con prestigio, conducta, reglas, esquemas mentales, apariencia, modos de hablar, temas, etc. Si hay varios modelos a los que se aplique ese calificativo, entonces se encontrarán comportamientos «espontáneos» que siguen diversos esquemas culturales: resultan así las espontaneidades de los hippies, o del punk, o del progre -por lo demás perfectamente integrado en el sistema- que toma ciertas actitudes a las que se adjudica la vitola de «espontáneas», etc. En cualquier caso, es evidente que dirigir el sistema de tratamiento de información -y la entera conductasegún un modelo al que se llama «espontáneo», no es espontáneo en absoluto, sino que depende de las diversas modas culturales y de las variaciones sociales que tenga el modelo. Aquí la manipulación puede darse aún de manera más completa, sobre todo si se saben crear buenos modelos conductuales inofensivos y útiles, a los que se haga un marketing adecuado para prestigiarlos de manera que se coloquen bien en el mercado cultural. Dado que la red neuronal tiende a funcionar de manera asociativa, un modelo al que se asocien, con la publicidad conveniente, adjetivos como: progresista, libre, intelectual, crítico, maduro, ecologista, democrático, científico, etc., tendrá muchos puntos ganados en la carrera del éxito por manipular al mayor número de personas posible. Ciertamente esos adjetivos, con toda razón y merecimiento, prestigian las ideas; pero conviene tomárselos en serio y aplicarlos a ideas que se los merezcan, y no utilizarlos para colar de matute ideas más bien necias. Pero aquí no trato de poner de manifiesto las técnicas de manipulación que se han desarrollado desde que se sabe manejar industrialmente la información y se han forjado las tecnologías de la comunicación, que mueven cantidades ingentes de dinero y detentan mucho poder. Sólo intento mostrar las contradicciones que implica la noción de espontaneidad; y sentiría de veras no conseguirlo, porque está en juego nuestra libertad. Intento negar el pan y la sal a la siguiente creencia: "Sólo es libre la acción espontánea. Es difícil negarse a esta evidencia que, sin embargo, encierra una contradicción que la hace insostenible. Es una afirmación de la libertad que anula la libertad. En efecto, si el comportamiento no es espontáneo, es coaccionado. El superego, la educación, las normas, el qué dirán o la moral del grupo dirigen y anulan la libertad. El sujeto, por lo tanto, no es libre. Pero ocurre que si actúa espontáneamente, tampoco lo es, porque la espontaneidad es la mera pulsión. Lo que llamamos naturalidad no es más que el determinismo de la naturaleza. La paradoja nos ha cazado: si quiero ser libre no puedo ser espontáneo, ni dejar de serlo"[266]. En el fondo, el problema que plantea la paradoja consiste en que el sistema neuronal de tratamiento de información humano, con su elevada plasticidad, parece específicamente diseñado para ser dirigido. El que renuncia a dirigirlo se verá continuamente llevado y manipulado -por más libre que se sienta- por quienes quieran y sepan hacerlo. Quien busca tener un pensamiento «espontáneo» en realidad renuncia a ser libre, porque desiste de ser inteligente. La espontaneidad es pasiva: consiste en vivir atendiendo a lo que se me ocurre, o me pasa, me sucede, me acontece... Quien busca unos pensamientos y un actuar espontáneos, renuncia a ser actor y protagonista de su pensamiento y, como consecuencia, de su vida. He de insistir en que "la inteligencia es una exclusiva humana, porque es la capacidad que tiene el organismo humano de suscitar, controlar y dirigir sus actividades mentales"[267]. Y, en lo que al conocimiento se refiere, "la libertad es, pues, la capacidad de autodeterminación que se manifiesta en el modo inteligente de realizar las actividades mentales y las operaciones físicas correspondientes. El hombre es sólo un animal que se autodetermina. La inteligencia es el modo humano de efectuarse esa autorrealización, el modo que corresponde a un organismo animal de nuestras características"[268]. Quién renuncia a trabajar y dirigir sus formas de pensar y sus ideas, será dirigido por ellas. Es decir, por quien consiga meterlas en su cabeza "comiéndole el coco"; pues quien renuncie a proveerse de una buena cabeza inteligentemente entrenada tendrá un "coco" que otros le podrán comer. No pensará sus pensamientos, sino que éstos le pensarán. No dominará el lenguaje, sino que éste le hablará. Será manipulado sin siquiera saberlo, porque ha renunciado a pensar y saber. También tendrá su vida entregada a la dirección de instancias privadas de inteligencia, encadenada a sus pulsiones irracionales. Será traído y llevado por sus sentimientos y estados de ánimo, sometiendo su actuar a los vaivenes que le impongan, sin entender ni entenderse. Condenado a ir al psiquiatra, para que el especialista de turno le explique su vida y le diga como vivirla, porque, al haber desistido de pensar, no sabe como hacerlo con autonomía propia. O puede que llegue a convertirse en un voluntarista cazurro y obtuso en su tozudez. Capaz de grandes empeños descerebrados; muy competitivo en el mercado laboral, pero convertido en máquina útil y descendido a homo habilis. No podrá advertir sus manías y pobreterías mentales y, cuando no sea útil, su vida carecerá de norte y de sentido. El aprecio por la espontaneidad se cuela también de rondón por la influencia de algunas corrientes de la Psicología Cognitiva y, como consecuencia, de la Pedagogía. Así sucede, por ejemplo, con los partidarios de la existencia de un lenguaje natural en el entramado de nuestras neuronas: el lenguaje es un asunto del que se encargan los genes, y en él la persona como tal no es protagonista. Si se pone a un individuo en el terreno apropiado, espontáneamente brota esa planta. De forma automática y natural forma todas sus ramas y da frutos. Así la investigación sobre el desarrollo de las habilidades lingüísticas se reduce al estudio de los terrenos fértiles para que nazca la planta, descubrir qué condiciones necesita. En estas condiciones la persona no habla, sino que el lenguaje natural del que está dotada habla por ella. A la persona le sucede que sabe hablar, porque venía dotada de fábrica para esa tarea y se desarrolló en las circunstancias adecuadas, pero ella no puede hacer nada al respecto. Las palabras las dice porque se le ocurren, pero no son en realidad suyas. No es libre, está sometida a la «espontaneidad» de su lenguaje natural. Otro ejemplo lo encontramos en algunas prácticas pedagógicas tributarias de la teoría de los estadios de Piaget, que poco a poco vamos superando. Piaget hizo un buen trabajo de investigación sobre el desarrollo intelectual de los niños[269] y abrió un camino espléndido que sigue rindiendo abundantes frutos. Dividió el desarrollo cognitivo en tres etapas básicas o estadios: preoperatorio (hasta los 6 años); período de operaciones concretas (entre los 7 y 11 ó 12 años); y período de las operaciones formales (adolescencia). Para entender los datos que aportaba la observación partía de una idea no del todo acertada, excesivamente «racionalista», como si tuviéramos una res cogitans que «espontáneamente» fuera desenvolviendo sus capacidades formalizadoras. Esa idea, luego mal digerida por entusiastas piagetianos, llevó a una serie de teorías y prácticas pedagógicas en la que se dejaba al niño para que «espontáneamente» desplegara las res cogitans de la que venía dotado. De esta forma, "las teorías de los estadios, por su mismo contenido, generan procedimientos de instrucción débiles"[270]. Actualmente, salvo en reductos ideologizados y poco inteligentes, esas teorías pedagógicas, que pretenden facilitar la espontaneidad mediante técnicas de barbecho y pasividad pedagógica, están siendo abandonadas porque los resultados que obtienen son más bien pobres. Otro lugar donde la idea de espontaneidad puede hacernos mucho daño es en la conciencia ecológica, que tan trabajosamente estamos desarrollando. En este caso, por ejemplo, se trataría de dejarse llevar por los sentimientos ecologistas «naturales» que surgen «espontáneamente» en comunión con la naturaleza. Pero, sin pararse a pensar en lo que pueda ser una auténtica acción ecológica, ni procurar entender en serio los procesos naturales de los seres vivos, esta actitud sólo da lugar a actuaciones descerebradas e incoherentes. Conozco el caso de una pareja que fue a «la selva» para vivir «naturalmente» dejando suelta su «espontaneidad»; al cabo de un tiempo volvieron. Declaraban cándidamente que se les había acabado el dinero y se aburrían; aparte de lo duras que resultaban allí las enfermedades, la soledad, y el hambre auténtica que pasaban en ocasiones. Pero seguían pregonando que lo mejor era la vida «natural», y que aquella era la mejor forma de vivir. No parecían darse cuenta que todo el asunto resultaba casi un chiste penoso. Eran incapaces de caer en la cuenta de que lo natural en el animal humano es pararse a pensar en serio, es vivir inteligentemente si quiere llegar a ser medianamente humano. Una ecología sentimental y descerebrada se condena a realizar continuos destrozos bienintencionados. Sus acciones producirán perpetuos efectos colaterales no deseados. Una «espontaneidad» así, que algunos pretenden, puede ser nefasta; nos podemos convertir en los aliados definitivos de la entropía hasta conseguir un ecocidio total. Hay demasiado en juego para admitir como válida una actitud que puede llegar a ser extraordinariamente irresponsable y destructiva. El hombre que renuncia a ser racional -en el sentido de dirigir su sistema de tratamiento de información- puede llegar a hacer unas barbaridades que ningún animal hace, hasta convertirse en el ser más destructor de la tierra. No se puede dejar suelto y anárquico al sistema neuronal de tratamiento de información esperando que se ajuste por sí solo de manera adecuada. Acabamos de inventar los «sentimientos ecologistas» y hemos de entrenarnos a cultivarlos y hacerlos eficaces. Precisamente porque tenemos la posibilidad de hacer objetos mentales y considerarlos sin que automáticamente nos muevan, tenemos también la posibilidad de movernos por objetos mentales y sentimientos que llamamos «espontáneos», pero que no lo son y pueden ser muy peligrosos. La «espontaneidad» del animal humano puede ser gravemente insensata y necia. No tenemos inclinaciones que nos aseguren un buen camino, como las tienen los animales porque el proceso selectivo de la supervivencia de la especie se encarga de ello. Tampoco somos como los dinosaurios, que desaparecieron, pero sin dejar a su alrededor un rastro de aniquilación total porque no podían, como nosotros si podemos, llevarse todo por delante. Queramos o no, hemos de dirigir con mucho tacto e inteligencia nuestras acciones respecto de nosotros y del resto de los seres del universo. Marchamos por nuestros propios pasos en la dirección que marquemos: ningún instinto nos salvará del precipicio. Nada nos exime de la responsabilidad de dar una buena dirección a nuestros pasos. Además, la espontaneidad ecológica no es algo deseable por una razón más fuerte: ¿y si sucediera que podemos dirigir el sistema de tratamiento de información de manera que acrecentemos el orden? ¿Qué pasaría si consiguiéramos utilizar nuestra inteligencia como el mejor instrumento antientrópico? La cuestión entonces sería: ¿cómo hemos de aprender a pensar acerca de nosotros mismos, y de los demás seres, de manera que nuestras acciones no sólo resulten ajustadas al entorno, sino que lo perfeccionen? ¿Cómo hemos de dirigirnos y dirigir nuestras actividades para que crezca el orden, la información, la vida? En definitiva, para dar por terminada la cuestión, las observaciones empíricas están llevándonos a abandonar la idea de espontaneidad como un viejo cacharro mental inservible que sólo ha traído confusiones. "La psicología de la inteligencia acusa a esta idea de anacrónica, pues se basa en una teoría del sujeto como pasividad, que no resiste un análisis serio. Concibe al entendimiento como una tabula rasa, que recibirá información en proporción a su blancura. Si está absolutamente vacía será capaz de captar todo. Esto sólo puede admitirlo un analfabeto psicológico. No hay tablilla en blanco. La inteligencia no es una transparencia, ni una sutil sustancia donde la realidad imprime su huella dactilar, sino una actividad poderosa y compleja, que necesita eficaces recursos para funcionar. Quien ve la riqueza de lo real no es el que carece de hábitos, sino el que posee muchos, flexibles, polivalentes hábitos creadores. La subjetividad amebática no capta nada. El organismo amebático es gordo y fofo. La souppesse no es propiedad de un organismo desmedulado, sino de un organismo ágil"[271]. Cibernética del animal humano: el Cybersapiens Una característica peculiar del hardware del sistema de tratamiento de información neuronal biológico es que no es fijo en su organización física, ni en las conexiones que producen la estructura formal básica. La red neuronal animal (incluida la nuestra) se configura en gran parte conforme a las entradas del sistema, y también según cómo se actúa. Tiene lo que se suele denominar plasticidad, propiedad que varía en los diferentes animales. La plasticidad del espacioso neoencéfalo del animal humano es especialmente grande. Esta propiedad merece ser resaltada, pues tiene grandes consecuencias y supone una diferencia fundamental con los sistemas artificiales de tratamiento de información que ahora somos capaces de hacer, incluidas las redes neuronales artificiales. Los ordenadores electrónicos habituales tienen unos chips cuya circuitería es inmutable. El hardware es fijo y está patentado por el fabricante de los procesadores. El mismo procesador puede hacer tareas lógicas distintas porque almacena en su memoria unos datos y una instrucciones diferentes. Aquí la plasticidad no es física, sino lógica, y corresponde al software. Normalmente el software (el conjunto de instrucciones que se llama programa) también es fijo, y asimismo está patentado. En muy pocas ocasiones el software es variable, de forma que se automodifique y se reconfigure según las salidas del sistema. Cuando digo "software variable" no me refiero a los programas de aprendizaje, que son programas para incorporar conocimientos cuya estructura básica permanece, sino a los que son capaces de «reescribirse» como tales programas. Este campo de la informática es aún tierra casi virgen. Se ha comenzado a vislumbrar un poco con el desarrollo de cierto tipo de máquinas simbólicas (las máquinas LISP, diseñadas con una circuitería adaptada para funcionar con ese lenguaje) que tienen la curiosa y, por ahora, desconcertante y casi inmanejable propiedad de modificar su software continuamente, pues las mismas salidas simbólicas pueden ser utilizadas como entradas de software del sistema. El software cambia así continuamente según el sistema realiza las operaciones, por lo que la misma lógica del sistema es variable, sin la rigidez de los sistemas de tratamiento de información más extendidos. Esta es una primera aproximación a lo que hace el sistema nervioso, pero ni siquiera las máquinas LISP son capaces de modificar el hardware según el software que van produciendo y automodificando al trabajar, cosa que si hace el sistema nervioso de los animales. Dejemos a las máquinas simbólicas y vayamos a las conexionistas (las redes neuronales artificiales) que han dado pruebas de parecerse más al cerebro animal. En una red neuronal artificial las conexiones entre las neuronas son fijas, por lo que también lo es la estructura de la red. Lo único que se hace es variar el "peso" de esas conexiones de manera que resulten neutras, positivas o negativas (igualen, refuercen o disminuyan la salida en función de la entrada en relación con la intensidad de las otras conexiones). Mediante procedimientos de ensayo y error toda la red adapta así el "peso" de las conexiones hasta alcanzar una intensidad óptima en función de los resultados que se quieren conseguir como salidas ante un tipo de entradas. Con esa adaptación de la intensidad de las conexiones la red "aprende" a resolver una determinada clase de problemas. Aquí la plasticidad queda reducida al mayor o menor valor que se atribuya a la intensidad de una conexión entre dos neuronas electrónicas. En las redes neuronales artificiales las neuronas no se multiplican, no lanzan axones para conectarse en zonas remotas, ni modifican el número de sus dendritas (conexiones próximas con otras neuronas); tampoco varían el tipo y cantidad de neurotransmisores en las sinapsis; las neuronas artificiales nunca enferman ni mueren. Si se quiere estudiar la plasticidad neuronal, la situación es aún peor para la mayor parte de las redes neuronales que estudian los investigadores; porque no las construyen físicamente, sino que las simulan mediante un programa que funciona en el procesador lógico del ordenador tipo von Neumann con el que trabajan. Nuestra red neuronal biológica goza de una plasticidad bien distinta. Las neuronas son células vivas en permanente cambio, que es particularmente intenso en los primeros años del desarrollo. Cada neurona establece conexiones lejanas mediante el axón, y también desarrolla una abundante y tupida red de contactos con las neuronas cercanas mediante las dendritas. Tienen así miles de conexiones cambiantes en los puntos de contacto interneuronal que se denominan sinapsis. En estas zonas de contacto se intercambian neurotransmisores, cuyo número es también abundante y varían entre unas sinapsis y otras. Toda la red neuronal se configura con el uso que se hace de ella. La estructura "física" de nuestro cerebro (en la que hardware y software van juntos en la configuración misma de la red) la vamos haciendo con lo que pensamos, hacemos, hablamos, leemos, imaginamos, procuramos recordar, escuchamos, vemos, etc. Nuestra cabeza es nuestra, y la tenemos puesta las veinticuatro horas del día: conforme la utilizamos se va configurando y reconfigurando constantemente. Según nos entrenemos a utilizarla, así podremos pensar, recordar, imaginar, e incluso sentir. En nuestra red neuronal el saber si ocupa lugar, porque no es la etérea res cogitans que imaginó Descartes. Por ahora carecemos de herramientas conceptuales aptas para hacernos cargo de los que tal plasticidad significa. En el campo de estudio de los sistemas que ajustan su comportamiento y se hacen más hábiles en función de lo acertado de sus logros, las mejores herramientas conceptuales que tenemos proceden de la cibernética. El nacimiento de la cibernética está ligado al intento por resolver un problema preciso: la regulación automática de la dirección de tiro en los cañones antiaéreos. Durante la Segunda Guerra mundial el gobierno americano encargó a un profesor del Instituto Tecnológico de Massachussets, Wiener, que intentase resolverlo. Al enfrentar el problema, y dar con algunas soluciones, Wiener intentó una conceptualización general de las cuestiones con las que se enfrentaba. En contacto con otros científicos, como el fisiólogo Cannon, pudo comprobar que, aparte de la automática, ese tipo de problemas de control y comunicación se planteaban en muchos otros ámbitos. Por ello amplió paulatinamente su teoría de forma que abarcase a los seres vivos y a las máquinas, o, más en general, a todo cuerpo con dinámica organizada mediante información. Finalmente publicó en 1948 la que llegaría a ser una obra famosa: Cybernetics[272]. El nombre de cibernética fue escogido a partir de la palabra griega kybernetike, que significa timonel. Con la cibernética surge una disciplina que estudia la evolución temporal dinámica de los sistemas con capacidad de autorregulación y automantenimiento al interactuar con el medio que los rodea. O, con la definición de Wiener: la ciencia del control y de la comunicación en el animal y en la máquina. De manera breve cabe afirmar que "las aportaciones de Wiener pueden resumirse en dos puntos: 1. Resaltó la importancia de los estudios interdisciplinarios, mostrando el gran interés que presentan para cada una de las disciplinas consideradas. 2. Advirtió la presencia de procesos realimentados de control en una amplia clase de sistemas, tanto naturales como sociales"[273]. La cibernética no ha conseguido establecerse con un objeto y método unificados en la tradición académica, por lo que el término cada vez se ha utilizado menos, siendo sus hallazgos integrados dentro de la Teoría General de Sistemas[274], en lo que se refiere a los aspectos más teóricos. Las facetas más prácticas y utilitarias, por su parte, han sido asumidas dentro de la automática y control, o en la robótica. Tan sólo en los países del Este europeo se ha constituido como una ciencia amplísima que engloba aspectos tan diversos como la teoría de la información, la comunicación, computadoras, sistemas de control, robótica, modelización de la economía, sociología, etc. Independientemente de la evolución académica que tenga la cibernética como disciplina, es necesario referirse a una serie de conceptos que con ella se pusieron en marcha y son de uso común en muchos ámbitos. La primera noción que populariza la cibernética es la de realimentación negativa o feed-back. Con ella se designa el primer mecanismo que se estudió por el que un sistema consigue autorregularse. Consiste, fundamentalmente, en un proceso por el que un sistema, en función de los resultados de las acciones, modifica esas mismas acciones para que alcancen un objetivo determinado. Se llama realimentación negativa porque lo que se considera son las desviaciones que se producen alrededor de una situación dinámica considerada óptima: esta es la que hay que alcanzar y mantener. Un mecanismo de feed-back sólo tiene en cuenta «lo negativo», es decir, la desviación del resultado óptimo; por lo mismo sólo es capaz de corregir «lo negativo» para aproximarse al óptimo que se pretende. Los mecanismos de regulación por realimentación negativa se ordenan únicamente a corregir los errores. Lo que se «realimenta» es información sobre lo que se ha conseguido en tanto que se desvía del óptimo, para corregir y alterar el comportamiento del sistema en orden a que lo realizado se acerque más a una valor que asegure mejor la estabilidad dinámica del sistema. La realimentación procesa, por cualquier medio, información sobre las acciones pasadas de forma que las acciones futuras se ajusten mejor a la actividad óptima del sistema. El concepto de feed-back está estrechamente unido al de homeostasis: permanecer semejante o igual a sí mismo. Esta noción tiene una procedencia biológica y se utiliza para designar la cualidad que tienen los seres vivos -incluido el hombre- de regular determinadas magnitudes fisiológicas dentro de unos límites que aseguren la supervivencia del organismo. Esta regulación se suele hacer también con mecanismos de feed-back negativo. Los conceptos de realimentación negativa y de homeostasis son aptos para entender procesos que tienden a mantener la estabilidad y el equilibrio de un orden dinámico, pero no sirven para aquellos procesos en los que no se tiende a un equilibrio, o a la perpetuación del status quo. Así resultan muy convenientes para hacer inteligible la dinámica de muchos procesos físicos, químicos y biológicos en los que resulta clave el mantenimiento del mismo proceso. Sin embargo, no son adecuados para tratar aquellos casos en los que se dan modificaciones que aumentan el orden, como puede ser el crecimiento; o si se presentan acciones que tienden no a perpetuarse, sino a conseguir un cierto objetivo para luego cesar. Es evidente que en los seres vivos ambos tipos de acciones son frecuentes, por ello la cibernética ha tenido que desarrollar otro tipo de conceptos que tengan más capacidad para hacer inteligible el actuar de los seres vivos y de los sistemas con evolución predictiva. Al estudiar los procesos con regulación anticipatoria o por predicción, la cibernética ha desarrollado los conceptos de feed-before -también se suele denominar feed-forward- y de mando[275] como distinto de la simple regulación para el automantenimiento u homeostasis. El «mando» es un tipo particular de control en el que se proyecta el futuro, y según ese proyecto se actúa en el presente. El mando es el control de la acciones con metas, objetivos o fines. Aquí la realimentación no es negativa, sino anticipatoria y teleológica. El sistema ha de tener en cuenta cuál será el futuro más probable para el entorno en el que se mueve y, a la vez, ha de decidir cuál es la mejor estrategia para alcanzar una determinada meta en esa situación futura. De acuerdo con las circunstancias cambiantes, que se ajustan más o menos a lo proyectado, y teniendo también en cuenta distintas metas, se modifican las acciones y se hacen nuevos proyectos. Para este tipo de control de «mando» no basta con que exista un patrón de equilibrio al que se ajuste el sistema. De hecho tampoco hay un patrón de actividad al que ajustarse, sino diversos caminos y estrategias de entre los que se elige el que parece óptimo para un fin particular propuesto; otros fines distintos se alcanzarían de otras formas y darían lugar a otras estrategias. Para este tipo de control, más que un patrón al que ajustarse, el sistema lo que necesita en primer lugar es una buena representación del entorno y de su posible evolución y modificaciones, teniendo en cuenta también las acciones propias; en segundo lugar es preciso un sistema de motivaciones. Los sistemas de motivaciones que estudia la cibernética se consideran de la forma más general posible, de manera que con ellos se abarque no sólo lo aplicable a los seres vivos (instintos, apetencias, afectos, pulsiones, necesidades, etc.), sino también a las «motivaciones» de los constructos cibernéticos. Se está desarrollando, de esta manera, una teoría general de la motivación que sea válida en todos los casos en los que éstas aparecen. Es evidente que todas estas conceptualizaciones tienen gran interés para la antropología y la psicología. Este orden de ideas se ha visto considerablemente potenciado por el estudio, el desarrollo y la introducción de procedimientos cada vez más potentes de adquisición y procesamiento de información. "La posibilidad de incorporar mecanismos de procesamiento de la información en la máquinas permite obtener de ellas formas de comportamiento que ponen de manifiesto enormes dosis de habilidad e ingeniosidad, y que están claramente separadas de los comportamientos de tipo mecanicista, de carácter esencialmente repetitivo, de los juguetes mecánicos y de los relojes. La introducción de la información en la concepción de las máquinas conlleva la incorporación en su estructura de mecanismos de realimentación, que están en los orígenes de la cibernética. Gracias a estos mecanismos las máquinas muestran formas de comportamiento en las que ponen de manifiesto aspectos adaptativos y aparentemente teleológicos, sensiblemente diferentes a los mecanicistas"[276]. La cibernética, por consiguiente, ha suministrado una panoplia de instrumentos conceptuales aptos para comprender en parte la peculiar organización y actividad de los cuerpos que no son simples autómatas mecánicos, en particular de aquel tipo de cuerpos que denominamos «vivientes». Estas ideas, unidas a las que provienen de la teoría de la información e informática, han culminado en la teoría general de los cuerpos organizados que es la teoría de sistemas. Sin embargo, esta teoría está poco desarrollada para suministrar ideas que permitan entender a los sistemas que incluso lleguen a modificar sus componentes físicos a medida que evolucionan, como sucede en un ser vivo que crece. Para tratar la información se sirven de los sistemas ya conocidos, como los simbólicos y los conexionistas electrónicos. Para entender los seres vivos hemos de aprender a pensar más allá de sistemas que parten de unos determinados componentes y sólo ajustan su funcionamiento. Hemos de llegar a entender a unos sistemas que modifican las mismas "condiciones iniciales" a medida que se desarrollan. En el sistema nervioso de los animales la situación es diferente a los sistemas artificiales que ahora hacemos: durante el desarrollo ni el número de neuronas, ni las conexiones neuronales son totalmente fijas. Neuronas se producen muchísimas más de las que luego permanecerán en el sistema nervioso maduro: hay un proceso constante de poda en las primeras etapas. "La capa de células que rodea al tubo neural origina muchas más neuronas de las necesarias. De hecho, las neuronas producidas han de competir por su supervivencia. Los axones de aproximadamente el 50 por ciento de esas neuronas no encuentran células postsinápticas vacantes del tipo adecuado con las que formar conexiones sinápticas, y, por consiguiente, mueren"[277]. El proceso selectivo continua después del nacimiento hasta que, paulatinamente, el sistema nervioso estabiliza su estructura básica. Además, las neuronas biológicas no sólo adaptan el "peso", o intensidad positiva o negativa, de las conexiones sinápticas según las entradas (problema) hasta dar con una salida eficaz (solución); sino que establecen conexiones sinápticas nuevas y eliminan otras existentes según la eficacia de la relación entre salidas y entradas del sistema nervioso. Aquí la plasticidad afecta al hardware, que modifica su estructura; por ello mismo, al ser una red neuronal, modifica el software, que no es otra cosa que la misma estructura de la red. La modificación del hardware es muy grande en los primeros estadios de la vida, cuando el sistema nervioso tiene un intenso metabolismo y crecimiento rápido: la capacidad de aprendizaje es máxima. Posteriormente continua su crecimiento y adaptación hasta la madurez; luego decrece y se produce una paulatina rigidificación y empobrecimiento del hardware y del software, que es mutua porque también es recíproca su plasticidad. En los animales superiores la plasticidad del sistema nervioso, mediante el aprendizaje, permite adquirir habilidades que no vienen establecidas en la información genética. Los genes determinan la plasticidad neuronal, no lo que luego se consigue con ella. El aprendizaje consiste en la adquisición de habilidades de comportamiento individual y social encaminados a adquirir una conducta eficaz para la perpetuación de la especie. Mediante el aprendizaje se configura el sistema de tratamiento de información de forma que realice espontáneamente determinadas operaciones útiles, adquiridas por la experiencia del individuo por procedimientos de ensayo y error; o con la experiencia acumulada por la especie que le es transmitida mediante imitación de la conducta del adulto, reforzada con premios y castigos. El comportamiento inicial de la mayoría de los mamíferos superiores difiere en gran parte del comportamiento adulto, no sólo por la paulatina maduración biológica, sino por las conductas que se adquirirán mediante aprendizaje. El proceso de doma y domesticación de los animales aprovecha esa capacidad de adquisición de destrezas para introducir conductas nuevas. Sin embargo, es evidente que sólo se pueden adquirir aquellas habilidades para las que efectivamente existe plasticidad neuronal y capacidad de creación de automatismos neuromotores. Así, por ejemplo, adiestrando mediante premios y castigos ha sido posible enseñar a un bonobo a producir ruidos semejantes a unas escasas y sencillas palabras bisilábicas, con las que ajusta su conducta y la ajena. Sin embargo, no parece que la estructura y plasticidad neuronal de los primates dé lo suficiente de sí como para adquirir habilidades lingüísticas verdaderamente diferenciadas del habla animal, y que se acerquen a las del sapiens (que cuenta con las muy plásticas áreas corticales de Brocca y de Wernicke para realizar esa tarea). En el animal humano se produce también ese proceso de desarrollo y maduración del sistema nervioso. De manera semejante a los animales, y especialmente en las zonas más primitivas del cerebro, se establecen las distintas partes, con neuronas especializadas, vías de comunicación, conexiones, etc. Igualmente aprenden por imitación y si son motivados. Sólo recientemente se está estudiando el proceso educativo en relación con el crecimiento y maduración neuronales. Hasta hace bien poco se acudía, bien a la experiencia acumulada sobre lo que es más eficaz, bien a dudosas razones muy hipotéticas y pretendidamente filosóficas que daban lugar a teorías educativas con escasa base empírica. En este campo, sin embargo, la base de partida han de darla la neurofisiología y la psicobiología del desarrollo y maduración humanas; sólo así se puede establecer con claridad las posibilidades y límites de la plasticidad del sistema nervioso, y cuáles sean los mejores modos de explotarla y dirigirla. Corresponde a las ciencias neurológicas establecer las diversas fases de crecimiento y plasticidad del sistema nervioso en los animales y en el animal humano. También deberán averiguar en qué momentos la plasticidad se debe al crecimiento (fase en la que se multiplican las neuronas, y los axones y dendritas están creciendo y estableciendo las conexiones); o se debe a la modificación de la intensidad de las conexiones (porque ya casi ha cesado el crecimiento de los axones, y las dendritas también varían poco, por lo que sólo se modifican las sinapsis entre neuronas que ya están conectadas); es evidente que las posibilidades de variaciones mutuas de hardware y software serán distintas según las diferencias de plasticidad. Los que cultivan las ciencias neurológicas, unidos a los de las ciencias cognitivas y la informática, deberán estudiar las características y propiedades de sistemas de tratamiento de información que pueden modificar el mismo hardware en función del software y de las salidas que ellos mismos producen. En este campo tengo poco que decir, salvo hacer preguntas a los que cultivan esas apasionantes ciencias, y esperar a que vayan adquiriendo conocimientos y me los cuenten. Aparte de la plasticidad común con los animales dotados de un sistema nervioso desarrollado, el comportamiento del animal humano muestra otra peculiar maleabilidad. Se pone de manifiesto en una curiosa actividad, sobre la que deseo llamar la atención de los etólogos del animal humano. La observaciones de campo indican que esa especie dedica muchos recursos y cada vez más años a la educación de sus cachorros. Incluso llega a suceder que, en algunas grandes manadas con territorio propio a las que llaman "países desarrollados", los individuos dominantes imponen ese comportamiento por la fuerza a todos los miembros jóvenes del grupo, y exigen lo que denominan "escolarización obligatoria". En la época en la que los cachorros deberían dedicar su vida a corretear, olisquear, explorar el terreno, jugar, pelearse, etc., son estabulados en recintos que llaman "aulas". En ellas, con extrema crueldad ritualizada, reciben durante muchas horas, muchos días y muchos años, riadas inmensas de ciertos sonidos, a los que la especie llama "leguaje". Allí su «espontaneidad» es reprimida constantemente por otros miembros adultos de la manada. Por ejemplo, se les enseña a repetir que dos y dos son cuatro, sin dejarles desplegar una idea más creativa y variada de la propiedad aditiva. También son forzados a hacer manchas de determinadas formas; a esas manchas las llaman "letras", y al proceso de emborronar superficies limpias con esas manchas siguiendo ciertas reglas lo denominan "escribir". Se ignora el motivo por el que dominar tal actividad les proporciona luego preeminencia en la manada. Pero basta de ironías. Lo que quiero poner de manifiesto es lo siguiente: en el animal humano la situación es aún más interesante que en los demás animales, porque su red neuronal admite entradas simbólicas del mismo tipo que las que produce como salidas. En el caso del hombre, el software lingüístico y simbólico modifica y reconfigura el hardware, es decir, la estructura de la red neuronal. De salida, en el animal humano se encuentran procesos equivalentes a los que descubrimos en el aprendizaje animal. Como, además, el hombre puede dirigir su propia operación cognoscitiva, es posible adquirir nuevas destrezas, de forma consciente y dirigida. Por ejemplo: puedo plantearme los mejores movimientos que facilitan un mayor rendimiento en un determinado deporte. Después de haber considerado cuáles son los más idóneos, puedo hacer que la corteza cerebral dirija los movimientos de mi cuerpo. Esa dirección será torpe e insegura, porque el cortex no tiene control directo sobre los subsistemas neuromotores, sino indirecto a través de la dirección que le permite el proceso de telenfalización. No obstante, de manera paulatina los órganos del sistema nervioso con mando "directo" se irán haciendo cargo del control de las operaciones que me obligo a realizar. A la larga, si he acertado diseñando movimientos adecuados y factibles, la orden de la corteza cerebral produce una cascada de automatismos -o de subrutinas de control directo- que se realizan de manera fácil e inconsciente. Cuesta aprender un deporte técnico, como esquiar, mediante la instrucción y tomándose el trabajo de pensar detenidamente los movimientos, pero es el mejor procedimiento para adquirirlo sin vicios y practicarlo a la larga con facilidad. De la misma manera se pueden conseguir destrezas sobre otros tipos de comportamiento. Además también es posible conseguir habilidades sobre estados corporales (pasiones y sentimientos) de forma que a las "querencias" básicas que tiene el hombre como animal (lugares conocidos -entornos familiares-, cosas agradables o dolorosas, sabores, etc.) se añadan otras introducidas voluntariamente. Así es posible que surjan pasiones de agrado o de odio ante músicas (himnos); colores y formas (de banderas, obras de arte); incluso ante abstracciones, tengan a no semántica (como libertad, democracia, humanidad); etc., etc. Con el lenguaje y la enseñanza el nivel del aprendizaje alcanza un nivel superior al que ostentan los demás animales. Cuando adquiero una habilidad corporal las modificaciones no son tan cualitativamente distintas. Así por ejemplo, si procuro correr para adquirir "fondo" físico de manera paulatina, consigo un mejor funcionamiento de los pulmones, del corazón y del hígado. Además varío el tono y rendimiento muscular, junto con algunos parámetros sanguíneos, etc.. Pero no consigo dotar al organismo de un orden sistémico formal nuevo: sólo modifico los elementos y hago que el mismo orden sistémico realice mejor una operación que ya podía hacer. En el caso del sistema nervioso y del lenguaje, es el mismo orden formal físico de las conexiones neuronales el que resulta modificado, sus operaciones resultan así absolutamente nuevas e impredecibles desde el orden formal anterior. Si me entreno, no sólo puedo aprender a jugar al tenis; puedo también expresarme en otro idioma; o saber leer y escribir; o resolver ecuaciones de segundo grado; o aprender a fabricar aviones, retroexcavadoras y máquinas racionales. También está en mi mano interesarme por la medicina, y curar; o por la filología, y acabar sabiendo algo de ese estupendo invento que es el lenguaje, que estudio mientras lo uso. Puedo, asimismo, estudiar aquel magnífico artificio romano que es el derecho, y acabar con habilidad para ejercitarme en algunas de sus variantes: civil, legal, administrativo... También me puedo dotar de conocimientos y habilidades que, por ejemplo, me hagan ser considerado útil en el mercado laboral. O hacerme diestro en refrescar manzanilla, actividad que no producirá ingresos, pero me permitirá disfrutar de ratos agradables con los amigos. Las novedades que se pueden producir como hábitos en el sistema de tratamiento de información son así absolutas; los resultados que produce aquí el feedback son ciertamente nuevos. En el hombre surgen una "propiedades emergentes" de carácter nuevo, mucho más potentes. Aquí conviene no olvidar que el sistema de tratamiento de información humano está totalmente integrado en el orden sistémico corporal; en especial, es estrecha la unión entre los sistemas nervioso, motor y endocrino. Por ello, esa posibilidad de modificación y de adquisición de hábitos tiene, de manera casi inmediata en muchos casos, consecuencias conductuales e incluso orgánicas. El pensar no está desconectado del organismo, como bien ponen de manifiesto todos los fenómenos psicosomáticos. Un cambio de pensar no dominado, supone un cambio de conducta y de pasiones no dominado, y al revés. Podemos decidir lo que miramos (unas horas de televisión o salir al campo) y escuchamos (Brahms o rock duro); aquello por lo que nos interesamos y aprendemos (astrofísica, la liga de fútbol o la cotización de la bolsa); lo que leemos; lo que recordamos, evocamos e imaginamos; lo que procuramos pensar y cómo lo pensamos; aquello a lo que damos importancia (y nos enfadamos o indignamos) y lo que consideramos irrelevante (y "pasamos")... Con todas esas actividades dirigidas no es que configuremos nuestro pensamiento: conformamos también nuestro cerebro. Con él modificamos asimismo nuestra capacidad de sentir. Así un catador de vinos o de aceite de oliva se entrena a apreciar más sabores. Un oído adiestrado es capaz de distinguir los distintos instrumentos de una orquesta sinfónica en pleno tutto orquestal. Un tenor se hace capaz de emitir y modular los sonidos con gran precisión y potencia. Un microscopista avezado sabe ver lo que otros ni distinguen. También podemos variar los estados de ánimo, que serán distintos si ocupamos nuestras neuronas en repasar desgracias o las alimentamos con el Quijote. La capacidad de moldear la plasticidad biológica de la que venimos dotados es una realidad en la que cada vez caemos más en la cuenta; estamos a punto de enterrar de una vez por todas la fantasmal res cogitans, para sustituirla por un órgano cerebral que admite ejercicio. También se observan curiosas exageraciones en esta nueva forma de pensar. En la sección de Libros de Autoayuda de unos grandes almacenes pude hojear un libro[278] en el que, con un arrebato de optimismo, casi se afirmaba que con el paso del tiempo y el ejercicio se puede tener el cerebro que se desee. Me temo que no da para tanto nuestra plasticidad cerebral. Sin embargo, son muy útiles los ejercicios de gimnasia cerebral que ese tipo de libros proponen para mejorar y mantener en forma las facultades cognoscitivas: aprender a percibir, entrenar la vivacidad mental, la habilidad verbal, los distintos tipos de memoria (inmediata y diferida, visioespacial, de estructuración, perceptiva, lógica...). Buena cosa es que se divulguen este tipo de ideas, y ojalá se haga de manera que nos ayude efectivamente a hacernos más inteligentes y más humanos. Los hábitos mentales, por otra parte, producen verdaderas hiperformalizaciones que capacitan al sistema de tratamiento de información para operaciones inéditas. "El hábito es una forma con un rasgo sumamente peculiar, es una forma variable. El ver, aunque capte nuevas diferencias, sigue siendo ver. Sin embargo el hábito va modificándose él mismo, según se realizan nuevas operaciones. Es decir, la ciencia poseída en un comienzo es otra ciencia que la ciencia poseída después de aprender determinados conocimientos. Ninguna ciencia es una formalidad subsistente o acabada. La ciencia es un hábito del intelecto: es la forma de una vida. Los principios mismos de la ciencia se modifican según se conoce. La ciencia se transforma"[279]. La capacidad de formalizar y objetivar mentalmente introduce un cambio cualitativo en la evolución de la especie humana, que la diferencia esencialmente de la evolución de las demás especies. "Lo que se llama progreso técnico nada tiene que ver con el proceso biológico de la evolución, pues se funda en situaciones objetivadas y no en mutaciones del organismo. Si el hombre ha progresado técnicamente, no es porque su soma se haya ido perfeccionando, sino porque se ha apoyado en la dinámica especial de la técnica que marcha a partir de objetivaciones. El hombre es un ser que integra objetos en su conducta y actúa a partir de esos objetos. El animal recibe un estímulo del exterior; lo asocia en su sistema nervioso, y lo transforma en una representación que a su vez determina una reacción del animal: una respuesta. El hombre es así en determinados moldes de su ser; pero lo decisivo del hombre no es esto; la conducta del hombre no se desencadena desde su constitución biológica: no es instintiva. La conducta del hombre se desencadena en la medida en que asimila el espíritu objetivado"[280]. Es decir, en la medida en que se hace capaz de manejar ideas y luego modificar la realidad según ellas. Hasta aquí estoy dando vueltas para introducir sin demasiados sobresaltos un viejo tema: los hábitos. He querido acercarme a la cuestión paulatinamente, sin alejarme mucho de las bases empíricas de lo que ahora vamos conociendo sobre el sistema nervioso. Lo he hecho así de intento, porque esa palabra -hábito-, y más en su forma ética -virtud-, tiene ahora difícil venta. Ese descubrimiento clásico está en gran parte olvidado, cuando no se le mira con suspicacia. Sin embargo, ese hallazgo aristotélico, que sistematiza una intuición de Sócrates, introduce una forma de pensar sobre el animal humano que aporta mucha comprensión. Siempre, pero especialmente ahora, necesitamos echar mano del mejor utillaje mental disponible que permita comprendernos. No expondré la historia de cómo hemos llegado a olvidar o desprestigiar aquella magnífica manera de discurrir[281], sólo intento exponer por qué compensa redescubrirla. Aristóteles desarrolló una forma de pensar al hombre que, con una terminología que nos puede resultar más cercana, cabe calificar de cibernética. "El hombre es un ser cibernético (...) La interpretación clásica de los hábitos como perfeccionamiento de la potencia intelectual queda justificada desde un planteamiento de origen antiguo, pero que está en plena marcha al final del siglo XX. La última palabra de la investigación teórica de nuestro siglo repone la noción de hábito intelectual de Aristóteles. No se trata de tomar una pieza teórica del pasado e intentar traerla al presente, sino que tal como se desarrollan las disciplinas teóricas de hoy es necesario recuperarla. El estudio de los sistemas en función de su propio funcionamiento repone la noción de hábito, bien formulada en Aristóteles y en la tradición aristotélica hasta Tomás de Aquino. En Escoto, esta noción se tambalea, porque Escoto es demasiado objetivista. Los modernos son una continuación de esta línea objetivista inaugurada por él. Se puede decir inaugurada, porque Escoto es suficientemente importante e influyente: de escotistas están llenos los siglos XV y XVI; también bastantes tomistas modernos son escotistas sin saberlo"[282]. La noción cibernética de hábito puede exponerse así: el sistema humano, mediante el poderoso feed-back de que es capaz, se puede dotar de nuevas habilidades por el procedimiento de inventarlas y practicarlas. Así lo describe Aristóteles: "En todo aquello que tenemos por naturaleza, adquirimos primero la capacidad y después hacemos la operación. Esto es evidente en el caso de los sentidos: no adquirimos los sentidos por ver u oír muchas veces, sino a la inversa: los usamos porque los tenemos, no los tenemos por haberlos usado. En cambio, adquirimos las virtudes mediante el ejercicio previo, como en el caso de las demás artes: pues lo que hay que hacer tras el aprendizaje previo lo aprendemos haciéndolo; por ejemplo, nos hacemos constructores construyendo casas y citaristas tocando la cítara"[283]. Este proceso sucede también con los hábitos intelectuales que nos hacen capaces de conocer más, de comprender mejor. "Tal como es formulado por la filosofía aristotélica, el hábito intelectual se puede entender como una realimentación, es decir, como una especie de feed back, porque la inteligencia no se limita a ejercer operaciones, sino que al ejercerlas, el haberlas ejercido comporta para ella algo intrínsecamente perfectivo. Si se compara esto con la cibernética mecánica, la salida sería la operación y la entrada el hábito. Bien entendido que esa entrada es la salida convertida en entrada, es decir, la salida en tanto que el haber ejercido la operación modifica la estructura del sistema"[284] Con la adquisición de hábitos se dota el hombre de una segunda naturaleza. Porque, para los clásicos, la naturaleza no era algo fijo sometido a unas pocas leyes rígidas, como pensaron los mecanicistas. Era también el lugar del crecimiento y de la vida; de la multiplicidad y diversidad; del orden y el perfeccionamiento. Más importante aún: esa segunda naturaleza de la que podemos dotarnos es justamente el ámbito de la libertad. "La libertad es un trascendental del ser humano que conecta con la naturaleza a través de los hábitos"[285]. La naturaleza biológica, nuestra información genética, nos provee de la plasticidad; lo que hagamos con ella depende luego de nuestra libertad. Conquistamos terreno para la libertad y ampliamos el ámbito de nuestras posibilidades cuando nos hacemos Homo habilis, y adquirimos habilidades técnicas. Más aún avanzamos si conseguimos hacernos Sapiens, y acumulamos información junto con las muchas teorías -software mental- necesarias para manejarla con sentido. Y nos hacemos todavía mucho más libres si conseguimos forjarnos Cybersapiens. Es decir, si nos paramos a pensar, y procuramos pensar en serio. Si nos dotamos de hábitos cognoscitivos que nos permitan conocer a fondo y comprender de veras; sin quedar aturdidos por la avalancha de información, y desconcertados por la multitud de métodos mentales para tratarla. Pero el paso de Habilis a Sapiens y a Cybersapiens hemos de hacerlo nosotros, cada persona, porque corresponde a cada uno conquistar su libertad. Podemos conformarnos con poco, y limitarnos a saber hacer, valorando nuestra vida por la utilidad, como se mide la de una máquina. O quedarnos en acumular y tratar información, cosa que también hacen con ventaja las máquinas racionales. Pero podemos también aspirar a una existencia más plenamente humana, más profundamente humana, y embarcarnos en el empeño de no conformarnos con medianías mentales, para aspirar a pensar con plenitud y comprender. Llevamos toda la Edad Moderna oponiendo conceptualmente naturaleza y libertad. Es un necio enfrentamiento: la libertad no es «liberarse de» las imposiciones una naturaleza mostrenca, sino capacidad de crecer y perfeccionarse dotándonos de una segunda naturaleza que se expande mediante los hábitos. "Tomás de Aquino observa que hablar de naturaleza libre es una contradicción: la libertad sólo llega a tomar contacto con una naturaleza en la medida en que esa naturaleza ha adquirido hábitos. Los hábitos son la vehiculación, la conexión, de la libertad con la acción. Esta tesis abre una gran perspectiva. Los hábitos no sólo cumplen la función de modificar un sistema en virtud de una realimentación, de transformar la salida en entrada al captar el valor significativo de la salida (consideración del autocontrol de un sistema por realimentación); los hábitos no solamente perfeccionan la facultad (lo cual es común a la inteligencia y a la voluntad), sino que son el paso de la libertad a la naturaleza: sin hábitos, una naturaleza no es libre"[286]. Somos naturaleza perfeccionable intrínsecamente, como se perfecciona un ser vivo que crece: se hace distinto porque va a más. Con la ventaja de que el ir a más que nos provee el crecimiento mediante los hábitos no tiene techo. Por eso la libertad no es una cualidad etérea de la res cogitans descorporeizada que diseñó la modernidad. Es algo más sencillo y, para empezar, mucho más «físico». "Es tan sólo un modo diferente de realizar los mismos quehaceres y operaciones que ejecutan nuestros parientes los animales. Sólo añade un nuevo carácter, un nuevo modo que acabará distanciándonos irremisiblemente, espléndidamente, del animal. El hombre se posee a sí mismo: se autodetermina. No es éste un concepto metafísico, sino descriptivo. No soy libre, sino que realizo algunas actividades libremente. Es en el terreno de la percepción o la memoria donde puedo descubrir lo que llamo libertad, y no en las discusiones morales ni en las logomaquias metafísicas. Libertad es poder dirigir la mirada, para captar la información que necesito y deseo. Y también aprender lo que quiero (...) Cuando un niño aprende a suscitar una imagen mental y a operar con ella, está poniendo los cimientos de su libertad. Cada vez que dirige su atención, y no sólo es dirigido por los estímulos externos, ejecuta un minúsculo/grandioso acto de libertad. Al evocar voluntariamente un recuerdo, sin esperar a que sea suscitado por otro suceso, es libre"[287]. Sólo puedo tocar la guitarra libremente si me he ejercitado mucho y bien; sólo puedo escribir como me da la gana y deseo si he aprendido a escribir bien; si no me entreno estudiando física y dotándome para comprenderla, cualquier libro de esa ciencia me parecerá un galimatías indescifrable. Aquí no hay espontaneidad que valga: sólo puedo hacer libremente aquello para lo que me doto de los hábitos oportunos. La libertad no es algo que se tiene, sino que se conquista. Esa libertad tiene consecuencias radicales para el animal humano. "De la libertad se desprende esta descripción: el hombre es un sistema abierto; no un sistema en equilibrio, sino un sistema que en el tiempo no alcanza nunca su equilibrio. En la terminología actual, un sistema en equilibrio se llama «homeostático», y esto significa que si pierde su equilibrio en virtud de un estímulo, intenta restablecerlo con una respuesta. Aunque también en el animal hay una fase de crecimiento, como el crecimiento animal es limitado, llega a una situación que para él es la mejor. Si esta situación es alterada, la conducta del animal tiende a restablecerla. Por lo común, el ecosistema, es decir, la concurrencia armónica entre las formas de vida y el medio ambiente, se piensa como un sistema homeostático. Se sostiene, y es cierto, que el hombre altera el equilibrio natural; se añade que lo destruye hasta el punto de hacer inhabitable el planeta. Pero esto último es una alternativa (de la libertad). Desde luego, como sistema abierto que es, el hombre tiende a más, está embarcado en el proyecto de sí mismo, de acuerdo con el cual llegará a un óptimo. Pero este óptimo no está dado en el tiempo y, en rigor, no es homeostático. Es una profunda equivocación, que a veces nos ronda la cabeza, que el hombre debe contentarse con aspirar a la homeostasis. Esto es recortar el carácter sistémico del hombre. El hombre es intrínsecamente perfectible y el único equilibrio que le conviene es dinámico, tendencial, no estático. Las tendencias humanas no se armonizan si no se fortalecen"[288]. El carácter abierto, perfectivo, del sistema humano permite que nos embarquemos en la tarea de hacer reales diversos proyectos de nosotros mismos. De niños nos bosquejamos siguiendo el modelo de padres, héroes, campeones, cabecillas, o líderes. Luego nos soñamos triunfadores, sabios, encantadores, útiles, innovadores, afamados, capaces; y nos ponemos a la tarea de hacer reales esas ilusiones. "Hay que afirmar que la invención y elección de los fines es un comportamiento intrínsecamente inteligente, y que la inteligencia debe ser evaluada atendiendo a los fines que se propone"[289]. Lugo nos sentimos bien si los proyectos van cuajando; y fatal si quedan en la cuneta todas las expectativas que habíamos depositado en la biografía que nos creíamos capaces de escribir. Nos dicen entonces que nos conformemos, que nos ciñamos a la elemental homeostasis del que se limita a permanecer vivo. Pero no nos basta: frustrados y desesperanzados nos seguimos soñando de otra forma. No somos capaces de conformarnos. "El poder de la inteligencia para sobreponerse a sí misma, ascendiendo a un nivel más alto desde donde superar las contradicciones, es, literalmente, fantástico, es decir, estupendo e irreal. La inteligencia, que es el modo de vivir nuestra libertad encarnada, crea continuamente irrealidades con las que hacerse cargo de la realidad, teorías para conocerla o proyectos para transformarla. Forzado está el hombre a habitar poéticamente la tierra, porque su inteligencia es poética, poiética, creadora"[290]. También esbozamos aspiraciones que encandilan a muchos y se convierten en esfuerzos colectivos. Así planeamos hacernos demócratas, instruidos, abiertos, modernos, tolerantes, ecologistas, plurales. Son muchos los proyectos colectivos que el animal humano se ha propuesto. Algunos de ellos nefastos (en el siglo XX, el de los totalitarismos, hemos tenido algunas muestras) y otros muchos magníficos, que han hecho crecer en estatura al animal humano. Los proyectos ideales que nos proponemos, en los que embarcamos nuestra vida y orientamos nuestros actos, son ámbitos de posibilidades que abre nuestra libertad. Porque "la autodeterminación actúa por medio de proyectos. Gracias a ellos la facticidad del hombre es horadada por la presencia, el poder y la acción de la irrealidad, que no es un añadido fantástico, sino la suma de trayectos posibles dibujados en la realidad. La inteligencia no es un ingenioso sistema de respuestas, sino un incansable sistema de preguntas. No vive a la espera del estímulo, sino anticipándolos y creándolos sin parar. Todas las operaciones mentales se reorganizan al integrarse en proyectos. La realidad entera se amplía, dando de sí nuevas posibilidades, y en esta expansión universal también resulta transformada nuestra inteligencia computacional, cuyas capacidades estaban pendientes de una última determinación. Embarcada en proyectos rutinarios, se convertirá en inteligencia rutinaria; embarcada en proyectos artísticos, se hará inteligencia artística; embarcada en proyectos racionales, se convertirá en razón "[291]. En ese último tipo de proyectos, los racionales, es por el que aquí me intereso. Porque efectivamente una de las aspiraciones que el animal humano se ha propuesto a lo largo de su historia fue la de hacerse racional. Habré de retroceder ahora unos cuantos siglos para acercarme a la época y a los hombres que fraguaron ese proyecto, que nos ha tenido encandilados más de dos mil quinientos años. Cuando el Homo Habilis urdió hacerse Sapiens Llevamos mucho tiempo intentando convertirnos en animales que se definen a sí mismos como racionales y que, a pesar de las carencias de la red neuronal de la que están dotados, intentan serlo. "La razón no es una facultad especial: es un proyecto de la inteligencia, decidida a saber si hay evidencias más fuertes que las privadas, a evaluarlas y a aceptarlas si llegara el caso. Por eso es más correcto usar el adjetivo «racional». Hay una inteligencia racional, que es un paso más en la larga historia que comenzó con una inteligencia computacional capaz de autodeterminarse"[292]. En esa aventura hemos pasado por multitud de peripecias: momentos de exaltación en los que nos hemos autotitulado homo sapiens sapiens, porque creímos vislumbrar de cerca la meta; y otros de fuerte desánimo, en los que hemos desconfiado de la viabilidad del proyecto y nos hemos vuelto escépticos. Actualmente andamos recelosos y cautos, porque la razón ha originado monstruos y ha dejado incumplidas muchas promesas. También estamos desconcertados, porque en el empeño por sacar adelante aquella quimera hemos inventado las máquinas racionales, que nos superan en las operaciones para las que con tanta dificultad entrenábamos a nuestra red neuronal durante años. Son máquinas lógicas, mientras que nosotros sólo contamos con una red neuronal biológica, poco dada a la estricta disciplina racional a que aspiramos. Nos pueden, como nos podían las bibliotecas para recordar; o nos superan las calculadoras, que trituran estupendamente ese otro invento nuestro: los números. Durante todo este camino pocas veces nos hemos parado a pensar el mismo proyecto: creíamos en él o perdíamos la fe, pero no lo pensábamos. Los que lo inventaron si hubieron de pensarlo. No es este el lugar adecuado para hacer una historia de las aventuras y desventuras del animal humano en su empeño por ser inteligente. Tampoco me puedo referir a lo que hubieron de pensar las personas de aquella otra civilización que también inventó la lógica y puso los cimientos de la racionalidad: la hindú. No la conozco; e ignoro el detalle de los avatares históricos por los que aquel proyecto no ha cuajado en saberes metódicos, acumulables y transmisibles, como son las ciencias y sus tecnologías inventadas en Occidente. Así limitado, he de referirme sólo al proyecto intelectual que se gestó en Grecia y que volvió a repensarse en el siglo XIII europeo. Ahora también hay quien nos está ayudando a caer en la cuenta de lo que supuso aquel esfuerzo intelectual de comprensión que cuajó en un espléndido proyecto[293]. Comenzaré haciendo una parada para distinguir entre lo que llamaré habilidades racionales y hábitos intelectivos. No es una denominación muy técnica, aunque espero que resulte suficiente para mi propósito. Lo ilustraré con un ejemplo de mi querencia: la física. En las facultades de Físicas de todo el mundo se enseña la teoría de la Relatividad Especial que inventó Einstein. Son muchas las personas que adquieren la habilidad racional que les permite manejar las ecuaciones de la transformación de Lorentz y resolver problemas planteados en el marco de esa teoría. No son tantas las que consiguen hacerse cargo de algo que Einstein hubo de pensar para desarrollarla: la noción de simultaneidad. De manera semejante es posible ser un honrado trabajador que gana su sueldo manejando las ecuaciones de la mecánica cuántica. En este caso tampoco hay que hacerse cargo del núcleo de las discusiones que enfrentaron a los grupos encabezados por Einstein y Bohr en las conferencias Solvay a principios del siglo XX. No hay que sumergirse en las discusiones que los más teóricos se plantean: ¿qué significan esas ecuaciones? ¿de qué tratan? ¿cómo interpretarlas? A la mayoría les basta con saber que funcionan para manejarlas con soltura; igual que le sucede a las máquinas racionales que ahora fabricamos. Propondré aún otro ejemplo: hemos estado enredando durante milenios con ese invento nuestro que son los números sin saber a ciencia cierta qué eran. Unos cuantos matemáticos se enfrentaron no hace mucho con la tarea de averiguarlo: ahora tenemos una teoría de los números, y sabemos un poco de qué va la cosa. La mayor parte de las personas, sin embargo, siguen usándolos tranquilamente, sin haberse parado a pensar qué sean. Una vez que el pensamiento inventa un camino, es fácil recorrerlo como si fuera un sendero trillado, sin tomarse el trabajo de pensar de los que lo abrieron, o el de los que se pararon a pensar dónde podía llevar. Ya digo que en esto nos diferenciamos bien poco de las máquinas racionales, salvo en que lo hacemos peor que ellas. Las habilidades racionales son fáciles de adquirir: ideas, y rutinas mentales para trabajarlas, se aprenden durante años a lo largo de todo el proceso educativo. El Síndrome de Optimismo Semántico no impide adquirir esas habilidades; pienso que, más bien, lo facilita. Da seguridad creer que una idea es «científica» o «está demostrada»; imprime un sentido de adhesión reverencial que genera confianza. Creer que «las cosas son así» introduce en un cálido y abrigado mundo de certezas. Impide aventurarse en el proceloso océano de las paradojas y las preguntas. Uno no se topa con misterios; tiene unas ideas claras que le protegen de enigmas por contestar, y le libran de tener que salir a la intemperie. Para huir de aquello que no se sabe cómo pensar queda también el refugio del escepticismo. El escéptico dice: no estoy capacitado para atreverme a transitar por lo desconocido; más vale quedarse en casa, entre la cuatro hogareñas certezas pequeñitas que me abrigan y que son mías, sin plantearme unas cuestiones para las que no doy de mí. La arriesgada aventura de pensar de veras, que tantas incertidumbres tiene, queda para unos pocos locos malditos, que se empeñan en dejarnos sin el abrigo de las ideologías y de los cómodos esquemas mentales transitados y políticamente correctos. Se pueden tener muchas habilidades mentales y pensar muy poco. Mientras escribo estas líneas me ha sacudido la noticia de un nuevo suicidio colectivo de los miembros de una secta. Ya son demasiadas las noticias de esa clase. Me asombra que, en bastantes casos, no son analfabetos fácilmente manipulables, sino gente salida de la universidad, con todas las bendiciones académicas que certifican un buen cerebro en uso. Personas, además, bien situadas profesionalmente, con habilidades mentales útiles y exitosas; en una ocasión los suicidas fueron unos 30 jóvenes profesionales bien situados, expertos en informática. Sabían hacer cosas, también eran hábiles con sus neuronas, pero comprendían poco. Hemos inventados sistemas de adquirir habilidades mentales que parecen producir gente incapaz de pensar, de comprender y entenderse. En Francia, unos 20.000 adivinadores, astrólogos, echadores de cartas y especialistas en ciencias esotéricas, no dan abasto para atender más de cuatro millones de clientes. En España no sé cuantos ejemplares hay de esa fauna, pero es una industria cuyas revistas y publicaciones crecen continuamente; sus inversiones en publicidad también son cuantiosas, y van en aumento. Tal parece que, sin llegar a ser suicidas, nos formamos para hábiles, incluso para hiperhábiles; pero no sabemos cómo ser sabios para encontrar un poco de sentido a todo. También nos asombra que las máquinas racionales sean capaces de realizar mucho mejor que nosotros las habilidades racionales que hemos inventado. Adquieren, almacenan y procesan información de una forma que nosotros jamás seremos capaces de igualar. ¿Qué hace un superordenador cobrando por hora de trabajo más que cualquier red neuronal humana? ¿No éramos superiores? Para cualquier habilidad racional que inventemos, somos también capaces de construir máquinas que nos superen en ellas. Pasarán los test de Turing con más alta puntuación que ningún humano. Si consideramos que nuestra inteligencia se reduce a la habilidad racional, entonces las máquinas son mucho más inteligentes. En el futuro cada vez irá a más, pues las mismas máquinas racionales se podrán encargar de diseñar otras mucho más potentes y racionalmente más dotadas. Las habilidades racionales evolucionan y se acumulan sin tener que pensarlas. Sucede algo semejante a las demás habilidades de las que se dota el animal humano, que pasó de la edad de piedra a la de bronce y luego a la del hierro sin saber metalurgia: pensar lo que hacía para comprenderlo fue muy posterior. Igualmente ha sucedido con la biotecnología que, sin saberlo, hemos hecho durante milenios al seleccionar, cruzar, eliminar, injertar, cultivar, trasplantar... El continuo movimiento que introduce nuestro afán de novedades produce de todo: los aciertos prosperan, los fallos desaparecen. Pero no sabemos distinguir las destrezas de las pifias; hemos dejado que un "benigno" proceso selectivo las elija por nosotros. La creencia en el progreso nos ahorra el trabajo de pensarlas: avanzamos, y "alguien" o "algo" se encarga de que sea para bien. Hasta la revolución industrial cultivábamos y transmitíamos sobre todo habilidades "manuales" con muy poca racionalidad añadida. Bastaba para apañarse con la sentenciosa sabiduría popular acumulada en dichos, refranes, historias y creencias. Por su parte, la Edad Moderna es la del know-how: importa saber cómo se hace algo; no importa tanto por qué siquiera podemos hacerlo; ni para qué lo hacemos. Es la época de la ciencia entendida como predictibilidad eficiente, que lleva aparejadas sus tecnologías: el construir de hecho. Gran acierto de la Edad Moderna es haber desplegado las posibilidades de la razón como arte de formar ideas eficaces mediante métodos rigurosos. El método es lo más importante, es el know-how del pensamiento. Para aquellos asuntos donde no descubrimos el método hemos desarrollado otras tecnologías para producir ideas: Brainstorming, Brainwriting, Mind-Mapping, Bisociación, Provocación mental, Abstracción progresiva, Random-Imput, La lista de Osborn, Los 6 sombreros de Bono y las 3 sillas de Disney... En todo este proceso hemos ido acumulando y transmitiendo poderes: saber hacer es poder hacer. Tras la Revolución Industrial el aprendiz de brujo acumuló poderes hasta obnubilarse; luego cayó en la cuenta de los desastres que producía con sus acciones y se paró a pensar. Descubrió que no sabía como hacerlo; tampoco entendía muy bien lo que sabía. Se enteró de las calamidades que estaba procurando, pero ignoraba como pararlas. De pronto hemos caído en la cuenta de un montón acumulado de ignorancias y nos quedamos pasmados. Relataré algunas de las sorpresas que nos abruman cuando intentamos comprender lo que estamos haciendo. La primera nos la llevamos al intentar pensar qué sea eso que llamamos «conocimiento científico», en el que tanto confiamos. Los que se han dedicado a ello sacan conclusiones que mueven al desánimo: "Hablando estrictamente no hay hipótesis científica que se haya sometido jamás a contrastación por la experiencia. Lo único contrastable son ciertas «traducciones» de las consecuencias de nivel más bajo que tienen las hipótesis científicas, a saber, sus traducciones al lenguaje de la experiencia"[294]. "El antiguo ideal científico de la «episteme» -de un conocimiento absolutamente seguro y demostrable- ha mostrado ser un ídolo. La petición de objetividad científica hace inevitable que todo enunciado científico sea provisional para siempre: sin duda, cabe corroborarlo, pero toda corroboración es relativa a otros enunciados que son, a su vez, provisionales. Sólo en nuestras experiencias subjetivas de convicción, en nuestra fe subjetiva, podemos estar «absolutamente seguros»"[TAA1][295]. Así resulta que no sólo creíamos en la ciencia, sino que también los conocimientos "científicos" son creencias. ¿Por donde hemos de avanzar? Respuesta: por cualquier sitio, porque todo es cuestión de modas, paradigmas mentales y creencias. Las teorías científicas ciertamente cambian: ¿cómo?, no se sabe. Antes pensábamos de un modo, ahora pensamos de otro: tenemos otro paradigma, eso es todo. ¿Comprendemos más?, no se sabe. Nos pasa que las formas de pensar cambian, y nos sucederá que la evolución hará que permanezcan las ideas más aptas. Nosotros tenemos poco que hacer en el asunto, no somos los protagonistas; sólo cabe agitar mucho la coctelera mental para que surjan muchas ideas y funcione la selección evolutiva. No tenemos manera de saber qué formas de pensar son las mejores para producir ideas científicas. "Las teorías del conocimiento -según yo las conciboevolucionan al igual que todo lo demás. Encontramos principios nuevos, abandonamos los viejos. Ahora bien, hay algunas personas que sólo aceptarán una epistemología si tiene alguna estabilidad, o racionalidad como ellos mismos gustan decir. Bien: podrán tener, sin duda, una epistemología así y todo vale será su único principio"[296]. El diagnóstico sobre la capacidad de las ciencias para aportar verdadera comprensión es sombrío: "Los actuales intentos de clarificar la noción de racionalidad en la ciencia han tenido como resultado el ahondar nuestra confusión. Nos hallamos en el seno de una profunda crisis conceptual, y no sólo en un período de reveses pasajeros que pueda ser fácilmente superado con más diligencia y aplicación. La filosofía de la ciencia se encuentra al presente en peor situación que la astronomía de Ptolomeo en tiempos de Copérnico. Simplemente: atravesamos un período en que impera el caos, la anarquía y la sinrazón (conceptuales). Y pese a ello, se pretende que todo va bien y se producen voluminosos escritos, que son sólo epiciclos construidos sobre epiciclos. Hay un movimiento y un torrente de palabras, pero se ha perdido la visión de los fines y la significación de estas palabras"[297]. Desconfiamos del poder suministrado por el entramado científico y tecnológico, pues cabe que estemos poniendo nuestro destino en manos de un loco, muy poderoso y eficaz, pero loco. Sin embargo, con la crisis del conocimiento científico nos jugamos mucho. "Aquí estamos tratando del procedimiento más audaz que el hombre ha inventado para resolver problemas: la ciencia moderna. Esa ciencia inventa explicaciones acerca del universo para poder controlarlo y, correlativamente, para que ese control, en su uso socio-histórico, contribuya a llevar a la humanidad a una situación mejor. La ciencia hoy confiesa sin recato que no puede garantizar nada"[298]. Como consecuencia hay un rechazo hacia lo "artificial" y una vuelta a lo "natural", a lo no contaminado por el poder de las ciencias y sus tecnologías. Pero hay más aún: creíamos que los experimentos se encargaban de hacer verdaderas nuestras ideas: las verificaban. Ahora nos han devuelto la pelota: está de nuevo en nuestro tejado. Los responsables de hacer verdaderas nuestras ideas somos nosotros. Pero no sabemos qué hacer con esa responsabilidad. Hemos caído en la cuenta que la comprobación empírica no "verifica" nada; en realidad, tampoco lo "falsea", como quería Popper. Por ejemplo, me asomo a la ventana con una sencilla hipótesis en la cabeza: el sol es un carro de fuego donde viaja Apolo. Día tras día me asomo a la ventana y "verifico" la hipótesis. También la someto a falsación. Pero, claro está, nada sucederá ni a favor ni en contra mientras yo no sea capaz de elaborar mejores ideas con las que dotarme cuando abro la ventana. Si todo lo que tengo en la cabeza es eso, no vendrá ningún "hecho" a sacarme de mi error. De manera semejante, si pienso que en el sol confluyen las energías positivas del cosmos y organizo un viaje hacia el sol para empaparme de ellas, ocurrirá que me achicharraré en ellas irremediablemente. El sol no me explica la astrofísica que he de hacer para conocerlo. Igualmente, ningún hecho aporta su propia teoría. La verdad es responsabilidad mía, no de una instancia exterior a mí a la que denomino "hechos". Soy yo quien ha de comprender. Los "hechos" no aportan explicaciones. Tampoco gritan o hacen manifestaciones para que fije mi atención en ellos, y los considere "hechos" relevantes. No doy el premio Nobel a los "hechos", sino al Einstein que me permite comprenderlos y me abre un nuevo campo de "hechos". Corre de mi cuenta trabajar mis ideas. Pero, ¿cómo hacerlo? ¿dónde acudir? Me refugio en la lógica y, junto con el idealismo alemán, elaboro la siguiente hipótesis: todo lo racional es real. La solución está en ser racionalista. Me dejo llevar por ese Optimismo Semántico racionalista: si algo está bien trabado y demostrado, seguro que es así. Durante un tiempo todo marcha bien: la felicidad intelectual parece posible. Pero viene Gödel con su teorema y me destroza el chiringuito racional: no hay manera de decidir lógicamente la verdad de multitud de proposiciones. Hay verdades que escapan a la lógica, entre ellas la misma consistencia del sistema lógico. Pues bien, busco otra salida: haré teorías para avanzar a tientas. Pero, ¿cómo hacer teorías? ¿Cómo teorizar sobre la mejor manera de construir teorías? ¿Hay alguna teoría sobre cómo hacer hipótesis medianamente válidas? ¿O sobre cómo conseguir que haya gente que sea capaz de hacer las hipótesis que necesitamos? "Cuando se formula una hipótesis, se pregunta a la realidad; si la realidad no se adapta al modelo, sólo podemos seguir construyendo otro modelo. Pero la ciencia no tiene criterio lógico para construir ese otro modelo o hipótesis a partir del «falsado». Si no hay ningún criterio discursivo, sólo cabe esperar que aparezca un genio capaz de formular nuevas hipótesis o de ampliar las que tenemos. Pero esto no depende de la lógica de las hipótesis, sino de la potencialidad e inventiva humanas. No hay nada en la física de Newton que indique por dónde puede seguirse, a no ser que venga alguien más inteligente y formule otra (...) La ciencia no dice cuál es el modelo que debe sustituir al anterior; eso depende finalmente de la genialidad humana, de alguien que lo descubra al margen de la interna racionalidad lógica de la ciencia. Es evidente que desde Newton, Einstein es absolutamente imprevisible. ¿Por qué? Porque desde la lógica interna al propio sistema de Newton, no se llega a la teoría de la relatividad de Einstein. Y cuando Einstein sea falsado, y parece que en algunos aspectos ya lo está siendo, ¿con qué sustituiremos a Einstein? No tenemos criterio de sustitución ni de avance. Toda explicación científica es falsable, pero ninguna explicación científica dice cómo puede ser sustituida una vez falsada. Hasta ahora el hombre lo ha hecho, pero no hay modo de saber si lo seguirá haciendo: la aparición de genios no es programable"[299]. Por otra parte, nos hemos dotado con tal abundancia de habilidades racionales que estamos aturdidos por la cantidad de conocimientos disgregados que acumulamos. Son habituales las quejas por la dispersión de conocimientos que establece la creciente especialización de los saberes. Al conocimiento científico le crecen cada vez más ramas, formando un árbol tupido y complejo. Cada especialidad tiene su metodología, lenguaje y publicaciones propias. Entre todas constituyen un desperdigado reino de taifas que sólo consigue establecer relaciones diplomáticas entre sus feudos de manera precaria. Lo normal es que se ignoren y desconozcan. ¿Vamos hacia una babelización del conocimiento? Que la ignorancia produzca la confusión de Babel es hasta cierto punto esperable; pero, ¿cómo imaginar que esa desconcertante confusión se produciría también en la medida que conocemos más? Los ilustrados se llevarían las manos a la cabeza viéndonos ahogados por una avalancha de conocimientos que no sabemos cómo unir, ni cómo armonizar. Con la llegada de las máquinas racionales el proceso se agudizará. Llegaremos a conseguir que sea verdad la perversa definición del especialista: aquel que sabe cada vez más sobre cada vez menos. En el límite asintótico: lo sabe todo acerca de nada. Pero todavía quedan otros problemas. El conocimiento, ya lo vimos, sólo avanza mediante la investigación, mediante el arte de hacer preguntas. Sólo puedo progresar si voy más allá de lo sabido. Pero, ¿cómo sé que no sé? ¿qué tipo de conocimiento es ése, por el que se sabe que no se sabe? La información me informa, pero no me dice que es escasa o parcial; tampoco las teorías me comunican sus limitaciones y estrecheces. Entonces: ¿cómo conozco que no conozco? Si sólo entiendo según el saber que ya he adquirido, ¿cómo puedo preguntar? ¿Hay algún método que me permita saber lo que no sé? No lo parece, porque precisamente "en la primacía de la pregunta para la esencia del saber es donde se muestra de la manera más originaria el límite que impone al saber la idea de método (...) No hay método que enseñe a preguntar, a ver qué es lo cuestionable"[300]. Otro problema es la demostración. ¿Cómo decido cuales son las demostraciones que demuestran? ¿Cómo invento los métodos que considero válidos para demostrar? Además, ¿cómo concebir los modos de pensar que me permitan comprender? ¿cómo inventar la lógica? No hay un método científico que nos permita inventar las ciencias; ni otro racional que me permita desarrollar la racionalidad cuando todavía no se me ha pasado por las mientes siquiera como proyecto. Podría seguir acumulando razones, pero considero suficiente lo dicho para justificar que invite a redescubrir lo que hicieron quienes inventaron la racionalidad, la lógica y los métodos de demostración. Ellos diseñaron la bases de un buen proyecto, que compensa proseguir. Tuvieron que pensar las formas de pensar, e inventaron unas cuantas excelentes. Y lo mejor de todo es que, como hubieron de inventar la lógica y lanzar el proyecto de la racionalidad, consideraron atentamente el tipo de conocimiento que nos hace idóneos para, por ejemplo, saber que no sabemos. A ese conocimiento Aristóteles lo denominó hábito de los primeros principios. Ese es el marco de las exigencias a las que sometemos la información y también la forma mental de tratarla; ver que no cumplen esas exigencias nos permite ir más allá de ellas. Este es el punto de partida, el metaconocimiento que nos permite hacer metaciencia, metalógica y metamatemáticas. Es la gran habilidad de la inteligencia que le permite pensar, poseer y dirigir la razón; a la que el hombre "por una parte, la obedece; y, por otra, la domina y la piensa"[301]. Según descubrió Aristóteles, ese hábito corresponde a la inteligencia, no a la razón, que es instrumental y requiere ser dirigida. Es un conocimiento que no tenemos mediante ideas, sino que, precisamente, es lo que nos permite inventarlas y trabajarlas. Es una capacidad interna, una maestría cognoscitiva en la que cabe entrenamiento y mejora. A la musculación interna de la inteligencia, que se ejercita en hacerse más capaz de comprender, los clásicos la denominaron adquisición de hábitos o virtudes especulativas. "Hay dos clases de obras: la exterior y la interior. Lo práctico u operativo, que se distingue de lo especulativo, se dice en función de la ocupación externa, a la cual no se ordena el hábito especulativo. Por el contrario, éste se ordena al quehacer interno, que consiste en discurrir sobre la verdad, y en este sentido es un hábito operativo" [302]. Es un hábito operativo con cuyo ejercicio se adquiere el arte de pensar acertadamente. Si tal discurrir se consigue hacer bien, el hábito se denomina virtud (fuerza, vigor, capacidad) intelectiva, ya que considerar acertadamente la verdad es el "acto bueno del entendimiento"[303]. Si se hace mal y la persona se entrena para necia, no para inteligente, se dice que no adquiere virtudes intelectuales, sino vicios, porque no aumentan la capacidad de comprender, sino que la lesionan, menoscaban y deterioran. Los clásicos decían que el hábito de los primeros principios es innato, aunque también afirmaban que nacemos sin conocimiento alguno. No es una contradicción. Nacer dotados del empeño por comprender no significa que tengamos adquirido conocimiento alguno, aunque esa disposición es lo que nos permite obtenerlos. Los niños no tienen conocimientos, pero tienen una sorprendente capacidad de preguntar apenas pueden hacerlo. Son animales capaces de preguntar: pugnan por adentrase en lo desconocido; quieren saber, comprender. Preguntan hasta provocar la exasperación de sus padres. Les gusta oír historias y cuentos llenos de sentido. No disfrutan con las historias confusas que a veces agradan a la gente mayor por lo ingenioso de su estilo, aunque no tengan nada que decir. Les gustan los cuentos que cuentan algo que se puede comprender. Por más fantasiosas que sean, piden historias claras. No intuyen nada, sólo saben lo que se les cuenta, pero quieren saber. Como tienen pocas habilidades racionales, les bastan las explicaciones basadas en el Ratoncito Pérez y la Bruja Turuja. Luego les enseñamos las habilidades racionales que hemos desarrollado, y les decimos que sólo hay unos cuantos tipos de preguntas y de respuestas que aporten conocimientos. También les decimos que hay cosas que no se pueden saber, y les hacemos escépticos. Pero ellos originariamente no lo son, confían en que es posible comprender de veras. Los entrenamos para que aprendan ideas y adquieran habilidades racionales, pero no tanto en preguntar y comprender. No los adiestramos en desarrollar y muscular aquella capacidad espléndida de la que estaban dotados. Hacemos que se sometan a las ideas y a los métodos, pero no les enseñamos a señorearlos. Les decimos que "las cosas son así", y les aleccionamos para dejar de hacer preguntas incómodas, a las que llamamos inmaduras o impertinentes. Los metemos por carriles mentales y nos asombramos de que se rebelen, porque aquello no les basta. Sin embargo, cuando nos encontramos cuarentones y confusos, añoramos aquellos años en los que la claridad y la comprensión eran horizontes posibles: ponemos la juventud como meta porque con los años no hemos sabido hacernos sabios. Al recordar nos apenamos, pero seguimos ahondando la fosa afanados con unas habilidades racionales en las que hemos depositado nuestra confianza, y manejando ideas que no sabemos pensar. Creemos que ser inteligentes es solamente tener ideas y algún método para producirlas. Si alguno observa que el rey está desnudo, lo declaramos proscrito y ponemos a los expertos a trabajar para que consigan darle unas habilidades mentales políticamente correctas. Y, como para entender nuestra libertad todo lo que hemos conseguido inventar es la idea de «espontaneidad», intentamos hacernos «espontáneos». Salvo en los asuntos económicamente relevantes, que son los serios. Ahí no cabe espontaneidad alguna; hay que respetar las reglas. Las habilidades racionales mal dirigidas y digeridas pueden convertirnos en necios. Puede suceder que tengamos muchas ideas en la cabeza, pero que no sepamos pensarlas para valorar lo que dan de sí, ni qué es lo que permiten comprender. De este modo resulta imposible conocer lo que sabemos y lo que no. También nos entrenamos para necios si somos precipitados y dejamos de pensar, encandilándonos con la primera idea brillante que seamos capaces de producir o se nos ocurra: es el caso de muchos reduccionismos. También podemos caer en la peculiar necedad del escéptico, que deja de pensar porque decide que es imposible comprender. Otra forma de quedar atrapado es venerar la propia cultura, y renunciar a pensarla. Los filósofos griegos procedían de una cultura mítica. No dijeron: ésta es nuestra cultura, así es nuestra forma de pensar; respetadla. Se atrevieron a pensar, a ir más allá. Durante unos cuantos siglos de magnífico esfuerzo colectivo trabajaron sus ideas y sus formas de pensar. Mantuvieron la tensión cognoscitiva y se entrenaron para desarrollar unos espléndidos hábitos mentales. No se quedaron atrapados en los productos mentales que les ofertaba su cultura, ni se atrincheraron en los paradigmas cognoscitivos al uso. Fueron más allá de su cultura y superaron aquellos paradigmas. Nos enseñaron el camino para sobrepasar lo que no deja de ser un producto humano: las ideas y formas de pensar que respiramos en nuestro ambiente cultural. La cultura hay que poseerla, trabajarla, mejorarla; no hay que someterse a ella. Suministra conocimientos y habilidades racionales a nuestra inteligencia. Al mejorarla podemos comprender más, hacernos más inteligentes; podemos, incluso, hacernos mejores. Hay muchas formas de quedar atrapado en las ideas, en las que ya se tienen, sin poder ir más allá de ellas. Para alcanzar la libertad del pensamiento necesitamos ejercitarnos en los hábitos. "Si el conocimiento limitado es el conocimiento operativoobjetivo, sólo si además de las operaciones existen otro tipo de actos superiores, que son los hábitos, podemos abandonar el límite: si no, la limitación de nuestro conocimiento sería insuperable"[304]. Hoy producimos y distribuimos más ideas y símbolos que nunca:: sólo nos desconcertarán si no nos hacemos capaces de pensarlos, quedando encerrados en su barahúnda. Por último, para adiestrarse en adquirir los hábitos que nos hacen ser inteligentes y capaces de dirigir la propia racionalidad, los clásicos distinguieron tres campos fundamentales de musculación interior, que denominaron principios: identidad, no contradicción y causalidad. Son como las raíces o el fundamento donde arraigar un pensar que no quede atrapado en las ideas y habilidades racionales adquiridas. Si queremos ser capaces de comprender hemos de adiestrarnos a pensar según esos tres principios. Bien entrenados en ellos podemos darnos cuenta de la limitación de las ideas con las que conocemos lo que sabemos, y podemos ir más allá. Somos capaces de avanzar en la medida en que descubramos el amplio horizonte de comprensión que despliegan los primeros principios, para luego dirigir hacia él los pasos de la racionalidad. En ese caminar contamos con la inestimable ayuda de las máquinas racionales que acabamos de inventar. Es un viejo chiste el del borracho que, habiendo perdido las llaves en el portal de su casa, las buscaba lejos, bajo un farol de la acera. Decía: no es el sitio, pero aquí hay luz. Pues bien, siguiendo la metáfora, es tarea nuestra no ya buscar donde hay luz, sino inventar los faroles que nos permitan iluminar, y también mantenerlos encendidos: para eso sirve ejercitarse en el hábito de los primeros principios. No me importa repetirme: sólo entiendo según lo que yo mismo elaboro con mi inteligencia; sólo encuentro según lo que yo mismo pongo para buscar. Hay mucho en juego tras la noción de hábito, en particular el poder conquistar la libertad para nuestra inteligencia. "Estamos acostumbrados al mecanicismo, y eso nos hace dudar a menudo de que somos libres: no sabemos cómo lo somos, o decimos que también la libertad tiene que ser una condición inicial (...) La condición inicial es próton según el tiempo: su valor causal se ejerce desde la anterioridad temporal, lo cual quiere decir que, en el fondo, no hay nada nuevo. Esto lo solemos aceptar porque es uno de los ingredientes tópicos de nuestra cultura. Muchos aún piensan así porque no se han enterado de lo que comporta la cibernética, o han oído hablar de ella y no han modificado sus prejuicios, los postulados desde donde ven todo. Por eso, hablar hoy de los hábitos es imprescindible. No podemos aceptar la visión mecanicista, porque es reduccionista: no es una consideración integral de lo real, sino que prescinde de lo más importante de lo real: que se modifica como consecuencia de su funcionamiento: más cuanto más informático sea el sistema. Por lo demás, el sistema más informático es la inteligencia humana, al menos entre los seres de este planeta. Por tanto los hábitos tienen que darse ante todo en la inteligencia"[305]. Son los que me permiten inventar, dominar, armonizar y dirigir las habilidades racionales. Es decir, tener señorío sobre ellas y no estar esclavizado por ellas. Tener una inteligencia libre. Tendemos a oponer objetividad a subjetividad. Una persona objetiva se atiene a los "hechos"; mientras que llamamos subjetiva a la que "racionaliza" sus ideas sin tenerlos en cuenta. Esta oposición se basa en una pobre idea de la inteligencia humana heredada de la modernidad. Quien se limite a ser "objetivo" someterá su inteligencia a "hechos objetivos" o a unas "razones objetivas". Por su parte, el que es "subjetivo" esclaviza su inteligencia al vaivén de lo que se le pase por la cabeza. Ninguna de esas dos posturas es del todo inteligente, pues para ser "objetivos", es decir, capaces de tener ideas acertadas y comprender de veras, lo que se necesita es desarrollar la subjetividad, para que se haga más inteligente y no sea pobremente rígida o necia. Mucho más acertada es la postura clásica, también más acorde con la dignidad humana: consigue ser eficazmente objetivo (con muy buenos y acertados objetos mentales que le permitan comprender) sólo quien cultiva una subjetividad poderosa y profunda, armoniosamente fuerte, enérgicamente articulada, rica en hábitos y recursos. "La profundidad de lo entendido es mi propia profundidad"[306]. Ahora que las máquinas racionales nos sustituyen ventajosamente en la adquisición de habilidades, habremos de aprender a adquirir hábitos intelectivos. "En la sociedad postindustrial, la educación habrá de estar dirigida hacia la adquisición de hábitos intelectuales y prácticos que faculten a la persona para seguir aprendiendo toda su vida, es más, para hacer de toda su vida un continuo aprendizaje. Los hábitos a los que me refiero no son simples destrezas o habilidades. Son potenciaciones estables y dinámicas de la persona misma, enriquecimientos vitales, «capitalizaciones» -por decirlo así- de sus actividades cognoscitivas y morales. Adquirir hábitos es la única forma de no perder el tiempo, de que la vida no se nos vaya como agua entre las manos. Los hábitos son una memoria vital que remansa los aprendizajes positivos y los lanza hacia el saber nuevo"[307]. Salir del autismo Después de invitar a redescubrir el camino andado por los que inventaron la racionalidad, he de pasar a otra cuestión, que ellos no desarrollaron y cuyo hallazgo es reciente. Puede afirmarse que ha sido un descubrimiento realizado en el siglo XX, que es fundamental para entender el modo humano de ser inteligentes. Con él se puede ampliar el camino abierto por los clásicos y resolver algunas cuestiones que ellos no se plantearon. Cultivar los hábitos intelectivos, ejercitarse en las "acciones internas", es una forma de "comportarse con uno mismo". Pero la cuestión es circular: soy yo el que con mi inteligencia he de dirigir mi inteligencia. Esto plantea bastantes problemas, muy semejantes a los que he considerado para la autoconciencia. En el arsenal conceptual disponible hay pocas soluciones válidas. Si se consideran "los medios metodológicos, y los modelos ontológicos y teórico-epistemológicos que, desde la tradición filosófica, están a nuestra disposición para la tematización de la autoconciencia y de la relación consigo mismo. Se pueden mencionar tres modelos por los que se ha orientado la teoría tradicional de la autoconciencia. "El primero es el modelo ontológico de la sustancia y de sus estados, un modelo que ha determinado la tradición desde Aristóteles y que está profundamente enraizado en la estructura fundamental de nuestro lenguaje, en la estructura de sujeto-predicado. El segundo modelo es la llamada relación sujeto-objeto. Se supone como evidente que la conciencia es tener delante de sí o «representar» un objeto; que consiste en esta relación característica entre el sujeto y un objeto. Esto ha llevado a comprender la autoconciencia, y en general el comportarse consigo mismo, como una relación entre el sujeto y él mismo como objeto: uno se tiene a sí mismo delante de sí. El tercer modelo es el supuesto teórico-epistemológico de que todo saber empírico inmediato tiene que basarse en la percepción. Este supuesto condujo a que se comprendiera el saber de sí, y en general todo comportarse consigo mismo, como un percatarse interior (...) es claro a primera vista que los tres modelos fallan sin remedio para la comprensión del comportarse práctico consigo mismo"[308]. Para salir del atolladero, se podría pensar que la reflexión es el remedio; la concepción clásica de la inteligencia parece ponerlo en ella. En las páginas precedentes yo también he llamado reflexión a la capacidad que tenemos de conocer que la información es sólo información. Sin especificar demasiado qué sea la reflexión, también he dado por supuesta esa noción cuando hablaba de la artesanía de nuestras ideas y sobre los métodos de pensar. Pero, aunque corra el riesgo de caerme, he de cortar la rama en la que se apoyaban esas afirmaciones, porque está seca. He de buscar otro asidero para ellas. Para mostrar por qué soy del parecer que la reflexión no soluciona el problema, acudiré a la metáfora del ordenador. Todo lo que tengo es una red neuronal: si me cortan la cabeza y me privan de ella, ni conozco ni reflexiono. Ahora bien, ¿qué significaría reflexionar para una red neuronal? Sería tanto como poder salir de sí misma para poder mirarse. Si estuviera nimbado por un aura y pudiera hacer viajes australes alrededor de mí mismo, quizá podría conseguirlo. Mas, que yo sepa, no es mi caso. Si me habitara un fantasma, o el famoso ente submicroscópico, que sería la conciencia, quizá podría salir para darse una vuelta a mi alrededor y mirarme. Pero tampoco es mi caso. Si no puedo salir de mí para conocerme, ¿cómo pretendo contratarme como entrenador para mi inteligencia? Otra posibilidad es suponer que reflexionar es meterme dentro de mí para hacer una introspección. Pero ya he segado la hierba bajo esa idea al tratar la autoconciencia. Por más que aumente la información sobre mí mismo que tengo en el sistema neuronal de información, no podré saber que la información es sólo información, porque sólo tengo información para saberlo. Es decir, en términos informáticos: utilizando bits no puedo conocer que un bit es sólo un bit. Aunque pudiera, me introduciría en laberintos circulares que siempre me llevarían al mismo sitio: ¿con qué bits conocería los bits con los que conozco que un bit es un bit? Hasta aquí he tratado del sistema de tratamiento de información humano como si fuera autónomo, es decir, como si sólo dependiera de cada individuo en su ejercicio, dominio y dirección. Ahora bien, esto no es propiamente cierto: Las investigaciones psicológicas sobre el desarrollo cognitivo de los niños muestran la necesidad del contacto interpersonal, la comunicación y el diálogo para el normal desarrollo de las capacidades cognitivas de la persona. Tanto la psicología evolutiva, clínica y experimental como la psiquiatría ponen de manifiesto hasta qué punto es necesario el trato interpersonal para desarrollar y mantener formas de pensamiento coherentes. El estudio empírico de las etapas del desarrollo humano señala con claridad la necesidad de la comunicación y el diálogo para alcanzar una personalidad armónica, que llegue a tener pensamiento propio. En cualquier caso, es evidente que, "en el niño normal, las facultades cognitivas, sociales y lingüísticas están estrechamente relacionadas"[309]. Pero las evidencias empíricas más fuertes que poseemos acerca de la incapacidad de un individuo por sí sólo, de forma autónoma, de desarrollar eso que se llama "pensar" o "razonar" quizá vengan por vías negativas. Un primer ámbito de evidencias empíricas proviene de los casos conocidos de individuos desarrollados en ausencia de contacto con otras personas; su estudio muestra hasta qué punto es necesario el diálogo y el contacto interpersonal en el proceso de humanización de cada persona y para su normal desarrollo cognitivo. Así, por ejemplo, es notoria la degradación de las facultades mentales de los niños criados en extremo aislamiento, de forma que se han visto privados de la comunicación interpersonal. Es el caso de los ya citados niños salvajes[310]; así como de otros semejantes por haber sido mantenidos solitarios[311]; por carencias en los sentidos, como la famosa sordomuda Hellen Keller[312]; o en grave desamparo y deprivación de contactos humanos[313]. Un caso aparte lo forman los niños autistas, de los que aún no sabemos del todo qué tipo de lesión neuronal les incapacita para la comunicación. Pueden tener algunas habilidades racionales, incluso notables, pero no llegan a adquirir un comportamiento que se pueda denominar inteligente[314]. Igualmente, si los niños son criados en un contexto pobre en relaciones interpersonales, el desarrollo cognitivo se ve afectado enormemente. Esto puede suceder por tener entornos familiares deteriorados; por haber recibido atención insuficiente; o por reclusión en instituciones que hayan descuidado dar un trato personal idóneo[315]. Siempre que faltan unas relaciones interpersonales intensas y una comunicación dialógica normal, el sujeto parece incapaz de desplegar su propio pensamiento. Mucho menos es apto para dominarlo y dirigirlo. Además, no es que estas personas piensen poco pero de forma acertada; sino que se ven aquejadas con facilidad de verdaderas patologías cognoscitivas y déficits, a veces irreversibles, de sus facultades intelectivas. Si se atiende a la maduración equilibrada y sana de otros aspectos de la personalidad, como el afectivo, el deterioro alcanza igualmente unos niveles asombrosos. Por otra parte, el estudio de las enfermedades mentales, que afectan a la capacidad de diálogo interpersonal y a las aptitudes comunicativas, ponen de manifiesto que el pensamiento, si el individuo carece de posibilidades de diálogo, no se desarrolla o lo hace de manera más o menos desajustada, dependiendo de la fuerza de las incapacidades. Por otra parte, uno de los rasgos característicos de las enfermedades mentales más graves, como la psicosis, es la incapacidad de comunicarse: el psicótico, como mucho, sólo se escucha y habla a sí mismo, por lo que vive en un mundo irreal, que suele tener una sintaxis muy precisa, pero escasa semántica. En bastantes desequilibrios patológicos de la personalidad parte de la terapia se basa en la comunicación y el diálogo, ya sea con el psiquiatra (hasta los límites que ha popularizado el psicoanálisis más estricto, con diván y sesiones que se eternizan) o en terapias de comunicación de grupo. Asimismo el deterioro de las relaciones interpersonales y de la capacidad de diálogo produce patologías. Por ejemplo: las condiciones de vida impuestas en las sociedades industrializadas tienen como consecuencia dificultar en grado notable la calidad de la comunicación interpersonal; la organización social y el estilo de vida impone un cierto autismo, con el consiguiente deterioro del pensar. Esto ha tenido también consecuencias patológicas: "Los tres datos referidos como los cambios más característicos ocurridos en la psicopatología del siglo XX: la transformación de la histeria en neurosis visceral, el incremento de la morbilidad depresiva y la desdramatización de los cuadros psicóticos, comparten el radical común de hallarse impregnados de valencias autísticas e incomunicantes. Es por ello por lo que podemos afirmar que el específico emblema de la psicopatología neurótica y psicótica del siglo XX viene dado por el perfil del autismo"[316]. En el siglo XXI no parece que las cosas vayan a variar, sino para peor: el continuo deterioro de la calidad de las relaciones interpersonales así lo hace temer. Otras evidencias empíricas señalan cómo el pensamiento, para desarrollarse, necesita del diálogo. Con menos fuerza que lo que la psicología del desarrollo y la psiquiatría sistematizan, pero con mucha mayor cercanía, es común la experiencia de cómo expresar y expresarse es el camino para aclarar las ideas y aclararse. No podemos decir que sabemos algo hasta que no podemos expresarlo con claridad. En muchas ocasiones, sólo cuando aprieta la necesidad de expresar algo con exactitud (vgr: un examen) se llega a la conocer lo que se sabía y desconocía del asunto. También es habitual la constatación de que, para dominar un tema, no hay nada mejor que tenerlo que explicar; por ejemplo, en unas clases o en una conversación con un colega. Esto es así particularmente con el conocimiento y dominio propio, que parece necesitar como ningún otro del diálogo: nos conocemos, nos aclaramos sobre nosotros mismos al expresarnos en la comunicación interpersonal. Igualmente, la soledad se experimenta como vía de oclusión en la cárcel del un pensar que se vuelve laberíntico y sin salida. El hombre necesita transcenderse en el diálogo para no quedar atrapado en la pobretería de su soledad. La observación del desarrollo psicológico de los niños ha llevado paulatinamente a dejar de lado lo que la teoría de Piaget tenía de solipsista. Ahora el autor de referencia es Vygotski, y el paradigma dominante gira con preferencia alrededor del análisis sociogenético e histórico cultural del desarrollo cognitivo. Este autor merece que hagamos parada y fonda por un momento. Era un marxista convencido, que desarrolló su trabajo en la antigua Unión Soviética, donde falleció en 1934. Por esas cosas que pasaban por allí, cayó en desgracia y su obra estuvo prohibida en su país. Fuera de él su producción se conoció muy lentamente. Sus obras completas, sin las añadiduras a las que le obligaron los jerarcas del Partido Comunista Ruso, se han editado en las últimas décadas del siglo XX. Es un autor que ha irrumpido tardíamente pero con mucha fuerza[317]. Según Vygotski la conciencia y el control aparecen sólo en una etapa tardía del conocimiento. Para poder dirigir una habilidad cognoscitiva primero hemos de poseerla. La génesis de los procesos psicológicos cognoscitivos complejos va de fuera a dentro: primero son sociales y requieren la interacción con otras personas, luego el individuo los interioriza y domina. "El desarrollo consiste en una trasposición al plano intrapsicológico de los procesos que han estado antes presentes en el plano interpsicológico (es decir, de las relaciones con los demás); así, por ejemplo, no seríamos capaces de hablar y no desarrollaríamos una autoestima positiva (plano intrapsicológico) si no fuera porque antes nos han hablado y nos han querido y valorado (plano interpsicológico) quienes para nosotros son significativos"[318]. Piaget consideraba que la fase de "lenguaje privado" de los niños es una etapa inmadura, pues la cháchara que mantienen consigo no sirve a la comunicación. Vygotski, por su parte, considera fundamental el lenguaje privado de los niños, al que pone un origen social y comunicativo. Sirve para que los niños interioricen el lenguaje adulto, y desarrollen las funciones cognitivas más altas: atención selectiva, memoria voluntaria, planificación, formación de conceptos, y reflexión. Los recientes estudios se inclinan, frente a la más autista y solipsista de Piaget, en señalar la dirección correcta de la teoría de Vygotski[319]. Siguiendo esta línea de investigación, los psicólogos han llegado a convencerse de que "el lenguaje es, antes que ninguna otra cosa, un sistema para explicitar y negociar estados mentales, un sistema que permite la comunicación entre las mentes"[320]. Algunos explican esto acudiendo al expediente de dotar a los niños de una «teoría de la mente»; como si los bebés elaboraran hipótesis sobre las capacidades mentales de sus interlocutores. Otros hablan de la «estrategia intencional»: la inteligencia consiste en suponer inteligentes a los interlocutores. Algunos aplican esta idea para suponer inteligentes a la máquinas racionales: "La estrategia intencional consiste en tratar al objeto cuyo comportamiento se quiere predecir como un agente racional con creencias y deseos y otras etapas mentales que exhiben lo que Brentano y otros llaman intencionalidad"[321]. Me temo que, con esta suposiciones, aportan poca luz y no poca confusión a la cuestión. Un niño viene dotado de nacimiento de la misma «teoría de la mente» que pueda tener una cría de chimpancé. "Las habilidades psicológicas, que presuponen la atribución de estados mentales a otros, no son exclusivas de los humanos. Se dan en antropoides superiores, en chimpancés y gorilas y (quizá en menor grado) en orangutanes. Estos animales también son, en cierto sentido «psicólogos mentalistas». Sin embargo, sus capacidades psicológicas son limitadas cuando se comparan con las que tienen niños de pocos años"[322]. Los retoños de simio tampoco adquieren habilidades cognitivas y lingüísticas por mucha «estrategia intencional» que despliegue al dirigirme a él. Para llegar a ser inteligente parece que se requiere algo más. En cualquier caso, la forma de pensar inaugurada por Vygotski subraya la estructura dual y lingüística -es decir, interpersonal- del desarrollo de la intimidad. Aporta un buen inicio de solución para comprender cómo es posible la reflexión y el "salir de sí". "Por ejemplo, el tema de ascender «intelectualmente a niveles superiores» a través de la reflexión y de la conciencia de los propios actos -«metaconocimiento», como se denomina en la actualidad. Se deduce de la perspectiva de Vygotski que hay formas de diálogo e interacción que llevan más fácilmente a la reflexión que otras. Cualquier cosa que lleve al niño a distanciarse de sus propios actos, a girar en torno a su propia actividad, es probable que le conduzca a comprensiones súbitas y a ganar en perspectiva"[323]. Salir de sí a través de los otros: estupenda solución al problema de la reflexión y el comportarse consigo mismo. Darse y ser aceptado; escuchar y comprender, hablar y ser comprendido. Parece que la psicología experimental confirma la intuición de Jaspers: "El hombre sólo llega a su propio ser por conducto de «otro», jamás por el propio saber"[324]. Sobre la aportación de Vygotski sólo añadiría una cosa: padecía un ramalazo de Optimismo Semántico -como buen marxista creía en LA SOCIEDAD-, que pesa en parte sobre los que le han continuado. Se habla de LA SOCIEDAD y LAS RELACIONES SOCIALES hasta creer que tienen existencia propia. Sin embargo, no la tienen: son relaciones interpersonales. Lo que existe realmente es la persona, que abre su intimidad y quiere comunicarse en diálogo con otras. Se ha discutido si es primero el lenguaje o las habilidades cognitivas. Ni uno, ni otras. Lo primero es la persona, que inventa el lenguaje y las habilidades cognitivas en las relaciones interpersonales. Por lo demás, si se evitan esos escollos conceptuales, soy de la opinión que la aportación de Vygotski abre un buen camino para comprender. Sin comunicación no parece poder darse pensamiento propio ni lenguaje. Puedo afirmar, con pretensiones de autonomía adolescente, que mi cabeza y mis ideas son mías y de nadie más; puedo también pretender un pensamiento autónomo y autosuficiente, totalmente desligado de los demás; incluso puedo hacer un análisis filosófico del pensamiento que considere a éste casi como una operación que la persona puede hacer en solitario; pero la investigación psicológica y psiquiátrica pone de manifiesto hasta qué punto esas ideas son ajenas a la realidad experimental. La res cogitans, si quiere pensar de veras, es decir dominar y dirigir el propio pensamiento, carece de la autonomía que ha imaginado el racionalismo y que también ha supuesto una buena parte de la tradición filosófica clásica o "realista". La res cogitans (o el nous griego, tanto da) aislada no llega a ser pensante de ninguna manera, sino que cae en un autismo estéril. De la misma manera, tampoco cabe hacer una teoría "realista" del conocimiento si se deja de lado el carácter manifiestamente dialógico que presenta, estudiándolo como si fuera una capacidad o facultad que pueda desarrollar el individuo aislado. Es evidente, por el contrario, que para llegar a tener pensamiento propio necesito a los demás. Como consecuencia, no cabe hacer una filosofía del conocimiento, si quiere ser acertada en su semántica, que no tenga en cuenta la dimensión de apertura interpersonal, de comunicación y diálogo, que se pone de manifiesto en el conocimiento humano. Dicho de otra manera: si en el pensar humano lo primero característico y singular es la dimensión reflexiva de la verdad, para que pueda darse tal reflexión es necesaria la apertura interpersonal. Esto es así, no por ningún a priori metafísico -en el peor sentido de la palabra: como algo que no tiene en cuenta la realidad empírica-, sino por la misma fuerza de las evidencias empíricas que la investigación acumula. Sin embargo, este aspecto tan esencial no parece ser considerado en toda su importancia por la mayor parte de las diversas teorías filosóficas del conocimiento, ya sean de tipo inmanentista o realista. Ya se ha señalado más arriba que las más de las veces la discusión entre unos y otros aparece centrada en la cuestión de si la sintaxis -los objetos mentales o las ideas bien elaboradas y lógicamente relacionadas- tienen o no semántica. Ambas corrientes parecen desconocer, o al menos no lo subrayan suficientemente, la necesidad de que haya apertura interpersonal -salir de sí para alcanzar una posición excéntrica al propio pensar- para que se pueda dar esa reflexión. Para nuestro sistema de tratamiento de información el lenguaje es, a la vez e inseparablemente, instrumento de autoprogramación y de comunicación. Mediante el lenguaje no sólo elaboramos objetos semejantes a la realidad, sino que también nos comunicamos con los demás, poniendo así en relación mundos interiores simbólicos. Puestos a decidir cuál de esas dos funciones es primera y fundamental, parece que habría que inclinarse a favor de la dimensión comunicativa del lenguaje. Todos los datos experimentales señalan que el desarrollo del lenguaje como dominio del propio sistema de tratamiento de información tiene una dependencia estrecha e insustituible de la comunicación interpersonal. Las personas que carecen de posibilidades de comunicación o diálogo, quedan sin dominar al propio sistema de tratamiento de información; o lo hacen de manera muy incipiente y escasa. Igualmente, parece también claro que la forma más sencilla y directa de permanecer esclavizado a las operaciones automáticas y "espontáneas" del propio sistema de tratamiento de información es la de practicar el solipsismo por incomunicación interpersonal. Con ello se establecen, además, no pocos desequilibrios personales: es uno de los primeros factores que activan los elementos de labilidad psicológica del hombre, ya que la incomunicación hace que no se pongan en marcha los recursos cognitivos personales tanto en situación normal como patológica. Sartre decía que el infierno son los otros; sin embargo, más bien parece que, al menos para desarrollar mi inteligencia, el infierno soy yo, mi soledad. En definitiva, lo que parece claro es que no hay posibilidad de autoprogramación, dominio y dirección del propio sistema de tratamiento de información sin comunicación interpersonal. El ejercicio del pensar se muestra necesariamente unido a las relaciones dialógicas interpersonales, de manera que casi puede decirse que no existe pensamiento -mejor, capacidad de pensar- en solitario. Puesto que la capacidad de pensar se desarrolla dialógicamente, la comunicación interpersonal también parece necesaria para no quedar atrapado y limitado a los modos de funcionamiento ya conseguidos del sistema de tratamiento de información. Una vez adquirido el ejercicio del pensar, el diálogo sigue siendo necesario para poder salir y situarse en posición excéntrica respecto de las operaciones del sistema de tratamiento de información para dominarlas, dirigirlas y desarrollarlas. La insuficiencia de la teorías solipsistas o autistas de la inteligencia ha sido puesta de manifiesto también desde otros ámbitos. Por ejemplo, desde la reflexión sobre el arte: "El lenguaje existe, el arte existe, porque existe «el otro»"[325]. Como consecuencia, la conquista de la libertad depende de la intensidad y excelencia de las relaciones interpersonales: "Hacen falta dos libertades para hacer una"[326]. En el terreno de la antropología la insistencia en la necesidad del «otro» para la persona proviene de las filosofías del diálogo, con autores como Ebner, Buber, Rosenzweig o Lévinas[327]: sus hallazgos son interesantísimos para entender como el hombre es un ser constitutivamente dialogante, aunque haría falta mucho espacio para exponerlos y me van sobrando páginas. La filosofía analítica, la filosofía del lenguaje, es otro campo sobresaliente que recalca la misma cuestión. Habré de hacer una breve parada, porque tiene más que ver con el punto de vista desde el que enfoco el tema: la comparación de la inteligencia humana con las máquinas racionales y sus lenguajes simbólicos. Desde la perspectiva de la filosofía del lenguaje quizá haya sido Wittgenstein (en su segunda etapa filosófica) quien ha sabido criticar mejor la concepción solipsista del pensamiento y ha mostrado la imposibilidad del «lenguaje privado». "El solipsista revolotea y revolotea en la campana cazamoscas, choca contra las paredes, revolotea de nuevo. ¿Cómo se puede hacerle parar?"[328]. Los límites de la propia forma de pensar son la campana de cristal contra la que continuamente choca el solipsista que quiere ser autónomo y solitario. Con el solipsismo el pensamiento acaba perdido en el laberinto de las propias ideas, en el caso que consiga llegar a tener algo semejante a ideas propias, y no variantes caleidoscópicas de los tópicos al uso. Para el solipsista el lenguaje es vericueto sin salida que sólo sirve para dar vueltas y revueltas, con las que, quizá, incluso consiga llegar a hacer alguna floritura lingüística vendible. Puede también quedar encerrado en una racionalidad estrecha y sin semántica alguna, a la que cabe aplicar la definición que Chesterton daba de la locura: "Loco es aquel que ha perdido todo menos la razón". El solipsista, como mucho, consigue quedar atrapado en una racionalidad que por sí misma -de nuevo Gödel- no asegura siquiera su coherencia interna. A caballo entre el análisis del lenguaje y lo que luego se ha llamado psicología social (que yo prefiero llamar interpersonal) se encuentra Mead[329], un autor muy influyente que llega a conclusiones similares. "Según Mead el comportarse consigo mismo ha de ser entendido como un hablar consigo mismo y éste como internalización del hablar comunicativo con los demás. El comportarse consigo mismo, entonces, está esencialmente condicionado tanto lingüísticamente como socialmente, pero para Mead existe también la relación de condición inversa, pues sólo entes que se pueden comportar consigo mismos de modo que pueden hablar consigo mismos, pueden hablar en la forma específicamente humana de lenguaje y pueden tener la forma específicamente humana de sociabilidad, o sea, una sociabilidad normativa. La tesis de la relación entre leguaje y sociedad normativa es antigua -se remonta a Aristóteles[330]pero la inclusión del comportarse consigo mismo en este complejo de condiciones es nueva"[331]. Desde posiciones enraizadas en la gran corriente de la filosofía más clásica también se hacen afirmaciones que insisten en el carácter locutivo y comunicativo del pensamiento, en el que muestra su mayor perfección: "El entendimiento, no sólo por indigencia y en razón de ausencia o desproporción del objeto, sino por su propia naturaleza y perfección es, a la vez, cognoscitivo y manifestativo y locutivo. De modo que el decir mental, formador del concepto y el enunciado conceptual, es el entender mismo en cuanto acto emanativo de la propia plenitud y perfección del inteligente en acto"[332]. "A la función expresiva del lenguaje mental, y a su originación desde la plenitud y actualidad del conocimiento en su grado más pleno, es decir, el entender, no consiste únicamente en la posesión aprehensiva de lo entendido, sino que también, formalmente, en virtud de su naturaleza, el entender es un acto manifestativo y locutivo. «El entendimiento tiene un ser expresivo», «el entendimiento es manifestativo y locutivo por su propia naturaleza»"[333]. "La palabra humana está orientada desde el principio hacia la comunicación, como el hombre en general está desde el comienzo volcado hacia fuera. Sin palabra exterior al menos esbozada, sin intención verbal, no existe palabra interior plenamente formada, sino un pensamiento evanescente y sin contorno, un pensamiento rápidamente cubierto por el olvido. El hombre es un animal hablante y significante; sólo se revela a sí mismo al revelarse a los otros (...) El sujeto sólo puede conocerse plenamente por mediación de los otros sujetos"[334]. Sólo puedo hablar cuando tengo con quién hablar, es decir, si hay otra intimidad con quien comunicarme. Igualmente, tampoco puedo hablar si no poseo una intimidad que comunicar. Sin estos dos elementos (dos intimidades personales en diálogo) sólo se puede decir nada a nadie, cosa que ya hace una piedra con toda honradez y propiedad. Por consiguiente, sólo hay lenguaje verdaderamente expresivo, y no mera acumulación de símbolos, cuando hay motivo para comunicar la propia intimidad a otra intimidad que se reconoce como tal. Por ello puede decirse que "el origen del lenguaje es la fiesta: «est autem sermo quedam cantus obscurior» (Cicerón) (...) El lenguaje nace de la fiesta porque sólo la fiesta me saca fuera de mí, y, así, me hace hablar"[335]. Sin comunicación interpersonal no hay lenguaje; sin lenguaje no hay posibilidad de dominar y dirigir el sistema de tratamiento de información. De esta manera, si se prescinde del carácter comunicativo y expresivo del conocimiento, se deja a la inteligencia en precario, se anula la libertad del hombre, y se elimina de raíz su capacidad creativa. "La praxis, la actividad deliberada y libre por la que el hombre opera en orden al bien humano como tal; la poiesis, técnica o arte en la que la causalidad racional humana ejerce una eficiencia reveladora de la soberanía del espíritu sobre la «naturaleza», serían imposibles en su raíz, si el conocimiento no consistiese sino en simple presencia inmediata de lo conocido, no expresada en la «palabra del hombre». Ninguna libertad podría ser afirmada ni en lo finito ni en lo infinito; ninguna creatividad, eficiencia del ser de los entes en la creación divida, o conformadora racionalmente de los productos del arte humano, serían posibles, si el espíritu consciente de sí, poseedor originariamente, o por apertura intencional, de la esencia del ente, no fuese en sí mismo expresivo"[336]. Por consiguiente, se debe insistir mucho más en el enraizamiento del entender en la persona y en su capacidad de apertura y comunicación de la propia perfección e intimidad, más que quedarse en concebir el pensamiento como mera recepción pasiva de formas, como ha hecho la manualística que quería exponer la concepción clásica de la inteligencia. A la conocida expresión clásica que afirma que, por el intelecto, el alma es en cierta manera todas las cosas, hay que añadir: siempre que tenga a alguien junto a sí con quien dialogar y comunicarse. Porque "entender es hacerse otro. Justo al contrario de lo que Hegel decía, en mi interpretación la operación de entender no se ejerce como unión consigo mismo a través de lo otro mediante una especie de nutrición intelectual, sino como un hacerse uno mismo, dentro de sí, otro. El fin de la intelección no es entenderse, sino abrirse a la alteridad, o mejor, abrir en uno mismo la alteridad"[337]. Por esa alteridad ínsita en el acto mismo de conocer es por lo que puede afirmarse que "entender es la operación que instituye la comunidad. Entender no es mero entenderse, no es clausura en sí mismo, sino apertura universal. «Hacerse otro» es albergar lo otro cabe sí, es abrir en el propio acto un espacio para los demás, y un espacio coactual, o sea, del mismo rango y naturaleza que el entender. Sin este otorgar el mismo estatuto a lo otro que a lo propio no habría comunidad alguna, pues la comunidad no es mera yuxtaposición externa, sino la inclusión de lo otro dentro de uno, o dicho más exactamente, el compartir el acto propio con los demás. No hay aquí dialéctica alguna, porque la dialéctica es pensamiento trófico, pero hacerse otro es la antinutrición por excelencia: en vez de transformar lo otro en uno o utilizar lo otro como medio para el autoconocimiento, es otorgar a lo otro el propio acto, acoger a lo otro como otro dentro de uno"[338]. Cosa que, propiamente, sólo se puede hacer con otra intimidad personal y, después, con todo lo demás que es «nombrado» en el diálogo interpersonal. Si entender es la primera operación que instituye la comunidad, el entender humano está en la base de carácter social -interpersonal, de apertura y relación con otros- que el hombre tiene por naturaleza. Esto es así porque el entender mismo tiene carácter social, lo cual se puede mostrar atendiendo, en primer lugar, al iniciarse del conocer y, en segundo lugar, a su crecimiento. Respecto del inicio del conocer, en tanto que supone dominar la operación del sistema de tratamiento de información, en el animal humano no parece que se pueda dar ese dominio sin el «salir de sí» que se da en el diálogo y en la intercomunicación personal. En lo que al entendimiento se refiere, el hombre es social por naturaleza porque para dominar la racionalidad, para desarrollar el lenguaje, para no quedar atrapado en el automatismo de las operaciones de su sistema de tratamiento de información, necesita de los demás. El «otro» es el que hace posible las operaciones en las que se despliega el conocimiento. Esto es así tanto respecto del conocimiento de las cosas externas, como del conocimiento propio. El hombre alcanza el conocimiento del «yo» sólo en la relación interpersonal con el «otro», con el que se comunica en diálogo. Si falta ese diálogo el «yo», o permanece desconocido -niños salvajes-, o perdura sumido en una oscuridad caótica -enfermos mentales-. Sin la comunicación interpersonal el «yo» se repliega sobre sí mismo para ingresar en una noche autista, o cae en la ruptura psicótica con la realidad. Los datos empíricos, también los que provienen del estudio del desarrollo psicológico en la infancia y adolescencia, no dejan lugar a dudas. Es más, cada vez resulta más claro y manifiesto que la calidad, equilibrio, e intensidad del propio yo dependen de la calidad, armonía e intensidad de las relaciones interpersonales. Igualmente sucede si se considera el crecimiento del conocer humano, una vez que ya ha iniciado el despliegue de sus operaciones. En este caso las evidencias empíricas que suministran la evolución de las culturas; el desarrollo de las ciencias; la acumulación de saberes en cualquier ámbito; el planteamiento de nuevos problemas; la apertura de campos inéditos; el hallazgo de soluciones; etc., muestran sobradamente que el crecimiento del conocer humano también tiene un carácter interpersonal. En este caso son las limitaciones del propio sistema de tratamiento de información las que lo hacen necesario, por más que se le domine y dirija de manera adecuada no es capaz sino de realizar un trabajo muy limitado y sólo consigue abarcar con profundidad áreas relativamente pequeñas. En cualquier ciencia, o en el mismo uso del lenguaje, se utiliza el trabajo acumulado y sintetizado por muchas personas a lo largo de mucho tiempo. El carácter interpersonal del aumento del conocer es indudable. Esta naturaleza interpersonal es la base del carácter social, cultural e histórico del conocimiento humano, así como de la posibilidad de que sea acumulativo o regresivo. Sin embargo, estos dos aspectos interpersonales del conocer -primero, posesión y dominio de las operaciones y, luego, su desarrollo- son distintos y conviene no confundirlos. El primero es intrínseco o esencial al conocer y es el más fundamental; con él se subraya el carácter dialogal del intelecto, su capacidad de apertura radical a otro. Esa capacidad de comunicación interpersonal es la que está en la base de las peculiaridades de la sociedad humana, que la hacen distinta de las sociedades animales: es sociedad de personas en comunicación y diálogo; no sólo organización o estructura, o conjunto de símbolos comunes. También es la que hace posible el dominio y desenvolvimiento de la racionalidad, con lo que se pone en marcha el aspecto cultural e histórico del conocer y surge lo que ahora, de forma reductiva, se suele llamar «social». A pesar de que este primer aspecto interpersonal del conocer humano es el más fundamental y definitivo, sin embargo ha sido poco desarrollado filosóficamente. Se ha prestado más atención al segundo, que sólo es su consecuencia: el dominio y despliegue histórico de la racionalidad como cultura. Pero si la cultura se da en el hombre con características únicas y bien diversas a las de las culturas animales es únicamente porque es capaz de diálogo interpersonal, con lo que puede salir del sistema de tratamiento de información para dominarlo y dirigirlo. De hecho históricamente las culturas parecen morir cuando les falla ese fundamento de la comunicación interpersonal y quedan reducidas a la evolución automática de un conjunto de representaciones y de símbolos. Pero esto ya es otra cuestión. Precisamente en este campo asistimos al nacimiento de una nueva era por la existencia de las máquinas racionales, junto con todos los estupendos procedimientos que ha surgido para acumular, trasmitir y analizar la información. Facilitan enormemente el intercambio de conocimientos y las relaciones entre personas que antes ni habrían soñado con poder entrar en comunicación; cada vez más personas, en cualquier lugar del mundo, pueden intercambiar información, transmitir conocimientos, y confrontar ideas. Están haciendo que el aspecto interpersonal, objetivado, del conocimiento humano tome unos derroteros nuevos, extraordinariamente prometedores. También ofrece nuevos peligros, que han aparecido en la figura de esos autistas informados que se vuelven adictos a Internet. Como siempre, también aquí los medios sólo son medios, y nada nos dicen de los fines, de la dirección que hemos de darles para que perfeccionen. CONCLUSIÓN: VIVIR INTELIGENTEMENTE Es hora de concluir obteniendo alguna moraleja que nos ayude a forjarnos como Cybersapiens, y no devenir informávoros aturdidos. Centraré la atención en dos conclusiones que me parecen especialmente importantes ante la revolución puesta en marcha por las máquinas racionales que acabamos de inventar. Se trata, primero, de las virtudes intelectivas y, en segundo lugar, sobre la necesidad del diálogo interpersonal. Comenzaré por tratar las virtudes, porque la palabra "virtud" ha tenido muy mala prensa, suena a moralina, y requiere alguna introducción para mostrar su importancia. Parece claro que las máquinas racionales van a modificar nuestra forma de estar en el mundo. Los arúspices sociológicos diseccionan con sus navajas estadísticas las entrañas de la sociedad para otear su futuro; vaticinan que, gracias a las máquinas racionales interconectadas a través del mundo entero, nos dirigimos hacia la sociedad de la información. Bienvenida sea. La cuestión ahora es ver si conseguiremos hacernos capaces de estar a la altura de ese invento nuestro, o seremos engullidos por él. Ya nos ha sucedido con tantos otros inventos estupendos, que nos han encandilado y no hemos sabido digerir de manera sana. ¿Seguiremos corriendo muy rápido hacia ninguna parte, o seremos capaces de orientar nuestros pasos hacia metas más plenamente humanas? Algunos, de manera optimista, denominan «sociedad del conocimiento» a la sociedad de la información que se avecina. Hay otros que no son tan confiados: "Tal conocimiento puede ser compatible con un cierto grado de inconsciencia que no reflejaría un dominio del saber sino, más bien, una forma precisa y curiosa de ignorancia"[339]. La sociedad de la información puede serlo también de la ignorancia, no del conocimiento. "La ignorancia de todos y cada uno que encuentra un consuelo fácil en la tipografía de los titulares de moda, en las ondas y en los bits que las transportan por doquier expandiendo un reino de uniformidad, mediocridad y ceguera intelectual"[340]. Puede ser una sociedad de necios informados, pero no menos necios por ello. Personas que, por estar informadas, creen que saben, pero no comprenden nada porque no se han entrenado a pensar. Una persona que ocupe sus neuronas en temas minúsculos o necios, se condena a ser una necedad atareada. Otra que comience su día conectándose a Internet para estudiar atentamente su horóscopo, y según él dirija su vida, se condena a vivir neciamente, empeñado en verse como una especie de marioneta o pelele movido por hilos que controlan los astros. Hay muchas formas de entrenarse para ser necios bien informados, incluso eruditos. Identificar la abundancia de información con el conocimiento y la capacidad de comprensión es una precipitación. Una información profusa y exuberante no es sino ruido para quien no es capaz de tratarla de forma conveniente, para quien carezca del potente software mental que tanta información exige para ser asimilada. La sociedad de la información puede ser también la del aturdimiento y la perplejidad para el que se haya dotado de escasos recursos cognoscitivos. Para sacar adelante la sociedad de la información bastan las máquinas racionales, que adquieren, almacenan y tratan mucha más información que cualquier animal humano; además, con una velocidad y precisión inigualables. Para establecer la sociedad del conocimiento quizá hagan falta, además, personas que se entrenen para ser inteligentes y para vivir inteligentemente. Llegado a este punto he de deshacer algunas confusiones. La Edad Moderna tiene fama de ser una época antropocéntrica; algo que unos consideran su mayor acierto y, los del equipo contrario, como la mayor desgracia que ha traído. Se suele decir que la Modernidad ha puesto al hombre en el centro y el quicio de sus reflexiones filosóficas. Discrepo de ese parecer, al menos en lo que a la inteligencia se refiere. La Edad Moderna es la de la oposición sujeto-objeto; la del planteamiento dialéctico de la relación entre la persona y sus ideas u objetos mentales. En ese falso enfrentamiento la modernidad se ha decantado por la primacía del objeto sobre el sujeto. Su versión actual es la primacía de la información sobre la vida inteligente de las personas. Para la Modernidad el saber corre a cargo del objeto mental y de su intrínseca racionalidad. No es tarea de la persona, que sólo asiste como conciencia, es decir, como espectador y no como protagonista. Las ideas y las teorías pueden ser inteligentes, pero no las personas. Así LA RAZÓN o LA CIENCIA devienen más importantes que las personas que conocen, y que las ejercen. Las personas, si quieren ser inteligentes, deben someterse al método racional; a las ideologías (objetos mentales que se quieren definitivos); a la cultura (conjunto de objetos mentales comunes a un grupo); o a cualquier constructo semejante al que se otorgue la primacía. No es cierto que la Edad Moderna sea antropocéntrica: no está centrada en el hombre, en la persona. Su centro de gravedad, alrededor del cual gira constantemente, es el método, son los medios, a los que somete la inteligencia humana y la entera persona. Focaliza su atención en las técnicas, a las que somete el pensar y actuar humanos. Esclaviza al hombre y lo somete a sus inventos, racionales o técnicos; lo hace sujeto pasivo de los artificios ideológicos o de las ingenierías sociales. Después de someterlo a multitud de horrores, acumulados especialmente en el siglo XX, ha terminado por negar al hombre, a la persona. Los últimos coletazos de la Modernidad, antes de agotarse en la postmodernidad, con autores desde Lévy-Strauss a Barthes, de Foucault a Derrida o de Althusser a Baudrillard y teorías como el estructuralismo o el deconstructivismo, llegaron a hablar de la muerte del hombre, de la disolución del sujeto. Desde su punto de vista tienen razón, porque no se puede entender ni pensar la persona cuando sólo se considera la estructura del lenguaje, o el texto que puede ser deconstruido. Es un defecto común a la modernidad en que al final se ha caído en la cuenta: el sujeto, la persona, no es pensado y, por tanto, no comparece en los montajes conceptuales fabricados en la Edad Moderna; o lo hace en precario. La teoría del conocimiento elaborada en la Edad Moderna no es antropocéntrica, ni fomenta la libre autonomía humana que busca ser inteligente. Mucho más antropocéntrica que la moderna es la teoría del conocimiento elaborada por la tradición filosófica que parte de Aristóteles. Para los clásicos, la operación de conocer es inmanente, vale decir, en terminología moderna, subjetiva. Pensar, en primer lugar, es algo que hago yo y lo realizo interiormente. Es un acto o perfección que depende de la misma perfección del sujeto y que, si se hace bien la operación cognoscitiva, aumenta la perfección intrínseca de la persona cognoscente: la hace más capaz de conocer, de comprender con más hondura. Ser inteligente, llegar a pensar y vivir inteligentemente, es algo que corre a cargo de la persona y de sus actos libres. No hay así oposición entre lo objetivo y lo subjetivo, pues los mejores objetos mentales, los que aportan más conocimiento y comprensión, sólo son elaborados por subjetividades que se han hecho capaces, que no se encandilan con la primera idea atractiva que encuentran, sino que la piensan en serio y se atreven a ir más allá de las ideas trilladas. Otra confusión heredada es la siguiente: En ocasiones se plantea la diferencia entre la filosofía clásica y la moderna como una oposición entre realismo cognoscitivo e inmanentismo. La filosofía clásica sería realista, trascendente; la moderna, por el contrario, inmanentista. No estoy de acuerdo con esta visión de las cosas. Es un error atribuir tal inmanencia a la teoría cognoscitiva elaborada por la modernidad, que tiene más bien una pobre idea de los actos inmanentes de la persona. El inmanentismo moderno es escasamente inmanente. En la mayor parte de las teorías cognoscitivas modernas la persona no es actor, sino espectador de su pensamiento. Así, por ejemplo, Kant considera que mi inteligencia viene dotada de unos ordenados casilleros (las categorías), y que pensar consiste casi únicamente en introducir las ideas en su casilla correspondiente. El orden viene dado de fábrica y mi tarea es colocar cada cosa en su sitio en el almacén mental, en el que yo no mando para nada: no lo determino ni puedo diseñar otros tipos de almacenes conceptuales. En el fondo soy un empleado de mi razón, no su dueño. La escasa inmanencia del la teoría cognoscitiva moderna es la causante de oponer objetividad a subjetividad. La dialéctica sujeto-objeto es típica de la modernidad y trae más bien confusiones, porque el conocimiento es siempre objetivo, pero el sujeto -la persona- no se limita a asistir como mera conciencia al despliegue de sus objetos mentales. Precisamente el problema del conocimiento humano es que es siempre objetivo, sea verdadero o falso, claro o confuso, aporte comprensión o aturdimiento. Objetivos somos siempre, es lo que no nos queda más remedio que ser. No podemos conocer sino elaborando objetos mentales: ideas, imágenes, modelos, teorías, razonamientos, etc. El producto neto del ejercicio de nuestra inteligencia siempre son objetos mentales: nada más y nada menos. Siempre conocemos no la realidad, sino los objetos mentales que hacemos acerca de ella. Conocemos mediante ideas, que no nos dicen nada de si mismas: si son verdaderas o falsas, inteligentes o estúpidas. De las ideas no podemos salir para conocer directamente la realidad, ni para intuir, ni para ir más allá de ellas. Pero si podemos trabajarlas, mejorarlas, para conocer y comprender más mediante nuevas y superiores ideas. El que no lo hace, aquel que cree en sus ideas, queda atrapado en ellas: su conocimiento será irremediablemente objetivo. La cuestión, por tanto, no consiste en ser más o menos objetivos: reitero que siempre lo somos queramos o no. Más bien el intríngulis del asunto está en cómo dotar a nuestra subjetividad personal de talentos que nos hagan capaces de trabajar y mejorar nuestros objetos mentales. Hacer de nuevo a la persona protagonista de su conocimiento es una buena tarea para emprender, a la que compensa dedicar esfuerzo. Así no habrá que decir a nadie: sé más objetivo; sino: procura ser más subjetivo. Es decir, dótate de recursos cognoscitivos, crece. Ten una subjetividad mayor y mejor, más cultivada, más capaz de entender y conocer. Desarrolla tu capacidad de ser inteligente, no te quedes con medias respuestas, busca comprender de veras. Atrévete a pensar, párate a pensar, y piensa en serio. Entrénate para estar a la altura de la inteligencia que posees, sin ocuparla en necedades o intentar calmar tu ansia de saber con sucedáneos. Aún otra posible confusión más: es frecuente escuchar que uno de los peores males de nuestra época es el relativismo: en parte estoy de acuerdo con el diagnóstico. Sin embargo, aquí tampoco coincido del todo; porque las más de las veces se intenta remediar ese mal invocando la existencia de una "verdad objetiva", situada más allá y fuera de la persona que conoce, e independiente de ella. Apelar a la existencia de la "verdad objetiva", como recurso frente al relativismo, me parece que es dar una salida falsa a la cuestión. Con ese remedio precipitado se reedita el mundo de las ideas, el etéreo nous uranós platónico, que Aristóteles hizo descender a la tierra y puso a disposición de la persona que conoce. También se comete el error de dar un lustre nuevo a los errores modernos, que defienden la razón y sus productos por encima y con independencia de las personas, que son las que han de procurar ser inteligentes. No hay una "verdad objetiva" al margen de la persona que con su inteligencia elabora trabajosamente las ideas u objetos mentales para conocer y comprender. La realidad no viene acompañada de un aura de ideas flotantes, que son objetivas porque acompañan a la realidad como fotocopias explicativas anexas. Producir ideas es tarea mía; no las encuentro hechas, ninguna realidad me las da adjuntas. En algunas críticas habituales al relativismo hay una confusión básica: olvidar que todo conocimiento es, en efecto, relativo a las capacidades cognoscitivas de la persona. Porque conocer es una operación inmanente: se da en el interior de la persona y depende de su perfección intrínseca, de los recursos con que se haya dotado para conocer. El relativismo, por tanto, es inevitable; la cuestión es respecto de qué hacemos relativo el conocer. Para la Modernidad el conocimiento era relativo al objeto mental, no a la persona, reducida a conciencia que levanta acta de lo que se le pasa por la cabeza. Según la clase de objetos mentales que se fabriquen, y que se consideren óptimos o simplemente posibles, resulta todo lo que es viable comprender. Así surgen los relativismos historicistas, o los que todo lo hacen pasar por las relaciones sociales... También hay quienes hacen depender el conocimiento del lenguaje, o de los genes, o de los objetos mentales que provee la cultura, o de aquellos que se trabajan en el propio campo científico, etc. Pero decidir luego que sólo se puede conocer eso, es reducir la capacidad humana de pensar y comprender a los estrechos límites de unos cuantos objetos y métodos mentales que unos pocos han decretado que son los únicos válidos. Además, como nos hemos vuelto postmodernos, ya no creemos en la bondad de ningún método único, ni admitimos que haya objetos mentales omnicomprensivos: hemos matado las ideologías. Sin embargo, como hijos de la Modernidad, seguimos creyendo que el conocimiento depende más de las ideas que de la persona que conoce. Salvo que ahora ya no sostenemos la existencia de unas ideas superiores a otras; ni confiamos en ningún método que las haga infalibles y absolutamente válidas en todas partes para siempre jamás. Por ello nos conformamos con defender nuestras ideas, las que se me pasan por la cabeza, pero de forma respetuosa y no fanática, como simples opiniones, que todas son válidas y respetables. Hartos de los dogmáticos, y a menudo sangrientos, defensores de una única "verdad objetiva", hemos pasado a defender un calidoscopio múltiple de pequeñas "verdades subjetivas", que lo son para mí; y, por favor, respétalas como yo respeto las tuyas. Ni tu, ni yo comprendemos nada, ni sabemos cómo hemos de pensar para conseguirlo, pero respetemos nuestras respectivas ignorancias, y que se pudra cada uno en su rincón conceptual; con gusto, porque es el rinconcito propio. Con esta actitud no es que renunciemos a la "verdad objetiva"; renunciamos a pensar, sin más. Quien defiende lo primero que se le pasa por la cabeza porque es su opinión; y no sólo pide que la respeten sino que -y esto es lo más grave- él mismo se la cree, renuncia a pensarla. Ese tal afirma irreflexivamente todo lo que se le ocurre, pero no dirige ni manda en su pensamiento. Jamás conquistará su libertad respecto de la ideas para trabajarlas y mejorarlas: le pasa o le sucede que piensa de una forma determinada, pero no podrá hacer nada al respecto. No es el actor y protagonista de su pensar, no podrá conquistar la libertad para su pensamiento. Sólo quien se atreva a pararse a pensar en serio sus ideas será capaz de descubrir que son relativas, limitadas, parciales; que sólo conoce lo que conoce y según él es capaz de pensarlo, según los instrumentos conceptuales y los modos de pensar con los que cuenta en ese momento. Si busca de veras saber y comprender, será también el primer interesado en buscar más información; querrá contar con otros puntos de vista, e indagará formas de pensar que aporten más comprensión. Es decir, sólo quien cae en la cuenta del relativismo de sus ideas, y se toma en serio su inteligencia, es capaz de salir del relativismo. La solución al relativismo no pasa por invocar la existencia de una "verdad objetiva" frente a una babel de minúsculas opiniones descerebradas sostenidas por inteligencias insolventes. Pasa, más bien, por devolver a la persona el protagonismo de sus operaciones cognoscitivas, para que se haga capaz de conocer y comprender dotándose de hábitos, creciendo en capacidades, adquiriendo virtudes intelectivas. Por eso sostengo que proseguir el camino abierto por la perspectiva filosófica clásica es ahora muy necesario. Ese camino no está concluido, únicamente ha sido apuntado. El tratamiento clásico de las virtudes intelectivas sólo es incipiente. Aristóteles hizo los trazos de un esbozo en la Ética[341], pero no desarrolló el cuadro. Señala cinco virtudes en las que ejercitarse si se quiere llegar a pensar bien. Tres son hábitos teóricos: el de la ciencia, el de los primeros principios y el de la sabiduría. Los otros dos son prácticos: la prudencia y el arte. Sus continuadores añadieron poco más a aquellos apuntes primerizos: bastaban para sus necesidades. Era una conquista notable, que no ha sido continuada, respecto de la cual la Edad Moderna supone un retroceso. "Parte de aquello que pone a la tradición filosófica que va de Sócrates a Tomás de Aquino en conflicto con el pensamiento filosófico de la modernidad, sea enciclopédico o genealógico, fue tanto su modo de concebir la filosofía como un arte, una techné, como su concepción de lo que tal arte es en buenas condiciones"[342]. Aquellos filósofos clásicos se interesaron por los modos de cultivar el arte de pensar y vivir inteligentemente. Les preocupó más cómo entrenarse en pensar bien y a fondo, que perderse en los productos de tal ejercicio, por muy buenas ideas que fueran. Nunca olvidaron que es la persona quien ejerce el pensar, y que comprender corre a su cuenta, no va a cargo de la ideas. Iniciaron un tema de investigación que luego se ha abandonado, también por parte de muchos que decían continuarlo pero acabaron empantanados en la defensa de la "verdad objetiva", con olvido de la persona que conoce y comprende. Haríamos bien en retomar ese camino y proseguirlo si queremos transformar la incipiente sociedad de la información en una verdadera sociedad del conocimiento. En caso contrario será una sociedad del ruido y el aturdimiento, porque la mucha información que no puede ser asimilada no es sino ruido. En esa algarabía dominarán los que griten más y tengan más medios para hacerse oír. La deseable sociedad del conocimiento sólo será posible en la medida que las personas nos entrenemos a ser inteligentes, a vivir inteligentemente. De camino meteríamos a la ética por caminos inteligentes, en vez de condenarla a transitar confusos senderos voluntaristas trufados de un sentimentalismo bonachón. La ética no es otra cosa que el arte de vivir humanamente, de perfeccionar y plenificar la propia existencia. Para la capacidad humana de ser inteligente la dimensión ética tampoco es otra cosa que el empeño por vivir a la altura de la propia inteligencia. Lo diré en forma de sentencia: sólo se puede vivir humanamente si se procura vivir inteligentemente. En terminología clásica: el acto humano, o es inteligente, o no es humano ni es libre. Es tan sólo lo que denominaban un acto del hombre: un acto con déficit de humanidad, por debajo de lo que queda a la altura de la vida humana. "Lo que constituye una operación vital es saber, llegar a saber, aprender. El conocimiento es el rendimiento de un organismo vivo que se enriquece, que llega a ser más, que avanza hacia sí mismo. Los humanos no poseemos un saber innato ni podemos adquirirlo como el que se apropia de un bien mostrenco, por el simple procedimiento de fotocopiar unos apuntes, mirar la pantalla de un ordenador, escuchar una clase o leer un libro. El saber no es naturaleza sino praxis vital, así como la huella que el renovado ejercicio de esa actividad vital deja en nuestros cuerpos y en nuestras mentes. La ignorancia del carácter vital del conocimiento es el primer fallo que está detrás de esa retórica al uso acerca de la nueva galaxia postindustrial. Se trata de un equívoco acerca de la misma índole del saber; equívoco que, además, implica pasar por alto la dimensión ética del conocimiento. Porque resulta que la ética se encamina hacia el logro de una vida plena. La ética no es una especie de armatoste constrictivo, impuesto por no se sabe quién, que viniera a aguarnos la fiesta con sus mandatos y prohibiciones. La ética es una disciplina práctica que persigue la intensidad de la vida humana, que responde al interés que todos tenemos en que nuestra vida se logre y no se estrague"[343]. La vía abierta por los clásicos tuvo escasa continuación. La ética desarrollada en la manualística -que decía partir de ellos- deja al hombre y a su libertad (origen de la ética) prácticamente reducidos a la voluntad. La inteligencia comparece escasamente sólo en la virtud de la prudencia. También asoma como una especie de convidado de piedra, que no se sabe muy bien qué función inteligente hace allí, al que se denomina conciencia. Ésta se encarga, sobre todo, de aprender ristras de preceptos, leyes, deberes y normas, para que luego los aplique la prudencia, pero no es tarea suya pensarlos. Formar la conciencia deja de ser un quehacer para la que se requiere una inteligencia muy dotada en recursos y bien equipada para suscitar fines a la altura del hombre, y luego planear los mejores medios para alcanzar objetivos verdaderamente magnánimos. De esta forma se olvida la sentencia de Pascal: "Esforcémonos en pensar bien: he ahí el principio de la moral"[344]. Es decir: si se quiere tener un comportamiento ético, lo primero necesario es esforzarse en saber, en comprender. Una acción bienintencionada pero con poco cerebro no es ética. La mejor forma de vincular la ética con la verdad no es unirla a ristras de preceptos y reglas, sino poner uno de sus pilares fundamentales en el ejercicio empeñado de la inteligencia. No queda mejor parada la inteligencia en las éticas intentadas por la modernidad. Ninguna trata sobre la importancia ética que tiene entrenarse en el arte de ser inteligentes, de vivir inteligentemente. La modernidad descubre que saber es poder, pero no sabe qué hacer con ese poder, ni se plantea la responsabilidad que ese poder comporta. Actúa como el aprendiz de brujo, encantado por las nuevas posibilidades que le brinda la fuerza del abracadabra mágico que ha descubierto. El conocimiento, para la modernidad, es amoral, nada sabe de éticas. La ética trata de los "buenos" sentimientos y cosas similares. Pero no es cierto: la ética es el arte de perfeccionar al hombre para que, a su vez, pueda perfeccionar. Esa tarea es imposible sin el empeño por hacerse inteligentes, sin tener que añadir moralina alguna a tal propósito. La primera obligación ética es conquistar la libertad para la propia inteligencia, para señorear ideas y métodos mentales, para atreverse a pensar de veras, y hacerse capaz de grandes alientos, de profundas ambiciones cognoscitivas. Si comprendemos eso, también podríamos entender cómo hacer bio-ética, o físico-ética, o economía-ética, o lo que sea-ética; que no es añadir consideraciones bienintencionadas a una ciencias amorales, sino hacerlas en serio, pensarlas de veras, atreverse a aportar comprensión unitaria y armónica a partir de los conocimientos limitados que en ellas se adquieran. El adjetivo «ético» no debe venir por añadidos moralizantes, sino por el talante y la hondura de miras de quienes hagan esas ciencias, empeñados en no quedarse con la pobretería de saberes parciales; ambiciosos para no transitar por el mundo con las orejeras de un método y unas técnicas fragmentarias. De camino quizá también podríamos acabar con la absurda separación entre «ciencias» y «humanidades», porque conquistemos que todo conocimiento tenga un tamaño verdaderamente humano. El empeño personal por no contentarnos con saberes parciales reduccionistas y desquiciados, el esfuerzo por orientar nuestra inteligencia hacia horizontes de comprensión verdaderamente amplios y profundos, es parte fundamental de lo que los clásicos denominaron hábito de la sabiduría. "La palabra sabiduría es una palabra muy bella y que encierra un profundo significado. Hoy se encuentra desprestigiada y casi se la emplea sólo irónicamente, lo cual dice muy poco de nuestro tiempo. En principio hace referencia a un conocimiento sin restricciones de lo que es importante, de lo que merece ser conocido. Además, no se trata de un conocimiento aséptico y neutral, sino de un conocimiento que implica y anima al que lo posee, impulsándole a vivir en conformidad con él. Así, el sabio es el verdadero hombre, el que ejerce correctamente y desarrolla al máximo todas sus capacidades, sin quedar mutilado por la atrofia de ninguna facultad que pudiera y debiera practicar en su existencia, y enfoca correctamente tanto la elección de fines como la disposición de los medios para conseguirlos. Por consiguiente, la sabiduría es un ideal al que nadie sensato puede renunciar, es un signo de plenitud humana en el que el rasgo más característico de nuestra especie, la capacidad de conocer y de conocerse, se pone al servicio de un desarrollo cabal de nuestro ser en todos los órdenes. En cuanto ideal de humanidad es un ideal universal: todos deben aspirar a ser sabios y, lo que es más importante, todos pueden conseguirlo, independientemente de las culturas y de las circunstancias personales de cada cual, ya que, por muy disminuidas que estén objetivamente las facultades físicas e intelectuales de un individuo, siempre es posible, en la medida que se mantenga la condición humana, aprovechar al máximo la capacidad de conocer para orientar la vida en dirección de su mejor acabamiento"[345]. Hemos de aprender a hacernos sabios. En ese empeño la máquinas racionales nos brindan unos magníficos medios. "Constituyen la única puerta entreabierta hoy para cruzar el umbral histórico de la sociedad del saber. Pero, si no se quiere perder el tiempo con ellas, si se les quiere sacar partido, resulta imprescindible advertir que los multimedia son precisamente eso, medios, y no fines. Ofrecen procedimientos de descarga, porque lo importante no es lo que se hace con esas tecnologías sino lo que es posible dejar de hacer gracias a ellas. Nos exoneran de infinidad de tareas rutinarias para permitir que nos concentremos en el conocimiento intelectual, es decir, en esa actividad que constituye el rendimiento propio de los seres vivos racionales. Prescindir hoy de esos recursos informáticos y telemáticos es una insensatez. Pero creer que su simple instalación y uso produce conocimiento, educación o bienestar, equivale a tomar el rábano por las hojas. Las nuevas herramientas del saber liberan vida, tiempo de vida, intensidad de vida. Nos dejan en franquía para la investigación, el diálogo, la formación, la amistad, la lectura de los grandes libros. En lugar de ir tan azacanados trajinando con los instrumentos, tal vez nos quede sosiego para dedicarnos a esas actividades -el conocimiento y el amor- que tienen sentido en sí mismas. Quizá volvamos a interesarnos por la contemplación de la realidad, por la búsqueda de la verdad, con independencia de la utilidad que ello nos reporte. Si lo lográramos, volveríamos a disfrutar de eso que alguien llamó «la no comprada gracia de la vida»"[346]. Con las máquinas racionales y la revolución informática seremos capaces de hacer un mundo más humano sólo si nos embarcamos en el empeño por forjarnos como Cybersapiens. Hasta aquí sobre la importancia de aquel descubrimiento griego: los hábitos intelectivos. Paso ahora a la segunda moraleja: el diálogo. Porque, si es cierto que, según averigua la psicología cognitiva y sugieren cada vez más autores, sin diálogo no es posible salir de sí; si es verdad que sin diálogo, sin comunicación interpersonal, no es posible evitar el quedar atrapado en las propias ideas y modos de pensar, por lo que resulta inalcanzable conquistar la libertad para el propio pensamiento, y dirigirlo y dominarlo; si esto es así, entonces fomentar la capacidad de diálogo, de escuchar y explicar, de comprender y proponer, es un elemento esencial para edificar la sociedad del conocimiento. Pero el arte del diálogo, es decir, dotar de riqueza y calidad cognoscitiva a las relaciones interpersonales, es algo que también debemos aprender, ya que estamos poco entrenados. Como siempre, comenzaré por referirme a la modernidad, a la que he tomado como chivo expiatorio. Pido disculpas por ello, pero lo hago a conciencia, por el motivo siguiente: la forma de entender la inteligencia humana durante la Edad Moderna -como razón simplemente razonante- es la que nos ha llevado a fabricar las máquinas racionales. No es pequeño el logro, y merece ser convenientemente destacado. Igualmente son innumerables las conquistas de la modernidad, entre las que destacan las ciencias y sus tecnologías, que han venido del aprecio por la racionalidad. Por otra parte, no deseo renunciar a ninguno de esos éxitos ni prescindir de las metas ambiciosas que los modernos propusieron a la razón. No quiero ser postmoderno y renunciar a un pensamiento ambicioso, ni anhelo plantearme como meta sólo el sobrevivir en las ruinas que ha dejado el fracaso de la modernidad. Si aquella estructura mental no soporta la mole de conocimientos que ha conseguido, habrá que poner mejores cimientos y una estructura más capaz, para poder seguir edificando. Sin embargo, aquella manera moderna de concebir la inteligencia humana es la que ahora nos impide ver qué diferencia existe entre las máquinas racionales y las personas. Con la forma de pensar de la modernidad no hay modo de averiguar cual es el modo humano de ser inteligentes -tarea que aquí intento- y, por tanto, no permite indagar cómo vivir inteligentemente. Como consecuencia, tampoco ofrece mucho espacio para vislumbrar por dónde puede encaminarse un uso humano de los medios que nos proveen tan extraordinarias máquinas. Por ello, para resaltar por contraste, me refiero a la modernidad. En la Edad Moderna se solemnizan las ideas y lo métodos racionales: eso es lo objetivo; es lo que importa, mucho más que la persona, de la que procede lo "subjetivo", que es así despreciado. También tienen ideas similares, muchas veces sin caer en la cuenta, los defensores de la "verdad objetiva" que se pretenden continuadores de los clásicos. Como consecuencia se menosprecia lo que pertenece a la intimidad personal, eso es lo subjetivo. Lo meramente subjetivo no tiene posibilidades de ser inteligente: es lo que yo deseo, o lo que siento, o me apetece. Lo inteligente pertenece a las ideas fabricadas usando técnicas y métodos racionales. La candidez de la más sencilla fe racionalista consideraba que hay un método racional de pensar que produciría las ideas verdaderas o científicas. Una vez encontrado el método, y desarrolladas con él las ideas, la tarea de la inteligencia quedaría concluida. La Humanidad (curioso sujeto abstracto e inexistente, muy del gusto moderno) sería ilustrada y todos viviríamos felices y benéficos en la época de las luces. Como si no fuera la inteligencia de la persona, de cada persona, la que hubiera de aportar la luz. Ese sueño ingenuo no era más que una quimera, que más de una vez se ha hecho pesadilla. Como hay muchos métodos, y con ellos se pueden producir todo tipo de ideas, cada cual se atrincheraba detrás de las que consideraba «científicas» y rechazaba las ajenas. Durante un tiempo estuvo de moda imponer a los demás lo que se consideraba la «explicación científica» -la propia ideología-, aunque fuera a palos; procedimiento que ha llenado el siglo XX de cadáveres. En la actualidad hemos caído en la cuenta de la inhumanidad que suponen esos intentos. La moda ahora es la tolerancia y el consenso: hay muchos modos de pensar que producen ideas variadísimas. Todas son igualmente válidas y respetables, porque no hay modo de averiguar cuales son mejores. Todo lo que cabe hacer es conseguir acuerdos para que no llegue la sangre al río. Fomentar la tolerancia es un buen método para evitar violencias; pero no es acertado si se quiere que abunden las personas inteligentes, capaces de edificar la sociedad del conocimiento. Admitir la tolerancia y el consenso como todo horizonte de diálogo presupone que las personas están sometidas a sus ideas y a su forma de pensar, sin poder salir de ellas, imposibilitados para trabajarlas en unión con otros. Todo lo permitido es negociar compromisos entre las personas que sustentan distintas opiniones para tener la fiesta en paz. La tolerancia y el consenso valen para aquellos que están atrapados en sus ideas. Para quien venera y se somete a unas ideas, a las que considera LA EXPLICACIÓN, las ideas de los demás no tienen nada que aportar, sólo son discrepancias de gente que no entiende LA EXPLICACIÓN. También pueden servir para los que son incapaces de tomar en serio la inteligencia ajena y la propia, por lo que todo lo que cabe es tener opiniones, de las que no hay modo de averiguar si son más o menos inteligentes: todas son respetables. Sin embargo, más que respetar a las ideas habría que entrenarse a respetar la dignidad de las personas, también la propia. Y estar a la altura de nuestra dignidad supone, para empezar, comportarnos y tratarnos como personas capaces de ayudarnos a vivir inteligentemente. Esa sería una sociedad pluralista verdaderamente humana. Aquella en la que no hubiera tolerancia, sino aprecio por lo que los demás tuvieran que aportar; afán de no prescindir de ningún conocimiento, ya lo dijese Agamenón o su porquero; empeño por crear un clima en el que cada persona cultivase de veras su capacidad de ser inteligente porque se viese capaz de participar con una aportación positiva. Podemos ayudarnos a vivir inteligentemente. Para eso hacen falta personas que no respeten las ideas o las opiniones, sino la inteligencia de los demás, y cultiven la propia, para hacerse capaces de comprender, atender y aportar, para trabajar juntos las opiniones y las ideas. La sociedad del conocimiento ha de serlo también del diálogo, en caso contrario no tendrá altura humana. Será un conglomerado precario de seres que se han vuelto autistas ante la pantalla del ordenador. En ese caso todo lo que importará es saber quién se queda con la sartén por el mango en la sociedad de la información, porque podrá «comer el coco» de quienes no consigan vivir inteligentemente. Una sociedad de la información de ese estilo sería una sociedad de la manipulación edificada sobre la pobreza de las relaciones interpersonales, cuya calidad requiere subjetividades capaces de enriquecer y enriquecerse en la comunicación. Sólo las personas dialogan. Ciertamente las ideas no dialogan entre sí; tampoco un método se habla con otro. Sólo las personas que los utilizan pueden hacerlo. Con un método se llega sólo donde el método da de sí. Llegar más allá es tarea de personas inteligentes, que no se limitan a pensar encerradas en las estrecheces de un método. Los saberes no dialogan; sólo lo hacen las personas que se empeñan en ser sabias, capaces de comprender y de aportar comprensión. Los conocimientos, las ideas, por sí mismas no pueden ser interdisciplinares, porque no se piensan a sí mismas en relación a otras, y porque ninguna idea aporta conocimiento alguno acerca de sus limitaciones. Sólo las personas de inteligencia magnánima, espléndida en su afán de comprender, pueden ver las limitaciones de los métodos y las ideas, para suscitar nuevos ámbitos de comprensión. Personas así son las que se empeñan en completar sus propios hallazgos con las aportaciones de los demás, y contribuyen a la unidad del saber, desperdigado en especializaciones minúsculas. Si queremos edificar la sociedad del conocimiento, quizá sea bueno aprender del modelo a escala reducida que nos ofrecen los investigadores científicos, que forman sociedades especializadas del conocimiento. En ellos se observa una ética estricta, sin la cual el conocimiento es inviable. "Se trata de un ethos de búsqueda y respeto de la verdad. Nos encontramos aquí con algo que se tiende a suponer inadmisible en la sociedad pluralista: la presencia de prohibiciones incondicionadas. En un instituto de investigación está, por ejemplo, absolutamente prohibido falsear resultados de experimentos. Ningún interés o conveniencia del instituto o de sus miembros autoriza nunca a faltar a la verdad sobre el desenlace de sus investigaciones. La exigencia de veracidad -no mentir nunca- constituye la regla básica de una comunidad de investigación y representa el hilo conductor para descubrir la indeclinable presencia de la ética en una sociedad que quiera hacer de conocimiento su recurso primordial. Porque lo primero que se exige del saber es que sea, precisamente, verdadero. Un conocimiento falso no es realmente un conocimiento. Ya tenemos, entonces, a la ética en el centro de la escena postindustrial. Porque buscar sistemáticamente la verdad y decirla siempre, implica un formidable temple moral"[347]. Tenemos otro modelo en aquella época de la historia griega en la que se produjeron las formas de pensar que cultivamos cuando queremos pensar en serio. La filosofía griega nació en ambientes en los que se cultivaba el diálogo entre personas verdaderamente apasionadas por saber, por comprender. Resultan paradigmáticos los Diálogos de Platón para conocer aquel fértil clima humano que rindió tan espléndidos frutos. Los que en la Edad Media continuaron aquella tradición de cultivo del saber inventaron la Universidad, creación que todavía no hemos conseguido superar y que sigue en la punta de lanza del progreso del conocimiento. Quienes la inventaron, concibieron la Universidad ante todo como un lugar de diálogo; de discusión franca de las ideas; de intercambio creativo de pareceres; de exploración de los modos de pensar más aptos para aportar comprensión. No era una pasiva y memorística transmisión de conocimientos, sino un ejercitarse en adquirir la musculatura mental necesaria para vivir inteligentemente. La cima de la actividad académica no era la lección magistral, sino la quaestio disputata: la discusión razonada sobre una cuestión. Allí se debían tomar en serio las opiniones ajenas, y fundamentar adecuadamente la propia. Esa costumbre es la que ahora hace insólitas y difíciles de leer obras magistrales del pensamiento, como pueden ser las de Tomás de Aquino. En fin, sólo son unos ejemplos que cito con la intención apuntalar la siguiente tesis: cultivar un clima de verdadero diálogo, y aprender a entrenarnos en adquirir hábitos intelectivos, es el inicio del camino para conquistar la libertad para nuestro pensamiento. Esa es la gran diferencia que nos separa de las máquinas racionales; y es también la gran tarea a la que nos enfrentan esos magníficos inventos nuestros. "El mito de los «robots» que vencen a sus creadores no es otra cosa que la metáfora técnica de un problema moral. El verdadero «hombre-máquina», que puede sojuzgarnos, no hay que ponerlo fuera de nosotros, como el último engendro de una técnica que se nos hubiera ido de las manos. Somos nosotros mismos los que tenemos dentro la posibilidad de transformarnos en máquinas humanas. Basta con que perdamos el sentido de nuestra efectiva libertad"[348]. EULER, L., Enodatio quaestionis: Utrum materiae facultas cogitandi tribui possit nec ne? ex principiis mechanicis petita, en Opuscula varii argumenti, Hande&Spener, Berlin 1746, vol. I, pp. 277–86. Cfr. ARANA, J., La mecánica y el espíritu, Editorial Complutense, Madrid, 1994, pp. 191–204. [2] STEINBUCH, K., Principios de una antropología cibernética, en GADAMER y VOGLER, Nueva antropología, Vol. I, Omega, Barcelona, 1975, pp. 56–57. [3] POLLOCK, J., My brother, the machine, en Nous, 22 (JE, 1988) pp. 173–211. [4] MORAVEC, H., Mind children. The future of robot and human intelligence, Harvard University Press, Cambridge, MA, 1988. Cfr. MORAVEC, H., Robot: Mere Machine to Transcendent Mind, Oxford University Press, Oxford, 1998; KURZWEIL, R., The Age of Spiritual Machines, When Computers Exceed Human Intelligence, Viking, 1999; McCORDUCK, P., The universal machine: Confessions of a technological optimist, McGraw–Hill, New York, 1985. [5] Así por ejemplo: BERRY, A., La máquina superinteligente. Una odisea electrónica, Alianza, Madrid, 1983. [6] MINSKY, M., ¿Serán los robots quienes hereden la tierra?, en Investigación y Ciencia, XII–1994, p. 92. Ver también MAZLISH, B., The fourth discontinuity. The CoEvolution of Humans and Machines, Yale University Press, New Haven, 1993. La cuarta discontinuidad. La coevolución de hombres y máquinas, Alianza, Madrid, 1995. [7] Una acumulación de argumentos contra la Inteligencia Artificial que considero insuficientes puede verse en: DREYFUS, H. L., What computers can't do: A critique of artificial reason, Harper & Row, New York, 1972; DREYFUS, H. L. y DREYFUS, S. E., Mind over machine: The power of human expertise in the era of the computer, The Free Press, New York, 1986; DREYFUS, H. L., What computers "still" can't do: A critique of artificial reason, MIT Press, Cambridge, MA, 1992. [8] VV. AA., ¿Es posible una inteligencia artificial? Perspectivas filosóficas, en Atlántida, 7, Julio–Septiembre, 1991, p. 13. [9] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 243. [10] Pueden verse historias mejores y más completas que este breve resumen en: TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998; GOLDSTINE, H. H., The computer from Pascal to Von Neumann, Princeton University Press, Princeton, 1972; GREVIER, P., The tumultuous history of the search for Artificial Intelligence, Basic Books, New York, 1993; McCORDUCK, P., Machines [1] who think, Freeman, San Francisco, 1979 (Máquinas que piensan, Tecnos, Madrid, 1991). [11] LA METRÌE, J. O. de, L'Homme Machine, Princeton University Press, Princeton, 1960: En realidad, la obra consiste en una acumulación de datos para mostrar cómo multitud de sustancias físicas afectan al pensamiento, a la res cogitans, que Descartes consideraba separada del mundo físico. Ver también: LA METRÌE, J. O. de, Histoire naturelle de l'âme, David Néaulme, La Haye, Paris, 1745. [12] DESCARTES, R., Discurso del método. Quinta parte, Tecnos, Madrid, 1987, p. 78 s. [13] RAIMUNDO LULIO, Arte General Demonstrativa, en SALZINGER, I., Opera omnia, Maguncia, 1721–42. [14] Cfr. CARRERA, J., De Ramón Lull a los modernos ensayos de formación de una lengua universal, Madrid, 1946. [15] Cfr. DESCARTES, R., Geometría, Buenos Aires, 1947. Sobre la historia y génesis de la idea ver: CRAPULLI, G., Mathesis Universalis. Genesi di un'idea nel XVI secolo, Ed. dell'Ateneo, Roma 1969; VILLALOBOS, J., Idea metafísica de la «Mathesis Universalis», en VILLALOBOS, J. (Ed.), Radicalidad y Episteme, ORP, Sevilla, 1991. Un intento, algo anacrónico, de revitalizar la idea puede encontrarse en: SCHOLZ, H., Mathesis Universalis. Abhandlungen zur Philosophie als strenger Wissenschaft, B. Schwabe, Stuttgart, 1961. [16] LEBNIZ, G. W., Nova methodus pro maximis et minimis, en Acta eruditorum, Lipsia, 1684: "Quando orietur controversiae, non magis disputatione opus erit inter duo philosophos, quam inter duo computistas. Sufficet enim calamos in manus sumere, sedereque ad abacos et sibi mutuo (accito si placet amico) dicere: calculemus". [17] COUTURAT, L., La logique de Leibniz, París, 1901. [18] RUSSELL, B., A critical exposition of the Philosophy of Leibniz, Cambridge, 1900. [19] HOBBES, Leviatán, Fondo de Cultura Económica, México, 1940, p. 32. Sobre la idea de la mente como una especie de máquina cfr.: WEBB, J., Mechanism, mentalism and metamathematics, Reidel, Dordrecht, 1980. [20] BOOLE, G., The Mathematical Analysis of Logic, being an essay towards a Calculus of Deductive Reasoning, Cambridge, 1847; An Investigation of the Laws of Thought, on which are founded the Mathematical Theories of Logic and Probabilities, London, 1854. Hay traducción de los dos artículos juntos: BOOLE, G., Investigación sobre las leyes del pensamiento, Paraninfo, Madrid, 1982. Cfr. MANGIONE, C. y BOZZI, S., Storia della logica. Da Boole ai nostri giorni, Garzanti, Milán, 1993. [21] CHURCH, A., The calculi of lambda–conversion, en Annals of Mathematicals Studies, nº 6, Princeton, 1952. Una sencilla y amena exposición del Cálculo Lambda puede verse en PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, pp. 100–106. Pido disculpas a los especialistas por escribir con tanta imprecisión. El cálculo lambda, con más exactitud, es una formalización del razonamiento matemático, o más bien, de la matemática, sobre todo de la teoría de los números naturales. Evidentemente, toda formalización de la matemática implica una simbolización del razonamiento lógico: la regla del modus ponens y del modus tollens; por ello en el texto me refiero a la lógica, sin más precisiones, que no interesan al propósito de la breve exposición que pretende ser este capítulo. Sirva el aviso para muchas otras imprecisiones del texto. [22] Los artículos fundamentales de Turing están recopilados en TURING, A. M. y WOODGER, M., The automatic computing machine: Papers by Alan Turing and Michael Woodger, MIT Press, Cambridge, MA, 1985. Sobre Turing, ver también: HODGES, A., Alan Turing: The enigma of intelligence, Burnett, London, 1983; LASSÈGE, J., Turing, Les Belles Lettres, Paris, 1998; TURING, A. M. y GIRARD, J–Y., La machine de Turing, Le Seuil, Paris, 1995. Ver también las voces Church-Turing Thesis y Turing, Alan Mathison en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999.. [23] Cfr.: MACKAY, D. M., On comparing the brain with machines, en American Scientist, 42 (1954): 2. [24] TURING, A., On computable numbers with an application to the Entscheidungsproblem, en Proceedings of the London Mathematical Society, 42, pp. 230–265; 43, pp. 544–546, 1936–1937. [25] SHANNON, C. E., A Symbolic Analysis of Really and Switching Circuits, en Transactions of the American Institute of Electrical Engineers, 57, 1938, pp. 1–11. Shannon también desarrolló las bases de la teoría de la comunicación en otro famoso trabajo: SHANNON, C. E., A mathematical theory of communication, en Bell Systems Tech. Journal 27, pp. 379-423 y 623-656; SHANNON, C. y WEAVER, W., Teoría matemática de la comunicación, Forja, Madrid, 1981. [26] SLOMAN, A., The computer revolution in philosophy, science and models of mind, Harvester press, Harrocks, Sussex, 1976; KURZWEIL, R., The age of intelligent machines, MIT Press, Cambridge, MA, 1992; BODEN, M., Artificial intelligence and natural man, Harvester Press, Brighton, Sussex, 1977 (Inteligencia artificial y hombre natural, Tecnos, Madrid, 1984); AUGARTEN, S., Bit by bit. An illustred history of computer, Ticknot and Fields, New York, 1984; BRETON, P., Histoire de l'informatique, Seuil, Paris, 1990. [27] WIENER, Cybernetics, or control and communication in the animal and the machine, John Wiley, New York, 1948; GEORGE, F. H., The foundations of cybernetics, Gordon & Breach, London, 1977. [28] BRETON, P., El primer ordenador copiaba el cerebro humano, en Mundo Científico, 17, Noviembre, 1996, pp. 970–973. [29] VON NEUMANN, J., The general and logical theory of automata, en JEFFRESS, L. A. (ed.), Cerebral mechanisms in behaviour, the Hixon Symposium, John Wiley, New York, 1951; ASPRAY, W., John Von Neumann and the origins of modern computing, MIT Press, Cambridge, MA, 1991. Hay edición castellana: John Von Neumann y el origen de la computación moderna, Gedisa, Barcelona. También existe una breve colección de artículos originales: VON NEUMANN, J., El ordenador y el cerebro, A. Bosch Ed., Barcelona, 1980. [30] Sobre aquella reunión y sus protagonistas hay una buena exposición en TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998, pp. 64-83. [31] MINSKY, M. L., Semantic information processing, MIT Press, Cambridge, MA, 1968, p. V. [32] WHITEHEAD, A. N. y RUSSELL, B., Principia Mathematica, 3 vols., Cambridge University Press, Cambridge, 1925–1927. [33] SIMON, H. y NEWELL, A., Heuristic problem solving: The next advance in operations research, en Operations Research, 6 (Enero–Febrero, 1958) p. 6. [34] SIMON, H., The shape of automation for men and management, Harper&Row, New York, 1965, p. 96. Ver también: SIMON, H., Models of man, Wiley, New York, 1957. [35] Un magnífico libro para entender el auge y caída de la metáfora del ordenador para enfocar la psicología humana es el de RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991. El primero en desarrollar la comparación con el ordenador para entender la mente humana como procesador de información puede ser MILLER, G. A., Psychology: the science of mental life, Hutchinson, London, 1964. Ver también: ARBIB, M. A., The metaphorical brain: An introduction to cybernetics as artificial intelligence and brain theory, Wiley, New York, 1972; ADARRAGA, P. y ZACCAGNINI, J. L. (eds.), Psicología e inteligencia artificial, Trotta, Madrid, 1994. MILLIKAN, Language, thougth and other biological categories, Bradford Books, MIT Press, Cambridge, MA, 1984; STERBERG, R. J., Metaphors of mind: Conceptions of the nature of intelligence, Cambridge University Press, New York, 1990; WAGMAN, N., Artificial intelligence and human cognition, Praeger, New York, 1991; JOHNSON– LAIRD, P. N., The computer and the mind: An introduction to cognitive science, William Collins, Glasgow, 1988 (El ordenador y la mente: Introducción a la ciencia cognitiva, Paidós, Madrid, 1990); BODEN, M., Computers models of mind: Computational approaches in theoretical psychology, Cambridge University Press, New York, 1988; MONSERRAT ESTEVE, S., Psicología y psicopatología cibernética, Herder, Barcelona, 1985. [36] SHANNON, C. y WEAVER, W., Teoría matemática de la comunicación, Forja, Madrid, 1981. [37] CHOMSKY, N., Syntactic structures, Mouton, The Hague, 1957 (Estructuras sintácticas, Siglo XXI, Madrid, 1974); CHOMSKY, N., Aspects of the theory of Syntax, MIT Press, Cambridge, MA, 1965 (Aspectos de la teoría de la Sintáxis, Aguilar, Madrid, 1970); CHOMSKY, N., Current issues in linguistic theory, Mouton & Co., The Hague, 1964; CHOMSKY, N., Language and mind, Harcourt Brace & Jovanovich, New York, 1972; CHOMSKY, N. Knowledge of language: Its nature, origins and use, Praeger, New York, 1985 (El conocimiento del lenguaje: Su naturaleza, origen y uso, Alianza, Madrid, 1989); LYONS, J., Noam Chomsky, Viking Press, New York, 1970. PIAGET, J., La representation du monde chez l'enfant, Presses Universitaires de France, Paris, 1926 (La representación del mundo en el niño, Morata, Madrid, 1984); La naissance de l'intelligence chez l'enfant, Delachause et Niestlé, Neuchatel, 1936 (El nacimiento de la inteligencia en el niño, Aguilar, Madrid, 1969); La psychologie de l'intelligence, A. Colin, Paris, 1947 (La psicología de la inteligencia, Psique, Buenos Aires, 1971); Logic and psychology, Manchester University Press, Manchester, 1953. [39] HEBB, D. O., The organization of behavior, John Wiley, New York, 1949. [40] VARELA, F. J., Conocer. Las ciencias cognitivas: Tendencias y perpectivas. Cartografía de las ideas actuales, Gedisa, Barcelona, 1990; GARDNER, H., The mind's new science: A history of the cognitive revolution, Basic Books, New York, 1985 (La nueva ciencia de la mente: Historia de la revolución cognitiva, Paidós, Buenos Aires, 1987); GARFIELD, J. L. (Ed.), Foundations of cognitive science: The essential readings, Paragon House, New York, 1990; STILLINGS, N. A., Cognitive science: An introduction, MIT Press, Cambridge, MA, 1987; JOHNSON–LAIRD, P. N. y WASON, P. C., Thinking: Reading in cognitive sciences, Cambridge University Press, Cambridge, MA, 1977; ANDERSON, J. R., Cognitive psychology and its implications, Freeman, San Francisco, 1985; WAGMAN, N., Cognitive science and concepts of mind toward a general theory of human and artificial intelligence, Praeger, New York, 1991. [41] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 48. [42] Cfr. NEWELL, A. y SIMON, H. A., Human problem solving, Prentice–Hall, Englewood Cliffs, New Jersey, 1972; BUNDY, A., The computer modelling of mathematical reasoning, Academic Press, London, 1983. CHANG, C. y LEE, R. C. T., Symbolic logic and mechanical theorem proving, Academic Press, London, 1973. NILSSON, N. J., Problem–solving methods in Artificial Intelligence, McGraw–Hill, New York, 1971. ROBINSON, J. A., Logic: form and function, Edinburgh University Press, Edinburgh, 1979. CUENA, J., Lógica informática, Alianza, Madrid, 1985; OMONDI, A. R., Computer arithmetic systems, Prentice Hall, New York, 1994 . [43] Ver, por ejemplo, el artículo: La muerte de la demostración, en Investigación y Ciencia, diciembre, 1993, pp. 70–77. [44] Se puede encontrar el informe de Sir James Lighthill, así como la réplica de otros autores en: VV. AA., Artificial Intelligence: A paper symposium, Science Research Council, Londres, 1973. [45] Es muy interesante ojear Artificial Intelligence, 59 (1–2) 1–462 (February, 1993): Número especial monográfico dedicado a trazar una perspectiva sobre los realizado desde los comienzos de la IA. [46] El nombre fue propuesto por Feigenbaum en el congreso mundial de Inteligencia Artificial de 1977. E. Feigenbaum junto con A. Barr ha editado uno de los libros básicos en Inteligencia Artificial: The Handbook of artificial intelligence, Kauffman, 1982. [47] En la actualidad MACSYMA se ha quedado viejo, pero ha dado lugar a una numerosa descendencia. Para el cálculo formal o simbólico en matemáticas se ha desarrollado otros programas de tipo general (Reduce, Maple, Mathematica, Axiom, MuPad, etc.) y algunos especializados en campos concretos: Schooschip para la física de [38] partículas elementales; Camal para la astrofísica y la relatividad; Magma y Gap para la teoría de grupos; etc. [48] Era demasiado general y lo ha mejorado CADUCEUS. [49] VV. AA., Keyguide to information sources in artificial intelligence–expert systems, Mansell, London, 1990; WATERMAN, D. A., A guide to expert systems, Addison Wesley, New York, 1986; PATTERSON, D. W., Introduction to artificial intelligence and expert systems, Prentice–Hall, New York, 1990; HAYES–ROTH, F., WATERMAN, D. y LENAT, D. (Eds.), Building expert systems, Addison Wesley, New York, 1983; CUENA BARTOLOME, J. (Ed.), Inteligencia artificial: sistemas expertos, Alianza, Madrid, 1986; SCOTT, A. C., CLAYTON, J. E. y GIBSON, E. L., A practical guide to knowledge acquisition, Addison–Wesley, Reading, MA, 1991; NILSSON, N. J., Principles of artificial intelligence, Springer Verlag, 1983; RICH, E., Artificial intelligence, McGraw–Hill, New York, 1983; WINSTON, P. H., Artificial intelligence, Addison–Wesley, New York, 1984; MacDERMOTT, D. y CHARNIAK, E., Introduction to artificial intelligence, Addison–Wesley, New York, 1985; BUNDY, A. (Ed.), Artificial intelligence, Edinburgh University Press, Edinburgh, 1978; O'SHEA, T. y EISENTADT, M. (Eds.), Artificial intelligence, Harper Row, London, 1984. [50] CARBONELL, J. G., Machine learning: paradigms and methods, MIT Press, Cambridge –Mass, 1990; MICHALSKI, R. S., CARBONELL, J. G. y MITCHELL, T. M., Machine learning: An Artificial Intelligence approach (2 vols.), Tioga Publishing Company, Palo Alto, 1983; HOLLAND, J., Adaptation in natural and artificial systems: An introductory analysis with applications to biology, control and artificial intelligence, University of Michigan Press, Ann Arbor, 1975. [51] WEIZENBAUM, J., Computer power and human reason: From judgement to calculation, Freeman, San Francisco, 1976 (La frontera entre el ordenador y la mente, Pirámide, Madrid, 1977). Este libro había sido precedido por un artículo: On the impact of the computer on society: How does one insult a machine?, en Science, 176 (1972) pp. 609–614. Un debate sobre el uso y abuso de los ordenadores en el que intervienen los protagonistas puede verse en: KUIPERS, B. J., McCARTHY, J. y WEIZENBAUM, J., Computer power and human reason: Comments, en SIGART Newsletter, nº 58 (Junio) 1976. Para conocer el programa ver: WEIZENBAUM, J., ELIZA. A computer program for the study of natural language, en Communications of the Association for Computing Machinery, 9, 1966, pp. 36–45. Es posible utilizar a ELIZA como consultor psicológico en http://www–ai.ijs.si/eliza/eliza.html. [52] SCHANK, R. C. y ABELSON, R. P., Guiones, planes, metas y entendimiento, Paidós, Barcelona, 1987, p. 17. El original es: SCHANK, R. C. y ABELSON, R., Scripts, plans, goals and undertanding, Erlbaum, Hillisdale, New Jersey, 1977. [53] SCHANK, R. C. y COLBY, K. M. (Eds.), Computers models of thought and language, Freeman, San Francisco, 1973; WINOGRAD, T., Understanding natural language, Academic Press, New York, 1972; ALTMANN, G. T. M., Cognitive models of speech processing, MIT Press, Cambridge, MA, 1991; DAVIDSON, J. y HARMAN, G. (Eds.), Semantics of natural language, Humanities Press, New York, 1972; LAKOFF, G., Women, fire and dangerous things: What categories reveal about the mind, University of Chicago Press, Chicago, 1987; SEBEOK, R. A. (Ed.), Current trend in linguistics, Mouton, La Haya, 1974; GARFIELD, J. (Ed.), Modularity in knowledge representation and natural language understanding, Bradford Books, MIT Press, Cambridge, MA, 1987; Número especial monográfico dedicado a los progresos en procesamiento del lenguaje de Artificial intelligence, 63 (1–2) 1–532 (October), 1993; BODEN, M., Artificial Intelligence and Piagetian theory, en Synthese 38 (Jl. 1978) pp. 389–414. [54] TURNER, R., Logics for Artificial Intelligence, Horwood, Chirchester, 1984; GENESERETH, M. y NILSSON, N., The logical foundations of Artificial Intelligence, Morgan–Kaufmann, Los Altos, California, 1987; THAYSE, A., Approche logique de l'intelligence artificielle (3 vols.), Dunod, Paris, 1988; BACCHUS, F., Representing and reasoning with probabilistic knowledge, MIT Press, Cambridge, MA, 1991; HELMAN, D. H. (Ed), Analogical reasoning: perspectives of artificial intelligence, cognitive science, and philosophy, Kluwer Acad., Dordrecht, 1988; ZADEH, L. A. y KACPRZYK, J., Fuzzy logic for the management of uncertainty, Wiley, New York, 1992; TRILLAS, E. y GUTIERREZ RIOS, J. (eds.), Aplicaciones de la lógica borrosa, C.S.I.C., Madrid, 1992; TRILLAS, E., ALSINA, C. y TERRICABRAS, Introducción a la lógica borrosa, Ariel, Barcelona, 1995; KOSKO, B., Pensamiento borroso; la nueva ciencia de la lógica borrosa, Crítica, Barcelona, 1995; McCARTHY, J., Circumscription: A form of non– monotonic reasoning, en Artificial Intelligence 13 (1,2) (1980) pp. 27–39; REITER, R. A., A logic for default reasoning, en Artificial Intelligence 13 (1,2) (1980) pp. 81–132; McDERMOTT, D. y DOYLE, J., Non–monotonic logic I, en Artificial Intelligence 13 (1) (1980) pp. 41–72. [55] En Computational intelligence, 3 (1987) 149–237, puede verse un debate, iniciado por McDermott, sobre la necesidad de una mayor o menor fundamentación lógica para la Inteligencia Artificial. [56] SIMONS, G. L., Introducción a la inteligencia artificial, Ed. Díaz de Santos, Madrid, 1988, p. 53. [57] Lo máximo que se ha conseguido hasta el momento puede verse en: SAVAGE–RUMBAUGH, S. y LEWIN, R., Kanzi: The ape at the brink of the humand mind, John Wiley & Sons, New York, 1994. Cfr.: RUMBAUGH, D. M., Language Learning by a Chimpanzee: The LANA Project, Academic Press, New York, 1977; GARDNER, R. A., GARDNER, B. T. and Van CANTFORT, T. E., Teaching Sign Language to Chimpanzee, SUNY Press, New York, 1989; SAVAGE-RUMBAUGH, E. S., Ape Language: From Conditioned Response to Symbol, Columbia University Press, New York, 1986; TERRACE, H. S., Nim, Alfred A. Knopf, New York, 1979. [58] HEBB, D. O., The organization of behaviour, John Wiley, New York, 1949. [59] McCULLOGH, W. S. y PITTS, W. H., A logical calculus of the ideas immanent in nervous activity, en Bulletin of Mathematical Biophysics 5 (1943), 115– 155; McCULLOGH, W. S. y PITTS, W. H., How we know universals: The perception of auditory and visual forms, en Bulletin of Mathematical Biophysics 9 (1947): 127; McCULLOGH, W. S. (Ed.), Embodiments of mind, MIT Press, Cambridge, MA, 1965. Están recogidos en BODEN, M. (Ed.), The psychology of Artificial Intelligence, Oxford University Press, Oxford, 1991. [60] ROSENBLATT, F., The Perceptron. A probabilistic model for information storage and organization in the brain, en Psychological Review, 62 (1958): 386; ROSENBLATT, F., Principles of Neurodynamics: Perceptrons and the theory of brain mechanisms, Spartan, New York, 1962. [61] MINSKY, M. y PAPERT, S., Perceptrons, MIT Press, Cambridge, MA, 1969: En este trabajo señalaban, con acierto, algunas limitaciones de los Perceptrones, cfr. TRILLAS, E., La Inteligencia Artificial. Máquinas y personas, Debate, Madrid, 1998, pp. 78-80. Puede verse un artículo de Papert defendiendo aquel trabajo ante los actuales ataques de los conexionistas en: GRAUBARD, S. R. (ed.), The artificial Intelligence debate: False starts, real foundations, MIT Press, Cambridge, MA, 1988. [62] ROSENBERG, C. R. y SESNOWSKI, T. J., Parallel network that learn to pronunce English text, en Complex System, 1, 1987, pp. 145–168. [63] Como libros de divulgación sobre el conexionismo pueden servir: ALLMAN, W. F., Apprentices of Wonder: Inside the Networks Revolution, Bantam Books, New York, 1989; JOHNSON, R. C. y BROWN, C., Cognizers: neural networks and machines that think, Wiley, New York, 1988; JOHNSON, G., Machinery of the mind: Inside the new science of artificial intelligence, Times Books, New York, 1986; JUBAK, J., La máquina pensante: el cerebro humano y la inteligencia artificial, Ediciones B, Barcelona, 1993. Para conocer más a fondo las redes neuronales ver: RUMELHART, D. E., McCLELLAND, J. L. y PDP RESEARCH GROUP, Parallel distributed processing: Explorations in the microstructure of cognition, MIT Press, Cambridge, MA, 1986 (Traducción castellana: Introducción al procesamiento distribuido en paralelo, Alianza, Madrid, 1992); GLUCK, M. A. y RUMELHART, D. E., Neuroscience and connectionist theory, L. Erlbaum, Hillsdale, New Jersey, 1990; ZEIDENBERG, M., Neural networks in Artificial Intelligence, Ellis Horwood, Chischester, 1990; MORRIS, R. G. M. (ed.), Parallel distributed processing: implications for Psychology and Neurobiology, Clarendon Press, Oxford, 1989; SIMPSON, P. K., Artificial neural systems: foundations, paradigms, applications and implementations, Pergamon, New York, 1990; ARBIB, M. A. y ROBINSON, J. A., Natural and artificial parallel computation, MIT Press; Cambridge, MA, 1990; HERTZ, J., KROGH, A. y PALMER, R. G., Introduction to the theory of neural computation, Addison–Wesley, Redwood City, 1992; CLARK, A., Microcognition, Philosophy, Cognitive Science and Parallel Distributed Processing, Bradford Book, MIT Press, Cambridge, MA, 1989. [64] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 103. [65] CARLSON, N. R., Fisiología de la conducta, Ariel, Barcelona 1998, p. 509. [66] Ver las voces Cognitive Modeling, Connectionist; Cognitive Modeling, Symbolic; Computational Theory of Mind y Connectionism, Philosophical Issues en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999. [67] NIELSEN, M. A. y CHUANG, I. L., Quantum computation and quantum information, Cambridge University Press, Cambridge, 2000. ADLEMAN, I. M., Science, 266, 1021, 1994. GÖDEL, K., Uber formal unentscheidbare Sätze der «Principia Mathematica» und verwandter Systeme I, en Monatshefte für Mathematik und Physik, vol 38, 1931, pp. 173–198. Puede verse una edición castellana hecha por M. GARRIDO, A. GARCIA SUAREZ y L. M. VALDES, en Cuadernos Teorema, Universidad de Valencia, 1976. Las Obras completas de Gödel han sido editadas por Alianza Editorial, Madrid, 1987. Algunas obras generales sobre el teorema de Gödel son: DÍAZ ESTÉVEZ, E., El teorema de Gödel, Eunsa, Pamplona, 1975; NAGER, E. y NEWMAN, J. R., El teorema de Gödel, Tecnos, Madrid, 1994 (Gödel's proof, New York University Press, New York, 1958); SMULLYAN, R. M., Gödel's Incompleteness Theorems, Oxford University Press, New York, 1992; DAWSON, J. W., Logical Dilemmas: The Life and Work of Kurt Gödel, A. K. Peters, New York, 1997; WEINGARTNER, P. y SCHMETTERER, L., Gödel remembered. Gödel–Symposium in Salzburg, Bibliopolis, Napoli, 1987; RIVETTI BARBÒ, F., Il teorema e il corolario di Gödel: indagine critica, Vita e pensiero, Milán, 1964; DELESSERT, A., Gödel: une Révolution en Mathématiques, Presses Polytechniques et Universitaires Romandes, Lausanne, 2000. Exposiciones accesibles del teorema de Gödel pueden verse en: PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p. 130 ss. (The emperor's new mind, Oxford University Press, Oxford, 1989); ARBIB, M. A., Cerebros, máquinas y Matemáticas, Alianza, Madrid, 1987. Ver también la voz Gödel's Theorems en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999. [70] GALILEO GALILEI, Il Saggiatore, en Opere, Edizione Nazionale, Barbera, Florencia, 1929–1936, vol. VI, p. 333. [71] Una interesante recopilación de artículos fundamentales en el desarrollo de la lógica puede encontrase en HEINEJOORT, J., From Frege to Gödel, Cambrigde, MA, 1967. [72] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 78. [73] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p. 139. [74] Hilbert expuso su programa en el congreso de matemáticos que inauguró el siglo XX; cfr. HILBERT, D., Mathematical problems, Second International Congress of Mathematics, Paris, France, 1900. Entre las diez cuestiones pendientes que enumeró Hilbert tiene especial importancia la que se conoce como Entscheidungsproblem: ¿Puede haber en el futuro un método universal para resolver cualquier problema matemático mediante algoritmos? El Entscheidungsproblem también está en: HILBERT, D. y ACKERMANN, W., Grundzüge der theoretischen logik, Springer– Verlag, Berlin. Para conocer la cuestión de los fundamentos de la matemática, junto con la exposición del programa de Hilbert puede verse un buen resumen en E. DÍAZ ESTÉVEZ, El teorema de Gödel, Eunsa, Pamplona, 1975, pp. 81–121. [75] cfr. LAURIÈRE, J. L., Intelligence artificielle (2 vols.), Eyrolles, Paris, 1987, I, pp. 80–92. Para ver con amplitud los teoremas de limitación: LADRIERE, J., Las [68] [69] limitaciones internas de los formalismos, Tecnos, Madrid, 1969; GALVAN, S., Introduzione ai teoremi di incompletezza, Ed. Angeli, Milano, 1992; DAVIS, M. (ed.), The undecidable, Raven Press, New York, 1965; CHAITING, G., Information, randomness, and incompleteness papers on Algorithmic Information Theory, World Scientific, Singapore, 1987. El teorema de limitación de Church fue publicado en: CHURCH, A., A note on the Entscheidungsproblem, en Journal of Symbolic Logic, 1, 1936, pp. 40–41. Realizó una corrección que publicó en Ibidem, pp. 101–102. [76] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991 (The emperor's new mind, Oxford University Press, Oxford, 1989); PENROSE, R., Shadows of the mind: A search for the missing science of consciousness, Oxford University Press, Oxford, 1994 (Las sombras de la mente, Grijalbo Mondadori, Madrid, 1996); BENACERRAF, P., God, the Devil and Gödel, en The Monist 51 (1967) pp. 9–32; HOFSTADTER, D. R., Gödel, Escher, Bach: An eternal golden brain, Basic Books, New York, 1979 (Gödel, Escher, Bach. Un eterno y grácil bucle, Tusquets, Barcelona, 1987); TYMOCZKO, T., Why I am not a Turing machine: Gödel's theorems and the philosophy of mind, en GARFIELD, J. L. (Ed.), Foundations of cognitive science: The essential readings, Paragon House, New York, 1990, pp. 170–186; LUCAS, J. R., Minds, machines and Gödel, en Philosophy 36 (1961) pp. 120–124; WEBB, J., Gödel's theorem and Church's thesis: A prologue to mechanism, en Boston studies in the philosophy of Science XXXI, Reidel, Dordrecht, 1976; GOOD, I. J., Gödel's theorem is a red herring, en British Journal for the Philosophy of Science 19 (1969) pp. 359–373. [77] LAURIÈRE, J. L., Intelligence artificielle (2 vols.), Eyrolles, Paris, 1987, I, p. 91. [78] MUÑOZ DELGADO, V., Lógica matemática y lógica filosófica, Ed. Revista «Estudios», Madrid, 1962, p. 24 s. [79] AGAZZI, E., La lógica simbólica, Herder, Barcelona, 1986, p. 316. [80] Ibidem, p. 319. [81] CAMMILLERI, R., I monstri della ragione. Dai greci al Sessantotto: viaggio tra i deliri di utopisti & rivoluzionari, Edizioni Ares, Milano, 1993. [82] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 55. [83] VEGA, M. DE, Introducción a la psicología cognitiva, Alianza, Madrid, 1990. p. 463. [84] ORTEGA Y GASSET, J., Sobre la razón histórica, Madrid, 1979, p. 214. [85] Cfr. BOCHENSKI, I. M., Historia de la lógica formal, Gredos, Madrid, 1967. [86] Cfr. Ibidem, pp. 20–23 y 267–280. [87] TUGGENDHAT, E., Autoconciencia y autodeterminación, Fondo de Cultura Económica, México, 1993, p. 238. [88] HEIDEGGER, M., ¿Qué significa pensar?, Nova, Buenos aires, 1978, p. 213. [89] UNAMUNO, M. de, Del sentimiento trágico de la vida en los hombres y en los pueblos, Alianza, Madrid, 1994. [90] HEIDEGGER, M., Sendas perdidas, Losada, Buenos Aires, 1979, p. 221. [91] MARCUSE, H., One–Dimensional Man: Studies in the ideology of advanced industrial society, Beacon Press, Boston, 1964, p. 34. TURING, A. M., Computing machinery and intelligence, en Mind, 59 (1950) pp. 433–460. Puede encontrase en: ANDERSON, A. R., Controversia sobre mentes y máquinas, Tusquets, Barcelona, 1984, pp. 11–50. [93] SHANON, B., A simple comment regarding the Turing test, en J. Theor. Soc. Behav. 19 (JE 1989) pp. 249–256. [94] LEIBER, J., Shanon on the Turing test, en J. Theor. Soc. Behav. 19 (JE 1989) pp. 257–259. [95] RANKIN, T. L., The Turing paradigm: A critical assement, en Dialogue (PST) 29 (AP 1987) pp. 50–55. [96] Defender esta postura puede servir para que me acusen de funcionalista. La teoría funcionalista de la inteligencia fue un invento de Putnam en su fase de entusiasmo por la Inteligencia Artificial (PUTNAM, H., Minds and machines, en HOOK, S. (Ed.), Dimensions of mind,Collier Books, 1960; The mental life of some machines, en CASTAÑEDA, H–N (Ed.), Intentionality, minds, and perceptions, Wayne State University Press, 1967). Posterirmente se reconvirtió en duro crítico de la Inteligencia Artificial (cfr. PUTNAM, H., Realism and reason, Cambridge University Press, Cambridge, 1983; Representation and reality, MIT Press, Cambridge, MA, 1987; Trad. castellana: Representación y realidad, Gedisa, Barcelona, 1990; Renewing Philosophy, Harvard University Press, Cambridge, MA, 1992). En ambas etapas estoy en desacuerdo con Putnam. [97] LAIN ENTRALGO, P., Bichot, Col. Clásicos de la Medicina, CSIC, Madrid. [98] MILLER, G. A., «Informavores», en MACHLUP, F. y MANSFIELD, V. (eds.), The study of information: interdisciplinary messages, Wiley, New York, 1984: Ese nombre, "informávoros" ha quedado para designar los sistemas –como el hombre y los animales– que procesan información. Miller, en 1956, fue el primero que describió las bases conceptuales de la mente humana modelada como procesador de información, que tanto han gustado en la Facultades de Psicología (pueden verse sus ideas en MILLER, G. A., Psychology: the science of mental life, Hutchinson, London, 1964). [99] McGAUGH, J. L., WEINBERGER, N. M. y LYNCH, G., Brain and memory. Modulation and mediation of neuroplasticity, Oxford University Press, Oxford, 1995; ANDERSON, J. A. y HINTON, G. E. (Eds.), Parallel models of associative memory, Lawrence Erlbaum, Hillsdale, New Yersey, 1989; KOHONEN, T., Self organization and associative memory, Springer–Verlag, New York, 1984; LYNCH, G., Synapses, circuits and the beginnings of memory, MIT Press, Cambridge, MA, 1986; GAZZANIGA, M. (Ed.), Perspectives in memory research, MIT Press, Cambridge, MA, 1988; SQUIRE, L. R., Memory and brain, Oxford University Press, New York, 1987; JOHNSON, G., In the palaces of memory, Knopf, New York, 1991; ALKON, D. L. y FARLEY, J. (Eds.), Primary neural substrates of learning and behavioural change, Cambridge University Press, New York, 1984; NEISSER, U., Memory observed, Freeman, San Francisco, 1982. [100] Puede comprobarse en las cartas que, en su momento, se cruzaron Simon y Russell, y que pueden verse en las pags. 207 a 209 de la autobiografía del primero, Models of my Life, publicada en 1996 por The MIT Press. (Debo esta precisión a la [92] amabilidad del Prof. Enric Trillas, Departamento de Inteligencia Artificial, Facultad de Informática, Universidad Politécnica de Madrid). [101] MORAVEC, H., El apogeo de los robots, en Investigación y Ciencia, enero 2000, pp. 78–86. p. 86. [102] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 54. [103] IFRAH, G., Historia general de las cifras, Espasa–Calpe, Madrid, 1997. [104] Una sencilla exposición del argumento puede verse en: SEARLE, J. R., The myth of the computer: An exchange, en The New York Times Review of Books, 24 (Junio, 1982) pp. 56–57. Aquí utilizaré la expuesta en: SEARLE, J. R., ¿Es la mente un programa informático?, en Investigación y Ciencia, Marzo–1990. Para una discusión más amplia (26 artículos incluido el de Searle) puede verse el número de la revista: The Behavioral and Brain Sciences, Vol. 3, nº 3, 1980 (el artículo de Searle en pp. 417–458); y también: BISHOP, M. y PRESTON, J. M. (eds.), Views into the Chinese Room, Clarendon Press, Oxford, 2002. Searle ha expuesto sus ideas en varios libros: SEARLE, J. R., Mentes, cerebros y ciencia, Cátedra, Madrid, 1990; Intentionality: An essay in the philosophy of mind, Cambridge University Press, Cambridge, MA, 1983; The rediscovery of the Mind, MIT Press, Cambridge, MA, 1992. Ver también la voz Chinese Room Argument en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999. [105] SEARLE, J. R., ¿Es la mente un programa informático?, en Investigación y Ciencia, Marzo–1990, pp. 10–11. [106] Cfr. FREGE, G., Escritos lógico–semánticos, Tecnos, Madrid, 1974; Ueber Sinn und Bedeutung, Kleine Schriften, 1879. [107] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990. [108] TARSKI, A., Logic, semantics, metamathematics, Clarendon Press, Oxford, 1956; CARNAP, R., Introduction to semantics, Harvard University Press, Cambridge, MA, 1959; BUNGE, M., Antología semántica, Nueva Visión, Buenos Aires, 1960; MARTIN, R. M., Verdad y demostración, Tecnos, Madrid, 1962; BENACERRAF, P. y PUTNAM, H. (eds.), Philosophy of mathematics: Selected readings, Cambridge University Press, Cambridge, 1984; TYMOCZKO, T., New directions in the Philosophy of Mathematics, Birkhäuser, Basel, Boston, 1986; WHITE, A. M. (ed.), Essays in Humanistic Mathematics, Mathematical Association of America, Washington DC, 1993; DEAÑO, A., Las concepciones de la Lógica, Taurus, Madrid, 1980; NIDDITCH, P. H., The development of Mathematical Logic, Routledge, London, 1980 (El desarrollo de la Lógica Matemática, Cátedra, Madrid, 1980); SIMPSON, T. M., Formas lógicas: Realidad y significado, Editorial Universitaria, Buenos Aires, 1975. [109] GOLEMAN, D., Inteligencia emocional, Kairós, Barcelona, 1996; MARINA, J. A., El laberinto sentimental, Anagrama, Barcelona, 1996; ANDERSON, D. y MULLER, P., Faking it. The sentimentalism of modern society, The Social Affairs Unit, London, 1998. [110] STEINER, G., Presencias reales, Destino, Barcelona, 1991, p. 71. [111] WITTGENSTEIN, L., Philisophische Untersuchungen, Vortwort, Schriften, 38, p. 300 s. SPINOZA, B., Cogitata metaphysica II. G. W. F., HEGEL, Filosofía del Derecho, Prólogo, UNAM, México, 1975. [114] STEINER, G., Presencias reales, Destino, Barcelona, 1991. En el párrafo el autor resume las tesis de MAUTHNER, F., Beiträge zu einer Kritik der Sprache, libro que desconozco. La misma denuncia, en forma novelada, puede verse en: MILLÁS, J. J., El orden alfabético, Alfaguara, Madrid, 1998. [115] No puedo evitar la tentación de referir el chusco episodio protagonizado por Alan Sokal, un físico de la Universidad de Nueva York, que consiguió publicar en la prestigiosa revista Social Text un largo artículo sin pies ni cabeza, pero con una verborrea muy conseguida. Luego denunció el asunto y protagonizó una extensa y jugosa polémica -con primeros espadas como Derrida o Vattimo- por haber puesto de manifiesto que el rey iba desnudo. El artículo original es: SOKAL, A. D., Transgressing the Boundaries: Toward a Transformative Hermeneutics of Quantum Gravity, en Social Text nº 46/47 (spring/summer 1996), pp. 217-252. Desveló la parodia en: SOKAL, A. D., A Physicist Experiments with Cultural Studies, en Lingua Franca, May/June 1996, pp. 62-64. Ver también: SOKAL, A. D. y BRICMONT, J., Fashionable Nonsense: Postmodern Intellectuals' Abuse of Science, St. Martin's Press, New York, 1998 (Imposturas intelectuales, Paidós, Barcelona, 1999). Multitud de artículos y réplicas pueden verse en: http://www.physics.nyu.edu/faculty/sokal/. [116] TOMÁS DE AQUINO, In VIII Metaph., Lect. 1, nº 1683. [117] TOMÁS DE AQUINO, Summa Theologica, I, q. 85, a. 5, ad 3. [118] STICH, S. P., From Folk Psychology to Cognitive Science: The Case Against Belief, MIT Press, Cambridge, MA, 1983; Morton, A., Frames of Mind: Constraints on the Commonsense Conception of the Mental, Clarendon Press, Oxford, 1980; Greenwood, J. D., The Future of Folk Psychology: Intentionality and Cognitive Science, Cambridge University Press, Cambridge, 1991. [119] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 305. [120] NEWELL, A. y SIMON, H. A., Computer science as empirical inquiry, es un trabajo que hizo época, puede verse en HAUGELAND, J., Mind design, Bradford Books, MIT Press, Cambridge, MA, 1981; también está recogido en BODEN, M., The psycology of Artificial Intelligence, Oxford University Press, Oxford, 1991; asimismo en GARFIELD, J. L. (Ed.), Foundations of cognitive science: The essential readings, Paragon House, New York, 1990. Simon es el más arrojado al dar opiniones polémicas para su época, cfr.: SIMON, H., Models of man, Wiley, New York, 1957. [121] CHURCHLAND, P. S. y SEJNOWSKY, T. J., The computacional brain, MIT Press, Cambridge, MA, 1992; HAUGELAND, J., Artificial intelligence: the very idea, MIT Press, Cambrigde, MA, 1987; HAUGELAND, J., Mind design,MIT Press, Cambrigde, MA, 1981; FODOR, J. A., The modularity of mind, MIT Press, Cambrigde, MA, 1983; FLANAGAN Jr., O. J., The science of mind, MIT Press, Cambrigde, MA, 1984; CHURCHLAND, P. M., Matter and consciousness, MIT Press, Cambrigde, MA, 1984 (Materia y conciencia: Introducción contemporánea a la filosofía de la mente, Gedisa, Barcelona, 1990); PYLYSHYM, Z., Computation and cognition, MIT Press, Cambrigde, MA, 1984; FODOR, J., The language of thought, Cromwell, New York, [112] [113] 1975 (El lenguaje del pensamiento, Alianza, Madrid, 1984; FODOR, J., Representations, Bradford Books, MIT Press, Cambridge, MA, 1981; PYLYSHYM, Z., Computation and cognition, MIT Press, Cambrigde, MA, 1984 (Computación y conocimiento: Hacia una fundamentación de la ciencia cognitiva, Debate, Madrid, 1988); JOHNSON–LAIRD, P. N., The computer and the mind: An introduction to cognitive science, William Collins, Glasgow, 1988 (El ordenador y la mente: Introducción a la ciencia cognitiva, Paidós, Madrid, 1990). [122] GAZZANIGA, M. S., Dos cerebros en uno, en Investigación y Ciencia, septiembre, 1998, pp. 15–19. Es un tema conocido y popularizado para el que señala como bibliografía actualizada: PINKER, S., How the mind works, W. W. Norton, 1997; GAZZANIGA, M. S. (ed.), The bisected brain, Appleton Century Crofts, New York, 1970; GAZZANIGA, M. S., The mind's past, California Press, 1998; IVRY, R. B. y ROBERTSON, L. C., The two sides of perception, MIT Press. [123] Ibidem, pp. 15-19. [124] Quizá fuera mejor poner byte –ocho bits–; aunque bit es más popular, por lo que seguiré utilizando el término, dado que aquí no tiene importancia esa precisión. [125] PRIBRAM, K. H. y MARTÍN RAMÍREZ, J., Eds., Cerebro y conciencia, Díaz de Santos, Madrid, 1995; JACKENDOFF, R., Consciousness and the computational brain, Bradford Books, MIT Press, Cambridge, MA, 1987; DENNETT, D. C., Content and conciousness, Routledge, London, 1969; DENNETT, D. C., Consciousness explained, Little Brown, Canada, 1991; JACKENDOFF, R., Consciousness and the computational mind, Bradford Books, MIT Press, Cambridge, MA, 1987; ORNSTEIN, R., The evolution of consciousness: of Darwin, Freud, and cranial fire: The origins of the way we think, Prentice Hall, New York, 1991; CULBERTSON, J. T., Consciousness: Natural and artificial, Libra, Roslyn Heights, 1982; BAARS, B. J., A cognitive theory of consciousness, Cambridge University Press; Cambridge,, MA, 1988; CHURCHLAND, P. M., Matter and consciousness, MIT Press, Cambrigde, MA, 1984 (Materia y conciencia: Introducción contemporánea a la filosofía de la mente, Gedisa, Barcelona, 1990) ; CARRUTHERS, P., Language, Thought and Consciousness, Cambridge University Press, Cambridge, 1996; CHALMERS, D., The Conscious Mind: In Search of a Fundamental Theory, Oxford University Press, New York, 1996; SHEAR, J., Ed., Explaining Consciousness: The Hard Problem, MIT Press, Cambridge, MA, 1997; TYE, M., Ten Problems of Consciousness: A Representational Theory of the Phenomenal Mind, MIT Press, Cambridge, MA, 1995. [126] TUGENDHAT, E., Autoconciencia y autodeterminación. Una interpretación lingüístico–analítica, Fondo de Cultura Económica, México, 1993, p. 28. [127] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 432. [128] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p. 284. [129] TOMÁS DE AQUINO, De Veritate, q. 1, a. 9. [130] BRENTANO, F., Psychologie von empirischen Stanpunkt, Meiner, Hamburg, 1955. La edición original es de 1874; Brentano hizo varias redacciones. PUTNAM, H., Representation and Reality, MIT Press, Cambridge–Mass.–, 1987 (Representación y realidad, Gedisa, Barcelona, 1990); SEARLE, J. R., The rediscovery of the Mind, MIT Press, Cambridge, MA, 1992. [132] LLANO, A., Metafísica y lenguaje, Eunsa, Pamplona, 1984, p. 182. [133] TOMÁS DE AQUINO, De potentia, q. 9, a. 5. También Contra gentes, lib. IV, c. 11: "El concepto no es en nosotros ni la misma cosa que se entiende, ni la misma sustancia del intelecto, sino que es cierta semejanza concebida en el intelecto". [134] TOMÁS DE AQUINO, De Veritate, q. 1, a. 9. Sobre la reflexión en la teoría tomista del conocimiento cfr. SEGURA, C., La dimensión reflexiva de la verdad. Una interpretación de Tomás de Aquino, Eunsa, Pamplona, 1991. [135] TOMAS DE AQUINO, De Veritate, q. 1, a. 9, c. in fine. [136] JUAN DE SANTO TOMAS, Cursus Theologicus, disp. 32, a. 5, n. 11: "Intellectus noster intelligit intra se considerando, non extra se inspiciendo". [137] CRUZ CRUZ, J., Intelecto y razón. Las coordenadas del pensamiento clásico, Eunsa, Pamplona, 1982. [138] ARISTÓTELES, Política, 1253a, 10. [139] ARISTÓTELES, Ética a Nicómaco, 1.098a. [140] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p. 24. [141] TOMÁS DE AQUINO, Contra gentes, III, 59. [142] GRACIA, D., Prólogo a LAÍN ENTRALGO, P., Cuerpo y alma, Austral, Madrid, 1992, p. 29. [143] HEIDEGGER, M., La pregunta por la técnica, en Época de filosofía, I (1985) p. 29. [144] HEIDEGGER, M., ¿Qué significa pensar?, Nova, Buenos Aires, 1978, p. 16. [145] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 160. [146] HEGEL, G. W. F., Enzyclopädie der Philosophischen Wissenschaften im Grundisse, ed. Nicolin y Pöggeler, Hamburgo, 1969, par. 60. [147] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p. 207. [148] GADAMER, H–G, Verdad y método, Sígueme, Salamanca, 1977, p. 439. [149] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 363. [150] GADAMER, H–G, Verdad y método, Sígueme, Salamanca, p. 443. [151] ALVIRA DOMINGUEZ, R., La noción de finalidad, Eunsa, Pamplona, 1978, pp. 119 s. [152] UEXKÜLL, J. von, Umwelt und Innenwelt der Tiere, J. Springer, Berlin, 1921; LORENZ, K., La acción de la naturaleza y el destino del hombre, Alianza, Madrid, 1988; GEHLEN, A., Der Mensch: seine Natur und seine Stellung in der Welt, Athenäum Verl., Frankfurt a. M., 1966 (El hombre. Su naturaleza y su lugar en el mundo, Sígueme, Salamanca, 1987); GEHLEN, A., Del encuentro y descubrimiento del hombre por sí mismo, Paidós, Barcelona, 1993; PLESSNER, H., Die Stufen des [131] Organischen und der Mensch: Einleitung in die philosophische Anthropologie, de Gruyter, Berlin, 1975. [153] POLO, L., Curso de teoría del conocimiento II, Eunsa, Pamplona, 1985, p. 217. [154] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p.31. [155] ADORNO, T. W., Consignas. [156] GADAMER, H–G., Verdad y método, Sígueme, Salamanca, 1977, p. 585. [157] DESCARTES, R., El discurso del Método, ed. bilíngüe, Universidad de Puerto Rico, 1960. [158] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 195. [159] BOCHENSKI, I. M., Los métodos actuales del pensamiento, Rialp, Madrid, 1974, p. 74. [160] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 308. [161] Ibidem, p. 362. [162] JUAN DE SANTO TOMAS, Cursus Theologicus, disp. 32, a. 5, nº 13. [163] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p. 232. [164] EINSTEIN, A., Physik und Realität, en Zeitschrift für freie deutsche Forschung, 1938, pp. 6–7. [165] MILLÁN–PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p. 203. [166] Un análisis filosófico, pormenorizado y completo, de la capacidad de laborar objetos con independencia de la semántica y a muy diferentes niveles se puede encontrar en MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990. [167] POLO, L., Indicaciones acerca de la distinción entre generalización y razón, en VV. AA., Razón y libertad, Rialp, Madrid, 1990, pp. 87–91. [168] MICHELSON, A. A. y MORLEY, E. W., On the Relative Motion of the Earth and the Luminiferuos Ether, en American Journal of Science, 3ª serie, vol. 34, pp. 333– 341. [169] Puede verse en LORENTZ, H. A., EINSTEIN, A., MINKOWSKI, H. y WEYL, H., The Principle of Relativity. Un breve resumen se encuentra en PEARCE WILLIAMS, L. (Ed.), La teoría de la relatividad, Alianza Universidad, Madrid, 1986, pp. 46–50. [170] HUME, D., Enquiry concerning human understanding, es el famoso y citado final del libro. [171] Cfr. CROMBIE, A. C., Styles of scientific thinking in the european tradition, 3 vols., Duckworth, London, 1994; BOCHENSKI, I. M., Los métodos actuales del pensamiento, Madrid, 1974. [172] Cfr. ARANA, J., La racionalización del movimiento, en Thémata, Revista de Filosofía, nº 9, 1992, pp. 47–71. BOCHENSKI, I. M., Los métodos actuales de pensamiento, Rialp, Madrid, 1974, p. 158 ss. [174] TOMÁS DE AQUINO, Summa Theologica, I, q. 88, a. 1, ad 2. [175] TOMÁS DE AQUINO, In Metaphys., lib. VII, lect. 6, nº 1405. [176] KANT, I., Crítica de la razón pura, Prólogo a la segunda edición, B XXII, Alfaguara, Madrid, 1978. [177] LACAN, afirmación recogida en CARUSO, P., Conversaciones con Lévi– Strauss, Foucault y Lacan, Anagrama, Barcelona, p. 114. [178] KANT, I., Crítica de la razón pura, Alfaguara, Madrid, 1978, Prólogo a la segunda edición, B XXII. [179] ARISTÓTELES, Metafísica, IV, 4, 1006 b 10. [180] HERÁCLITO, Fragmentos, 3. [181] POLO, L., ¿Quiés es el hombre?, Rialp, Madrid, 1991, p.49. [182] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p. 227. [183] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 114. [184] FINANCE, J. DE, Ensayo sobre el obrar humano, Gredos, Madrid, 1966, p. 416. [185] Ibidem, p. 418. [186] GEERTZ, G., The interpretation of culture, Basics Books, New York, 1973, p. 141 (La interpretación de las culturas, Gedisa, Barcelona, 1987). [187] BRUNER, J., Actos de significado. Más allá de la revolución cognitiva, Alianza, Madrid, 1991, p. 28. [188] La analogía de la evolución de las ideas con la evolución biológica ha llevado a fraguar los memes -siguiendo una propuesta de Dawkins, que inventó la palabracomo equivalentes de los genes, y a proponer toda una serie de teorías sobre la evolución cultural construidas a imagen y semejanza de la genética evolucionista. Cfr. DAWKINS, R., The selfish gene, Oxford University Press, Oxford, 1976 (El gen egoísta, Labor, Barcelona, 1979); BLACKMORE, S., The meme machine, Oxford University Press, Oxford, 1999; BOYD, R. y RICHERSON, P. J., Culture and the evolutionary process, University of Chicago Press, Chicago, 1985; LUMSDEN, C. y WILSON, W. O., Genes, mind and culture: the coevolutionary process, Harvard University Press, Cambrigde, MA, 1981; PLOTKIN, H. C., Darwin machines and the nature of knowledge, Penguin Books, New York, 1993; DENNETT, D. C., Darwin's dangerous idea: Evolution and the meanings of the life, Simon and Schuster, New York, 1995. Ver también la voz Cultural Evolution en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999. [189] TOMÁS DE AQUINO, De Veritate, q. 24, a. 2, in c. Cfr. Summa Theologiae I–II, q. 17, a. 1, ad 2. [190] MONOD, J., Le hasard et la nécessité: Essai sur la philosophie naturelle de la biologie moderne, Seuil, Paris, 1973 (El azar y la necesidad: ensayo sobre la filosofía natural de la biología moderna, Tusquets, Barcelona, 1985). [173] HEGEL, G. W. F., Enciclopedia de las ciencias filosóficas, par. 482. TOMÁS DE AQUINO, Summa Theologica I–II, q. 17, a. 1, ad 2. [193] WOJTYLA, K., Persona y acción, BAC, Madrid, 1982, p. 140. [194] MILLÁN–PUELLES, A., Fundamentos de Filosofía, Rialp, Madrid, 1962, p. [191] [192] 379. SARTRE, J.–P., L'Être et le Néant, Paris, 1943, p. 516. LAPLACE, P. S., Théorie analytique des probabilités, Paris, 1812, Prefacio. [197] BERGSON, H., Essai sur les données immediates de la conscience, PUF, Paris, 1970, p. 39. [198] ARISTÓTELES, De Anima, II, 1, 412b, 6–9. [199] MILLÁN–PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p. 396. [200] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990, p. 832. Con estas palabras –en cursiva en el original– termina el libro. [201] Ibidem, p. 768. [202] Ibidem, p. 805. [203] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p.24. [204] ARISTÓTELES, Metafísica, A, c. 1, 980. [205] LLANO, A., El futuro de la libertad, Eunsa, Pamplona, 1984, p. 76. [206] Ibidem, p. 42 y 44. [207] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p. 20. [208] MILLÁN–PUELLES, A., Teoría del objeto puro, Rialp, Madrid, 1990, p. 832; la cursiva es del original. [209] Esta es la tesis que puso en circulación Chomsky y que ha tenido cierto éxito. Cfr, CHOMSKY, N., The Logical Structure of Linguistic Theory, Plenum, New York, 1975; Rules and Representations, Columbia University Press, New York, 1980; Knowledge of Language, Praeger, New York, 1986. [210] GADAMER, H–G., Verdad y método, Sígueme, Salamanca, 1977, p. 532 s. [211] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 166. [212] POINCARÉ, H., La ciencia y la hipótesis, Austral, Madrid, 1963, p. 213. [213] HEISENBERG, W., Physik und Philosophie, Ullstein, Frankfurt–Berlin, 1961, p. 156. [214] MAXWELL, J. C., Scientific Papers II, Cambridge, 1890, p. 418. [215] DE BROGLIE, L., Materia y luz, Espasa–Calpe, Buenos Aires, 1945, p. 302. [216] Ibidem, p. 248. [217] WHITEHEAD, A. N., Mathematics, en Encyclopaedia Britannica. [218] LAIN ENTRALGO, P., Bichot, Col. Clásicos de la Medicina, CSIC, Madrid. [219] POLO, L., Presente y futuro del hombre, Rialp, Madrid, 1993, p. 38. [220] POLO, L., La persona humana y su crecimiento, Eunsa, Pamplona, 1996, p. 103. [221] TOMÁS DE AQUINO, Summa Theologica, III, q. 75, a. 6. [195] [196] [222] [223] TOMÁS DE AQUINO, In Metaphys., XII, lect. 2. HEISENBERG, W., Physik und Philosophie, Ullstein, Frankfurt–Berlin, 1961, p. 132. POINCARÉ, H., La ciencia y la hipótesis, Austral, Madrid, 1963, p. 126 s. NIETZSCHE, F., Nachgelassene Fragmente, en Nietzsche Kritische Studienausgabe, t. 12, p. 304. [226] POLO, L., Filosofar hoy, en Anuario Filosófico, XXV, 1 (Pamplona, 1992) p. 31. [227] ROSSI, P., Los filósofos y las máquinas (1.400–1.700), Labor, Barcelona, 1970, p. 12. [228] Ibidem, p. 11. [229] Cfr. Génesis, 2, 15. [230] ALVIRA DOMINGUEZ, R., Reivindicación de la voluntad, Eunsa, Pamplona, 1988, p. 234. [231] ROSSI, P., Los filósofos y las máquinas (1.400– 1.700), Labor, Barcelona, 1970, p. 12. [232] FUDENBERG, D. y TIROLE, J., Game Theory, MIT Press, Cambridge, MA, 1991; MYERSON, R. B. (ed.), Game Theory, Harvard University Press, Cambridge, MA, 1991; OSBORNE, M. J., y RUBINSTEIN, A., A Course in Game Theory, MIT Press, Cambridge, MA, 1994; AUMANN, R. J., Lectures on Game Theory, Westview Press, Boulder, CO, 1989; AUMANN, R. J. y Hart, S., Handbook of Game Theory with Economic Applications, vols. 1 - 3, Elsevier, Amsterdam, 1992, 1994 y 1997; Von NEUMANN, J. y MORGENSTERN, O., Theory of Games and Economic Behaviour, Princeton University Press, Princeton, 1944; MEGIDDO, N., Essays in Game Theory, Springer, New York, 1994; KREPS, D. M., Game Theory and Economic Modelling, Clarendon Press, Oxford, 1990; AXELROD, R., The evolution of cooperation, Basic Books, New York, 1984. [233] LÓPEZ QUINTAS, A., La experiencia estética y la formación integral del hombre, en Actas de las XXV Reuniones Filosóficas de la Univ. de Navarra, Pamplona, 1991, t. II, p. 1.306. [234] Ibidem, p. 1.303 s. [235] ARISTÓTELES, Partes de los animales, I, 5. [236] WEIZSÄCKER, C. F. von, La imagen física del mundo, BAC, Madrid, 1974, p. 167. [237] PRIGOGINE, I. y STENGERS, I., Entre el tiempo y la eternidad, Alianza, Madrid, 1990, p. 12. [238] ALVIRA DOMINGUEZ, R., La noción de finalidad, Eunsa, Pamplona, 1978, p. 25. [239] POLO, L., Introducción a la filosofía, Eunsa, Pamplona, 1995, p. 123 s. [240] De hecho, para comprender los procesos de autoorganización, la vida artificial es una campo incipiente y activo de investigación con ordenadores. Cfr. EMMECHE, C., The Garden in the Machine: The Emerging Science of Artificial Life, Princeton University Press, Princeton, 1994; KAUFFMAN, S. A., The Origins of Order: [224] [225] Self-Organization and Selection in Evolution, Oxford University Press, Oxford, 1992; LEVY, S., Artificial Life: The Quest for a New Creation, Panteon, New York, 1992. Ver también las voces Artificial Life y Self-Organizing Systems en WILSON, R. A. y KEIL, F. (eds.), The MIT Encyclopaedia of the Cognitive Sciences, MIT Press, Cambridge, MA, 1999. [241] ALVIRA DOMINGUEZ, R., ¿Qué significa trabajo?, en Estudios sobre la "Laborem exercens", BAC, Madrid, 1987, p. 192. [242] TOMÁS DE AQUINO, Summa Theologiae I–II, q. 1, a. 1, c. [243] MARX, K., Tesis sobre Feuerbach, XI. [244] BRUNER, J., Acción, pensamiento y lenguaje, Alianza, Madrid, 1984, p. 31. Para hacerse una idea de la evolución de la psicología en las últimas décadas es muy grata la lectura de su autobiografía: En busca de la mente, Fondo de Cultura Económica, México, 1983. [245] PENROSE, R., La nueva mente del emperador, Mondadori, Madrid, 1991, p. 508 s. [246] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p. 93. [247] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 357. [248] POLO, L., Curso de teoría del conocimiento, Tomo III, Eunsa, Pamplona, 2ª ed, 1999, p. 235. [249] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p. 173. [250] POLO, L., El acceso al ser, Eunsa, Pamplona, 1964, p. 286. [251] MILLÁN-PUELLES, A., La estructura de la subjetividad, Rialp, Madrid, 1967, p. 147. [252] Ibidem, p. 135. [253] Ibidem, p. 167. [254] Ibidem, p. 117. [255] Ibidem, p. 98. [256] Ibidem, p. 66. [257] Ibidem, p. 66. [258] Ibidem, p. 68. [259] Ibidem, p. 386 s. [260] BRUNER, J., Actos de significado. Más allá de la revolución cognitiva, Alianza, Madrid, 1991, p. 11. [261] Ibidem, p. 13. [262] RIVIÈRE, A., El sujeto de la Psicología Cognitiva, Alianza, Madrid, 1987, p. 97. [263] ARISTÓTELES, Ética a Nicómaco, lib. I, cap. 7. [264] Muchos de los casos conocidos de niños salvajes pueden verse en: SINGH, J. A. L., y ZINGG, R. M., Wolf–children and feral man, Harper, New York, 1942. Más completo –trata los 53 casos conocidos hasta entonces– es MALSON, L., Les enfants sauvages, Union Génèrale d'Editions, Paris, 1964. L'enfant sauvage de Trouffaut, basada en un caso real que se puede ver en: ITARD, J. M. G., The wild boy of Aveyron, Appleton Century Crofts, New York, 1962. [266] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 208–209. Todo este libro, cuya lectura es un placer, puede verse como una estupenda crítica a la idea de espontaneidad aplicada a la inteligencia. [267] Ibidem, p. 226. [268] Ibidem, p. 226. [269] PIAGET, J., La formation du symbole chez l'enfant, Delachaux et Nietslé, Neuchâtel, 1967; La naisance de l'intelligence chez l'enfant, Delachaux et Nietslé, Neuchâtel, 1968; Seis estudios de psicología, Seix–Barral, Barcelona, 1968; The stages of the intellectual developement of the child, en Bulletin Menninger Clinic, nº 26 (1962) pp. 120–128; PIAGET, J. y INHELDER, B., De la logique de l'enfant à la logique de l'adolescent. Essai sur la construction des structures opérationelles formelles, P. U. F., Paris, 1955. [270] BANDURA, A., Pensamiento y acción, Martínez Roca, Barcelona, 1987, p. 513. [271] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 230. [272] WIENER, N., Cybernetics or control and communication in the animal and the machine, M.I.T. Press, Cambrigde, Mass., 1948. Sobre la cibernética ver también: WIENER, N., Cibernética y sociedad, Ed. Sudamericana, Buenos Aires, 1969; ASHBY, Introducción a la cibernética, Nueva Visión, Madrid, 1960; Proyecto para un cerebro, Tecnos, Madrid, 1965; PASK, G., An approach to Cybernetics, Londres, 1968; ROSE, J., La revolución cibernética, México, 1977. [273] ARACIL, J., Introducción a la dinámica de sistemas, Alianza, Madrid, 1978, p. 28. [274] La Teoría General de Sistemas es un completo paradigma, una forma de pensar muy fecunda para entender la complejidad, que engloba multitud de campos como la teoría de conjuntos (Mesarovic), teoría de las redes (Rapoport), cibernética (Wiener), teoría de la información (Shannon y Weaver), dinámica de sistemas (Forrester), teoría de los autómatas (Turing), teoría de los juegos (von Neumann), etc. Cfr. BERTALANFFY, L. von, General Systems Theory; Foundations, Development, Applications, George Braziller, New York, 1968 (Teoría General de los Sistemas, Fondo de Cultura Económica, México, 1976.); BERTALANFFY, L. von, Perspectives on General Systems Theory. Scientific-Philosophical Studies, Georges Braziller, New York, 1975 (Perspectiva en la Teoría General de Sistemas, Alianza Universidad, Madrid,1982.); KLIR, G.J. (ed.), Trends in General Systems Theory, John Wiley & Sons, New York, 1972. [275] En la terminología cibernética elaborada por Wiener y su escuela, la simple regulación por mecanismos de feed–back se denomina regelung, mientras que el «mando», que incluye comportamiento predictivo y por estrategias, se denomina steuerung. [276] ARACIL, J., Máquinas, Sistemas y Modelos, Tecnos, Madrid, 1986, p. 67. [265] CARLSON, N. R., Fisiología de la conducta, Ariel, Barcelona, 1998, p. 99. PONCIN, M. le, Nueva gimnasia cerebral, Temas de Hoy, Madrid, 1997. [279] DE GARAY, J., Los sentidos de la forma en Aristóteles, Pamplona, 1987, p. [277] [278] 400 s. POLO, L., Presente y futuro del hombre, Rialp, Madrid, 1993, p. 134. Quien esté interesado puede ver una breve exposición histórica en: SELLÉS, J. F., Hábitos y virtud (I), en Cuadernos del Anuario Filosófico, nº 65, Servicio de Publicaciones de la Universidad de Navarra, Pamplona, 1998. [282] POLO, L., Conocimiento habitual de los primeros principios, Servicio de Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 56 y 58. [283] ARISTÓTELES, Ética a Nicómaco, II–1, 1103a 26–34. [284] POLO, L., Nominalismo, idealismo y realismo, Eunsa, Pamplona, 1997, p. 228. [285] POLO, L., Curso de teoría del conocimiento III, Eunsa, Pamplona, 1988, p.31. [286] POLO, L., Conocimiento habitual de los primeros principios, Servicio de Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 59. [287] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 225. [288] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 115–116. [289] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p. 227. [290] MARINA, J. A., Elogio y refutación del ingenio, Anagrama, Barcelona, 1992, p. 242. [291] MARINA, J. A., Teoría de la inteligencia creadora, Anagrama, Barcelona, 1993, p. 149. [292] Ibidem, p. 232. [293] Me refiero a un autor que ha retomado la tarea de proseguir aquella investigación, con notables resultados. Cfr. POLO, L., Curso de teoría del conocimiento, 4 vols., Eunsa, Pamplona, 1984–1996. Es una obra notable, escrita en un lenguaje cuya comprensión requiere buenos conocimientos. Obras más accesibles son: Introducción a la filosofía, Eunsa, Pamplona, 1995; Quién es el hombre. Un espíritu en el mundo, Rialp, Madrid, 1991; La persona humana y su crecimiento, Eunsa, Pamplona; Ética: hacia una versión moderna de los temas clásicos, Universidad Panamericana, México, 1993 (reedición española: Unión editorial, Madrid, 1996); Presente y futuro del hombre, Rialp, Madrid, 1993; Nominalismo, idealismo y realismo, Eunsa, Pamplona, 1997. [294] BUNGE, M., La investigación científica. Su estrategia y su filosofía, Ariel, Barcelona, 1976, p. 306. [295] POPPER, K. R., La lógica de la investigación científica, Tecnos, Madrid, 1977, p. 261. [296] FEYERABEND, P. K., Contra el método: esquema de una teoría anarquista del conocimiento, Ariel, Barcelona, 1974, p. 163. [280] [281] SKOLIMOVSKI, H., Racionalidad evolutiva, Publicaciones del Departamento de Lógica de la Universidad de Valencia, Valencia, 1979, p. 35. [298] POLO, L., Quién es el hombre, Rialp, Madrid, 1991, p. 31. [299] Ibidem, p. 29–30. [300] GADAMER, H. G., Verdad y método, Sígueme, Salamanca, 1977, p. 443. [301] ARISTÓTELES, Ética a Nicómaco, lib. I, cap. 7. [302] TOMÁS DE AQUINO, Summa Theologiae I–II, q. 57, a. 2, ad primum. [303] Ibidem, a. 2, in c. [304] POLO, L., Conocimiento habitual de los primeros principios, Servicio de Publicaciones de la Universidad de Navarra, Pamplona, 1993, p. 9. [305] Ibidem, p. 60, nota 18. [306] YEPES, R., Persona: Intimidad, don y libertad nativa, en Anuario Filosófico, 1996 (29) p. 1080. [307] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro Tiempo, Marzo–1995, p. 120. [308] TUGENDHAT, E, Autoconciencia y autodeterminación, Fondo de cultura Económica, México, 1993, p. 28–29. [309] HOWLIN, P., Lenguaje, en RUTTER, M. (Ed.), Fundamentos científicos de la psiquiatría del desarrollo, Salvat, Barcelona, 1982. [310] Cfr.: SINGH, J. A. L. y ZINGG, R. M., Wolf–children and feral man, Harper, New York, 1942; MALSON, L., Les enfants sauvages, Union Génèrale d'Editions, Paris, 1964; ITARD, J. M. G., The wild boy of Aveyron, Appleton Century Crofts, New York, 1962. [311] Cfr.: CURTISS, S., Genie: A psycholinguistic study of a modern–day "Wild Child", Academic Press, New York, 1977. Relata el caso de una niña, Genie, a la que sus padres mantuvieron encerrada, en estricto aislamiento. [312] KELLER, H., The story of my life, Doubleday, New York, 1927. Una película, El milagro de Anna Sullyvan, popularizó el caso. [313] Cfr.: LANGEMEIER J., y MATEJCEK, Z., Psycological deprivation in childhood, University of Queensland Press, Queensland, 1975; CLARKE, A. M. y CLARKE, A. D. B., Early experience: myth and evidence, Open Books, London, 1976. [314] PETER HOBSON, R., El autismo y el desarrollo de la mente, Alianza, Madrid, 1995. [315] Cfr.: STEVENSON, J. y HAMILTON, M. L., Behaviour, language and developement in three–year–old childrem, en Journal Autism Cild. Schiz. 8 (1978) pp. 299–313; PRINCE, C. S., Mental health problems in pre–school West Indian childrem, en Matern. child care, 3 (1960) pp. 483–486; LENNENBERG, E. H., Biological foundations in the study of language, Wiley, New York, 1967. [316] ALONSO–FERNÁNDEZ, F., Psicología médica y social, Salvat (Barcelona, 1984) p. 596. [317] VYGOTSKY, L. S., El desarrollo de los procesos psicológicos superiores, Crítica, Barcelona, 1979; VYGOTSKY, L. S., Pensamiento y lenguaje, Paidós, Buenos Aires; The Collected Works of L. S. Vygotski, Vol. 1 (1987), Vol. 2 (1993), Vol. 3 (1997), [297] Plenum, New York; FRAWLEY, W., Vygotsky and Cognitive Science: Language and the Unification of the Social and Computational Mind, Harvard University Press, Cambridge, MA, 1997; WERTSCH, J. V., Vygotsky and the Social Formation of Mind, Harvard University Press, Cambridge, MA, 1985. [318] PALACIOS, J. M., MARCHESI, A. y COLL, C. (eds.), Desarrollo psicológico y educación: 1. Psicología evolutiva, Alianza, Madrid, 1999, p. 58. [319] DIAZ, R. M. y BERK, L. E. (Eds.), Private speech: from social interaction to self–regulation, L. Erlbaum Ass., Hilsdale, New Jersey, 1992. [320] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 150. [321] DENNETT, D. C., La estrategia intencional, Gedisa, Barcelona, 1991, p. 27. [322] RIVIÈRE, A., Objetos con mente, Alianza, Madrid, 1991, p. 160. [323] BRUNER, J., Acción, pensamiento y lenguaje, Alianza, Madrid, 1984, p. 40. [324] JASPERS, K., Autobiografía filosófica, Ed. Sur, Buenos Aires, 1984, p. 98. [325] STEINER, G., Presencias reales, Destino, Barcelona, 1991, p. 169. [326] Ibidem, p. 189. [327] CASPER, B., Das dialogische Denken, Herder, Viena–Freiburg, 1967; LAÍN ENTRALGO, P., Teoría y realidad del otro, Revista de Occidente, Madrid, 1961; EBNER, M., Schriften, 3 vols., Munich, 1963–1965; LUCAS, J. de S., Antropologías del siglo XX, Sígueme, Salamanca, 1972; SÁNCHEZ MECA, D., La filosofía de M. Buber. Fundamento existencial de la comunicación, Herder, Barcelona, 1984; SCHILPP, P. A. y FRIEDMAN, M. (Eds.), The philosophy of Martin Buber, Open Court Publications, La Salle, Illinois, 1967; BUBER, M., Yo y tú, Caparrós, Madrid, 1993; BUBER, M., ¿Qué es el hombre?, Fondo de Cultura Económica, México, 1964; MISRAHI, R., Martin Buber, le philosophe de la rélation, Seghers, Paris, 1968; ADRIANUS, M., Martin Buber, Queriniana, Brescia, 1972; JARAUTA, F. (Ed.), Franz Rosenzweig. El nuevo pensamiento, Visor, Madrid, 1989; GLATZER, N., Franz Resenzweig. His life and thought, Schocken Books, New York, 1975; FREUND, E., Die Existenzphilosophie Franz Rosenzweig, Hamburg, 1959; ROSENZWEIG, F., El libro del sentido común sano y enfermo, Caparrós, Madrid, 1995; GONZÁLEZ, G. y ARNÁIZ, R., E. Lévinas. Humanismo y ética, Cincel, Madrid, 1988; AGUILAR, J. M., Trascendencia y alteridad. Estudio sobre E. Lévinas, Eunsa, Pamplona, 1992; LÉVINAS, E., Totalidad e infinito. Ensayo sobre la exterioridad, Sígueme, Salamanca, 1977; LÉVINAS, E., Humanismo del otro hombre, Siglo XXI, México, 1974; LÉVINAS, E., De otro modo que ser, o más allá de la esencia, Sígueme, Salamanca, 1987; BURGGRAEVE, R., Emmanuel Lévinas. Une biblographie primarie et secondaire (1929–1985), Vrin, Paris, 1987. [328] WITTGENSTEIN, L., Notes for Lectures on «Private Experience» and «Sense data», en The Philosophical Review, 77 (1968) p. 300, nota 20. Cfr. KRIPKE, S., Wittgenstein on rules and private language, Harvard University Press., Cambridge, MA, 1984; VILLANUEVA, E., El argumento del Lenguaje Privado, Universidad Autónoma de México, México, 1979. [329] MEAD, G. H., Espíritu, persona y sociedad, Paidós, México, 1990. [330] ARISTÓTELES, Política I, 1.253a9 ss. TUGENDHAT, E, Autoconciencia y autodeterminación, Fondo de cultura Económica, México, 1993, p. 193. [332] CANALS VIDAL, F., Sobre la esencia del conocimiento, P. P. U., Barcelona, 1987, p. 30 s. [333] Ibidem, p. 229 s. [334] FINANCE, J. de, Ensayo sobre el obrar humano, Gredos, Madrid, 1966, p. 188 s. [335] ALVIRA DOMÍNGUEZ, R., Reivindicación de la voluntad, Eunsa, Pamplona, 1988, pp. 241 s. [336] CANALS VIDAL, F., Sobre la esencia del conocimiento, P.P.U., Barcelona, 1987, p. 36. [337] FALGUERAS, I., El crecimiento intelectual, en Actas de las XXV Reuniones Filosóficas de la Univ. de Navarra, t. I, Pamplona, 1991, p. 611. [338] Ibidem, p. 620 s. [339] GONZÁLEZ QUIRÓS, J. L., El porvenir de la razón en la era digital, Síntesis, Madrid, 1998, p. 156. [340] Ibidem, p. 171. [341] ARISTÓTELES, Ética a Nicómaco, VI, 3, 1139b 15–17. Todo el capítulo VI de la Ética desarrolla el tema de las virtudes intelectivas. [342] MACINTYRE, A., Tres versiones rivales de la ética, Rialp, Madrid, 1992, p. 91. [343] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro Tiempo, Marzo–1995, p. 116. [344] PASCAL, B., Pensées, ed. Brunschvicg, p. 488, nº 347. [345] ARANA CAÑEDO-ARGÜELLES, J., De la sabiduría clásica a la ciencia moderna. El cambio de método y sus consecuencias culturales, en Civilización mundial y cultura del hombre, Servicio de Publicaciones de la Universidad de Sevilla, Sevilla, 1987, p. 35. [346] LLANO, A., Una ética para la sociedad del conocimiento, en Nuestro Tiempo, Marzo–1995, p. 125. [347] Ibidem, p. 118. [348] MILLÁN–PUELLES, A., Técnica y humanismo, en Sobre el hombre y la sociedad, Rialp, Madrid, 1976, p. 209. [331] [TAA1]Hacer referencia en la nota a Lakatos, Feyerabend y Stegmüller.