¿TIENE VENTANAS LA HABITACIÓN CHINA? LA IMPOSIBILIDAD

Anuncio
¿TIENE VENTANAS LA HABITACIÓN CHINA?
LA IMPOSIBILIDAD DEL SUPUESTO
DE LA SUSTITUCIÓN EN SEARLE*
Luis F. Artiles Arbelo
[email protected]
RESUMEN
Este trabajo analiza críticamente el conocido argumento de Searle basado en «La habitación
china». Nuestro propósito es poner de manifiesto algunos problemas en relación al paso
más crucial en la argumentación de Searle,: la sustitución de una máquina por una persona.
PALABRAS CLAVE: ciencia cognitiva, inteligencia artificial, intencionalidad, lenguaje.
ABSTRACT
HAL 9000. - Por cierto, ¿le importa si le hago una pregunta particular?
David Bowman.- No, adelante.
HAL.- Bien, perdóneme si soy indiscreto, pero en las últimas semanas
me he preguntado si ustedes no tendrían otra idea acerca de la misión.
D.B.- ¿Que quieres decir?
HAL.- ... Pues, no es fácil concretar. Quizás no hago más que expresar mis
propias preocupaciones. Nunca me he liberado completamente de la sospecha
de que hay algunas cosas muy extrañas en esta misión. Estoy seguro de que
usted convendrá en que hay algo de verdad en lo que digo.
(Diálogo extraido de la película 2001: una odisea del espacio).
A comienzos de 1968 los asistentes al estreno de 2001: una odisea del espacio
fueron testigos de un diálogo, cuando menos, inusual hasta ese momento. El computador encargado del control y supervisión de una misión tripulada al planeta
Júpiter mantenía una extraña y convincente conversación con uno de sus tripulantes. El computador tenía por nombre HAL 9000 y pertenecía a la última generación de ordenadores, diseñados para la realización de las tareas de control, toma de
REVISTA LAGUNA , 8; enero 2001, pp. 79-94
05.pmd
79
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 79
This paper analyses Searle´s well known argument based on «The Chinesse Room». Our
aim is to point out some difficulties in relation to the most crucial step in Searle´s argument:
the substitution of a person for a machine.
KEY WORDS: cognitive science, artificial intelligence, intentionality, language.
LUIS F. ARTILES ARBELO 80
decisiones y detección de errores en todo lo que concernía a una misión espacial. Lo
que hemos reproducido arriba es una muestra de ese diálogo y lo inusual es que, a
menos que lo supiéramos de antemano, no hubiéramos podido identificar a uno de
los hablantes como «siendo un engendro mecánico». La formulación de deseos, la
adscripción de creencias e intenciones a otras personas, hacer predicciones que impliquen comportamientos de otros seres, etc, son rasgos particularmente humanos
puestos en «boca» de un computador. Parece como si a lo largo de la película, el
guionista se hubiera empeñado en cambiar los papeles que, tradicionalmente, se
adjudicaban al comportamiento de los humanos y los computadores. Por un lado
los tripulantes son extremadamente calculadores, «fríos» en cuanto a su conducta,
privados o, al menos, estrictamente entrenados para no manifestar comportamientos emotivos. En cambio, el computador muestra en su discurso un sorprendente
acercamiento a pautas que calificaríamos de exclusivamente humanas. Incluso cuando
se procede a su desconexión, a su muerte, sus palabras suenan más humanas que las
que puedan pronunciar cualquiera de los tripulantes durante toda la película.
El tratamiento novedoso del computador como capacitado para desarrollar
un comportamiento en todo comparable al humano es una de las características
más notables de esta celebrada obra. La cinematografía se había concentrado hasta
ese momento en otros muchos aspectos de la relación entre el hombre y las máquinas, pero no en éste. Particularmente interesante es la aproximación a determinada
concepción que en esos momentos ya se tenía sobre los ordenadores y su función
metafórica en la explicación de la mente. De hecho, unas décadas antes, se habían
desarrollado ciertas disciplinas que postulaban la capacidad futura de estos artefactos para simular el comportamiento humano. Se decía por entonces que, una vez
hubieran avanzado los procedimientos técnicos capaces de hacerlo realidad, las respuestas que el computador diera en relación a determinadas preguntas serían indistinguibles de las que obtendríamos de un ser humano. Si ese mecanismo era capaz
de superar con éxito una prueba semejante, nos sería completamente imposible
decidir sobre la naturaleza de nuestro interlocutor. Esto que acabamos de mencionar, se sitúa en el centro mismo del problema que trataremos en este trabajo y,
aunque hemos dado una versión más divulgativa que técnica, se conoce como «test
de Turing»1. Aplicado a nuestros atónitos espectadores, y teniendo en cuenta la
informalidad con la que hemos introducido el concepto, el test de Turing consistiría
en lo siguiente: si a los asistentes al estreno de la película que estamos comentando
*
Agradezco a Manuel Liz las correcciones a versiones previas de este trabajo así como el
haberme animado a publicarlo en forma de artículo.
1
En 1950, Alan Turing (1912-1954) propuso una prueba conocida como el Test de Turing.
La idea nuclear era que si una persona se comunicaba a través de un terminal de ordenador con otras
dos que estuvieran ocultas, y no pudiera discriminar a través de una serie de preguntas cuál era la
persona y cuál el ordenador, entonces tendríamos una prueba de que el ordenador muestra la cualidad que conocemos como «inteligencia». Este Test es también llamado «Juego de Imitación». Para
una aproximación histórica a la Inteligencia Artificial véase Enric Trillas. La Inteligencia Artificial.
Máquinas y personas. Editorial Debate. 1998.
05.pmd
80
26/02/2013, 8:44
se les hubiera dado a conocer el diálogo, sin el concurso de las imágenes, y no
hubieran podido discriminar qué parte del discurso procede de los tripulantes humanos y qué parte es producida por la máquina, entonces nuestra máquina habría
superado con éxito el test de Turing, y los asistentes al estreno no estarían en condiciones de determinar la naturaleza dispar de tripulantes y máquina. Les tendrían
que adscribir, por tanto, la misma naturaleza.
Lejos de ser una mera curiosidad técnica, este tema se ha mantenido muy
vivo en las discusiones filosóficas (...y no tan filosóficas) actuales, y ha dado lugar a
todo tipo de intervenciones en uno u otro sentido. Nuestros sorprendidos espectadores han podido recorrer un largo camino que lleva desde la simpatía por un artilugio mecánico consciente, y tal vez más humano que los propios humanos, hasta
el más pavoroso terror por un futuro que se nos anuncia como la sustitución del
hombre, y de sus presuntas características únicas, por un conglomerado más o menos complicado de cables y trozos de metal. Como veremos, todas estas posiciones
encuentran también eco (y a veces de un modo extremadamente visceral) en disciplinas como la psicología, la filosofía, la inteligencia artificial, las neurociencias y
todas aquellas ramas que tengan que ver con el estudio de la mente humana.
Para el conductismo, sólo podíamos pronunciarnos sobre aquellos aspectos
de la psicología de un individuo que pudieran extraerse directamente de su comportamiento, de su conducta, que era en realidad lo único observable. La mente (en el
mejor de los casos) estaba recluída en una especie de caja negra inexpugnable al
tratamiento científico. A partir de los años 40, se multiplicaron las críticas a esta
visión conductista de la mente. Y sobre todo, se centraron en los problemas que
tenía a la hora de explicar los procesos de aprendizaje del lenguaje. Paralelamente a
tales críticas, surgen los modelos computacionales clásicos, que encuentran un desarrollo inusitado en relación a disciplinas como la lógica matemática, la lingüística
y la filosofía del lenguaje. Es aquí donde encontramos esa primera visión de la
mente como un computador, todo ello avalado por el surgimiento de la teoría matemática de la información, la teoría de la computabilidad, así como por importantes avances en el campo de la electrónica que permiten la creación de los primeros
computadores. Nos encontramos en la década de los 40, veinte años antes de la
aparición, ficticia por supuesto, de nuestro héroe de 2001: una odisea del espacio.
A partir de los años 50, el campo de estudio de la mente comienza a ser
dominado por una nueva visión que aglomera varias disciplinas y que comenzará a
conocerse como Ciencias Cognitivas. En ellas, tienen cabida desde la psicología
hasta la filosofía del lenguaje, pasando por las teorías matemáticas de la computación, la lingüística y las neurociencias. No se trata de una ciencia en el sentido en
que podemos aplicar este término a la física o a la biología, más bien se trata de un
conjunto de disciplinas, cada una con su objeto y metodología propia, que se sienten permanentemente conexas con las otras disciplinas hermanas, intercambiando,
modificando y redefiniendo conceptos de unas y de otras. ¿Cual es, entonces, la
05.pmd
81
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 81
1. UN POCO DE HISTORIA
LUIS F. ARTILES ARBELO 82
nueva imagen de la mente que surge en este conjunto de disciplinas? Eduardo Rabossi2
ofrece una «Matriz Teórica Mínima», configurada en siete puntos, sobre la que se
apoyaría el estudio de la mente que quiere emprender el conjunto de las Ciencias
Cognitivas. Será interesante recoger esos puntos:
1. Los seres humanos y, en general, todo ingenio al que se le atribuyen estados y
procesos cognitivos, son sistemas procesadores de información. «Información» hace referencia a unos ítemes abstractos sobre los que se opera, y «procesamiento» hace referencia a secuencias o series ordenadas de operaciones.
2. El procesamiento de información involucra reglas, elementos simbólicos con propiedades sintácticas (formales) y operaciones computacionales (algorítmicas)
sobre esos ítemes.
3. Todo proceso cognitivo involucra procesamiento de información.
4. Los elementos simbólicos tienen un carácter representacional; las representaciones internas son de índole «descripcional» (proposicional), aunque no se
excluyen, en principio, representaciones de índole «pictórica» (imágenes).
5. El estudio de los mecanismos cognitivos exige un nivel abstracto de análisis, es
decir, un nivel que permita especificar el método a través del cual el organismo o ingenio lleva a cabo su función informacional.
6. Ese nivel abstracto es el computacional (software); todo proceso cognitivo es un
proceso computacional.
7. Todo proceso cognitivo se implementa en una base física (hardware), pero la
especificación computacional subdetermina el nivel físico de implementación, en el sentido de que bases físicas diferentes pueden implementar un
mismo programa.
Como puede apreciarse a simple vista, las nociones fundamentales de esa
nueva visión de la mente se describen ahora en términos de «información», «símbolos», «propiedades sintácticas», «operaciones computacionales», etc.
Para una disciplina como la Inteligencia Artificial, integrada en las Ciencias
Cognitivas, el par formado por mente y cerebro sería equivalente al par formado por
«software» y «hardware». Esto implica que el conocimiento de las relaciones establecidas entre el segundo par podría servirnos como explicación de las relaciones establecidas entre los términos del primero. La mente humana está concebida así como
un programa de computador debidamente implementado en un conjunto físico. En
esto consiste la metáfora del ordenador. Teniendo en cuenta estas declaraciones programáticas, las Ciencias Cognitivas, y en particular la Inteligencia Artificial, se sentirían más que satisfechas con la patria potestad sobre HAL 9000. Es más, sería como
tener una prueba palpable de lo que ellas han establecido teóricamente como «poseer
mente». Ahora bien, por muchas simpatías, o temores, que nos despierte HAL 9000,
2
Eduardo Rabossi (compil.) Filosofía de la Mente y Ciencia Cognitiva. p. 20. Editorial
Paidós. 1995.
05.pmd
82
26/02/2013, 8:44
3
John L. Tienson «Una introducción al conexionismo» en Eduardo Rabossi (compil.)
Filosofía de la Mente y Ciencia Cognitiva, pp. 359-380.
05.pmd
83
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 83
éste sigue siendo un personaje de ficción y las Ciencias Cognitivas aún deben mostrar que «tener mente» es algo que puede ser explicado por esa matriz mínima de la
que nos habla Eduardo Rabossi y que cualquier otra visión sobre la mente humana,
para ser correcta, ha de incluir básicamente esos siete puntos.
Aunque el computacionalismo clásico surgió con fuerza arrolladora, las previsiones que partieron de sus mayores adeptos no llegaron nunca a cumplirse en su
totalidad. Se auguraba un futuro lleno de programas que traducirían o comprenderían el habla, recordarían y reconocerían la información relevante para numerosos
problemas y planificarían siguiendo un curso de predicciones cercanas, muy cercanas, a como las haríamos los humanos. De toda aquella declaración programática
quedó bien poco, y esa extraña desilusión se transformó en una crisis que, en palabras de John L. Tienson3, perfectamente podríamos describir como «kuhniana». A
partir de ese momento, se considerará este tipo de computacionalismo como
computacionalismo clásico.
El aprendizaje, las sensaciones, las imágenes mentales, y la conciencia son
algunos de los problemas que se resisten a su tratamiento mediante la visión clásica
de la inteligencia artificial. Lo que el computacionalismo clásico entiende por «tener mente» se nos queda corto y parece que lo mental va mucho más allá. Debemos
revisar, entonces, nuestras ideas de partida y acomodarlas a nuevas concepciones. Es
a comienzos de los años ochenta cuando irrumpe un nuevo modo de concebir la
cognición. El conexionismo será la corriente que surja dentro de las Ciencias Cognitivas para intentar dar respuesta a esos problemas que el computacionalismo clásico dejaba pendientes. Ya no tenemos a la mente como un simple computador
digital, manipulador sintáctico de símbolos. Ahora tenemos una red neuronal, un
conjunto de nodos cuyo funcionamiento semeja al de las neuronas, sin estados
mentales constituidos como representaciones simbólicas y sin procesos mentales
entendidos como operaciones realizadas sobre tales símbolos. Aún así, mantenemos
una concepción computacionalista de la mente. Mientras en el computacionalismo
clásico tenemos un programa que controla todo el sistema, en el conexionismo no
hay ejecutor central, todas las conexiones son locales de modo que cada nodo sólo
sabe lo que obtiene de los demás nodos que lo rodean. Desde luego, este sistema
posee ventajas sobre el anterior: es capaz de aprender, reconocer, discriminar la información relevante y predecir posiciones que no se les facilitaban de antemano
pero aún así, no se libra de problemas. Sobre todo, no queda muy claro lo que se
ganaría adoptando el conexionismo frente al computacionalismo clásico; en particular, qué puntos de la cognición son los que realmente corresponden de manera
excluyente a la visión conexionista y cuáles no. Como vemos el paisaje, antes uniforme, aparece ahora con enormes claros que deben rellenarse. Con todo, persiste la
idea general de la mente como procesador de información, sea éste del tipo que sea.
Tal idea se encuentra fuertemente asentada en el panorama actual de la
filosofía de la mente. Sin embargo, los ataques a algunos de sus presupuestos siguen
produciéndose. Autores como John R. Searle mantienen una posición más que escéptica en lo referente al éxito de la visión de la mente humana defendida por las
ciencias cognitivas y en particular por lo que él denomina Inteligencia Artificial
fuerte4. Su crítica tiene como blanco directo al computacionalismo clásico, pero
también se extiende fácilmente al computacionalismo de tipo conexionista cuando
éste queda incluido en el proyecto de la Inteligencia Artificial fuerte..
El caso es que creemos que el argumento central que Searle suele presentar
no es en absoluto definitivo para mostrar la invalidez del proyecto de la Inteligencia
Artificial fuerte. Creemos que el experimento mental que propone Searle, el denominado Argumento de la Habitación China, no funcionaría tal y como está concebido en un principio. En realidad sería como si, una vez dispuesto todo lo necesario
para su ejecución, diéramos la orden de comienzo y no recibiéramos respuesta.
Esperaríamos todo el tiempo del mundo y no obtendríamos el resultado al que
Searle supone que hemos de llegar necesariamente. A continuación describiremos el
experimento mental de la habitación china y posteriormente, en las conclusiones,
aportaremos las razones que nos conducen a su imposibilidad.
LUIS F. ARTILES ARBELO 84
2. SEARLE Y LA HABITACIÓN CHINA
Quizás, a estas alturas del artículo, comencemos a deslizar nuestras preferencias sobre el futuro en uno u otro sentido, del mismo modo en que lo hacían en
el comienzo, nuestros asistentes al estreno de la película. O nos llenemos de esperanza en una capacidad tecnológica futura y en sus soluciones al problema del análisis de la mente. O, por el contrario, nos mostremos aterrorizados frente a la idea de
mantener la equiparación con cualquier tipo de artefacto que pueda imitar nuestro
comportamiento inteligente. Una elección difícil si tenemos en cuenta las razones
que uno y otro bando son capaces de mostrar.
Pero antes de dar paso al famoso experimento mental de la habitación china, debemos aclarar que Searle distingue dos formas o modos que posee la Inteligencia Artificial, como disciplina, para tratar el objeto de su estudio. Por un lado,
nos encontraríamos con un conjunto de conocimientos que ayudan al estudio de
ciertos procesos que son muy parecidos a los que lleva a cabo una mente como la
nuestra; en este sentido, la Inteligencia Artificial se ocuparía de construir programas
4
John R. Searle ha publicado sus críticas a las Ciencias Cognitivas y especialmente a la
Inteligencia Artificial fuerte en varios de sus libros y revistas especializadas. Para nuestros objetivos
son especialmente relevantes John R. Searle. Mentes, Cerebros y Ciencia. Ediciones Cátedra. 1990.
The Behavioral and Brain Sciences (1980) 3, pp. 417-457, y «Mentes y Cerebros sin Programas», en
el citado volumen de Eduardo Rabossi (compil.) Filosofía de la Mente y Ciencia Cognitiva, pp. 413443. Todas las referencias que hagamos al Argumento de la Sala China pertenecerán a estos dos
trabajos.
05.pmd
84
26/02/2013, 8:44
5
05.pmd
Citados explícitamente en J. Searle en The Behavioral..., p. 417.
85
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 85
con el fin de ayudar al análisis de la mente sin más pretensión que la de ser una
poderosa herramienta de trabajo. Ésta sería la que Searle denomina Inteligencia
Artificial débil y su humildad es su mayor virtud.
En cambio, la otra concepción de la Inteligencia Artificial es más extrema.
Afirma que la mente es en sí misma un programa. El lema que la define, según
Searle, es que la mente es al cerebro lo que el software es al hardware. A esta segunda
concepción la llama Inteligencia Artificial fuerte, y es a ésta forma de entender la
mente hacia la que se dirigirá la crítica contenida en el experimento mental de la
habitación china. Es clara la diferencia entre una y otra concepción de la Inteligencia Artificial. Mientras la primera pretende aportar conocimientos que nos sirvan
para estudiar la mente como podría hacerlo cualquier herramienta científica, la
segunda afirma que, en realidad, lo que están haciendo es estudiar programas que ya
son en algún sentido mentes; en definitiva, que podemos crear un computador que
instanciando un programa adecuado daría como resultado el poseer una mente.
No existe ninguna objeción, por parte de Searle, al trabajo desarrollado por
la Inteligencia Artificial débil. Al fin y al cabo, los programas nos ayudarían aquí a
una mejor representación de algunos procesos como los que se dan en nuestras
mentes. Sin embargo, la Inteligencia Artificial fuerte propone, según Searle, una
concepción de la mente inaceptable además de equivocada. Searle hace mención a
los candidatos anteriores a las Ciencias Cognitivas para resolver este problema, mencionando explícitamente al conductismo; ahora uno de esos candidatos es el
computacionalismo imperante en las Ciencias Cognitivas y, por lo que respecta a
Searle, pasará a engrosar la lista de cadáveres que pretendieron el análisis y explicación de lo mental bajo supuestos equívocos.
Para sus pretensiones, Searle se inspira en un conocido trabajo en Inteligencia Artificial: los programas de compresión-de-relatos llevado a cabo por Schank y
Abelson5. El funcionamiento de estos programas se puede explicar del siguiente
modo. Primeramente le damos al computador un relato que puede ser como el que
sigue: «Un hombre entra en un restaurante y pide una hamburguesa. Cuando le
traen la hamburguesa comprueba que está quemada y, disgustado, abandona el restaurante sin pagar». Dada esta situación, podemos preguntarle al computador si en
realidad el hombre comió la hamburguesa, a lo que el computador responderá que
no. En este caso el relato no contenía nada que dijera explícitamente que el hombre
comió la hamburguesa. Sin embargo, el computador contestó de forma adecuada.
¿Cómo es posible esto? Vamos a explicar lo ocurrido: al computador se le da lo que
se llama un «guión de restaurante» que en realidad es una base de datos de cómo
funcionan las cosas normalmente en un restaurante. Cuando al computador se le
introduce el relato, lo coteja con el guión de restaurante y seguidamente produce la
respuesta a la pregunta que se le había formulado. Parece entonces que el computador ha entendido el relato. Parece que lo ha entendido en el mismo sentido en que
una persona normal lo haría y, además, responde a las preguntas sobre el relato de
LUIS F. ARTILES ARBELO 86
manera similar. Searle empleará este tipo de programas como paradigma de la Inteligencia Artificial fuerte y desarrollará su argumento utilizando un relato muy particular para refutar la pretendida comprensión por parte del computador.
Según Searle cualquier teoría sobre la mente, y la de la inteligencia artificial
fuerte lo es, ha de poder ser puesta a prueba. Y no hay mejor prueba que la que uno
puede hacer imaginándose cómo sería el tener una mente bajo los presupuestos de
dicha teoría. Por ello vamos a suponer con Searle que, de acuerdo con la Inteligencia
Artificial fuerte, somos computadores. Es decir, que todo el complejo de cables,
conexiones y placas metálicas de las que está compuesto un computador es sustituido por un ser humano. A este importante supuesto lo llamaremos Supuesto de la
Sustitución. Este es un punto crucial a tener en cuenta: según Searle podemos sustituir el computador, todo lo que él es, por una persona que realice las mismas tareas
que le asignamos a aquel. Nuestra conclusión final será que esta sustitución es imposible y que, al menos en un caso, no podemos probar si la teoría de la mente en
cuestión (la de la Inteligencia Artificial fuerte) es errónea bajo el supuesto de la
sustitución (en este caso de la máquina por el hombre). Con esto, podemos pasar ya
a describir el experimento mental de la habitación china.
En el experimento mental, Searle se imagina a sí mismo siendo un computador digital. Se imagina también situado dentro de una habitación, en la que, por
todo mobiliario hay dos grandes cestas de símbolos chinos y un libro de reglas en
castellano6. Este libro de reglas nos dice cómo hemos de aparear símbolos de una de
las cestas con símbolos de la otra. Las reglas dicen cosas como: «Busque en la cesta 1
y saque un símbolo garabateado de tal o cual forma, y póngalo al lado de cierto
símbolo garabateado que saque de la cesta 2». La pretensión de este libro de reglas es
que Searle (que se encuentra dentro de la habitación) sólo coteje símbolos de una de
las cestas con símbolos de la otra, del mismo modo que, en las ciencias computacionales, se le dice al computador que coteje ciertos símbolos de un conjunto con otros
símbolos de otro conjunto. A una regla como ésta se la llama «regla computacional
definida en base a elementos puramente formales». Además de esto, supongamos
que nuestra habitación dispone de una pequeña ranura por donde, nosotros que
estamos fuera de la habitación, introducimos más símbolos chinos y un nuevo libro
de reglas para manipular y aparear los símbolos. Este nuevo libro de reglas que le
hacemos llegar a Searle tiene la particularidad de que las reglas le piden que nos
devuelva símbolos chinos, de manera que, cuando entra algún símbolo chino en la
habitación, Searle consulte su libro de reglas, y devuelva otros símbolos chinos. De
esta forma nos pasamos el día, nosotros enviamos símbolos chinos y Searle nos
devuelve otros símbolos de acuerdo con su libro de reglas.
Es buen momento para hacer las debidas presentaciones. Sin que Searle lo
sepa nosotros nos llamamos «programadores», al primer libro de reglas junto con las
6
El artículo original en The Behavioral..., mencionaba, obviamente, al inglés como lenguaje natural del que Searle era nativo. Por razones de cercanía hemos cambiado al castellano sin que
esto suponga ningún perjuicio para el argumento.
05.pmd
86
26/02/2013, 8:44
05.pmd
87
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 87
dos cajas de símbolos lo llamamos «guión de restaurante» (muchos de los símbolos
de las cajas son, simplemente, «símbolos disponibles») y al segundo libro de reglas
junto con el conjunto de símbolos que introducimos en la habitación lo llamamos
«relato acerca del restaurante». Este último incluye también determinadas «preguntas acerca del relato». Los símbolos que nos envía Searle son «respuestas a las preguntas» y, por supuesto, a Searle lo denominamos «computador».
Después de cierto tiempo, nuestro «hombre en la máquina» (es decir, Searle),
llega a ser tan bueno que todas las respuestas que recibimos de él nos parecen indistinguibles de las que daría un hablante nativo del chino. De la misma forma, si le
enviáramos preguntas en español nos contestaría de manera similar a como si estuviéramos ante un hablante nativo de castellano; de hecho él es un hablante nativo
del castellano. Esto último debemos tenerlo muy presente pues se tratará de un
punto crucial en nuestras conclusiones. Estaríamos, por tanto, dispuestos a asegurar
que Searle comprende perfectamente el chino. Es decir, estaríamos dispuestos a
asegurar que comprende en el mismo sentido en que lo comprende un hablante
nativo del chino. Bien, parece que nuestro objetivo como «programadores» se ha
cumplido: hemos construido un programa que entiende el chino. Podríamos decir
que es un auténtico hablante del chino, un chino nativo, si no fuera porque sabemos que, en realidad, se trata del profesor Searle.
Pues bien, a pesar de todo esto Searle nos aclarará que la situación no es tan
feliz como la pintamos: «Yo no comprendo —diría Searle— ni una sola palabra de
chino; no entendía el chino cuando entré en la habitación y no lo entiendo ahora,
después de manejar estos libros de reglas y estas cestas de símbolos». Después de
unos momentos de perplejidad nos preguntamos: ¿Que es lo que ha ocurrido? Searle
asegura que él no comprende el chino y, es más, asegura que nadie en su posición
puede decir que ha comprendido el chino.
Recapitulando lo que hemos dicho al comenzar el relato deberíamos concluir con Searle que, puesto que él no comprende el chino y puesto que, además,
hemos supuesto con él que se comportaría como si fuese un computador digital,
cualquier otro computador digital seguiría teniendo en esas circunstancias la misma
ignorancia respecto al chino que él. Pero debemos detenernos un momento en este
punto. Searle hace una aclaración muy importante en cuanto a la forma en que se
ha de entender su argumento. El quid del argumento no está en que, de una manera
u otra, tenemos la intuición de que no se comprendería el chino. Él afirma rotundamente que no se comprenderá en absoluto debido a una verdad conceptual que ya
conocíamos antes: que existe una gran diferencia entre manipular los elementos
sintácticos de un lenguaje y comprender el lenguaje en un nivel semántico. Comprender un lenguaje es dominarlo tanto sintáctica como semánticamente; es decir,
ser capaces de la manipulación sintáctica de los elementos de ese lenguaje y, a la vez,
estar capacitado para interpretar, para dotar de significado, esos mismos elementos.
De tal forma, se dirá que un hablante nativo del castellano, en sentido usual, lo es si
mantiene un dominio sintáctico y semántico sobre los elementos de ese lenguaje. Y
en este sentido es en el que debe entenderse el argumento cuando en él se menciona
a un «hablante nativo del chino en sentido usual». Searle asegura que sólo ha manipulado símbolos sintácticamente, que es lo que en última instancia hace un compu-
LUIS F. ARTILES ARBELO 88
05.pmd
tador digital, y que esto sólo no basta. No podemos llegar a decir que comprendemos el chino. La sola sintaxis es insuficiente para comprender un lenguaje. Dicho
de otra forma: la mera manipulación de símbolos, o lo que es lo mismo, el hecho de
instanciar un programa de ordenador no hace que el computador comprenda un
lenguaje en el sentido en que lo podría hacer un hablante nativo de dicho lenguaje.
Da la impresión que a nosotros, los programadores, se nos ha quedado algo
atrás en el diseño de la habitación china. Y volvemos sobre el experimento una y
otra vez. Pero parece que nada hay que no se haya tenido en cuenta. Por muchas
vueltas que le demos, siempre nos encontraremos con la misma respuesta: el computador digital, Searle en este caso, no comprende la mas mínima palabra del chino.
¿Qué ha ocurrido? ¿Qué se nos ha escapado? Searle nos sacará de dudas: «Lo único
que he hecho, como computador digital que soy, es manipular símbolos y eso sólo
no ha sido suficiente para que comprendiera lo que estaba ocurriendo, que era, ni
más ni menos, que responder en chino a las preguntas que vosotros, los programadores, me hacíais». «Lo que se os ha escapado es la semántica; no fui capaz de dotar
de significado a los símbolos que introducíais en la habitación con la mera manipulación estos». Bueno, diríamos nosotros, no hay problema, lo único que hemos de
hacer es dotarte computacionalmente de una semántica desde el principio y ya verás
como ahora sí que puedes entender chino. Pero la cosa no es tan fácil. Searle nos
volverá a sumir en la desesperación: «Para dotarme de una interpretación de los
símbolos chinos lo único que podeis hacer es introducir más símbolos chinos, y esto
es más de lo mismo. No es posible que yo entienda en la forma en que me habeis
programado. Es más, ningún otro programa podrá hacerme entender el chino porque, por definición, lo único que haré será manipular sintácticamente un conjunto
de símbolos, en este caso, símbolos del lenguaje chino».
Hasta aquí hemos descrito el argumento de la habitación china y las consecuencias que podemos sacar son bastante duras para la Inteligencia Artificial, entendida en su sentido fuerte. Primero nos muestra, según Searle, que la pretensión que
apuntábamos al principio como ecuación fundamental de la Inteligencia Artificial
fuerte es falsa. La mente no es al cerebro lo que el software es al hardware. No sólo
que es falsa ahora y, a lo mejor, dentro de unos años, cuando los programas sean más
veloces, más eficaces o dispongan de más capacidad puedan hacer verdadera esa
ecuación. No, la instanciación de un programa, por definición, hará falsa siempre
esa igualdad. Recordemos: la mera manipulación de símbolos no hace que comprendamos lenguaje alguno y no importa como esté construido ese programa porque, como hemos visto, no hemos discutido sobre detalles técnicos acerca del programa, ni siquiera se ha mencionado ninguna etapa tecnológica de los computadores.
Otra consecuencia especialmente interesante es que podemos mostrar la
diferencia que hay entre simular y duplicar una mente. Al comienzo del trabajo
hablábamos del test de Turing y de la capacidad de un computador para hacer sus
respuestas indistinguibles de las de un ser humano. Que una máquina supere el test
de Turing sólo nos muestra que sus respuestas son idénticas a las de un ser humano
y por ello indistinguibles, pero no podemos decir que posea una mente en el sentido
en que la tenemos nosotros. La máquina de Turing sólo puede simular el comportamiento humano (en base a su capacidad para dar las respuestas que da). De la
88
26/02/2013, 8:44
7
John Searle. Mentes, Cerebros y Ciencia, p. 22.
Véase Mentes, Cerebros y Ciencia. Para una mayor variedad de réplicas y respuestas de
Searle, véase The Behavioral..., pp. 424-456.
8
05.pmd
89
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 89
misma forma que Searle, desde el interior de la habitación china simulaba comprender el chino hasta el punto de hacerse su discurso indistinguible del que un
hablante nativo del chino podría dar. Pero para que una máquina pueda tener mente ha de ser capaz de duplicar los poderes causales del cerebro. Debemos explicar
aquí, que Searle defiende un principio básico en su filosofía de la mente: la mente,
y con ella los fenómenos mentales, está causada por procesos que acaecen en el
cerebro. En palabras de Searle7, «los fenómenos mentales, todos los fenómenos
mentales, ya sean conscientes o inconscientes, visuales o auditivos, dolores,
cosquilleos, picazones, pensamientos, toda nuestra vida mental, están efectivamente causados por procesos que acaecen el cerebro». El cerebro causa las mentes y
duplicar una mente significa haber duplicado anteriormente los poderes causales
del cerebro. Una analogía del propio Searle hará entender mejor lo que decimos
acerca de la simulación y la duplicación: Podemos hacer una simulación
computacional de las tormentas en los términos municipales de un país, o de los
incendios del este de Madrid. En todos estos casos, nadie supone que la simulación
computacional es efectivamente la cosa real; nadie supone que una simulación
computacional de una tormenta nos deje a todos mojados o que la simulación
computacional de un incendio vaya a quemar la casa. Por lo tanto, simular una
mente tampoco puede ser lo mismo que tenerla, y sólo es posible tenerla efectivamente mediante la duplicación de los poderes causales del cerebro. Por esto Searle
negará que la simulación, en el sentido en que la lleva a cabo un computador digital,
sea efectivamente poseer una mente.
Hay que advertir en todo esto algo importante. El problema ¿Puede pensar
un computador digital?, es diferente del problema ¿Puede pènsar una máquina?
Para Searle, responder a la segunda pregunta no es el objetivo del argumento de la
habitación china. Es más, Searle acepta que haya máquinas que puedan pensar, pero
son máquinas de una clase muy especial. Si entendemos por máquina una estructura material que puede producir pensamientos entonces, entonces los seres humanos
seríamos máquinas sólo que nuestro material sería un material biológico. La formulación correcta de la pregunta que interesa a Searle sería la primera. Y la respuesta a
esta pregunta, en vista del argumento de la habitación china, es negativa. Un computador digital no puede pensar. La manipulación de símbolos, que es lo que hace
el computador, no es suficiente para tener una mente. Falta algo más y ese algo más
es la semántica, la adscripción de significado a los símbolos.
Es natural que frente a la pretensión de Searle de refutar la concepción de
la Inteligencia Artificial fuerte, los partidarios de ésta salieran en su defensa atacando el argumento de la habitación china. El propio Searle ya adelantó varias de
esas posibles críticas8. Dado lo conocidas que han llegado a ser, no nos detendremos en ellas.
La mayoría comparte la aceptación del experimento mental tal y como lo
formula Searle. Es decir, se acepta en principio que pueda ocurrir la sustitución del
mecanismo de un computador por un ser humano y las discrepancias hacia el argumento se producen en lo referente a su desarrollo o respecto a los conceptos más o
menos equívocos, a juicio de los autores, de que hace uso Searle. En lo que sigue,
nos apartaremos de estas líneas de ataque. Centraremos nuestro comentario justamente en ese supuesto primordial para el desarrollo del experimento. Más arriba
dimos un nombre a este supuesto: el supuesto de la sustitución. Recordemos que se
trata de la posibilidad de sustituir el conjunto de cables, conexiones y trozos de
metal existentes en un computador digital por un ser humano tal como nosotros
mismos.
3. EL PROBLEMÁTICO SUPUESTO DE LA SUSTITUCIÓN
LUIS F. ARTILES ARBELO 90
Nuestra réplica a Searle tendrá como objetivo la crítica de ese supuesto de la
sustitución que, como ya hemos visto, es primordial para el desarrollo del experimento mental de la habitación china. Concluiremos que dicha sustitución es inviable. Por lo demás, no estaría mal que, a la vez que hacemos explícito nuestro objetivo de la réplica, quedara también claro lo que no es objetivo de discusión en nuestras
conclusiones o, al menos, sobre lo que hemos suspendido nuestro juicio:
– No argumentaremos a favor de la ecuación fundamental con la que Searle define
a la Inteligencia Artificial fuerte; a saber, que la mente humana es al cerebro
lo que el software es al hardware en un computador digital. Ni siquiera
vamos a disentir sobre la división que éste hace de la Inteligencia Artificial
en fuerte o débil. Aceptamos que pueda tener cierto valor de análisis tal
división.
– No argumentaremos en favor de ninguna de las conocidas auto-réplicas que Searle
hace a su propio argumento. Todas ellas tienen en común la aceptación de
ese supuesto fundamental de la sustitución que es el objetivo de este comentario.
– Al igual que Searle, no ofreceremos en nuestro comentario referencia alguna a
aspectos técnicos de la Inteligencia Artificial ni a ninguna de las etapas del
desarrollo de los computadores digitales. Comenzaremos con el mobiliario
mínimo que ha utilizado Searle y mostraremos que el resultado al que llega
no está en modo alguno justificado. Tampoco modificaremos dicho mobiliario y la decoración de la habitación china permanecerá tal y como fue
prevista por Searle.
Una vez tenemos claro hacia dónde (y hacia dónde no) se dirige nuestra
réplica, comencemos con una pequeña aclaración. ¿Cuál es la conclusión final de
Searle? Pudiera parecer que todo el argumento está diseñado para que obtuviéramos
como resultado la ignorancia total del computador para entender el chino, pero es
más correcta la afirmación siguiente: La mera manipulación sintáctica no es sufi-
05.pmd
90
26/02/2013, 8:44
05.pmd
91
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 91
ciente para la comprensión de un lenguaje, en este caso, el chino. Necesitamos la
semántica y ésta no es posible si sólo nos remitimos a dicha manipulación de símbolos. Es importante aclarar ésto puesto que, como Searle recuerda una y otra vez, se
trata de una verdad conceptual que ya teníamos hace tiempo: la comprensión de un
lenguaje implica el dominio sintáctico y semántico de los símbolos de ese lenguaje;
además de la manipulación, hemos de estar capacitados para dotar de significado
esos símbolos.
El experimento mental comienza con una situación ficticia: dentro de una
habitación se halla un hombre, Searle, que hará las veces del conjunto de cables,
conexiones y trozos de metal constituyentes de un computador digital. Se le supone
también al profesor Searle un dominio perfecto del castellano en el mismo sentido
en el que se lo suponemos a un hablante nativo del castellano. El primer libro de
reglas del argumento de Searle está escrito en castellano, así como el segundo libro
que más adelante se le suministrará. Pero, como hemos supuesto que Searle es conocedor del idioma en el mismo sentido en que lo es un hablante nativo, podemos
suponerle también la capacidad sintáctica de manipulación formal y de interpretación de las series de símbolos que aparecen en estos libros de reglas. Es decir, como
hablante en sentido usual del castellano, el profesor Searle posee las dos características que él mismo mencionaba en su argumento: además de poder realizar la manipulación sintáctica es capaz de sostener una semántica respecto al idioma del que es
nativo. Si quisiéramos hacerle alguna pregunta en castellano nos respondería de
manera parecida a como lo haría cualquier hablante nativo de ese idioma. Ahora
bien, se le pide que coteje los símbolos chinos procedentes de una de las cestas con
los símbolos de la otra, según el primer libro de reglas que se le ha dado al comienzo;
igualmente, mediante el segundo libro de reglas que le hemos suministrado ha de
enviarnos, a modo de respuesta, una serie de símbolos chinos en contestación a una
pregunta que le introducimos a través de la ranura de la habitación. En todo este
proceso, el profesor Searle sostiene que lo único que hace es manipular símbolos
chinos formalmente y que ni siquiera sospecha que se trata de un juego de preguntas y respuestas. Hasta aquí todo coincide con el desarrollo del argumento de la
habitación china y no hemos introducido nada nuevo.
Llegados aquí podemos preguntarnos: Mientras Searle coteja símbolos dentro de la habitación, ¿sólo hace manipulación de signos? Dicho de otro modo, ¿podemos entender que una vez dentro de la sala Searle pueda ser neutral, por así decirlo,
respecto a la semántica que ya poseía como hablante usual del español? Nuestra respuesta es que no puede ser neutral. Y no ser neutral significa que hace uso constante de
esa semántica anterior como consecuencia de ser un hablante nativo del castellano.
Aclaremos esto un poco. De acuerdo con aquella verdad conceptual a la que
se refería Searle, un hablante nativo posee las capacidades de manipulación de símbolos (sintáctica) y de dotar de significado a esos símbolos (semántica) respecto a su
lenguaje nativo. Podríamos definir, entonces, lo que hemos llamado «ser neutral
respecto a la semántica» como la suspensión de esa adscripción de significado a los
símbolos manipulados formalmente y Searle afirma que esa capacidad semántica se
ha suspendido desde el momento en que entra a sustituir al computador dentro de
la habitación china. A nuestro entender, esta posibilidad no puede darse nunca.
LUIS F. ARTILES ARBELO 92
05.pmd
Searle no puede ser jamás neutral respecto a la semántica de unos símbolos
de un lenguaje del que es nativo. Intentemos demostrarlo. Supongamos que el profesor Searle, tras declarar que su comportamiento será única y exclusivamente el
mismo que tendría un computador digital, dejase a un lado su capacidad semántica
y se limitase a manipular símbolos. Desde el momento en que cruzase el umbral de
la habitación china estaría incapacitado para comprender cualquier conjunto de
símbolos de cualquier lenguaje que le facilitemos. En concreto, estará incapacitado
para comprender lo que el libro de reglas, que está escrito en el lenguaje nativo de
Searle, pretende que cumpla. ¡Sería incapaz de comprender su propio lenguaje!
Es ésta una curiosa situación; mientras le facilitamos el primer libro de
reglas y, hasta que no le enviamos el segundo libro junto a algunas de las preguntas,
no conocemos qué sucede con Searle en el interior de la habitación china. A partir
de la primera pregunta, nosotros, como «programadores», no obtendríamos respuesta alguna por parte de Searle; nuestro «hombre en la máquina» sería incapaz de
balbucear siquiera una contestación. Es más, nunca lo haría. ¿Qué estará ocurriendo, nos preguntaremos, para que se demore tanto la respuesta de Searle? Si tuviéramos la posibilidad de abrir un pequeño orifico en una de las paredes de la habitación, contemplaríamos a un desolado Searle de pié entre las dos cestas, con los dos
libros de reglas en las manos y absolutamente desorientado. A partir de este momento nuestro experimento mental es un total fracaso. No podemos hacer que
Searle se dedique sólo a manipular símbolos, no podemos amputar su capacidad
semántica a riesgo de que no comprenda su propio lenguaje del que es nativo. Afortunadamente la sintáxis y la semántica se encuentran revueltas, de alguna forma, en
un hablante nativo de cualquier lenguaje y por ello, afortunadamente también, no
podemos prescindir de una de esas capacidades, en particular la semántica, en Searle.
Mantengámos entonces esa capacidad semántica en el profesor Searle y propongámos
que éste haga algo más que manipular símbolos exclusivamente. Pero esto quiere
decir, en contra de nuestro supuesto de sustitución, que no se comportará como lo
haría un computador digital, pues éste sólo hace manipulación de símbolos formales. Searle debe hacer algo más que eso antes de que pueda dar una sola contestación
a nuestras preguntas. Por lo tanto, la primera conclusión a la que llegamos es que el
profesor Searle, aunque le pese, no puede hacer sólo lo que hace un computador
digital y, por ello, no puede sustituirlo en la habitación china.
Una vez hemos aceptado que nuestro «hombre en la máquina», Searle, posee ambas capacidades, por definición, de hablante en sentido usual, hemos de volver a la habitación china. Ahora debemos tener muy presente la conclusión a la que
llega Searle: «No puede haber una semántica de unos símbolos chinos a partir de un
hablante nativo de castellano que ya posee, por definición, la capacidad sintáctica y
semántica de un lenguaje, con la mera manipulación de esos símbolos chinos». En
realidad puede mostrarse justamente lo contrario de esto último. Si poseemos un
lenguaje (en este caso, el nativo) con respecto al que estamos capacitados sintáctica
y semánticamente, significa esto que tenemos una interpretación I dada sobre los
símbolos de nuestro lenguaje; y que podemos crear, a partir de esa primera interpretación I, una interpretación I´ que englobe cualquier conjunto de símbolos que
añadamos a los de nuestro lenguaje. En particular, podemos crear una semántica de
92
26/02/2013, 8:44
4. ALGUNAS CONSECUENCIAS
Podríamos sacar ahora algunas consecuencias de nuestra réplica al argumento de la habitación china. La principal la acabamos de indicar. No es posible
sustituir el conjunto de cables, conexiones y trozos de metal que constituye un
computador por una persona para comprobar el funcionamiento de la teoría de la
Inteligencia Artificial fuerte. Es más, si Searle pretendía rebatir la posibilidad de
sustitución de un hombre y todos sus estados y procesos mentales, por un computador con sus programas, ha conseguido el efecto contrario: ha demostrado, indirectamente, que la sustitución de ese mecanismo por un ser humano no es posible.
Si es imposible que hagamos sólo y exclusivamente manipulación de símbolos formales no seremos capaces ni siquiera de duplicar el comportamiento de un computador digital. Parece irónico que Searle se esfuerce en diferenciar la simulación y la
duplicación de los poderes causales del cerebro por parte de un computador, cuando nosotros somos estrictamente incapaces de duplicar exclusivamente su comportamiento. No somos capaces de ponernos en el lugar del computador sin hacer nada
más. El presupuesto de la sustitución falla.
Otra consecuencia importante sería la siguiente. Si se aceptan los comentarios expuestos más arriba, nuestro «hombre en la máquina» tendría la posibilidad de
adquirir conocimientos sobre lo que ocurre más allá de las paredes de la habitación
05.pmd
93
26/02/2013, 8:44
¿TIENE VENTANAS LA HABITACIÒN CHINA? 93
los símbolos chinos a partir del hecho de que se nos supone hablantes nativos de
otro lenguaje. Se podría objetar que esa interpretación I´ puede no ser la interpretación normal, la interpretación estándar, que haría un hablante nativo del chino, con
lo que aún queda por resolver el que Searle no comprenda ni una sola palabra de
chino. A esto debemos responder lo siguiente: el punto crucial del argumento de
Searle no es que comprenda justamente el chino. En la argumentación de la habitación china el resultado pretendido es que es imposible una semántica de unos símbolos chinos con la única manipulación de esos símbolos, aún cuando esa manipulación sea producida por un hablante nativo de otro idioma que ya posee, por
definición, capacidad semántica para hacerlo. La interpretación que podamos hacer
puede no ser la que haría un hablante nativo del chino pero, si recordamos, Searle
dice que es imposible cualquier semántica del chino sólo a partir de la sintáxis de un
conjunto de símbolos realizada por un hablante competente en otra lengua. Pero
nosotros hemos conseguido que nuestro «hombre en la máquina» posea al menos
una interpretación, lo que nos basta para refutar el enunciado de Searle.
Así las cosas, resultará que Searle no puede refutar la Inteligencia Artificial
fuerte a través del argumento de la habitación china. No puede hacerlo al fallar el
supuesto de la sustitución. Y ello, por dos razones: a) no sólo manipulamos símbolos, estamos además capacitados semánticamente para su interpretación y no podemos separar nuestros respectivos lados sintáctico y semántico, y b) en base a esa
semántica previa que nos define como hablantes nativos en sentido usual, podemos
crear una interpretación sobre cualquier conjunto de símbolos que nos sean dados,
en particular, un conjunto de símbolos chinos.
LUIS F. ARTILES ARBELO 94
china. Si es cierto que Searle, al entrar en la habitación, continúa haciendo uso de su
lado semántico, que por definición de hablante nativo del castellano le pertenece,
también podemos adscribirle (y no veo razón alguna para no hacerlo) la intencionalidad asociada que Searle adscribe a un hablante nativo. Podría, con toda esa capacidad que le hemos supuesto, formular preguntas y no sólo responder a lo que
nosotros como «programadores» le vamos suministrando. De este modo, el profesor Searle, podría obtener tanta información sobre lo que ocurre fuera que estaría en
condiciones de formular una teoría sobre cómo ocurren las cosas dentro y fuera de
la habitación. Aquella pequeña ranura por donde se le enviaban los libros de reglas
y los conjuntos de símbolos se iría transformando, así, en una gran ventana hacia el
exterior. Su comprensión no se limitaría a la que pudiera tener sobre unos símbolos
abstractos introducidos en la sala. Iría mucho más allá y la habitación china, lejos de
ser un receptáculo hermético, se transformaría poco a poco en una especie de invernadero acristalado. Ahora la habitación china tendría ventanas y, dentro, el profesor
Searle podría disfrutar de un paisaje que él mismo pensaba no vería jamás.
05.pmd
94
26/02/2013, 8:44
Descargar