Revista Mexicana de Física 35 Suplemento (1989) 589-5102 Implicaciones epistemológicas de la inteligencia artificial* Resumen. Después de examinar algunos problemas filosóficos asociados a diversos campos de la inteligencia artificial, se estudia el modelo cognoscitivo que en los últimos años ha surgido en los trabajos sobre percepción artificial. Este modelo consiste en un proceso continuo de formulación de hipótesis sobre estructura y concatenación de 108 elementos que componen el mundo externo al ente observador; estas hipótesis se utilizan para hacer predicciones en cuanto a los resultados de acciones en dicho mundo; el éxito o no de estas predicciones se utiliza para confirmar, extender o reformar las hipótesis, de manera a construir poco a poco un modelo dinámico del mundo. Dado que en este proceso interviene en forma central la interferencia delibnada en el mundo, se concluye que si el modelo es válido también para el ser humano el mundo externo debe existir, independientemente del observador. Se examinan algunas consecuencias de esta posición. El término "inteligencia artificial" cubre una multitud de pecados contra el sentido comlÍn del siglo pasado, todos los cuales proponen explotar la computadora electrónica para efectos que en algún sentido corresponden a la inteligencia humana. Él campo incluye cosas que van desele la traducción automática de idiomas hasta las matemáticas mecánicas, pasando por los programas que juegan ajedrez, los que diagnostican enfermedades, y los que interpretan fotografías tomadas desde satélites. Al comienw apenas más que una diversión académica, en los últimos lustros la inteligencia artificial ha encontrado una s~rie de aplicaciones de considerable interés e importancia. Ya se está perfilando para un futuro bastante cercano la construcción y explotación industrial de robots inteligentes; las posibilidades son suficientemente reales para que compañías poco dadas a perseguir una quimera, como la General ~1otors en Estados Unidos o la Hitachi en Japón, estén inviertiendo sumas considerables en ellas. Es natural que la emergencia de una nueva tecnología que rompe tan r&d.icalmente con tradiciones milenarias fuera acompañada no solamente de un esfuerzo concentrado para crearle una base teórica, sino también de muchas discusiones y preocupaciones propias de la filosofía. Durante los primeros años la interrogante central era simplemente la posibilidad de una inteligencia no humana, sino purAmente artificial. Después de vacilaciones iniciales, el problema parecía adecuadamente de- finido en la formulación de Turing (1950): "Written in 1976. 590 T.A. Brody Vamos a sen lar a una persona delante una terminal (algo como una máquina de escribir eléctrica conectada a otra máquina) y dejarlo dialogar con lo que se encuentra en el otro extremo de la línea; si al cabo de un tiempo rawnable no puede decir si está en comunicación con otro humano o con una computadora, entonces el programa que controla las actividades. de la computadora amerita el nombre de inteligente. Desgraciadamente tenemos ahora evidencia de que el criterio de Turing es insuficiente: se han escrito varios programas que mantienen diálogos y que un alto porcentaje de sus interlocutores considera humanos, sin que en ellos se hayan incorporado rasgos de inteligencia; lo que hacen simplemente es seleccionar algunos elementos de las frases introducidas en las terminales, manipularlas según algunas reglas relativamente sencillas y devolverlas en forma de comentarios un poco más generales o de preguntas que piden mayor información¡ el resto lo hace el hombre, con su fatal aptitud para aceptar una serie de lugares comunes y preguntas de corte simpático como si se tratara de comunicaciones reales que requieren inteligencia. A pesar de ello se han aplacado en los últimos años las discusiones sobre la posibilidad de una inteligencia artificial -tal vez porque se ha ido acumulando la evidencia concreta de que algunas actividades que calificaríamos de inteligentes le son posibles a la computadora. Vale la pena citar algunos ejemplos: Existen programas capaces de jugar juegos bastante complejos como damas, go y ajedrez¡ el nivel que alcanzan es respetable, en los juegos un poco más sencillos pueden ser campeones, y aún en el más complejo de ellos, el ajedrez, si bien no llegan al nivel de maestro internacional, le ganan a la gran mayoría de aficionados (Greenblatt el al. 1967; Samuel 1959, 1967).' Hay tod", una serie de programas dedicados a problemas matemáticos. Uno se utiliza para demostrar' teoremas en geometría euclidiana; los deduce a partir de los axiomas (Gelernter et al. 1960). Otro efectua inlegraciones en forma algebráica (es decir, no calcula numéricamente el valor de la integral, sino escribe la expresión algebráica que corresponde) y sería capaz de pasar todos los exámenes de cálculo integral hasta el ni.vel universitario (Slagle 1961; Moses 1967). Otro programa evalúa los diagramas de Feynman que describen la física de interacciones entre partículas elementales (Hearn 1966). Otro más suma por ejemplo las series trigonométricas complicadas que surgen en astronomía posicional, cosa que no es trivial porque las series son infinitas (ltuiriaga et al. 1966a, 1966b). También hay programas que demuestran teoremas lógicos (ver por ejem. Cooper 1966). En un campo diferente, se han construido programas que aceptan un dibujo burdo para piezas mecánicas o para construcciones arquitectónicas, lo transforman en un diseño exacto que satisface los requisitos ingenieriles y otros y finalmente producen los dibujos, planes o proyecciones que se necesiten entregar a los talleres o al maestro de obras. Otros programas se utilizan en la construcción de computadoras: optimizan el diseño de circuitos electrónicos individuales, planean la fabricación de circuitos integrados (es decir, los que se construyen inlegramente en un cristal minúsculo de silicio o germanio), optimizan las millones de interconexiones necesarias para hacer de las piezas electrónicas una computadora. INaturalmente est08 comentari08 reflejan la situación que había cuando se escribió el presente trabajo. En -loe últimOll MOI'lse ha aVAnzadoba.stante mM [Editor]. Implicaciones epistemológicas de Ja inteligencia 591 artificial Hay programas que mediante dispositivos ópticos pueden descifrar textos y transformarlos en datos manipulados por programas más convencionalei¡ o que pueden interpretar fotografías aéreas y transformarlas en mapa;s de alta preci~i??¡ ~ que saben reconocer objetos en una escena captada por una camara de televlslOn. La lista podría alargarse casi indefinidamente. Es más importante, sin embargo, señalar ciertas propiedades esenciales de estos programas: 1) Existe la posibilidad de que estos programas produzcan soluci0J.les muy originales a algunos problemas. Un solo ejemplo lo mostrará: a un programa de demostración de teoremas se le pidió la deducción del teorema geométrico de que en un triángulo isósceles los dos ángulos a la base son iguales. Todos recordamos la prueba que dió Euclides, en la cual es necesario construir la perpendicular sobre la base que pasa por el ápice y luego demostrar que los dos triángulos resultantes son iguales. El programa produjo una deducción mucho más elegante y sencilla: AC = AC = AH LA = AH LA Ó,BAC A (dado: el triángulo es isóseles) (consecuencia de lo anterior) (principio de identidad) = 6CAB (es decir, el triángulo es congruente con su reflexión especular) por lo tanto, LB = LC 8 e Que un programa relativamente sencillo sea capaz de este nivel de inventiva promete mucho para el futuro (Minsky 1971). 2) Muchos de estos programas logran sus.fines mejor o más rapidamente que el hombre: pero ninguno tiene su flexibilidad. Ninguno podría atacar cualquiera de los problemas que he mencionado ~n cambio, el cerebro humano puede jugar ajedrez, integrar, resolver diagramas de Feynman y diseñar circuitos, y no son tan raros los hombres que efectivamente pueden hacer todas estas cosas. En este sentido, el de una capacidad generalizada de resolver problemas, todavía no tenemos máquinas inteligentes. 3) Esta falta dt flexibilidad, sin embargo, no significa que no dispongamos de métodos bastante generales, a tal punto que se han podido elaborar teorías com. pletas al respecto (por ejemplo Mesarovié 1965) y crear programas que en principio pueden resolver problemas de cualquier índole (por ejem. Newell el al. 1960, y en una forma más sofisticada Raphael 1964). La dificultad que impide una f1exihilidad mayor consiste más bien en que no se sabe cómo representar los datos provenientes de campos variados e imprevistos. Dicho de otra manera, sabemos indicar a la computadora cómo manejar sus conocimientos, pero no sabemos cómo trasmitir y almacenar estos conocimientos sin demasiadas restricdones. Sin embargo, todo 3Debido a la operación del secreto comercial y del secreto militar, la información publicada sobre estOfldos campos es tan incompleta como es extensa. He preferido por lo tanto no dar ref~rencia8. S92 T.A. Brody indica que soluciones pqf lo menos parciales de este problema pueden esperarse en los próximos cuantos años. 4) En casi lodos los casos, la naturaleza del problema resuelto por estos programas es tal que se imponen métodos heurísticos. O bien el problema no se puede describir con suficiente precisión, o bien el número de caminos a explorar para encontrar la solución es astronómico (para el caso del ajedrez se estima que es del orden de 10120 ... ), o ambos, de modo que no es concebible un algoritmo que lleve a la meta en forma relativamente directa. Entre los métodos heurísticos el más interesante para nosol,ros es el aprendizaje: en su forma más sencilla, el programa cuenla con una serie de criterios para evaluar cida posible paso, y sobre la base de la experiencia que se va acumulando, la sección de control del programa ajusta las prioridades con que se emplean estos criterios, eliminando o reduciendo en importancia aquellos cuyo uso acabó en el fracaso, enfatizando aquellos criterios que dan éxito; versiones más elaboradas de la misma idea son capaces de crear nuevos criterios que luego se someten al mismo proceso, y de tomar en cuenta las circunstancias de cada éxito o fracaso. El programa va, por lo tanto, aprendiendo de su propia experiencia, y para esto es indispensable que se le informe de los resultados obtenidos -que haya retroalimentación del ambiente sobre el cual actúa el programa, en otros términos. 5) En el proceso de solución de sus problemas, estos programas (o por lo menos aquellos que tienen capacidad de aprender) causan acciones sobre su ambiente y reciben información sobre los resultados obtenidos. Mediante este proceso van formando un acervo important.e de información sobre el ambiente; parte de esta información se encuentra en forma de tablas de datos, pero una parte más esencial se integra en el programa y lo modifica. 6) Una parte considerable de estos programas, en general, corresponde a la deducción lógica; pero solamente una parte. Por ejemplo la generación de nuevos criterios que se emplearán en el proceso de aprendizaje, la selección al azar de carninos por explorar, ciertas técnicas de evaluación de soluciones incompletas hay toda una serie de métodos que no se conforman a los esquemas de la lógica tradicional y que sin embargo juegan un papel decisivo en hacer posibles los logros de los programas de inteligencia artificial. Il No cabe duda ya de que en estos programas tenemos demostraciones aunque parciales de inteligencia; ni siquiera de que a veces esta inteligencia excede la del originador -por lo menos en el sentido restringido de que algunos programas para juegos les pueden ganar a sus programadores. Otro punto que amerita un momento es el de la creatividad. Este concepto es casi imposible de circunscribir con algo de claridad, tal vez aún más difícil que el de inteligencia. Pero si consideramos creativo un ente que produce más de una idea Implicaciones epistemológicas de lt} inteligencia artificial 593 por cada idea que se le comunica (suponiendo que el número de ideas se puede determinar), entonccs muchos programas ya existentes son creativos -y muchos seres humanos no lo son. El tipo de originalidad que muestra por ejemplo el programa sobre teoremas de geometría que mencioné apoya fuertemente esta conclusión. Un problema filosófico de índole distinta proviene del hecho de que se conocen ciertas limitaciones intrínsecas al proceso lógico.deductivo; estas limitaciones son consccuencias del bien conocido teorema de Godel (1931; ver también Kneebone 1963) respectó "de.,la imposibilidad de demostrar la consistencia interna de estructuras axiomáticas suficientemente complejas. Una de estas consecuencias es que no podemos construir un programa que sirve para descubrir todos los errores en otros programa.~. La demostración es scncilla e instructiva. Si el programa por examinarse nunca termina su ejecución, entonces no produce resultados, mucho menos resultados correctos; que termine es por lo tanto una condición necesaria. Ahora bien, supongamos que existe un programa, llamémoslo P, capaz de determinar si cualquier programa terminará su ejecución: es decir, capaz de darnos una respuesta T si termina, otra respuesta N si no termina el programa P' que está examinando. Podemos fácilmente agregar algunas instrucciones más a P de modo que en vez de darnos la respuesta T continúe indefinidamente (se meta en un "loop" infinito, como dicen los programadores), mientras sigue dando la respuesta N cuando ésta es la correcta; llamemos Q a esta versión. Hemos supuesto que Q debe funcionar correctamente con cualquier programa: esto incluye por supuesto a Q mismo. Pero entonces tenemos la situación contradictoria de que Q (como programa que efectúa la prueba) termina si y sólo si Q (el mismo programa, pero ahora el caso examinado) no termina. Esta contradicción es suficiente para demostrar que Q (y con él su versión original P) no pueden existir. Este resultado y una serie de otros más complejos han dado lugar a una extensa teoría (ver p. ej. Davis 1958); lo que es más relevante aquí es que constituyen también límites a lo que puede en principio hacer una computadora, y que por consiguiente la inteligencia es imposible en las máquinas. O por lo menos así va el argumento (un buen ejemplo es Taube 1961). Una primera respuesta ya la dió Turing (1950): esta misma limitación es presumiblemente válida también para el hombre. De los puntos que anoté arriba se puede derivar una segu'nda respuesta que es que usamos -tanto humanos como máquinas- métodos heurísticos que van mucho más allá. de la lógica. (desde el simple "vamos a ver si pega" hasta técnicas sumamente elaboradas), al mismo tiempo que pagan el precio de no poder aseguror la solución o, siquiera una buena aproximación a ella; desde luego tales métodos tienen que ser efectivos y aptos, pero no se les exige rigor ni consistencia -de modo que escapan a las limitaciones implícitas en el teorema de GOdel. Si estas limitaciones son realmente importantes en la práctica y si 105 métodos empleados en la heurística no sólo rebasan la lógica sino la contradicen son problemas que discutiré en otra ocasión¡ baste anotar aquí meramente que en mi opinión encontramos en estos métodos que exceden la lógica y sin embargo son racionales, posibles puntos de partida para las futuras extensiones y transformaciones de la lógica. 594 T.A. Brody III Entre las propiedades anotadas arriba, hay una que da lugar a consecuencias más profundas. El punto (5) resume la experiencia de que programas con capacidad de aprendizaje se enteran de su ambiente interfiriendo con él y observando los cambios que resultan. Esto va en directa contradicción con un principio de la epistemología académica: la información sobre el mundo que nos rodea la recibimos a través de los sentidos y la absorbemos pasivamente. Este principio es a tal punto arraigado en el fondo de las filosofías empiristas y positivistas que ni siquiera se siente la necesidad de formularlo expresamente; pero lransluce en las descripciones de cómo "se imprimen en nuestra mente las percepciones sensoriales" (Bcrkeley 1710), como "una impresión primero incide en nuestro sentidos y nos hace percibir" (Hume 1739). en los datos sensoriales que intentan aislar Russell y More, o en "lo dado" con que se contenta Carnap: "Las frases protocolarias se refieren a lo dado y describen experiencias o fenómenos directamente dados" (Carnap 1932). El origen de esta concepción pMiva se encuentra mucho más atrás, en las "ideas simples" con las cuales Locke (1690) intentó eliminar la noción de ideas innatas para poder partir de su famosa labula rasa; y antes de él, se puede observar cn Hobbes y hasta en Bacon. Pero si bien casi no se discute, es fundamental esta noción dc nuestra pasividad ante el desfile de percepciones sensoriales cuyo análisis es en consecuencia el único camino para llegar a conocer el mundo. Una vez aceptado cste punto de partida. efectivamente se nos presentan todos los dilemas de la filosofía tradicional, y sobre todo la gran cuestión de si este mundo que tratamos de construir siquiera existe detrás de la barrera qu.e las sensaciones erigen entre él y nosotros: nos amenaza en. tonces el temible fantasma del solipsismo que tantos filósofos han tratado vanamente de exorcizar y que otros, más valientes o más ingenuos, han aceptado. En cambio, este mundo se nos abre a nucstro conocimiento si lo que sugiere esta experiencia con mecanismos cognoscitivos es válido también para percepción humana. Si nuestra interferencia con el mundo "cxterno", nuestra actuación, es un elemento esencial del proceso perceptual. si nuestra información sobre el mundo no proviene tanto de las observacioncs estáticamentc accesiblcs sino de las inferencias que podemos hacer a partir de 1M transformaciones deliberadamente inducidas. entonces los resultados de un proceso de percepción contienen ya su propia confirmación. Si sabemos, por ejemplo, que la botella ya no contiene vino, 10 sabemos realmente, porque la hemos destapado y tratado de vaciarla cn un vaso; y sólo la experiencia acumulada en años de vida nos permite llegar a esta conclusión más rápidamente por un simple vistazo. El ej~mplo es trivial y obvio: pero sugiere fuertemente que todo proceso perceptual tiene que ser activo. Vale la pena pues examinar con más detalle lo que se ha logrado en materia de inteligencia artificial, mediante programas de computadora en donde la estructura de lo que ocurre nos es accesible. La parte electrónica que es menester para conectar una cámara de TV a través de circuitos apropiados y una computadora en una forma que simule la conección del ojo al cerebro no presenta problemas. La información que recibe la computadora es una secuencia de intensidades luminosas asociadas a las coordenadas que describen Implicacione8 epi8temológica8 de la inteligencia artifidal 595 su posición en el campo visual. Un primer método para sacar información respecto al sentido de la escena observada sería el que Michie (1971) llama el monádico: comparar combinaciones de puntos vecinos, después de algunas transformaciones más o menos preestablecidas, con una tabla de datos patrón. En la traducción automática de lenguajes -un problema cuya estructura intelectual es muy similareste método correspondería al de buscar cada una de las palabras del texto dado en un diccionario y simplemente traducir palabra por palabra. Poco esfuerzo fue necesario para convencer a los lingüistas de lo absurdo de este procedimiento; pero en la interpretación de imágenes visuales se siguió trabajando en esta línea durante bastantes años. Un segundo nivel es el estructural: en vez de medir distancias y áreas en la imagen, se miden ángulos y se trata el problema con la geometría proyectiva. Esto ya es mucho más natural, porque se tiene evidencia (Johannson 1973) de que por este camino el ojo humano compensa el movimiento constante de la cabeza, del ojo mismo y de los objetos observados; pero implica que tenemos que usar un mínimo de dos imágenes (simultáneas como en la visión binocular o sucesivas como en las observaciones desde avión o satélite) para determinar el punto de proyección, adonde se considera colocado el aparato observador. En la lingüística el método encuentra su análogo en el uso de las gramáticas generadoras introducidas por Chomsky (1957). Las técnicas de este nivel permitieron un brinco grande en la calidad de los resultados (Guzmán 1968, Clowes 1971), y muchos proyectos militares en Estados Unidos las utilizaron para el estudio de fotos aéreos. También en el área de la traducción automática se invirtieron enormes sumas; pero después de una serie de éxitos iniciales las cosas se estancaron, por razones que analiza por ejemplo Bar-Hillel (1964) para el problema lingüístico. Para el caso perceptual podríamos ponerlas así: el método permite analizar imágenes muy sencillas; pero a medida que aumenta su complejidad, aumenta el número de diferentes posibilidades que hay que examinar y en forma tan rápida que pronto excede la capacidad de nuestras máquinas mayores; y no se ve posibilidad alguna de aplicar criterios para reducir esta inundación a proporciones más razonables. En los Estados Unidos esto se consideró, durante una temporada, como argumento para construir máquinas aun más gigantescas. Es un h'echo que debería interesar al historiador de la ciencia que las primeras. indicaciones de una salida del atolladero vinieron del grupo de inteligencia artificial de Edimburgo, al que restricciones económicas habían linútado a computadoras cuando más medianas. La idea fundamental que se ha implantado ea que en vez de tratar de sacar el máximo de jugo a la imagen individual se debe obtener de ella simplemente una indicación de cómo modificar la situación cámara. mundo para ob~ener una segunda imagen que mejoraría la interpretación, y luego continuar esta alternación hasta que se tenga una información adecuada. Michie (1971), muy justamente en mi opinión, llama este nivel el epistémico. Cabe notar qUE";¡. este nivel de trabajo obtenemos una descripción del mundo observado que tiene una dimensión adicional: el tiempo y en él las relaciones causales. Al nivel monádico compilarnos diccionarios, sin que haya en ellos noción de las estructuras encontradas. Al nivel estructural bU8CA~ mos estructuras individuales y está.ticas, sin preocuparnos por sus correlaciones 596 T.A. Brody ni evoluciones. Al nivel epistémico pro('{.demos a la manera <1(' una investigación científica: un estudio superficial de la primera vista sugiC'ff' algunas posibilidades de estructuras ligadas entre sí; la máquina postula provisionalmente algunas ideas de cómo podrían cambiarse estas estructuras si se hiciese talo tal cosa, y sobre esta base selecciona una acción; se obtiene tilla nueva imagrll del mundo modificado, y ('5 ahora relativamente fácil determinar hasta donde las predicciones eran corrcctas; en caso de errores inaceptahlerncntc grandes, el proceso se repite -tantas veces como sea necesario para tener en la memoria de la (omputadora IIna de:-cripción de su mundo constituida por programas capaces de $¡mular el mundo y su comportamiento, y de allí poder predecir lo que sucederá si se toman tales acciones. El método epistémico por lo tanto trata tan pronto como sea posible obtener una cierta comprensión del mundo en que se mucve la computadora y su cámara; ~omprensión por 10 menos en el sentido implícito f'n la posibilidad de predicciones razonablemente correctas. Una vcz establecido <'SIc principio, fué inmediatamente obvio que el proceso perceptual podría mcjorarse dotando al sistema de un mayor margen de posibilidades de actuar en Sil mundo. A los cambios de posición y dirección de la cámara se agregó el movimiento de la lámpara, 10 que permitió sacar conclusiones de cómo se alteran las sombras; hwgo se agregó un brazo que puede mover los objetos individuales, y a este brazo se le dotó de sentidos para juzgar el peso y la dureza de los objetos. t\lichie (197.1) resume la ('xperiencia así: "'Los métodos lingüísticos {estructurales] son incapaces de C'mpujar el análisis de ('scenas visuales más allá de cierta profundidad. AtÍn a esta profundidad Sil uso exhaustivo es excesivamente desgastador. En el análisis se deben resolvcr dinámicamente las ambigüedades, a medida que ocurran, mediante rf'ferencias a un modelo epistémico. De hecho, esta resolución semántica de las ambigüedades dcbf'n hacerse tan pronto sea posible en cada etapa, en vez de f'Spcrar hasta el final del proceso. Estudios que llegan a conclusiones similares se deben a ~1insky y Papert (1972) Y a Light- hill (1973). La velocidad que permite el nivel epistémico al proceso cognoscitivo es grande. Una vez bien establecidas las estructuras generales del modelo (Id mundo, ('S posible a.islar dentro del modelo para cada caso a aqlldlas características que se necesitan para hacer la discriminación relevante. Se puede pues desarrollar, mediante la práctica, una serie de atajos y elegir el más breve; sólo si ést.e nos falla r('gresa. mas e intentamos otro un poco más largo hasta dar con la mela. Pero pagamos el precio de que e! modelo y sus estructuras deben estar formados ya, y este proceso puede llevar tiempo: es un proceso de aprendizaje que atÍn en el mundo muy simplificado que presentamos a la computadora debe organizarse con cuidado para evitar que la máquina resltlte ser un ca.'lo "'psiquiátrico". El aprendizaje de! (Y'undo desde luego es un proceso que nunca termina, ya que este mundo nunca deja de cambiar. Si este aspecto en general no se programa todavía en las computadoras, es evidente su fundamental importancia en e! ser humano; podemos sin embargo incluirlo en nuestras consideraciones, porque la limitación es una de índole práctica: en las aplicaciones muy restrictas de las máquina.'l inteligentes que por el momento se prevén no se necesita¡ los principios y hasta la mayor parte del detalle de su realización son bien conocidos, dado que se emplean en el aprendizaje Impli('Ucionc,~ cpistnllo1ógica .••de ltl inteligencia artificial S97 inicial que ya forma parte integrante en tantos de los programas que existen y funcionan. Tan pronto incluyamos pues la continuación del proceso formativo del modelo en el funcionamiento de las máquinas inteligentes, tendremos sistemas en los cuales todos los aspectos esenciales de un proccso cognoscitivo vienen representados. Por lo pronto limitacioncs tanto técnicas como más fundamentales nos impiden pasar más allá de lo que hp.ría, digamos un niño de tres alios: ha sido posible programar una combinación d~ computadora, cámara y brazo para que se le puedan enseñar una serie de piezas, por ejemplo de un juguete, luego la manera de montar el juguete, y finalmente dejarle un montón de piezas (en desorden, con otras piezas más) para que de allí construya el máximo lllímero de juguetes posible. Otros sistemas han sido capaces del equivalente de la hazaña que realizan muchos antropoides, -descubrir que poniendo una caja sobre una silla pueden alcanzar los plátanos colgados del techo (~fichie el al. 1973, y otros trabajos presentados en la misma conferencia). Ahora bien, ¿podemos decir que la percepción humana emplea modos similares? Desgraciadamente la evidencia L'S muy incompleta; en parte porque la experimentación con humanos tiene sus problemas y en particular no permite establecer correlaciones fisiológicas, en parte también porque los psicólogos como otros científ1cos hall estado bajo el encanto de la epistemología empirista y simplemente no han buscado en las direcciones apropiadas. Sin embargo, se tiene ya una serie de datos que nos revelan algo de las estructuras perceptuales en los animales y su funcionamiento; los trabajos de J.Z. Young con pulpos, de Ewert y otros en ranas, y sobre tf)do los de Ilubely \Viesel (1959) con gatos han demostrado ampliamente la extraordinaria flexibilidad y adaptabilidad de estos mecanismos, llegándose hasta la restructuración anatómica de las conexiones ncrviosas en animales muy jóvenes. Recientemente, Creutzfeldt y sus colaboradores (1975) han extendido notablemente el campo de esta flexibilidad. Algunos de los resultados más relevantes en la percepción visual humana se deben a Julesz en los Lahoratorios de la Bell (ver p. ej. Julesz 1973), a Barmon (l9il) a Johannson (1973); una excelente discusión de los resultados anteriores se encucntra en Gregory (1966). El cuadro está muy incompleto y mucho queda por hacer alín, pero por lo menos hasta ahora nada contradice la validez del modelo epistémico para la percepción humana mientras varios indicios concuerdan bien. La situación es demasiado compleja para que una discusión detallada aquí sea posible. Posiblemente uno de los mejores argumentos actualmente disponibles es precisamente el hecho de que en el campo de la inteligencia artificial la gente, df'spués de partir de modelos de una índole bien distinta, se vieron obligados a cambiar de rumbo y desarrollar el método que hemos llamado epistémico. IV Indudablemente la implicación más fundamental que se saca de la naturaleza del proceso perceptual que se viene de describir concierne la relación entre el ente perceptor y el ambiente percibido: que se trata de un proceso complejo, en el cual los errores (es decir, las discrepancias entre las respuestas esperadas según el modelo y 598 T.A. Brody las efectivamente provocadas por la acción del perceptor) juegan un papel decisivo en lograr la adaptación gradual del modelo y este no puede concebirse si el ambiente así percibido no tiene una realidad sobre la cual el perceptor puede tener influencia pero que es independiente de él. En otros términos, el ambiente existe, en el mismo sentido y al mismo nivel que el ente que lo percibe. Lo que es más, el modelo que se va creando y ajustando es una representación bastante fiel del ambiente¡ no en el sentido, evidentemente, de que si vemos una montaña, entonces nuestra mente debe contener olra montaña, tal vez más pequeña, sino en el sentido de que el modelo refleja adecuadamente las propiedades y la evolución del ambiente y nos permite obtener predicciones precisas y específicas respecto a cómo se comportarán los diferentes elementos del ambiente en determinadas circunstancias. Lo que se ve reflejado en el modelo son, pues, las relaciones dinámicas en el ambiente percibido, según el lenguaje de los físicos; es decir, las relaciones (dadas normalmente en términos de iteracciones causales) que determinan cómo cambia en el tiempo el ambiente. Que este modelo da una representación adecuada de la realidad "externa Il es algo que evidentemente no se puede-Clemostrar lógicamente mediante deducciones de un conjunto de bases axiomáticas; en primer lugar porque su modo de construcción y ajuste continuo -al igual que las teorías científicas- no reciben su justificación sino a posferiori, en su aplicación; y en segundo lugar porque el modelo nunca es perfecto, siempre contiene aproximaciones y errores, cuya existencia es el motor que estimula el proceso de adaptación ulterior y por lo tanto es vital, en el sentido más literal de la palabra. "Errare humanum est"; Y si quisiéramos exagerar, podríamos decir que es indispensable equivocarse para luego poder acertar. Pero ¡no exageraríamos mucho! Por consiguiente, la ontología materialista que obtenemos de esta concepción epistemológica tampoco queda demostrada en forma c:;ontundente a partir de primeros principios universalmente aceptables; semejantes pretensiones serían bien absurdas; pero sí considero que el examen atento de lo que está logrando la inteligencia artificial contribuye a hacer plausible esta ontología. Un segundo punto de inportancia filosófica es la ausencia en el proceso perceptua! que hemos descrito de un elemento básico que se acepta definitivamente sin estar sujeto a revisión~ no hay "átomos" en el sentido de Russell, o "particulares básicos" como los que postula Strawson. Peor aún, cada vez que examinamos las razones de aceptar una parte del análisis que nos ofrece el modelo, vemos que se basa en lo demás del modelo -y estas otras partes a su vez se basan en lo que estamos examinando. En cada parte el análisis se empuja justito tan lejos como resulta necesario para dirigir nuestras actividades prá.cticas, y en otros momentos u otros contextos, este análisis irá más lejos o se quedará más somero. Lo que en un instante es el punto de partida, en otro resulta d<>rivado. La satisfacción al ver desvanecerse el atomismo epistemológico, tan arbitrario en sus postulados y tan expuesto a contradiccones irresolubles, no debe escondernos que en consecuencia quedamos ante una tarea bastante menos fácil: la justificación de cualquier modelo perceptual ya no se puede encontrar en su deducción impecable a partir de bases indiscutibles, sino solamente en el éxito que tiene al guiar nuetras actividades. Esta formulación del problema implica que debemos examinar Implicaciones epistemológicas de la inteligencia artificial 599 a posterion' 10 que nos ha permitido cada modelo; implica también que si el éxito no es meramente fortuito sino perdurable, entonces hemos conseguido la semejanza estructural entre nuestro modelo perceptual y el mundo que nos rodea: en consecuencia, ni concepciones apriorísticas ni simplificaciones pragmáticas serán aceptables. Ambas cortarían una parte esencial del proceso perceptual, ya sea de un lado, ya sea del otro. También se desvanece otro complejo de problemas que ha obsesionado una buena parte de la discusión filosófica en el último medio siglo. Si bien es posible observar ciertas fases en todo el proceso que he llamado perceptual y que realmente se extiende en forma continua hasta lo cognoscitivo, estas fases no ocurren bien ordenadas ni cronológica ni lógicamente. En los programas que emplean los laboratorios de inteligencia artificial es posible percibir diferentes niveles: se puede hablar del aislamiento de formas, del reconocimiento de estructuras, del descubrimiento de leyes de cambio, del desarrollo de leyes causales y de conexiones, de la construcción de predicciones; y en cada fase existen formas apropiadas de interferencia e interacción con el ambiente que se trata de interpretar. Pero en la ejecución se salta de una fase a la otra, en una forma poco previsible y dictada sólo por la conveniencia del momento. Es este hecho el que explica porqué todas las tentativas para aislar un ascenso ordenado desde el recibimiento del dato perceptual hasta la coronación del edificio mediante la deducción de la estructura mundial han fracasado. Por supuesto no "quiero decir aquí que no es posible el análisis del proceso: sí lo es, pero no en los términos evidentemente inapropiados de conceptos que dependen jerárquicamente sólo de otros inferiores en la estructura. Aceptemos la interdependencia de todos los elementos, tanto hacia arriba como hacia abajo, y la comprensión de su funcionamiento resulta una tarea bien difícil en la cual hemos avanzado muy poco, pero enteramente factible. Sobre todo importa no tratar de hacer cortes arbitrarios; hasta aquí la percepción, más allá la lógica. El cerebro tiene más sentido común y permite la colaboración de estas cosas. En el programa computacional esta interdependencia se ve reflejada en un fenómeno que a primera vista sorprende. La estructura del programa contiene lo que con un poco de simplificación se puede llamar una subrutina para cada uno de los elementos que revela el análisis perceptual¡ pero estas subrutinas requieren a su vez el uso de una serie de subrutinas que representan las diversas categorías de propiedades y las consecuentes formas de evolución dinámica¡ y estas subrutinas que podríamos llamar descriptivas contienen elementos que sólo se pueden representar mediante las subrutinas "elementales". Tenemos así la situación de una serie de subrutinas a un nivel ligadas entre sí porque emplean subrutinas de otro nivel, siendo al mismo tiempo subrutinas de las subrutinas que emplean ... A primera vista esto parece confuso, pero no lo es; si consideramos dos objetos en el campo visual del dispositivo, entonces la descripción de ellos, conteniendo no solamente sus aspectos momentáneos sino también sus futuras interacciones, debe hacer referencia al otro objeto. Técnicamente se habla aquí de co-rutinas, cada una de las cuales llama a ejecución las otras; las estructuras computacionales involucradas son parte de la programación recursiva (Barron 1968; ver también Brody 1968). Lo notable que tienen es que una parte de un programa puede usar cualquier otra parte del 5100 T.A. Brody programa -aún a sí misma, aún a todo el programa enterode modo que aquí la parle es mayor que el todo. Desde luego, la paradoja no es más que aparente, ya que se realiza sólo en la ejecución del programa, mientras que estáticamente el conjunto de instrucciones constituyendo la subrutina es bien un conjunto menor que todo el programa; pero es útil tener a disposición un caso de esta seudo-paradoja, porque ayuda a evitar muchas confusiones que surgen. Una de ellas involucra el problema de la conciencia. Si el tipo de mecanismo perceptual de las computadoras es aplicable al ser humano, entonces el modelo que él se construye debe incluir una representación de él mismo. Comúnmente se acepta que el conocimiento que tiene cada quien de sí mismo es tan bueno sino mejor que e) que tienen otras personas; en el modelo la representación de sí mismo debe ser, entonces, bastante completa y debe incluir naturalmente una representación de la representación del mundo que uno tiene. Llegamos en esta forma al comienw de una regresión infinita que es inaceptable para un mecanismo finito. Pero las técnicas recursivas hacen evidente que hay aquí una confusión: la regresión se realiza sólo dinámicamente, y su infinitud es sólo potencial, porque en la práctica los programas (y presumiblemente los mecanismos cerebrales) llegan a un nivel de recursión variable e imprevisible, pero siempre finito, limitado simplemente por necesidades puramente prácticas. Pero, por otro lado parece lícito aquí especular de que en la mera potencialidad de una recursión indefinidamente profunda hemos encontrado una huella del tipo de estructura que nos permitirá comprender el fenómeno elusivo de la conciencia y autoconciencia humanas. v Naturalmente, las implicaciones epistemológicas del desasrrollo de las técnicas de la inteligencia artificial que hemos esbozado aquí no son novedosas. Ni siquiera el modelo del proceso cognoscitivo como la estructuración de hipótesis que sucesivamente se afinan es nuevo; se encuentra esbozado ya hasta por Peirce (1903), sorprendentemente. Desde luego, PeÍrce no dio una descripción explícita y detallada, como lo que se puede hacer hoy efl día; además ignoró totalmente la necesidad que hemos subrayado de verificar estas hipótesis mediante la interferencia activa con el mundo que nos rodea, de modo que pudo fácilmente caer en la extravagante noción de la auto confirmación de las hipótesis por el hecho de que "jalan" -esencia más peculiar del pragmatismo. Lo que sí es enteramente novedoso es la posibilidad que se abre ante nuestros ojos de explorar en un futuro ,no muy lejano las cuestiones epistemológicas por la via experimental. Cabe preguntarse, pues, si para el año 2000 los institutos de filosofía en nuestras universidades tendrán que instalar laboratorios --Q si, como ya ha sucedido tanta:3 veces en el pasado estamos asistiendo al nacimiento de una nueva ciencia experimental que se separará de su madre filosófica. Implicaciones epistemológicas de la inteligencia 5101 artificial Referencias Bar.Hilleil, Barran, Y., 1964, Language and ln/ormation, n.w. 1968, Recursive Addison-\Vesley, Tcchniques in Progmmming, Reading, Ma.ss. Ma.cdonald, Londres. Berkeley, G., 1710, Treaties concerning Everyman, Londres 1910. the Principies Brod)', T.A., 1968, Symbol Manipulation Techniques, Gordon &: Brea.ch, New York. Carnap, R., 1932, Die physikalische Erkenntnis, p. 112. Chomsky, N., 1957, Syntaetic Sprache Strueturcs, Clowes, M.B., 1971, Artificiallntelligence O.D. & P. lIeggelund, Davis, 1.1., 1958, Computability Knowledge, es Universalsprache Part J, der Wissenschaft, Mouton, La Haya. 2, 79. Coopcr, D.C., 1966, Adl'ances in Progmmming (ed.), Pcrgamon, Oxford, p. 155. Creulzfeldl, o/ Human and Non-Numen'cal Computation, L. Fax 1975, Science 188, 1025. and Unsolt'ability, McGraw-HiIl, New York. Gelernter, 11., J.R. Hansen & D.W. Loveland, 1960, Proc. lVestern Joint Computer 17, 143. Con/. Godel, K., 1931, Monat.'ih. F. Math. U. Phlls. 38, 173. Greenblatt, Thomson Gregory, R.O., D.F.. Ea.stlake & Book Co., Washington, s.n. Crocker, 1967, Proc. Fall Joint Computer D.C. p. 801. Conf., R.L., 1966 Eye and Bmin, Widcnfeld &: Nicolson, Londres. Guzmán, A., 1968, Proc. Fall Joint Computer D.C., p. 291. Conf., Thomson Harmon, L.D., 1971, Abh. 4. Kongress d. Deutschen p. 277. Hearn, A.J., 1966, Comm. Assoc. Computing Book Co., Washington, Ges. f. Kybernetik, Springer, Derlin, Mach. 9, 573. Hubel, 0.11. & T.N. Wiesel, 1959, J. I'hysiology 148,574. Hume, D., 1739, A matise o/ Humar. Nature, Penguin, Iturriaga, R., T.A. Standish Spartan Books. 28, 241. &: R.A. Krutar, Harmondsworth, 1966a, Proc. Spring 1939. Joint Computer Con/., Jturriaga, R., T.A. Standish, R.A. Krutar &: J. Early, 1966b, "'The Implementation Formula Algol", Carnegie Institute of Technology Memoranduffi, Pittsburgh, Ill. Johannson, G., 1973, Perception oC and Psychophysic1i 14,201. Julesz, B & al., 1973, Perct'ption 2, 391. Kneebone, G.,T., 1963, Mathematieal Nostrand, Londres. Lighthill, M.J., 1973, Artificial Report, Londres. Locke, J., 1690, Essay 00 /.,ogic and the Foundatioos Intelligence, the Human o/ Mathematics, Van A Geneml Survey, Science Research Couna! Understanding, Part n. 8102 T.A. Brody Mesarovié, M.O., 1965, en Computer Augmentation o/ !Juman Reasoning, 5ass & \Vil. kioson (eds.), Spa.rtan Books, \Vashington, D.C., p. 37. Michie, D., 1971, Experimental Programming Report Intelligence and PerceptioD, Univ. Edinhurgh. No. 22, Department Michie, D., 1974, On Machine Intel1igencf', Edinhurgh Univ. Press, p. 123. of Machine Michie, D., A.P. Ambler, H.G. Barrow, R.M. BurstaJl, R.J. Popplestone &,: K.J. Turner, 1973, Proc. First Con/o in lndu6trial Robot Technology, Univ. Nottingham. p. 185. Minsky, M' 1971, comunicación privada. l Minsky, M. &. S. Papert, 1972, Artificial Intelligence: Inlelligence Memo 252, MIT, Cambridge, Mass. Moses, J., 1967, Ph. D. Thesis, MIT, Cambridge, Progress Report, MIT Artificial Mass. Newell, A., J.C. Sh.w &. B.A. Simoo, 1960., Proc. lnl. Con/. lnfo. Proce..,ing, UNESCO, Pari" p. 256. Newell, A., J.C. Sh.w &. B.A. Simoo, 1960h eo Se1f-Organizing Cameran (eds.), PergamoD, Oxrord, p. 153. Systems, Yovit, &. Peirce, C.S., 1903, The Reality of Thirdness a.nd Sorne Con sequen ces of Four Incapacities, en Colledtd Papers o/ Charles Sanders Peirce, Harvard Univ. Presa, Cambridge, Mass., vol. V, p. 63. Raphael, B., 1964, Report TR-2, Projecl MAC, MIT, Camhridge, Mas •. S'l"Iuel. A.L., 1959, IBM J. Res. Dev. 3 210. Somuel, A.L., 1967, lEM J. Res. Dm Sla.gle, J., 1967, Ph.D. The.i., Tauhe, M' l 11,601. MIT, C.mbridge, Mas •. 1961, Computers and Common Senst, Columbia Turing, A.M., 1950, Mind S9, 433; reimpreso en Computers &. Feldm.o (ed •. ), McGraw-Bill, New York 1963, p. 11. Univ. Press, New York. and Thought, F~igenbaum