Implicaciones epistemológicas de la inteligencia artificial*

Anuncio
Revista Mexicana de Física 35 Suplemento (1989) 589-5102
Implicaciones epistemológicas
de la inteligencia artificial*
Resumen.
Después de examinar algunos problemas filosóficos asociados a diversos campos de la inteligencia artificial, se estudia el modelo cognoscitivo que en los últimos años ha surgido en los trabajos
sobre percepción artificial. Este modelo consiste en un proceso continuo
de formulación de hipótesis sobre estructura y concatenación
de 108
elementos que componen el mundo externo al ente observador; estas
hipótesis se utilizan para hacer predicciones en cuanto a los resultados
de acciones en dicho mundo; el éxito o no de estas predicciones se utiliza
para confirmar, extender o reformar las hipótesis, de manera a construir
poco a poco un modelo dinámico del mundo. Dado que en este proceso
interviene en forma central la interferencia delibnada
en el mundo, se
concluye que si el modelo es válido también para el ser humano el mundo
externo debe existir, independientemente
del observador. Se examinan
algunas consecuencias de esta posición.
El término "inteligencia
artificial"
cubre una multitud
de pecados contra el sentido comlÍn del siglo pasado, todos los cuales proponen explotar la computadora
electrónica
para efectos que en algún sentido corresponden
a la inteligencia humana.
Él campo incluye cosas que van desele la traducción
automática
de idiomas hasta
las matemáticas
mecánicas, pasando por los programas que juegan ajedrez, los que
diagnostican
enfermedades,
y los que interpretan
fotografías tomadas desde satélites.
Al comienw
apenas más que una diversión académica,
en los últimos lustros la
inteligencia artificial ha encontrado
una s~rie de aplicaciones de considerable
interés
e importancia.
Ya se está perfilando para un futuro bastante cercano la construcción
y explotación
industrial de robots inteligentes; las posibilidades
son suficientemente
reales para que compañías
poco dadas a perseguir una quimera, como la General
~1otors en Estados Unidos o la Hitachi en Japón, estén inviertiendo
sumas considerables en ellas.
Es natural que la emergencia
de una nueva tecnología que rompe tan r&d.icalmente con tradiciones
milenarias
fuera acompañada
no solamente
de un esfuerzo
concentrado
para crearle una base teórica, sino también de muchas discusiones y
preocupaciones
propias de la filosofía. Durante los primeros años la interrogante
central era simplemente
la posibilidad de una inteligencia no humana, sino purAmente
artificial. Después de vacilaciones iniciales, el problema parecía adecuadamente
de-
finido en la formulación de Turing (1950):
"Written in 1976.
590
T.A. Brody
Vamos a sen lar a una persona delante una terminal (algo como una máquina
de escribir eléctrica conectada a otra máquina) y dejarlo dialogar con lo que se
encuentra en el otro extremo de la línea; si al cabo de un tiempo rawnable no puede
decir si está en comunicación con otro humano o con una computadora, entonces
el programa que controla las actividades. de la computadora amerita el nombre de
inteligente. Desgraciadamente tenemos ahora evidencia de que el criterio de Turing
es insuficiente: se han escrito varios programas que mantienen diálogos y que un
alto porcentaje de sus interlocutores considera humanos, sin que en ellos se hayan
incorporado rasgos de inteligencia; lo que hacen simplemente es seleccionar algunos
elementos de las frases introducidas en las terminales, manipularlas según algunas
reglas relativamente sencillas y devolverlas en forma de comentarios un poco más
generales o de preguntas que piden mayor información¡ el resto lo hace el hombre,
con su fatal aptitud para aceptar una serie de lugares comunes y preguntas de corte
simpático como si se tratara de comunicaciones reales que requieren inteligencia.
A pesar de ello se han aplacado en los últimos años las discusiones sobre la
posibilidad de una inteligencia artificial -tal vez porque se ha ido acumulando la
evidencia concreta de que algunas actividades que calificaríamos de inteligentes le
son posibles a la computadora. Vale la pena citar algunos ejemplos:
Existen programas capaces de jugar juegos bastante complejos como damas, go
y ajedrez¡ el nivel que alcanzan es respetable, en los juegos un poco más sencillos
pueden ser campeones, y aún en el más complejo de ellos, el ajedrez, si bien no
llegan al nivel de maestro internacional, le ganan a la gran mayoría de aficionados
(Greenblatt el al. 1967; Samuel 1959, 1967).'
Hay tod", una serie de programas dedicados a problemas matemáticos. Uno se
utiliza para demostrar' teoremas en geometría euclidiana; los deduce a partir de los
axiomas (Gelernter et al. 1960). Otro efectua inlegraciones en forma algebráica (es
decir, no calcula numéricamente el valor de la integral, sino escribe la expresión
algebráica que corresponde) y sería capaz de pasar todos los exámenes de cálculo
integral hasta el ni.vel universitario (Slagle 1961; Moses 1967). Otro programa evalúa
los diagramas de Feynman que describen la física de interacciones entre partículas
elementales (Hearn 1966). Otro más suma por ejemplo las series trigonométricas
complicadas que surgen en astronomía posicional, cosa que no es trivial porque
las series son infinitas (ltuiriaga et al. 1966a, 1966b). También hay programas que
demuestran teoremas lógicos (ver por ejem. Cooper 1966).
En un campo diferente, se han construido programas que aceptan un dibujo
burdo para piezas mecánicas o para construcciones arquitectónicas, lo transforman
en un diseño exacto que satisface los requisitos ingenieriles y otros y finalmente
producen los dibujos, planes o proyecciones que se necesiten entregar a los talleres
o al maestro de obras. Otros programas se utilizan en la construcción de computadoras: optimizan el diseño de circuitos electrónicos individuales, planean la
fabricación de circuitos integrados (es decir, los que se construyen inlegramente en
un cristal minúsculo de silicio o germanio), optimizan las millones de interconexiones
necesarias para hacer de las piezas electrónicas una computadora.
INaturalmente est08 comentari08 reflejan la situación que había cuando se escribió el presente
trabajo. En -loe últimOll MOI'lse ha aVAnzadoba.stante mM [Editor].
Implicaciones
epistemológicas
de Ja inteligencia
591
artificial
Hay programas que mediante dispositivos ópticos pueden descifrar textos y
transformarlos en datos manipulados por programas más convencionalei¡ o que
pueden interpretar fotografías aéreas y transformarlas en mapa;s de alta preci~i??¡ ~
que saben reconocer objetos en una escena captada por una camara de televlslOn.
La lista podría alargarse casi indefinidamente. Es más importante, sin embargo,
señalar ciertas propiedades esenciales de estos programas:
1) Existe la posibilidad de que estos programas produzcan soluci0J.les muy
originales a algunos problemas. Un solo ejemplo lo mostrará: a un programa de
demostración de teoremas se le pidió la deducción del teorema geométrico de que
en un triángulo isósceles los dos ángulos a la base son iguales. Todos recordamos la
prueba que dió Euclides, en la cual es necesario construir la perpendicular sobre la
base que pasa por el ápice y luego demostrar que los dos triángulos resultantes son
iguales. El programa produjo una deducción mucho más elegante y sencilla:
AC
= AC
= AH
LA
=
AH
LA
Ó,BAC
A
(dado: el triángulo es isóseles)
(consecuencia de lo anterior)
(principio de identidad)
= 6CAB
(es decir, el triángulo es congruente
con su reflexión especular)
por lo tanto, LB = LC
8
e
Que un programa relativamente sencillo sea capaz de este nivel de inventiva promete
mucho para el futuro (Minsky 1971).
2) Muchos de estos programas logran sus.fines mejor o más rapidamente que el
hombre: pero ninguno tiene su flexibilidad. Ninguno podría atacar cualquiera de los
problemas que he mencionado ~n cambio, el cerebro humano puede jugar ajedrez,
integrar, resolver diagramas de Feynman y diseñar circuitos, y no son tan raros los
hombres que efectivamente pueden hacer todas estas cosas. En este sentido, el de
una capacidad generalizada de resolver problemas, todavía no tenemos máquinas
inteligentes.
3) Esta falta dt flexibilidad, sin embargo, no significa que no dispongamos de
métodos bastante generales, a tal punto que se han podido elaborar teorías com.
pletas al respecto (por ejemplo Mesarovié 1965) y crear programas que en principio
pueden resolver problemas de cualquier índole (por ejem. Newell el al. 1960, y en
una forma más sofisticada Raphael 1964). La dificultad que impide una f1exihilidad
mayor consiste más bien en que no se sabe cómo representar los datos provenientes
de campos variados e imprevistos. Dicho de otra manera, sabemos indicar a la
computadora cómo manejar sus conocimientos, pero no sabemos cómo trasmitir
y almacenar estos conocimientos sin demasiadas restricdones. Sin embargo, todo
3Debido a la operación del secreto comercial y del secreto militar, la información publicada sobre
estOfldos campos es tan incompleta como es extensa. He preferido por lo tanto no dar ref~rencia8.
S92
T.A. Brody
indica que soluciones pqf lo menos parciales de este problema pueden esperarse en
los próximos cuantos años.
4) En casi lodos los casos, la naturaleza del problema resuelto por estos programas es tal que se imponen métodos heurísticos. O bien el problema no se puede
describir con suficiente precisión, o bien el número de caminos a explorar para encontrar la solución es astronómico (para el caso del ajedrez se estima que es del orden de
10120 ... ), o ambos, de modo que no es concebible un algoritmo que lleve a la meta en
forma relativamente directa. Entre los métodos heurísticos el más interesante para
nosol,ros es el aprendizaje: en su forma más sencilla, el programa cuenla con una
serie de criterios para evaluar cida posible paso, y sobre la base de la experiencia
que se va acumulando, la sección de control del programa ajusta las prioridades con
que se emplean estos criterios, eliminando o reduciendo en importancia aquellos
cuyo uso acabó en el fracaso, enfatizando aquellos criterios que dan éxito; versiones
más elaboradas de la misma idea son capaces de crear nuevos criterios que luego se
someten al mismo proceso, y de tomar en cuenta las circunstancias de cada éxito
o fracaso. El programa va, por lo tanto, aprendiendo de su propia experiencia, y
para esto es indispensable que se le informe de los resultados obtenidos -que haya
retroalimentación del ambiente sobre el cual actúa el programa, en otros términos.
5) En el proceso de solución de sus problemas, estos programas (o por lo menos aquellos que tienen capacidad de aprender) causan acciones sobre su ambiente
y reciben información sobre los resultados obtenidos. Mediante este proceso van
formando un acervo important.e de información sobre el ambiente; parte de esta
información se encuentra en forma de tablas de datos, pero una parte más esencial
se integra en el programa y lo modifica.
6) Una parte considerable de estos programas, en general, corresponde a la
deducción lógica; pero solamente una parte. Por ejemplo la generación de nuevos
criterios que se emplearán en el proceso de aprendizaje, la selección al azar de
carninos por explorar, ciertas técnicas de evaluación de soluciones incompletas hay toda una serie de métodos que no se conforman a los esquemas de la lógica
tradicional y que sin embargo juegan un papel decisivo en hacer posibles los logros
de los programas de inteligencia artificial.
Il
No cabe duda ya de que en estos programas tenemos demostraciones aunque parciales de inteligencia; ni siquiera de que a veces esta inteligencia excede la del originador
-por lo menos en el sentido restringido de que algunos programas para juegos les
pueden ganar a sus programadores.
Otro punto que amerita un momento es el de la creatividad. Este concepto es
casi imposible de circunscribir con algo de claridad, tal vez aún más difícil que el
de inteligencia. Pero si consideramos creativo un ente que produce más de una idea
Implicaciones
epistemológicas
de lt} inteligencia
artificial
593
por cada idea que se le comunica (suponiendo que el número de ideas se puede determinar), entonccs muchos programas ya existentes son creativos -y muchos seres
humanos no lo son. El tipo de originalidad que muestra por ejemplo el programa
sobre teoremas de geometría que mencioné apoya fuertemente esta conclusión.
Un problema filosófico de índole distinta proviene del hecho de que se conocen
ciertas limitaciones intrínsecas al proceso lógico.deductivo; estas limitaciones son
consccuencias del bien conocido teorema de Godel (1931; ver también Kneebone
1963) respectó "de.,la imposibilidad de demostrar la consistencia interna de estructuras axiomáticas suficientemente complejas. Una de estas consecuencias es que no
podemos construir un programa que sirve para descubrir todos los errores en otros
programa.~. La demostración es scncilla e instructiva. Si el programa por examinarse nunca termina su ejecución, entonces no produce resultados, mucho menos
resultados correctos; que termine es por lo tanto una condición necesaria. Ahora
bien, supongamos que existe un programa, llamémoslo P, capaz de determinar si
cualquier programa terminará su ejecución: es decir, capaz de darnos una respuesta
T si termina, otra respuesta N si no termina el programa P' que está examinando.
Podemos fácilmente agregar algunas instrucciones más a P de modo que en vez
de darnos la respuesta T continúe indefinidamente (se meta en un "loop" infinito,
como dicen los programadores), mientras sigue dando la respuesta N cuando ésta
es la correcta; llamemos Q a esta versión. Hemos supuesto que Q debe funcionar
correctamente con cualquier programa: esto incluye por supuesto a Q mismo. Pero
entonces tenemos la situación contradictoria de que Q (como programa que efectúa
la prueba) termina si y sólo si Q (el mismo programa, pero ahora el caso examinado)
no termina. Esta contradicción es suficiente para demostrar que Q (y con él su
versión original P) no pueden existir.
Este resultado y una serie de otros más complejos han dado lugar a una extensa
teoría (ver p. ej. Davis 1958); lo que es más relevante aquí es que constituyen también
límites a lo que puede en principio hacer una computadora, y que por consiguiente
la inteligencia es imposible en las máquinas. O por lo menos así va el argumento (un
buen ejemplo es Taube 1961). Una primera respuesta ya la dió Turing (1950): esta
misma limitación es presumiblemente válida también para el hombre. De los puntos
que anoté arriba se puede derivar una segu'nda respuesta que es que usamos -tanto
humanos como máquinas- métodos heurísticos que van mucho más allá. de la lógica.
(desde el simple "vamos a ver si pega" hasta técnicas sumamente elaboradas), al
mismo tiempo que pagan el precio de no poder aseguror la solución o, siquiera
una buena aproximación a ella; desde luego tales métodos tienen que ser efectivos
y aptos, pero no se les exige rigor ni consistencia -de modo que escapan a las
limitaciones implícitas en el teorema de GOdel. Si estas limitaciones son realmente
importantes en la práctica y si 105 métodos empleados en la heurística no sólo
rebasan la lógica sino la contradicen son problemas que discutiré en otra ocasión¡
baste anotar aquí meramente que en mi opinión encontramos en estos métodos que
exceden la lógica y sin embargo son racionales, posibles puntos de partida para las
futuras extensiones y transformaciones de la lógica.
594
T.A. Brody
III
Entre las propiedades anotadas arriba, hay una que da lugar a consecuencias más
profundas. El punto (5) resume la experiencia de que programas con capacidad de
aprendizaje se enteran de su ambiente interfiriendo con él y observando los cambios
que resultan. Esto va en directa contradicción con un principio de la epistemología
académica: la información sobre el mundo que nos rodea la recibimos a través de
los sentidos y la absorbemos pasivamente. Este principio es a tal punto arraigado
en el fondo de las filosofías empiristas y positivistas que ni siquiera se siente la
necesidad de formularlo expresamente; pero lransluce en las descripciones de cómo
"se imprimen en nuestra mente las percepciones sensoriales" (Bcrkeley 1710), como
"una impresión primero incide en nuestro sentidos y nos hace percibir" (Hume 1739).
en los datos sensoriales que intentan aislar Russell y More, o en "lo dado" con que
se contenta Carnap: "Las frases protocolarias se refieren a lo dado y describen
experiencias o fenómenos directamente dados" (Carnap 1932). El origen de esta
concepción pMiva se encuentra mucho más atrás, en las "ideas simples" con las
cuales Locke (1690) intentó eliminar la noción de ideas innatas para poder partir de
su famosa labula rasa; y antes de él, se puede observar cn Hobbes y hasta en Bacon.
Pero si bien casi no se discute, es fundamental esta noción dc nuestra pasividad
ante el desfile de percepciones sensoriales cuyo análisis es en consecuencia el único
camino para llegar a conocer el mundo. Una vez aceptado cste punto de partida.
efectivamente se nos presentan todos los dilemas de la filosofía tradicional, y sobre
todo la gran cuestión de si este mundo que tratamos de construir siquiera existe
detrás de la barrera qu.e las sensaciones erigen entre él y nosotros: nos amenaza en.
tonces el temible fantasma del solipsismo que tantos filósofos han tratado vanamente
de exorcizar y que otros, más valientes o más ingenuos, han aceptado.
En cambio, este mundo se nos abre a nucstro conocimiento si lo que sugiere
esta experiencia con mecanismos cognoscitivos es válido también para percepción
humana. Si nuestra interferencia con el mundo "cxterno", nuestra actuación, es un
elemento esencial del proceso perceptual. si nuestra información sobre el mundo no
proviene tanto de las observacioncs estáticamentc accesiblcs sino de las inferencias
que podemos hacer a partir de 1M transformaciones deliberadamente inducidas.
entonces los resultados de un proceso de percepción contienen ya su propia confirmación. Si sabemos, por ejemplo, que la botella ya no contiene vino, 10 sabemos
realmente, porque la hemos destapado y tratado de vaciarla cn un vaso; y sólo la
experiencia acumulada en años de vida nos permite llegar a esta conclusión más
rápidamente por un simple vistazo. El ej~mplo es trivial y obvio: pero sugiere
fuertemente que todo proceso perceptual tiene que ser activo. Vale la pena pues
examinar con más detalle lo que se ha logrado en materia de inteligencia artificial,
mediante programas de computadora en donde la estructura de lo que ocurre nos
es accesible.
La parte electrónica que es menester para conectar una cámara de TV a través
de circuitos apropiados y una computadora en una forma que simule la conección del
ojo al cerebro no presenta problemas. La información que recibe la computadora es
una secuencia de intensidades luminosas asociadas a las coordenadas que describen
Implicacione8 epi8temológica8 de la inteligencia artifidal
595
su posición en el campo visual. Un primer método para sacar información respecto
al sentido de la escena observada sería el que Michie (1971) llama el monádico:
comparar combinaciones de puntos vecinos, después de algunas transformaciones
más o menos preestablecidas, con una tabla de datos patrón. En la traducción
automática de lenguajes -un problema cuya estructura intelectual es muy similareste método correspondería al de buscar cada una de las palabras del texto dado
en un diccionario y simplemente traducir palabra por palabra. Poco esfuerzo fue
necesario para convencer a los lingüistas de lo absurdo de este procedimiento; pero
en la interpretación de imágenes visuales se siguió trabajando en esta línea durante
bastantes años.
Un segundo nivel es el estructural: en vez de medir distancias y áreas en la
imagen, se miden ángulos y se trata el problema con la geometría proyectiva. Esto
ya es mucho más natural, porque se tiene evidencia (Johannson 1973) de que por
este camino el ojo humano compensa el movimiento constante de la cabeza, del ojo
mismo y de los objetos observados; pero implica que tenemos que usar un mínimo
de dos imágenes (simultáneas como en la visión binocular o sucesivas como en
las observaciones desde avión o satélite) para determinar el punto de proyección,
adonde se considera colocado el aparato observador. En la lingüística el método
encuentra su análogo en el uso de las gramáticas generadoras introducidas por
Chomsky (1957). Las técnicas de este nivel permitieron un brinco grande en la
calidad de los resultados (Guzmán 1968, Clowes 1971), y muchos proyectos militares
en Estados Unidos las utilizaron para el estudio de fotos aéreos. También en el área
de la traducción automática se invirtieron enormes sumas; pero después de una
serie de éxitos iniciales las cosas se estancaron, por razones que analiza por ejemplo
Bar-Hillel (1964) para el problema lingüístico. Para el caso perceptual podríamos
ponerlas así: el método permite analizar imágenes muy sencillas; pero a medida que
aumenta su complejidad, aumenta el número de diferentes posibilidades que hay
que examinar y en forma tan rápida que pronto excede la capacidad de nuestras
máquinas mayores; y no se ve posibilidad alguna de aplicar criterios para reducir
esta inundación a proporciones más razonables.
En los Estados Unidos esto se consideró, durante una temporada, como argumento para construir máquinas aun más gigantescas. Es un h'echo que debería
interesar al historiador de la ciencia que las primeras. indicaciones de una salida
del atolladero vinieron del grupo de inteligencia artificial de Edimburgo, al que
restricciones económicas habían linútado a computadoras cuando más medianas.
La idea fundamental que se ha implantado ea que en vez de tratar de sacar el
máximo de jugo a la imagen individual se debe obtener de ella simplemente una
indicación de cómo modificar la situación cámara. mundo para ob~ener una segunda
imagen que mejoraría la interpretación, y luego continuar esta alternación hasta que
se tenga una información adecuada. Michie (1971), muy justamente en mi opinión,
llama este nivel el epistémico. Cabe notar qUE";¡. este nivel de trabajo obtenemos
una descripción del mundo observado que tiene una dimensión adicional: el tiempo
y en él las relaciones causales. Al nivel monádico compilarnos diccionarios, sin que
haya en ellos noción de las estructuras encontradas. Al nivel estructural bU8CA~
mos estructuras individuales y está.ticas, sin preocuparnos por sus correlaciones
596
T.A. Brody
ni evoluciones.
Al nivel epistémico
pro('{.demos a la manera <1(' una investigación
científica: un estudio superficial de la primera vista sugiC'ff' algunas posibilidades
de
estructuras
ligadas entre sí; la máquina postula provisionalmente
algunas ideas de
cómo podrían cambiarse estas estructuras si se hiciese talo tal cosa, y sobre esta base
selecciona una acción; se obtiene tilla nueva imagrll del mundo modificado, y ('5 ahora
relativamente
fácil determinar
hasta donde las predicciones
eran corrcctas; en caso
de errores inaceptahlerncntc
grandes, el proceso se repite -tantas
veces como sea
necesario para tener en la memoria de la (omputadora
IIna de:-cripción
de su mundo
constituida
por programas capaces de $¡mular el mundo y su comportamiento,
y de
allí poder predecir lo que sucederá si se toman tales acciones.
El método epistémico
por lo tanto trata tan pronto como sea posible obtener
una cierta comprensión
del mundo en que se mucve la computadora
y su cámara;
~omprensión
por 10 menos en el sentido implícito f'n la posibilidad
de predicciones
razonablemente
correctas. Una vcz establecido
<'SIc principio,
fué inmediatamente
obvio que el proceso perceptual
podría mcjorarse dotando al sistema de un mayor
margen de posibilidades
de actuar en Sil mundo. A los cambios de posición y dirección de la cámara se agregó el movimiento de la lámpara, 10 que permitió sacar
conclusiones
de cómo se alteran las sombras; hwgo se agregó un brazo que puede
mover los objetos individuales,
y a este brazo se le dotó de sentidos
para juzgar
el peso y la dureza de los objetos. t\lichie (197.1) resume la ('xperiencia
así: "'Los
métodos lingüísticos
{estructurales]
son incapaces de C'mpujar el análisis de ('scenas
visuales más allá de cierta profundidad.
AtÍn a esta profundidad
Sil uso exhaustivo
es excesivamente
desgastador.
En el análisis se deben resolvcr dinámicamente
las
ambigüedades,
a medida que ocurran, mediante rf'ferencias a un modelo epistémico.
De hecho, esta resolución semántica de las ambigüedades
dcbf'n hacerse tan pronto
sea posible en cada etapa, en vez de f'Spcrar hasta el final del proceso. Estudios
que llegan a conclusiones similares se deben a ~1insky y Papert (1972) Y a Light-
hill (1973).
La velocidad que permite el nivel epistémico al proceso cognoscitivo
es grande.
Una vez bien establecidas
las estructuras
generales del modelo (Id mundo, ('S posible
a.islar dentro del modelo para cada caso a aqlldlas características
que se necesitan para hacer la discriminación
relevante. Se puede pues desarrollar,
mediante la
práctica,
una serie de atajos y elegir el más breve; sólo si ést.e nos falla r('gresa.
mas e intentamos
otro un poco más largo hasta dar con la mela. Pero pagamos
el precio de que e! modelo y sus estructuras
deben estar formados
ya, y este
proceso puede llevar tiempo: es un proceso de aprendizaje
que atÍn en el mundo
muy simplificado
que presentamos
a la computadora
debe organizarse
con cuidado
para evitar que la máquina resltlte ser un ca.'lo "'psiquiátrico".
El aprendizaje
de!
(Y'undo desde luego es un proceso que nunca termina,
ya que este mundo nunca
deja de cambiar. Si este aspecto en general no se programa todavía en las computadoras, es evidente su fundamental
importancia
en e! ser humano; podemos sin
embargo incluirlo en nuestras consideraciones,
porque la limitación es una de índole
práctica: en las aplicaciones
muy restrictas
de las máquina.'l inteligentes
que por
el momento
se prevén no se necesita¡ los principios y hasta la mayor parte del
detalle de su realización son bien conocidos, dado que se emplean en el aprendizaje
Impli('Ucionc,~ cpistnllo1ógica .••de ltl inteligencia
artificial
S97
inicial que ya forma parte integrante en tantos de los programas que existen y
funcionan.
Tan pronto incluyamos pues la continuación del proceso formativo del modelo
en el funcionamiento de las máquinas inteligentes, tendremos sistemas en los cuales
todos los aspectos esenciales de un proccso cognoscitivo vienen representados. Por lo
pronto limitacioncs tanto técnicas como más fundamentales nos impiden pasar más
allá de lo que hp.ría, digamos un niño de tres alios: ha sido posible programar una
combinación d~ computadora, cámara y brazo para que se le puedan enseñar una
serie de piezas, por ejemplo de un juguete, luego la manera de montar el juguete, y
finalmente dejarle un montón de piezas (en desorden, con otras piezas más) para que
de allí construya el máximo lllímero de juguetes posible. Otros sistemas han sido
capaces del equivalente de la hazaña que realizan muchos antropoides, -descubrir
que poniendo una caja sobre una silla pueden alcanzar los plátanos colgados del
techo (~fichie el al. 1973, y otros trabajos presentados en la misma conferencia).
Ahora bien, ¿podemos decir que la percepción humana emplea modos similares?
Desgraciadamente la evidencia L'S muy incompleta; en parte porque la experimentación con humanos tiene sus problemas y en particular no permite establecer correlaciones fisiológicas, en parte también porque los psicólogos como otros científ1cos
hall estado bajo el encanto de la epistemología empirista y simplemente no han buscado en las direcciones apropiadas. Sin embargo, se tiene ya una serie de datos que
nos revelan algo de las estructuras perceptuales en los animales y su funcionamiento;
los trabajos de J.Z. Young con pulpos, de Ewert y otros en ranas, y sobre tf)do los
de Ilubely \Viesel (1959) con gatos han demostrado ampliamente la extraordinaria
flexibilidad y adaptabilidad de estos mecanismos, llegándose hasta la restructuración
anatómica de las conexiones ncrviosas en animales muy jóvenes. Recientemente,
Creutzfeldt y sus colaboradores (1975) han extendido notablemente el campo de
esta flexibilidad. Algunos de los resultados más relevantes en la percepción visual
humana se deben a Julesz en los Lahoratorios de la Bell (ver p. ej. Julesz 1973),
a Barmon (l9il) a Johannson (1973); una excelente discusión de los resultados
anteriores se encucntra en Gregory (1966). El cuadro está muy incompleto y mucho
queda por hacer alín, pero por lo menos hasta ahora nada contradice la validez del
modelo epistémico para la percepción humana mientras varios indicios concuerdan
bien. La situación es demasiado compleja para que una discusión detallada aquí
sea posible. Posiblemente uno de los mejores argumentos actualmente disponibles
es precisamente el hecho de que en el campo de la inteligencia artificial la gente,
df'spués de partir de modelos de una índole bien distinta, se vieron obligados a
cambiar de rumbo y desarrollar el método que hemos llamado epistémico.
IV
Indudablemente la implicación más fundamental que se saca de la naturaleza del
proceso perceptual que se viene de describir concierne la relación entre el ente perceptor y el ambiente percibido: que se trata de un proceso complejo, en el cual los
errores (es decir, las discrepancias entre las respuestas esperadas según el modelo y
598
T.A. Brody
las efectivamente provocadas por la acción del perceptor) juegan un papel decisivo
en lograr la adaptación gradual del modelo y este no puede concebirse si el ambiente
así percibido no tiene una realidad sobre la cual el perceptor puede tener influencia
pero que es independiente de él. En otros términos, el ambiente existe, en el mismo
sentido y al mismo nivel que el ente que lo percibe. Lo que es más, el modelo que
se va creando y ajustando es una representación bastante fiel del ambiente¡ no en el
sentido, evidentemente, de que si vemos una montaña, entonces nuestra mente debe
contener olra montaña, tal vez más pequeña, sino en el sentido de que el modelo
refleja adecuadamente las propiedades y la evolución del ambiente y nos permite
obtener predicciones precisas y específicas respecto a cómo se comportarán los diferentes elementos del ambiente en determinadas circunstancias. Lo que se ve reflejado
en el modelo son, pues, las relaciones dinámicas en el ambiente percibido, según el
lenguaje de los físicos; es decir, las relaciones (dadas normalmente en términos de
iteracciones causales) que determinan cómo cambia en el tiempo el ambiente.
Que este modelo da una representación adecuada de la realidad "externa Il es
algo que evidentemente no se puede-Clemostrar lógicamente mediante deducciones de
un conjunto de bases axiomáticas; en primer lugar porque su modo de construcción y
ajuste continuo -al igual que las teorías científicas- no reciben su justificación sino
a posferiori, en su aplicación; y en segundo lugar porque el modelo nunca es perfecto,
siempre contiene aproximaciones y errores, cuya existencia es el motor que estimula
el proceso de adaptación ulterior y por lo tanto es vital, en el sentido más literal
de la palabra. "Errare humanum est"; Y si quisiéramos exagerar, podríamos decir
que es indispensable equivocarse para luego poder acertar. Pero ¡no exageraríamos
mucho!
Por consiguiente, la ontología materialista que obtenemos de esta concepción
epistemológica tampoco queda demostrada en forma c:;ontundente a partir de primeros principios universalmente aceptables; semejantes pretensiones serían bien absurdas; pero sí considero que el examen atento de lo que está logrando la inteligencia
artificial contribuye a hacer plausible esta ontología.
Un segundo punto de inportancia filosófica es la ausencia en el proceso perceptua! que hemos descrito de un elemento básico que se acepta definitivamente sin
estar sujeto a revisión~ no hay "átomos" en el sentido de Russell, o "particulares
básicos" como los que postula Strawson. Peor aún, cada vez que examinamos las
razones de aceptar una parte del análisis que nos ofrece el modelo, vemos que se
basa en lo demás del modelo -y estas otras partes a su vez se basan en lo que
estamos examinando. En cada parte el análisis se empuja justito tan lejos como
resulta necesario para dirigir nuestras actividades prá.cticas, y en otros momentos u
otros contextos, este análisis irá más lejos o se quedará más somero. Lo que en un
instante es el punto de partida, en otro resulta d<>rivado.
La satisfacción al ver desvanecerse el atomismo epistemológico, tan arbitrario
en sus postulados y tan expuesto a contradiccones irresolubles, no debe escondernos
que en consecuencia quedamos ante una tarea bastante menos fácil: la justificación
de cualquier modelo perceptual ya no se puede encontrar en su deducción impecable a partir de bases indiscutibles, sino solamente en el éxito que tiene al guiar
nuetras actividades. Esta formulación del problema implica que debemos examinar
Implicaciones epistemológicas de la inteligencia artificial
599
a posterion' 10 que nos ha permitido cada modelo; implica también que si el éxito
no es meramente fortuito sino perdurable, entonces hemos conseguido la semejanza
estructural entre nuestro modelo perceptual y el mundo que nos rodea: en consecuencia, ni concepciones apriorísticas ni simplificaciones pragmáticas serán aceptables.
Ambas cortarían una parte esencial del proceso perceptual, ya sea de un lado, ya
sea del otro.
También se desvanece otro complejo de problemas que ha obsesionado una buena
parte de la discusión filosófica en el último medio siglo. Si bien es posible observar
ciertas fases en todo el proceso que he llamado perceptual y que realmente se extiende en forma continua hasta lo cognoscitivo, estas fases no ocurren bien ordenadas
ni cronológica ni lógicamente. En los programas que emplean los laboratorios de
inteligencia artificial es posible percibir diferentes niveles: se puede hablar del aislamiento de formas, del reconocimiento de estructuras, del descubrimiento de leyes
de cambio, del desarrollo de leyes causales y de conexiones, de la construcción de
predicciones; y en cada fase existen formas apropiadas de interferencia e interacción
con el ambiente que se trata de interpretar. Pero en la ejecución se salta de una
fase a la otra, en una forma poco previsible y dictada sólo por la conveniencia del
momento. Es este hecho el que explica porqué todas las tentativas para aislar un
ascenso ordenado desde el recibimiento del dato perceptual hasta la coronación del
edificio mediante la deducción de la estructura mundial han fracasado. Por supuesto
no "quiero decir aquí que no es posible el análisis del proceso: sí lo es, pero no en los
términos evidentemente inapropiados de conceptos que dependen jerárquicamente
sólo de otros inferiores en la estructura. Aceptemos la interdependencia de todos
los elementos, tanto hacia arriba como hacia abajo, y la comprensión de su funcionamiento resulta una tarea bien difícil en la cual hemos avanzado muy poco,
pero enteramente factible. Sobre todo importa no tratar de hacer cortes arbitrarios;
hasta aquí la percepción, más allá la lógica. El cerebro tiene más sentido común y
permite la colaboración de estas cosas.
En el programa computacional esta interdependencia se ve reflejada en un
fenómeno que a primera vista sorprende. La estructura del programa contiene lo
que con un poco de simplificación se puede llamar una subrutina para cada uno
de los elementos que revela el análisis perceptual¡ pero estas subrutinas requieren a
su vez el uso de una serie de subrutinas que representan las diversas categorías de
propiedades y las consecuentes formas de evolución dinámica¡ y estas subrutinas que
podríamos llamar descriptivas contienen elementos que sólo se pueden representar
mediante las subrutinas "elementales". Tenemos así la situación de una serie de
subrutinas a un nivel ligadas entre sí porque emplean subrutinas de otro nivel,
siendo al mismo tiempo subrutinas de las subrutinas que emplean ... A primera
vista esto parece confuso, pero no lo es; si consideramos dos objetos en el campo
visual del dispositivo, entonces la descripción de ellos, conteniendo no solamente sus
aspectos momentáneos sino también sus futuras interacciones, debe hacer referencia
al otro objeto. Técnicamente se habla aquí de co-rutinas, cada una de las cuales
llama a ejecución las otras; las estructuras computacionales involucradas son parte
de la programación recursiva (Barron 1968; ver también Brody 1968). Lo notable
que tienen es que una parte de un programa puede usar cualquier otra parte del
5100
T.A. Brody
programa -aún a sí misma, aún a todo el programa enterode modo que aquí la
parle es mayor que el todo. Desde luego, la paradoja no es más que aparente, ya que
se realiza sólo en la ejecución del programa, mientras que estáticamente el conjunto
de instrucciones constituyendo la subrutina es bien un conjunto menor que todo el
programa; pero es útil tener a disposición un caso de esta seudo-paradoja,
porque
ayuda a evitar muchas confusiones que surgen.
Una de ellas involucra el problema de la conciencia. Si el tipo de mecanismo
perceptual de las computadoras es aplicable al ser humano, entonces el modelo que
él se construye debe incluir una representación de él mismo. Comúnmente se acepta
que el conocimiento que tiene cada quien de sí mismo es tan bueno sino mejor
que e) que tienen otras personas; en el modelo la representación de sí mismo debe
ser, entonces, bastante completa y debe incluir naturalmente una representación de
la representación del mundo que uno tiene. Llegamos en esta forma al comienw de
una regresión infinita que es inaceptable para un mecanismo finito. Pero las técnicas
recursivas hacen evidente que hay aquí una confusión: la regresión se realiza sólo
dinámicamente, y su infinitud es sólo potencial, porque en la práctica los programas (y presumiblemente los mecanismos cerebrales) llegan a un nivel de recursión
variable e imprevisible, pero siempre finito, limitado simplemente por necesidades
puramente prácticas. Pero, por otro lado parece lícito aquí especular de que en la
mera potencialidad de una recursión indefinidamente profunda hemos encontrado
una huella del tipo de estructura que nos permitirá comprender el fenómeno elusivo
de la conciencia y autoconciencia humanas.
v
Naturalmente, las implicaciones epistemológicas del desasrrollo de las técnicas de
la inteligencia artificial que hemos esbozado aquí no son novedosas. Ni siquiera
el modelo del proceso cognoscitivo como la estructuración de hipótesis que sucesivamente se afinan es nuevo; se encuentra esbozado ya hasta por Peirce (1903),
sorprendentemente. Desde luego, PeÍrce no dio una descripción explícita y detallada,
como lo que se puede hacer hoy efl día; además ignoró totalmente la necesidad que
hemos subrayado de verificar estas hipótesis mediante la interferencia activa con el
mundo que nos rodea, de modo que pudo fácilmente caer en la extravagante noción
de la auto confirmación de las hipótesis por el hecho de que "jalan" -esencia más
peculiar del pragmatismo.
Lo que sí es enteramente novedoso es la posibilidad que se abre ante nuestros
ojos de explorar en un futuro ,no muy lejano las cuestiones epistemológicas por
la via experimental. Cabe preguntarse, pues, si para el año 2000 los institutos de
filosofía en nuestras universidades tendrán que instalar laboratorios --Q si, como
ya ha sucedido tanta:3 veces en el pasado estamos asistiendo al nacimiento de una
nueva ciencia experimental que se separará de su madre filosófica.
Implicaciones
epistemológicas
de la inteligencia
5101
artificial
Referencias
Bar.Hilleil,
Barran,
Y., 1964, Language and ln/ormation,
n.w.
1968, Recursive
Addison-\Vesley,
Tcchniques in Progmmming,
Reading,
Ma.ss.
Ma.cdonald, Londres.
Berkeley, G., 1710, Treaties concerning
Everyman, Londres 1910.
the Principies
Brod)', T.A., 1968, Symbol Manipulation
Techniques, Gordon &: Brea.ch, New York.
Carnap, R., 1932, Die physikalische
Erkenntnis, p. 112.
Chomsky,
N., 1957, Syntaetic
Sprache
Strueturcs,
Clowes, M.B., 1971, Artificiallntelligence
O.D. & P. lIeggelund,
Davis, 1.1., 1958, Computability
Knowledge,
es Universalsprache
Part
J,
der Wissenschaft,
Mouton, La Haya.
2, 79.
Coopcr, D.C., 1966, Adl'ances in Progmmming
(ed.), Pcrgamon, Oxford, p. 155.
Creulzfeldl,
o/ Human
and Non-Numen'cal
Computation,
L. Fax
1975, Science 188, 1025.
and Unsolt'ability,
McGraw-HiIl,
New York.
Gelernter, 11., J.R. Hansen & D.W. Loveland, 1960, Proc. lVestern Joint Computer
17, 143.
Con/.
Godel, K., 1931, Monat.'ih. F. Math. U. Phlls. 38, 173.
Greenblatt,
Thomson
Gregory,
R.O., D.F.. Ea.stlake &
Book Co., Washington,
s.n.
Crocker, 1967, Proc. Fall Joint Computer
D.C. p. 801.
Conf.,
R.L., 1966 Eye and Bmin, Widcnfeld &: Nicolson, Londres.
Guzmán, A., 1968, Proc. Fall Joint Computer
D.C., p. 291.
Conf., Thomson
Harmon, L.D., 1971, Abh. 4. Kongress d. Deutschen
p. 277.
Hearn, A.J., 1966, Comm. Assoc. Computing
Book Co., Washington,
Ges. f. Kybernetik,
Springer,
Derlin,
Mach. 9, 573.
Hubel, 0.11. & T.N. Wiesel, 1959, J. I'hysiology
148,574.
Hume, D., 1739, A matise
o/ Humar. Nature, Penguin,
Iturriaga, R., T.A. Standish
Spartan Books. 28, 241.
&: R.A. Krutar,
Harmondsworth,
1966a, Proc. Spring
1939.
Joint Computer
Con/.,
Jturriaga, R., T.A. Standish, R.A. Krutar &: J. Early, 1966b, "'The Implementation
Formula Algol", Carnegie Institute of Technology Memoranduffi, Pittsburgh, Ill.
Johannson,
G., 1973, Perception
oC
and Psychophysic1i 14,201.
Julesz, B & al., 1973, Perct'ption 2, 391.
Kneebone, G.,T., 1963, Mathematieal
Nostrand, Londres.
Lighthill, M.J., 1973, Artificial
Report, Londres.
Locke, J., 1690, Essay
00
/.,ogic and the Foundatioos
Intelligence,
the Human
o/ Mathematics,
Van
A Geneml Survey, Science Research Couna!
Understanding,
Part
n.
8102
T.A. Brody
Mesarovié, M.O., 1965, en Computer Augmentation o/ !Juman Reasoning, 5ass & \Vil.
kioson (eds.), Spa.rtan Books, \Vashington, D.C., p. 37.
Michie, D., 1971, Experimental Programming
Report
Intelligence and PerceptioD, Univ. Edinhurgh.
No. 22, Department
Michie, D., 1974, On Machine Intel1igencf', Edinhurgh
Univ. Press, p. 123.
of Machine
Michie, D., A.P. Ambler, H.G. Barrow, R.M. BurstaJl, R.J. Popplestone &,: K.J. Turner,
1973, Proc. First Con/o in lndu6trial Robot Technology, Univ. Nottingham. p. 185.
Minsky, M' 1971, comunicación
privada.
l
Minsky, M. &. S. Papert, 1972, Artificial Intelligence:
Inlelligence Memo 252, MIT, Cambridge, Mass.
Moses, J., 1967, Ph. D. Thesis, MIT, Cambridge,
Progress Report, MIT Artificial
Mass.
Newell, A., J.C. Sh.w &. B.A. Simoo, 1960., Proc. lnl. Con/. lnfo. Proce..,ing, UNESCO,
Pari" p. 256.
Newell, A., J.C. Sh.w &. B.A. Simoo, 1960h eo Se1f-Organizing
Cameran (eds.), PergamoD, Oxrord, p. 153.
Systems,
Yovit,
&.
Peirce, C.S., 1903, The Reality of Thirdness a.nd Sorne Con sequen ces of Four Incapacities,
en Colledtd Papers o/ Charles Sanders Peirce, Harvard Univ. Presa, Cambridge, Mass.,
vol. V, p. 63.
Raphael,
B., 1964, Report TR-2,
Projecl
MAC, MIT, Camhridge,
Mas •.
S'l"Iuel. A.L., 1959, IBM J. Res. Dev. 3 210.
Somuel, A.L., 1967, lEM J. Res. Dm
Sla.gle, J., 1967, Ph.D. The.i.,
Tauhe, M'
l
11,601.
MIT, C.mbridge,
Mas •.
1961, Computers and Common Senst, Columbia
Turing, A.M., 1950, Mind S9, 433; reimpreso en Computers
&. Feldm.o (ed •. ), McGraw-Bill, New York 1963, p. 11.
Univ. Press, New York.
and Thought,
F~igenbaum
Descargar