PRESENTE Y FUTURO DE LOS SISTEMAS EXPERTOS: UNA

Anuncio
PRESENTE Y FUTURO DE LOS SISTEMAS EXPERTOS: UNA PERSPECTIVA
COGNITIVA.
R. Benítez Rochel.
J.L. Pérez de la Cruz.
Dpto. de Lenguajes y Ciencias de la Computación,
Universidad de Málaga.
Resumen. Los sistemas expertos han sido durante los años 80 el logro más frecuentemente
exhibido de la Inteligencia Artificial. Sin embargo, su empleo no ha alcanzado los niveles
pronosticados por algunos. En este trabajo se intentan analizar las causas de ello, poniéndolas
en relación con las limitaciones inherentes a este enfoque de los procesos cognitivos.
Abstract. Expert systems have been the most frequently mentioned achievement of Artificial
Intelligence. However, these systems have not been applied at the level foreseen by some
researchers. In this paper we try to analyze the reasons and put them in relation to the
inherent limitations of the chosen approach.
1. Introducción.
1.1. Concepto de sistema experto.
Un sistema experto (SE) es un programa de ordenador que representa el conocimiento
relativo a algún tema especializado y razona con él para resolver problemas del mundo real o
dar algún consejo que ayude a su solución (Cuena et al. 86, Adeli 90). De esta forma, el SE
puede desempeñar una función que normalmente requiere la pericia humana, o representar el
papel de ayudante de las personas que deben tomar decisiones. Tareas típicas de los SE son la
interpretación de datos, el diagnóstico de averías o enfermedades, el análisis y el diseño de
objetos complejos y la planificación de secuencias de acciones. Un SE pretende diferenciarse
de los programas de ordenador "convencionales" por el tipo de información que representa y
también por la forma en que la procesa. La información representada debe ser la que
constituye la pericia del experto, es decir, la que los seres humanos emplean para resolver
problemas. Para enfatizar la diferencia cualitativa entre esta información y la constituida por
los números y cadenas de caracteres procesados por los programas convencionales, se suele
emplear el término "conocimiento". Una de las hipótesis fundamentales en la que se basan los
SE es precisamente esta: que "... la potencia en la resolución de problemas que un agente
inteligente exhibe en sus prestaciones es, en primer lugar, consecuencia del conocimiento
especializado empleado por el agente, y sólo se relaciona muy secundariamente con la
generalidad y la potencia del método de inferencia empleado" (Feigenbaum 79). Por esta
razón, la expresión "sistema basado en el conocimiento" ("Knowledge-based system" o KBS)
se usa a veces como sinónimo de SE.
La tecnología de los SE se suele llamar "ingeniería del conocimiento". Feigenbaum, el
creador de este término, afirmaba en 1977 que "... la ingeniería del conocimiento pone en
práctica el arte de allegar principios y herramientas de investigación de Inteligencia Artificial
para solucionar problemas que requieren el conocimiento de un experto. Las técnicas de
adquisición de este conocimiento, así como su representación y uso apropiado para la
construcción y explicación de las líneas de razonamiento, son problemas importantes en el
diseño de los sistemas basados en el conocimiento... . El arte de construir agentes inteligentes
es a la vez una parte y una extensión del arte de programar. Es el arte de construir programas
de ordenador complejos que representan conocimiento acerca del mundo y razonan con él."
(cit. en Hayes-Roth et al. 83, p. 89).
Así pues, los SE nacen de la Inteligencia Artificial. Sin embargo, ésta no se reduce a
aquellos: los SE son, en efecto, una de las posibles formas de abordar el problema de la
construcción de la inteligencia. Como tempranamente señalaban Goldstein y Papert, "ha
habido un cambio de paradigma. El problema fundamental para entender la inteligencia no es
la identificación de unas cuantas técnicas potentes, sino más bien la cuestión de cómo
representar grandes cantidades de conocimiento de una forma que permita su uso eficaz y su
interacción" (Goldstein y Papert 77). Dicho en términos más coloristas, la "estrategia de la
potencia" se abandona en favor de la "estrategia del conocimiento".
Por otra parte, la mayoría de los SE no pretenden resolver todos los problemas de su dominio
de aplicación con absoluta fiabilidad; en lugar de esto, recurren al empleo de "métodos
heurísticos". Un heurístico, regla heurística o método heurístico es "una receta, estrategia,
truco, simplificación o cualquier otra cosa que limita drásticamente la búsqueda de
soluciones en espacios grandes de problemas. Los heurísticos no garantizan soluciones
óptimas; de hecho, no garantizan siquiera una solución; todo lo que puede decirse de un
heurístico útil es que ofrece soluciones que la mayor parte de las veces son buenas"
(Feigenbaum y Feldman 63, p. 6).
Los SE supusieron un cambio sustancial en el método y objetivos de las investigaciones hasta
entonces realizadas en el campo de la Inteligencia Artificial. En efecto, algunos pensadores
hostiles han llegado a describir la aparición y difusión de esta idea entre los investigadores
como "la primera oleada de defecciones del programa [de investigación] degenerado de la
'Good-Old Fashioned Artificial Intelligence'" (Dreyfus 92, p. xlvii)
1.2. Expectativas y exageraciones.
Los SE fueron concebidos desde su creación como una manera de aplicar las técnicas de la
Inteligencia Artificial a problemas reales, cuya resolución fuera de cierta dificultad y utilidad
práctica. Por ello, lejos de permanecer en los laboratorios universitarios de investigación, se
esparcieron por fábricas y empresas. En este sentido es digno de mención el sistema
R1/XCON, usado cotidianamente desde 1981 por Digital Equipment Corp. para configurar
ordenadores modelo Vax (McDermott 82). A partir de los éxitos obtenidos tanto en los
laboratorios como en ésta y otras aplicaciones prácticas, en ciertos círculos académicos tomó
cuerpo la idea de que los SE producirían una auténtica revolución económica y social, idea
que fue ampliamente difundida por medio de trabajos de índole divulgativa dirigidos al gran
público (Feigenbaum y McCorduck 83, Feigenbaum et al. 88).
El argumento era el siguiente: "... la riqueza de las naciones ha venido produciéndose a partir
de tierras fértiles, abundantes minas, mano de obra barata y capital. Pero hoy en día la riqueza
de un país surge del conocimiento, la pericia, la innovación y el capital intelectual". Por ello
"... es necesario que la automatización llegue al trabajador del conocimiento", y "...en el caso
del trabajador del conocimiento, el motor de la productividad es el ordenador". Aún más, "...
los sistemas expertos se usan para aumentar la productividad y la pericia del trabajador del
conocimiento. Se pueden considerar como herramientas para ayudar, no a los músculos, sino
a la mente". (Feigenbaum et al. 88).
La pretendida "revolución de los SE" encontró el apoyo de algunos organismos oficiales,
señaladamente del MITI del gobierno japonés, que coordinó la definición de un ambicioso
proyecto de investigación al que se denominó "Sistemas Informáticos de la Quinta
Generación". Mediante la colaboración de las grandes empresas, se constituyó el
correspondiente organismo (el ICOT) y se fijó un plazo de 10 años (1981-1991) para
conseguir los objetivos de investigación, que fueron presentados al gran público como la
creación de un "ordenador inteligente" o de una "industria del conocimiento" que
consolidaría las ventajas competitivas de la economía del Japón.
De esta forma, la atractiva idea fue expandiéndose entre empresarios e ingenieros, que
depositaron en estas técnicas grandes esperanzas. Por ejemplo, según una encuesta realizada
por la revista "Iron Age" en 1985, la tecnología de mayor impacto en el pasado había sido el
convertidor Bessemer, y en el futuro había de ser la Inteligencia Artificial (cit. en
Feigenbaum et al. 88, p.269). Y no era raro encontrar afirmaciones como esta: "Como
resultado de la extensión de las industrias del conocimiento ... nacerá una nueva sociedad"
(Cardeñosa et al. 91).
1.3. Situación actual.
Parecía pues que los SE iban a revolucionar, no sólo la informática (Feigenbaum llegó a
afirmar que los programadores desaparecerían, sustituídos por los 'ingenieros del
conocimiento') sino, aún más, la vida económica y la sociedad en su conjunto. Sin embargo,
el tiempo ha pasado y el impacto de esta tecnología no ha resultado tan evidente en el mundo
de la informática ni en el mundo de la economía: "Muchos creyeron que el 'boom' de la
Inteligencia Artificial de los primeros 80 continuaría indefinidamente... la realidad es que los
resultados de las investigaciones de los últimos 10 años son decepcionantes, al menos
comparados con las expectativas que existían hace una década" (Shapiro y Warren 93, p.
101).
Como prueba de esto, citemos el caso del proyecto de la Quinta Generación, que se dio por
finalizado en 1992. Entre los investigadores involucrados se piensa que "... los resultados no
se corresponden con las grandes expectativas y temores suscitados por el anuncio del
proyecto. Aún más, no parece que, por ahora, generen mucho interés por parte de la industria
informática" (Shapiro y Warren 93, p.48). Sin embargo, estos mismos investigadores opinan
que se han alcanzado metas interesantes y que los resultados del proyecto son satisfactorios.
La causa de esta aparente contradicción es "... la diferencia entre la forma en que inicialmente
se presentó al público el proyecto y aquello sobre lo que realmente versaba" y esto último,
según parece, "... resultó evidente enseguida para todo aquel que se tomó el trabajo de
averiguarlo" (Shapiro y Warren 93, p. 100). Por satisfactoria que haya resultado para los
investigadores la construcción de ciertas máquinas paralelas o la definición de lenguajes de
programación lógica concurrente, es obvio que no han aportado nada al campo de los SE o de
otras aplicaciones prácticas de la Inteligencia Artificial.
Por otra parte, estudiando las ofertas de trabajos informáticos aparecidas en los medios
especializados no se observa una especial incidencia de 'ingenieros del conocimiento'. Como
hace 10 o 15 años, se requieren analistas y programadores; y las técnicas novedosas cuyo
dominio se exige -POO, redes de ordenadores, etc.- no tienen especial relación con los SE.
Todo esto ha llevado a que en algunos ambientes académicos se hable de los SE con cierta
ironía: "El término 'sistemas expertos' cubre una multitud de cosas, incluyendo muy
posiblemente algunos pecados" (Partridge 91, p.15).
Sin embargo, también es innegable que el número de SE desarrollados y actualmente en uso
en las empresas y organismos oficiales es muy elevado: véanse, por ejemplo, los casos
recogidos en (Klahr y Byrnes 93). Grandes empresas informáticas, de aviación o
manufactureras; bancos y organismos de la Administración Pública, consiguen en ciertos
casos beneficios económicos o mejoras de eficiencia y productividad gracias a la aplicación
de los SE.
Ya es tiempo pues de abandonar tanto exageradas pretensiones -que a medio plazo sólo
producen el desprestigio de quienen las mantienen, y por extensión el de todo el sector- como
fáciles descalificaciones globales. La experiencia acumulada en los dos decenios de vida de
los SE permite estudiar sus límites y sus perspectivas reales de desarrollo. En virtud de esta,
en lo que sigue discutiremos cuál es la naturaleza del conocimiento experto (sección 2), las
posibilidades de aislarlo y fragmentarlo (sección 3) y qué problemas prácticos se presentan en
su interacción con otros agentes (sección 4).
2. La naturaleza del conocimiento experto.
Ya hemos mencionado en la sección 1.1 una de las hipótesis fundamentales de los SE, la
llamada "hipótesis del conocimiento", que establece que la eficacia en la resolución de
problemas no depende tanto de los métodos generales de razonamiento como del
conocimiento concreto acumulado. La escuela 'clásica' de la Inteligencia Artificial añade la
afirmación de que este conocimiento puede representarse mediante cualquier 'sistema de
símbolos físicos' (Newell y Simon 76); es pues simbólico, explícito y descomponible.
Típicamente, los SE están constituidos por gran número de fragmentos elementales de
conocimiento simbólico que adoptan la forma de reglas.
Sin embargo, a simple vista no parece que los seres humanos resuelvan los problemas de su
competencia aplicando un número elevado de reglas formales. La escuela clásica de SE evita
la aparente contradicción suponiendo que los expertos almacenan y aplican estas reglas de
forma inconsciente; el proceso de aprendizaje humano consiste esencialmente en almacenar
un número cada vez mayor de reglas heurísticas apropiadas; y una cuidadosa tarea de
'elicitación' permite al 'ingeniero del conocimiento' sacar a la luz este conocimiento
internalizado, por medio de entrevistas retrospectivas, análisis de protocolos, uso de
emparrillados y otras técnicas psicológicas.
Los pensadores críticos, por el contrario, mantienen que la competencia en la resolución de
problemas de un dominio raras veces es explicable en términos de reglas simbólicas, y
proponen un modelo evolutivo para la adquisición de esta (Dreyfus y Dreyfus 86). Si el
modelo de los Dreyfi corresponde a la realidad, los llamados SE deberían llamarse más bien
"sistemas novatos". El modelo describe cinco fases sucesivas:
Fase 1. Novato. El agente comienza aprendiendo a reconocer en la situación problemática
"rasgos", independientes del contexto, y memorizando reglas, también independientes del
contexto global, que determinan la acción a seguir en función de los rasgos. El novato carece
en absoluto de visión de conjunto de la situación.
Fase 2. Principiante. A partir de la propia experiencia, o de ejemplos mostrados por el
instructor, el agente aprende a reconocer "aspectos" de la situación. Los aspectos, a diferencia
de los "rasgos", no pueden definirse objetivamente, y dependen de la situación globalmente
considerada. Las reglas que se aplican toman en consideración rasgos y "aspectos".
Fase 3. Competencia. Cuando se acumula mucha experiencia, el número de rasgos y de
"aspectos" se hace excesivo. Para poder manejar la situación, el agente adopta previamente
una "perspectiva". La "perspectiva" organiza la situación de forma global, permitiendo
concentrarse en un número menor de "aspectos". Estos se evalúan conscientemente y se
aplican las reglas correspondientes. La selección de una "perspectiva" no puede realizarse
mediante un procedimiento objetivo, y siempre lleva consigo un grado de incertidumbre. Por
esta causa, se establece una relación emocional entre el agente y el problema, la perspectiva y
el éxito o el fracaso.
Fase 4. Destreza. Cuando se han afrontado muchas situaciones mediante la adopción
consciente de una "perspectiva" y se han almacenado los correspondientes éxitos y fracasos,
el agente "siente" qué perspectiva o plan adoptar, sin necesidad de deliberación consciente.
Fase 5. Pericia. Por último, el auténtico experto realiza de forma automática e indeliberada no
sólo la selección de una perspectiva o plan, sino también la ejecución de las acciones
correspondientes. "Cuando las cosas van bien, los expertos no resuelven problemas ni hacen
inferencias ni calculan nada; simplemente hacen lo que suele funcionar, y normalmente esto
funciona". (Dreyfus y Dreyfus 86). O, como afirma Minsky, "cuanto mejor realizamos una
tarea, tanto menor es nuestra conciencia de ello; la mayor parte del tiempo, cada trozo de la
mente sólo percibe cuán silenciosamente trabajan los demás trozos" (Minsky 85, p. 29).
Por otra parte, las diferencias principiante/experto también han sido objeto de algunos
estudios desde el punto de vista de la Psicología Cognitiva. En lugar de la anterior
descripción filosófica en términos de "aspectos" o "perspectivas", aparecen descripciones en
términos de "estrategias de resolución", "organización de la memoria" y "chunking". Muy a
grandes rasgos, la tesis dominante -basada en los experimentos realizados en los dominios
típicos de esta escuela psicológica- es que expertos y novicios emplean estrategias similares,
pero los primeros poseen una memoria mucho más estructurada y se apoyan en un conjunto
de "chunks" mucho más potente (vd. por ejemplo el resumen de (van Lehn 89)).
Los análisis anteriores son relevantes para determinar la verdadera utilidad y las limitaciones
de los SE. Primeramente, hay que aclarar qué se quiere decir cuando se habla de "reglas" de
un SE, pues las reglas aplicadas a ternas (objeto, atributo, valor), que constituían la estructura
básica de MYCIN y sistemas análogos, no son la única herramienta de que dispone el
investigador actual. De esta forma, gran parte de las críticas radicales resultan aplicarse a una
caricatura de la tecnología realmente existente, pues casi nadie en este campo cree que las
limitaciones de un SE pueden superarse siempre añadiendo unas cuantas reglas más a la 'base
de conocimientos' del sistema.
En esta línea, son muy notables los intentos de formalización del llamado 'conocimiento
profundo' que refleja la estructura causal del dominio o bien una versión cualitativa de las
leyes de la Naturaleza que lo describen (Bobrow 84). De esta forma, se evita la típica
'fragilidad' de los SE primitivos, es decir, su falta de fiabilidad ante problemas que no son
exactamente los previstos por el diseñador.
En cualquier caso, aún así permanecemos en el dominio de la Inteligencia Artificial clásica o
simbólica, y los pensadores críticos seguirán afirmando que "las técnicas de la inteligencia
artificial son a la mente lo que la burocracia a la interacción social humana" (Winograd 90).
Sin embargo, también en ciertas situaciones sociales recurrimos a la burocracia; podemos
esperar entonces que los SE sean aplicables a la toma de ciertas decisiones. En efecto,
supongamos que hemos de resolver un problema con las siguientes características:
-abstracción. El problema y la solución pueden describirse sin recurrir a ejemplos concretos
del mundo real. En la terminología de los Dreyfi, no hay "aspectos", sólo "rasgos".
-formalismo. Las relaciones entre los rasgos y la solución se pueden expresar en un lenguaje
formal.
-intelectualismo. No hay involucrados elementos emocionales o éticos.
En estas circunstancias, un SE basado en reglas -o acaso en formalismos más sofisticados- es
en principio capaz de realizar su tarea con un adecuado nivel de competencia. Sin embargo,
la delimitación anterior no resulta aún suficiente. Pensemos por ejemplo en el caso del
ajedrez. La determinación de la jugada óptima en una posición presenta los rasgos antes
citados; por tanto, debería ser posible el desarrollo de un SE que realizara esta tarea mejor
que cualquier ser humano. De hecho, hoy existen sistemas informáticos que juegan al ajedrez
con jugadores humanos. Sin embargo, estos sistemas de Inteligencia Artificial no pueden
llamarse propiamente SE: su forma de razonamiento no está basada en la simulación de los
procesos mentales de los grandes maestros, sino en el aprovechamiento de la potencia de
cálculo de los ordenadores actuales.
Es decir, existen dominios formales de gran complejidad en los que determinados seres
humanos alcanzan gran pericia, sin que sea posible simular esa pericia por medio de un
programa (aunque para este quizás sea posible alcanzarla por otros métodos). Son los que los
Dreyfi llaman 'dominios intuitivos'. El experto humano, aún tratándose de un dominio formal,
no parece emplear un método formal fácilmente describible en la resolución de problemas, y
las técnicas típicas de la psicología cognitiva encuentran bien una variedad inmanejable de
estructuras de memoria y "chunks" -por emplear sus propios términos- o bien los "aspectos" y
"perspectivas" que aparecen al tratar con problemas de la vida cotidiana -si empleamos el
lenguaje de los filósofos.
Pero aún los Dreyfi admiten que hay al menos un auténtico SE, es decir, un programa basado
en reglas heurísticas que funciona tan bien como el mejor experto humano en su campo: el ya
citado R1/XCON de Digital. La explicación que dan para ello es que incluso los técnicos
experimentados que anteriormente realizaban el trabajo empleaban un método heurístico para
resolver el problema, y tardaban unos diez minutos en resolver un caso sencillo. Por tanto,
finalmente reconocen que en dominios formales como este donde no hay expertos intuitivos,
puede esperarse que los sistemas expertos sean de gran valor (Dreyfus y Dreyfus 86). Desde
un punto de vista completamente distinto, también llega Newell a la conclusión de que los SE
corresponden a la 'banda racional' de la cognición humana, caracterizada por procesos que
duran más de 10 segundos, orientados por los objetivos y basados en el conocimiento
(Newell 90).
3.La magnitud del conocimiento.
Supongamos seleccionado un dominio abstraíble y formalizable. Asegurada así la factibilidad
a priori de un SE, queda aún la tarea de desarrollarlo e implementarlo; tarea que puede llegar
a ser imposible -o, al menos, muy difícil- debido al ingente volumen de conocimiento
necesario. Desde el punto de vista que nos interesa, este conocimiento puede ser de dos
clases: conocimiento de sentido común y conocimiento de pericia.
3.1. El conocimiento de sentido común.
Volvamos a la 'hipótesis del conocimiento': " ...la potencia en la resolución de problemas que
un agente inteligente exhibe en sus prestaciones es, en primer lugar, consecuencia del
conocimiento especializado empleado por el agente...". Nótese la palabra 'especializado';
Feigenbaum se refiere, por ejemplo, a lo que el médico sabe de Medicina, y el resto de la
Humanidad ignora. Sin embargo, en la gran mayoría de los dominios especializados es
necesario emplear además otros conocimientos, comunes a todos los seres humanos que
comparten nuestro tiempo y nuestra civilización. Esto constituye lo que en los círculos de
Inteligencia Artificial se denomina 'sentido común'. La falta de sentido común hace que los
SE sean terriblemente frágiles y que MYCIN, según un viejo chiste que corre por el
ambiente, diagnosticara un embarazo a un varón.
Ya que todos compartimos este conocimiento, su 'elicitación', formalización y plasmación
informática puede parecer tarea sencilla. Por desgracia, no es así, y ello se debe su magnitud,
prácticamente ilimitada. Ello quiere decir que, para seleccionar un dominio apropiado, existe
una restricción adicional: el dominio ha de ser 'epistémicamente aislable', es decir, el
razonamiento no ha de emplear una proporción apreciable del conocimiento de sentido
común. En la práctica, esto supone que los SE no pueden salir de ámbitos muy restringidos,
como, por ejemplo, la asignación de tareas a un conjunto de máquinas o el diagnóstico de
fallos en mecanismos o dispositivos.
Para superar este escollo, los investigadores de la Inteligencia Artificial suelen concentrarse
en la búsqueda y estudio de nuevos formalismos apropiados para la representación del
sentido común (lógicas no clásicas, modelado cualitativo, etc); vd. por ejemplo el texto de
(Davis 90). Por su parte, los desarrolladores de SE se limitan a introducir en su sistema los
fragmentos de sentido común que creen imprescindibles (por ejemplo, un SE de planificación
de tareas en una fábrica tendrá que tener el conocimiento de sentido común referente al
calendario).
Sin embargo, un intento radical de romper estos estrechos límites de aplicabilidad y llevar los
SE al ámbito donde realmente se desarrolla la vida humana exige un esfuerzo mayor y más
sostenido. El proyecto CYC (Lenat y Guha 90, Guha y Lenat 93) intenta llevar a cabo
precisamente esta tarea. A lo largo de la última década, Lenat y sus colaboradores se han
propuesto construir un sistema que englobe la 'realidad consensual', o sea, la totalidad de los
conocimientos y creencias de un adulto medio de nuestra cultura. Si esto se consiguiera, el
sistema CYC podría emplearse como sustrato de cualquier SE construido en base a su
formalismo, que de esta manera tendría acceso a un cuerpo completo de conocimiento de
sentido común. Con cierto sentido del humor, Lenat cita en la bibliografía de su libro de 1990
el "Ontological Engineer's Handbook" (1997), fijando así la fecha en la que prevé que CYC
pase a ser empleado por la comunidad de SE. No obstante, no parece tan próxima la
consecución de tal 'enciclopedia electrónica' (Smith 90), por no mencionar las dificultades
conceptuales que su mera posibilidad plantea.
3.2. El conocimiento de pericia.
Aún limitándonos al conocimiento especializado, no es tarea fácil su formalización y
plasmación en un SE. Tradicionalmente se ha señalado el proceso de adquisición del
conocimiento como el 'cuello de botella' en el desarrollo de los SE. Las técnicas habituales de
ingeniería del conocimiento, basadas en la interacción entre el 'ingeniero del conocimiento' y
el experto humano, son lentas y pueden llegar a ser frustrantes y poco fiables.
Puesto que la comunidad de Inteligencia Artificial es consciente de este problema, se han
emprendido numerosas investigaciones teóricas y se han construido algunos prototipos de
sistemas que implementan algún tipo de aprendizaje automático. Por ejemplo, sería deseable
que un primer prototipo construido rápidamente pudiera aumentar por sí mismo su pericia a
partir de los casos que vaya intentando resolver. Pero, pese al interés suscitado por técnicas
como el EBL (aprendizaje basado en explicaciones) (Mitchell et al. 86, DeJong y Mooney
86) o los 'SE aprendices' (Mitchell et al. 85) no parece que haya resultados prácticos a la
vista.
Una alternativa radical al proceso de adquisición del conocimiento viene propuesta por la
escuela de Inteligencia Artificial conexionista y sus redes neuronales, que -sustituyendo en
este papel a los SE- han constituido el juguete favorito de los filósofos y publicistas en los
primeros años 90. Sin duda es atractiva la idea de la automatización completa del
aprendizaje, reducido al ajuste de los valores numéricos en una matriz de conexiones; pero,
en las tareas de la 'banda racional' en las que la tecnología de SE haya fracasado, no es
esperable que las redes tengan un mejor éxito. Fuera de los problemas de control,
clasificación e identificación relativamente sencillos, no existen SE reales basados en redes
neuronales. Aún más, si las capacidades de justificación de un SE simbólico suelen resultar
poco convincentes, ¿qué diremos de las de una red neuronal, que únicamente puede exhibir al
usuario que exige una explicación de su proceso de razonamiento un vector o matriz de pesos
numéricos?
4. El contexto del conocimiento experto.
Incluso los más acérrimos partidarios de los SE mencionan ciertos problemas suscitados al
intentar emplearlos en el mundo real. Por ejemplo, nadie negará que el mercado de la
ingeniería del conocimiento, debido acaso a su reciente aparición, resulta levemente caótico y
los clientes permanecen confusos ante las ofertas difícilmente comprensibles (y a veces
francamente exageradas) de los vendedores. Por otra parte, la introducción de esta tecnología
en una empresa ya existente puede producir los recelos de los empleados especializados quienes acaso pensarán que su pericia no va a resultar ya necesaria- y de los responsables del
sistema informático -quienes habrán de acostumbrarse a los nuevos productos e integrarlos
con el resto del sistema de información empresarial- llevándoles a combatir consciente o
inconsciente contra el SE propuesto.
Desde un punto de vista filosófico, es fácil desdeñar estas consideraciones. Pero en la
práctica son cruciales si se quiere obtener un SE que realmente sea útil, es decir, que se
emplee de manera cotidiana. La tecnología de SE ha abordado estos problemas de manera
relativamente exitosa. Primeramente, la idea del sistema informático como sustituto ha ido
perdiendo terreno en favor de la idea del sistema como 'ayudante'. De esta forma, la
capacidad de resolución de problemas del conjunto hombre-SE supera ampliamente la de
cada uno de ellos por separado: el SE se hace cargo de las subtareas abstractas y
epistémicamente aisladas, mientras que el ser humano lleva el control general del
razonamiento y emplea su intuición y su conocimiento de sentido común.
Por otra parte, el desarrollo de SE ha ido aproximándose al desarrollo de los sistemas
informáticos convencionales. En efecto, muchos de los problemas prácticos que ha de
resolver la 'ingeniería del conocimiento' son los mismos que la llamada 'ingeniería del
software' lleva afrontando desde su creación. Esto se ha traducido en la importación de
técnicas de la informática tradicional mediante la definición de varias metodologías de
desarrollo de SE, de las cuales la más conocida es KADS (Tansley y Hayball 93). Desde el
punto de vista de KADS, un SE no es tanto la simulación del conocimiento de un experto
humano como el modelo operacional de un comportamiento deseado. En cualquier caso, la
adopción de estas metodologías acerca los SE al mundo de la informática convencional,
aumentando así su fiabilidad y su aceptabilidad por parte de los usuarios.
5. Conclusiones.
El primer SE (DENDRAL o, si así se prefiere, MYCIN) apareció hace dos décadas. Un largo
camino, jalonado de notables logros y de expectativas defraudadas, se ha recorrido desde
entonces. Queda ahora claro que los SE no constituyen una tecnología aplicable a todos los
dominios cognitivos, y que aún cuando son aplicables es necesario un proceso de
'socialización' para que lleguen a ser útiles.
Sin embargo, en aquellos problemas que aparecen en dominios abstractos, formalizables,
intelectuales y epistémicamente aislados, y en los que es necesario proporcionar una
explicación comprensible del proceso de razonamiento seguido, los SE resultan útiles e
insustituibles por sistemas informáticos de otra clase; este es pues el actual 'nicho ecológico'
de esta tecnología.
No se puede descartar que en el futuro los SE ocupen otros espacios y se empleen en
dominios de otra índole; sin embargo, tanto la reflexión cognitiva como la constatación
empírica de la escasez de progresos espectaculares hacen dudosa a corto plazo esta evolución.
Notas.
Adeli, H. (ed.) (1990): "Knowledge Engineering. Vol.I, Fundamentals". New York, McGrawHill.
Bobrow, D. (1984): Qualitative Reasoning about physical systems. An special volume of
"Artificial Intelligence" 24
Cardeñosa, J. et al. (1991): The Knowledge Engineer in the Knowledge Industry. "Heuristics"
4(2) 43-53
Cuena, J. et al. (1986): "Inteligencia artificial: sistemas expertos". Madrid, Alianza Editorial.
Davis, E. (1990): "Representations of commonsense knowledge". Los Altos, Ca., Morgan
Kaufmann.
DeJong, G. y Mooney, R. (1986): Explanation-based learning: al alternative view. "Machine
Learning" 1 145-176
Dreyfus, H.L. (1979): "What Computers can't do". New York, Harper & Row.
Dreyfus, H.L. (1992): "What Computers still can't do: A Critique of Artificial Reason".
Cambridge, Ma., MIT Press.
Dreyfus, H. y Dreyfus, S. (1986): "Mind Over Machine: The Power of Human Intuitive
Expertise in the Era of the Computer". New York, Free Press.
Feigenbaum, E. (1979): Themes and Case Studies in Knowledge Engineering. En Michie, D.
(Ed.): "Expert Systems in the Microelectronic Age", Edinburgh University Press.
Feigenbaum, E. y Feldman, J. (1963): "Computers and Thought". New York, McGraw-Hill.
Feigenbaum, E. y McCorduck, P. (1983): "The Fifth Generation: Artificial Intelligence and
Japan's Computer Challenge to the World". Reading, Ma., Addison-Wesley.
Feigenbaum E., McCorduck, P. y Penny Nii, H. (1988): "The Rise of the Expert Company".
New York, Vintage Books.
Goldstein, I. y Papert, S. (1977): Artificial Intelligence, Language and the Study of
Knowledge. "Cognitive Science" 1(1) 84-123
Guha, R. y Lenat, D. (1993): Response: CycLing papers reviews. "Artificial Intelligence" 61
149-174
Hayes-Roth, F., Waterman, D. y Lenat, D. (1983): "Building Expert Systems". Reading, Ma.,
Addison-Wesley.
Klahr, P. y Byrnes, E. (1993) (eds.): "Proceedings of the Fifth Innovative Applications of
Artificial Intelligence Conference IAAI-93", Menlo Park, Ca., AAAI Press.
Lenat, D. y Guha, R. (1990): "Building Large Knowledge-Based Systems". Reading, Ma.,
Addison-Wesley.
McDermott, J. (1982): R1: A Rule-based Configurer of Computer Systems. "Artificial
Intelligence" 19(1) 39-88
Minsky, M. (1985): "The Society of Mind". New York, Simon & Schuster.
Mitchell, T. et al. (1985): LEAP: a learning apprentice for VLSI design. "Proceedings of the
9th IJCAI" 573-580
Mitchell, T., et al. (1986): Explanation-based learning: an unifying view. "Machine Learning"
1 47-80
Newell, A. (1990): "Unified Theories of Cognition". Cambridge, Ma., Harvard University
Press.
Newell, A. y Simon, H. (1976): Computer Science as Empirical Enquiry: Symbols and
Search. "Communications of the ACM" 19/3) 113-126
Partridge, D. (1991): "A New Guide to Artificial Intelligence". Norwood, NJ., Ablex
Publishing.
Shapiro, E. y Warren, D. (1993): The Fifth Generation Project: Personal Perspectives.
"Communications of the ACM" 36(3) 46-101
Smith, B. (1990): The owl and the electronic encyclopaedia. "Artificial Intelligence" 47 251288
Tansley, D. y Hayball, C. (1993): "Knowledge-based systems analysis and design: a KADS
developer's Handbook". Englewood Cliffs, NJ, Prentice-Hall.
van Lehn, K. (1989): Problem Solving and Cognitive Skills Acquisition. En Posner, M. (ed.):
"Foundations of Cognitive Science", Cambridge, Ma., MIT Press.
Winograd, T. (1990): Thinking Machines: Can there be? Are we? En Partridge, D. y Wilks,
Y. (eds.): "The Foundations of Artificial Intelligence. A Sourcebook". Cambridge University
Press.
Descargar