Introducción: La inteligencia artificial sea destacado como el comienzo de una...

Anuncio
Introducción:
La inteligencia artificial sea destacado como el comienzo de una nueva era ya iniciada en los años del 1950
haciendo de gran importancia en la vida de la comunicación, y con la búsqueda de un nueva forma de ayuda
en el trabajo. La inteligencia artificial consta de robot bien diseñado, y computadoras que no paran de ser un
elemento de gran necesidad.
Un ejemplo claro de la inteligencia artificial son los robot diseñados para la construcción de vehículos,
electrodomésticos tareas que realizaba el hombre haciendo desplazado cada día, en parte la mayoría de los
hombres se sienten disgustados por ser desplazados por la robótica, pero las industrias no lo ven de esa forma
en cambio se sienten beneficiados por este recurso.
Desarrollo:
Historia De la Inteligencia Artificial
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el Perceptrón de
Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el cual se unieron esfuerzos para que
se pudieran resolver una gama amplia de problemas, pero estas energías se diluyeron enseguida.
Fué en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el
ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general
de problemas). Éste era una sistema en el que el usuario definía un entorno en función de una serie de objetos
y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de
Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos
formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no
podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El
GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el
destino deseado mediante el método del ensayo y el error.
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un
proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más
concretos. Así es como nació el sistema experto.
El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de masa construido
en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos
en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron
utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San
Francisco, EE.UU.).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales
como el LISP o EL PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados,
como por el ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas
automáticamente, por inducción.
Desarrollo Histórico Según [Jackson 86]
1950−1965 Periodo ``clásico''
ð Gestación [McColluck y Pitts, Shannon, Turing]
1
ð Inicio − reunión de Darmouth College en 1956 [ Minsky, McCarthy]
ð Redes neuronales, robótica (Shakey)
ð Búsqueda en un espacio de estados, Heurísticas, LISP
ð Resolvedor general de problemas (GPS) [Newell, Simon]
ð Juegos, prueba de teoremas
ð Limitaciones de pura búsqueda, explosión combinatoria.
1965−1975 Periodo ``romántico''
ð Representación ``general'' del conocimiento.
ð Redes semánticas [Quillian]
ð Prototipos (frames) [Minsky]
ð Perceptron [Minsky y Papert]
ð Lógica [Kowalski]
ð Mundo de bloques (SHDRLU) [Winograd]
ð Compresión de lenguaje, visión, robótica.
ð Dificultades de representación ``general'',problemas de ``juguete''.
1975−Hoy Periodo ``moderno'' Inteligencia ``especifica'' vs ``general''.
ð Representación explícita del conocimiento específico del dominio.
ð Sistemas expertos o basados en conocimiento.
ð Regreso de redes neuronales [Hopfield, Rumelhart, Hinton], algoritmos genéticos [Holland, Goldberg]
Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje Aplicaciones
``reales'' (medicina, finanzas, ingeniería, exploración, etc.).
ð Limitaciones: conocimiento ``superficial''
Según [Russell, Norvig 95]:
Gestación (1943−1956):
ð McCullock y Pitts (43), Hebb (49), Shannon
ð (50), Turing (53), Minsky y Edmonds (51). Darmouth College (56) McCarthy, Newell y Simon ``The Logic
Theorist''
Entusiasmo y grandes espectativas (1952−1969):
2
ð Samuel − checkers (52), McCarthy (58):
ð Lisp, time sharing, Programs with common sense. Minsky y McCarthy en MIT moldearon mucho del area.
En 63 McCarthy se fue a Stanford SRI, Shakey, etc. Minsky Evans, Student, Waltz, Winston, Winograd, etc.
Trabajo en RN: Hebb, Widrow, Rosenblatt
Dosis de realidad (1966−1974):
ð Simon predecía que en 10 años se tendría una máquina inteligente. Predicciones similares en traducción
automática y ajedrez. Teoría de NP−completness. Experimentos en machine evolution (ahora algoritmos
genéticos) (Friedberg, 58) estaban bien fundados pero no produjeron nada. Minsky y Papert Perceptrons (69)
(aunque irónicamente el mismo año se descubrió backpropagation (Bryson y Ho))
Sistemas basados en conocimiento (1969−1979):
ð Dendral , Mycin , HPP, Prospector, Winograd SHDRLU,Shank (no hay sintáxis), frames, Prolog, Planner
ð IA como industria (1980−1988): R1/XCON, proyecto de la quinta generación, shells y máquinas de Lisp...
Regreso de redes neuronales (1986−presente):
ð Hopfield, Rumelhart y Hinton y descenso de los SE
Eventos recientes (1987−presente):
ð Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) e.g.,
reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC),
etc...
Tomando como definición de Inteligencia Artificial, la que dio en su día Marvin Minsky (frase tal, que
se ha hecho famosa por donde quiera que va):
"La Inteligencia Artificial es el arte de hacer máquinas capaces de hacer cosas que requerirían
inteligencia en caso de que fuesen hechas por seres humanos.
...esta definición nos llevaría, o por lo menos, nos ayudaría a entender porque en inteligencia artificial
hay tantas ramas, pues al igual que la medicina, la I.A. debe abarcar todo lo inherente al hombre, para
podérselo ofrecer a la máquina y en definitiva, a nosotros, los seres humanos.
La inteligencia artificial (IA) estudia como lograr que las máquinas realicen tareas que, por el momento, son
realizadas mejor por los seres humanos. Esta definición es, por supuesto, bastante efímera ya que hace
referencia al estado actual de la informática. Además falla al no incluir algunas áreas que potencialmente
tienen un gran impacto, tales como aquellos problemas que no pueden ser resueltos adecuadamente ni por las
máquinas ni por los hombres. Sin embargo, proporciona un buen comienzo para aclarar en qué consiste la
inteligencia artificial evitando los aspectos filosóficos que dominan en los intentos de definir los términos
artificial o inteligencia. Además, resulta interesante que surjan similitudes con la filosofía y al mismo tiempo
las evite.
¿QUE ES UNA TECNICA DE IA?
3
Los problemas abordados por la ingeniería artificial configuran un amplio espectro. Tienen muy poco en
común excepto que todos ellos son complicados. ¿Existen entonces técnicas apropiadas para solucionar
algunos de estos problemas? La respuesta es afirmativa, los hay.
Uno de los más rápidos y sólidos resultados que surgieron en las primeras tres décadas de la investigación de
IA fue que la inteligencia necesita conocimiento. Para compensar este arrollador logro, imprescindiblemente,
el conocimiento posee algunas propiedades poco deseables, tales como:
• Es voluminoso
• Es difícil caracterizarlo con exactitud
• Cambia constantemente
• Se distingue de los datos en que organiza de tal forma que se corresponde con la forma en que va a ser
usado.
• Concluimos que una técnica de IA es un método que utiliza conocimiento representado de tal forma
que:
El conocimiento represente las generalizaciones. En otras palabras, no es necesario representar de forma
separada cada situación individual. En lugar de esto, se agrupan las situaciones que comparten propiedades
importantes. Si el conocimiento no posee esta propiedad, puede necesitarse demasiada memoria. Si no se
cumple esta propiedad es mejor hablar de " datos" que de conocimiento.
Debe ser comprendido por las personas que lo proporcionan. Aunque en muchos programas, los datos pueden
adquirirse automáticamente (por ejemplo, mediante lectura de instrumentos), en muchos dominios de la IA, la
mayor parte del conocimiento que se suministra a los programas lo proporcionan personas, haciéndolo
siempre en términos que ellos comprenden.
Puede modificarse fácilmente para corregir errores y reflejar los cambios en el mundo y en nuestra visión del
mundo.
Puede usarse en gran cantidad de situaciones aun cuando no sea totalmente preciso o completo.
Puede usarse para ayudar a superar su propio volumen, ayudando a acotar el rango de posibilidades que
normalmente deben ser consideradas.
Aunque las técnicas de IA deben diseñarse de acuerdo con las restricciones impuestas por los problemas de
IA, existe cierto grado de independencia entre los problemas y las técnicas de resolución de problemas. Es
posible resolver problemas de IA sin usar técnicas de IA (estas soluciones no suelen ser muy adecuadas).
También es posible aplicar técnicas de IA para resolver problemas ajenos a la IA. Esto parece ser adecuado
para aquellos problemas que tengan muchas de las características de los problemas de la IA.
Encontramos tres importantes técnicas:
Búsqueda : Proporciona una forma de resolver los problemas en los que no se dispone de un método más
directo tan bueno como la estructura en la que empotrar algunas técnicas directas existentes.
Uso del conocimiento: Proporciona una forma de resolver problemas complejos explotando las estructuras de
los objetos involucrados.
Abstracción : Proporciona una forma de separar aspectos y variaciones importantes de aquellos otros sin
importancia y que en caso contrario podrían colapsar un proceso.
Para solucionar problemas complicados los programas que utilizan estas técnicas presentan numerosas
4
ventajas frente a los que no lo hacen. Lo primeros son mucho más frágiles; no se despistarán totalmente
debido a una pequeña perturbación en la entrada. El conocimiento del programa es comprendido fácilmente
por la gente. Y estas técnicas pueden trabajar con facilidad en grandes problemas en donde los métodos
directos fallan.
LOS PROLEMAS DE LA INTELIGENCIA ARTIFICIAL:
¿Cuales son entonces los problemas de los que se ocupa la IA? La mayoría de los primeros trabajos en este
campo hicieron gran hincapié en las tareas formales, como juegos y demostración de teoremas. La lógica
teórica fue el primer intento de demostrar los teoremas matemáticos. Los juegos y la demostración de
teoremas comparten la propiedad de que son tareas en las que se considera que es necesaria la inteligencia
para desarrollarlas. A pesar de esto, parecía que al menos en principio, las computadoras podían realizar estas
tareas simplemente haciendo una rápida exploración de todos los posibles caminos que pueden llevar a la
solución y entonces seleccionar el mejor. Se pensó en que este proceso necesitaba muy poco conocimiento y
que, por consiguiente, podría ser fácilmente programado. Esta suposición se demostró como falsa, desde el
momento en que no existen computadoras lo suficientemente rápidas para procesar la explosión combinatoria
generada en la mayoría de los problemas.
Otra primera incursión dentro de la IA se centró en la clase de problemas que aparecen a diario − como
cuando decidimos cómo llegar al trabajo por la mañana − con frecuencia denominados de sentido común.
Estos problemas incluyen el razonamiento sobre objetos físicos y sus relaciones (por ejemplo, un objeto sólo
puede estar en un lugar a la vez), como también razonamiento sobre acciones y sus consecuencias por
ejemplo, si se deja caer algo, chocará contra el suelo y posiblemente romperá). Para estudiar este tipo de
razonamientos, el Resolutor General de Problemas (GPS General Problems Solver), el cual se aplicó tanto a
variadas tareas de sentido común como al problema de realizar manipulaciones simbólicas en expresiones
lógicas. De nuevo, no se pudo crear un programa con la cantidad suficiente de conocimiento sobre dominio
específico del problema: sólo podían resolverse algunas tareas muy simples.
Conforme las investigaciones en IA progresaron y fueron desarrollándose técnicas de manipulación de
grandes cantidades de conocimiento sobre el mundo, se realizaron algunos avances en las tareas descritas y
aparecieron nuevas áreas de investigación. Estas áreas incluyen percepción (visión y habla), comprensión del
lenguaje natural, y resolución de problemas en campos especializados como diagnósticos médicos y análisis
químico.
La percepción del mundo que nos rodea es un elemento crucial para nuestra supervivencia. Los animales, con
mucha menos inteligencia que nosotros, han desarrollado una capacidad de percepción visual más
evolucionada que la que pueden ofrecer las máquinas actuales. Las tareas de percepción son difíciles ya que
incluyen señales analógicas (previas a las digitales); estas señales suelen contener bastante ruido aunque
normalmente se percibe a la vez una gran cantidad de objetos (algunos de los cuales pueden estar
parcialmente tapados por otros).
La habilidad de utilizar el lenguaje para comunicar gran variedad de ideas es quizá el aspecto más importante
que separa a los humanos del resto de los animales. La comprensión del lenguaje hablado es un problema de
percepción difícil de resolver. Es posible, sin embargo, restringir el problema al lenguaje escrito. Este
problema normalmente denominado comprensión del lenguaje natural, es aún extremadamente difícil. Para
poder comprender frases sobre un cierto tema, es necesario no sólo poseer un conocimiento amplio sobre el
propio lenguaje (vocabulario y gramática), sino también manejar el suficiente conocimiento sobre dicho tema
para reconocer las suposiciones no expresadas en el texto.
Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las
cuales es necesaria una cuidada adquisición de experiencia. Ejemplos de los anteriores son tareas como el
diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera.
5
Los programas que pueden resolver problemas sobre estos dominios también están bajo la tutela de la
inteligencia artificial.
Las personas que saben cómo llevar a cabo las diversas tareas expuestas en la figura las han aprendido en un
orden definido. Primero se aprenden las habilidades de percepción lingüística y de sentido común. Más tarde
(por supuesto, en algunos casos, nunca) se aprenden disciplinas tales como la ingeniería, la medicina o las
finanzas. Esto puede hacer pensar que las primeras habilidades son más fáciles y, por lo tanto, más fáciles de
llevar a las computadoras que las tareas más especializadas. Por esta razón, gran parte del trabajo inicial en IA
trataba de concentrarse en estas primeras áreas. Sin embargo, esta ingenua suposición no es correcta. Si bien
las habilidades de un experto necesitan un conocimiento que la mayoría no poseemos, con frecuencia es
mucho menor que el conocimiento necesario en las tareas más comunes, y con frecuencia es mucho menor
que el conocimiento necesario en las tareas más comunes, y con frecuencia más fácil de representar y tratar en
los programas.
Como consecuencia, las áreas donde la IA está prosperando como una disciplina práctica (en oposición a una
puramente de investigación) es precisamente en los dominios donde es necesario únicamente un conocimiento
experto sin la ayuda del sentido común. Existen en la actualidad miles de programas llamados sistemas
expertos utilizados diariamente en cualquier área de la industria y la administración. Cada uno de estos
sistemas intenta resolver parte, o quizás todos, los problemas de cierta entidad que antes necesitaban gran
cantidad de conocimiento técnico humano.
IA PARALELA Y DISTRIBUIDA:
En los últimos años se han producido avances muy significativos en la computación paralela y en los sistemas
distribuidos. Existen principalmente tres áreas en las que, las arquitecturas paralelas y distribuidas, pueden
contribuir al estudio de sistemas inteligentes:
• Modelado psicológico.
• Mejora de la eficiencia.
• Ayuda para la organización de los sistemas de una forma modular.
Estas áreas de aplicación son, a menudo, complementarias. Los conceptos de memoria a corto y largo plazo,
el emparejamiento, las producciones independientemente operativas, y otros más, surgieron originalmente
dentro de la literatura psicológica. Cuando los investigadores comenzaron a construir sistemas de IA basados
en estos principios, llegaron a la conclusión de que las computadoras paralelas podían utilizarse para aumentar
sensiblemente la velocidad a la que podrían trabajar dichos sistemas. De cualquier modo, aun en sistemas con
un solo procesador, resultó que la arquitectura de los sistemas de producción presentaba muchas ventajas
sobre la programación convencional. Un primer beneficio es una mejor modularidad. Cuando las reglas
operan de manera más o menos independiente, resulta fácil añadirlas, borrarlas o modificarlas sin necesidad
de modificar la estructura del programa completo.
EL PARALELISMO EN LOS SISTEMAS DE RAZONAMIENTO
Los programas de IA, consumen grandes cantidades de tiempo y espacio. Por consiguiente, es importante que
los algoritmos de IA hagan uso de las ventajas del cálculo paralelo.
Paralelización de arquitectura de IA.
Los sistemas de producción poseen tanto aspectos secuenciales como paralelos. Con lo que plantea la
siguiente cuestión, ¿Qué incremento de velocidad se puede esperar mediante un procesamiento paralelo?
Existen distintas fuentes de incremento de velocidad paralelo en sistemas de producción:
6
Paralelismo en el ámbito de emparejamiento, en el cual se utilizan múltiples procesadores para aumentar el
manejo de los ciclos individuales de resolución de emparejamientos:
Paralelismo en el ámbito de producción, en el cual todas las producciones se emparejan consigo mismas con
la memoria de trabajo en paralelo.
Paralelismo en el ámbito de condición, en el cual todas las condiciones de una única producción, se empareja
en paralelo.
Paralelismo en el ámbito de acción, en el cual todas las acciones de una única producción se ejecutan en
paralelo.
Paralelismo en el ámbito de tarea, en el cual algunos ciclos se ejecutan simultáneamente.
La cantidad disponible de paralelismo en el ámbito de tarea depende directamente de la naturaleza de la tarea.
En un sistema para realizar diagnósticos médicos, por ejemplo, el disparo de cada producción puede depender
del disparo de otra producción previa que permita que se dé una secuencia más larga de razonamientos en
cadena. De cualquier modo, si el sistema estuviera diagnosticado a cinco pacientes no deberían interaccionar
unas con las otras y deberían ser ejecutadas en paralelo.
El paralelismo en el ámbito de emparejamiento se puede aplicar con más profundidad. Como los sistemas de
producción gestan casi todo su tiempo en la fase de emparejamiento, se supuso desde un principio que en esta
fase de emparejamiento, el paralelismo sería responsable de que se alcanzaran amplios incrementos de la
velocidad. En un sistema de mil producciones, por ejemplo, se podría asignar un procesador a cada una de las
producciones, posibilitando así, el aumento de la velocidad de cada ciclo de emparejamiento en un factor de
mil. Sin embargo, el disponer de n procesadores no implica un aumento de (n) veces en la velocidad. Algunas
de las razones por las que produce este efecto son:
Sólo unas pocas producciones se ven afectadas por un cambio de la memoria de trabajo. A través de sistemas
de contabilidad que almacena información de los estados, las implementaciones secuenciales como RETE
(Forgy, 1982) pueden evitar tener que procesar un gran número de producciones. Las ejecuciones paralelas
deben ser juzgadas en función del incremento de velocidad que puedan ofrecer con respecto a los algoritmos
secuenciales eficientes, no con respecto a los que no son.
Algunas producciones son realmente difíciles de emparejar, mientras que otras lo hacen con más facilidad.
Esto quiere decir que muchos procesadores se pueden situar a la espera de que otros terminen. Cuando los
procesadores se encuentran en situación de espera, la velocidad disponible del proceso paralelo, disminuye.
El gasto que implica la comunicación entre procesadores múltiples puede reducir más adelante los beneficios
del paralelismo.
Otros tipos de arquitecturas se comportan de modo diferente con respecto a las implementaciones paralelas.
Las arquitecturas imitadoras del cerebro que se acaban de mencionar son, naturalmente, paralelas; de hecho,
su simulación en máquinas secuenciales es prohibitiva debido al alto nivel de paralelismo que suponen.
Paralelización de los lenguajes de programación de la IA.
Escribir programas paralelos es una tarea difícil para el hombre, por tanto se abriga la esperanza de que las
implementaciones paralelas de estos lenguajes (quizá apoyados por construcciones de programación
paralelas), den lugar a incrementos de la velocidad que sean más prácticos.
Las investigaciones en el campo de los lenguajes de programación paralelos, fueron uno de los principales
7
objetivos en el proyecto de Quinta Generación japonés (ICOT, 1984). Algunos lenguajes como el PROLOG
sugirieron inmediatamente dos tipos de paralelismo. En el paralelismo−O, se toman en paralelo múltiples
caminos dirigidos a alcanzar un mismo objetivo.
En el paralelismo−Y, se desarrollan en paralelo las partes de un objetivo conjunción de todas ellas.
El paralelismo−Y no es tan directo cuando las variables se comparten entre varios objetivos.
Las investigaciones en programación lógica paralela comparten el mismo objetivo que los sistemas de
producción paralela: permitir una ejecución eficaz de alto nivel, con un código escrito de forma sencilla para
sistemas de IA.
Paralelización de algoritmos de IA.
Las soluciones paralelas son más recomendables para unos problemas que para otros. Mientras que nueve
escritores son capaces de escribir un libro mucho más rápido que uno solo (siempre que cada uno escriba
capítulos diferentes), nueve mujeres no pueden dar a luz un bebe más rápido de los que lo haría una sola. Del
mismo modo, la utilización de más procesadores en un problema de IA, puede no provocar los resultados
deseados. Un ejemplo de un problema secuencial en IA es la unificación. En tanto que la incorporación de
múltiples procesadores, pueden ayudar, argumentos formales nos muestran que no es posible conseguir
grandes incrementos en la velocidad de unificación de grandes cantidades.
Muchos problemas se pueden resolver eficazmente por medio de métodos paralelos, pero no siempre resulta
sencillo la conversión de un algoritmo secuencial a otro paralelo que sea eficaz.
Robots y autómatas varios, han existido desde hace mucho, pero parece ser que la robótica aplicada a
micromundos se hizo patente en el proyecto que llevaba por nombre Shakey, o lo que es lo mismo: un robot
con ruedas. En cuanto la existencia de este proyecto llegó a oídos del Departamento de Defensa de los Estados
Unidos, este, se sintió interesado en su desarrollo, para, claro está, fines militares. La agencia norteamericana
de investigación militar ARPA (Avanced Research Proyects Agency), que más tarde pasó a llamarse DARPA
(Defense Avanced Reseach Proyect Agency), subvencionó este proyecto, esperando, como no, convertir al
robot Shakey en un espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir información.
Pero la apariencia del robot no parecía capaz ni de cruzar la esquina: una caja cuadrada, con una cámara de
televisión (de las del 69), un telémetro y una antena de radio, parecía cualquier cosa menos un espía, claro que
a veces es eso lo que se busca ¿no?. De todas formas el proyecto siguió adelante, aunque el robot hiciera gala
de su nombre: Shakey [Temblón].
El mundo de Shakey era un Micromundo de Bloques de tamaño natural, compuesto de siete habitaciones
conectadas entre sí por ocho puertas, habiendo en las habitaciones cubos que Shakey podía manipular,
apilando y transportándolos de un lado a otro. Todo ello siguiendo las instrucciones (en inglés) que le
transmitían mediante un teclado.
SHAKEY formaba parte del proyecto Micromundos de bloques diseñado por Marvin Minsky, fundador y por
aquel entonces director científico del laboratorio de I.A. del MIT. Este proyecto estaba compuesto de varios
experimentos basados en micromundos, virtuales, lingüísticos y reales para poder realizar algún avance
significativo en las áreas asociadas (robótica, visión artificial, aprendizaje artificial). Pero aunque los
proyectos parecían "prometer", pasó el tiempo, y dado que ni el ARPA ni ninguno de los otros patrocinadores
veían sacar nada en claro en todo esto, y dado que como no se habían conseguido apenas logros significativos
en las materias tratadas, y no sería imposible cambiar el prefijo "micro" por ningún otro más extenso, se opto
por cortar la subvenciones, acabando con el proyecto de Minsky
La verdad es que un micromundo real, no tiene demasiado misterio como tal, y es más, se podría parecer en
8
todo a uno virtual, salvo en la utilización de robótica y datos que representan la realidad. Pero claro, de todo
sistema o forma de experimentación surgen innovaciones inherentes a estos, y estas se hicieron esperar hasta
que Rodney Brooks, investigador del MIT desarrolló una nueva concepción de inteligencia artificial, la cual
choca de cara y sin casco con la concepción de I.A. clásica. Mientras que la I.A. clásica (no por ello obsoleta)
mantiene que el razonamiento, el aprendizaje y el conocimiento simbólico son los pilares básicos de la I.A.,
las teorías de Brooks, que han desembocado en llamarse Arquitecturas de Subsucción, tienen su punto fuerte
en evitar a toda costa cualquier indicio de racionalidad como tal, y creando robots que actúan enteramente por
reflejos. Pero no por esa condición es un sistema sencillo y por eso despreciable, no, nada más alejado de la
realidad: la arquitectura de subducción es también muy compleja, y es, de hecho, capaz de realizar actividades
realmente sorprendentes, y sobretodo para los partidarios de la I.A. Uno de los robots diseñados por el equipo
de Brooks recorrió una de las salas del MIT "recogiendo" latas de refresco, aún sin saber que era lo que hacia,
hacia donde se dirigía especialmente, y para que valía su trabajo. Simplemente, su módulo de "aproximación"
acercaba la pinza del robot a todo lo que tuviera forma de lata, y cerrándose esta ante todo lo que aparecía
entre sus garras.
Porque aquí, en este punto empezaríamos a cuestionarnos el significado y el objetivo de la inteligencia
artificial como tal. Porque sí, es la técnica que construye "cerebros artificiales", pero... ¿a que animal
pertenecerían esos cerebros?. Claro, se suele suponer que sería un cerebro, imitación del humano. Pero, ¿qué
es lo que tiene sentido y que es lo descabellado en I.A.?. Hay un capitulo de Expediente−X, el cual me
sorprendió gratamente, pues parece copiar al pie de la letra la idea y proyectos de Brooks. En este, el supuesto
Dr. Ivanov dice al agente Fox Mulder: "...anteriormente se ha tratado de crear máquinas capaces de pensar
como un humano, pero este es demasiado maquinador, demasiado complejo, por ello es mucho mejor diseñar
máquinas que, reaccionando por impulsos permitan conseguir otro tipo de inteligencia artificial más
disponible a nuestra mano..." (bueno, no es exactamente esta frase la que dijo en su día, pero la esencia es
esta). ¿Hasta ahí deacuerdo no?... pues yo no. Esto, y dicho de esta forma, parece una rendición de la I.A., la
cual sería también la posible desencadenante de un cambio radical de nombre de la ciencia, la cual podría
llamase Comportamientos Artificiales: C.A. En efecto, defiendo una Inteligencia Artificial Clásica, desde el
punto de vista de que, hoy debemos preocuparnos por descubrir y entender el principio y lo más básico de la
inteligencia (como todos los temas y ramas multidisciplinares que este concepto abarca) para poder, en un
futuro (sea cuando fuere) entender y sacar conclusiones y aplicaciones más completas a este gran misterio, del
cual parece ser que nuestra vida es inherente: ¿INTELIGENCIA?. La arquitectura de subsucción, es, y
aunque parezca lo contrario a raíz de mis afirmaciones, un gran avance, pues nos muestra un camino que
puede seguirse, para encontrar otro, es decir: podemos basar proyectos y partes de estos en esa arquitectura,
aprovechando una muy buena idea, pero, no creo que tengamos que aferrarnos a ella, olvidando todo lo que
aún permanece oculto al otro lado. La investigación de I.A. está en un momento de análisis y descubrimiento,
pero aún no hemos llegado a la zona en la que es realmente útil una conclusión que implique una aplicación
definitiva o cercana al resultado final.
La inteligencia, como tal, también se podría definir como capacidad que tenemos los humanos para, utilizando
nuestros conocimientos, salir airosos de los problemas de cada día. Pero, un ordenador no adquiere los
conocimientos necesarios como nosotros, y no solo eso, sino que nunca los podrá adquirir por su condición de
no−humano. Nunca, o por lo menos, no a corto−medio plazo, podremos ver que un ordenador, como robot, es
tratado como un igual por una persona, cuando, por ejemplo va a comprar una barra de pan a la panadería
(suponiendo que fuera capaz de tal hazaña). Porque su perspectiva, a la hora de analizar el mundo y en
definitiva: la sociedad, para poder aprender (si el sistema está basado en el aprendizaje) y así ampliar el marco
de conocimientos, no es demasiado optimista. Al igual que el mundo no es el mismo para un invidente de
nacimiento que para un vidente, dado que su concepción de este es diferente en varios puntos (nunca un
camión será lo mismo psicológica y perceptivamente, para uno que para otro), esta circunstancia llevada al
extremo con un robot sería totalmente desencadenante de una visión totalmente "distorsionada" de la realidad,
si nosotros, claro está, poseemos la enfocada correctamente. También aquí llevaríamos a un curioso problema
¿quién está loco, el sistema cuando falla sus afirmaciones, o nosotros por considerarlas fallidas?: claro, ahora
la balanza de la cordura nos apunta victoriosos, porque las cuestiones que se le pueden hacer a un sistema de
9
I.A. no tienen nada que ver con este tipo de argumentaciones, pero, un sistema basado en el aprendizaje debe,
por tanto, adoptar tarde o temprano una idea global de mundo, y en ella, tal vez, exista una gran distorsión de
la realidad por su distinto campo de visión de los conceptos que nos ocupan en ese estudio. Pero es muy
sencillo, y utilizando un ejemplo, el cual siempre expongo por ser de cosecha propia: ¿pero que hace un
ordenador por las mañanas intentándose poner unos calcetines?... ¿para que va ha poseer piernas? ¿por qué
precisará calcetines? y si no precisa calcetines... puede que la gran mayoría de lo que contenga nuestra
sociedad le sea innecesario, como, por ejemplo: las sillas, las mesas, los cuadros, la comida... y claro,
desencadenando en otro mundo, porque, al fin y al cabo, nuestro entorno seria otro mundo para un puma, ¿y
no consiste en eso la arquitectura de subsucción?... en hacer que lo innecesario del mundo, es decir, razonar
sobre nuestros conceptos, sea suplido. Podría parecer que me estoy contradiciendo, o que me acabo de liar y
escribir lo contrario de lo que he planteado antes, pero no: si un sistema es inteligente como se desea construir
desde la I.A. clásica (aunque hoy por hoy, ese sistema no exista más que en teorías), este puede tener muy
aguda la facultad de adaptación de su pensamiento a las necesidades de la mayoría en la que está inmerso, es
decir: llevando al máximo nuestra forma de ver que una ballena sin agua se ahoga. Es decir, el sistema debe
aprender que las personas necesitan ponerse calcetines, porque tienen pies, y estos se enfrían... Este hecho, el
de "ponerse en nuestro lugar" para entender el mundo, no es algo solo innato en lo que defino el sistema
perfecto, porque, como he argumentado, nosotros también razonamos este hecho respecto a los demás
animales, pero al masificar este acto ¿llevaríamos al sistema a una mutación cognitiva de lo que
pretendemos?... si lo que pretendemos es crear inteligencia artificial lo más parecida a la humana... sí, en
efecto, pero este hecho sería tan necesario como el concederle el conocimiento (o la facultad de adquirirle) de
que el no es una persona, sino que se trata de un sistema inteligente.
Sería, y acotando como conclusión, como el ciego que sabe que el no puede ver, pero que los demás sí: un
simple acto a adaptación, siendo una relativa minoría en el entorno. También, el invidente, sabe que las cosas
tienen facultades físicas que pueden repercutir sobre el, pero el conocimiento sobre estos hechos que ha
adquirido roza un nivel de abstracción, no mejor, sino diferente, al que por el aprendizaje totalmente distinto a
percibido alguien con la facultad visual optima.
Conclusión:
Este consistió en la década de los 50 en que Mysil y otros colaboradores que desarrollaron el mundo de la
robótica, así creando varios tipos de ramas que duraron casi 70 años en los cuales se destacaron diferentes tipo
de programas como el GPS que fue desarrollándose desde un juego hasta un programa muy importante en su
época.
La IA una importante empresa del desarrollo en la computación ya de los años de la invención de la
inteligencia artificial fueron unos de los fundadores de ésta. Lograron muchos teoremas sobre lo cual podemos
admirar el paralelismo−o, desarrolló también se puede ver el la invención del robot con ruedas o shaky que
fue admirados por los militares de estados unidos, que mas tardes serian una gran motivación por los
programadores de computación.
10
Descargar