Historia de la IA

Anuncio
Aprender Gratis no es el autor de este documento. Aprender Gratis
simplemente se encarga de buscar manuales, cursos y tutoriales en Internet,
categorizarlos y ponerlos a disposición de la comunidad a través de la web,
hospedándolos en nuestros servidores. Se ha incluido esta portada para evitar el “leeching” desde otras Webs, dejando bien claro quienes se encargan
del coste del hospedaje de este documento.
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
INDICE
1. Introducción ...............................................
2
2. Prehistoria de la IA......................................
3
2.1. Construcción de autómatas...........................
3
2.2. Automatización del razonamiento.................
6
2.3. Cibernética....................................................
7
3. El nacimiento de la IA.................................
8
4. Periodo 1956 - 1969.................................... 10
5. Periodo 1970 - 1979.................................... 20
6. Alos 80 y principios de los 90...................... 23
7. Áreas de Aplicación de la IA........................ 25
8. Estado del arte............................................ 25
9. Conclusiones............................................... 28
10. Bibliografía................................................. 29
1
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
1. INTRODUCCIÓN
Según dice Pamela McCorduck, probablemente la primera historiadora de la
inteligencia artificial :
“nuestra historia está llena de intentos –estúpidos, fastidiosos, cómicos,
honestos, legendarios y reales – para obtener inteligencias artificiales,
para reproducir aquello que nosotros somos en esencia”
[MacCorduck, 1979:3]
Muchos de estos intentos pertenecen más bien a los precedentes de la ciencia
ficción que no a una disciplina científica y tecnológica como la inteligencia artificial.
Hasta en textos de voluntad no especulativa se habla de “precedentes” como los
autómatas mecánicos, los robots de Karel Capec y de otros.
Gran parte de la labor realizada en Informática ha sido pragmática, basada
en el deseo de producir programas que realicen tareas útiles. Así se ha ido
desarrollando una nueva forma de considerar la inteligencia y el conocimiento, de
preguntarse sobre su naturaleza, su adquisición, almacenamiento, modificación y,
especialmente, su utilización. Podríamos decir, pues, resumiendo, que la IA se
ocupa tanto de la comprensión de los principios como de la producción de modelos
informáticos del comportamiento inteligente.
Las posibilidades desde luego son asombrosas, pero no hay que dejar volar
la imaginación más de lo necesario. Las "máquinas pensantes" puede que lleguen a
existir alguna vez, pero no están a la vuelta de la esquina. La Inteligencia Artificial
es una ciencia nueva que debe andar mucho camino todavía. De lo que podemos
estar seguros es de que los primeros pasos están siendo prometedores.
2
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
2. PREHISTORIA DE LA INTELIGENCIA ARTIFICIAL
La prehistoria de la inteligencia artificial abarca desde los primeros tiempos de
nuestra civilización hasta mediados del siglo XX. En este período se producen
hechos que podemos agrupar en dos líneas:
-
una de ellas directamente relacionada con la construcción de autómatas
que simulaban desde el punto de vista externo el comportamiento
humano o animal, y que solían funcionar en ayuda de su amo
-
la
otra
línea,
referente
a
la
información
y
automatización
del
razonamiento lógico y matemático.
2.1 Construcción de autómatas
Es muy cierto que muchas veces la inteligencia se ha asociado a los aparatos
mecánicos complejos, como es el caso de los autómatas. Y evidentemente, mucho
antes de que surgieran la inteligencia artificial como una disciplina autónoma, hubo
una gran cantidad de consideraciones casi filosóficas sobre la posibilidad de
reproducir el ser humano mediante máquinas.
El nacimiento de la Inteligencia Artificial, y el concepto de máquinas
inteligentes, debe ser buscado en la mitología griega. Los artefactos inteligentes
aparecen en la literatura desde entonces.
La primera mención de los autómatas aparece en la Ilíada escrita en el siglo
VIII a.C (canto XVIII), donde leemos que Vulcano fabricaba "veinte trípodes que
debían permanecer arrimados a la pared del bien construido palacio y tenían ruedas
de oro en los pies para que de propio impulso pudieran entrar donde los dioses se
congregaban y volver a la casa" (V.368-384) y que era ayudado en su cojera por
"dos estatuas de oro semejantes a vivientes jóvenes, pues tenían inteligencia, voz
y fuerza" (V. 410-4234).
Por su parte, la tradición judía creó el mito del "golem"
(1580), figura humanoide hecha de arcilla a la que un rabino
podía dar vida propia, convirtiéndola en un perfecto criado
(que, en leyendas posteriores, llega a escapar del control de su
amo). Hay que decir, sin embargo, que se requería la
intervención
divina
para
conseguir
estos
espectaculares
resultados.
Golem
3
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
Al llegar el racionalista siglo XVIII, las cosas
fueron
diferentes.
Descartes
(1596-1650)
había
defendido la tesis del "animal-máquina": los seres vivos,
salvo el hombre, son meros mecanismos. La Mettrie, en
1747, va más allá con su escandaloso "L' homme
machine": también el hombre y su comportamiento
inteligente son explicables en términos exclusivamente
Descartes
Ciertamente
mecánicos.
existían
admirables
mecanismos, por ejemplo, los de: el flautista (1737)
que movía realmente los dedos para producir una
melodía, o el pato (1738) capaz de nadar, batir
alas, comer y expulsar excrementos simulados. No
por casualidad Vaucanson fue, antes de Jacquard, el
inventor del telar automático de tarjetas perforadas.
PATO de Vaucanson
(1738)
El español Torres Quevedo construyó dos versiones de lo que, sin duda,
constituye su más llamativo invento: el jugador ajedrecista. Se trata de un
autómata jugador de final de partidas de ajedrez: juega el rey y torre blancos
(máquina) contra el rey negro (jugador humano). El resultado (victoria de las
blancas) del juego está determinado algorítmicamente. Para simplificar el diseño, el
autómata lograba siempre el jaque mate, si bien no por el camino más corto. El
primer jugador fue construido en 1912 y expuesto en París en 1914, ocasionando
gran sensación. Disponía de un brazo mecánico para mover las piezas, y de
sensores eléctricos en el tablero para conocer su ubicación. El segundo jugador, de
1920, fue construido por su hijo Gonzalo, y en él el movimiento de las piezas se
consigue mediante imanes dispuestos bajo el tablero. Ambos ingenios eran de
naturaleza electromecánica, y se citan como precursores de la Inteligencia Artificial.
Ciertamente, constituyeron el primer intento exitoso de construir un autómata que
jugase realmente a un juego humano, lo que se venía intentando desde el siglo
XVIII.
4
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
El segundo jugador de ajedrez
En 1929 se presentaba en Francia el "Philidog", que seguía el rayo luminoso
de una linterna y ladraba si la intensidad luminosa era excesiva.
El escritor Karel Kapek difunde en los años 20 una palabra destinada a tener
un gran éxito: "robot". En su obra “R.U.R."(Rossum's Universal Robots) aparecen
unos seres creados para realizar las tareas que el hombre no quiere hacer, que
acaban siendo más poderosos que el mismo hombre, llegando a poner en peligro su
existencia. Sin embargo, hasta la llegada de los ordenadores electrónicos no
dispusieron los científicos y técnicos de una herramienta que permitiera la ejecución
de tareas más complejas por parte de dispositivos mecánicos, que hiciera posible,
por así decir, la construcción de robots.
5
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
2.2 Automatización del razonamiento
La segunda de las líneas es la automatización del razonamiento, y por tanto,
la obtención de una formalización.
Encontramos en primer lugar a Ramon Llull y su "Ars Magna", donde
describe una gramática universal para cristianos, musulmanes y hebreos, es decir,
“un método científico” de discusión. Esta ciencia universal consiste en que los
místicos de las tres religiones del libro aceptan que Dios tiene unos atributos, que
hay un cierto número de "nombres de Dios", Llull los describió y creó unas tablas
que permitían que cada término pudiese combinarse con los demás, puesto que
todos eran equivalentes y creó una gramática universal con una lógica binaria,
combinatoria.
También encontramos a Leibniz que buscó un álgebra universal que
permitiera deducir todas las verdades, y así "si surgieran controversias no habría
necesidad de mayor disputa entre dos filósofos que entre dos contables, pues
bastaría que, tomando en sus manos el lápiz, se sentaran frente a sus pizarras y se
dijeran (con un amigo como testigo): calculemos", como antecesores de los
sistemas formales y de la lógica que tan buen papel juegan en la moderna
inteligencia artificial.
Los estudios matemáticos
de Rusell y Hilbert de comienzos de siglo
permitieron por primer a vez reducir el razonamiento (o un tipos de razonamiento)
a la manipulación abstracta de cadenas de símbolos, idea de gran fecundidad en los
mecanismos de la inferencia simbólica de la inteligencia artificial y también en los
sistemas de representación del conocimiento.
Las teorías de la computabilidad y de los autómatas proporcionan el vínculo
entre la formalización del razonamiento y las máquinas que estaban a punto de
surgir tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la
aparición de las primeras máquinas electrónicas de cómputo fuera seguida
inmediatamente por los intentos de aplicarlas a lo que hoy llamamos IA.
6
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
2.3 CIBERNÉRTICA
Un último elemento importante que citaremos en la prehistoria de la IA, es
la cibernética. En los primeros años de la informática era habitual hablar de
“cerebros electrónicos” y, de hecho, este era uno de los objetivos lejanos que
resultaban más del gusto de los pioneros como Von Neumann.
Más solidez han tenido las ideas que provenían
de
la
cibernética.
La
nueva
visión,
fruto
de
la
inspiración de Norbert Wiener, quedó publicada a partir
de 1948 en su famoso libro “Cibernetics” y, más
adelante, el mismo Wiener analizó las relaciones de la
cibernética con la sociedad.
Cibernética es un término que ya había sido
utilizado en el año 1834 por el francés Ampère, pero
fue redefinido por Wiener como “el campo de la teoría del control
y la
comunicación, tanto en las máquinas como en los animales”. En paralelo a la
construcción de los primeros ordenadores electrónicos, la cibernética introdrujo
nuevos conceptos como los de la retro-alimentación (feedback), el control y los
sistemas auto-organizados.
La
cibernética
influyó
en
muchos
campos
debido
a
su
naturaleza
fundamentalmente interdisciplinar, ligando entre sí la fisiología neuronal, la teoría
de la información de Shannon, la lógica matemática y la naciente tecnología
informática. De esta forma, las ideas de los creadores de la cibernética llegaron a
ser parte del espíritu del tiempo, e influyeron fuertemente en los primeros
investigadores de la IA.
7
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
3. EL NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL
Ambiciosos y optimistas se mostraban los pioneros de la IA durante los
primeros años de la era informática. Pero el fracaso de la mayoría de sus proyectos
mostró que los problemas que intentaban resolver eran demasiados complicados,
tanto teórica como tecnológicamente.
En Julio de 1945 Vannevar Bush publicó “As We May Think” una visión del
futuro en donde los ordenadores asistían a los humanos en muchas actividades.
En 1950 Alan Turing presentó un artículo sobre el tema de la IA, titulado
“Inteligencia y Funcionamiento de Máquinas”. En este trabajo propone un "Test de
Turing" para determinar el carácter inteligente o no de una máquina. El test parte
del juego donde un interrogador tiene que descubrir el sexo de dos participantes A
y B situados en otra habitación, cuando, aunque los dos dicen ser mujeres, en
verdad son un hombre y una mujer. En la propuesta original de Turing, se trataba
de sustituir a la mujer por un ordenador, y que el interrogador descubriera quien
era la máquina de los dos participantes, aunque los dos decían ser personas. Este
objetivo había que cumplirlo incluso sabiendo que los participantes no estaban
obligados a decir la verdad y que, por ejemplo, la máquina podía decidir dar un
resultado erróneo en una multiplicación o decir el resultado lo suficientemente más
tarde después de haberlo obtenido, para engañar al interlocutor sobre su propia
habilidad calculista. En la hipótesis optimista del mismo Turing, más o menos
alrededor del año 2000 se podría disponer de ordenadores suficientemente
potentes para conseguir que un interrogador normal no tuviera más del 70% de
posibilidades de realizar la identificación correcta a los cinco minutos del comienzo
de las preguntas. Hay que decir que la predicción de Turing parece, ahora mismo,
muy optimista.
Posteriormente,
en
1955
fue
creado
un
lenguaje
de
procesamiento
(búsqueda heurística) por Allen Newell, J. C. Shaw y Herbert Simon que fue
considerado como el primer lenguaje especializado de la Inteligencia Artificial, era
el IPL-II (Information Proccessing Language-II).
En el verano del 1956 tuvo lugar la “Conferencia del Dalmouth” a Hanover
(New Hampshire) sobre IA, organizada por John McCarthy (Stanford), Marvin
Minsky (MIT), Allen Newel y Herbert Simon, con el patrocinio de la fundación
Rockefeller, reunió a todos los que trabajaban en el recién estrenado campo de la
Inteligencia Artificial. A la Dartmouth Conference, Newell y Simon ya disponían de
8
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
un programa pro-IA, el “Logic Theorist” que reolvía problemas de búsqueda
heurística, junto con los principios matemáticos de Whitehead y Rusell. Gracias a
esta conferencia se crearon diferentes grupos de estudio de especialidades en
diversas universidades como el Instituto Tecnológico de Masachussets, MIT
(Minsky), Stanford (McCarthy) y Carnegie-Mellon (Newell y Simon).
Destaquemos también que a mediados de los años 50 John McCarthy y
posteriormente el MIT, diseñaron el lenguaje LISP (List Processing).
De todas formas, la Conferencia del Dalmouth acuñaba la expresión
"Inteligencia Artificial" y predecía que al cabo de 25 años los ordenadores harían
todo el trabajo de los seres humanos, y en 1958 Newell y Simon aseguraban que
en 1968 un ordenador sería campeón mundial de ajedrez y habría demostrado
algún teorema importante de las matemáticas.
9
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
4. PERIODO 1956 - 1969
En este periodo la Inteligencia Artificial es una actividad académica poco
conocida fuera de los círculos especializados. Durante estos años la Inteligencia
Artificial se caracteriza por una ambición exagerada en los objetivos que se
pretenden lograr, agravándose este hecho por las limitaciones reales del hardware
y del software de la época. Esto abocaría en una gran decepción al final de este
periodo, debido a la dificultad de obtener resultados y a la constatación teórica de
la imposibilidad de obtenerlos en ciertos casos. Aun así en esta época se realizaron
con éxito varios proyectos menos ambiciosos que supusieron un avance en el
campo de la Inteligencia Artificial(LISP, SAINT, juego de damas, ELIZA, Student,
etc.).
Los proyectos mas ambiciosos de esta época fueron el intento del General
Problem Solver(GPS), el Perceptron, la Traducción Automática y la resolución
generalizada de problemas matemáticos.
Logic Theorist. 1956. El Logic Teorist fue programado por Alan Newell, Herbert
Simon y J.C. Shaw y buscaba las demostraciones de Teoremas Lógicos. Un teorema
lógico tiene la siguiente forma: supuesto que o bien X o bien Y es verdadera, y
supuesto que Y es de hecho falsa, entonces X es verdadera. El Logic Theorist
encontró la demostración de 38 de los 52 teoremas presentes en el capitulo II de
los "Principia Mathematica" de Bertrand Russell y Alfred North Whitehead. Sirvió
como base para el GPS.
General Problem Solver(GPS). El Solucionador General de Problemas fue llevado
a cabo por Alan Newell, Herbert Simon y J.C. Shaw. La filosofía de GPS era que las
técnicas para solucionar un problema pueden separarse del conocimiento específico
sobre el problema. Se trata de un programa que solo resuelve problemas en un
microcosmos formalizado. El programa es capaz de resolver problemas como el de
las Torres de Hanoi. Exactamente del tipo puzzle en los que descrito el objetivo y la
posición final, y dado un listado de los medios disponibles, GPS puede realizar los
ensayos necesarios hasta encontrar la manera de usar los medios para alcanzar el
objetivo(análisis medios-fines). También utiliza la teoría de la retroalimentación de
Wiener.
Perceptrón. Proyecto iniciado en el 1958 por Frank Rosenblatt. Su intención era
ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general,
sin
entrar
en
mayores
detalles
con
respecto
a
condiciones
específicas
y
10
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
desconocidas para organismos biológicos concretos. Rosenblatt creía que la
conectividad existente en las redes biológicas tiene un elevado porcentaje de
aleatoriedad y que la herramienta de análisis más apropiada era la teoría de
probabilidades. El Perceptrón que desarrollo Rosenbatt imitaba el funcionamiento
del ojo humano, el fotoperceptrón como se le llamó era un dispositivo que
respondía a señales ópticas.
El Perceptrón era inicialmente un dispositivo de aprendizaje, en su
configuración inicial no estaba en capacidad de distinguir patrones de entrada muy
complejos, sin embargo mediante un proceso de aprendizaje era capaz de adquirir
esta capacidad.
Mediante estas investigaciones se pudo demostrar que el Perceptrón era
capaz de clasificar patrones correctamente, en lo que Rosenblatt denominaba un
entorno diferenciado, en el cual cada clase estaba formada por patrones similares.
El Perceptrón también era capaz de responder de manera congruente frente a
patrones aleatorios, pero su precisión iba disminuyendo a medida que aumentaba
el número de patrones que intentaba aprender.
En 1969 Marvin Minsky y Seymour Papert publicaron su libro: "Perceptrons:
An introduction to Computational Geometry"[], el cual para muchos significó el final
de las redes neuronales. En el se presentaba un análisis detallado del Perceptrón,
en términos de sus capacidades y limitaciones, en especial en cuanto a las
restricciones que existen para los problemas que una red tipo Perceptrón puede
resolver; la mayor desventaja de este tipo de redes es su incapacidad para
solucionar problemas que no sean linealmente separables.
A pesar de esta limitación, el Perceptrón es aún hoy una red de gran
importancia, pues con base en su estructura se han desarrollado otros modelos de
red neuronal como la red Adaline y las redes multicapa.
LISP(LISt Procesing). En 1958 John McCarthy anunció el desarrollo del lenguaje
de programación LISP (LISt Procesing), este fue considerado desde aquel momento
como lenguaje de programación de los investigadores de I.A. El LISP es un lenguaje
declarativo funcional.
SAINT(Symbolic Automatic INTegrator). Programa desarrollado por J. Slagle
en 1961. Con el que se inicia la automatización de la integración simbólica.
GTP(Geometry Theorem Prover) [Demostrador de Teoremas Geométricos].
Programa desarrollado por Herbert Gelernter y auspiciado por IBM para resolver
problemas de geometría elemental. Se inicio en el 1958. Gelernter trabajó durante
11
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
tres años, escribiendo y desarrollando las veinte mil introducciones que componían
el GPS, pero además tuvo que diseñar un nuevo lenguaje de programación. GPS
funcionaba de atrás hacia delante (backward), primero exponemos el teorema a
demostrar y el programa empieza a construir cadenas de resultados intermedios
que conducen al fin, a teoremas conocidos o a axiomas.
Programa para jugar a las damas. Programa creado por Arthur Samuel en 1962
y al igual que el proyecto GTP fue auspiciado por IBM. El programa era capaz de
aprender por si solo. Aprendía de la experiencia teniendo en cuenta sus errores y
éxitos pasados para determinar su juego en partidas posteriores. Alex Bernstein,
consiguió también un resultado similar para el ajedrez. Tras hacerse eco la prensa
de estos logros, se creo un escándalo entre los periodistas y accionistas de IBM en
general al considerar que se estaba gastando el dinero de investigación en unos
objetivos tan frívolos. Con lo que IBM no siguió aportando fondos para
investigaciones en el campo de la IA.
"Arthur Samuel (standing), IBM investigator of
machines that learn, watches a checker game
between a human player and an electronic
player- a large computer. The computer is about
to win this game and type out: "Sorry, you lose."
12
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
Fracaso de la Traducción Automática, La CIA y otros organismos militares, tras
ser conocedores de la utilización, por parte del ejercito británico, de ordenadores en
la Segunda Guerra Mundial para descifrar códigos secretos enemigos; pensaron que
la traducción automática no seria más difícil, así podrían leer casi en el acto
cualquier publicación del mundo, escrita en cualquier idioma. Después de gastar
veinte años de investigación y casi veinticinco millones de dólares en proyectos de
este tipo la NRC (Consejo Nacional de Investigación, de EE.UU.) puso fin a este tipo
de investigaciones en todo los Estados Unidos. Este hecho hizo que se paralizasen
todas las investigaciones con inversión pública respecto a I.A., el ALPAC
(Automated Language Processing Advisory Committee) [Comité de Seguimiento del
Procesamiento Automático del Lenguaje] arrolló a todos los laboratorios en los que
se realizaban proyectos sobre investigación lingüística, afortunadamente, los
centros de investigación más importantes (MIT, Carnegie Mellon y Stanford) se
salvaron por no tener entre manos ningún proyecto asociado a la rama de la
Traducción Automática.
Se reconocen las dificultades: concepción errónea de los proyectos, mal
conocimiento del lenguaje, técnicas informáticas inadecuadas, etc. Sin embargo,
posteriormente comienzan a vislumbrarse importantes avances tanto en lingüística
teórica como en ciencia informática.
Como anécdota señalamos el resultado que se obtuvo al traducir primero del
ingles al ruso, y el resultado se tradujo de nuevo al ingles:
- Original en ingles: El espíritu es fuerte, pero la carne es débil.
- Resultado después de traducir al ruso y luego al ingles: El vodka es bueno,
pero el filete está podrido.
Micromundos de Bloques. El proyecto de los Micromundos fue ideado por Marvin
Minsky y Seymour Paper en 1963. Tras desistir de sus intentos previos en visión
artificial ante la dificultad que suponía realizar un proyecto de tal magnitud, en los
que se intentaba conectar una cámara de televisión a un ordenador y hacer que la
cámara describiera lo que veía. Minsky opto por llevarla a cabo en un plano más
reducido, los Micromundos de Bloques.
Los micromundos no eran otra cosa que "representaciones" de laboratorio de la
vida real, con un aditivo muy especial, el sujeto que interaccionaría con la realidad
sería un ordenador con forma de robot o de simple programa. Se crearon
programas capaces de tratar con objetos geométricos (SHRDLU), robots que
manejaban cubos (Shakey) y diferentes programas que "entendían" el ingles para
sacar
de
las
frases
una
determinada
información
(SIR
y
STUDENT).
13
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
Finalmente en 1969 el proyecto de los Micromundos también fracaso, pues su
"sencillez" no tenia visos de ampliarse y cambiar el prefijo "micro" por uno con un
significado más extenso. ARPA (Advanced Research Proyect Agency) dejo de
subvencionar el proyecto tras acabarse los plazos fijados y ver que no se había
logrado ni un 25% de lo prometido.
STUDENT y SIR. 1964. Daniel Bobrow presentó como tesis doctoral a su profesor,
Marvin Minsky, un programa llamado STUDENT, este era capaz de entender
enunciados de problemas algebraicos escritos en inglés y responder a sus
preguntas. Los problemas característicos que podía solucionar STUDENT son
similares al siguiente: "El tío de Guillermo es dos veces más viejo que el padre de
Guillermo. Dentro de dos años, el padre de Guillermo será tres veces más viejo que
Guillermo .La suma de sus edades es 92. Averiguar la edad de Guillermo".
A su vez, Bertram Raphael diseña SIR (Semantic Information Retrieval)
[Recuperación de información semántica], este programa comprendía oraciones
sencillas en inglés que describían situaciones acerca de pertenencias y relaciones
parecidas. Por ejemplo, una conversación con SIR podría ser (de hecho lo es) la
siguiente:
Persona> Todo muchacho es una persona
SIR> Entiendo
Persona> Un dedo es una parte de la mano
SIR> Entiendo
Persona> Cada persona tiene dos manos
SIR> Esta oración es ambigua, reformúlela, por favor.
Persona> Hay dos manos en cada persona
SIR> Entiendo
Persona>¿Cuántos dedos tiene Juan?
SIR> Esta oración es ambigua.
Persona> Juan es un muchacho
SIR> Entiendo
Persona>¿Cuántos dedos tiene Juan?
SIR> Esta oración es ambigua, pero supongo que (TIENE) significa (TIENE
COMO PARTES). ¿Cuántos dedos hay en cada mano?
Persona> Cada mano tiene cinco dedos
SIR> Entiendo
Persona> Cuántos dedos tiene Juan?
SIR> La respuesta es 10.
14
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
Estos dos programas, SIR y ESTUDENT funcionan mediante la "comparación
de patrones", es decir, cuando el programa detecta que unas palabras clave están
colocadas de una forma especial, toma la información necesaria de donde el patrón
le aconseja.
ELIZA (o DOCTOR). Hacia 1965, Weizenbaum trabajaba en el MIT, intentando
que los ordenadores hablaran en inglés con la gente. Pensó que los programas
existentes como STUDENT se basaban en dominios limitados, y los dominios que
describían esos programas estaban ligados a la propia estructura del programa. Y
dado que Weizenbaum se dio cuenta de que no podría conseguir ese fin en tan poco
tiempo, pensó en crear un programa con unas cuantas ideas que se le habían
ocurrido. Una de esas ideas era que el conocimiento sobre los dominios se
encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan
fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que
imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en
funcionamiento una terapia que consistía simplemente en animar a los pacientes a
hablar de sus problemas, respondiendo a sus preguntas con otras preguntas). El
programa en cuestión recibió el nombre de ELIZA (ahora todo un mito de la historia
de la I.A.). Aunque a simple vista ELIZA parece estar hablando animadamente con
la persona que le cuenta sus problemas, la verdad es muy diferente. ELIZA hace
creer a su interlocutor que se está hablando con "un ser" que razona y entiendo,
realmente todo ello se logra mediante trucos como repetir frases cambiando "yo"
por "tu", o echar mano a una frase del principio cuando el "hilo" se acaba
transformándola en pregunta. Otro truco utilizado por este programa es insertas
frases como "ya veo" o "háblame más acerca de esto". Algo con lo que contaba a
su favor ELIZA era que el planteamiento de las conversaciones seguirían siempre
un patrón común de los psicoanálisis rogelianos ¿en que otra conversación no iba a
resultar extraño escuchar frases como esta "háblame algo más acerca de los coches
rojos con motas verdes que apartan cerca de tu casa"?. A continuación se muestra
un ejemplo de una conversación con ELIZA:
PERSONA> Todos los hombres son iguales.
ELIZA>¿De que forma?
PERSONA> Siempre nos están fastidiando de una forma u otra.
ELIZA>¿Se te ocurre algún ejemplo específico?
PERSONA> Sí, mi novio me hizo venir aquí.
ELIZA> Tu novio te hizo venir aquí
PERSONA> Dice que me paso deprimida la mayor parte del tiempo.
15
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
ELIZA> Siento enterarme de que estas deprimida
PERSONA> Es verdad. No soy feliz.
ELIZA>¿Crees que venir aquí te ayudará a ser feliz?
PERSONA> Necesito alguna ayuda, eso sí es verdad.
ELIZA>¿Qué significa para ti obtener alguna ayuda?
PERSONA> Quizá pueda aprender a sobrellevar a mi madre.
ELIZA> Háblame algo más acerca de tu familia.
PERSONA> Mi madre se preocupa por mí.
ELIZA>¿Quién más se preocupa por ti en tu familia?
PERSONA> Mi padre
ELIZA> Tu padre
PERSONA> En algunas cosas te pareces a mi padre
ELIZA>¿Qué parecido ves?
PERSONA> No eres muy agresivo, pero creo que no quieres que yo me dé
cuenta de eso.
ELIZA>¿Por qué piensas que yo no soy muy agresivo?
PERSONA> Tú no discutes conmigo.
ELIZA>¿Por que crees que yo no discuto contigo?
PERSONA> Me tienes miedo
ELIZA>¿Te gusta creer que te tengo miedo?
PERSONA> Mi padre tiene el miedo a todo el mundo.
ELIZA>¿Que más se te ocurre cuando piensas en tu padre?
PERSONA> En matones.
ELIZA> ¿Tiene eso que ver con el hecho de que tu novio te hizo venir aquí?
A más de una persona, le parecía que el programa seria capaz de superar el
Test de Turing, pero realmente esto no es así, ya que la prueba de Turing debía de
enfrentar a dos partes, una persona y un ordenador, ambas debían de comportarse
de forma normal y habría que averiguar quien era la persona y quien el ordenador,
este hecho quedaría al descubierto en cuanto ELIZA dijese (por ejemplo):
"Cuéntame algo más acerca de tus gusto por las películas en versión original", en
una conversación normal no se utilizan esas expresiones.
SHAKEY. 1969. Un equipo de investigación de Stanford tuvo la atrevida idea de
poner ruedas a su robot, enseguida el ejercito (norteamericano) se mostró
interesado por el proyecto, subvencionándolo por medio del ARPA (Avanced
Research Proyects Agency), la idea de este era convertir al robot de Stanford en un
espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir
16
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
información. Pero la apariencia del robot no parecía capaz ni de cruzar la esquina:
una caja cuadrada, con una cámara de televisión (de las del 69), un telémetro y
una antena de radio. De todas formas el proyecto siguió adelante, y el robot fue
bautizado como Shakey [Temblón]. El mundo de Shakey era un Micromundo de
Bloques de tamaño natural, compuesto de siete habitaciones conectadas entre sí
por ocho puertas, habiendo en las habitaciones cubos que Shakey podía manipular,
apilando y transportándolos de un lado a otro. Todo ello siguiendo las instrucciones
(en inglés) que le transmitían mediante un teclado. Finalmente el fracaso de los
Micromundos afecto a este proyecto ya que ARPA dejo de subvencionarlo.
17
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
18
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
DENDRAL. El primer sistema experto. También en 1965 se inicia la investigación
en la universidad de Stanford de sistemas expertos en el programa Heuristic
Programming Project.
En 1965 Feigenbaum entra a formar parte del departamento de informática
de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la
estructura de las moléculas orgánicas completas. Si se quiere estudiar un
compuesto químico, lo primero que tenemos que hacer es averiguar su fórmula
química. El método habitual de análisis consiste en dividir el problema en partes
más
pequeñas.
El
problema
de
Lederberg
era
que
había
demasiadas
combinaciones. Cada fragmento podía corresponder a varias subestructuras, pero
solo una estructura molecular global se ajustaba a todas las restricciones del
problema. El descubrimiento de esa estructura global exigía buscar en un árbol las
posibilidades. Fue por esta razón por la que pusieron al programa el nombre de
DENDRAL, que significa en griego "árbol". Antes de DENDRAL los químicos solo
tenían una forma de resolver el problema, y esta era tomar unas hipótesis
relevantes como soluciones posibles, y someterlas a prueba comparándolas con los
datos. La realización DENDRAL duró más de diez años (desde 1965).
Conclusión de este periodo:
Desde el principio de esta joven ciencia, la gran mayoría de los propósitos y
objetivos eran anunciados con años de antelación como grandes éxitos, es
más se llegaba a anunciar con un plazo de meses, conceptos, como la Visión
Artificial, de una dificultad máxima, cuando aún no se había puesto la primera
letra sobre el papel. Este hecho, el de subestimar la dificultad de los
proyectos, ha hecho mucho mal a la Inteligencia Artificial desde sus
comienzos, la razón no es otra que la "desacreditaron" a la cual ha tenido que
ser sometida por los medios de comunicación y científicos rivales (rivales o no
partidarios de la I.A.), hasta el punto de perder subvenciones millonarias por
los excesos de optimismo.
19
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
5. PERIODO 1970 - 1979
Los problemas debidos al exceso de optimismo y ambición sufridos en el periodo
anterior, llevaron a un replanteamiento de los objetivos a perseguir y se paso a
tratar problemas mas concretos. Como hecho mas destacado es el nacimiento de
los sistemas expertos y la recuperación que trajo dentro del campo de la
Inteligencia Artificial, ya que supuso el regreso de las inversiones. Los sistemas
expertos o sistemas de producción con reglas tratan problemas restringidos o un
entorno limitado. Dos de los sistemas expertos mas populares son el MYCIN y el
PROSPECTOR, de los que hablaremos a continuación.
En este periodo, también se inicia la institucionalización de la comunidad
científica que trabaja en el campo de la Inteligencia Artificial con el Primer
Congreso Internacional de Inteligencia Artificial. Poco después, en el año 1970,
aparece el primer numero de la revista especializada Artificial Intelligence.
Otra de las diferencias con el periodo anterior es que la Inteligencia Artificial
se extiende
de los ámbitos académicos a los centros de investigación y a las
universidades, donde las aplicaciones ya no son tan teóricas y además de tratar
problemas matemáticos y demostraciones de teoremas se realizan aplicaciones mas
experimentales, como los sistemas expertos y la programación lógica.
Dentro de la programación lógica se logra uno de los avances mas
destacables con la aparición en 1972 del Lenguaje PROLOG.
1976. MYCIN. Desarrollado por Eduard Feigenbaum, Bruce Buchanan en la
universidad de Stanford y documentado por Edward Shortliffe. MYCIN se trataba de
un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los
resultados de análisis de sangre, cultivos bacterianos y demás datos, el programa
era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba
causando la infección. Después de llegar a una conclusión, MYCIN prescribía una
medicación que se adaptaba perfectamente a las características del sujeto, tales
como el peso corporal de este. Después del reconocido éxito que tuvo MYCIN entre
la comunidad científica de I.A. e investigadores de medicina, los autores del
programa pusieron a disposición de otros investigadores una versión de MYCIN que
contenía el motor "inferencial" de este para que fueran los propios usuarios los que
insertasen al programa información respecto al tema a tratar; se podría decir que
esta versión "adaptada" del original MYCIN, era el primer entorno de desarrollo de
sistemas expertos.
20
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
PROSPECTOR. Documentado por P. E. Hart(1978) y R.Duda(1979). Era un sistema
experto para evaluar los yacimientos de minerales, en particular cobre y Uranio.
PROLOG(PROgramimg LOGic). Desarrollado en 1972 por la Universidad de
Marseille bajo la dirección de Alan Colmerauer. Prolog se basa en la definición y
después en la resolución de formulas lógicas. Prolog al igual que LISP es un
lenguaje declarativo, ya que el programa consiste en una lista de hechos y reglas
en lugar de una serie de comandos.
XCON(eXpert CONfigurer) [Configurador Experto]. 1979. John McDermott. XCON
es el primer sistema experto con aplicaciones en el mundo real fuera de los ámbitos
académicos y de los laboratorios de investigación.
DEC iba a lanzar al mercado una nueva serie de ordenadores, los llamados
VAX. Dado que todos los ordenadores tenían configuraciones distintas entre sí, la
VAX estaba previendo el enorme cuello de botella que se iba a formar, cuando los
ordenadores tuviesen fallos de configuración y hubiese que arreglar este problema
uno por uno, con el consiguiente gasto de tiempo y dinero que eso suponía. Los
directivos de la DEC contrataron a John McDertmott. Con el cometido de realizar un
sistema experto que configurase todos los ordenadores que saliesen de la DEC. El
informe de viabilidad de McDermontt expuso resultados prometedores, y en
diciembre de 1978 se empezó a trabajar en el proyecto. En abril de 1979 el equipo
de investigación que lo había diseñado (con McDermott a la cabeza), pensó que ya
estaba preparado para salir y "conocer el mundo", fue entonces cuando se hizo una
prueba real, esperando resolver positivamente un 95% de las configuraciones, este
porcentaje tal alto anhelado por McDermontt y compañía se quedó en un 20% al
ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a
finales de ese mismo año (1979) funcionó con resultados positivos en la DEC. En
1980 XCON se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta
multiplicarse por diez. En 1986 la compañía había invertido más de cincuenta
años/hombre en el programa, pero se estaba recuperando con creces de su
inversión al ahorrarse cuarenta millones de dólares al año.
21
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
Conclusión de este periodo
Como conclusión a este periodo hay que destacar la revolución que se inicio
con los sistemas expertos. El éxito de XCON, MYCIN y PROSPECTOR convenció
a las más importantes empresas a invertir en sistemas expertos. Incluso para
los más conservadores y los radicales Anti-I.A., algo se hacia evidente,
mientras que los costes de desarrollo de los sistemas expertos se hacían cada
vez más bajos, el salario de los expertos humanos se hacia más alto. La
formación de un futuro experto costaba mucho dinero y años de esfuerzo,
mientras que una vez creado un sistema experto podía ser copiado y
distribuido tantas veces como necesario fuese. Además, el sistema experto
nunca se cansa, no necesita dormir, no se distrae, no se va a la competencia,
ni se pone enfermo, ni se jubila, ni pide aumento de sueldo...
22
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
6. AÑOS OCHENTA Y PRINCIPIOS DE LOS 90
Este periodo viene marcado por el éxito de los sistemas expertos y durante los
años ochenta aparecen empresas y proyectos especializados en ofrecer soluciones
comercializables basados en las técnicas de la IA. La IA se consolidó en cada vez
más empresas que desarrollaron las "máquinas lisp" ( ordenadores que ejecutaban
programas en LISP con la misma rapidez de un ordenador central ) y los SHELLS (
herramientas de desarrollo de sistemas expertos). Ejemplos de sistemas expertos
que se comercializaron en esta época son el DELTA, de la General Electric
Company, que
ayudaba a los mecánicos en la reparación y en el diagnostico de
locomotoras diesel; el Aldo en Disco para la reparación de calderas hidroestáticas
giratorias usadas para la eliminación de bacterias y el EURISKO capaz de
perfeccionar su propio cuerpo de leyes heurísticas por inducción.
Cada vez más el mantener la base de datos de reglas de los sistemas
expertos actualizada era mas costoso. El XCON llego a tener 10.000 reglas con lo
que Dec tenia que gastar anualmente 2 millones de dólares en el mantenimiento de
la Base de Conocimientos. Actualmente este mantenimiento supone una de las
actividades más importantes de la IA.
El Ministerio de Industria y Comercio Internacional de Japón impulsa desde
1979 un proyecto(Quinta generación de ordenadores) conjunto de varias empresas
que pretendía desarrollar una nueva generación de ordenadores adaptados a las
necesidades que se preveían para la década de los 90 y que basarían su
funcionamiento en técnicas de la Inteligencia Artificial.
Finalmente el proyecto finalizo en 1992, pero aunque se obtuvieron ciertos
avances
en
procesamiento
paralelo,
procesamiento
del
lenguaje
natural,
programación lógica y en el tratamiento de la información, no supuso ninguna
revolución ni ningún gran cambio ni ventaja tecnológica. Seguidamente Japón se
lanzo a otro nuevo proyecto Real World Computing (RWC) Project, cuyas vías de
investigación, son las redes neuronales, los computadores ópticos y la facilidad de
uso de los ordenadores.
Por aquel entonces, el proyecto japonés sirvió para estimular la inversión en
Inteligencia Artificial de otros países. Sobretodo a raiz de la publicación del libro
The Fifth Generation de Feigenbaum y McCorduck en 1983 que advertía del
“peligro” de una superioridad del Japón en el futuro de la informática a través del
dominio de las técnicas de la IA.
23
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
En 1980 se crea el sistema experto matemático MAPLE. Mas tarde en 1988
se crea otro sistema experto matemático importante el Mathematica. Ambos
sistemas permiten trabajar directamente, es decir sin tediosas programaciones, con
expresiones
simbólicas
como
polinomios,
derivadas,
integrales
indefinidas,
matrices, tensores, grupos, funciones especiales, y métodos altamente sofisticados.
En 1982 se fundo el ECCAI(European Coordinating Committee for Artificial
Intelligence).
En 1985 la Nasa desarrolla CLIPS, es un generador de sistemas expertos
que está codificado en lenguaje C, y que implementa un lenguaje propio para
desarrollar sistemas expertos. Como principal característica se puede citar que
cuenta con tres paradigmas de programación: orientado a reglas, procedural y
orientado a objetos. También en este mismo año se programa un juego de Ajedrez
HiTech que alcanza el nivel de un Gran Maestro.
A partir de 1986 se recuperan los viejos esquemas del Perceptron en la
Redes Neuronales.
1987 supuso el fin de las “maquinas LISP”, debido a la aparición de los
microordenadores de Apple e IBM con potencia parecida a las maquinas LISP, y la
programación en C del software utilizado en IA para los nuevos microordenadores.
En 1989 se constituye el Centro de Inteligencia Artificial (CIA), en España,
más tarde, se formaría la Asociación Española Para la Inteligencia Artificial (AEPIA).
24
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
7. Areas de Aplicación de la IA
Lenguaje Natural
Habla
Ingeniería del conocimiento
Robótica
Visión artificial
Reconocimiento de formas
Sistemas expertos
Aprendizaje
Razonamiento de sentido común
Juegos
Matemáticas
8. Estado del Arte
Uno de los hechos más populares que cualquiera conoce sobre la Inteligencia
Artificial es la victoria de Deep Blue sobre Kasparov en 1997. Pero recientemente
en la industria japonesa han aparecido diversos Robots que han servido para
ejemplificar el estado actual de la IA. Primero fue Honda con ASIMO, un robot con
forma humanoide capaz de andar y subir escalras. SONY ha comercializado con
éxito una serie de robots-perro, el AIBO Artificial Intelligence RoBOt (Robot de
Inteligencia Artificial).
Al robot se le han programado emociones e instintos. Actúa de modo que
intentara satisfacer sus deseos originados en sus instintos. Si se los satisface,
aumentarán sus niveles de alegría, en caso contrario, se pondrá triste o furioso.
Como todo ser viviente, Aibo aprenderá a lograr lo que "desea". En ocasiones,
moverá sus patas con furia o mostrará otras señales de bronca si no recibe de su
amo la atención que requiere. De este modo, la manera en que el amo responde a
las expresiones de emotividad de Aibo influirá en su personalidad y "crecimiento".
El robot, tiene reconocimiento de voz, hasta 40 voces y puede recordar el nombre
que se le dé y responder. Es capaz de expresar emociones.
25
Historia de la Inteligencia Artificial
CPU
Cristina Planell Pérez – José Manuel Pérez Sevilla
64-bit RISC processor. Clock speed 384
MHz
Components
Body, Head, Tail, Leg x 4, "Removable"
Program Storage Medium Memory Stick for AIBO
Movable Parts
Mouth:
1
Head:
3
degree
of
freedom
degrees
of
freedom
Legs: 3 degrees of freedom x 4 legs
Ears: 1 degree of freedom x 2 ears
Tail:
2
degrees
of
freedom
Total: 20 degrees of freedom
Input/Output
PC
Card
Memory
slot
Stick
Type2
In/Out
slot
In/Out
AC IN Power Supply connector Input
Image Input
CMOS Image sensor
Audio Input
Miniature Microphones
Audio Output
Miniature Speaker
LCD Display
Time, Volume, Battery condition
26
Historia de la Inteligencia Artificial
Built-in Sensors
Cristina Planell Pérez – José Manuel Pérez Sevilla
Temperature
Sensor
Infrared
Distance
Sensor
Acceleration
Sensor
Pressure Sensors (Head, the Back, Chin &
Legs)
Vibration Sensor
Built-in Clock
Date & Time
Power Consumption
Approx. 9W (tentative) Standard operation
in autonomous mode
Operating Time
Approx.
1.5Hours
(tentative)
Standard
operation in autonomous mode
Charging Time
Approx. 2 hours ( with a supplied AC Power
Adaptor and the "Lithium Ion Battery pack"
ERA-201B1)
Dimensions(W/H/D)
(not
including
ears
Approx. 152 x 281 x 250 mm (Approx.
and 5.98 x 11.06 x 9.84 inches)
tail)
Weights(including
battery
and
a
a Approx. 1.5kg (Approx.3.3lb)
memory
stick)
Color
Gold/Silver/Black
Supplied Accessories
AC Adapter, Lithium Ion Battery Pack ERA201B1(1), Ball, Documentation, etc
Operating Temperature
41 F to 95 F (5C to 35C)
Operating Humidity
10% to 80%
Que otras aplicaciones y logros hay de la Inteligencia Artificial que directa o
indirectamente nos afectan:
-
Programas de reconocimiento de voz para reservar billetes de avión para un
vuelo.
-
Sistemas
expertos
que
controlan
el
correcto
funcionamiento
de
un
transbordador espacial.
-
Sistemas expertos de diagnostico de enfermedades.
27
Historia de la Inteligencia Artificial
-
Cristina Planell Pérez – José Manuel Pérez Sevilla
Protección de fraudes en tarjetas de crédito y cuentas a través de sistemas de
redes neuronales o sistemas expertos.
-
Detección de pequeñas anomalías invisibles al ojo humano en radiografias.
-
Sistemas de mensajería de voz.
-
En el mundo de los videojuegos. Rivales con comportamiento logico.
-
Traducción automática de documentos. (GOOGLE)
9. Conclusiones
¿Qué consideramos como inteligente?
¿Es posible conseguir un ordenador que sea inteligente?
28
Historia de la Inteligencia Artificial
Cristina Planell Pérez – José Manuel Pérez Sevilla
10. Bibliografía
Historia de la Inteligencia Artificial,
http://members.fortunecity.com/jon_alava/
Inteligencia Artificial: Éxitos, fracasos y filosofía,
http://web1.cti.unav.es/asignaturas/ia/programa97.html.
Notas sobre un Curso de Redes Neuronales,
http://148.231.177.35/Ascencio/rn/
Laboratorio de Inteligencia Artificial del MIT, http://www.ai.mit.edu/
Red Científica, http://www.redcientifica.com/
La traducción por ordenador,
http://sirio.deusto.es/abaitua/konzeptu/ta1.htm
Apuntes de la Asignatura de Historia de la Informática.
Apuntes de la Asignatura ISEPI
Kit de desarrollo de software OPEN-R, es una herramienta de desarrollo de
software que permite a los programadores expandir la funcionalidad de los robots
AIBO, que se exhibe mediante entrada en los sensores y el movimiento de las
coyunturas. http://www.aibo.com/openr/
Dr. Abuse, programa al estilo de ELIZA. descarga gratuita:
http://members.fortunecity.com/jon_alava/descarga/programas/DrAbuse610R.exe
Para que Eliza te psicoanalice: http://chayden.net/eliza/Eliza.shtml
29
Descargar