La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch

Anuncio
La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y
Walter Pitts propusieron un modelo de neurona del cerebro humano y
animal. Estas neuronas nerviosas abstractas proporcionaron una
representación simbólica de la actividad cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras,
dentro del mismo campo, que se llamó " cibernética", de aquí nacería ,
sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron
como base la neurona formalizada de McCulloch y postulaban que :
" El cerebro es un solucionador inteligente de problemas, de modo que
imitemos al cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya
practicamente imposible, ni que mencionar que el hardware de la época
ni el software estaban a la altura para ralizar semejantes proyectos.
Se comenzó a considerar el pensamiento humano como una
coordinación de tareas simples relacionadas entre sí mediante símbolos.
Se llegaría a la realización de lo que ellos consideraban como los
fundamentos de la solución inteligente de problemas, pero lo difícil
estaba todavía sin empezar, unir entre sí estas actividades simples.
Por lo tanto podemos decir a grandes rasgos que la Inteligencia
Artificial es una ciencia que intenta la creación de programas para
máquinas que imiten el comportamiento y la comprensión humana, que
sea capaz de aprender, reconocer y pensar, aunque esto último está por
ver, ya que, realmente, ¿qué significa pensar? y ¿en qué consiste el
pensamiento?.
- HOLA
- HOLA ORDENADOR, ME GUSTARIA QUE ME AYUDARAS.
- ¿DE QUE SE TRATA ?
- NECESITO QUE ME DIGAS DONDE ENCONTRAR UN DIALOGO ENTRE
MAQUINA Y HUMANO.
- ¿PARA QUE ?
- PARA UNA PAGINA WEB.
- NO LO NECESITAS.
- ¿CÓMO QUE NO ?, ¡ LO NECESITO PARA MAÑANA !
- YA TE HE DADO UNO.
Este es un claro ejemplo de lo que podría ser una conversación de un
humano con una máquina en el futuro, aunque actualmente estamos
muy lejos de llegar a esto.
Ya hemos comentado anteriormente en la introducción que los primeros
investigadores se habían quedado en elaborar sistemas inteligentes basados en el
modelo de McCulloch.
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó
el Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de
patrones en el cual se aunaron esfuerzos para que se pudieran resolver una gama
amplia de problemas, pero estas energías se diluyeron enseguida.
Fué en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la
demostración de teoremas y el ajedrez por ordenador logran crear un programa
llamado GPS (General Problem Solver: solucionador general de problemas). Éste era
una sistema en el que el usuario definía un entorno en función de una serie de objetos
y los operadores que se podían aplicar sobre ellos. Este programa era capaz de
trabajar con las torres de Hanoi, así como con criptoaritmética y otros problemas
similares, operando, claro está, con microcosmos formalizados que representaban los
parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer
el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones
importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios
descubrimientos) que la conducían hasta el destino deseado mediante el método del
ensayo y el error.
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum
comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se
centrara, al menos, en problemas más concretos. Así es como nació el sistema
experto.
El primer sistema experto fue el denominado Dendral, un intérprete de
espectrograma de masa construido en 1967, pero el más influyente resultaría ser el
Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar
la correspondiente medicación, todo un logro en aquella época que incluso fueron
utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific
Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la
Inteligencia Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se
desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este
programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por
inducción.
1. ¿Qué es la inteligencia artificial?
Estudia como lograr que las máquinas realcen tareas que, por el momento, son realizadas mejor
por los seres humanos. La definición es efímera porque hace referencia al estado actual de la
informática. No incluye áreas que potencialmente tienen un gran impacto tales como aquellos
problemas que no pueden ser resueltos adecuadamente ni por los seres humanos ni por las
máquinas.
Problemas de la IA.
Al principio se hizo hincapié en las tareas formales como juegos y demostración de teoremas,
juegos como las damas y el ajedrez demostraron interés.
La geometría fue otro punto de interés y se hizo un demostrador llamado: El demostrador de
Galenter. Sin embargo la IA pronto se centró en problemas que aparecen a diario denominados de
sentido común (commonsense reasoning).
Se enfocaron los estudios hacia un problema muy importante denominado Comprensión del
lenguaje natural. No obstante el éxito que ha tenido la IA se basa en la creación de los sistemas
expertos, y de hecho áreas en donde se debe tener alto conocimiento de alguna disciplina se han
dominado no así las de sentido común.
Ahora bien en la introducción se habló cuestiones importantes de la IA que son:
-¿Cuáles son nuestras suposiciones fundamentales sobre la inteligencia?
-¿Qué tipo de técnicas son las mas adecuadas para resolver los problemas de la IA?
-¿A qué nivel de detalle, si es que no por completo, se puede intentar modelar la inteligencia
humana?
-¿Cómo se puede saber cuando se ha tenido éxito en la construcción de programa inteligente?
Aplicaciones de laIA.
Tareas de la vida diaria:
Percepción
Visión
Habla
Lenguaje natural
Comprensión
Generación
Traducción
Sentido común
Control de un robot
Tareas formales:
Juegos
Ajedrez
Backgmmon
Damas
Go
Matemáticas
Geometría
Lógica
Cálculo Integral
Demostración de las propiedades de los programas
Tareas de los expertos:
Ingeniería
Diseño
Detección de fallos
Planificación de manufacturación
Análisis científico
Diagnosis médica
Análisis financiero
Suposiciones subyacentes.
En 1976 Newell y Simon hablan acerca de la Hipótesis del sistema de símbolos físicos (physical
symbol hipótesis)
Se define a un sistema de símbolos físicos como un conjunto de entidades llamadas símbolos, que
son patrones físicos que pueden funcionar como componentes de otro tipo de entidad llamada
expresión (o estructura de símbolos). Una estructura de símbolos está formada por un número de
instancias (señales o tokens) de símbolos relacionados de alguna forma física. En algún instante el
sistema contendrá una colección de esas estructuras de símbolos.
El sistema contiene también una colección de procesos que operan sobre expresiones para
producir otras expresiones: procesos de creación, modificación, reproducción y destrucción. Un
sistema de símbolos físicos es una máquina que produce a lo largo del tiempo una colección
evolutiva de estructuras de símbolos. Este sistema existe en un mundo de objetos tan extenso
como sus propias expresiones simbólicas.
La hipótesis de sistema de símbolos físicos es: Un sistema de símbolos físicos posee los medios
necesarios y suficientes para realizar una acción inteligente y genérica.
Las evidencias que apoyan la hipótesis del sistema de símbolos físicos no han venido solo de
áreas como juegos sino de otras áreas como la percepción visual donde es más atractivo esperar
la influencia de procesos subsimbólicos. Sin embargo procesos subsimbólicos como las redes
neuronales están cuestionando los simbólicos como tareas de bajo nivel. Quizá entonces los
sistemas de símbolos físicos solo sean capaces de modelar algunos aspectos de la inteligencia
humana y no otros.
La importancia de la hipótesis de sistema de símbolos físicos es doble. Es una teoría significativa
de la naturaleza de la inteligencia humana y también es de gran interés para los psicólogos.
2. ¿Qué es una técnica de IA?
Uno de los más rápidos y sólidos resultados que surgieron en las tres primeras décadas de las
investigaciones de la IA fue que la inteligencia necesita conocimiento.
Para compensar este logro imprescindible el conocimiento posee algunas propiedades poco
deseables como:
Es voluminoso
Es difícil caracterizarlo con exactitud
Cambia constantemente
Se distingue de los datos en que se organiza de tal forma que se corresponde con la forma en que
va a ser usado.
Con los puntos anteriores se concluye que una técnica de IA es un método que utiliza
conocimiento representado de tal forma que:
El conocimiento represente las generalizaciones. En otra palabras no es necesario representar de
forma separada cada situación individual. En lugar de esto se agrupan las situaciones que
comparten propiedades importantes. Si el conocimiento no posee esta propiedad, puede
necesitarse demasiada memoria.
Si no se cumple esta propiedad es mejor hablar de "datos" que de conocimiento.
Debe ser comprendido por las personas que lo proporcionan. Aunque en mucho programas, los
datos pueden adquirirse automáticamente (por ejemplo, mediante lectura de instrumentos), en
muchos dominios de la IA, la mayor parte del conocimiento que se suministra a los programas lo
proporcionan personas haciéndolo siempre en términos que ellos comprenden.
Puede modificarse fácilmente para corregir errores y reflejar los cambios en el mundo y en nuestra
visión del mundo.
Puede usarse en gran cantidad de situaciones aún cuando no sea totalmente preciso o completo.
Puede usarse para ayudar a superar su propio volumen, ayudando a acotar el rango de
posibilidades que normalmente deben ser consideradas.
Es posible resolver problemas de IA sin utilizar Técnicas de IA (si bien estas situaciones no suelen
ser muy adecuadas). También es posible aplicar técnicas de IA para resolver problemas ajenos a
la IA. Esto parece ser adecuado para aquellos problemas que tengan muchas de las
características de los problemas de IA.
Los problemas al irse resolviendo tienen entre las características de su solución:
Complejidad
El uso generalizado
La claridad de su conocimiento
La facilidad de su extensión
Tres en raya.
Este problema se enuncia inicialmente así:
El tablero se representa por un vector de nueve componentes, donde las componentes del vector
se corresponden con las posiciones del tablero de la siguiente forma:
123
456
789
Este es solo la tercera de las soluciones del libro pero es la más efectiva:
Posición una estructura que contiene un vector de nueve componentes
Tablero que representa al tablero, una lista de posiciones del tablero que podría ser el siguiente
movimiento, y un número que representa una estimación de la probabilidad de que la jugada lleve
a la victoria al jugador que mueve.
3. El algoritmo.
Para decidirla siguiente jugada, se debe tener en cuenta las posiciones del tablero que resultarán
de cada posible movimiento. Decidir que posición es la mejor, realizar la jugada que corresponda a
esa posición, y asignar la clasificación de mejor movimiento a la posición actual.
Para decidir cuál de todas las posibles posiciones es mejor, se realiza para cada una de ellas la
siguiente:
- Ver si se produce la victoria. Si ocurre catalogarla como la mejor dándole el mejor puesto en la
clasificación.
- En caso contrario, considerar todos los posibles movimientos que el oponente puede realizar en
la siguiente jugada. Mirar cual de ellos es pero para nosotros (mediante una llamada recursiva a
este procedimiento). Asumir que el oponente realizará este movimiento. Cualquier puesto que
tenga la jugada, asignarla al nodo que está considerando.
- El mejor nodo es el que resulte con un puesto mas alto.
Este algoritmo inspecciona varias secuencias de movimientos para encontrar aquella que lleva a la
victoria. Intenta maximizar la probabilidad de victoria. Mediante la suposición de que el oponente
intentará minimizar dicha probabilidad. Este algoritmo se denomina mínimax.
El programa necesita mucho más tiempo que otras soluciones debido a que debe realizar una
búsqueda en un árbol que representa todas las posibles secuencias de jugada antes de realizar un
movimiento. Sin embargo es superior a los demás programas en algo importante: podría ser
ampliado para manipular juegos mas complicados que las tres en raya, cualidad en que otras
soluciones fracasan.
La anterior solución es un ejemplo de 1 uso de una técnica de IA. Para problemas muy pequeños,
es menos eficiente que los métodos más directos. Sin embargo puede usarse en aquellas
situaciones en las que fallen los métodos tradicionales.
Respuesta a preguntas.
En este problema se aborda la solución de un texto escrito en español, de hecho son preguntas
que deben ser respondidas.
Si embargo es más difícil delimitar formalmente y con precisión en qué consiste el problema y que
constituye una solución correcta para él.
En esta parte del capítulo el problema tal vez más interesante es:
María fue a comprar un abrigo nuevo. Ella encontró uno rojo que le gustaba de verdad. Cuando
ella lo llevó a casa, ella descubrió que hacia juego perfectamente con su vestido favorito.
Se intenta responder a las preguntas siguientes:
¿Qué fue a comprar María?
¿Qué encontró que a ella le gustaba?
¿Compró María algo?
Nuevamente como en el problema anterior solo se mostrará la tercera de las soluciones :
Se transforma el texto de entrada en una forma estructurada que contiene frases del texto y se
combina con otras formas estructuradas que describen conocimiento previo sobre los objetos y
situaciones que aparecen en el texto.
Se usa una estructura para construir Textointegrado a partir del texto de entrada. Este tipo de
conocimiento almacenado sobre acciones típicas se denomina guión. (script). En este caso por
ejemplo, M es un abrigo y M' es un abrigo rojo.
Ir de compras:
Roles: C (cliente), V (vendedor)
Props: M (productos), D (dólares)
Ubicación: L (tienda)
1. C entra en L
2. C empieza a curiosear.
3. C busca un M en particular 4. C busca cualquier M interesante
5. C pide ayuda a V
7. C encuentra M'
8. C no encuentra M
9. C sale de L 10. C compra M' 11. C sale de L 12. Vuelta al paso 2
13. C sale de L
14. C se lleva M'
En la solución del problema se hace una representación estructurada acerca del conocimiento
contenido en el texto de entrada pero cambiando ahora con una recopilación de conocimiento
relacionado.
La pregunta de entrada en forma de caracteres.
El algoritmo.
Se estructura la entrada del programa utilizando tanto el conocimiento como el modelo del mundo.
El número de posibles estructuras será bastante grande. Aunque algunas veces, sin embargo, es
posible considerar menos posibilidades utilizando el conocimiento adicional para filtrar las
alternativas.
Con la última solución las preguntas si se pueden contestar.
El guión para ir de compras se instancia, y debido a la última frase se forma la representación de
este texto usando el paso 14 del guión. Cuando el guión es instanciado, es seguro que M'
representa en la estructura el abrigo rojo (ya que el guión indica que M' es lo que se lleva a casa y
el texto rojo indica que el abrigo rojo es lo que se lleva a casa)
Esta solución es más potente que otras debido a que utiliza más conocimiento. De hecho estas son
técnicas de IA. Sin embargo son necesarias ciertas advertencias. Las técnicas utilizadas en la
última solución no son las adecuadas para responder adecuadamente a todas las preguntas del
español. El aspecto más importante que no aparece en esta solución es un mecanismo de
razonamiento general (inferencia) para poder usarlo creando la respuesta pedida no aparece
explícitamente en la entrada del texto y sin embargo la respuesta se deduce lógicamente del
conocimiento que allí se encuentra.
Así que se puede concluir que el objetivo de las técnicas de IA es apoyar el uso eficaz del
conocimiento.
En las soluciones en las que se usan técnicas de IA se ponen de manifiesto tres que so muy
importantes:
Búsqueda. – Proporciona una forma de resolver problemas en los que no se dispone de un método
más directo tan bueno como una estructura en la que empotrar algunas técnicas directas
existentes.
Uso del conocimiento. – Proporciona una forma de resolver problemas complejos explotando las
estructuras de los objetos involucrados.
Abstracción. – Proporciona una forma de separar aspectos y variaciones importantes de aquellos
otros sin importancia y que en caso contrario podrían colapsar un proceso.
El nivel del Modelo o en otras palabras: Modelar de una computadora a similitud del hombre:
Los esfuerzos dedicado a construir programas que lleven a cabo tareas de la misma forma que el
hombre, se dividen en dos clases: Los programas de la primera clase se encargan de problemas
que no se adecuan mucho con muestra definición de tarea perteneciente a IA; son aquellos
problemas que una computadora puede resolver fácilmente, pero cuya resolución implica el uso de
mecanismos de los que no dispone el hombre.
La segunda clase de programas que intentan modelar lo humano, son aquellos que intentan
realizar tareas que se adecuan claramente con nuestra definición de tareas de IA. Hay cosas que
no son triviales para una computadora.
Entre las razones para modelar la forma de trabajar humana están:
- Verificar las teorías psicológicas de la actuación humana.
- Capacitar a las computadoras para comprender el razonamiento humano.
- Capacitar a la gente para comprender a las computadoras.
- Explotar el conocimiento que se puede buscar en el hombre.
4. Criterios de determinación del éxito.
Una pregunta importante a resolver en toda investigación científica o de ingeniería es: ¿Cómo
sabremos si hemos tenido éxito?
La inteligencia artificial formula la pregunta: ¿Cómo sabemos si hemos construido una máquina
inteligente?.
En 1950 Alan Turing propuso un método para determinar si una máquina es capaz de pensar. Este
método es conocido como el test de Turing. Para realizarlo se necesitan dos personas y la
máquina que se desea avaluar. Una de las personas actúa como entrevistador y se encuentra en
una habitación, separado de la computadora y de la otra persona. El entrevistador hace preguntas
tanto a la persona como a la computadora mecanografiando las cuestiones y recibe las respuestas
de igual forma.
El entrevistador solo las conoce por A y B y, debe tratar de determinar quien es la persona y quien
es la máquina. El objetivo de la máquina es hacer creer al entrevistador que es una persona, si lo
consigue, se concluye que la máquina piensa.
Sin embargo mucha gente piensa que habrá que pasar mucho tiempo para que una máquina
pueda superar el test de Turing. Algunos piensan que nunca lo harán.
Diferencias entre el cerebro y una computadora
Cerebro
Computadora
Sistema capaz de múltiple propósito capaz
de tratar gran cantidad de información en
poco tiempo pero no necesariamente con
exactitud.
Sistemas altamente especializados con
capacidad para procesar información muy
concreta, siguiendo unas instrucciones dadas.
La frecuencia de los impulsos nerviosos
puede variar.
La frecuencia de transmisión es inalterable y
esta dada por el reloj interno de la máquina.
Las llamadas sinapsis cumple en el cerebro
la función simultánea de varias compuertas
(and, or, not,etc.)
Las compuertas lógicas tienen una función
perfectamente determinada e inalterable.
La memoria es del tipo asociativo y no se
sabe dónde quedará almacenada.
La información se guarda en posiciones de
memoria de acceso directo por su dirección.
Los impulsos fluyen a 30 metros por
segundo.
En el interior de la computadora los impulsos
fluyen a la velocidad de la luz.
Similitudes entre el cerebro y una
computadora.
Ambos codifican la información en impulsos
digitales.
Tanto el cerebro como la computadora
tienen compuertas lógicas.
Existen distintos tipos de memoria.
Los dos tienen aproximadamente el mismo consumo de energía
APLICACIONES DE LA IA
5. Redes Neuronales
- Las redes neuronales son dispositivos inspirados en la funcionalidad de las neuronas biológicas,
aplicados al reconocimiento de patrones que las convierten aptas para modelar y efectuar
predicciones en sistemas muy complejos.
Es un conjunto de técnicas matemáticas para modelar las conexiones y relaciones entre un
conjunto de datos.
- Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la IA simbólica
o tradicional. La IA simbólica se basa en que todo conocimiento se puede representar mediante
combinaciones de símbolos, derivadas de otras combinaciones que representan verdades
incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente
de la estructura que maneje los símbolos, siempre y cuando la ‘máquina’ realice algunas
operaciones básicas entre ellos.
- Una Red Neuronal: el Perceptrón unicapa
- Es un conjunto de neuronas no unidas entre sí, de manera que cada una de las entradas del
sistema se conectan a cada neurona, produciendo cada una de ellas su salida individual.
- Existen tres métodos de aprendizaje para un Perceptrón:
- Aprendizaje supervisado: se presentan al Perceptrón unas entradas con las correspondientes
salidas que se quiere que sean aprendidas.
- Aprendizaje no supervisado: solo se presenta al Perceptrón las entradas, y para esas entradas, la
red debe dar una salida parecida.
- Aprendizaje por esfuerzo: se combinan los dos anteriores, y cada cierto tiempo se presenta a la
red una valoración global de cómo lo está haciendo.
- Podría parecer que el Perceptrón tiene una potencia ilimitada para aprender, pero Minsky y Paper
pusieron graves deficiencias del Perceptrón en su libro "Perceptroms". Según ellos el Perceptrón
unicapa era incapaz de aprender las funciones que no fuesen linealmente separables.
- Las redes neuronales todavía se han de desarrollar mucho. Aún se debe estudiar para que sirven
realmente, conocer en que tareas pueden resultar realmente útiles, ya que por ejemplo es difícil
saber cuánto tiempo necesita una red para aprender cierta tarea, cuántas neuronas necesitamos
como mínimo para realizar cierta tarea, etc...
- En la Robótica, las redes neuronales también parecen prometer mucho, sobre todo en su
senorización.
6. Robótica
- Son unas máquinas controladas por ordenador y programadas para moverse, manipular objetos y
realizar trabajos a la vez que interaccionan con su entorno. Los robots son capaces de realizar
tareas repetitivas de forma más rápida, barata y precisa que los seres humanos.
- El diseño de un manipulador robótico se inspira en el brazo humano. Las pinzas están diseñadas
para imitar la función y estructura de la mano humana. Muchos robots están equipados con pinzas
especializadas para agarrar dispositivos concretos.
-Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. Una
computadora calcula los ángulos de articulación necesarios para llevar la pinza a la posición
deseada.
- En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se empleaban en
Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas
aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos.
En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como
muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas en las que
el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas
operaciones repetitivas de alta precisión durante 24 horas al día.
- Uno de los principales usuarios de robots es la industria del automóvil. La empresa General
Motors utiliza aproximadamente 16.000 robots para trabajos como soldadura, pintura, carga de
máquinas, transferencia de piezas y montaje. El montaje industrial exige una mayor precisión que
la soldadura o la pintura y emplea sistemas de censores de bajo coste y computadoras potentes y
baratas. Los robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar
microchips.
- Se emplean robots para ayudar a los cirujanos a instalar cadenas artificiales, y ciertos robots
especializados de altísima precisión pueden ayudar en operaciones quirúrgicas delicadas en los
ojos. La investigación en tecnología emplea robots controlados de forma remota por cirujanos
expertos; estos robots podrían algún día efectuar operaciones en campos de batalla distantes.
- Los robots crean productos manufacturados de mayor calidad y menor costo. Sin embargo,
también pueden provocar la pérdida de empleos, especialmente en cadenas de montaje
industriales.
- Las máquinas automatizadas ayudarán cada vez más a los humanos en la fabricación de nuevos
productos, el mantenimiento de las infraestructuras y el cuidado de hogares y empresas. Los
robots podrían fabricar nuevas autopistas, construir estructuras para edificios, limpiar corrientes
subterráneas o cortar el césped.
- Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad
de razonamiento cada vez mayor. El campo de la inteligencia artificial está pasando rápidamente
de los laboratorios universitarios a la aplicación práctica en la industria, y se están desarrollando
máquinas capaces de realizar tareas cognitivas como la planificación estratégica o el aprendizaje
por experiencia. El diagnóstico de fallos en aviones o satélites, el mando en un campo de batalla o
el control de grandes fabricas correrán cada vez más a cargo de ordenadores inteligentes.
Glosario.
Artificial. - Hecho por el hombre. Carente de naturalidad.
Instancia. - Memorial, solicitud. Por la primera vez. El primer ímpetu.
Inteligencia. - Facultad intelectiva. Capacidad de conocimiento. Comprensión, acto de
entendimiento. Sentido en que se puede interpretar una expresión o sentencia.
Modelo. - Ejemplar, forma, que se propone quien ejecuta una obra, artística o de otra índole. Lo
que se debe imitar por su perfección, en lo intelectual o moral.
Técnica. - conjunto de procedimientos de una ciencia o arte. Habilidad para usar procedimientos y
recursos.
Maestría en Inteligencia Artificial Primer Aniversario
Homero Ríos Figueroa y Christian Lemaitre
En mayo pasado se cumplió el primer aniversario de la Maestría en Inteligencia
Artificial que imparten conjuntamente la Universidad Veracruzana y LANIA. En
este primer año de existencia, la maestría logró su ingreso al padrón de excelencia
del CONACYT, creó un seminario permanente en el que se impartieron 29
conferencias magistrales por prestigiados investigadores mexicanos y de otros
países, y actualmente inicia la segunda generación de estudiantes.
La planta docente de la maestría está conformada por un grupo de ocho
profesores, de los cuales seis cuentan con doctorado. Se tiene además un
programa de profesores extranjeros invitados que vienen por un cuatrimestre a
impartir cursos en el que han participado profesores de universidades como:
Savoya en Francia, Houston de los Estados Unidos, y La Habana de Cuba.
El programa de estudios de la maestría contempla un conjunto de 15 materias,
repartidas en seis cuatrimestres. De estas materias, 11 son obligatorias y 4 son
optativas; las materias obligatorias proporcionan al estudiante los conocimientos
fundamentales de las principales ramas de la inteligencia artificial, -IA-, y las
materias optativas dan la oportunidad de consolidar conocimientos en otras ramas
de la computación.
El programa de titulación de la maestría permite a los alumnos realizar estancias
de trabajo empresariales; desarrollar proyectos de investigación; o bien realizar
una estancia académica en alguna universidad con la que exista convenio.
Actualmente existen vínculos de cooperación con las Universidades de Waterloo,
York y McGill de Canadá, y con las universidades de Houston y Santa Cruz,
California, en Estados Unidos. Un programa para el financiamiento de estancias
en esas universidades ha sido propuesto por la maestría.
La Maestría en Inteligencia Artificial cuenta con instalaciones propias en la ciudad
de Xalapa, que disponen de una red de 20 estaciones de trabajo con salida a
Internet, un laboratorio de robótica y una biblioteca bien equipada, además de
contar con las instalaciones del LANIA como extensión de la maestría.
La inteligencia artificial es el campo de investigación por excelencia de las ciencias
de la computación, y la temática de la maestría está especializada en áreas como
la simulación de los procesos de razonamiento y aprendizaje, la representación
del conocimiento, los procesos perceptuales y sus aplicaciones. Sin embargo, los
estudiantes adquieren una sólida formación en áreas de apoyo estratégico para
las ciencias de la computación en general.
Para las personas interesadas en ingresar al programa de maestría en septiembre
de 1996, el periodo de inscripción al examen de admisión se llevará a cabo en el
mes de abril de 1996. Mayores informes: Universidad Veracruzana, tel: (28) 17-2957
Estudia como lograr que las máquinas realcen tareas que, por el momento, son realizadas mejor
por los seres humanos. La definición es efímera porque hace referencia al estado actual de la
informática. No incluye áreas que potencialmente tienen un gran impacto tales como aquellos
problemas que no pueden ser resueltos adecuadamente ni por los seres humanos ni por las
máquinas.
Problemas de la IA.
Al principio se hizo hincapié en las tareas formales como juegos y demostración de teoremas,
juegos como las damas y el ajedrez demostraron interés.
La geometría fue otro punto de interés y se hizo un demostrador llamado: El demostrador de
Galenter. Sin embargo la IA pronto se centró en problemas que aparecen a diario denominados de
sentido común (commonsense reasoning).
Se enfocaron los estudios hacia un problema muy importante denominado Comprensión del
lenguaje natural. No obstante el éxito que ha tenido la IA se basa en la creación de los sistemas
expertos, y de hecho áreas en donde se debe tener alto conocimiento de alguna disciplina se han
dominado no así las de sentido común.
Ahora bien en la introducción se habló cuestiones importantes de la IA que son:
-¿Cuáles son nuestras suposiciones fundamentales sobre la inteligencia?
-¿Qué tipo de técnicas son las mas adecuadas para resolver los problemas de la IA?
-¿A qué nivel de detalle, si es que no por completo, se puede intentar modelar la inteligencia
humana?
-¿Cómo se puede saber cuando se ha tenido éxito en la construcción de programa inteligente?
Aplicaciones de laIA.
Tareas de la vida diaria:
Percepción
Visión
Habla
Lenguaje natural
Comprensión
Generación
Traducción
Sentido común
Control de un robot
En 1976 Newell y Simon hablan acerca de la Hipótesis del sistema de símbolos físicos (physical
symbol hipótesis)
Se define a un sistema de símbolos físicos como un conjunto de entidades llamadas símbolos, que
son patrones físicos que pueden funcionar como componentes de otro tipo de entidad llamada
expresión (o estructura de símbolos). Una estructura de símbolos está formada por un número de
instancias (señales o tokens) de símbolos relacionados de alguna forma física. En algún instante el
sistema contendrá una colección de esas estructuras de símbolos.
El sistema contiene también una colección de procesos que operan sobre expresiones para
producir otras expresiones: procesos de creación, modificación, reproducción y destrucción. Un
sistema de símbolos físicos es una máquina que produce a lo largo del tiempo una colección
evolutiva de estructuras de símbolos. Este sistema existe en un mundo de objetos tan extenso
como sus propias expresiones simbólicas.
La hipótesis de sistema de símbolos físicos es: Un sistema de símbolos físicos posee los medios
necesarios y suficientes para realizar una acción inteligente y genérica.
Las evidencias que apoyan la hipótesis del sistema de símbolos físicos no han venido solo de
áreas como juegos sino de otras áreas como la percepción visual donde es más atractivo esperar
la influencia de procesos subsimbólicos. Sin embargo procesos subsimbólicos como las redes
neuronales están cuestionando los simbólicos como tareas de bajo nivel. Quizá entonces los
sistemas de símbolos físicos solo sean capaces de modelar algunos aspectos de la inteligencia
humana y no otros.
La importancia de la hipótesis de sistema de símbolos físicos es doble. Es una teoría significativa
de la naturaleza de la inteligencia humana y también es de gran interés para los psicólogos.

Comunicación
Los sistemas RDP utilizan comunicación primitiva, es decir, la comunicación
está restringida a un conjunto de señales fijas con una interpretación fija.
Desde luego, las restricciones impuestas en el número y tipo de señales
limita la cooperación entre agentes. De hecho, tal tipo de comunicación se
ha empleado mayormente para evitar conflictos entre procesadores
secuenciales.
Los agentes de los sistemas MA, por el contrario, según la situación,
pueden optar desde por no comunicarse e inferir los planes de los otros
agentes (reconocimiento de planes) hasta por la comunicación de alto nivel
(planificación de actos de habla), aunque se suelen utilizar variantes del tipo
Message-Passing (MACE [39]) siguiendo distintas políticas y restricciones:
selectiva o masiva, solicitada o no, reconocida o no, transmisión simple o
repetida. Así, por ejemplo, la primera restricción hace referencia a si los
agentes deben dirigirse directamente entre ellos (lo que implica
conocimiento del sistema) o mediante algún medio divulgador común para
todos (por ejemplo, blackboard systems, como en HEARSAY-II [33]).
Lo que se exige en cualquier caso es que cumplan los principios de
relevancia, prontitud y completud [27]. Por relevancia entenderemos la
cantidad de información que contiene un mensaje consistente con la
solución global; la prontitud mide el alcance de la influencia del mensaje en
la actividad actual del nodo que lo recibe, de manera que un mensaje que
no afecta a tal conducta no debe ser enviado; la completud está
determinada por la fracción de la solución que representa el mensaje.
En torno al papel de la comunicación hay abierto un gran debate. Por
ejemplo, en lo que respecta a las aproximaciones que apuestan por la nocomunicación [44], en las que los agentes infieren racionalmente las
intenciones y los planes del resto de agentes, hay que señalar con Werner
[129] las siguientes dificultades: (a) la comunicación es necesaria cuando
hay varios caminos óptimos para satisfacer un mismo objetivo; (b) si hay
que inferir las decisiones del otro agente sobre la base del concocimiento
de sus creencias e intenciones. ¿Cómo se obtiene tal conocimiento sino
con comunicación?. Si cada agente especula acerca de lo que va a hacer el
resto de agentes, nos encontraremos ante un anidamiento infinito de
creencias; (c) los costes computacionales son enormes en cuanto se eleva
mínimamente el número de agentes.
La alternativa del ``paso de mensajes'', según la cual los agentes se
comunican unos a otros sus planes totales, también plantea problemas: (a)
es computacionalmente caro; (b) no hay garantía de que el plan global
resultante esté justificado por las bases de datos de los agentes implicados;
(c) no tiene en cuenta la incertidumbre. En situaciones ``reales'' no se
pueden formular de antemano planes totales, y menos aún comunicarlos.
La solución natural, como más adelante se verá, consiste en comunicarse
planes parciales [26].
Por tanto, es de gran imporancia el determinar lo que los agentes deden
``escuchar'' y lo que deben ``ignorar''. En general, los agentes deberían
intercambiarse sólo información highly diagnostic, información que fuese
consistente con el menor número de hipótesis o alternativas de decisión y
con el mayor efecto discriminatorio [131]. Según Durfee et al. [26] los
mensajes deben contener poca información detallada acerca de las
actividades específicas del dominio y mucha acerca de planes para las
actividades de resolución de problemas. Es decir, los mensajes deben
contener información de metanivel antes que datos del nivel de dominio
tales como soluciones parciales.
Es conveniente señalar que los sistemas MA, que en principio presentan
menos problemas de complejidad que los sistemas RDP ---ya que la
cantidad de información adicional que resulta de una incorrecta toma de
decisiones local es menor que la información adicional requerida para
proporcionar el control completo que se exige--- tiene el riesgo de que, al
mantener información incompleta, se requiera demasiada comunicación, se
duplique el esfuerzo entre los agentes y haya inefectividad en el uso de los
recursos del sistema. Sin una guía organizativa los nodos pueden
rápidamente ``aplastarse'' con resultados parciales y provisionales.

[7] Bratman, M.E. and Israel D.J. and Pollack M.E. Plans and resourcebounded practical reasoning. Computational Intelligence, 4, pp. 349--355,
1988.

[41] Gasser, L. and Hill, R. W. Coordinated problem solvers. Annual Review
of Computer Science, 4, pp. 203-253, 1990.

[70] Kraus, S. and Ephrati, E. and Lehmann, D. Negotiation in a noncooperative environment. Journal of Experimental and Theoretical Artificial
Intelligence, 4, pp. 255-282, 1991.

[87] McCarthy, J. and Hayes, P.J. Some philosophical problems from the
standpoint of artificial intelligence. Machine Intelligence, 4, pp.463-502,
1969.

[132] Wilensky, R. Planning and Understanding. Addison-Wesley, Reading,
Mass, 1983.
Descargar