Descargar recurso

Anuncio
1 de 4
La cibernética clásica
La Segunda Guerra Mundial fue punto de partida y también de convergencia de la
aparición de las primeras computadoras digitales electrónicas europeas y
estadounidenses (ya fueran de programa conectado al procesador o de programa
1
almacenado), la concepción inicial de la cibernética como ciencia multidisciplinar y la
definición de la inteligencia artificial, como disciplina del conocimiento.
Durante la II Guerra Mundial (1939-1945), un
equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de
Londres, crearon lo que se consideró la primera computadora digital totalmente
electrónica: Colossus. Hacia diciembre de 1943, Colossus, que incorporaba 1.500
válvulas o tubos de vacío, era ya operativa. Fue utilizada por el equipo dirigido por Alan
Turing para decodificar los mensajes de radio cifrados de los alemanes.
Desde ámbitos militares de investigación y desarrollo, se le encomienda al matemático
norteamericano Norbert Wiener la tarea de lograr que ciertos dispositivos de la artillería
antiaérea adquieran la capacidad de regular su propia trayectoria. Wiener describe así a la
cibernética como “la ciencia del control y la comunicación en el animal y en la máquina”.
Se define así como una ciencia multidisciplinar para el análisis de los procesos análogos
que se dan en los seres vivos y las máquinas, como son el control de la información y las
comunicaciones. La palabra cibernética proviene del griego kybernetes (“timonel” o
“gobernador”), en el sentido de un sujeto que modifica sus decisiones de acuerdo con la
información que recibe, en una clara correspondencia con la teoría de los mecanismos de
control.
El cuerpo humano puede estudiarse como una “máquina” con complejos sistemas de
control de información, que regulan en el organismo la temperatura y el agua, por ej., al
tiempo que está formado de un poderoso sistema de comunicaciones eléctricas y
químicas, que configuran, respectivamente, los sistemas nervioso y hormonal. Las
observaciones de Wiener se apoyaron en su trabajo junto al neurofisiólogo mexicano
Arturo Rosenblueth (1900-1970), a quien había conocido en 1942, durante un congreso
2 de 4
en Nueva York. Con él estudió las semejanzas entre el cerebro humano y los robots y
sistemas automáticos. Cobra aquí importancia el concepto de feedback o
“retroalimentación”, que era conocido en el campo biológico, donde se describía cómo los
animales de sangre caliente mantienen la temperatura corporal mediante reguladores
biológicos que toman información ambiental externa y mantienen un sistema
homeostático, equivalente a un termostato. Wiener y Rosenblueth dedujeron que estos
2
mecanismos definen un comportamiento inteligente (de inteligencia artificial , en el
caso de las máquinas), dada su capacidad de procesar la información captada, responder
y actuar en consecuencia. A partir de sus observaciones e investigaciones, Wiener
profundizó en la búsqueda de los rasgos de semejanza entre el cerebro humano y el
“cerebro artificial”, es decir, la computadora, entendida en el sentido de totalidad de
máquina, ya descripto.
Según la teoría de la información, uno de los principios básicos de la cibernética
establece que la información es estadística por naturaleza y se mide de acuerdo con las
leyes de la probabilidad. En este sentido, la información es concebida como una medida
de la libertad de elección implícita en la selección. A medida que aumenta la libertad de
elección, disminuye la probabilidad de que sea elegido un determinado mensaje. La
medida de la probabilidad se conoce como entropía. De acuerdo con la segunda ley de la
termodinámica, en los procesos naturales existe una tendencia hacia un estado de
desorganización, o caos, que se produce sin ninguna intervención o control. En
consecuencia, de acuerdo con los principios de la cibernética, el orden (disminución de la
entropía) es lo menos probable, y el caos (aumento de la entropía) es lo más probable.
La conducta intencionada en las personas o en las máquinas exige mecanismos de
control que mantengan el orden, contrarrestando la tendencia natural hacia la
desorganización.
De modo convergente en el tiempo, el término Inteligencia Artificial (IA) fue creado y
usado por primera vez a mediados de la década de 1940. Sin embargo, recién el 31 de
agosto de 1955, J. McCarthy (Dartmouth College, New Hampshire), M. L. Minsky
(Harvard University), N. Rochester (I.B.M. Corporation) y C.E. Shannon (Bell Telephone
Laboratories) lanzaron una propuesta para reunir en el verano de 1956 a un grupo de
investigadores que quisieran trabajar sobre la conjetura de que cada aspecto del
aprendizaje y cada característica de la inteligencia podían ser tan precisamente
descriptos, que se podían crear máquinas que las simularan. El encuentro, ahora
conocido como la conferencia de Dartmouth, se llevó a cabo con tal éxito que el evento
acuñó el término Inteligencia Artificial y con él una nueva área científica de conocimiento.
Marvin Minsky , con la simpleza y sabiduría que lo caracterizan, definió: “La Inteligencia
Artificial es el arte de hacer máquinas capaces de hacer cosas que requerirían inteligencia
en caso de que fuesen hechas por seres humanos”.
Si pensamos a la inteligencia como la consecuencia lógica de la aplicación del
conocimiento adquirido, esta definición nos llevaría, o por lo menos nos ayudaría, a
entender por qué en inteligencia artificial hay tantas ramas (resolución de problemas,
manejo del lenguaje natural, sistemas expertos, etc.) y tantos campos de aplicación
(ciencias, ingeniería, economía, lenguas extranjeras, etc.).
Aplicaciones de la química
El campo de la química fue precursor como dominio de aplicación en el desarrollo de
sistemas expertos. La Universidad de Stanford, en California, Estados Unidos, desde su
Departamento de Ciencias de la Computación, desarrolló dos famosos sistemas expertos,
que se prefiguraron como casos líderes dentro de la Inteligencia Artificial y sirvieron como
base de gran utilidad en desarrollos posteriores.
Los sistemas expertos sirven para resolver cuestiones complejas, en las cuales hay
muchos factores involucrados, se necesita tener en cuenta una amplia base de datos
históricos, y donde se pueda definir alguna regla que permita la toma de decisiones
3 de 4
rápida. Están basados en conocimientos dedicados a tareas específicas que requieren
una gran cantidad de conocimiento de un dominio de experiencia particular, proporcionan
experiencia en forma de diagnósticos, instrucciones, predicciones o consejos ante
situaciones reales que se planteen y pueden servir también como herramientas de
entrenamiento. Son aplicables a numerosos campos de experiencia, como medicina,
actividades militares, ciencia, ingeniería, economía y derecho. 1) Son sistemas que imitan
el comportamiento de un humano. 2) Utilizan la información que el usuario le proporciona
para darle una opinión sobre cierta materia. Por tanto, el sistema experto le hace
preguntas hasta que pueda identificar un objeto que se relacione con sus
respuestas.
La creación de DENDRAL, liderada por J. Lederberg y E. A. Feigenbaum, entre otros,
constituyó un peldaño en el camino hacia la creación de futuros sistemas expertos. Como
Lederberg declaró, DENDRAL se creó con el fin de recoger las lecturas del espectrómetro
de masa para los contenidos y pesos de una molécula. Mediante un grupo de tablas, reglas
y conocidas excepciones, DENDRAL produciría todas las estructuras y formas
geométricas posibles que la molécula podría adoptar. De acuerdo con Lindsay, otro de sus
autores, DENDRAL fue “la primera aplicación importante de programación heurística
3
para el análisis experimental en una ciencia empírica”.
DENDRAL (1965-83)
El Proyecto DENDRAL (Dendritic Algorithm) fue uno de los primeros sistemas expertos.
DENDRAL comenzó como un esfuerzo por explorar la mecanización del razonamiento
científico y su formalización, trabajando dentro de un dominio específico de la ciencia: la
química orgánica. Otra preocupación era usar conceptos y técnicas de Inteligencia
Artificial para comprender mejor algunas preguntas fundamentales desde la filosofía de
las ciencias, incluso el proceso por el cual las hipótesis explicativas son descubiertas o se
interpretan como adecuadas. Después de más de una década de colaboración entre
químicos, genetistas e informáticos, DENDRAL se había convertido no sólo en una
demostración acertada del poder de los sistemas expertos basados en reglas sino
también un instrumento significativo para el análisis de estructuras moleculares, tanto en
el uso en laboratorios de investigación académica como en la industria. Usando un
paradigma de búsqueda plan-generate-test y datos de espectrometría de masas y otras
fuentes, DENDRAL propone estructuras plausibles para compuestos químicos nuevos o
desconocidos. Aunque DENDRAL ya no es un tema de investigación académica, la
versión más reciente de generador de estructuras interactivo, GENOA, ha sido licenciada
por la Universidad de Stanford para su uso comercial.
META-DENDRAL (1970-76)
META-DENDRAL es un programa inductivo que automáticamente formula nuevas reglas
para DENDRAL, para ser utilizado en el módulo de explicación de datos sobre
compuestos químicos desconocidos. Usando el paradigma plan-generate-test,
META-DENDRAL ha formulado con éxito reglas de la espectrometría de masas, tanto
redescubriendo reglas existentes como proponiendo nuevas reglas. Aunque
META-DENDRAL ya no es un programa en uso, sus aportes para el enriquecimiento de
las ideas sobre aprendizaje y descubrimiento están siendo aplicados a nuevos dominios.
Entre estas ideas está el concepto de que la inducción puede ser automatizada como una
búsqueda heurística; dividida en dos etapas –aproximada y refinada– para aumentar su
eficiencia; que el aprendizaje debe ser capaz de procesar datos confusos e incompletos;
y que aprender conceptos múltiples en forma simultánea es a veces un proceso
inevitable.
1
En este momento Wiener se refiere a la cibernética clásica o de primer orden, que se
inscribe dentro de la corriente realista u objetivista que considera que el conocimiento se
refiere a una realidad estable, objetiva, existente independientemente de que sea conocida
por el hombre.
2
Los tres principales procesos de la inteligencia humana que la inteligencia artificial tiene
que imitar son, en orden ascendente de dificultad:
4 de 4
1) Aprendizaje. Consiste en adquirir conocimientos e información, así como las reglas para
poder aplicarlos. Comprender que la inteligencia necesita de conocimiento previo fue uno
de los primeros hallazgos de la IA.
2) Razonamiento. Se trata de emplear esas reglas y conocimientos para alcanzar
conclusiones aproximadas o definitivas.
3) Autocorrección. Ser capaz de identificar sus propios errores y desechar esas formas de
actuación o conclusiones en el futuro.
3
La heurística trata de métodos o algoritmos exploratorios durante la resolución de
problemas, en los cuales las soluciones se descubren por la evaluación del progreso
logrado en la búsqueda de un resultado final.
Descargar