1.4 Antecedentes Históricos Los primeros estudios se realizaron con problemas de resolución geométrica, sin embargo, las limitaciones tecnológicas de la época tanto en Hardware como el Software fueron evidentes. Es decir los conceptos acerca del funcionamiento de la inteligencia rebasaron a la tecnología de la época, por lo que su implementación fue impráctica. 1.4.1 Década 50’s En la década de los 50's se generó un interés especial por parte de los Pedagogos y Psicólogos, por encontrar los métodos generales de solución de problemas con el fin de que estos métodos se pudieran enseñar a los estudiantes y con ellos se mejorara su preparación. Se había observado ya en aquel entonces que las personas aún conociendo toda la información necesaria para resolver correctamente un problema (definiciones, fórmulas, métodos, etc.) son muchas veces incapaces de conseguirlo, realizando con frecuencia razonamientos defectuosos, así como conclusiones erróneas. Como preámbulo a inicios de los 50’s Alan Touring propone un método para evaluar la inteligencia de una máquina y que es descrito en la sección 1.5. El nacimiento de la Inteligencia artificial se relaciona principalmente a la conferencia Darmouth en el año de 1956, donde Newell, Shaw y Simon presentaron sus programas para demostrar las proposiciones lógicas Logical Theorist . La expresión Inteligencia Artificial la propuso en aquel mismo año por John McCarthy. En los años siguientes a 1956 se dieron las condiciones para el desarrollo del primer programa demostrador de teoremas basado en lógica proposicional (General Problem Solver, por Newell, Shaw y Simon en 1957). 1.4.2 Década 60’s En la década de los 60's con la llegada del lenguaje LISP se dio uno de los primeros pasos para avanzar dentro de los terrenos de la I.A. Sin embargo los sistemas desarrollados sólo eran simuladores de aplicaciones específicas que distan todavía de nuestra definición de la IA. LISP, desarrollado por McCarthy en 1959 y publicado en 1962 es un lenguaje que reconoce solamente dos tipos de entidades, átomos y listas; la lista es una estructura en árbol binario. El LISP no distingue entre procedimientos y datos y es muy modular, es muy fácil de añadirle reglas o conocimientos. Esta última cualidad permitió su rápida adopción por los investigadores de IA durante la década de los 60’s. En esta década se sentaron los principios básicos de la investigación en las estructuras en árbol así como el movimiento de ideas empleadas actualmente en la resolución de problemas y los sistemas expertos. Los textos Newell y Simon (1972) y Nilsson(1971) marcan el final de este período. Los principales métodos en estrutura de árbol, que todavía se emplean hoy en los programas de sistemas expertos, estaban ya disponibles en aquel tiempo. 1-8 Gustavo León 2015 Pero las realizaciones de los investigadores se concentraron especialmente en problemas fáciles de describir, pero muy complejos de resolver, por ejemplo, el juego del ajedrez o la demostración de teoremas matemáticos. Precisamente lo que ha llegado a ser el principal campo de aplicación de la IA son los problemas imprecisamente definidos que constan de un gran número de reglas y de hechos pero de una complejidad estratégica limitada, no habían sido abordados en aquel tiempo. Los investigadores comenzaron a considerar problemas que eran simples de describir donde todo era conocido con certidumbre y donde tenía que construirse una profunda y potencialmente amplia estructura de árbol. En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una 1.4.3 Década 70’s En la década de los 70's los programas e investigaciones se enfocan hacia la naturaleza del conocimiento. Investigadores de distintas procedencias (informática, psicología filosofía y matemáticas) intentan determinar lo que es el conocimiento. Después de la manera más natural, dirigen su atención a la más compleja de las formas del conocimiento, es cámara, sino también la comprensión, por parte del ordenador, de lo que estas imágenes representan. Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques", en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn. decir, a la que es inexacta, mal definida e implícita, en otras palabras: el sentido común del hombre de la calle. En esta década (70’s) se desarrollan los primeros lenguajes orientados a la I.A. (ver Tabla “Lenguajes Orientados a la Inteligencia Artificial”), En esta década los investigadores sintieron la necesidad de enriquecer el LISP y de diseñar lenguajes en los que el control del razonamiento deductivo fuese fácil de escribir y de comprobar, siendo éste el 1-9 Gustavo León 2015 período en el que surgen los primeros lenguajes orientados a objetos como son el SIMULA-67 (Dhal, Myhrhaug, Nygaard, 1970) y SMALLTALK-72 de Xerox (Kay, 1976) que es el primero y genuino lenguaje orientado a objetos. Es en esta época cuando surge también la primera generación de sistemas expertos que se constituyeron en los antecesores de los actuales sistemas inteligentes. Dos grandes éxitos de sistemas desarrollados en la década de los 70's son PROSPECTOR desarrollado por Standford Research Institute (Duda & Hart) en 1974, que ha ayudado a la detección de importantes yacimientos minerales. Este sistema experto dio mucho de qué hablar, al ser la clave para el descubrimiento de un yacimiento de Molibdeno cuyo valor en su tiempo fue estimado en alrededro de 100 millones de dólares. en 1986 representó un ahorro de 40 millones de dólares anuales. En esta misma década de los 80’s se retomaron conceptos y teorías sobre Redes Neuronales para convertirse en una de las fuentes más promisorias en busca de la Inteligencia Artificial. El lenguaje de programación Python fue creado a finales de los ochenta por Guido van Rossum en el Centro para las Matemáticas y la Informática (CWI, Centrum Wiskunde & Informatica), en los Países Bajos, como un sucesor del lenguaje de programación ABC, capaz de manejar excepciones e interactuar con el sistema operativo Amoeba.3. Python es un lenguaje de programación interpretado cuya filosofía hace hincapié en una sintaxis muy limpia y que favorezca un código legible. Se trata de un lenguaje de programación multiparadigma, ya que soporta orientación a objetos, programación imperativa y, en menor medida, programación funcional. Es un lenguaje interpretado, usa tipado dinámico (habilidad de que una misma variable pueda tomar valores de distinto tipo en distintos momentos) y es multiplataforma. Y el sistema MYCIN(Shortliff e) diseñado en la Universidad de Standford en el año de 1977 el cual es un sistema de diagnóstico de enfermedades infecciosas de orden bacteriano. 1.4.5 Década 90’s En la década de los 90’s nuevas técnicas fueron probadas como los Modelos de Markov Ocultos y los Algoritmos Genéticos, destacando El Sistema Experto “Deep Blue” que en 1997 ha derrotado al más grande ajedrecista de nuestros tiempos: Gary Kasparov, lo cual ha sido considerado como uno de los más grandes logros de la IA hacia el final del siglo XX. 1.4.4 Década 80’s En la década de los 80’s se comenzaron a comercializar los Sistemas Expertos. El primer sistema comercial denominado R1 (McDermott, Digital Equipment Corporation1982), se utilizaba en la elaboración de pedidos de nuevos sistemas de cómputo. Esto En los 80's y los 90's también se han dado cambios significativos debido al vertiginoso avance en la parte de 1-10 Gustavo León 2015 dentro de la investigación y desarrollo de ciertas tecnologías. Esta ya es una nueva disciplina, a la cual se aplicaran principios biológicos a sistemas computacionales ya que promete ser la rama más importante y revolucionaria en cuanto a la tecnología. Las aplicaciones de la vida artificial se pueden encontrar en alguno de estos casos: hardware de los sistemas. El alto grado de integración y la reducción del costo en este renglón han permitido desarrollar nuevas técnicas y poner en práctica viejas teorías. • Los sistemas complejos adaptativos, • 1.4.6 Década 00’s En esta Primera década del siglo 21 se ha generado un debate en dos grandes corrientes una denominada “neats" y otra llamada “scruffies”. Mientras los “neats” buscan y demuestran con métodos científicos y desarrollan descripciones formales, los “scruffies” se apoyan en técnicas empíricas y tratan de simplificar la disciplina con explicaciones más directas sin palabras rebuscadas ni complicaciones. • • • En esta década es también en la cual tiene un gran auge un nuevo concepto relacionado con la IA denominado, Vida Artificial (VA). que han dado paso a una nueva generación de sistemas expertos, que son capaces de aprender y evolucionar. Los autómatas celulares, que imitan funciones de los organismos celulares en programas complejos, aplicando el conocimiento biológico de los mismos a principios prácticos de organización en sistemas de cómputo. Los agentes autónomos que son cada día más usados en aplicaciones de búsqueda. En el conocimiento de comportamientos adaptativos, para el desarrollo de robots adaptativos. La computación cuántica, que a través del uso de las propiedades cuánticas de los átomos y sus desplazamientos, posibilitara una nueva forma de cálculos binarios. En muchos campos de la vida artificial se plantea dos tipos de simulaciones las cuales ayudan a una toma de decisión en el mundo real las cuales son: La vida artificial pretende crear vida mediante la imitación de procesos y comportamientos de los seres humanos, todo esto con el objetivo de solucionar problemas del mundo real. • La primera de ellas está basada en la realidad, centrándose en los aspectos “a más alto nivel” de cada problema utilizando fórmulas y reglas o hechos históricos que ayudan a la toma de decisiones. Un ejemplo de esto pueden ser las fórmulas del tiro La vida artificial que tienen como objetivo la aplicación del conocimiento sobre el funcionamiento de cierto fenómeno el cual se denomina de una manera genérica: vida, y su aplicación 1-11 Gustavo León 2015 parabólico ya que estos pueden entenderse como modelos de simulación. • La segunda también está basada en la realidad, poniendo atención en los aspectos “a más bajo nivel”, mediante fórmulas o reglas, una de las ventajas de este tipo de simulaciones es que sus características son más sencillas, ya que suelen ser más fáciles de detectar. 1.4.6 Década 10’s Watson consistentemente superó a sus oponentes humanos en el dispositivo de señalización empleado por el juego, aunque tuvo problemas en responder a algunas (realmente pocas) categorías, notablemente compuestas de pistas cortas con pocas palabras. Para cada pista, las respuestas más probables de Watson fueron mostradas por la pantalla de televisión. Watson tuvo acceso a 200,000,000 páginas de contenido, estructurado y no estructurado, que consumió cuatro terabytes de almacenamiento en disco, incluyendo el texto completo de la Wikipedia en inglés. Watson no fue conectado al Internet durante el juego. En nuestra década actual, un evento relevante ha sido, la competencia entre una supercomputadora creada por IBM (nuevamente) y que denominaron “Watson” (en honor al primer presidente y fundador de la compañía), y dos humanos sobresalientes en el tipo de desafío en el que se enfrentaron. También podemos incluir como parte de la cronología de la década 10’s las iniciativas para desarrollar el Conectoma Humano, mencionadas en la sección anterior correspondiente a los Paradigmas de la I.A. A lo largo de tres días en febrero de 2011, para probar las capacidades reales de la máquina, se llevó a cabo una partida especial de dos juegos en el concurso de televisión estadounidense Jeopardy!, derrotando a sus dos oponentes humanos: Brad Rutter, el mayor ganador de dinero en toda la historia del programa, y Ken Jennings, el poseedor del récord por la racha más larga de campeonatos (después de haber ganado 75 partidos). Ejercicio 1.c Ver el video de Kasparov vs. Deep Blue Formar equipos de trabajo según instrucciones del profesor y analizar los paradigmas mostrados en el video. 1-12 Gustavo León 2015 le permite prácticamente cualquier cosa. Por ejemplo, si es interrogada sobre la pregunta “¿Cuánto es 12,324 por 73,981?”, podría tardarse algunos minutos en responder. Nuestras conclusiones al respecto de la prueba de Turing son: • Su naturaleza empírica la limita a un nivel básico • No existe una medición de la magnitud de Inteligencia que una máquina posee 1.5 Prueba de Turing Una de las preguntas más importantes a resolver por cualquier científico o investigador en un proyecto, es la determinación de si éste ha sido exitoso. La Inteligencia Artificial no es la excepción. ¿Cómo sabremos si hemos construido una máquina inteligente? Por su sencillez, no requiere demostraciones ni justificaciones. En 1950, Alan Turing propuso el siguiente método para determinar si una máquina puede pensar o no. Este método ha sido denominado como Prueba de Turing. Para efectuar este método, se necesitarán dos personas y la máquina que va a ser evaluada. Una de las personas jugará el papel de interrogador. El interrogador puede de 1.5.1 Premio Loebner El Premio Loebner es una competencia anual que concede premios a un programa de computadora que esté considerado por el jurado que lo compone, como el más inteligente de los que se han presentado. El formato de la competencia sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de computadora, una de ellas que se encuentra bajo el control de un sistema de cómputor, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa de computadora. hacer preguntas ya sea a la persona o a la computadora tener conocimiento de cual es cual. El interrogado sólo puede identificarlos como A ó B y su tarea será la de determinar cuál de ellos es la persona y cual la máquina. La meta de la máquina es engañar al interrogador para hacerlo creer que es la persona. Si la máquina tiene éxito en esto, se concluirá en que la máquina puede pensar. A la máquina se 1-13 Gustavo León 2015 ¿Cuáles considera que son los hechos de la Inteligencia Artificial y lo que pudiera representar una ficción? Ejercicio 1.d Ejercicio 1.e Formar equipos de trabajo según instrucciones del profesor y responder a los siguientes cuestionamientos: Se otorgará un punto extra acreditable al primer examen teórico, para aquellos que coloquen una pregunta de la sección 1.4 (Antecedentes históricos) de esta unidad como post en muro del facebook de la materia. Para acreditarse el punto alguien diferente debe de contestar correctamente la pregunta en cuyo caso el que responda tendrá también un punto extra. El máximo de puntos acreditables por alumno es de 5. En la página http://uat.gustavoleon.com.mx pueden encontrar la liga así como la fecha límite para completar el ejercicio. ¿Es la Inteligencia humana perfecta? ¿Es la Inteligencia humana superior a la de las máquinas? ¿En qué aspectos si, y en qué aspectos, no? ¿Sería deseable duplicar solamente aspectos positivos de la Inteligencia humana o los negativos también? Son las emociones parte de la inteligencia o un hecho separado de ella? 1-14 Gustavo León 2015