1 Apunte de la cátedra UBA LAS CIENCIAS COGNITIVAS: Nuevo paradigma Prof. Ma. del Pilar Ferro Un PARADIGMA es un conjunto de creencias implícitas o explícitas, aceptadas por acuerdo de la comunidad científica, con postulados sobre los fenómenos que constituyen el objeto de estudio, los cuales ya no son puestos en duda. Todo cambio de paradigma es revolucionario, no acumulativo. El pensamiento psicológico de principio del siglo XX estaba hegemonizado por dos grandes corrientes: el conductismo y el psicoanálisis. El Conductismo Los defensores de la primera corriente de pensamiento sostenían un punto de vista periférico del comportamiento. Establecían que la conducta está compuesta de respuestas elementales y puede ser sucesivamente analizada por métodos científiconaturales. La conducta está así enteramente compuesta de secreciones glandulares y movimientos musculares, es decir, reductible a procesos físico-químicos. De tal forma que siempre hay una respuesta inmediata de alguna clase a todo estímulo, estableciéndose entonces un determinismo estricto de causa-efecto en la conducta. Dado un estímulo se puede predecir la respuesta u, observando qué reacción tiene lugar, es posible predecir cuál es el estímulo que la provocó. De esta forma niegan que para explicar un comportamiento hubiese que recurrir a procesos centrales que intermediaran entre el estímulo y la respuesta. El sistema nervioso animal cumple, entre otras, la función de recoger y procesar información del entorno. Este procesamiento da lugar a una variedad de transformaciones internas en el organismo antes que éste produzca una respuesta. Esquemáticamente pueden distinguirse 3 posibles jerarquías en la complejidad de dicho procesamiento, del más sencillo al más complejo comprenden: 1. Las acciones que derivan de automatismos 2. Las funciones vitales reguladas 3. Las que involucran procesos cognitivos superiores. En cada uno de estos niveles el circuito que media entre el estímulo y la respuesta es más largo y menos directo, está cada vez más interrumpido y resulta más arriesgado tratar de efectuar una correspondencia biunívoca entre uno y otra. La primera jerarquía o nivel, y la más sencilla, es la de los automatismos y los reflejos (ej.: contracción pupilar ante la luz). El flujo de información no puede tomar otro curso que el establecido y las respuestas están directamente ligadas a los estímulos. En organismos superiores ciertos reflejos pueden desaparecer con la maduración del individuo (ej.: reflejo de succión). En un 2do. Nivel, más complejo, se encuentran las funciones vitales reguladas. Las vinculaciones del sistema nervioso con otros sistemas del organismo se constituyen en una parte importante de este nivel. Entre el grupo neuronal aferente y el motor, se intercala una etapa de procesamiento en la que la medida de la acción desencadenada regula su propia intensidad en los instantes subsiguientes. El proceso puede descomponerse en 2 etapas: 1. El organismo encara una respuesta con el único dato del estímulo recibido 2. Esa respuesta junto con el estímulo son datos que se usan para elaborar otra respuesta más adecuada. Cuando eso sucede se dice que hay un lazo de realimentación. Similar a lo que sucede con un termostato o con un flotante que regula la entrada de agua a un tanque (ver ejemplo en artículo de Ciencia, Cibernética y Sistemas). Por ejemplo: beber, comer o la actividad sexual son acciones reguladas por realimentación. En el caso de la sed el papel del termómetro lo desempeña el riñón, que detecta la pérdida de líquido y envía una señal química. Esta consiste en una enzima que actúa sobre las neuronas del hipotálamo encargado de producir la sensación de sed. El tercer nivel corresponde a las conductas reguladas por las emociones y procesos cognitivos. En el caso de las emociones profundas el hipotálamo participa como parte del sistema límbico y a través de copiosas vinculaciones con la corteza cerebral. Actúa como elemento reforzador la memoria que, al sufrir constantes agregados y modificaciones , agrega un elemento de plasticidad a todo el sistema. Es teniendo en cuenta estos elementos que las explicaciones conductistas que pretendían establecer una correspondencia universal y directa entre estímulos y respuestas se vuelven insuficientes pues, una vez que el estímulo sensorial es traducido a señales sensoriales se desencadena un complejo procesamiento en el que interviene la evocación de situaciones pasadas y la propia modificación de ese “archivo”. La conducta, tomada como el espectro de respuestas al medio pasa a ser patrimonio de cada individuo, único como su historia y que no se comparte sino en aspectos muy generales con los de otros individuos de su misma especie. El Psicoanálisis El psicoanálisis basa sus postulados en los procesos inconscientes antes que en los procesos conscientes, su objeto de estudio es el inconciente. Es así que los procesos cognitivos entonces son definidos como centrales por el conductismo y como conscientes por el psicoanálisis. Hacia mediados del siglo los XX los postulados del conductismo comienzan a ser cuestionados desde fuera y dentro de la propia comunidad conductista, al mostrarse impotente para interpretar el comportamiento humano más complejo. El paradigma conductista estaba llegando a su fin. Surge así un nuevo paradigma para explicar los fenómenos llamados centrales para unos, conscientes para otros y que serían considerados ahora como fenómenos mentales, nos referimos al paradigma cognitivo. Se desarrolla de un nuevo modelo para entender a los seres humanos: se propone ver a los seres humanos como dispositivos de procesamiento de información y describirlos en los mismos términos que se utilizaba para describir dispositivos de procesamiento de información más simple. Se presta atención a los estados centrales, no observables, entre los estímulos y las respuestas manifiestas. La ciencia (o ciencias cognitivas) “es el campo de investigación del conocimiento, humano y artificial integrado por una amplitud interdisciplinar jamás conocida” (Tudela Garmendia). “Conjunto de actividades científicas cuyo objeto de 2 estudio es el conocimiento” (Damián Justo). Es el “campo multidisciplinario compuesto por la Inteligencia Artificial, las neurociencias, la lingüística, la psicología cognitiva, la epistemología, etc. dedicado al análisis científico del conocimiento en todas sus dimensiones. Sus aplicaciones constituyen las Tecnologías de la cognición. (Varela, 1990). Esta tecnología de la cognición le brinda al hombre una nueva imagen de sí mismo, de su mente. La imagen de una maquinaria que maneja representaciones simbólicas o subsimbólicas y de forma automática produce efectos que se parecen mucho al pensamiento humano. Se pone énfasis en el estudio de todos los sistemas inteligentes, sean naturales o artificiales. En el desarrollo de estas ideas ha tenido fundamental importancia la llamada “metáfora computacional” : la comparación entre cómo trabaja la mente humana y los procesos que realiza una computadora en su funcionamiento, especialmente en lo que se refiere a su estructura básica y a su software. “Con el tiempo, el antiguo modelo estímulo-respuesta llegó a ser sustituido en la línea principal de la psicología por la idea central de procesamiento de información, que implica atención selectiva, representaciones de bases de datos (...) y otras cosas análogas. Muy pronto intervinieron la metáfora y luego la tecnología del control central y rutinas ejecutivas (...) Hoy día, las cuestiones de este orden se han hecho corrientes, no sólo en psicología cognitiva, sino en las teorías del desarrollo, en la producción y comprensión del lenguaje y sobre todo en la psicología aplicada (...) se da una curiosa ironía que no escapará a esta labor (...) procedía del reciente campo de la computación y fue resultado del esfuerzo llevado a cabo para describir cómo se puede crear comportamiento inteligente en máquinas (...) aprendimos que el comportamiento complejo no es inherente al lenguaje mecánico de la computadora, sino a los programas que construimos para guiar sus operaciones (...) La fuente de la inteligencia de la máquina es la potencial capacidad del que crea el programa. Lo singular de la mencionada ironía es que, forzosamente, proyectamos nuestras propias características en la máquina y a partir de esta proyección hemos sido por fin capaces de inferir lo que supone ser inteligente. La computadora, que fue primero una pantalla de proyección, llegó a ser finalmente un espejo para el hombre” (Bruner, 1982). La ciencia cognitiva surge de una combinación de diferentes disciplinas académicas y comprende una gama muy amplia de campos intelectuales, en comparación con otras disciplinas académicas. La teoría de la comunicación aportó la idea de retroalimentación (feed-back) Tolman afirma que el cerebro “se parece mucho más a una torre de control que a una de esas antiguas centralitas telefónicas. Los estímulos a los que se permite pasar no están conectados con las respuestas que se emiten mediante sencillas conexiones directas”. Además de la idea de retroalimentación las investigaciones cibernéticas trajeron una analogía del ser humano como manipulador de símbolos, como transmisor y elaborador de información y como sujeto que debe usar esa información para conocer y para tomar decisiones. Varios autores coinciden en reconocer que la misma surge entre los años 1955 y 1960 e incluso lo sitúan más precisamente en el año 1956 a raíz de celebrarse un simposio sobre la ciencia de la información en el Instituto Tecnológico de Massachussets (MIT) donde se reunieron por primera vez varios pensadores de diferentes disciplinas que iban a desempeñar un papel fundamental en el surgimiento de la ciencia cognitiva. La teoría de la información junto con la ciencia de la computación fueron estimuladas por los desafíos prácticos de la 2da. Guerra Mundial que los enfrentaba a la necesidad de mejorar su conocimiento de cómo codificar, decodificar, comprender y transformar la información transmitida. Los avances en el procesamiento de la información y en la computación artificial proporcionaron a los investigadores de varios campos nuevos recursos intelectuales para pensar de manera formal y rigurosa en los procesos cognitivos. Proporcionaron una nueva terminología para los teóricos en psicología, permitiéndoles pensar en términos como algoritmos, buffers de información, embotellamiento de flujo, bucles de retroalimentación, programas, etc, vocabulario propio de las ciencias informáticas. Se comenzó a considerar al ser humano como poseedor de una inmensa base de datos permanente (memoria a largo plazo) y un sistema transitorio (memoria a corto plazo o de trabajo) que le permitía manipular momentáneamente una cantidad limitada de información, independientemente de su paso al almacén a largo plazo. Para manejar dicha información el sujeto debía disponer de algo parecido a los programas de computadora. Es decir, una serie de instrucciones o procedimientos que le permitieran tomar decisiones y resolver problemas más o menos complejos, desde hacer sumas de dos dígitos hasta decidir la fecha de su casamiento. Estos programas debían tener la suficiente generalidad como para ser aplicados a un amplio conjunto de situaciones similares. LA METAFORA COMPUTACIONAL Cuando los científicos utilizan una metáfora no lo hacen de igual forma que se usa en la vida cotidiana, para ellos toma el valor de un modelo que permite diseñar hipótesis y supuestos acerca de procesos que no son evidentes para la experiencia directa. Se están valiendo de un modelo del cual toman una serie de ideas básicas para comprender un conjunto de fenómenos que, de lo contrario, carecerían de sentido. La metáfora del ordenador (a veces llamada analogía) es un modelo general utilizado por quienes pertenecen al campo de las ciencias cognitivas, más allá de las diferencias de conceptualizaciones que se manifiestan en su seno. De hecho, con el tiempo, han surgido críticas importantes representadas por las visiones narrativa y conexionista, que son sus sucesoras. Propone que la mente humana y el ordenador son sistemas de procesamiento funcionalmente equivalentes. Ambos son capaces de resolver situaciones complejas y se presentan como típicamente representativos de la inteligencia, ya fuera ésta natural o artificial. Se constituye así en un nexo entre la psicología y la cibernética que amplía el enfoque de los problemas relativos a las funciones mentales y llevó a desdibujar los límites de la categoría de los “objetos con mente”. Uno de los objetivos centrales del uso de la metáfora es poder comprender cómo el ser humano adquiere el conocimiento. Esta adquisición consta de procesos básicos que son similares tanto en el ser humano como en el ordenador. 3 En ambos casos existe un sustrato físico: el cerebro en el ser humano y el hardware en el ordenador. También ambos poseen un software: la mente en el caso humano (donde podemos distinguir contenido y estructura) y los programas para la computadora. El software es algo similar a las estructuras mentales debido a que los contenidos son comparables a la información que se introduce en el ordenador. (Ver Modelos procedurales y declarativos, Apunte Rehab. Comp. y T.C.C.) El desafío de Alan Turing Alan Turing fue un matemático quien en 1950 publicó el artículo Computing Machinery and Inteligence, que dio lugar a la conocida y famosa Metáfora del Ordenador. Este autor planteó lo siguiente: “Supongamos que en lugar de hacer especulaciones subjetivas sobre qué es pensamiento, hacemos una prueba objetiva. El test consiste en crear una situación en la que una persona hace preguntas a seres que están en otra habitación y a los que no puede ver ni tocar. El método para hacer las preguntas puede consistir en dárselas escritas a un mensajero que se encarga de llevarlas hasta la habitación donde están los seres interrogados y de traer de vuelta las respuestas dadas por esos seres, escritas en papeles. Supongamos que esos seres son dos: un hombre B y una máquina A. Si quien formula las preguntas fuera incapaz de distinguir a través de las respuestas recibidas, al hombre B, al que interroga sobre sus pensamientos, de la máquina A, a la que pregunta sobre los suyos, podríamos decir que tanto el hombre como la máquina piensan.” Siguiendo esta línea de razonamiento Turing entonces plantea que si la máquina imita perfectamente al hombre en sus manifestaciones cognitivas, por qué no decir también que “piensa”. En realidad este desafío que nos propone Turing debe entenderse como una metáfora. Una metáfora lo suficientemente profunda que fue capaz de movilizar el pensamiento dominante hasta ese momento, provocando una verdadera revolución que llevó a la creación de diversos enfoques dentro del campo de las ciencias cognitivas. La metáfora quedó expresada de la siguiente forma: La mente es al cerebro lo que el software es al hardware. Fueron varios los esfuerzos por explicar este planteo dando lugar al surgimiento de diferentes enfoques marcando ciertos matices conceptuales. Aquí sólo haremos referencia a los primeros en surgir y que se conocen como las dos versiones de la analogía del ordenador y han dado surgimiento a dos disciplinas prácticamente independientes pero interconectadas. 1.- La versión fuerte representada por los defensores más ortodoxos quienes aceptan la analogía en un sentido totalmente literal, dando lugar al sub-paradigma de la Computación sobre Representaciones y teniendo su aplicación en los trabajos de Inteligencia Artificial. Consideran abiertamente los pensamientos humanos como cómputos en sentido cabal. 2.- La versión débil cuyos seguidores aceptan la analogía sólo como metáfora. Utilizan el lenguaje computacional como inspirador teórico sin someterse a todas las implicancias que marca la analogía. Se trata del sub-paradigma del Procesamiento de la Información. Se apoyan en la investigación empírica del comportamiento inteligente humano para contrastar directamente en los sujetos sus teorías y es así como elaboran sus interpretaciones teóricas. Esta interpretación dio lugar al surgimiento de la Psicología Cognitiva. Retomando la metáfora podemos apreciar que se establecen varias analogías diádicas en una sola: 1.- La relación mente-cerebro con software y hardware 2.- La mente análoga al software 3.- El cerebro análogo al hardware. 1.- La primera de estas analogías es la más básica y es el sentido sobre el cual debe ser interpretada la propuesta de Turing. Constituye una primera aproximación del funcionalismo que es el sostén filosófico sobre el que se desarrollaron las investigaciones del campo de la Inteligencia Artificial. El funcionalismo sostiene que lo esencial de la mente está en la estructura causal de los estados mentales, en su estructura y lógica de funcionamiento, en su estructura funcional y no en la base neurofisiológica que la implementa físicamente. A partir de 1980 cobra fuerza otra perspectiva: el conexionismo. Estudia modelos abstractos del funcionamiento cerebral (simulados por computadora) y postula un nuevo tipo de representaciones: “representaciones distribuidas en paralelo”. La información, que hasta el momento se consideraba contenida en los símbolos, se plantea que está presente en la distribución de las conexiones entre elementos de una red neuronal y en la fuerza de esas conexiones. 2.- La analogía mente-software es la que ha tenido mayores consecuencias en los desarrollos teóricos y empíricos de la psicología cognitiva. Al utilizar el razonamiento por analogía se intenta generalizar algún conjunto de propiedades de un dominio A a un dominio B, siempre que: - Haya argumentos que apoyen tal generalización - El dominio A sea más comprensible que el dominio B - Esa generalización sea susceptible de algún tipo de comprobación. Es así que, el hacer análoga la mente al software, permite a los psicólogos cognitivos entender el funcionamiento de la mente a través de la comprensión de los procesos del funcionamiento de los ordenadores, donde cuentan con herramientas de análisis más confiables que la introspección. 3.- La tercera de las analogías -cerebro-hardware-, es muy discutible y resulta difícil de sostener debido a las diferencias de estructura entre el cerebro y las computadoras. En síntesis, la analogía del ordenador incluye tres sentidos que implican diferentes cosas, de los cuales sólo dos se sostienen; uno desde la Inteligencia Artificial y el otro desde la Psicología Cognitiva. Para Turing las máquinas pueden pasar con éxito su test por poseer una propiedad que las define esencialmente, son universales, capaces en potencia de computar cualquier algoritmo bien definido, cualquier procedimiento efectivo. El hecho que actualmente hay determinados cómputos que no pueden realizar no es relevante para el planteo de fondo de Turing ya que él no se refiere a los ordenadores materiales sino a una máquina abstracta de carácter universal. 4 Turing sostiene que mientras los pensamientos de las personas puedan entenderse como resultantes de procedimientos efectivos (de algoritmos bien definidos) podrán ser imitados por una máquina que tiene dos características esenciales, ser muy simple y universal. Esta máquina abstracta había sido ya imaginada por este autor, quien la describió en un artículo considerado un clásico de la teoría de la computación, en el año 1936. Esta máquina abstracta y universal es antecesora de las actuales computadoras ya que la misma funcionaba separando instrucciones y datos, empleaba un código binario y tenía estados discretos. Estas características son recogidas posteriormente por John von Neumann quien las aplica a materiales físicos concretos, creando la que puede considerarse primera versión de las actuales computadoras. Se puede decir, entonces, que un ordenador puede entenderse como una realización física de la máquina universal de Turing. Implicancias de la analogía Aceptar la analogía en forma literal nos lleva a plantearnos diferentes implicancias: 1.- Suponer que las operaciones mentales que realizan los seres humanos pueden ser descritas como algoritmos bien definidos. 2.- Ubicarse en un nivel de descripción puramente funcional 3.- Considerar el procesamiento de información llevado a cabo por los seres humanos como estrictamente secuencial. 4.- Provocar una disociación teórica entre dos entidades: la mente fenomenológica y la mente computacional. Veamos más detalladamente este punto. La psicología cognitiva concibe a la mente como un sistema de procesamiento de la información. La información durante el proceso mental sufre procesos computacionales (recorre estructuras representacionales, se recodifica, etc.). La mente así postulada es una mente computacional. En la medida que los seres humanos no nos damos cuenta de esos procesos significa que en su gran mayoría son inconcientes. Tenemos entonces lo que podemos denominar: mente fenomenológica conjunto de los procesos concientes- y mente computacional -conjunto de procesos inconcientesEl problema surge cuando la psicología cognitiva construye casi todas sus teorizaciones a partir de la noción de causalidad mental y, por la naturaleza misma de la noción de computabilidad, es en la mente computacional donde se ubican las causas. Por lo tanto la mente fenomenológica (procesos concientes) tiende a quedar fuera de las teorizaciones de la psicología cognitiva, la conciencia queda reducida a una espectadora de las computaciones mentales y eso constituye un problema: “problema mente-mente”, el de la relación entre la mente computacional y la mente fenomenológica. PSICOLOGIA COGNITIVA Dentro de las Ciencias Cognitivas, la psicología cognitiva se ocupa de estudiar las estructuras y procesos psicológicos comprometidos en nuestro conocimiento del mundo y de nosotros mismos. Es el estudio científico de los procesos cognitivos que realiza la mente humana para conocer su entorno y que pueden estar relacionados directa o indirectamente con el comportamiento. Por lo tanto puede hablarse en dos sentidos del término cognitivo: 1.- Estudio específico de los llamados procesos intelectuales de mayor o menor complejidad -percepción, atención, memoria lenguaje y razonamiento-. “Intenta entender la naturaleza de la inteligencia humana y cómo piensan las personas” (Anderson). 2.- Orientación general para estudiar aspectos del comportamiento de los seres humanos. “El análisis científico de los procesos mentales y estructuras de memoria humanos con el fin de comprender la conducta humana” (Mayer). Cabe aclarar que este autor utiliza el término memoria como sinónimo de conocimiento. En síntesis: la cognición y el comportamiento. La analogía o metáfora del ordenador es usado por muchos psicólogos cognitivos en sus aspectos funcionales, no físicos. Se pretende disponer de un modelo que permita diseñar hipótesis y supuestos precisos acerca de procesos que no son obvios para la experiencia directa. Desde este punto de vista funcional, tanto la computadora como la mente, codifican, almacenan, recuperan y operan con inputs. Ambos procesan información, aunque no se considera una identificación cualitativa de ambos tipos de procesamiento. Horward Gardner, en 1985, ha utilizado la expresión “presupuestos centrales y características estratégicas” para referirse a los supuestos fundamentales, los metapostulados, de la psicología cognitiva. Señala que la misma se caracteriza por cinco rasgos fundamentales: 1.- Enraizamiento en los problemas filosóficos básicos 2.- Tendencia a mantener relaciones interdisciplinarias 3.- Establecimiento del nivel de análisis en el estudio de las representaciones 4.- Escasa importancia y consideración de la influencia del afecto, el contexto, la cultura y la historia en el conocimiento humano. 5.- Influencia mayor o menor del ordenador como metáfora del conocimiento humano. Se postula la existencia de un nivel de representación compuesto por símbolos, reglas, imágenes; todo lo que encontramos entre lo que ingresa (input) y lo que egresa (output) de nuestra mente. Se trata de representaciones mentales que no se pueden considerar como un solo tipo de cosas, sino como un nombre que podemos utilizar para referirnos a muchos tipos diferentes de almacenamiento de información accesible. Muchas representaciones aparentemente unitarias tienen múltiples restricciones a nivel 5 neurológico: por ej. una función aparentemente básica como el reconocimiento de objetos está mediada por múltiples vías neurológicas separables También se establece, con diferente grado de aceptación, que para comprender la mente humana es esencial utilizar la metáfora del ordenador. Disminuye el énfasis sobre aspectos como los afectos y emociones, las variables históricas y culturales, aunque cada vez son más quienes sostienen dentro de la disciplina que las variables afectivas, culturales y contextuales son imprescindibles para mostrar una visión acabada del conocimiento humano. Expresan la importancia de la utilidad de los estudios interdisciplinarios con la gran esperanza que surja, finalmente, una ciencia cognitiva unitaria y unificada. Cabe destacar que todas estas convicciones no son unánimemente aceptadas en la comunidad científica. El nivel de explicación que interesa a la psicología cognitiva es el que tiene relación con dos cuestiones esenciales: 1.- la estructura del sistema computacional 2.- las operaciones básicas que realiza la mente humana. 1.- Con respecto al primero la psicología cognitiva toma los modelos básicos de los diferentes sistemas de almacenamiento de información de las computadoras: a) memoria RAM (transitoria, de capacidad limitada, no supone su permanencia en el sistema) comparable a la memoria humana a corto plazo. b) memoria ROM (permanente, mucha mayor capacidad). Comparable a la memoria humana a largo plazo. Ambas memorias (RAM-ROM) y en ambos casos (en el sistema natural y en el artificial – hombre o máquina-) no son almacenes de información que sólo tienen una relación de contiguidad sino que presentan una estrecha relación, de manera que los programas que se usan en la primera (RAM) determinan la manera en que recibe y puede guardar la información la segunda (ROM) y, de acuerdo a cómo ha sido almacenada esa información en la ROM, le resultará más sencillo a la RAM recuperarla para poder utilizarla. Cabe aclarar que si bien se toma esta comparación a grandes rasgos, la psicología cognitiva ha venido sosteniendo la existencia de tres “almacenes” o fases con respecto a la memoria: sensorial, a corto plazo y a largo plazo e incluso se llega a hablar de un correlato neurológico diferente entre las mismas. En esta oportunidad no ahondaremos en el tema. 2.- En relación a la segunda, toma la idea de programa y de procesamiento de información en serie o sucesivo y no en paralelo o simultáneo. El término programa es tomado en el sentido de dar cuenta de un “plan general” que preside la organización de la cognición y el comportamiento humano, de cómo los seres humanos jerarquizamos y organizamos nuestras cogniciones y acciones para dar las soluciones adecuadas. En general, un programa suele definirse como la descripción detallada de los pasos que sigue un sistema de conocimiento, sea de tipo natural o artificial, para alcanzar un determinado objetivo. No es una secuencia rígida sino que incluye múltiples posibilidades que vienen dadas por decisiones que se van tomando en las diferentes alternativas ofrecidas. Por ejemplo, la aparentemente sencilla actividad de caminar requiere un “programa motor” que la haga posible y el cual no es una yuxtaposición de pequeños elementos sino que cada pequeño movimiento está insertado en movimientos más amplios y esto hace que haya una jerarquía que incluye bucles, retroacciones y demás conceptos tomados de la programación computacional. Los seres humanos estamos dotados de diferentes “programas” para realizar las distintas actividades de nuestra vida: para organizar nuestro estudio y los momentos de descanso, para alimentarnos, para seducir a otras personas, para ser fieles a nuestras convicciones, etc. En todos ellos utilizamos una táctica y una estrategia y, en la medida en que ambas existan, estamos hablando de programas, más allá del grado de complejidad que tengan. Si no tuviéramos programas nos veríamos superados por la cantidad de información nueva que tendríamos que procesar. Si para cada ocasión no contáramos con un programa previo, la actividad sería tan desbordante que nos paralizaría. (Ver Planificación Cognitiva) La inmensa mayoría de ellos permanecen al margen de nuestra conciencia. Precisamente una de las tareas de la psicología cognitiva es tratar de elaborar programas que simulen la cognición humana, de la cual la conciencia es sólo una parte. Por ejemplo: si no sabemos qué operaciones mentales realizamos los seres humanos cuando leemos, la elaboración de un programa constituye la elaboración de una teoría que permita diseñar un modelo de la actuación de la mente humana al respecto. En gran cantidad de casos la conciencia impide el conocimiento de los procesos cognitivos porque muchas veces éstos se transforman en acciones automatizadas. Si se consiguen diseñar en la computadora programas que realicen algo igual o parecido a lo que hace la mente humana, programas que simulen la cognición humana, dichos programas se convierten, entonces, en teorías defendibles sobre el conocimiento humano. Este planteo no significa que la experimentación no siga cumpliendo un papel importante sino que se verá complementada con los aportes que brinda la simulación en la computadora. INTELIGENCIA ARTIFICIAL El deseo de construir máquinas inteligentes podemos encontrarlo ya en las antiguas civilizaciones como Grecia. Aunque este interés existía desde hace varios siglos sólo pudo lograrse cuando se dispuso de una detallada comprensión de los procesos inteligentes, lo que se facilitó por el crecimiento de la psicología cognitiva por sobre el conductismo. La habilidad técnica para construir máquinas capaces de ejecutar esos procesos complejos, que surge con el desarrollo de las computadoras digitales. Diferentes Modelos: Simulación e Inteligencia Artificial Los modelos de simulación son los utilizados por los psicólogos cognitivos y, como se señalara anteriormente, lo que se pretende es elaborar un programa de computadora que sea una buena teoría psicológica para lo cual se mantiene una mayor dependencia de los datos empíricos procedentes de las sujetos humanos. 6 La Inteligencia Artificial (IA) también se propone construir un programa de computación que cuando se ejecute produzca un comportamiento “inteligente” análogo al humano en tareas comparables. La diferencia es que como objetivo se plantea que los programas funcionen satisfactoriamente. El programador de IA está interesado en simular el comportamiento inteligente humano, pero antepone la eficacia a la plausibilidad psicológica en sus programas. En principio, no pretende que el programa reproduzca todos los parámetros relevantes de la conducta humana (por ej. tiempo de reacción, tipo de errores, etc.), por esto no realiza estudios previos ni se interesa por los existentes. Los programas de IA no son teorías psicológicas aunque se apoyan en algunas reflexiones intuitivas sobre la conducta inteligente humana. Los temas tratados por científicos de ambas corrientes son coincidentes e implican una conexión interdisciplinar. En algunos casos la inteligencia artificial produce programas que tienen valor de “antimodelos” para la psicología cognitiva y, en otros casos, puede tomar de ésta última conceptos que tienen relevancia en sus trabajos. ¿Pueden pensar las máquinas? La respuesta a esta pregunta ha contado con adeptos y detractores, pero más allá de esto no se puede negar “que ha hecho avanzar enormemente la comprensión que en la actualidad tenemos de la mente humana.” (Mateo, 1995) Hasta no hace muchos años el cálculo se consideraba una aptitud exclusivamente humana pero en la actualidad muchos afirmarían que es, de hecho, una actividad mecánica. En la medida que las computadoras desarrollen habilidades cada vez más sofisticadas (que en la actualidad consideramos exclusivas de los seres humanos) ¿éstas también podrán considerarse en el futuro como de naturaleza mecánica? Hay dos formas de considerar este planteo: - ¿Las máquinas se están volviendo inteligentes ya que logran hacer actividades consideradas exclusivamente humanas, ó - Muchos de nuestros procesos intelectuales son de naturaleza mecánica?. Tal vez estas posiciones pueden conciliarse si aceptamos que se puede describir algo e, igualmente, seguir considerándolo inteligente. El desarrollo de la Inteligencia Artificial Haremos un recorrido cronológico que nos mostrará cómo fue avanzando el pensamiento científico y cuáles fueron los aportes que se sumaron desde diferentes áreas para finalmente dar origen a esta nueva disciplina y los avances que se fueron sucediendo dentro de su propio seno. Los autómatas del siglo XVII y XVIII ejecutaban acciones interesantes pero no desempeñaban actividades intelectuales: se limitaban a realizar movimientos prescriptos por mecanismos de relojería. Los esfuerzos para utilizar máquinas para los problemas intelectuales comenzaron seriamente con el desarrollo de las calculadoras automáticas ya que el cálculo se consideraba una aptitud intelectual humana. Shannon sabía que los sistemas lógicos podían reducirse a proposiciones verdaderas o falsas y que podían representarse y procesarse íntegramente mediante los estados de encendido-apagado de los interruptores eléctricos. Esta línea de pensamiento dio origen a una nueva disciplina: la teoría de la información. Postuló que toda información, sin importar sus contenidos, podía desglosarse en dígitos binarios (0, 1) y representarse y procesarse por medio de máquinas. La teoría de la información junto con la aparición de las computadoras eléctricas ayudó a establecer los cimientos para el desarrollo de las actuales computadoras digitales, cuyas posibilidades siguen desafiando las ideas sobre el funcionamiento cognitivo. Otros científicos realizaron aportes que se sumaron a estos y contribuyeron a sentar las bases de trabajos posteriores en este campo. Lashley sostenía que en actividades complejas, como la interpretación de instrumentos musicales, se requerían acciones simultáneas y una secuencia de movimientos que sugieren una planificación avanzada y representaciones o mapas mentales. El lingüista Naom Chomsky siguió este camino para pensar en el lenguaje y la sintaxis. En 1956 presentó un ensayo en el que establecía las bases para definir el lenguaje con la precisión de la matemática. Describió reglas –sintácticas y lógicasque operan cuando creamos oraciones y sostuvo que esas reglas reflejaban los mecanismos psíquicos fundamentales subyacentes a nuestra capacidad de hablar. Su obra permitió comprender el procesamiento del lenguaje y además sentó las bases para las computadoras que podrían generar y/o entender el lenguaje. También en 1956, George Miller realizó un aporte fundamental para la comprensión de los procesos cognitivos. En su ensayo: “El mágico número 7 + ó - 2: algunos límites en nuestra capacidad de procesamiento de la información” sugiere que existen limitaciones en la capacidad de procesamiento de la información de los seres humanos, la memoria a corto plazo sólo es capaz de retener 7 piezas de información. Comienzan a representarse los mecanismos del procesamiento de la información humana como diagramas de flujo, modalidad utilizada por los ingenieros en programación. El año 1956 no sólo fue el de la publicación de los importantes trabajos Chomsky y de Miller sino que también puede considerarse el año del surgimiento de la programación en inteligencia artificial. Del Congreso al que aludiéramos al comienzo de estas notas salieron quienes podemos considerar los “padres” de la inteligencia artificial: John McCarthy, Marvin Minsky, Alan Newell y Herbert Simon. En ese congreso se presentaron programas para jugar a las damas y al ajedrez, Minsky habló de un programa para probar los teoremas de Euclides. Newell y Simon mostraron su programa el “Teórico Lógico”, que podía demostrar teoremas matemáticos, aunque en realidad fue creado para simular la resolución de problemas humanos y no para generar demostraciones. Para esto se recurrió a la técnica de análisis de protocolos. Un protocolo es un registro de la verbalización de los pensamientos de las personas mientras resuelven problemas. Este método los ayudó a descubrir en qué pensaban las personas, qué buscaban y por qué realizaban determinadas acciones. Luego plantearon hipótesis sobre las heurísticas implícitas en los protocolos de los sujetos de estudio y las incluyeron en su programa. Luego estudiaron las diferencias para la resolución de problemas entre el enfoque humano y el de la computadora y lograron refinar el programa. 7 Este trabajo les permitió desarrollar un nuevo programa: el Solucionador General de Problemas (SGP, un programa que simula el pensamiento humano, como ellos mismos lo llamaron) que dividía a los problemas en metas y submetas. Este programa refleja una idea típica de la época: la resolución de problemas comprendía gran parte del pensamiento humano (o su totalidad). Su aplicación tuvo éxito cuando se utilizó en rompecabezas y el ajedrez, pero resultó menos universal de lo que esperaban. Finalmente llegaron a la conclusión de que no sólo el programa tenía limitaciones para resolver problemas, sino que era inadecuado caracterizar al pensamiento humano exclusivamente en el aspecto de la resolución de problemas. Posteriormente John McCarthy hizo su aporte para la comprensión de los procesos inteligentes. Propuso una versión de un experimento de psicología animal: el problema del chimpancé y la banana. En el test clásico se encierra a un chimpancé en una habitación en la que hay una banana colgada del techo. El mono debe darse cuenta de que, para alcanzarla, debe apilar varias cajas que hay en la habitación y luego trepar por ellas. El programa de computadora reformuló este planteo convirtiéndolo en “el robot y la caja”. Sobre una plataforma hay una caja, que está fuera del alcance de un robot sin brazos que tiene un “ojo” constituido por una cámara de video. La solución, para la cual el robot no estaba programado, exige que éste empuje un bloque con forma de rampa hasta la plataforma y luego deslizarse por ella hasta alcanzar la caja. Esta tarea aunque parezca trivial requería establecer y resolver muchas submetas. Este programa permitía demostrar claramente habilidad para resolver problemas. Sin embargo aún podría objetarse que este tipo de problemas es de naturaleza mecánica o, en el mejor de los casos, aceptar la presencia de inteligencia pero considerarla equivalente a la de un simio. Para contestar a este tipo de críticas muchos investigadores intentaron definir y emular habilidades que distinguieran a los seres humanos. Es así que se comienza a trabajar sobre el lenguaje natural. Una de las razones que impulsaban a ocuparse de este tema era el deseo de crear computadoras que pudieran usar el lenguaje natural pues así se daría la apariencia de una inteligencia superior. Además se suponía que sería más fácil dar instrucciones verbales a una computadora que escribir programas. Algunos programas desarrollados a comienzos de 1960 parecían poder llevar a cabo conversaciones inteligentes. Un buen ejemplo de ello es el programa Eliza, que imita la forma de conversación de un psicoterapeuta rogeriano. Si bien este programa da la sensación de estar conversando con una persona -debido a la forma como procede- si no logra reconocer alguna palabra clave en una oración da una respuesta a partir de una lista de respuestas neutrales, llevando a la conversación a un callejón sin salida. Además es incapaz de reconocer el absurdo. Carece de una comprensión real de la conversación como del contenido de cualquier tema. Estos defectos demostraron que la verdadera capacidad de responder preguntas exige que las respuestas se basen en el conocimiento de las condiciones reales del mundo y no sólo en el análisis gramatical de las preguntas. Como el comprender el sentido de una palabra es una tarea muy grande y compleja se apeló a reducir mucho el tema de conversación para obtener los resultados deseados. Uno de los primeros programas que lo lograron fue el Student que podía responder a problemas de álgebra de nivel de escuela secundaria. Su limitación se mostraba al no poder responder a otros temas que no fueran los planteados algebraicamente ni ser capaz de reconocer la naturaleza absurda de un problema. En 1972 se propone crear un programa que pudiera contestar una variedad mucho mayor de problemas con soluciones no matemáticas y que pudiera comprender qué era posible y qué no lo era. Para lograr el objetivo fue necesario limitar el alcance de la actividad, es así que se creó un “mundo” muy reducido constituido por varios cuerpos geométricos y un robot llamado Shrldu para manipularlos. Sin embargo, los detractores de la IA seguían haciendo escuchar sus críticas, en especial objetaban la imposibilidad de crear programas que resolvieran “problemas reales”. En respuesta a esos sarcasmos los científicos de la IA empezaron a ocupar de sistemas que pudieran “razonar, hacer sugerencias tentativas y aconsejar sobre cursos de acción en campos como la medicina, la química, los negocios y la ingeniería” (Campbell, 1989). Se plantearon que para resolver problemas complejos se necesitaba el nivel de conocimientos de un experto humano. Surgen así los sistemas expertos o sistemas basados en los conocimientos. Uno de los primeros programas de este tipo fue el Heurística DENDRAL. Resultó útil para determinar la estructura de moléculas orgánicas y ayudó a desentrañar los secretos de antibióticos, feromonas y hormonas. Quedó así demostrado que los programas heurísticos con conocimientos aumentados podían aplicarse a resolución de problemas prácticos, lo cual fue aplicado a problemas que iban desde la geología hasta la medicina. Sin embargo surgieron problemas a la hora de recolectar y codificar la información: era una tarea sumamente tediosa y difícil, los expertos (quienes daban los datos para hacer las bases de conocimiento) no siempre conocían acabadamente los temas y las reglas con las que operaban eran inexactas. El problema mayor lo constituyó el que los sistemas expertos podían brindar respuestas en sólo un campo acotado de actividades y, a veces, había fragilidad en los resultados pues eran incapaces de reconocer incongruencias. Por ej.: si se le daba la descripción de un coche oxidado, la fragilidad de un sistema de diagnóstico médico podía llegar a la conclusión que sufría de sarampión. Los seres humanos descubrimos con facilidad problemas de este tipo recurriendo al “sentido común”. Entonces la pregunta era: ¿cómo pueden aprender “sentido común” las computadoras? Para poder dar una respuesta, será necesario que previamente consideremos cómo pueden aprender, en general, las computadoras. Para lograr crear una computadora que pudiera aprender se diseñó un sistema basado en las estructuras de las neuronas, surgen así las redes neuronales también llamadas modelos conexionistas o modelos de procesamiento distribuido en paralelo. Una Red Neuronal es un programa computacional avanzado que, como el cerebro humano, puede aprender y realizar inferencias a partir de la información almacenada (experiencia). Al procesar simultáneamente (en paralelo) múltiples operaciones, son capaces de resolver problemas relativamente complejos. (Ver Informe sobre redes neuronales) Estos modelos permiten que, en lugar de darle a la computadora un programa para que lo ejecute, ahora se la “entrena” para que obtenga un resultado deseado, sin 8 darle instrucciones concretas sobre cómo lograrlo. La técnica más difundida que se ha utilizado es la retropropagación y con ella se han entrenado redes para que pudieran reconocer voces, textos manuscritos, diagnosticar enfermedades oculares y jugar al backgammon. Esta técnica de enseñanza es muy simple y se la puede automatizar con facilidad. Permite que la computadora comience a ser capaz de autoprogramarse. La desventaja que presenta es que, al autoprogramarse, no queda claro cómo desempeña sus tareas realmente una red. Dentro de las limitaciones que presentan las redes neuronales podemos señalar que sólo pueden aprender tareas que tienen resultados bien definidos, después de practicarlas miles de veces. Por ej. serían incapaces de diseñar una casa. Para solucionar estos inconvenientes se pensó en combinar los sistemas de autoprogramación con estructuras de reglas como las usadas en el Solucionador General de Problemas (SGP). De esta manera una máquina podría aprender y recurrir al sentido común. Estos son los objetivos de investigación de un proyecto que se ha denominado CyC. En 1984 se comenzó a construir una base de conocimientos de “sentido común” que contaría con unos cien millones de axiomas que abarcan una inmensa variedad de cosas que la mayoría de los habitantes de todo el mundo occidental sabe. Las reglas y metarreglas pueden brindar mucha ayuda para interpretar la información. En la comunicación humana cumple un papel importante el contexto: dónde y acerca de qué se da la comunicación y este aspecto también es contemplado por Cyc a quien se está entrenando para que genere su propia información nueva mediante el estudio y análisis de lo que ya sabe y se lo está programando para el razonamiento analógico, como el que solemos usar los seres humanos. Actualmente los sistemas de inteligencia artificial suelen ser híbridos que combinan la mejor forma de resolución de problemas, las bases de conocimiento y otras técnicas. Un ejemplo de esto es Soar que, según Newell que es uno de sus autores, representa una Teoría Unificada de la Cognición. Incluye resolución de problemas, toma de decisiones, memoria, aprendizaje, lenguaje, motivación, emoción, imaginación y el sueño. En primera instancia el programa enfrenta el problema como un novato, lenta y metódicamente, por ensayo y error. Luego, con la experiencia, aprende las resoluciones casi instantáneas que son características en los expertos que comprenden la estructura del problema. Por ej. lo que en un comienzo le había llevado 1.731 pasos para resolver, posteriormente, con la experiencia, lo logró en sólo 7 pasos. Este sistema es el más abarcador para explicar la inteligencia humana y demostrar su equivalente funcionamiento en los sistemas de inteligencia artificial. ¿Otras metáforas? En la actualidad la metáfora computacional no es la única visión general que se utiliza desde las ciencias cognitivas. A partir de 1985 se ha producido una profunda grieta en la fortaleza metafórica de la analogía del ordenador, surgiendo dos vertientes: Por un lado la corriente “conexionista”, de la que ya hemos dado cuenta anteriormente, que postulan la metáfora basada en el paralelismo mente-cerebro y, por otro, surge la “narratividad” que construye sus metáforas fijándose en otras “máquinas” que no son físicas, sino culturales. Esta última postura significa un replanteo radical ya que no sólo considera que el conocimiento se genera en un contexto social y cultural, sino incluso que dicho conocimiento es en realidad un producto social. Sostienen que la forma más elemental de cualquier conocimiento consiste en las historias que contamos y nos cuentan. La metáfora que proponen plantea que la mente humana no es como una computadora (funcionalismo) o como un cerebro (conexionismo) sino como una función generadora de historias. Se postula que esta capacidad narrativa humana es algo que debe pertenecer a la dotación innata humana y por eso aparece en todos los contextos, para contar historias no hace falta leer ni escribir y es una actividad que la humanidad ha venido realizando desde sus primeros tiempos. La inteligencia artificial ha sido criticada desde sus comienzos. Sus oponentes sostenían que ninguna máquina, que ninguna sustancia material podía ser inteligente. Sin embargo es indiscutible que las computadoras actuales se están desempeñando bien en campos que hasta hace poco se consideraban exclusivos de los seres humanos. Muchos investigadores se apresuraron a afirmar que las máquinas se estaban volviendo inteligentes, sus opositores sostuvieron que la conducta de las máquinas no indica que éstas sean inteligentes pues la lista de procesos que pueden desempeñar sigue siendo de naturaleza mecánica. La última palabra aún no está dicha. Queda aún mucho por investigar y demostrar. Tal vez, tal como sostienen Gardner, Kornhaber y Wake “la resolución del conflicto entre estas dos perspectivas será posible cuando aceptemos que la posibilidad de hacer una descripción detallada de una conducta inteligente y, quizá, modelarla mecánicamente, no impide que la llamemos inteligente”.