LAS CIENCIAS COGNITIVAS: Nuevo paradigma

Anuncio
1
Apunte de la cátedra UBA
LAS CIENCIAS COGNITIVAS: Nuevo paradigma
Prof. Ma. del Pilar Ferro
Un PARADIGMA es un conjunto de creencias implícitas o explícitas,
aceptadas por acuerdo de la comunidad científica, con postulados sobre los
fenómenos que constituyen el objeto de estudio, los cuales ya no son puestos en
duda. Todo cambio de paradigma es revolucionario, no acumulativo.
El pensamiento psicológico de principio del siglo XX estaba hegemonizado por
dos grandes corrientes: el conductismo y el psicoanálisis.
El Conductismo
Los defensores de la primera corriente de pensamiento sostenían un punto de
vista periférico del comportamiento. Establecían que la conducta está compuesta de
respuestas elementales y puede ser sucesivamente analizada por métodos científiconaturales.
La conducta está así enteramente compuesta de secreciones glandulares y
movimientos musculares, es decir, reductible a procesos físico-químicos. De tal forma
que siempre hay una respuesta inmediata de alguna clase a todo estímulo,
estableciéndose entonces un determinismo estricto de causa-efecto en la conducta.
Dado un estímulo se puede predecir la respuesta u, observando qué reacción
tiene lugar, es posible predecir cuál es el estímulo que la provocó. De esta forma
niegan que para explicar un comportamiento hubiese que recurrir a procesos
centrales que intermediaran entre el estímulo y la respuesta.
El sistema nervioso animal cumple, entre otras, la función de recoger y
procesar información del entorno. Este procesamiento da lugar a una variedad de
transformaciones internas en el organismo antes que éste produzca una respuesta.
Esquemáticamente pueden distinguirse 3 posibles jerarquías en la
complejidad de dicho procesamiento, del más sencillo al más complejo comprenden:
1. Las acciones que derivan de automatismos
2. Las funciones vitales reguladas
3. Las que involucran procesos cognitivos superiores.
En cada uno de estos niveles el circuito que media entre el estímulo y la
respuesta es más largo y menos directo, está cada vez más interrumpido y resulta
más arriesgado tratar de efectuar una correspondencia biunívoca entre uno y otra.
La primera jerarquía o nivel, y la más sencilla, es la de los automatismos y los
reflejos (ej.: contracción pupilar ante la luz). El flujo de información no puede tomar
otro curso que el establecido y las respuestas están directamente ligadas a los
estímulos.
En organismos superiores ciertos reflejos pueden desaparecer con la
maduración del individuo (ej.: reflejo de succión).
En un 2do. Nivel, más complejo, se encuentran las funciones vitales
reguladas. Las vinculaciones del sistema nervioso con otros sistemas del organismo
se constituyen en una parte importante de este nivel. Entre el grupo neuronal aferente
y el motor, se intercala una etapa de procesamiento en la que la medida de la acción
desencadenada regula su propia intensidad en los instantes subsiguientes.
El proceso puede descomponerse en 2 etapas:
1. El organismo encara una respuesta con el único dato del estímulo
recibido
2. Esa respuesta junto con el estímulo son datos que se usan para
elaborar otra respuesta más adecuada.
Cuando eso sucede se dice que hay un lazo de realimentación. Similar a lo
que sucede con un termostato o con un flotante que regula la entrada de agua a un
tanque (ver ejemplo en artículo de Ciencia, Cibernética y Sistemas). Por ejemplo:
beber, comer o la actividad sexual son acciones reguladas por realimentación. En el
caso de la sed el papel del termómetro lo desempeña el riñón, que detecta la pérdida
de líquido y envía una señal química. Esta consiste en una enzima que actúa sobre
las neuronas del hipotálamo encargado de producir la sensación de sed.
El tercer nivel corresponde a las conductas reguladas por las emociones y
procesos cognitivos. En el caso de las emociones profundas el hipotálamo participa
como parte del sistema límbico y a través de copiosas vinculaciones con la corteza
cerebral. Actúa como elemento reforzador la memoria que, al sufrir constantes
agregados y modificaciones , agrega un elemento de plasticidad a todo el sistema.
Es teniendo en cuenta estos elementos que las explicaciones conductistas
que pretendían establecer una correspondencia universal y directa entre estímulos y
respuestas se vuelven insuficientes pues, una vez que el estímulo sensorial es
traducido a señales sensoriales se desencadena un complejo procesamiento en el que
interviene la evocación de situaciones pasadas y la propia modificación de ese
“archivo”. La conducta, tomada como el espectro de respuestas al medio pasa a ser
patrimonio de cada individuo, único como su historia y que no se comparte sino en
aspectos muy generales con los de otros individuos de su misma especie.
El Psicoanálisis
El psicoanálisis basa sus postulados en los procesos inconscientes antes que
en los procesos conscientes, su objeto de estudio es el inconciente.
Es así que los procesos cognitivos entonces son definidos como centrales por
el conductismo y como conscientes por el psicoanálisis.
Hacia mediados del siglo los XX los postulados del conductismo comienzan a
ser cuestionados desde fuera y dentro de la propia comunidad conductista, al
mostrarse impotente para interpretar el comportamiento humano más complejo.
El paradigma conductista estaba llegando a su fin.
Surge así un nuevo paradigma para explicar los fenómenos llamados
centrales para unos, conscientes para otros y que serían considerados ahora como
fenómenos mentales, nos referimos al paradigma cognitivo.
Se desarrolla de un nuevo modelo para entender a los seres humanos: se
propone ver a los seres humanos como dispositivos de procesamiento de información
y describirlos en los mismos términos que se utilizaba para describir dispositivos de
procesamiento de información más simple.
Se presta atención a los estados centrales, no observables, entre los
estímulos y las respuestas manifiestas.
La ciencia (o ciencias cognitivas) “es el campo de investigación del
conocimiento, humano y artificial integrado por una amplitud interdisciplinar jamás
conocida” (Tudela Garmendia). “Conjunto de actividades científicas cuyo objeto de
2
estudio es el conocimiento” (Damián Justo). Es el “campo multidisciplinario compuesto
por la Inteligencia Artificial, las neurociencias, la lingüística, la psicología cognitiva, la
epistemología, etc. dedicado al análisis científico del conocimiento en todas sus
dimensiones. Sus aplicaciones constituyen las Tecnologías de la cognición. (Varela,
1990).
Esta tecnología de la cognición le brinda al hombre una nueva imagen de sí
mismo, de su mente. La imagen de una maquinaria que maneja representaciones
simbólicas o subsimbólicas y de forma automática produce efectos que se parecen
mucho al pensamiento humano. Se pone énfasis en el estudio de todos los sistemas
inteligentes, sean naturales o artificiales.
En el desarrollo de estas ideas ha tenido fundamental importancia la llamada
“metáfora computacional” : la comparación entre cómo trabaja la mente humana y los
procesos que realiza una computadora en su funcionamiento, especialmente en lo que
se refiere a su estructura básica y a su software.
“Con el tiempo, el antiguo modelo estímulo-respuesta llegó a ser sustituido en
la línea principal de la psicología por la idea central de procesamiento de información,
que implica atención selectiva, representaciones de bases de datos (...) y otras cosas
análogas. Muy pronto intervinieron la metáfora y luego la tecnología del control central
y rutinas ejecutivas (...) Hoy día, las cuestiones de este orden se han hecho corrientes,
no sólo en psicología cognitiva, sino en las teorías del desarrollo, en la producción y
comprensión del lenguaje y sobre todo en la psicología aplicada (...) se da una curiosa
ironía que no escapará a esta labor (...) procedía del reciente campo de la
computación y fue resultado del esfuerzo llevado a cabo para describir cómo se puede
crear comportamiento inteligente en máquinas (...) aprendimos que el comportamiento
complejo no es inherente al lenguaje mecánico de la computadora, sino a los
programas que construimos para guiar sus operaciones (...) La fuente de la
inteligencia de la máquina es la potencial capacidad del que crea el programa. Lo
singular de la mencionada ironía es que, forzosamente, proyectamos nuestras propias
características en la máquina y a partir de esta proyección hemos sido por fin capaces
de inferir lo que supone ser inteligente. La computadora, que fue primero una pantalla
de proyección, llegó a ser finalmente un espejo para el hombre” (Bruner, 1982).
La ciencia cognitiva surge de una combinación de diferentes disciplinas
académicas y comprende una gama muy amplia de campos intelectuales, en
comparación con otras disciplinas académicas.
La teoría de la comunicación aportó la idea de retroalimentación (feed-back)
Tolman afirma que el cerebro “se parece mucho más a una torre de control que a una
de esas antiguas centralitas telefónicas. Los estímulos a los que se permite pasar no
están conectados con las respuestas que se emiten mediante sencillas conexiones
directas”.
Además de la idea de retroalimentación las investigaciones cibernéticas
trajeron una analogía del ser humano como manipulador de símbolos, como
transmisor y elaborador de información y como sujeto que debe usar esa información
para conocer y para tomar decisiones.
Varios autores coinciden en reconocer que la misma surge entre los años
1955 y 1960 e incluso lo sitúan más precisamente en el año 1956 a raíz de celebrarse
un simposio sobre la ciencia de la información en el Instituto Tecnológico de
Massachussets (MIT) donde se reunieron por primera vez varios pensadores de
diferentes disciplinas que iban a desempeñar un papel fundamental en el surgimiento
de la ciencia cognitiva.
La teoría de la información junto con la ciencia de la computación fueron
estimuladas por los desafíos prácticos de la 2da. Guerra Mundial que los enfrentaba a
la necesidad de mejorar su conocimiento de cómo codificar, decodificar, comprender y
transformar la información transmitida.
Los avances en el procesamiento de la información y en la computación
artificial proporcionaron a los investigadores de varios campos nuevos recursos
intelectuales para pensar de manera formal y rigurosa en los procesos cognitivos.
Proporcionaron una nueva terminología para los teóricos en psicología, permitiéndoles
pensar en términos como algoritmos, buffers de información, embotellamiento de flujo,
bucles de retroalimentación, programas, etc, vocabulario propio de las ciencias
informáticas.
Se comenzó a considerar al ser humano como poseedor de una inmensa base
de datos permanente (memoria a largo plazo) y un sistema transitorio (memoria a
corto plazo o de trabajo) que le permitía manipular momentáneamente una cantidad
limitada de información, independientemente de su paso al almacén a largo plazo.
Para manejar dicha información el sujeto debía disponer de algo parecido a
los programas de computadora. Es decir, una serie de instrucciones o procedimientos
que le permitieran tomar decisiones y resolver problemas más o menos complejos,
desde hacer sumas de dos dígitos hasta decidir la fecha de su casamiento. Estos
programas debían tener la suficiente generalidad como para ser aplicados a un amplio
conjunto de situaciones similares.
LA METAFORA COMPUTACIONAL
Cuando los científicos utilizan una metáfora no lo hacen de igual forma que se
usa en la vida cotidiana, para ellos toma el valor de un modelo que permite diseñar
hipótesis y supuestos acerca de procesos que no son evidentes para la experiencia
directa. Se están valiendo de un modelo del cual toman una serie de ideas básicas
para comprender un conjunto de fenómenos que, de lo contrario, carecerían de
sentido.
La metáfora del ordenador (a veces llamada analogía) es un modelo general
utilizado por quienes pertenecen al campo de las ciencias cognitivas, más allá de las
diferencias de conceptualizaciones que se manifiestan en su seno. De hecho, con el
tiempo, han surgido críticas importantes representadas por las visiones narrativa y
conexionista, que son sus sucesoras.
Propone que la mente humana y el ordenador son sistemas de procesamiento
funcionalmente equivalentes. Ambos son capaces de resolver situaciones complejas
y se presentan como típicamente representativos de la inteligencia, ya fuera ésta
natural o artificial.
Se constituye así en un nexo entre la psicología y la cibernética que amplía el
enfoque de los problemas relativos a las funciones mentales y llevó a desdibujar los
límites de la categoría de los “objetos con mente”.
Uno de los objetivos centrales del uso de la metáfora es poder comprender
cómo el ser humano adquiere el conocimiento. Esta adquisición consta de procesos
básicos que son similares tanto en el ser humano como en el ordenador.
3
En ambos casos existe un sustrato físico: el cerebro en el ser humano y el
hardware en el ordenador. También ambos poseen un software: la mente en el caso
humano (donde podemos distinguir contenido y estructura) y los programas para la
computadora.
El software es algo similar a las estructuras mentales debido a que los
contenidos son comparables a la información que se introduce en el ordenador.
(Ver Modelos procedurales y declarativos, Apunte Rehab. Comp. y T.C.C.)
El desafío de Alan Turing
Alan Turing fue un matemático quien en 1950 publicó el artículo Computing
Machinery and Inteligence, que dio lugar a la conocida y famosa Metáfora del
Ordenador. Este autor planteó lo siguiente: “Supongamos que en lugar de hacer
especulaciones subjetivas sobre qué es pensamiento, hacemos una prueba objetiva.
El test consiste en crear una situación en la que una persona hace preguntas
a seres que están en otra habitación y a los que no puede ver ni tocar. El método para
hacer las preguntas puede consistir en dárselas escritas a un mensajero que se
encarga de llevarlas hasta la habitación donde están los seres interrogados y de traer
de vuelta las respuestas dadas por esos seres, escritas en papeles.
Supongamos que esos seres son dos: un hombre B y una máquina A. Si quien
formula las preguntas fuera incapaz de distinguir a través de las respuestas recibidas,
al hombre B, al que interroga sobre sus pensamientos, de la máquina A, a la que
pregunta sobre los suyos, podríamos decir que tanto el hombre como la máquina
piensan.”
Siguiendo esta línea de razonamiento Turing entonces plantea que si la
máquina imita perfectamente al hombre en sus manifestaciones cognitivas, por qué no
decir también que “piensa”. En realidad este desafío que nos propone Turing debe
entenderse como una metáfora. Una metáfora lo suficientemente profunda que fue
capaz de movilizar el pensamiento dominante hasta ese momento, provocando una
verdadera revolución que llevó a la creación de diversos enfoques dentro del campo
de las ciencias cognitivas.
La metáfora quedó expresada de la siguiente forma: La mente es al cerebro
lo que el software es al hardware.
Fueron varios los esfuerzos por explicar este planteo dando lugar al
surgimiento de diferentes enfoques marcando ciertos matices conceptuales. Aquí sólo
haremos referencia a los primeros en surgir y que se conocen como las dos versiones
de la analogía del ordenador y han dado surgimiento a dos disciplinas prácticamente
independientes pero interconectadas.
1.- La versión fuerte representada por los defensores más ortodoxos quienes
aceptan la analogía en un sentido totalmente literal, dando lugar al sub-paradigma de
la Computación sobre Representaciones y teniendo su aplicación en los trabajos de
Inteligencia Artificial. Consideran abiertamente los pensamientos humanos como
cómputos en sentido cabal.
2.- La versión débil cuyos seguidores aceptan la analogía sólo como
metáfora. Utilizan el lenguaje computacional como inspirador teórico sin someterse a
todas las implicancias que marca la analogía. Se trata del sub-paradigma del
Procesamiento de la Información.
Se apoyan en la investigación empírica del comportamiento inteligente
humano para contrastar directamente en los sujetos sus teorías y es así como
elaboran sus interpretaciones teóricas.
Esta interpretación dio lugar al surgimiento de la Psicología Cognitiva.
Retomando la metáfora podemos apreciar que se establecen varias analogías
diádicas en una sola:
1.- La relación mente-cerebro con software y hardware
2.- La mente análoga al software
3.- El cerebro análogo al hardware.
1.- La primera de estas analogías es la más básica y es el sentido sobre el
cual debe ser interpretada la propuesta de Turing.
Constituye una primera aproximación del funcionalismo que es el sostén
filosófico sobre el que se desarrollaron las investigaciones del campo de la Inteligencia
Artificial. El funcionalismo sostiene que lo esencial de la mente está en la estructura
causal de los estados mentales, en su estructura y lógica de funcionamiento, en su
estructura funcional y no en la base neurofisiológica que la implementa físicamente.
A partir de 1980 cobra fuerza otra perspectiva: el conexionismo. Estudia
modelos abstractos del funcionamiento cerebral (simulados por computadora) y
postula un nuevo tipo de representaciones: “representaciones distribuidas en
paralelo”. La información, que hasta el momento se consideraba contenida en los
símbolos, se plantea que está presente en la distribución de las conexiones entre
elementos de una red neuronal y en la fuerza de esas conexiones.
2.- La analogía mente-software es la que ha tenido mayores consecuencias en
los desarrollos teóricos y empíricos de la psicología cognitiva.
Al utilizar el razonamiento por analogía se intenta generalizar algún conjunto
de propiedades de un dominio A a un dominio B, siempre que:
- Haya argumentos que apoyen tal generalización
- El dominio A sea más comprensible que el dominio B
- Esa generalización sea susceptible de algún tipo de comprobación.
Es así que, el hacer análoga la mente al software, permite a los psicólogos
cognitivos entender el funcionamiento de la mente a través de la comprensión de los
procesos del funcionamiento de los ordenadores, donde cuentan con herramientas de
análisis más confiables que la introspección.
3.- La tercera de las analogías -cerebro-hardware-, es muy discutible y resulta
difícil de sostener debido a las diferencias de estructura entre el cerebro y las
computadoras.
En síntesis, la analogía del ordenador incluye tres sentidos que implican
diferentes cosas, de los cuales sólo dos se sostienen; uno desde la Inteligencia
Artificial y el otro desde la Psicología Cognitiva.
Para Turing las máquinas pueden pasar con éxito su test por poseer una
propiedad que las define esencialmente, son universales, capaces en potencia de
computar cualquier algoritmo bien definido, cualquier procedimiento efectivo.
El hecho que actualmente hay determinados cómputos que no pueden realizar
no es relevante para el planteo de fondo de Turing ya que él no se refiere a los
ordenadores materiales sino a una máquina abstracta de carácter universal.
4
Turing sostiene que mientras los pensamientos de las personas puedan
entenderse como resultantes de procedimientos efectivos (de algoritmos bien
definidos) podrán ser imitados por una máquina que tiene dos características
esenciales, ser muy simple y universal.
Esta máquina abstracta había sido ya imaginada por este autor, quien la
describió en un artículo considerado un clásico de la teoría de la computación, en el
año 1936.
Esta máquina abstracta y universal es antecesora de las actuales
computadoras ya que la misma funcionaba separando instrucciones y datos,
empleaba un código binario y tenía estados discretos. Estas características son
recogidas posteriormente por John von Neumann quien las aplica a materiales físicos
concretos, creando la que puede considerarse primera versión de las actuales
computadoras.
Se puede decir, entonces, que un ordenador puede entenderse como una
realización física de la máquina universal de Turing.
Implicancias de la analogía
Aceptar la analogía en forma literal nos lleva a plantearnos diferentes
implicancias:
1.- Suponer que las operaciones mentales que realizan los seres humanos
pueden ser descritas como algoritmos bien definidos.
2.- Ubicarse en un nivel de descripción puramente funcional
3.- Considerar el procesamiento de información llevado a cabo por los seres
humanos como estrictamente secuencial.
4.- Provocar una disociación teórica entre dos entidades: la mente
fenomenológica y la mente computacional.
Veamos más detalladamente este punto. La psicología cognitiva concibe a la
mente como un sistema de procesamiento de la información. La información durante
el proceso mental sufre procesos computacionales (recorre estructuras
representacionales, se recodifica, etc.).
La mente así postulada es una mente computacional.
En la medida que los seres humanos no nos damos cuenta de esos procesos
significa que en su gran mayoría son inconcientes.
Tenemos entonces lo que podemos denominar: mente fenomenológica conjunto de los procesos concientes- y mente computacional -conjunto de procesos
inconcientesEl problema surge cuando la psicología cognitiva construye casi todas sus
teorizaciones a partir de la noción de causalidad mental y, por la naturaleza misma de
la noción de computabilidad, es en la mente computacional donde se ubican las
causas. Por lo tanto la mente fenomenológica (procesos concientes) tiende a quedar
fuera de las teorizaciones de la psicología cognitiva, la conciencia queda reducida a
una espectadora de las computaciones mentales y eso constituye un problema:
“problema mente-mente”, el de la relación entre la mente computacional y la mente
fenomenológica.
PSICOLOGIA COGNITIVA
Dentro de las Ciencias Cognitivas, la psicología cognitiva se ocupa de estudiar
las estructuras y procesos psicológicos comprometidos en nuestro conocimiento del
mundo y de nosotros mismos.
Es el estudio científico de los procesos cognitivos que realiza la mente
humana para conocer su entorno y que pueden estar relacionados directa o
indirectamente con el comportamiento.
Por lo tanto puede hablarse en dos sentidos del término cognitivo:
1.- Estudio específico de los llamados procesos intelectuales de
mayor o menor complejidad -percepción, atención, memoria lenguaje y
razonamiento-. “Intenta entender la naturaleza de la inteligencia
humana y cómo piensan las personas” (Anderson).
2.- Orientación general para estudiar aspectos del comportamiento de
los seres humanos.
“El análisis científico de los procesos mentales y estructuras de memoria
humanos con el fin de comprender la conducta humana” (Mayer). Cabe aclarar que
este autor utiliza el término memoria como sinónimo de conocimiento.
En síntesis: la cognición y el comportamiento.
La analogía o metáfora del ordenador es usado por muchos psicólogos
cognitivos en sus aspectos funcionales, no físicos. Se pretende disponer de un
modelo que permita diseñar hipótesis y supuestos precisos acerca de procesos que
no son obvios para la experiencia directa.
Desde este punto de vista funcional, tanto la computadora como la mente,
codifican, almacenan, recuperan y operan con inputs. Ambos procesan información,
aunque no se considera una identificación cualitativa de ambos tipos de
procesamiento.
Horward Gardner, en 1985, ha utilizado la expresión “presupuestos centrales y
características estratégicas” para referirse a los supuestos fundamentales, los
metapostulados, de la psicología cognitiva.
Señala que la misma se caracteriza por cinco rasgos fundamentales:
1.- Enraizamiento en los problemas filosóficos básicos
2.- Tendencia a mantener relaciones interdisciplinarias
3.- Establecimiento del nivel de análisis en el estudio de las
representaciones
4.- Escasa importancia y consideración de la influencia del afecto, el
contexto, la cultura y la historia en el conocimiento humano.
5.- Influencia mayor o menor del ordenador como metáfora del
conocimiento humano.
Se postula la existencia de un nivel de representación compuesto por
símbolos, reglas, imágenes; todo lo que encontramos entre lo que ingresa (input) y lo
que egresa (output) de nuestra mente.
Se trata de representaciones mentales que no se pueden considerar como un
solo tipo de cosas, sino como un nombre que podemos utilizar para referirnos a
muchos tipos diferentes de almacenamiento de información accesible. Muchas
representaciones aparentemente unitarias tienen múltiples restricciones a nivel
5
neurológico: por ej. una función aparentemente básica como el reconocimiento de
objetos está mediada por múltiples vías neurológicas separables
También se establece, con diferente grado de aceptación, que para
comprender la mente humana es esencial utilizar la metáfora del ordenador.
Disminuye el énfasis sobre aspectos como los afectos y emociones, las
variables históricas y culturales, aunque cada vez son más quienes sostienen dentro
de la disciplina que las variables afectivas, culturales y contextuales son
imprescindibles para mostrar una visión acabada del conocimiento humano.
Expresan la importancia de la utilidad de los estudios interdisciplinarios con la
gran esperanza que surja, finalmente, una ciencia cognitiva unitaria y unificada.
Cabe destacar que todas estas convicciones no son unánimemente aceptadas
en la comunidad científica.
El nivel de explicación que interesa a la psicología cognitiva es el que tiene
relación con dos cuestiones esenciales:
1.- la estructura del sistema computacional
2.- las operaciones básicas que realiza la mente humana.
1.- Con respecto al primero la psicología cognitiva toma los modelos básicos
de los diferentes sistemas de almacenamiento de información de las
computadoras:
a) memoria RAM (transitoria, de capacidad limitada, no supone su
permanencia en el sistema) comparable a la memoria humana a corto plazo.
b) memoria ROM (permanente, mucha mayor capacidad). Comparable a la
memoria humana a largo plazo.
Ambas memorias (RAM-ROM) y en ambos casos (en el sistema natural y en
el artificial – hombre o máquina-) no son almacenes de información que sólo tienen
una relación de contiguidad sino que presentan una estrecha relación, de manera que
los programas que se usan en la primera (RAM) determinan la manera en que recibe y
puede guardar la información la segunda (ROM) y, de acuerdo a cómo ha sido
almacenada esa información en la ROM, le resultará más sencillo a la RAM
recuperarla para poder utilizarla.
Cabe aclarar que si bien se toma esta comparación a grandes rasgos, la
psicología cognitiva ha venido sosteniendo la existencia de tres “almacenes” o fases
con respecto a la memoria: sensorial, a corto plazo y a largo plazo e incluso se llega a
hablar de un correlato neurológico diferente entre las mismas. En esta oportunidad no
ahondaremos en el tema.
2.- En relación a la segunda, toma la idea de programa y de procesamiento
de información en serie o sucesivo y no en paralelo o simultáneo.
El término programa es tomado en el sentido de dar cuenta de un “plan
general” que preside la organización de la cognición y el comportamiento humano, de
cómo los seres humanos jerarquizamos y organizamos nuestras cogniciones y
acciones para dar las soluciones adecuadas.
En general, un programa suele definirse como la descripción detallada de los
pasos que sigue un sistema de conocimiento, sea de tipo natural o artificial, para
alcanzar un determinado objetivo. No es una secuencia rígida sino que incluye
múltiples posibilidades que vienen dadas por decisiones que se van tomando en las
diferentes alternativas ofrecidas.
Por ejemplo, la aparentemente sencilla actividad de caminar requiere un
“programa motor” que la haga posible y el cual no es una yuxtaposición de pequeños
elementos sino que cada pequeño movimiento está insertado en movimientos más
amplios y esto hace que haya una jerarquía que incluye bucles, retroacciones y demás
conceptos tomados de la programación computacional.
Los seres humanos estamos dotados de diferentes “programas” para realizar
las distintas actividades de nuestra vida: para organizar nuestro estudio y los
momentos de descanso, para alimentarnos, para seducir a otras personas, para ser
fieles a nuestras convicciones, etc. En todos ellos utilizamos una táctica y una
estrategia y, en la medida en que ambas existan, estamos hablando de programas,
más allá del grado de complejidad que tengan.
Si no tuviéramos programas nos veríamos superados por la cantidad de
información nueva que tendríamos que procesar. Si para cada ocasión no contáramos
con un programa previo, la actividad sería tan desbordante que nos paralizaría. (Ver
Planificación Cognitiva)
La inmensa mayoría de ellos permanecen al margen de nuestra conciencia.
Precisamente una de las tareas de la psicología cognitiva es tratar de elaborar
programas que simulen la cognición humana, de la cual la conciencia es sólo una
parte. Por ejemplo: si no sabemos qué operaciones mentales realizamos los seres
humanos cuando leemos, la elaboración de un programa constituye la elaboración de
una teoría que permita diseñar un modelo de la actuación de la mente humana al
respecto. En gran cantidad de casos la conciencia impide el conocimiento de los
procesos cognitivos porque muchas veces éstos se transforman en acciones
automatizadas.
Si se consiguen diseñar en la computadora programas que realicen algo igual
o parecido a lo que hace la mente humana, programas que simulen la cognición
humana, dichos programas se convierten, entonces, en teorías defendibles sobre el
conocimiento humano.
Este planteo no significa que la experimentación no siga cumpliendo un papel
importante sino que se verá complementada con los aportes que brinda la simulación
en la computadora.
INTELIGENCIA ARTIFICIAL
El deseo de construir máquinas inteligentes podemos encontrarlo ya en las
antiguas civilizaciones como Grecia. Aunque este interés existía desde hace varios
siglos sólo pudo lograrse cuando se dispuso de una detallada comprensión de los
procesos inteligentes, lo que se facilitó por el crecimiento de la psicología cognitiva por
sobre el conductismo. La habilidad técnica para construir máquinas capaces de
ejecutar esos procesos complejos, que surge con el desarrollo de las computadoras
digitales.
Diferentes Modelos: Simulación e Inteligencia Artificial
Los modelos de simulación son los utilizados por los psicólogos cognitivos y,
como se señalara anteriormente, lo que se pretende es elaborar un programa de
computadora que sea una buena teoría psicológica para lo cual se mantiene una
mayor dependencia de los datos empíricos procedentes de las sujetos humanos.
6
La Inteligencia Artificial (IA) también se propone construir un programa de
computación que cuando se ejecute produzca un comportamiento “inteligente”
análogo al humano en tareas comparables. La diferencia es que como objetivo se
plantea que los programas funcionen satisfactoriamente.
El programador de IA está interesado en simular el comportamiento inteligente
humano, pero antepone la eficacia a la plausibilidad psicológica en sus programas.
En principio, no pretende que el programa reproduzca todos los parámetros
relevantes de la conducta humana (por ej. tiempo de reacción, tipo de errores, etc.),
por esto no realiza estudios previos ni se interesa por los existentes. Los programas
de IA no son teorías psicológicas aunque se apoyan en algunas reflexiones intuitivas
sobre la conducta inteligente humana.
Los temas tratados por científicos de ambas corrientes son coincidentes e
implican una conexión interdisciplinar. En algunos casos la inteligencia artificial
produce programas que tienen valor de “antimodelos” para la psicología cognitiva y,
en otros casos, puede tomar de ésta última conceptos que tienen relevancia en sus
trabajos.
¿Pueden pensar las máquinas?
La respuesta a esta pregunta ha contado con adeptos y detractores, pero más
allá de esto no se puede negar “que ha hecho avanzar enormemente la comprensión
que en la actualidad tenemos de la mente humana.” (Mateo, 1995)
Hasta no hace muchos años el cálculo se consideraba una aptitud
exclusivamente humana pero en la actualidad muchos afirmarían que es, de hecho,
una actividad mecánica. En la medida que las computadoras desarrollen habilidades
cada vez más sofisticadas (que en la actualidad consideramos exclusivas de los seres
humanos) ¿éstas también podrán considerarse en el futuro como de naturaleza
mecánica?
Hay dos formas de considerar este planteo:
- ¿Las máquinas se están volviendo inteligentes ya que logran hacer
actividades consideradas exclusivamente humanas, ó
- Muchos de nuestros procesos intelectuales son de naturaleza mecánica?.
Tal vez estas posiciones pueden conciliarse si aceptamos que se puede
describir algo e, igualmente, seguir considerándolo inteligente.
El desarrollo de la Inteligencia Artificial
Haremos un recorrido cronológico que nos mostrará cómo fue avanzando el
pensamiento científico y cuáles fueron los aportes que se sumaron desde diferentes
áreas para finalmente dar origen a esta nueva disciplina y los avances que se fueron
sucediendo dentro de su propio seno.
Los autómatas del siglo XVII y XVIII ejecutaban acciones interesantes pero no
desempeñaban actividades intelectuales: se limitaban a realizar movimientos
prescriptos por mecanismos de relojería.
Los esfuerzos para utilizar máquinas para los problemas intelectuales
comenzaron seriamente con el desarrollo de las calculadoras automáticas ya que el
cálculo se consideraba una aptitud intelectual humana.
Shannon sabía que los sistemas lógicos podían reducirse a proposiciones
verdaderas o falsas y que podían representarse y procesarse íntegramente mediante
los estados de encendido-apagado de los interruptores eléctricos. Esta línea de
pensamiento dio origen a una nueva disciplina: la teoría de la información.
Postuló que toda información, sin importar sus contenidos, podía desglosarse
en dígitos binarios (0, 1) y representarse y procesarse por medio de máquinas.
La teoría de la información junto con la aparición de las computadoras
eléctricas ayudó a establecer los cimientos para el desarrollo de las actuales
computadoras digitales, cuyas posibilidades siguen desafiando las ideas sobre el
funcionamiento cognitivo.
Otros científicos realizaron aportes que se sumaron a estos y contribuyeron a
sentar las bases de trabajos posteriores en este campo. Lashley sostenía que en
actividades complejas, como
la interpretación de instrumentos musicales, se
requerían acciones simultáneas y una secuencia de movimientos que sugieren una
planificación avanzada y representaciones o mapas mentales.
El lingüista Naom Chomsky siguió este camino para pensar en el lenguaje y la
sintaxis. En 1956 presentó un ensayo en el que establecía las bases para definir el
lenguaje con la precisión de la matemática. Describió reglas –sintácticas y lógicasque operan cuando creamos oraciones y sostuvo que esas reglas reflejaban los
mecanismos psíquicos fundamentales subyacentes a nuestra capacidad de hablar. Su
obra permitió comprender el procesamiento del lenguaje y además sentó las bases
para las computadoras que podrían generar y/o entender el lenguaje.
También en 1956, George Miller realizó un aporte fundamental para la
comprensión de los procesos cognitivos. En su ensayo: “El mágico número 7 + ó - 2:
algunos límites en nuestra capacidad de procesamiento de la información” sugiere que
existen limitaciones en la capacidad de procesamiento de la información de los seres
humanos, la memoria a corto plazo sólo es capaz de retener 7 piezas de información.
Comienzan a representarse los mecanismos del procesamiento de la
información humana como diagramas de flujo, modalidad utilizada por los ingenieros
en programación.
El año 1956 no sólo fue el de la publicación de los importantes trabajos
Chomsky y de Miller sino que también puede considerarse el año del surgimiento de la
programación en inteligencia artificial.
Del Congreso al que aludiéramos al comienzo de estas notas salieron quienes
podemos considerar los “padres” de la inteligencia artificial: John McCarthy, Marvin
Minsky, Alan Newell y Herbert Simon.
En ese congreso se presentaron programas para jugar a las damas y al
ajedrez, Minsky habló de un programa para probar los teoremas de Euclides.
Newell y Simon mostraron su programa el “Teórico Lógico”, que podía
demostrar teoremas matemáticos, aunque en realidad fue creado para simular la
resolución de problemas humanos y no para generar demostraciones. Para esto se
recurrió a la técnica de análisis de protocolos. Un protocolo es un registro de la
verbalización de los pensamientos de las personas mientras resuelven problemas.
Este método los ayudó a descubrir en qué pensaban las personas, qué buscaban y
por qué realizaban determinadas acciones. Luego plantearon hipótesis sobre las
heurísticas implícitas en los protocolos de los sujetos de estudio y las incluyeron en su
programa. Luego estudiaron las diferencias para la resolución de problemas entre el
enfoque humano y el de la computadora y lograron refinar el programa.
7
Este trabajo les permitió desarrollar un nuevo programa: el Solucionador
General de Problemas (SGP, un programa que simula el pensamiento humano,
como ellos mismos lo llamaron) que dividía a los problemas en metas y submetas.
Este programa refleja una idea típica de la época: la resolución de problemas
comprendía gran parte del pensamiento humano (o su totalidad).
Su aplicación tuvo éxito cuando se utilizó en rompecabezas y el ajedrez, pero
resultó menos universal de lo que esperaban. Finalmente llegaron a la conclusión de
que no sólo el programa tenía limitaciones para resolver problemas, sino que era
inadecuado caracterizar al pensamiento humano exclusivamente en el aspecto de la
resolución de problemas.
Posteriormente John McCarthy hizo su aporte para la comprensión de los
procesos inteligentes. Propuso una versión de un experimento de psicología animal: el
problema del chimpancé y la banana. En el test clásico se encierra a un chimpancé en
una habitación en la que hay una banana colgada del techo. El mono debe darse
cuenta de que, para alcanzarla, debe apilar varias cajas que hay en la habitación y
luego trepar por ellas.
El programa de computadora reformuló este planteo convirtiéndolo en “el
robot y la caja”. Sobre una plataforma hay una caja, que está fuera del alcance de un
robot sin brazos que tiene un “ojo” constituido por una cámara de video. La solución,
para la cual el robot no estaba programado, exige que éste empuje un bloque con
forma de rampa hasta la plataforma y luego deslizarse por ella hasta alcanzar la caja.
Esta tarea aunque parezca trivial requería establecer y resolver muchas submetas.
Este programa permitía demostrar claramente habilidad para resolver
problemas. Sin embargo aún podría objetarse que este tipo de problemas es de
naturaleza mecánica o, en el mejor de los casos, aceptar la presencia de inteligencia
pero considerarla equivalente a la de un simio.
Para contestar a este tipo de críticas muchos investigadores intentaron definir
y emular habilidades que distinguieran a los seres humanos. Es así que se comienza
a trabajar sobre el lenguaje natural.
Una de las razones que impulsaban a ocuparse de este tema era el deseo de
crear computadoras que pudieran usar el lenguaje natural pues así se daría la
apariencia de una inteligencia superior. Además se suponía que sería más fácil dar
instrucciones verbales a una computadora que escribir programas.
Algunos programas desarrollados a comienzos de 1960 parecían poder llevar
a cabo conversaciones inteligentes. Un buen ejemplo de ello es el programa Eliza,
que imita la forma de conversación de un psicoterapeuta rogeriano.
Si bien este programa da la sensación de estar conversando con una persona
-debido a la forma como procede- si no logra reconocer alguna palabra clave en una
oración da una respuesta a partir de una lista de respuestas neutrales, llevando a la
conversación a un callejón sin salida. Además es incapaz de reconocer el absurdo.
Carece de una comprensión real de la conversación como del contenido de cualquier
tema. Estos defectos demostraron que la verdadera capacidad de responder
preguntas exige que las respuestas se basen en el conocimiento de las condiciones
reales del mundo y no sólo en el análisis gramatical de las preguntas.
Como el comprender el sentido de una palabra es una tarea muy grande y
compleja se apeló a reducir mucho el tema de conversación para obtener los
resultados deseados.
Uno de los primeros programas que lo lograron fue el Student que podía
responder a problemas de álgebra de nivel de escuela secundaria. Su limitación se
mostraba al no poder responder a otros temas que no fueran los planteados
algebraicamente ni ser capaz de reconocer la naturaleza absurda de un problema.
En 1972 se propone crear un programa que pudiera contestar una variedad
mucho mayor de problemas con soluciones no matemáticas y que pudiera
comprender qué era posible y qué no lo era. Para lograr el objetivo fue necesario
limitar el alcance de la actividad, es así que se creó un “mundo” muy reducido
constituido por varios cuerpos geométricos y un robot llamado Shrldu para
manipularlos.
Sin embargo, los detractores de la IA seguían haciendo escuchar sus críticas,
en especial objetaban la imposibilidad de crear programas que resolvieran “problemas
reales”. En respuesta a esos sarcasmos los científicos de la IA empezaron a ocupar
de sistemas que pudieran “razonar, hacer sugerencias tentativas y aconsejar sobre
cursos de acción en campos como la medicina, la química, los negocios y la
ingeniería” (Campbell, 1989). Se plantearon que para resolver problemas complejos
se necesitaba el nivel de conocimientos de un experto humano. Surgen así los
sistemas expertos o sistemas basados en los conocimientos.
Uno de los primeros programas de este tipo fue el Heurística DENDRAL.
Resultó útil para determinar la estructura de moléculas orgánicas y ayudó a
desentrañar los secretos de antibióticos, feromonas y hormonas.
Quedó así demostrado que los programas heurísticos con conocimientos
aumentados podían aplicarse a resolución de problemas prácticos, lo cual fue aplicado
a problemas que iban desde la geología hasta la medicina.
Sin embargo surgieron problemas a la hora de recolectar y codificar la
información: era una tarea sumamente tediosa y difícil, los expertos (quienes daban
los datos para hacer las bases de conocimiento) no siempre conocían acabadamente
los temas y las reglas con las que operaban eran inexactas.
El problema mayor lo constituyó el que los sistemas expertos podían brindar
respuestas en sólo un campo acotado de actividades y, a veces, había fragilidad en
los resultados pues eran incapaces de reconocer incongruencias. Por ej.: si se le daba
la descripción de un coche oxidado, la fragilidad de un sistema de diagnóstico médico
podía llegar a la conclusión que sufría de sarampión.
Los seres humanos descubrimos con facilidad problemas de este tipo
recurriendo al “sentido común”. Entonces la pregunta era: ¿cómo pueden aprender
“sentido común” las computadoras? Para poder dar una respuesta, será necesario que
previamente consideremos cómo pueden aprender, en general, las computadoras.
Para lograr crear una computadora que pudiera aprender se diseñó un sistema
basado en las estructuras de las neuronas, surgen así las redes neuronales también
llamadas modelos conexionistas o modelos de procesamiento distribuido en
paralelo.
Una Red Neuronal es un programa computacional avanzado que, como el
cerebro humano, puede aprender y realizar inferencias a partir de la información
almacenada (experiencia). Al procesar simultáneamente (en paralelo) múltiples
operaciones, son capaces de resolver problemas relativamente complejos. (Ver
Informe sobre redes neuronales)
Estos modelos permiten que, en lugar de darle a la computadora un programa
para que lo ejecute, ahora se la “entrena” para que obtenga un resultado deseado, sin
8
darle instrucciones concretas sobre cómo lograrlo. La técnica más difundida que se ha
utilizado es la retropropagación y con ella se han entrenado redes para que pudieran
reconocer voces, textos manuscritos, diagnosticar enfermedades oculares y jugar al
backgammon.
Esta técnica de enseñanza es muy simple y se la puede automatizar con
facilidad. Permite que la computadora comience a ser capaz de autoprogramarse. La
desventaja que presenta es que, al autoprogramarse, no queda claro cómo
desempeña sus tareas realmente una red.
Dentro de las limitaciones que presentan las redes neuronales podemos
señalar que sólo pueden aprender tareas que tienen resultados bien definidos,
después de practicarlas miles de veces. Por ej. serían incapaces de diseñar una casa.
Para solucionar estos inconvenientes se pensó en combinar los sistemas de
autoprogramación con estructuras de reglas como las usadas en el Solucionador
General de Problemas (SGP). De esta manera una máquina podría aprender y recurrir
al sentido común. Estos son los objetivos de investigación de un proyecto que se ha
denominado CyC.
En 1984 se comenzó a construir una base de conocimientos de “sentido
común” que contaría con unos cien millones de axiomas que abarcan una inmensa
variedad de cosas que la mayoría de los habitantes de todo el mundo occidental sabe.
Las reglas y metarreglas pueden brindar mucha ayuda para interpretar la
información. En la comunicación humana cumple un papel importante el contexto:
dónde y acerca de qué se da la comunicación y este aspecto también es contemplado
por Cyc a quien se está entrenando para que genere su propia información nueva
mediante el estudio y análisis de lo que ya sabe y se lo está programando para el
razonamiento analógico, como el que solemos usar los seres humanos.
Actualmente los sistemas de inteligencia artificial suelen ser híbridos que
combinan la mejor forma de resolución de problemas, las bases de conocimiento y
otras técnicas.
Un ejemplo de esto es Soar que, según Newell que es uno de sus autores,
representa una Teoría Unificada de la Cognición. Incluye resolución de problemas,
toma de decisiones, memoria, aprendizaje, lenguaje, motivación, emoción,
imaginación y el sueño.
En primera instancia el programa enfrenta el problema como un novato, lenta
y metódicamente, por ensayo y error. Luego, con la experiencia, aprende las
resoluciones casi instantáneas que son características en los expertos que
comprenden la estructura del problema. Por ej. lo que en un comienzo le había llevado
1.731 pasos para resolver, posteriormente, con la experiencia, lo logró en sólo 7
pasos.
Este sistema es el más abarcador para explicar la inteligencia humana y
demostrar su equivalente funcionamiento en los sistemas de inteligencia artificial.
¿Otras metáforas?
En la actualidad la metáfora computacional no es la única visión general que
se utiliza desde las ciencias cognitivas. A partir de 1985 se ha producido una profunda
grieta en la fortaleza metafórica de la analogía del ordenador, surgiendo dos
vertientes:
Por un lado la corriente “conexionista”, de la que ya hemos dado cuenta
anteriormente, que postulan la metáfora basada en el paralelismo mente-cerebro y,
por otro, surge la “narratividad” que construye sus metáforas fijándose en otras
“máquinas” que no son físicas, sino culturales.
Esta última postura significa un replanteo radical ya que no sólo considera que
el conocimiento se genera en un contexto social y cultural, sino incluso que dicho
conocimiento es en realidad un producto social.
Sostienen que la forma más elemental de cualquier conocimiento consiste en
las historias que contamos y nos cuentan.
La metáfora que proponen plantea que la mente humana no es como una
computadora (funcionalismo) o como un cerebro (conexionismo) sino como una
función generadora de historias.
Se postula que esta capacidad narrativa humana es algo que debe pertenecer
a la dotación innata humana y por eso aparece en todos los contextos, para contar
historias no hace falta leer ni escribir y es una actividad que la humanidad ha venido
realizando desde sus primeros tiempos.
La inteligencia artificial ha sido criticada desde sus comienzos. Sus oponentes
sostenían que ninguna máquina, que ninguna sustancia material podía ser inteligente.
Sin embargo es indiscutible que las computadoras actuales se están desempeñando
bien en campos que hasta hace poco se consideraban exclusivos de los seres
humanos.
Muchos investigadores se apresuraron a afirmar que las máquinas se estaban
volviendo inteligentes, sus opositores sostuvieron que la conducta de las máquinas no
indica que éstas sean inteligentes pues la lista de procesos que pueden desempeñar
sigue siendo de naturaleza mecánica.
La última palabra aún no está dicha. Queda aún mucho por investigar y
demostrar. Tal vez, tal como sostienen Gardner, Kornhaber y Wake “la resolución del
conflicto entre estas dos perspectivas será posible cuando aceptemos que la
posibilidad de hacer una descripción detallada de una conducta inteligente y, quizá,
modelarla mecánicamente, no impide que la llamemos inteligente”.
Documentos relacionados
Descargar