FAVAROTTO, GARCÍA CONI Y VIVAS 4383 ORGANIZACIÓN DE LA

Anuncio
FAVAROTTO, GARCÍA CONI Y VIVAS 4383 ORGANIZACIÓN DE LA MEMORIA SEMANTICA EN NIÑOS
Y JOVENES
El conocimiento semántico está representado por conceptos que pueden estar relacionados
taxonómicamente (jerárquicamente organizados) o temáticamente (unidos por relaciones que
entrecruzan categorías) ambos tipos de relaciones surgen de distintos procesos.
La producción de relaciones temáticas supera las taxonómicas en los niños, pero a medida que
crecen comienzan a predominar las taxonómicas, coexistiendo ambas. Sin embargo hay autores
que discuten esta relevancia de la taxonomía, diciendo que las relaciones temáticas son esenciales
para categorizar objetos en la vida cotidiana.
Según el estudio realizado los adultos produjeron un porcentaje superior de atributos taxonómicos
que los niños, sin embargo ambos grupos mostraron un predominio de atributos temáticos.
Ambos grupos produjeron más atributos taxonómicos para las categorías de seres vivos (frutas y
animales) y más atributos temáticos para las cosas no vivientes (objetos y muebles).
Por lo cual la organización temática de los conceptos no es sustituida por otra taxonómica con la
edad. La incorporación de categorizaciones taxonómicas en los adultos se debe a los efectos de la
educación pero eso no implica la desaparición de las clasificaciones temáticas que son intrusivas,
rápidas y frecuentes aún en la vida adulta.
BARSALAU 4397 SIMULACION, CONCEPTUALIZACION SITUADA Y PREDICCION
La simulación parece ser un mecanismo computacional básico en el cerebro que sostiene un
amplio espectro de procesos. La simulación es la reactivación de estados perceptuales, motores e
introspectivos adquiridos durante la experiencia. El proceso de reactivación tiene dos fases:
(i)almacenamiento en la MLP de estados multimodales provenientes de la experiencia y (ii)
reactivación parcial de estos estados multimodales para su uso representacional (incluyendo
predicciones).
- Fase (i). Almacenamiento de estaos modales
A medida que un sistema neuronal se activa por la detección de rasgos, las neuronas de las
áreas de asociación capturan el patrón de activación dentro de ellas para su uso
representacional posterior. A su vez, las áreas de asociación superiores integran las
activaciones de diferentes modalidades.
- Fase (ii). Reactivación de estados modales
Una vez que estos patrones son capturados se pueden reactivar en ausencia de estimulación
bottom-up. Una reactivación nunca constituye una restauración completa de un estado modal
original, y muchas fuentes de sesgo pueden generar distorsiones, las reactivaciones son siepre
parciales y potencialmente imprecisas. La reactivación no es necesariamente conciente, es
más frecuente que sea inconciente, y pueden ocurrir junto con reactivaciones concientes.
Cuando las reactivaciones son concientes pueden entenderse como parte de la imaginería
mental.
Simuladores y simulaciones:
Barsalau desarrolló una teoría de la cognición basada en la reactivación neuronal de estados
modales, los simuladores integran la información de los diversos ejemplares de una categoría,
mientras que las simulaciones son conceptualizaciones de ejemplares específicos.
- SIMULADORES
Los encuentros con ejemplares de una misma categoría tienden a activar patrones neuronales
similares en los sistemas de rasgos, después de experimentar con ejemplares de una misma
categoría, un sistema multimodal distribuido se desarrolla para representar la categoría como
un todo, estos sistemas multimodales distribuidos son los simuladores. Un simulador funciona
como un concepto, integrando el contenido multimodal de una categoría a través de sus
ejemplares y proporcionando la habilidad de interpretar entidades individuales como casos de
aquel tipo.
- SIMULACIONES
Una vez que un simulador existe para representar una categoría, puede reactivar pequeños
subconjuntos de su contenido como simulaciones específicas. Todo el contenido de un
simulador nunca se activa simultáneamente, factores como la frecuencia, la recencia y el
contexto determinan qué simulaciones se activan durante la simulación específica de una
categoría. El nivel de detalles puede variar ampliamente dependiendo de la cantidad de
información disponible o requerida. Además cuando se simula un evento que ocurre a lo largo
del tiempo usualmente se incluye un pequeño subconjunto de los puntos percibidos
originariamente.
Las simulaciones implementan la funcionalidad de los sistemas simbólicos clásicos pero
emerge en sistemas modales y asociativos en vez de estar representada explícitamente en
unidades simbólicas, como en el cálculo de predicados y en los marcos.
- FUENTES DE SIMULADORES
Se desarrolla un simulador para cualquier componente de la experiencia que la atención
seleccione repetidamente. El sistema cognitivo adquiere nuevos conceptos a medida que los
mismos devienen relevantes.
Los simuladores para conceptos abstractos capturan simulaciones multimodales complejas,
por lo general producto de introspecciones y eventos.
Conceptualizaciones situadas:
Los conceptos no se procesan aislados, usualmente se los sitúa en escenarios, eventos e
introspecciones. La gente sitúa los conceptos porque el cerebro intenta simular una experiencia
perceptiva, y la percepción es siempre situada, el fondo nunca desaparece aunque la atención esté
en un objeto. Cuando la gente construye una simulación para representar una categoría, debe
simular la categoría inserta en una situación perceptiva relevante, esto se llama: conceptualización
situada. En diferentes ocasiones, diferentes conceptualizaciones situadas representan una
categoría. Un concepto no es una única representación genérica de una categoría, por el contrario,
un concepto es la habilidad de producir una amplia variedad de conceptualizaciones situadas que
permiten el logro de metas en contextos específicos.
- Las simulaciones multimodales implementan conceptualizaciones situadas.
Una simulación multimodal compleja se activa para representar una conceptualización
situada, los aspectos perceptivos son representados como simulaciones modales en una
conceptualización situada que representa la experiencia en su ausencia.
- Conceptualizaciones situadas arraigadas.
El conocimiento acerca de situaciones familiares se afianza en la memoria, permitiendo una
actuación habilidosa en las mismas, los componentes de la conceptualización se afianzan
como simuladores, con el tiempo la conceptualización situada se establece tan firmemente
que se activa automática e inmediatamente cuando acontece la situación pertinente. La
mayoría de las situaciones experimentadas, más allá de cuán novedosas sean, activan la
conceptualización situada que se le asemeje en mayor medida. Esta activación juega un rol
central en el procesamiento de una situación actual.
- Inferencias por completamiento de patrones.
Una vez que las conceptualizaciones situadas se afianzan en la memoria permiten procesos
inferenciales de completamiento de patrones. Ante una situación familiar la conceptualización
situada se activa por más que se perciba sólo una parte o rasgo, a partir del cual se predice
que la situación está a punto de ocurrir, el agente extrae inferencias a partir de la simulación
que exceden la información dada.
Simulaciones y conceptualizaciones situadas como fuentes de predicción:
A medida que la simulación situada se activa, sus componentes simulados pueden ser usados para
monitorear si las predicciones son satisfechas. Si las predicciones iniciales se ajustan a lo que
acontece, se puede confiar en la conceptualización activa para que provea más predicciones, caso
contrario, una nueva conceptualización debe ser recuperada o construida.
- PERCEPCIÓN
Las simulaciones que se originan en conceptualizaciones situadas de objetos producen
predicciones acerca del movimiento. El conocimiento acerca de si un objeto se mueve rápida o
lentamente afecta consecuentemente dichas simulaciones de trayectorias.
En la percepción auditiva el conocimiento léxico produce predicciones vía simulación, en el
marco del efecto de restauración de fonemas, quienes escuchan emplean su conocimiento
para simular y predecir fonemas faltantes.
- ACCIÓN
Cuando se percibe un objeto las conceptualizaciones situadas producen predicciones sobre las
acciones aplicables a éstos. A su vez, las simulaciones motoras son centrales para el control de
las acciones, a medida que una acción es ejecutada, el sistema motor construye una
simulación que se propaga hacia delante de la acción que monitorea y guía. Esto también
juega un papel importante en la predicción de movimientos de agentes percibidos
visualmente.
- MEMORIA IMPLICITA
En la memoria implícita, las simulaciones incrementan la fluidez perceptiva facilitando el
procesamiento de información estimular y acelerando la formación de percepciones (priming
de repetición) al activar áreas relevantes para el procesamiento del estímulo. Las memorias
perceptivas juegan un rol fundamental en el efecto priming. El priming de repetición es más
potente cuando las modalidades de la memoria y del estímulo coinciden. Imaginar un estímulo
produce un priming de repetición similar al producido por la percepción efectiva de dicho
estimulo, lo que sugiere que representaciones perceptivas subyacen a ambos fenómenos.
- MEMORIA A LARGO PLAZO
La imaginería mental puede ser considerada manipulación conciente de simulaciones en la
memoria de trabajo para predecir eventos futuros. Cuando la acción es relevante para la
imaginería visual, el sistema motor se compromete. Predicciones en múltiples modalidades se
expresan mediante simulaciones multimodales.
- PROCESAMIENTO CONCEPTUAL
Cuando entidades y eventos son categorizados, el conocimiento conceptual de dicha categoría
se activa a fin de predecir lo que ocurrirá a continuación gracias a simulaciones multimodales
que constituyen conceptualizaciones situadas, acelerando el procesamiento del objeto en
cuestión, así como de objetos y eventos relacionados con éste. Cuando las personas intentan
predecir información asociada con categorías en ausencia de ejemplares de las mismas, éstas
no producen simplemente atributos del objeto en sí mismo. Cuando una persona describe un
objeto lo sitúa desde su propia perspectiva, simulándose a sí misma en la situación también, la
gente construye la experiencia de estar junto al objeto para producir sus atributos.
- LENGUAJE
Quienes comprenden usan simulaciones para generar predicciones acerca del significado. El
movimiento implicado en una oración produce simulaciones correspondientes de movimiento
a través del espacio, estas simulaciones producen movimientos predictivos de los ojos.
- COGNICION SOCIAL
Las conceptualizaciones situadas proveen un poderoso medio de predicción en lo que a la
cognición social respecta, siendo estas predicciones expresadas mediante simulaciones
durante inferencias de completamiento de patrones.
CONCLUSION:
El cerebro puede ser visto como un sistema coordinado que genera un flujo continuo de
predicciones multimodales durante la acción situada y la interacción social.
BALLESTEROS 4357 REPRESENTACIÓN DEL CONOCIMIENTO EN LOS SISTEMAS CONEXIONISTAS
- Los modelos simbólicos sostienen que la representación del conocimiento se realiza a
través de símbolos. Los humanos como los ordenadores son sistemas capaces de
manipular símbolos, buscaron desarrollar un sistema matemático puramente formal, libre
de todo contenido (proposiciones??). La analogía con la máquina de Turing impulsó la
creación de modelos computacionales, tanto la mente como la máquina de propósito
universal operan sobre representaciones, que son códigos simbólicos. Ambos sistemas se
organizan en tres niveles:
1. Semántico: explica por qué estos sistemas saben cuáles son sus objetivos.
2. Simbólico: codifica el contenido semántico y dicta las reglas de manipulación de dichos
símbolos.
3. Físico: actúa como soporte material del sistema.
Las representaciones se entienden como una serie de símbolos relacionados mediante una
compleja sintaxis.
- Los modelos conexionistas (McClelland y Rumelhart) proponen una arquitectura no
simbólica basada en el procesamiento paralelo, la cognición se produce a partir de la
interacción simultánea de una serie de unidades semejantes a neuronas altamente
interconectadas. Son los pesos de estas interconexiones los que determinan el
funcionamiento de la red, no siendo necesario un lenguaje interior de manipulación de
símbolos.
Las representaciones para los conexionistas se encuentran DISTRIBUIDAS a lo largo de la
red (no hay una neurona que almacene el color rojo, sino que se activa una red). Esta red
tiene las siguientes propiedades:
1. Tiene capacidad de autogenerarse, nuevos inputs pueden clasificarse de la misma
manera que otros ya existentes en el sist.
2. Puede completar un patrón especificado de manera incompleta, la red es capaz de
proporcionar las activaciones correspondientes en los nodos que carecen de ellas.
3. Tolera imperfecciones, cuando una unidad se lesiona el funcionamiento del sistema se
ve afectado pero no impedido.
- Los primeros modelos neuronales (Culloch y Pitts) establecieron una analogía entre la
lógica proposicional donde las afirmaciones pueden ser V o F (sólo toman dos valores) y
las neuronas, cuya activación correspondería a estos dos valores (encendido o apagado),
creían en la posibilidad de formalización del sist. nervioso. Hebb propuso que el
aprendizaje se producía en las redes neuronales debido a un cambio de fuerza de las
conexiones entre los sistemas de la red, dando lugar a lo que se llamó “asamblea de
neuronas”. Rosenblatt postuló su teoría de los “perceptrones” que eran redes simples
formadas por unidades sensoriales conectadas a un conjunto de unidades motoras a
través de un único estrato neuronal, las sinapsis se autoajustaban por ensayo y error
intensificando y atenuando las conexiones hasta que los pesos de las conexiones
alcanzaban los valores deseados correspondientes al patrón, esta nueva concepción
permitió pensar al sistema de procesamiento como algo dinámico, capaz de dirigirse a sí
mismo en vez de ser dirigido desde el exterior.
- Sin embargo el computacionalismo clásico en esa época logró que sus modelos simbólicos
resolvieran teoremas lógicos utilizando el cálculo proposicional, lo cual hizo que los
modelos paralelos cayeran en el olvido.
Modelos conexionistas actuales:
En estos modelos cada entidad está representada por un patrón de actividad distribuida sobre
una gran cantidad de elementos simples de computación, la manera en que están
representados los conceptos dentro del sistema tiene importantes implicaciones para la
actuación dinámica del mismo. A su vez, todas las unidades pueden participar en la
representación de cada concepto, de manera que el sistema es capaz de representar muchos
más conceptos, aunque sólo pueda activarse uno en cada ocasión. El conexionismo se ubica en
un nivel subsimbólico que tiene su propia semántica. Las entidades que se representan en el
paradigma simbólico mediante símbolos, aquí se representan por un gran número de
subsímbolos que participan en cómputos numéricos, no simbólicos.
- Características del PDP:
- Aunque ambos asignan conocimiento semántico, el PDP reconoce únicamente conexiones
causales entre nodos, las teorías cognitivas lo hacen entre objetos evaluables
semánticamente.
-
En los modelos conexionistas las representaciones están neurológicamente distribuidas
correspondiendo sus estados de actividad a patrones de actividad neural.
- El PDP subraya la relevancia de la neurociencia para poder desarrollar modelos
computacionales que se adapten a la estructura del cerebro.
- La representación en estos modelos es numérica, no simbólica, ya que las unidades se
comunican mediante señales numéricas.
Semejanzas entre las redes de los modelos conexionistas y el ser humano:
- Ambos aprenden rápidamente pero el aprendizaje va decayendo con las repeticiones
sucesivas.
- Ambos se benefician del aprendizaje distribuido o espaciado.
- Ambos son capaces de generalizar el aprendizaje a elementos nuevos.
- La destrucción de una parte de la red no acaba con el funcionamiento del sistema, sólo
produce una disminución del rendimiento.
.Conclusiones:
Características de las representaciones distribuidas (en red), que los modelos computacionales
simbólicos (PPI) no poseen:
- Tienen la propiedad de autogeneración ya que representaciones con contenido semejante
darán lugar automáticamente a patrones semejantes de activación.
- Pueden completar un patrón rellenando las activaciones faltantes entre los nodos.
- Es capaz de tolerar pequeños errores y permitir que la actuación no sea totalmente
perfecta.
- La diferencia entre distintas representaciones no depende de las unidades que la formen
sino del patrón de actividad manifestado por el conjunto de unidades, compartido por
varias representaciones.
FIN
TIENSON 4432 INTRODUCCION AL CONEXIONISMO
La IA se propone lograr que los computadores se comporten de manera que podamos
reconocerlos como inteligentes –en algún sentido que nosotros lo hacemos-. La característica
definitoria de los computadores corrientes es que manipulan símbolos en términos de reglas
precisas, son manipuladores de símbolos gobernados por reglas. Contienen estructuras de datosobjetos estructurados sintácticamente, oraciones y reglas que definen a esas oraciones. Un
programa es una secuencia de tales reglas. La característica del BAIA es que la inteligencia toma la
arquitectura del ordenador clásico, la cognición es la manipulación de símbolos gobernados por
reglas. El punto de vista de “reglas y representaciones” se caracteriza por:
- Representaciones estructuradas sintácticamente
- Reglas formales precisas que refieren a la estructura sintáctica de esas representaciones.
Diferencias ordenador-mente:
- Existen cosas para las que somos buenos que son muy difíciles para los computadores, por
otra parte, los computadores son mucho mejores que los humanos en otras tareas. Esto
sugiere que los cerebros humanos no hacen las cosas como los computadores lo hacen.
-
Las neuronas son lentas y de degradación armoniosa. El funcionamiento de los sistemas
naturales se deteriora de manera gradual.
- Una lesión cerebral puede afectar al funcionamiento cerebral pero no necesariamente
implica perdida de alguna capacidad, en cambio los sistemas de reglas y representaciones
son frágiles, las lesiones causan perdida de funciones y de todo lo que dependa de ellas.
Restricción de los 100 pasos: ninguna tarea puede requerir más de cien pasos seriados, aun si
procesamos en paralelo ninguna de las pistas puede tener más de cien pasos.
Problema del marco (trabajar con restricciones débiles, múltiples y simultáneas) y del cruzamiento
(cualquier porción de información podría resultar relevante para cualquier tarea u otro
conocimiento).
- El primer problema implica la complejidad de programación cuando existe una enorme
cantidad de factores, el número de computaciones requeridas se expande
exponencialmente en relación con el número de factores conduciendo a una explosión
computacional. Cuando las restricciones son múltiples y simultáneas, también son débiles
porque cualquiera de ellas puede ser violada mientras se lleva a cabo la tarea de modo
apropiado.
- El segundo tiene que ver con que cualquier parte del conocimiento puede ser usado en
relación con cualquier tarea cognitiva, la cognición no puede ser partida en dominios
aislados. Los computadores no pueden cruzar información de esta manera. A su vez,
cualquier porción aislada de información es capaz de cambiar nuestro sistema total de
creencias, el problema del marco es el problema de determinar de qué manera efectiva y
general, qué cambiará cada nueva porción de información y qué dejaría igual en un
sistema de creencias.
Lo que sucede es que no hay límites sobre qué parte del conocimiento especializado podría ser
relevante para resolver un problema particular.
Conexionismo: Es muy distinto al PPI, el conexionismo trata de explicar y mejorar la IA, los
comportamientos cognitivos que explican son limitados.
Tienson: dos ejes: conceptual y filosófico. Lo conceptual es el ABC del conexionismo, que así como
el PPI trata de mejorar el conductismo, el conexionismo trata de resolver los problemas de la IA
(BAIA: la buena y anticuada inteligencia artificial en Tienson).
En la parte filosófica, se parece mucho a Riviere porque lo que hacen es criticar la analogía entre el
hombre y la máquina (porque es el núcleo duro). El problema está planteado en distintos términos
pero las conclusiones son similares. Problemas: restricciones, cruzamiento, marco (pueden, los
últimos dos, ser el mismo problema).
1) Restricciones: múltiples, débiles y simultáneas. Son cuestiones que nos influencian en el
comportamiento, son factores que inciden sobre nuestros comportamientos, esto es
múltiple, hay muchos factores. Pero esas restricciones son débiles: una fuerte seria que se
caiga el techo o escuchar una explosión, determina nuestro accionar. Vivimos en un
mundo de restricciones débiles porque se pueden resolver. Y simultáneas porque se dan a
la vez, al mismo tiempo, pero el humano puede resolverlas todas. Lo común es que se
resuelvan las restricciones (débiles). En el IA las restricciones son fuertes y secuenciales.
Cada problema es EL PROBLEMA y lo resuelve de a poco, secuencialmente, esto ataca a la
BAIA. El hombre es diferente con respecto a las restricciones con la máquina.
2) Cruzamiento y Marco: nosotros nos movemos por dominios de información. Hay
cruzamiento o marco de información, hay esquemas de información, son dominios de
información. Hay contenidos de información asociados porque tienen justamente,
información en común o alguna similitud. Lo que podemos hacer es cruzar la información
de distintos dominios. El IA, no hay intencionalidad de ir a buscar conexiones, no hay
propiedad de cruzamiento de información, se maneja con la información contenida en el
programa, la persona tiene intencionalidad o voluntad de buscar información, no hay
capacidad de la máquina de ir a buscarla.
3) Problema del sentido común: la máquina no opera por sentido común a diferencia del
humano.
RIVIERE 4460 CHOMSKY
Es difícil resistirse a la idea de que debe haber ciertas representaciones que, sin ser identificables
con las intenciones concientes, nos permiten comportarnos como lo hacemos. Nos comunicamos
sin ninguna conciencia de los procesos y representaciones que nos llevan a producir oraciones
gramaticales con palabras adecuadas, estas reglas parecen formar parte de mí, como sujeto
cognitivo, pero al mismo tiempo no siento que formen parte de mí como sujeto al que atribuyo
intenciones concientes.
La esencia de la posición chomskiana consiste en identificar la forma de organización del sujeto
con una determinada forma de organización del conocimiento. Entender al sujeto cognitivo como
un conjunto de representaciones de reglas, que definen ab initio una determinada arquitectura
funcional que hace posible el desarrollo del conocimiento o del lenguaje. El sujeto debe conocer
ciertas verdades acerca de la estructura posible de los lenguajes para desarrollar SU lenguaje, y
estos contenidos PROPOSICIONALES, que no se identifican con contenidos concientes, son los que
definen la arquitectura del sujeto como ser competente para desarrollar a partir de ese núcleo las
reglas específicas del lenguaje que se habla en su comunidad. Según Chomsky no hay razón para
suponer que tengamos accesos privilegiados a los principios involucrados en nuestro
conocimiento y uso del lenguaje o que relacionan el “órgano mental” del lenguaje a otros sistemas
cognoscitivos.
La principal diferencia entre Chomsky y Fodor es que lo que define al sujeto lingüístico de
Chomsky no son unas “herramientas de computación vacías”, sino unos contenidos inconcientes
de conocimiento referidos, bien a todos los lenguajes humanamente posibles (lo q permite
desarrollar cualquier lenguaje al q se esté expuesto) o bien a su propio lenguaje (lo que permite
comprender y producir infinitas oraciones gramaticales). Chomsky asume la posición del
racionalismo cartesiano al proponer que el sujeto no sólo no es una tabula rasa, sino que posee
conocimientos anteriores a cualquier experiencia y que son los que le dan sentido y la estructuran.
Si la psicología cognitiva se define por la suposición de que hay representaciones no concientes
capaces de explicar determinadas regularidades de la conducta, la posición chomskiana constituye
un prototipo y una formulación radical del paradigma cognitivo. El sujeto cognitivo se concibe
como una gramática, la generación de una oración gramatical se define por una serie de
computaciones sobre “representaciones simbólicas”. Chomsky tiene una concepción articulada,
fuerte y modular del sujeto cognitivo y piensa que “es útil pensar en la facultad lingüística, la
facultad numérica, y otras como órganos mentales.”
Tanto Chomsky como el PPI se basan en:
- El supuesto de que el sujeto cognitivo es esencialmente creativo
- Es posible dar cuenta de esa creatividad a partir de ciertas reglas
- Tales reglas configuran una especie de gramática
- La explicación de la conducta sobre la base de algoritmos definidos por esa gramática que
consisten en la aplicación de computaciones a representaciones
- El modelo jerárquico y recursivo de las estructuras definidas por las reglas, etc.
Pero estas descripciones discretas de la inteligencia no agotan las posibilidades de explicar una
cierta dinámica de carácter continuo a la que controla, ambos modelos tienen dificultades para
dar cuenta de la creatividad inherente a las funciones superiores, dado que las explicaciones
exclusivamente discretas cierran las posibilidades de autocompilación de los sistemas que
pretenden explicar, estos no pueden avanzar a un nivel más alto que la lógica que los define. Esto
explica por qué Chomsky determina el carácter innato de la gramática, porque el sistema tiene
predeterminada su competencia final de representación. Para Chomsky no hay ningún mecanismo
general del aprendizaje que pueda aplicarse a la percepción o el lenguaje, etc. Esto demuestra una
limitación del sujeto en psicología cognitiva, es un sujeto con una arquitectura funcional
preconstruida o de mera acumulación de conocimiento, sin transformaciones de la propia
arquitectura funcional.
CHOMSKY
La estructura interna del locutor ideal o sujeto universal debe ser considerada como específica, los
compromisos ontológicos del racionalismo articulan el presupuesto innatista, la confianza
inquebrantable en la abstracción y el presupuesto de que se puede llegar a un desglose no
arbitrario. El núcleo duro del programa chomskiano es creer que toda estructura surge del interior.
El medio REVELA dicha estructura pero de ningún modo podría imprimirla en el sistema a través
de sus propios esquemas.
Para las gramáticas un sistema fijo y genéticamente determinado limita la forma que puede tomar
dicho sistema, lo mismo sucedería respecto a otras estructuras cognitivas.
Si existen principios semánticos fundamentales y generales como los que se conocen en el campo
de la sintaxis, de la fonología y la interpretación semántica, dichos principios podrían pretender
legítimamente figurar entre los principios de las teorías del aprendizaje humano en determinados
campos cognoscitivos, y ser considerados como propiedades del estado cognoscitivo inicial
general.
La estructura que atribuimos a la capacidad de lenguaje genéticamente determinada ha de
satisfacer dos condiciones empíricas: debe ser lo suficientemente rica y especifica como para dar
cuenta de la adquisición de competencia lingüística en cada lengua en particular, pero no ha de ser
tan rica y especifica como para excluir casos efectivamente experimentados. La teoría de la
gramática universal debe situarse entre estas dos fronteras empíricas.
La competencia lingüística – el conocimiento de la lengua- no constituye más que uno de los
factores de su ejecución.
Chomsky: la idea es la de una primer teoría de la década del 70´como teoría estándar del lenguaje,
luego se fue modificando muchas veces (la última del 90´). Actualmente es un personaje
politizado. Fue un generador de teoría impecable por constancia y regularidad. Para la Psicología
Cognitiva, Chomsky tiene peso, ya que tiene una postura revolucionaria, la psicología no podía
explicar un tipo de comportamiento complejo, sí conductas relacionadas al hábito.
Más allá de que Chomsky es lingüista y gramático, tiene una idea de que la mente es un conjunto
de dominios cognitivos que tienen entre sí una relativa autonomía y una base innata a partir del
cual se desarrolla ese dominio, una idea modular. Lenguaje como objeto de estudio exclusivo, si
hubiera una idea de mente generalista (como la de Piaget, donde no hay modulo o dominios) no
podría estudiar el lenguaje. Llega a afirmar que lo que se puede decir de esos dominios puede
extrapolarse a otros dominios, por ejemplo que todos son innatos.
En la teoría estándar hay una sintaxis, una relación semántica y una relación fonológica, diciendo
que la sintaxis es la generativa de la gramática y del habla de las personas. Por eso se habla en la
teoría estándar de Gramática Generativa Transformacional. Transformacional porque a través de
un conjunto de reglas finitas se puede generar una cantidad infinita de lenguaje, porque las reglas
se van combinando y se va dando diferentes sintaxis dando la creación de la gramática. Gracias a
esta teoría surja la Psicología Cognitiva con el PPI TRADICIONAL.
Diferencia entre COMPETENCIA y ACTUACIÓN: la primera es la capacidad o disponibilidad que
tiene el sujeto para producir frases del lenguaje y la actuación es el acto de hacerlo, de hablar. La
teoría de Chomsky es una teoría de la competencia, por una capacidad innata de producir una
gramática. Porque nacemos con reglas y principios innatos que nos dicen cómo ejecutar los actos
del habla, ni siquiera en los estadios más tempranos del lenguaje no se da ni en núcleo del sujeto
ni del predicado. Competencia en el sentido de disponibilidad de reglas... Es una teoría de la
mente modular específicamente en el campo del lenguaje, ¿Chomsky hace una teoría del
aprendizaje? en realidad no es una teoría del aprendizaje. Habla del lenguaje como entidad
autónoma (como si fuera un órgano), radicalmente distinta a Piaget y parecida a la de Fodor. En
esta teoría se parte de un estado inicial, se pasa por estados intermedios y se llega a un estado
estacionario. En lo inicial está el bagaje innato, que se llama gramática universal (componente
innato), en los estados intermedios, en el estado final se encuentra la lengua como gramática
particular o lengua materna o la lengua de la comunidad (en la que vive el hablante), la
experiencia revela lo innato, lo manifiesta, en el estado estacionario se generan progresos
secundarios (x ej.: se adquiere vocabulario) pero la estructura ya es estable y detiene su
desarrollo.
Riviere: la idea de Riviere acerca de lo Cognitivo es amplio con un sujeto social y cultural. Para él la
postura de Chomsky es reduccionista y recortada del sujeto, Riviere no tiene una teoría modular
del sujeto, sino que es generalista. Según Riviere el sujeto de la teoría de Chomsky es la gramática
universal como núcleo duro de la teoría. La idea de sujeto cognitivo de Chomsky es un sujeto con
reglas universales, distinto a Riviere que dice que el Sujeto Cognitivo es personal, general,
cotidiano, natural, en contexto socio-cultural. Asociar al PPI TRADICIONAL, en realidad el problema
que tiene la teoría de Chomsky es el mismo problema que el PPI TRADICIONAL: trata de explicar
aspectos sumamente reducidos de lo cognitivo y explica comportamientos discretos con
explicaciones discretas que en vez de abrir el conocimiento, lo cierra. El conjunto se puede dar
continuamente, enumerando los componentes (a-b-c-d…) o en forma discreta (a-d) salteada, el
comportamiento discreto es una unidad exclusiva, autónoma, independiente. Chomsky también
cae en este problema.
KARMILOFF-SMITH 4356 MAS ALLA DE LA MODULARIDAD
Los piagetianos conceden al bebe humano un nivel absolutamente mínimo de estructura innata,
los innatistas, en cambio, atribuyen al recién nacido una gran cantidad de conocimiento
preestablecido y relativo a dominios específicos, relegando el aprendizaje a un papel de menor
importancia. Sin embargo, estas dos epistemologías no tienen porque ser mutuamente
excluyentes en una teoría del desarrollo. Un aspecto fundamental del desarrollo humano es el
proceso mediante el cual la información que se encuentra EN un sistema cognitivo (parcialmente
innato) se convierte en conocimiento PARA ese sistema (parcialmente constructivista).
Para Fodor la tesis innatista y de especificidad de dominios del conocimiento implican
restricciones inherentes a la arquitectura funcional humana (organización mediante
especificaciones innatas relativamente fijas y sumamente restringidas, es decir, los rasgos
invariantes del sistema de procesamiento de información del ser humano). A diferencia de Piaget
que postula un desarrollo general para todos los dominios, Fodor sostiene que la mente está
compuesta de módulos o sistemas de entrada que poseen las siguientes características:
- Están genéticamente especificados
- Son de funcionamiento independiente y dedicados a propósitos específicos
- Son rápidos,
- Autónomos,
- Obligatorios,
- Automáticos,
- Están activados por el estímulo,
- Producen datos poco elaborados y
- Son insensibles a las metas cognitivas.
Además, se encuentran informativamente encapsulados (son impenetrables) de modo
que no pueden influirse recíprocamente ni tener acceso a los datos de otros módulos, sólo
tienen acceso a la información procedente de niveles inferiores (esto implica que lo que
sabemos o creemos no puede afectar al funcionamiento de un módulo).
Lo que define a un módulo es la presencia CONJUNTA de todas estas propiedades.
La información entraría por un sistema de transductores sensoriales que convierten los datos para
cada sistema especializado de entrada, a su vez, cada sistema de entrada produce datos en un
formato adecuado para el procesamiento central de dominio general.
Los sistemas de entrada son partes de la mente humana insensibles y carentes de inteligencia
(procesamiento rápido y automático) representan la estupidez de la máquina, pero son lo que el
organismo necesita para que su conocimiento inicial alce vuelo rápida y eficientemente.
La idea de K. Smith es que el desarrollo implica un proceso que consiste en ir más allá de la
modularidad (para Fodor el desarrollo no existe). Fodor postula una dicotomía entre lo que los
sistemas de entrada computan a ciegas y las creencias que se erigen del procesamiento central.
El procesamiento central es:
- Un proceso relativamente no encapsulado
- De propósito general
- Lento
- No obligatorio
- Controlado
- A menudo conciente e influido por metas cognitivas globales
- Consagrado a la fijación de creencias, elaboración de conocimiento enciclopédico y
planificación de acciones inteligentes
La descripción que hace Fodor del encapsulamiento de módulos se centra en el papel que
desempeñan en el procesamiento on-line.
K. Smith traza una distinción entre módulos predeterminados y modularización –que sería
producto del desarrollo- apartándose de la estricta concepción innatista fodoriana. Tiene en
cuenta la plasticidad del desarrollo temprano del cerebro, donde unas pocas predisposiciones
(innatas) específicas de dominio (no estrictamente modulares) bastan para restringir las clases de
datos de entrada a procesar. Con el tiempo se seleccionarían progresivamente circuitos cerebrales
para diferentes computaciones de dominio específico llegando en ciertos casos a formarse
módulos RELATIVAMENTE encapsulados. La naturaleza especificaría sesgos o predisposiciones
iniciales que canalizan la atención del organismo hacia datos pertinentes del ambiente, los cuales,
a su vez, influyen sobre el desarrollo posterior del cerebro. Los procesos de desarrollo son claves
para comprender la mente del adulto. Sostiene la idea de que el desarrollo es un fenómeno de
dominio específico más que modular.
- Un DOMINIO es el conjunto de representaciones que sostiene un área específica de
conocimiento.
- Un MÓDULO es una unidad de procesamiento de información que encapsula ese
conocimiento y las computaciones que se hacen con él.
Por consiguiente, considerar que el desarrollo es de dominio específico no implica modularidad, el
almacenamiento y procesamiento puede ser específico sin ser encapsulado, preestablecido u
obligatorio.
Propone un modelo de FASES del desarrollo más que de estadios. Los cambios de fases ocurren en
un momento distinto en cada microdominio, y dentro de cada dominio de producen de manera
repetida.
La tesis de Fodor contrasta radicalmente con la idea de generalidad de dominios que plantea
Piaget.
- Para Piaget el desarrollo implica la construcción de cambios que afectan a las estructuras
de representación, generales para todos los dominios y que operan sobre todos los
aspectos del sistema cognitivo de manera similar. En este sentido Piaget se asemeja al
conductismo dado que ninguno postula estructuras innatas o conocimiento de dominios
específicos, admiten la existencia de unos pocos procesos biológicamente determinados,
generales para todos los dominios (En Piaget: asimilación, acomodación y equilibración; en
el conductismo: leyes de asociación).
- La tesis innatista, en cambio ve al recién nacido como un ser programado para entender
fuentes de información específicas, el aprendizaje posterior está guiado por principios
innatamente establecidos que determinan las entidades sobre las cuales va a tener lugar.
Los déficits generados por lesiones cerebrales –tanto en niños como adultos- parecería inclinarse a
favor de la tesis modular, sin embargo cabe recordar que cuanto mayor sea la cantidad de
propiedades de dominio específico de la mente del bebé, menos creativo y flexible será el sistema
posterior.
-COMO RECONCILIAR EL INNATISMO CON EL CONSTRUCTIVISMO DE PIAGET?
Para Piaget tanto la expresión de los genes como el desarrollo cognitivo son productos
emergentes de un sistema autoorganizativo que se ve directamente afectado por su interacción
con el ambiente. Postula que el recién nacido no posee ningún conocimiento de dominio
específico, sin embargo investigaciones indican que en la arquitectura funcional inicial del cerebro
hay bastante más de lo que Piaget postulaba.
A su vez, la focalización de innatistas como Fodor o Chomsky en módulos especificados deja poco
margen a la intervención de procesos ricos de construcción epigenética, y el hecho de que Fodor
se concentre en los sistemas de entrada no nos ayuda a entender cómo los niños se vuelven
participantes activos en el proceso de construcción de su conocimiento.
- En primer lugar, a las ideas piagetianas hay que añadirles algunas predisposiciones innatas
impregnadas de conocimiento. Debemos añadir sesgos de dominio específico a la
dotación inicial.
- Ahora bien, la base inicial con que parte el niño debe implicar especificaciones menos
detalladas y un proceso de modularización más progresivo que el que proponen los
innatistas.
Muchos casos de lesiones cerebrales tempranas indican que en el cerebro hay más plasticidad de
lo que se desprende desde el punto de vista modular, el cerebro no se encuentra preestructurado
con representaciones ya acabadas, sino canalizado para desarrollar progresivamente
representaciones en interacción con el medio interno y externo. Cualquiera que sea el
componente innato que evoquemos sólo puede convertirse en parte de nuestro potencial
biológico a traes de la interacción con el ambiente, y esta interacción a su vez influye en su
desarrollo.
Adherimos a una posición constructivista y epigenética del desarrollo dando su peso a la
especificidad de dominios. El hincapié de Piaget en los sistemas de salida (acciones sobre el
ambiente) se complementa con el acento del innatismo en los sistemas de entrada.
Restricciones del desarrollo: para las teorías de dominio general refieren a factores que recortan la
competencia del niño. En cambio para las teorías de dominio especifico, al limitar el espacio de
hipótesis posibles, potencian el aprendizaje.
Redescripción Representacional:
Las predisposiciones innatas pueden ser especificas o no específicas, en ambos casos se necesita la
intervención de entradas de información del ambiente, en el primer caso el ambiente actúa como
un desencadenante que hace que el organismo seleccione un parámetro entre varios posibles, en
cambio cuando se trata de sesgos o bocetos el ambiente actúa como más que un desencadenante
e influye sobre la estructura posterior del cerebro a través de una interacción epigenética.
La mente humana posee tanto una determinada cantidad de cosas especificadas en detalle como
algunas predisposiciones de dominio específico muy esquemáticas, dependiendo del dominio del
que se trate.
Los procesos de redescripción representacional convierten la información implícita en
conocimiento explícito. El desarrollo y el aprendizaje parecen adoptar dos direcciones
complementarias: por una parte se basan en un proceso gradual de procedimentalización, es
decir, que el conocimiento sea más automático y menos accesible, por otra parte implican un
proceso de explicitación y accesibilidad cada vez mayor del conocimiento, es decir, representar
explícitamente la información procedimental en que se apoya la conducta. Ambos procesos son
importantes en el cambio cognitivo.
EL MODELO RR
Pretende explicar de qué manera se hacen más flexibles las representaciones de los niños, como
surge el acceso conciente al conocimiento y como construyen los niños teorías. Consiste en un
proceso cíclico mediante el cual información ya presente en las representaciones del organismo
que funcionan independientemente se pone progresivamente a disposición de otras partes del
sistema cognitivo gracias a la intervención de procesos de redescripción. Este proceso ocurre
espontáneamente como parte de un impulso interno que empuja a la creación de relaciones inter
e intradominios. Este proceso es en sí de naturaleza general, pero se ve influido por la forma y
especificidad de las representaciones sobre las que se apoya. Es un modelo de tres fases
recurrentes:
1) El niño se centra en información proveniente del mundo externo, aprendizaje guiado por
los datos. Crea adiciones representacionales, son representaciones estables que se
añaden a lo anterior. Culmina en la capacidad de ejecutar sistemáticamente las conductas
de algún microdominio, esto es, “maestría conductual”. Puede haber conductas
posteriores que parezcan idénticas a las de la fase 1, por eso hay que distinguir entre
cambio conductual y cambio representacional.
2) Fase guiada internamente, las representaciones internas se convierten en el centro del
cambio, puede llevar a varios errores a nivel conductual.
3) Las representaciones internas se concilian con los datos externos alcanzándose un
equilibrio en la búsqueda del control interno y externo.
PIATELLI 4461 DEBATE ENTRE PIAGET Y CHOMSKY.
El núcleo duro del programa piagetiano:
El programa de Piaget es antiempirista e inspirado por un kantismo dinámico.
El conocimiento no sería más que un subcampo en el sentido estricto de la autorregulación.
La piedra angular de la autorregulación está constituida por el anillo de retroacción cibernética y
por los flujos informacionales. Las regulaciones organicas engloban, a titulo de componente
fundamental y de creciente importancia, los intercambios con el medio, siendo estos últimos el
objeto de progresivas y particulares regulaciones.
Los PROCESOS COGNOSCITIVOS aparecen simultáneamente como resultantes de la
autorregulación organica, cuyos mecanismos esenciales quedan reflejados en ellos, y como los
órganos más diferenciados de esta regulación en el seno de las interacciones con el exterior de
modo tal que terminan con el hombre por extender estas últimas al universo entero.
Esto es el NUCLEO DURO del programa piagetiano, en torno al cual se ciñe el cinturón protector.
Dos interpretaciones del compromiso ontológico: una débil, consiste en afirmar que la vida
descansa en un proceso más general presente en todos los sistemas, llamado AUTORREGULACION.
La segunda sostiene que los esquemas de regulación, asi como las estructuras que los
materializan, están englobados por el organismo a partir de los elementos del entorno, a través de
una cadena de operaciones denominadas asimilación, reorganización y acomodación.
Para Piaget es posible una transferencia de estructuras del medio al organismo.
Si se interpreta el nucleo duro según la hipótesis mas audaz, se debe tener en cuenta que la
fenocopia y los procesos por los cuales el medio imprimiría estructuras al organismo fueron
refutados por la biología molecular contemporánea.
No existe CONOCIMIENTO resultante de un simple registro de observaciones, sin una
estructuración debida a las actividades del sujeto. No obstante tampoco existen estructuras
cognoscitivas A PRIORI O INNATAS: únicamente es hereditario el funcionamiento de la inteligencia,
y este solo engendra estructuras a través de una organización de acciones sucesivas ejercidas
sobre los objetos.
Hay una elaboración continua de estructuras u operaciones que se generan a través de una
organización de acciones ejercidas sobre los objetos.
El empirismo:
No hay conocimiento alguno que tenga su origen únicamente en las percepciones, el
conocimiento procede de la acción. Y toda acción que se repite o generaliza engendra un
esquema. El vínculo constitutivo de todo conocimiento es una asimilación de los objetos a
esquemas del sujeto.
CHOMSKY
PIAGET
NÚCLEO DURO
toda estructura surge del interior los esquemas de autorregulación que
y es revelada por el medio
el medio imprimió en el organismo
LO GENÉTICAMENTE
DETERMINADO
gramática universal y algoritmos
definidos por esa gramática que
consisten en la aplicación de
computaciones a
representaciones
(5 sentidos y reflejos de succión y
prensión) y 3 procesos funcionales:
asimilación, acomodación,
equilibración.
COMO SE GENERA LA
NOVEDAD
el medio revela lo innato gracias
al contacto con la lengua
materna
el conocimiento se genera a través de
la interacción sujeto-objeto por
medio de la acción
LO INNATO
gramática universal: contenidos
inconcientes de conocimiento
referidos, a todos los lenguajes
humanamente posibles (lo q
permite desarrollar cualquier
lenguaje al q se esté expuesto)
no hay estructuras cognitivas innatas
solo es hereditario el funcionamiento
de la inteligencia
LO ADQUIRIDO
LO CONSTRUIDO
gramática particular: contenidos
inconcientes de conocimiento
referidos
al propio lenguaje (lo que
permite comprender y producir
infinitas oraciones gramaticales)
nada se construye, solo se puede
adquirir conocimiento, porque
las reglas discretas cierran las
posibilidades de autocompilación
de los sistemas que no pueden
avanzar a un nivel más alto que la
lógica que los define
no hay adquisición en el sentido de
un sujeto pasivo, sino que hay
CONSTRUCCION
estructuras que se generan a través
de una organización de acciones
ejercidas sobre los objetos
Fodor: Modularidad De La Mente. Tres partes. Primera introducción filosófica, segundo: sistemas
de entradas. Tercera parte: sistemas centrales. La primera parte (cap 1) se puede no leer. La parte
de sistemas de entrada y centrales es OBLIGATORIO.
El modelo gira alrededor de transductores como primera captación del estímulo, los sistemas de
entrada son computacionales y los centrales están asociados al sistema de creencias. La hipótesis
central es que los sistemas de entrada son modulares y encapsulados. Y que la psicología cognitiva
tendría que estudiar los sistemas de entrada porque es lo único que puede explicarse, como
innatista y empirista a ultranza. Riviere lo critica claramente.
Fodor: taxonomía excéntrica (rara, poco habitual, anormal) de modularidad de la mente, partes.
1º parte, cuestión filosófica. Cuatro explicaciones:
1º. Neocartesianismo (por el innatismo, Chomsky y Descartes. En la estructura de la mente hay un
componente innato), 2º Facultades Verticales (hay percepción, atención, con cada componente
innato, con sus propias reglas de funcionamiento, características. Esto es muy modular, es su
núcleo duro de la tesis) 3º Facultades Horizontales (su TESIS está del lado de lo vertical, pero no
puede negar que la mente tiene una pare general, que no va a estudiar.) 4º Asociacionismo
(dentro de la postura de Fodor, en la parte modular de la mente, todo funciona como condiciones
y acciones, todo funciones son asociaciones entre causas y efectos o estímulos y respuestas. En la
parte modular de la mente funcionan como pares de condiciones y acciones.)
TRANSDUCTORES – SISTEMAS DE ENTRADA – SISTEMA CENTRAL
La forma de procesamiento es secuencial (1º transductor, 2º S. Entrada y 3º S. Central). Los dos
primeros son MODULAR, el S.Central es lo horizontal o NO MODULAR. Los procesos cognitivos se
relacionan y combinan, por eso es muy complejo plantear que hay sistemas modulares en lo
cognitivo (separados, que trabajan en independencia). Pero Fodor pudo dar con la tecla y pudo
sostener la idea que la percepción y el lenguaje son modulares.
Los SISTEMAS DE ENTRADA son percepción y lenguaje. La percepción vaya y pase, pero ¿el
lenguaje es un módulo cerrado?, son SISTEMAS COMPUTACIONALES perceptivo y SISTEMA
COMPUTACIONAL LÉXICO, asociado al léxico o al concepto, a la idea más básica de un concepto
que es el más concreto. Sistema computacional como el sistema más simple o más mecánico.
Asociación entre condiciones y acciones, tal sonido con tal identificación perceptiva. Lo reduce a al
primer estímulo y el sistema infiere sobre ese estímulo, eso es computacional, básica y superficial.
Los sistemas de entrada hacen inferencias rápidas porque es la parte inicial del sistema cognitivo,
que sólo tiene la tarea de hacer una inferencia sobre el estímulo que le llega, y que esa inferencia
es rápida y simple, superficial. Llega a una parte de relacionarlo con un reflejo, como la primera
reacción ante el estímulo. Por todo esto es modular, sino es imposible sostener la idea. Porque si
lo ampliamos un poco más, ya sería un S. central o un sistema de creencias con todos los
contenidos de información que se tienen. El sistema central es superior en sentido jerárquico que
el Sistema de Entrada, posee las creencias y los procesamientos superiores.
Lo primero es TRANSDUCTOR o TRANDUSCTOR COMPILADO (compilado por lo computacional). Lo
que hace el transductor, es traducir el estímulo proximal en estímulo distal. Un estímulo del medio
(proximal) en una señal neurológica (distal), lo que hace el S. Entrada es captar esa señal y hace
una identificación y codificación de inferencias perceptivas. Una crítica es que no estudia el
LENGUAJE, porque no hay diferencia entre este y percepción, la diferencia es el tipo de
información pero el proceso es el mismo. Sub-doxástico, consciente o inconsciente, los sistemas
de entrada conlleva una entrada de reflejos o por debajo de la conciencia. El lenguaje es una
diferenciación entre sonido y ruido, todo lo que sucede después de eso no pertenece a la teoría de
Fodor, lo que hace él es subdoxástico (rápido, superficial, toma sólo una parte del lenguaje y de la
percepción siendo estos una línea larga).
Lo segundo son los SISTEMAS DE ENTRADA. Encapsulamiento informativo: como algo cerrado o
aislado con muy poco dentro (con poca información). Contiene una parte muy pequeña de toda la
información que el sujeto posee, y que es cerrado para la información en sentido descendente. El
sistema de entrada es encapsulado, pero es cerrado y con poca información, para la información
que pretende descender de los Sistemas Centrales que pretenden bajar hacia los Sistemas de
Entrada, pero no es cerrado para lo que pretende subir desde el mundo exterior o el ambiente. El
encapsulamiento se refiere a que estos contienen una pequeña proporción de toda la información
que posee el sujeto. Esto lo liga a la cuestión de la modularidad, el modulo es encapsulado
(Chomsky habla de modulo, pero no lo encapsula). Dominio específico: son esquemas con todos
los conocimientos acerca de x cosa (por ejemplo: psicología), es información asociada porque
tiene un contenido similar. Cuando Fodor habla de esto, habla de un paquete de información
específica y básica (rudimentaria o específica) que se activa frente a estímulos específicos (los de
la percepción). Contenidos superficiales: información escasa (por eso como un cuasi reflejo),
porque no hace una elaboración compleja. El funcionamiento de los Sistemas de entrada es
rápido, si funciona automáticamente, hace inferencias simples y tiene un contenido superficial. El
funcionamiento de los sistemas de entrada es obligatorio, forzosamente tiene que entrar por un
transductor y hacer un sistema de entrada para que el sistema de creencias lo entienda y
comprenda, es necesario y obligatorio pasar por los sistemas de entrada. No toda inferencia
perceptiva puede acceder al Sistema central, solo acceden al sistema central las inferencias que
tienen el mayor grado de abstracción (perro-ser vivo), dentro del sistema de entrada hay interniveles, los que están ligados a los transductores son los más concretos y los que están ligados al
sistema de entrada son los más abstractos. Sólo accederán al sistema central, la información más
abstracta el inter-nivel del Sistema de entrada. Dentro del módulo la información puede circular
de manera ascendente y descendente, esto no contradice la idea global del sistema de que
siempre funciona de abajo hacia arriba. Las únicas inferencias que pueden acceder al Sistema
Central son las que poseen el mayor nivel de abstracción desde el Sistema de Entrada. Los
Sistemas de Entrada tienen localización cerebral específica y pautas de deterioro.
Para Chomsky la información está más ligada al dominio específico y para Fodor al
encapsulamiento. Las dos primeras propiedades son más modulares y así es descendencia.
Fodor (Sistemas Centrales): sistemas de entrada, hacen una inferencia perceptiva de lo que los
transductores les da del ambiente, lo que computa. Lenguaje, pero en realidad es percepción del
sonido del habla. Es computacional (lo que computa la percepción), es modular porque es
encapsulado toma información abajo-arriba, y es cerrado para los datos que quieren DESCENDER
de los Sistemas Centrales, lo más importante es su propiedad de encapsulamiento (sólo para
Fodor y no para Chomsky). Dominio específico: es un poco de información acotada que encierra
parte de una información similar que se activa frente a estímulos específicos. Funcionamiento
obligatorio, ya que si este se corta no se entiende nada del ambiente (si del transductor no pasa el
SE, de un estímulo a un contenido neurológico). Contenido específico: no hace mucha producción,
lo relaciona con un reflejo por su rapidez, obligatoriedad y superficialidad. Contiene una
localización cerebral específica, de un lugar propio en el cerebro.
Sistema Central: elaboración de procesamiento de la información de los SE. Sistemas de creencias
como idea de memoria a largo plazo (gran paquete de información interconectada),
compaginación de todas las creencias (no en el sentido filosófico, sino de información. Todo lo que
el sujeto sabe, y lo que va copiando a lo largo de su trayectoria) del sujeto. Lo que cree.
Necesidades del sujeto: en el SE no importa lo que necesita (como escuchar una información que
no quiere escuchar) sino lo que se dispara automáticamente. El SC todo lo que quiere, cree y
piensa sobre la situación. Elaboración o un proceso en los SC, como proceso de elaboración
cognitiva (confirmación de creencias perceptivas o hipótesis perceptivas), las que le manda el SE y
luego la confirma. La confirmación se da por elaboración cognitiva compleja (lo que da el
ambiente por los transductores con lo que se tiene en el sistema de creencias) porque lleva mucha
información. No se pueden estudiar, se pone la razón a los SE, porque los SC son muy globales y no
computados. Cuanto más complejo es un proceso cognitivo más global es y menos modular, lo SE
tiene que ver con lo fisiológico orgánico más que lo cognitivo, más rápido y refleja.
Propiedades del Sistema Central: sistema de creencias (no computacional como el SE) asociado al
pensamiento. Global (no modular como SE), general, holístico (por la cantidad de información). Es
abierto (no encapsulado o impermeable a lo que quiere venir en sentido descendente como SE)
puede fluir de cualquier de los sentidos (abajo-arriba y arriba-abajo), hay un sentido de red que se
conecta en una totalidad holística. Gran dominio inespecífico (no dominio (modular) específico
como SE). No es obligatorio, no todo lo que procesa el SE lo toma el SC (no obligatorio como SE).
Es compleja la información que procesa el SC (no superficial como SE). Es lento el proceso de
información (no lento como el SC). La localización es inespecífica (no específica como SE). No hay
ninguna prueba ni a favor ni en contra de la modularidad del SC, con esto quiere decir es que en
realidad, positivamente, se puede decir que no es encapsulado pero no quita que sea modular.
Cuando habla del SC, habla de características por oposición del SE, se ve combinado a aportar una
característica PROPIA del SC, no por comparación solamente. Cómo dar características de algo que
no se puede experimentar empíricamente. Para esto recurre, a lo que en ciencia se lo llama,
razonamiento por analogía, es decir, recurrir a otra área de conocimiento para explicarlo (que esté
acreditado). Si el SC confirma hipótesis, lo que hace Fodor es un razonamiento por analogía, ya
que va a otro sector de la ciencia de “confirmación de hipótesis por percepción” del campo de la
confirmación científica de hipótesis, que están acreditadas científicamente, entonces es lícito que
estas propiedades de “isotropía” y “quinianismo” se las atribuya al SC, ya que la PRINCIPAL
PROPIEDAD del SC es la de confirmación de hipótesis perceptiva.
Isotropía y Quinianismo:
Isotropía: para confirmar una hipótesis científica, se puede recurrir a cualquier área de
conocimiento que haya sido, previamente, validado. En el SC, para confirmar una hipótesis
perceptiva, se puede recurrir a cualquier área del SC, que por estar ahí, ya fue aceptada o
confirmada.
Quinianismo: el grado de confirmación de una hipótesis científica, depende del grado de
aceptación que esa hipótesis, y cada una de las afirmaciones que la componen, posean en el
campo de la ciencia. En el SC, el grado de confirmación de una hipótesis perceptiva, depende del
grado de confirmación de la percepción (lo que el sistema de creencias recibe de lo que se asocia y
adapta muy bien con la información guardada, seguramente se va a confirmar con un elevado
grado de aceptación).
Tesis del Pesimismo Fodoriano (Riviere): sólo se pueden estudiar científicamente los SE (según
Fodor), pocas cosas que dice Fodor lo abala Riviere. Uno está puesto en una forma de pensar la
mente global y otro científica, reduccionista, cerrada y modular.
Descargar