FAVAROTTO, GARCÍA CONI Y VIVAS 4383 ORGANIZACIÓN DE LA MEMORIA SEMANTICA EN NIÑOS Y JOVENES El conocimiento semántico está representado por conceptos que pueden estar relacionados taxonómicamente (jerárquicamente organizados) o temáticamente (unidos por relaciones que entrecruzan categorías) ambos tipos de relaciones surgen de distintos procesos. La producción de relaciones temáticas supera las taxonómicas en los niños, pero a medida que crecen comienzan a predominar las taxonómicas, coexistiendo ambas. Sin embargo hay autores que discuten esta relevancia de la taxonomía, diciendo que las relaciones temáticas son esenciales para categorizar objetos en la vida cotidiana. Según el estudio realizado los adultos produjeron un porcentaje superior de atributos taxonómicos que los niños, sin embargo ambos grupos mostraron un predominio de atributos temáticos. Ambos grupos produjeron más atributos taxonómicos para las categorías de seres vivos (frutas y animales) y más atributos temáticos para las cosas no vivientes (objetos y muebles). Por lo cual la organización temática de los conceptos no es sustituida por otra taxonómica con la edad. La incorporación de categorizaciones taxonómicas en los adultos se debe a los efectos de la educación pero eso no implica la desaparición de las clasificaciones temáticas que son intrusivas, rápidas y frecuentes aún en la vida adulta. BARSALAU 4397 SIMULACION, CONCEPTUALIZACION SITUADA Y PREDICCION La simulación parece ser un mecanismo computacional básico en el cerebro que sostiene un amplio espectro de procesos. La simulación es la reactivación de estados perceptuales, motores e introspectivos adquiridos durante la experiencia. El proceso de reactivación tiene dos fases: (i)almacenamiento en la MLP de estados multimodales provenientes de la experiencia y (ii) reactivación parcial de estos estados multimodales para su uso representacional (incluyendo predicciones). - Fase (i). Almacenamiento de estaos modales A medida que un sistema neuronal se activa por la detección de rasgos, las neuronas de las áreas de asociación capturan el patrón de activación dentro de ellas para su uso representacional posterior. A su vez, las áreas de asociación superiores integran las activaciones de diferentes modalidades. - Fase (ii). Reactivación de estados modales Una vez que estos patrones son capturados se pueden reactivar en ausencia de estimulación bottom-up. Una reactivación nunca constituye una restauración completa de un estado modal original, y muchas fuentes de sesgo pueden generar distorsiones, las reactivaciones son siepre parciales y potencialmente imprecisas. La reactivación no es necesariamente conciente, es más frecuente que sea inconciente, y pueden ocurrir junto con reactivaciones concientes. Cuando las reactivaciones son concientes pueden entenderse como parte de la imaginería mental. Simuladores y simulaciones: Barsalau desarrolló una teoría de la cognición basada en la reactivación neuronal de estados modales, los simuladores integran la información de los diversos ejemplares de una categoría, mientras que las simulaciones son conceptualizaciones de ejemplares específicos. - SIMULADORES Los encuentros con ejemplares de una misma categoría tienden a activar patrones neuronales similares en los sistemas de rasgos, después de experimentar con ejemplares de una misma categoría, un sistema multimodal distribuido se desarrolla para representar la categoría como un todo, estos sistemas multimodales distribuidos son los simuladores. Un simulador funciona como un concepto, integrando el contenido multimodal de una categoría a través de sus ejemplares y proporcionando la habilidad de interpretar entidades individuales como casos de aquel tipo. - SIMULACIONES Una vez que un simulador existe para representar una categoría, puede reactivar pequeños subconjuntos de su contenido como simulaciones específicas. Todo el contenido de un simulador nunca se activa simultáneamente, factores como la frecuencia, la recencia y el contexto determinan qué simulaciones se activan durante la simulación específica de una categoría. El nivel de detalles puede variar ampliamente dependiendo de la cantidad de información disponible o requerida. Además cuando se simula un evento que ocurre a lo largo del tiempo usualmente se incluye un pequeño subconjunto de los puntos percibidos originariamente. Las simulaciones implementan la funcionalidad de los sistemas simbólicos clásicos pero emerge en sistemas modales y asociativos en vez de estar representada explícitamente en unidades simbólicas, como en el cálculo de predicados y en los marcos. - FUENTES DE SIMULADORES Se desarrolla un simulador para cualquier componente de la experiencia que la atención seleccione repetidamente. El sistema cognitivo adquiere nuevos conceptos a medida que los mismos devienen relevantes. Los simuladores para conceptos abstractos capturan simulaciones multimodales complejas, por lo general producto de introspecciones y eventos. Conceptualizaciones situadas: Los conceptos no se procesan aislados, usualmente se los sitúa en escenarios, eventos e introspecciones. La gente sitúa los conceptos porque el cerebro intenta simular una experiencia perceptiva, y la percepción es siempre situada, el fondo nunca desaparece aunque la atención esté en un objeto. Cuando la gente construye una simulación para representar una categoría, debe simular la categoría inserta en una situación perceptiva relevante, esto se llama: conceptualización situada. En diferentes ocasiones, diferentes conceptualizaciones situadas representan una categoría. Un concepto no es una única representación genérica de una categoría, por el contrario, un concepto es la habilidad de producir una amplia variedad de conceptualizaciones situadas que permiten el logro de metas en contextos específicos. - Las simulaciones multimodales implementan conceptualizaciones situadas. Una simulación multimodal compleja se activa para representar una conceptualización situada, los aspectos perceptivos son representados como simulaciones modales en una conceptualización situada que representa la experiencia en su ausencia. - Conceptualizaciones situadas arraigadas. El conocimiento acerca de situaciones familiares se afianza en la memoria, permitiendo una actuación habilidosa en las mismas, los componentes de la conceptualización se afianzan como simuladores, con el tiempo la conceptualización situada se establece tan firmemente que se activa automática e inmediatamente cuando acontece la situación pertinente. La mayoría de las situaciones experimentadas, más allá de cuán novedosas sean, activan la conceptualización situada que se le asemeje en mayor medida. Esta activación juega un rol central en el procesamiento de una situación actual. - Inferencias por completamiento de patrones. Una vez que las conceptualizaciones situadas se afianzan en la memoria permiten procesos inferenciales de completamiento de patrones. Ante una situación familiar la conceptualización situada se activa por más que se perciba sólo una parte o rasgo, a partir del cual se predice que la situación está a punto de ocurrir, el agente extrae inferencias a partir de la simulación que exceden la información dada. Simulaciones y conceptualizaciones situadas como fuentes de predicción: A medida que la simulación situada se activa, sus componentes simulados pueden ser usados para monitorear si las predicciones son satisfechas. Si las predicciones iniciales se ajustan a lo que acontece, se puede confiar en la conceptualización activa para que provea más predicciones, caso contrario, una nueva conceptualización debe ser recuperada o construida. - PERCEPCIÓN Las simulaciones que se originan en conceptualizaciones situadas de objetos producen predicciones acerca del movimiento. El conocimiento acerca de si un objeto se mueve rápida o lentamente afecta consecuentemente dichas simulaciones de trayectorias. En la percepción auditiva el conocimiento léxico produce predicciones vía simulación, en el marco del efecto de restauración de fonemas, quienes escuchan emplean su conocimiento para simular y predecir fonemas faltantes. - ACCIÓN Cuando se percibe un objeto las conceptualizaciones situadas producen predicciones sobre las acciones aplicables a éstos. A su vez, las simulaciones motoras son centrales para el control de las acciones, a medida que una acción es ejecutada, el sistema motor construye una simulación que se propaga hacia delante de la acción que monitorea y guía. Esto también juega un papel importante en la predicción de movimientos de agentes percibidos visualmente. - MEMORIA IMPLICITA En la memoria implícita, las simulaciones incrementan la fluidez perceptiva facilitando el procesamiento de información estimular y acelerando la formación de percepciones (priming de repetición) al activar áreas relevantes para el procesamiento del estímulo. Las memorias perceptivas juegan un rol fundamental en el efecto priming. El priming de repetición es más potente cuando las modalidades de la memoria y del estímulo coinciden. Imaginar un estímulo produce un priming de repetición similar al producido por la percepción efectiva de dicho estimulo, lo que sugiere que representaciones perceptivas subyacen a ambos fenómenos. - MEMORIA A LARGO PLAZO La imaginería mental puede ser considerada manipulación conciente de simulaciones en la memoria de trabajo para predecir eventos futuros. Cuando la acción es relevante para la imaginería visual, el sistema motor se compromete. Predicciones en múltiples modalidades se expresan mediante simulaciones multimodales. - PROCESAMIENTO CONCEPTUAL Cuando entidades y eventos son categorizados, el conocimiento conceptual de dicha categoría se activa a fin de predecir lo que ocurrirá a continuación gracias a simulaciones multimodales que constituyen conceptualizaciones situadas, acelerando el procesamiento del objeto en cuestión, así como de objetos y eventos relacionados con éste. Cuando las personas intentan predecir información asociada con categorías en ausencia de ejemplares de las mismas, éstas no producen simplemente atributos del objeto en sí mismo. Cuando una persona describe un objeto lo sitúa desde su propia perspectiva, simulándose a sí misma en la situación también, la gente construye la experiencia de estar junto al objeto para producir sus atributos. - LENGUAJE Quienes comprenden usan simulaciones para generar predicciones acerca del significado. El movimiento implicado en una oración produce simulaciones correspondientes de movimiento a través del espacio, estas simulaciones producen movimientos predictivos de los ojos. - COGNICION SOCIAL Las conceptualizaciones situadas proveen un poderoso medio de predicción en lo que a la cognición social respecta, siendo estas predicciones expresadas mediante simulaciones durante inferencias de completamiento de patrones. CONCLUSION: El cerebro puede ser visto como un sistema coordinado que genera un flujo continuo de predicciones multimodales durante la acción situada y la interacción social. BALLESTEROS 4357 REPRESENTACIÓN DEL CONOCIMIENTO EN LOS SISTEMAS CONEXIONISTAS - Los modelos simbólicos sostienen que la representación del conocimiento se realiza a través de símbolos. Los humanos como los ordenadores son sistemas capaces de manipular símbolos, buscaron desarrollar un sistema matemático puramente formal, libre de todo contenido (proposiciones??). La analogía con la máquina de Turing impulsó la creación de modelos computacionales, tanto la mente como la máquina de propósito universal operan sobre representaciones, que son códigos simbólicos. Ambos sistemas se organizan en tres niveles: 1. Semántico: explica por qué estos sistemas saben cuáles son sus objetivos. 2. Simbólico: codifica el contenido semántico y dicta las reglas de manipulación de dichos símbolos. 3. Físico: actúa como soporte material del sistema. Las representaciones se entienden como una serie de símbolos relacionados mediante una compleja sintaxis. - Los modelos conexionistas (McClelland y Rumelhart) proponen una arquitectura no simbólica basada en el procesamiento paralelo, la cognición se produce a partir de la interacción simultánea de una serie de unidades semejantes a neuronas altamente interconectadas. Son los pesos de estas interconexiones los que determinan el funcionamiento de la red, no siendo necesario un lenguaje interior de manipulación de símbolos. Las representaciones para los conexionistas se encuentran DISTRIBUIDAS a lo largo de la red (no hay una neurona que almacene el color rojo, sino que se activa una red). Esta red tiene las siguientes propiedades: 1. Tiene capacidad de autogenerarse, nuevos inputs pueden clasificarse de la misma manera que otros ya existentes en el sist. 2. Puede completar un patrón especificado de manera incompleta, la red es capaz de proporcionar las activaciones correspondientes en los nodos que carecen de ellas. 3. Tolera imperfecciones, cuando una unidad se lesiona el funcionamiento del sistema se ve afectado pero no impedido. - Los primeros modelos neuronales (Culloch y Pitts) establecieron una analogía entre la lógica proposicional donde las afirmaciones pueden ser V o F (sólo toman dos valores) y las neuronas, cuya activación correspondería a estos dos valores (encendido o apagado), creían en la posibilidad de formalización del sist. nervioso. Hebb propuso que el aprendizaje se producía en las redes neuronales debido a un cambio de fuerza de las conexiones entre los sistemas de la red, dando lugar a lo que se llamó “asamblea de neuronas”. Rosenblatt postuló su teoría de los “perceptrones” que eran redes simples formadas por unidades sensoriales conectadas a un conjunto de unidades motoras a través de un único estrato neuronal, las sinapsis se autoajustaban por ensayo y error intensificando y atenuando las conexiones hasta que los pesos de las conexiones alcanzaban los valores deseados correspondientes al patrón, esta nueva concepción permitió pensar al sistema de procesamiento como algo dinámico, capaz de dirigirse a sí mismo en vez de ser dirigido desde el exterior. - Sin embargo el computacionalismo clásico en esa época logró que sus modelos simbólicos resolvieran teoremas lógicos utilizando el cálculo proposicional, lo cual hizo que los modelos paralelos cayeran en el olvido. Modelos conexionistas actuales: En estos modelos cada entidad está representada por un patrón de actividad distribuida sobre una gran cantidad de elementos simples de computación, la manera en que están representados los conceptos dentro del sistema tiene importantes implicaciones para la actuación dinámica del mismo. A su vez, todas las unidades pueden participar en la representación de cada concepto, de manera que el sistema es capaz de representar muchos más conceptos, aunque sólo pueda activarse uno en cada ocasión. El conexionismo se ubica en un nivel subsimbólico que tiene su propia semántica. Las entidades que se representan en el paradigma simbólico mediante símbolos, aquí se representan por un gran número de subsímbolos que participan en cómputos numéricos, no simbólicos. - Características del PDP: - Aunque ambos asignan conocimiento semántico, el PDP reconoce únicamente conexiones causales entre nodos, las teorías cognitivas lo hacen entre objetos evaluables semánticamente. - En los modelos conexionistas las representaciones están neurológicamente distribuidas correspondiendo sus estados de actividad a patrones de actividad neural. - El PDP subraya la relevancia de la neurociencia para poder desarrollar modelos computacionales que se adapten a la estructura del cerebro. - La representación en estos modelos es numérica, no simbólica, ya que las unidades se comunican mediante señales numéricas. Semejanzas entre las redes de los modelos conexionistas y el ser humano: - Ambos aprenden rápidamente pero el aprendizaje va decayendo con las repeticiones sucesivas. - Ambos se benefician del aprendizaje distribuido o espaciado. - Ambos son capaces de generalizar el aprendizaje a elementos nuevos. - La destrucción de una parte de la red no acaba con el funcionamiento del sistema, sólo produce una disminución del rendimiento. .Conclusiones: Características de las representaciones distribuidas (en red), que los modelos computacionales simbólicos (PPI) no poseen: - Tienen la propiedad de autogeneración ya que representaciones con contenido semejante darán lugar automáticamente a patrones semejantes de activación. - Pueden completar un patrón rellenando las activaciones faltantes entre los nodos. - Es capaz de tolerar pequeños errores y permitir que la actuación no sea totalmente perfecta. - La diferencia entre distintas representaciones no depende de las unidades que la formen sino del patrón de actividad manifestado por el conjunto de unidades, compartido por varias representaciones. FIN TIENSON 4432 INTRODUCCION AL CONEXIONISMO La IA se propone lograr que los computadores se comporten de manera que podamos reconocerlos como inteligentes –en algún sentido que nosotros lo hacemos-. La característica definitoria de los computadores corrientes es que manipulan símbolos en términos de reglas precisas, son manipuladores de símbolos gobernados por reglas. Contienen estructuras de datosobjetos estructurados sintácticamente, oraciones y reglas que definen a esas oraciones. Un programa es una secuencia de tales reglas. La característica del BAIA es que la inteligencia toma la arquitectura del ordenador clásico, la cognición es la manipulación de símbolos gobernados por reglas. El punto de vista de “reglas y representaciones” se caracteriza por: - Representaciones estructuradas sintácticamente - Reglas formales precisas que refieren a la estructura sintáctica de esas representaciones. Diferencias ordenador-mente: - Existen cosas para las que somos buenos que son muy difíciles para los computadores, por otra parte, los computadores son mucho mejores que los humanos en otras tareas. Esto sugiere que los cerebros humanos no hacen las cosas como los computadores lo hacen. - Las neuronas son lentas y de degradación armoniosa. El funcionamiento de los sistemas naturales se deteriora de manera gradual. - Una lesión cerebral puede afectar al funcionamiento cerebral pero no necesariamente implica perdida de alguna capacidad, en cambio los sistemas de reglas y representaciones son frágiles, las lesiones causan perdida de funciones y de todo lo que dependa de ellas. Restricción de los 100 pasos: ninguna tarea puede requerir más de cien pasos seriados, aun si procesamos en paralelo ninguna de las pistas puede tener más de cien pasos. Problema del marco (trabajar con restricciones débiles, múltiples y simultáneas) y del cruzamiento (cualquier porción de información podría resultar relevante para cualquier tarea u otro conocimiento). - El primer problema implica la complejidad de programación cuando existe una enorme cantidad de factores, el número de computaciones requeridas se expande exponencialmente en relación con el número de factores conduciendo a una explosión computacional. Cuando las restricciones son múltiples y simultáneas, también son débiles porque cualquiera de ellas puede ser violada mientras se lleva a cabo la tarea de modo apropiado. - El segundo tiene que ver con que cualquier parte del conocimiento puede ser usado en relación con cualquier tarea cognitiva, la cognición no puede ser partida en dominios aislados. Los computadores no pueden cruzar información de esta manera. A su vez, cualquier porción aislada de información es capaz de cambiar nuestro sistema total de creencias, el problema del marco es el problema de determinar de qué manera efectiva y general, qué cambiará cada nueva porción de información y qué dejaría igual en un sistema de creencias. Lo que sucede es que no hay límites sobre qué parte del conocimiento especializado podría ser relevante para resolver un problema particular. Conexionismo: Es muy distinto al PPI, el conexionismo trata de explicar y mejorar la IA, los comportamientos cognitivos que explican son limitados. Tienson: dos ejes: conceptual y filosófico. Lo conceptual es el ABC del conexionismo, que así como el PPI trata de mejorar el conductismo, el conexionismo trata de resolver los problemas de la IA (BAIA: la buena y anticuada inteligencia artificial en Tienson). En la parte filosófica, se parece mucho a Riviere porque lo que hacen es criticar la analogía entre el hombre y la máquina (porque es el núcleo duro). El problema está planteado en distintos términos pero las conclusiones son similares. Problemas: restricciones, cruzamiento, marco (pueden, los últimos dos, ser el mismo problema). 1) Restricciones: múltiples, débiles y simultáneas. Son cuestiones que nos influencian en el comportamiento, son factores que inciden sobre nuestros comportamientos, esto es múltiple, hay muchos factores. Pero esas restricciones son débiles: una fuerte seria que se caiga el techo o escuchar una explosión, determina nuestro accionar. Vivimos en un mundo de restricciones débiles porque se pueden resolver. Y simultáneas porque se dan a la vez, al mismo tiempo, pero el humano puede resolverlas todas. Lo común es que se resuelvan las restricciones (débiles). En el IA las restricciones son fuertes y secuenciales. Cada problema es EL PROBLEMA y lo resuelve de a poco, secuencialmente, esto ataca a la BAIA. El hombre es diferente con respecto a las restricciones con la máquina. 2) Cruzamiento y Marco: nosotros nos movemos por dominios de información. Hay cruzamiento o marco de información, hay esquemas de información, son dominios de información. Hay contenidos de información asociados porque tienen justamente, información en común o alguna similitud. Lo que podemos hacer es cruzar la información de distintos dominios. El IA, no hay intencionalidad de ir a buscar conexiones, no hay propiedad de cruzamiento de información, se maneja con la información contenida en el programa, la persona tiene intencionalidad o voluntad de buscar información, no hay capacidad de la máquina de ir a buscarla. 3) Problema del sentido común: la máquina no opera por sentido común a diferencia del humano. RIVIERE 4460 CHOMSKY Es difícil resistirse a la idea de que debe haber ciertas representaciones que, sin ser identificables con las intenciones concientes, nos permiten comportarnos como lo hacemos. Nos comunicamos sin ninguna conciencia de los procesos y representaciones que nos llevan a producir oraciones gramaticales con palabras adecuadas, estas reglas parecen formar parte de mí, como sujeto cognitivo, pero al mismo tiempo no siento que formen parte de mí como sujeto al que atribuyo intenciones concientes. La esencia de la posición chomskiana consiste en identificar la forma de organización del sujeto con una determinada forma de organización del conocimiento. Entender al sujeto cognitivo como un conjunto de representaciones de reglas, que definen ab initio una determinada arquitectura funcional que hace posible el desarrollo del conocimiento o del lenguaje. El sujeto debe conocer ciertas verdades acerca de la estructura posible de los lenguajes para desarrollar SU lenguaje, y estos contenidos PROPOSICIONALES, que no se identifican con contenidos concientes, son los que definen la arquitectura del sujeto como ser competente para desarrollar a partir de ese núcleo las reglas específicas del lenguaje que se habla en su comunidad. Según Chomsky no hay razón para suponer que tengamos accesos privilegiados a los principios involucrados en nuestro conocimiento y uso del lenguaje o que relacionan el “órgano mental” del lenguaje a otros sistemas cognoscitivos. La principal diferencia entre Chomsky y Fodor es que lo que define al sujeto lingüístico de Chomsky no son unas “herramientas de computación vacías”, sino unos contenidos inconcientes de conocimiento referidos, bien a todos los lenguajes humanamente posibles (lo q permite desarrollar cualquier lenguaje al q se esté expuesto) o bien a su propio lenguaje (lo que permite comprender y producir infinitas oraciones gramaticales). Chomsky asume la posición del racionalismo cartesiano al proponer que el sujeto no sólo no es una tabula rasa, sino que posee conocimientos anteriores a cualquier experiencia y que son los que le dan sentido y la estructuran. Si la psicología cognitiva se define por la suposición de que hay representaciones no concientes capaces de explicar determinadas regularidades de la conducta, la posición chomskiana constituye un prototipo y una formulación radical del paradigma cognitivo. El sujeto cognitivo se concibe como una gramática, la generación de una oración gramatical se define por una serie de computaciones sobre “representaciones simbólicas”. Chomsky tiene una concepción articulada, fuerte y modular del sujeto cognitivo y piensa que “es útil pensar en la facultad lingüística, la facultad numérica, y otras como órganos mentales.” Tanto Chomsky como el PPI se basan en: - El supuesto de que el sujeto cognitivo es esencialmente creativo - Es posible dar cuenta de esa creatividad a partir de ciertas reglas - Tales reglas configuran una especie de gramática - La explicación de la conducta sobre la base de algoritmos definidos por esa gramática que consisten en la aplicación de computaciones a representaciones - El modelo jerárquico y recursivo de las estructuras definidas por las reglas, etc. Pero estas descripciones discretas de la inteligencia no agotan las posibilidades de explicar una cierta dinámica de carácter continuo a la que controla, ambos modelos tienen dificultades para dar cuenta de la creatividad inherente a las funciones superiores, dado que las explicaciones exclusivamente discretas cierran las posibilidades de autocompilación de los sistemas que pretenden explicar, estos no pueden avanzar a un nivel más alto que la lógica que los define. Esto explica por qué Chomsky determina el carácter innato de la gramática, porque el sistema tiene predeterminada su competencia final de representación. Para Chomsky no hay ningún mecanismo general del aprendizaje que pueda aplicarse a la percepción o el lenguaje, etc. Esto demuestra una limitación del sujeto en psicología cognitiva, es un sujeto con una arquitectura funcional preconstruida o de mera acumulación de conocimiento, sin transformaciones de la propia arquitectura funcional. CHOMSKY La estructura interna del locutor ideal o sujeto universal debe ser considerada como específica, los compromisos ontológicos del racionalismo articulan el presupuesto innatista, la confianza inquebrantable en la abstracción y el presupuesto de que se puede llegar a un desglose no arbitrario. El núcleo duro del programa chomskiano es creer que toda estructura surge del interior. El medio REVELA dicha estructura pero de ningún modo podría imprimirla en el sistema a través de sus propios esquemas. Para las gramáticas un sistema fijo y genéticamente determinado limita la forma que puede tomar dicho sistema, lo mismo sucedería respecto a otras estructuras cognitivas. Si existen principios semánticos fundamentales y generales como los que se conocen en el campo de la sintaxis, de la fonología y la interpretación semántica, dichos principios podrían pretender legítimamente figurar entre los principios de las teorías del aprendizaje humano en determinados campos cognoscitivos, y ser considerados como propiedades del estado cognoscitivo inicial general. La estructura que atribuimos a la capacidad de lenguaje genéticamente determinada ha de satisfacer dos condiciones empíricas: debe ser lo suficientemente rica y especifica como para dar cuenta de la adquisición de competencia lingüística en cada lengua en particular, pero no ha de ser tan rica y especifica como para excluir casos efectivamente experimentados. La teoría de la gramática universal debe situarse entre estas dos fronteras empíricas. La competencia lingüística – el conocimiento de la lengua- no constituye más que uno de los factores de su ejecución. Chomsky: la idea es la de una primer teoría de la década del 70´como teoría estándar del lenguaje, luego se fue modificando muchas veces (la última del 90´). Actualmente es un personaje politizado. Fue un generador de teoría impecable por constancia y regularidad. Para la Psicología Cognitiva, Chomsky tiene peso, ya que tiene una postura revolucionaria, la psicología no podía explicar un tipo de comportamiento complejo, sí conductas relacionadas al hábito. Más allá de que Chomsky es lingüista y gramático, tiene una idea de que la mente es un conjunto de dominios cognitivos que tienen entre sí una relativa autonomía y una base innata a partir del cual se desarrolla ese dominio, una idea modular. Lenguaje como objeto de estudio exclusivo, si hubiera una idea de mente generalista (como la de Piaget, donde no hay modulo o dominios) no podría estudiar el lenguaje. Llega a afirmar que lo que se puede decir de esos dominios puede extrapolarse a otros dominios, por ejemplo que todos son innatos. En la teoría estándar hay una sintaxis, una relación semántica y una relación fonológica, diciendo que la sintaxis es la generativa de la gramática y del habla de las personas. Por eso se habla en la teoría estándar de Gramática Generativa Transformacional. Transformacional porque a través de un conjunto de reglas finitas se puede generar una cantidad infinita de lenguaje, porque las reglas se van combinando y se va dando diferentes sintaxis dando la creación de la gramática. Gracias a esta teoría surja la Psicología Cognitiva con el PPI TRADICIONAL. Diferencia entre COMPETENCIA y ACTUACIÓN: la primera es la capacidad o disponibilidad que tiene el sujeto para producir frases del lenguaje y la actuación es el acto de hacerlo, de hablar. La teoría de Chomsky es una teoría de la competencia, por una capacidad innata de producir una gramática. Porque nacemos con reglas y principios innatos que nos dicen cómo ejecutar los actos del habla, ni siquiera en los estadios más tempranos del lenguaje no se da ni en núcleo del sujeto ni del predicado. Competencia en el sentido de disponibilidad de reglas... Es una teoría de la mente modular específicamente en el campo del lenguaje, ¿Chomsky hace una teoría del aprendizaje? en realidad no es una teoría del aprendizaje. Habla del lenguaje como entidad autónoma (como si fuera un órgano), radicalmente distinta a Piaget y parecida a la de Fodor. En esta teoría se parte de un estado inicial, se pasa por estados intermedios y se llega a un estado estacionario. En lo inicial está el bagaje innato, que se llama gramática universal (componente innato), en los estados intermedios, en el estado final se encuentra la lengua como gramática particular o lengua materna o la lengua de la comunidad (en la que vive el hablante), la experiencia revela lo innato, lo manifiesta, en el estado estacionario se generan progresos secundarios (x ej.: se adquiere vocabulario) pero la estructura ya es estable y detiene su desarrollo. Riviere: la idea de Riviere acerca de lo Cognitivo es amplio con un sujeto social y cultural. Para él la postura de Chomsky es reduccionista y recortada del sujeto, Riviere no tiene una teoría modular del sujeto, sino que es generalista. Según Riviere el sujeto de la teoría de Chomsky es la gramática universal como núcleo duro de la teoría. La idea de sujeto cognitivo de Chomsky es un sujeto con reglas universales, distinto a Riviere que dice que el Sujeto Cognitivo es personal, general, cotidiano, natural, en contexto socio-cultural. Asociar al PPI TRADICIONAL, en realidad el problema que tiene la teoría de Chomsky es el mismo problema que el PPI TRADICIONAL: trata de explicar aspectos sumamente reducidos de lo cognitivo y explica comportamientos discretos con explicaciones discretas que en vez de abrir el conocimiento, lo cierra. El conjunto se puede dar continuamente, enumerando los componentes (a-b-c-d…) o en forma discreta (a-d) salteada, el comportamiento discreto es una unidad exclusiva, autónoma, independiente. Chomsky también cae en este problema. KARMILOFF-SMITH 4356 MAS ALLA DE LA MODULARIDAD Los piagetianos conceden al bebe humano un nivel absolutamente mínimo de estructura innata, los innatistas, en cambio, atribuyen al recién nacido una gran cantidad de conocimiento preestablecido y relativo a dominios específicos, relegando el aprendizaje a un papel de menor importancia. Sin embargo, estas dos epistemologías no tienen porque ser mutuamente excluyentes en una teoría del desarrollo. Un aspecto fundamental del desarrollo humano es el proceso mediante el cual la información que se encuentra EN un sistema cognitivo (parcialmente innato) se convierte en conocimiento PARA ese sistema (parcialmente constructivista). Para Fodor la tesis innatista y de especificidad de dominios del conocimiento implican restricciones inherentes a la arquitectura funcional humana (organización mediante especificaciones innatas relativamente fijas y sumamente restringidas, es decir, los rasgos invariantes del sistema de procesamiento de información del ser humano). A diferencia de Piaget que postula un desarrollo general para todos los dominios, Fodor sostiene que la mente está compuesta de módulos o sistemas de entrada que poseen las siguientes características: - Están genéticamente especificados - Son de funcionamiento independiente y dedicados a propósitos específicos - Son rápidos, - Autónomos, - Obligatorios, - Automáticos, - Están activados por el estímulo, - Producen datos poco elaborados y - Son insensibles a las metas cognitivas. Además, se encuentran informativamente encapsulados (son impenetrables) de modo que no pueden influirse recíprocamente ni tener acceso a los datos de otros módulos, sólo tienen acceso a la información procedente de niveles inferiores (esto implica que lo que sabemos o creemos no puede afectar al funcionamiento de un módulo). Lo que define a un módulo es la presencia CONJUNTA de todas estas propiedades. La información entraría por un sistema de transductores sensoriales que convierten los datos para cada sistema especializado de entrada, a su vez, cada sistema de entrada produce datos en un formato adecuado para el procesamiento central de dominio general. Los sistemas de entrada son partes de la mente humana insensibles y carentes de inteligencia (procesamiento rápido y automático) representan la estupidez de la máquina, pero son lo que el organismo necesita para que su conocimiento inicial alce vuelo rápida y eficientemente. La idea de K. Smith es que el desarrollo implica un proceso que consiste en ir más allá de la modularidad (para Fodor el desarrollo no existe). Fodor postula una dicotomía entre lo que los sistemas de entrada computan a ciegas y las creencias que se erigen del procesamiento central. El procesamiento central es: - Un proceso relativamente no encapsulado - De propósito general - Lento - No obligatorio - Controlado - A menudo conciente e influido por metas cognitivas globales - Consagrado a la fijación de creencias, elaboración de conocimiento enciclopédico y planificación de acciones inteligentes La descripción que hace Fodor del encapsulamiento de módulos se centra en el papel que desempeñan en el procesamiento on-line. K. Smith traza una distinción entre módulos predeterminados y modularización –que sería producto del desarrollo- apartándose de la estricta concepción innatista fodoriana. Tiene en cuenta la plasticidad del desarrollo temprano del cerebro, donde unas pocas predisposiciones (innatas) específicas de dominio (no estrictamente modulares) bastan para restringir las clases de datos de entrada a procesar. Con el tiempo se seleccionarían progresivamente circuitos cerebrales para diferentes computaciones de dominio específico llegando en ciertos casos a formarse módulos RELATIVAMENTE encapsulados. La naturaleza especificaría sesgos o predisposiciones iniciales que canalizan la atención del organismo hacia datos pertinentes del ambiente, los cuales, a su vez, influyen sobre el desarrollo posterior del cerebro. Los procesos de desarrollo son claves para comprender la mente del adulto. Sostiene la idea de que el desarrollo es un fenómeno de dominio específico más que modular. - Un DOMINIO es el conjunto de representaciones que sostiene un área específica de conocimiento. - Un MÓDULO es una unidad de procesamiento de información que encapsula ese conocimiento y las computaciones que se hacen con él. Por consiguiente, considerar que el desarrollo es de dominio específico no implica modularidad, el almacenamiento y procesamiento puede ser específico sin ser encapsulado, preestablecido u obligatorio. Propone un modelo de FASES del desarrollo más que de estadios. Los cambios de fases ocurren en un momento distinto en cada microdominio, y dentro de cada dominio de producen de manera repetida. La tesis de Fodor contrasta radicalmente con la idea de generalidad de dominios que plantea Piaget. - Para Piaget el desarrollo implica la construcción de cambios que afectan a las estructuras de representación, generales para todos los dominios y que operan sobre todos los aspectos del sistema cognitivo de manera similar. En este sentido Piaget se asemeja al conductismo dado que ninguno postula estructuras innatas o conocimiento de dominios específicos, admiten la existencia de unos pocos procesos biológicamente determinados, generales para todos los dominios (En Piaget: asimilación, acomodación y equilibración; en el conductismo: leyes de asociación). - La tesis innatista, en cambio ve al recién nacido como un ser programado para entender fuentes de información específicas, el aprendizaje posterior está guiado por principios innatamente establecidos que determinan las entidades sobre las cuales va a tener lugar. Los déficits generados por lesiones cerebrales –tanto en niños como adultos- parecería inclinarse a favor de la tesis modular, sin embargo cabe recordar que cuanto mayor sea la cantidad de propiedades de dominio específico de la mente del bebé, menos creativo y flexible será el sistema posterior. -COMO RECONCILIAR EL INNATISMO CON EL CONSTRUCTIVISMO DE PIAGET? Para Piaget tanto la expresión de los genes como el desarrollo cognitivo son productos emergentes de un sistema autoorganizativo que se ve directamente afectado por su interacción con el ambiente. Postula que el recién nacido no posee ningún conocimiento de dominio específico, sin embargo investigaciones indican que en la arquitectura funcional inicial del cerebro hay bastante más de lo que Piaget postulaba. A su vez, la focalización de innatistas como Fodor o Chomsky en módulos especificados deja poco margen a la intervención de procesos ricos de construcción epigenética, y el hecho de que Fodor se concentre en los sistemas de entrada no nos ayuda a entender cómo los niños se vuelven participantes activos en el proceso de construcción de su conocimiento. - En primer lugar, a las ideas piagetianas hay que añadirles algunas predisposiciones innatas impregnadas de conocimiento. Debemos añadir sesgos de dominio específico a la dotación inicial. - Ahora bien, la base inicial con que parte el niño debe implicar especificaciones menos detalladas y un proceso de modularización más progresivo que el que proponen los innatistas. Muchos casos de lesiones cerebrales tempranas indican que en el cerebro hay más plasticidad de lo que se desprende desde el punto de vista modular, el cerebro no se encuentra preestructurado con representaciones ya acabadas, sino canalizado para desarrollar progresivamente representaciones en interacción con el medio interno y externo. Cualquiera que sea el componente innato que evoquemos sólo puede convertirse en parte de nuestro potencial biológico a traes de la interacción con el ambiente, y esta interacción a su vez influye en su desarrollo. Adherimos a una posición constructivista y epigenética del desarrollo dando su peso a la especificidad de dominios. El hincapié de Piaget en los sistemas de salida (acciones sobre el ambiente) se complementa con el acento del innatismo en los sistemas de entrada. Restricciones del desarrollo: para las teorías de dominio general refieren a factores que recortan la competencia del niño. En cambio para las teorías de dominio especifico, al limitar el espacio de hipótesis posibles, potencian el aprendizaje. Redescripción Representacional: Las predisposiciones innatas pueden ser especificas o no específicas, en ambos casos se necesita la intervención de entradas de información del ambiente, en el primer caso el ambiente actúa como un desencadenante que hace que el organismo seleccione un parámetro entre varios posibles, en cambio cuando se trata de sesgos o bocetos el ambiente actúa como más que un desencadenante e influye sobre la estructura posterior del cerebro a través de una interacción epigenética. La mente humana posee tanto una determinada cantidad de cosas especificadas en detalle como algunas predisposiciones de dominio específico muy esquemáticas, dependiendo del dominio del que se trate. Los procesos de redescripción representacional convierten la información implícita en conocimiento explícito. El desarrollo y el aprendizaje parecen adoptar dos direcciones complementarias: por una parte se basan en un proceso gradual de procedimentalización, es decir, que el conocimiento sea más automático y menos accesible, por otra parte implican un proceso de explicitación y accesibilidad cada vez mayor del conocimiento, es decir, representar explícitamente la información procedimental en que se apoya la conducta. Ambos procesos son importantes en el cambio cognitivo. EL MODELO RR Pretende explicar de qué manera se hacen más flexibles las representaciones de los niños, como surge el acceso conciente al conocimiento y como construyen los niños teorías. Consiste en un proceso cíclico mediante el cual información ya presente en las representaciones del organismo que funcionan independientemente se pone progresivamente a disposición de otras partes del sistema cognitivo gracias a la intervención de procesos de redescripción. Este proceso ocurre espontáneamente como parte de un impulso interno que empuja a la creación de relaciones inter e intradominios. Este proceso es en sí de naturaleza general, pero se ve influido por la forma y especificidad de las representaciones sobre las que se apoya. Es un modelo de tres fases recurrentes: 1) El niño se centra en información proveniente del mundo externo, aprendizaje guiado por los datos. Crea adiciones representacionales, son representaciones estables que se añaden a lo anterior. Culmina en la capacidad de ejecutar sistemáticamente las conductas de algún microdominio, esto es, “maestría conductual”. Puede haber conductas posteriores que parezcan idénticas a las de la fase 1, por eso hay que distinguir entre cambio conductual y cambio representacional. 2) Fase guiada internamente, las representaciones internas se convierten en el centro del cambio, puede llevar a varios errores a nivel conductual. 3) Las representaciones internas se concilian con los datos externos alcanzándose un equilibrio en la búsqueda del control interno y externo. PIATELLI 4461 DEBATE ENTRE PIAGET Y CHOMSKY. El núcleo duro del programa piagetiano: El programa de Piaget es antiempirista e inspirado por un kantismo dinámico. El conocimiento no sería más que un subcampo en el sentido estricto de la autorregulación. La piedra angular de la autorregulación está constituida por el anillo de retroacción cibernética y por los flujos informacionales. Las regulaciones organicas engloban, a titulo de componente fundamental y de creciente importancia, los intercambios con el medio, siendo estos últimos el objeto de progresivas y particulares regulaciones. Los PROCESOS COGNOSCITIVOS aparecen simultáneamente como resultantes de la autorregulación organica, cuyos mecanismos esenciales quedan reflejados en ellos, y como los órganos más diferenciados de esta regulación en el seno de las interacciones con el exterior de modo tal que terminan con el hombre por extender estas últimas al universo entero. Esto es el NUCLEO DURO del programa piagetiano, en torno al cual se ciñe el cinturón protector. Dos interpretaciones del compromiso ontológico: una débil, consiste en afirmar que la vida descansa en un proceso más general presente en todos los sistemas, llamado AUTORREGULACION. La segunda sostiene que los esquemas de regulación, asi como las estructuras que los materializan, están englobados por el organismo a partir de los elementos del entorno, a través de una cadena de operaciones denominadas asimilación, reorganización y acomodación. Para Piaget es posible una transferencia de estructuras del medio al organismo. Si se interpreta el nucleo duro según la hipótesis mas audaz, se debe tener en cuenta que la fenocopia y los procesos por los cuales el medio imprimiría estructuras al organismo fueron refutados por la biología molecular contemporánea. No existe CONOCIMIENTO resultante de un simple registro de observaciones, sin una estructuración debida a las actividades del sujeto. No obstante tampoco existen estructuras cognoscitivas A PRIORI O INNATAS: únicamente es hereditario el funcionamiento de la inteligencia, y este solo engendra estructuras a través de una organización de acciones sucesivas ejercidas sobre los objetos. Hay una elaboración continua de estructuras u operaciones que se generan a través de una organización de acciones ejercidas sobre los objetos. El empirismo: No hay conocimiento alguno que tenga su origen únicamente en las percepciones, el conocimiento procede de la acción. Y toda acción que se repite o generaliza engendra un esquema. El vínculo constitutivo de todo conocimiento es una asimilación de los objetos a esquemas del sujeto. CHOMSKY PIAGET NÚCLEO DURO toda estructura surge del interior los esquemas de autorregulación que y es revelada por el medio el medio imprimió en el organismo LO GENÉTICAMENTE DETERMINADO gramática universal y algoritmos definidos por esa gramática que consisten en la aplicación de computaciones a representaciones (5 sentidos y reflejos de succión y prensión) y 3 procesos funcionales: asimilación, acomodación, equilibración. COMO SE GENERA LA NOVEDAD el medio revela lo innato gracias al contacto con la lengua materna el conocimiento se genera a través de la interacción sujeto-objeto por medio de la acción LO INNATO gramática universal: contenidos inconcientes de conocimiento referidos, a todos los lenguajes humanamente posibles (lo q permite desarrollar cualquier lenguaje al q se esté expuesto) no hay estructuras cognitivas innatas solo es hereditario el funcionamiento de la inteligencia LO ADQUIRIDO LO CONSTRUIDO gramática particular: contenidos inconcientes de conocimiento referidos al propio lenguaje (lo que permite comprender y producir infinitas oraciones gramaticales) nada se construye, solo se puede adquirir conocimiento, porque las reglas discretas cierran las posibilidades de autocompilación de los sistemas que no pueden avanzar a un nivel más alto que la lógica que los define no hay adquisición en el sentido de un sujeto pasivo, sino que hay CONSTRUCCION estructuras que se generan a través de una organización de acciones ejercidas sobre los objetos Fodor: Modularidad De La Mente. Tres partes. Primera introducción filosófica, segundo: sistemas de entradas. Tercera parte: sistemas centrales. La primera parte (cap 1) se puede no leer. La parte de sistemas de entrada y centrales es OBLIGATORIO. El modelo gira alrededor de transductores como primera captación del estímulo, los sistemas de entrada son computacionales y los centrales están asociados al sistema de creencias. La hipótesis central es que los sistemas de entrada son modulares y encapsulados. Y que la psicología cognitiva tendría que estudiar los sistemas de entrada porque es lo único que puede explicarse, como innatista y empirista a ultranza. Riviere lo critica claramente. Fodor: taxonomía excéntrica (rara, poco habitual, anormal) de modularidad de la mente, partes. 1º parte, cuestión filosófica. Cuatro explicaciones: 1º. Neocartesianismo (por el innatismo, Chomsky y Descartes. En la estructura de la mente hay un componente innato), 2º Facultades Verticales (hay percepción, atención, con cada componente innato, con sus propias reglas de funcionamiento, características. Esto es muy modular, es su núcleo duro de la tesis) 3º Facultades Horizontales (su TESIS está del lado de lo vertical, pero no puede negar que la mente tiene una pare general, que no va a estudiar.) 4º Asociacionismo (dentro de la postura de Fodor, en la parte modular de la mente, todo funciona como condiciones y acciones, todo funciones son asociaciones entre causas y efectos o estímulos y respuestas. En la parte modular de la mente funcionan como pares de condiciones y acciones.) TRANSDUCTORES – SISTEMAS DE ENTRADA – SISTEMA CENTRAL La forma de procesamiento es secuencial (1º transductor, 2º S. Entrada y 3º S. Central). Los dos primeros son MODULAR, el S.Central es lo horizontal o NO MODULAR. Los procesos cognitivos se relacionan y combinan, por eso es muy complejo plantear que hay sistemas modulares en lo cognitivo (separados, que trabajan en independencia). Pero Fodor pudo dar con la tecla y pudo sostener la idea que la percepción y el lenguaje son modulares. Los SISTEMAS DE ENTRADA son percepción y lenguaje. La percepción vaya y pase, pero ¿el lenguaje es un módulo cerrado?, son SISTEMAS COMPUTACIONALES perceptivo y SISTEMA COMPUTACIONAL LÉXICO, asociado al léxico o al concepto, a la idea más básica de un concepto que es el más concreto. Sistema computacional como el sistema más simple o más mecánico. Asociación entre condiciones y acciones, tal sonido con tal identificación perceptiva. Lo reduce a al primer estímulo y el sistema infiere sobre ese estímulo, eso es computacional, básica y superficial. Los sistemas de entrada hacen inferencias rápidas porque es la parte inicial del sistema cognitivo, que sólo tiene la tarea de hacer una inferencia sobre el estímulo que le llega, y que esa inferencia es rápida y simple, superficial. Llega a una parte de relacionarlo con un reflejo, como la primera reacción ante el estímulo. Por todo esto es modular, sino es imposible sostener la idea. Porque si lo ampliamos un poco más, ya sería un S. central o un sistema de creencias con todos los contenidos de información que se tienen. El sistema central es superior en sentido jerárquico que el Sistema de Entrada, posee las creencias y los procesamientos superiores. Lo primero es TRANSDUCTOR o TRANDUSCTOR COMPILADO (compilado por lo computacional). Lo que hace el transductor, es traducir el estímulo proximal en estímulo distal. Un estímulo del medio (proximal) en una señal neurológica (distal), lo que hace el S. Entrada es captar esa señal y hace una identificación y codificación de inferencias perceptivas. Una crítica es que no estudia el LENGUAJE, porque no hay diferencia entre este y percepción, la diferencia es el tipo de información pero el proceso es el mismo. Sub-doxástico, consciente o inconsciente, los sistemas de entrada conlleva una entrada de reflejos o por debajo de la conciencia. El lenguaje es una diferenciación entre sonido y ruido, todo lo que sucede después de eso no pertenece a la teoría de Fodor, lo que hace él es subdoxástico (rápido, superficial, toma sólo una parte del lenguaje y de la percepción siendo estos una línea larga). Lo segundo son los SISTEMAS DE ENTRADA. Encapsulamiento informativo: como algo cerrado o aislado con muy poco dentro (con poca información). Contiene una parte muy pequeña de toda la información que el sujeto posee, y que es cerrado para la información en sentido descendente. El sistema de entrada es encapsulado, pero es cerrado y con poca información, para la información que pretende descender de los Sistemas Centrales que pretenden bajar hacia los Sistemas de Entrada, pero no es cerrado para lo que pretende subir desde el mundo exterior o el ambiente. El encapsulamiento se refiere a que estos contienen una pequeña proporción de toda la información que posee el sujeto. Esto lo liga a la cuestión de la modularidad, el modulo es encapsulado (Chomsky habla de modulo, pero no lo encapsula). Dominio específico: son esquemas con todos los conocimientos acerca de x cosa (por ejemplo: psicología), es información asociada porque tiene un contenido similar. Cuando Fodor habla de esto, habla de un paquete de información específica y básica (rudimentaria o específica) que se activa frente a estímulos específicos (los de la percepción). Contenidos superficiales: información escasa (por eso como un cuasi reflejo), porque no hace una elaboración compleja. El funcionamiento de los Sistemas de entrada es rápido, si funciona automáticamente, hace inferencias simples y tiene un contenido superficial. El funcionamiento de los sistemas de entrada es obligatorio, forzosamente tiene que entrar por un transductor y hacer un sistema de entrada para que el sistema de creencias lo entienda y comprenda, es necesario y obligatorio pasar por los sistemas de entrada. No toda inferencia perceptiva puede acceder al Sistema central, solo acceden al sistema central las inferencias que tienen el mayor grado de abstracción (perro-ser vivo), dentro del sistema de entrada hay interniveles, los que están ligados a los transductores son los más concretos y los que están ligados al sistema de entrada son los más abstractos. Sólo accederán al sistema central, la información más abstracta el inter-nivel del Sistema de entrada. Dentro del módulo la información puede circular de manera ascendente y descendente, esto no contradice la idea global del sistema de que siempre funciona de abajo hacia arriba. Las únicas inferencias que pueden acceder al Sistema Central son las que poseen el mayor nivel de abstracción desde el Sistema de Entrada. Los Sistemas de Entrada tienen localización cerebral específica y pautas de deterioro. Para Chomsky la información está más ligada al dominio específico y para Fodor al encapsulamiento. Las dos primeras propiedades son más modulares y así es descendencia. Fodor (Sistemas Centrales): sistemas de entrada, hacen una inferencia perceptiva de lo que los transductores les da del ambiente, lo que computa. Lenguaje, pero en realidad es percepción del sonido del habla. Es computacional (lo que computa la percepción), es modular porque es encapsulado toma información abajo-arriba, y es cerrado para los datos que quieren DESCENDER de los Sistemas Centrales, lo más importante es su propiedad de encapsulamiento (sólo para Fodor y no para Chomsky). Dominio específico: es un poco de información acotada que encierra parte de una información similar que se activa frente a estímulos específicos. Funcionamiento obligatorio, ya que si este se corta no se entiende nada del ambiente (si del transductor no pasa el SE, de un estímulo a un contenido neurológico). Contenido específico: no hace mucha producción, lo relaciona con un reflejo por su rapidez, obligatoriedad y superficialidad. Contiene una localización cerebral específica, de un lugar propio en el cerebro. Sistema Central: elaboración de procesamiento de la información de los SE. Sistemas de creencias como idea de memoria a largo plazo (gran paquete de información interconectada), compaginación de todas las creencias (no en el sentido filosófico, sino de información. Todo lo que el sujeto sabe, y lo que va copiando a lo largo de su trayectoria) del sujeto. Lo que cree. Necesidades del sujeto: en el SE no importa lo que necesita (como escuchar una información que no quiere escuchar) sino lo que se dispara automáticamente. El SC todo lo que quiere, cree y piensa sobre la situación. Elaboración o un proceso en los SC, como proceso de elaboración cognitiva (confirmación de creencias perceptivas o hipótesis perceptivas), las que le manda el SE y luego la confirma. La confirmación se da por elaboración cognitiva compleja (lo que da el ambiente por los transductores con lo que se tiene en el sistema de creencias) porque lleva mucha información. No se pueden estudiar, se pone la razón a los SE, porque los SC son muy globales y no computados. Cuanto más complejo es un proceso cognitivo más global es y menos modular, lo SE tiene que ver con lo fisiológico orgánico más que lo cognitivo, más rápido y refleja. Propiedades del Sistema Central: sistema de creencias (no computacional como el SE) asociado al pensamiento. Global (no modular como SE), general, holístico (por la cantidad de información). Es abierto (no encapsulado o impermeable a lo que quiere venir en sentido descendente como SE) puede fluir de cualquier de los sentidos (abajo-arriba y arriba-abajo), hay un sentido de red que se conecta en una totalidad holística. Gran dominio inespecífico (no dominio (modular) específico como SE). No es obligatorio, no todo lo que procesa el SE lo toma el SC (no obligatorio como SE). Es compleja la información que procesa el SC (no superficial como SE). Es lento el proceso de información (no lento como el SC). La localización es inespecífica (no específica como SE). No hay ninguna prueba ni a favor ni en contra de la modularidad del SC, con esto quiere decir es que en realidad, positivamente, se puede decir que no es encapsulado pero no quita que sea modular. Cuando habla del SC, habla de características por oposición del SE, se ve combinado a aportar una característica PROPIA del SC, no por comparación solamente. Cómo dar características de algo que no se puede experimentar empíricamente. Para esto recurre, a lo que en ciencia se lo llama, razonamiento por analogía, es decir, recurrir a otra área de conocimiento para explicarlo (que esté acreditado). Si el SC confirma hipótesis, lo que hace Fodor es un razonamiento por analogía, ya que va a otro sector de la ciencia de “confirmación de hipótesis por percepción” del campo de la confirmación científica de hipótesis, que están acreditadas científicamente, entonces es lícito que estas propiedades de “isotropía” y “quinianismo” se las atribuya al SC, ya que la PRINCIPAL PROPIEDAD del SC es la de confirmación de hipótesis perceptiva. Isotropía y Quinianismo: Isotropía: para confirmar una hipótesis científica, se puede recurrir a cualquier área de conocimiento que haya sido, previamente, validado. En el SC, para confirmar una hipótesis perceptiva, se puede recurrir a cualquier área del SC, que por estar ahí, ya fue aceptada o confirmada. Quinianismo: el grado de confirmación de una hipótesis científica, depende del grado de aceptación que esa hipótesis, y cada una de las afirmaciones que la componen, posean en el campo de la ciencia. En el SC, el grado de confirmación de una hipótesis perceptiva, depende del grado de confirmación de la percepción (lo que el sistema de creencias recibe de lo que se asocia y adapta muy bien con la información guardada, seguramente se va a confirmar con un elevado grado de aceptación). Tesis del Pesimismo Fodoriano (Riviere): sólo se pueden estudiar científicamente los SE (según Fodor), pocas cosas que dice Fodor lo abala Riviere. Uno está puesto en una forma de pensar la mente global y otro científica, reduccionista, cerrada y modular.