Celso Vargas* Sección de Filosofía Sede Regional de Occidente. y Escuela de Filosofía. Universidad de Costa Rica. SIJhlhlARY: Iri this paper we attempt to establish some relationships between linguistics-computation and mental structures. In the first section of this pnper we present a general perspective in which, we think, can be situated the recent linguistic researches. In the second we present some results that concerri with complexity of algorifhms. In the third and last section, we describe, briefly, a computational formalism knowri as UNIFICA'J'ION BASEBFORMALISM in which we can express linguistic theories witli different computational complexity. 1 Programa de investigación conocido como "conductismo lágico" concretaba, quizá, uno de los sueños más persistentes en el pensamiento moderno (por lo menos desde Descartes): explicar los procesos mentiiles en térmirios del esquema estímulo-respuesta introduciendo las variables irltervinientes apropiadas y en la medida de lo posible evitar hacer referencia a variables orgánicas (por ejemplo, "mediciones de propiedades neuroanatómicas o neurofisiológicas del organismo"). El propósito fundamental del conductismo lógico era predecir, a partir de ciertos conjuntos de variables (rigurosamente defiriidas) y leyes, el comportamiento con un margen de probabilidad bastante alto. O como pensaba Ryle traducir todo "discurso mentalista" en términos de un "discurso conductual". Sin embargo, * Qiiiero agradecer a la compañera Silvia Castro por su gentileza al permitirme contribuir con este articulo para este número especial de la Revista Praxis. como bien h a sciíalado Putnam (196'2 reimpreso en 1972) ciertos conceptos nientalistas (el dolor, la alegria, etc.) que son reacios a esa reducción son, precisamente, los que hacen que el programa no sea viable. El fracaso de este programa llevó a los científicos a percatarse que lo importante no es tanto describir curvas conductuales, sino establecer los mecanismos que permiten explicar la gran complejidad de Ia conducta liumaria. Con este cambio de perspectiva las consideraciones sobre la estructura y funcionamiento del organismo (fundamentalmente del cerebro y el sistema nervioso) tienen una importancia decisiva. iCÓrr10 el cerebro procesa inforniacicíri?, ¿Cuál es la estructura y funcionamiento de la memoria?, etc., son las ciiestiones fundamentales. Cori el advenimiento de los computadores digitales la consideración de estos temas ha entrado en una nueva etapa. Vivimos, como dice Karttunen (1986) "en un contexto cultural donde la metáfora del cerebro-como-uncomputador es muy persuasiva" (p. 8). Esto no significa, de hecho, que se coiisiciere, como algunos piensan, que se esté equiparando cl cerebro con un computador digital. Realmente son muy diferentes. ],o que se afirma es que ciertos aspectos del funcionamie~itode nuestra mente pueden ser comprendidos y explicados de manera satisfactoria si~nulando su funcionamiento mediante computadores. Creo que la utilización de computadores o más generalmente de procedimientos computacionales como la teoría de autómatas requiere que hagamos explícitos cualquier supuesto y simulemos el modo en qué un autómata ante ciertas entradas (inputs) modifiquen apropiadamente su funcionamiento interno, por ejemplo, realice ciertas actividades corno cambiar de estado, llevar a cabo determinados procesos, etc. 'I'omando en cuenta este coiitexto, mi propósito en este artículo es presentar algurias consideraciones sobre el modo en que las investigaciones sobre el lenguaje, especialmente en sintaxis tal y como se realizan a partir de 1957 (fecha de la publicación del libro revolucionario de Chomsky "Estructuras Sintácticas") pueden contribuir a la comprensión de la estructura de la mente humana, por un lado, y el modo en qué estas investigaciones están vinculadas con procedimientos computacionales estándar, por el otro. 1. El, PAPEL DE LAS INVESTIGACIONES LINGUISTICAS. Quisiera comenzar planteando algunas consideracio~iesgenerales sobre el modo en que considero deben ser ubicadas las investigaciones actuales sobre cl lenguaje. Pienso que es importante partir del hecho de que los seres liumanos son organismos que están en interacción con el medio ambiente (entendido éste último en sentido muy general). O como dice, Stalnaker, "los seres humanos sor1 parte del orden natural. Son objetos físicos cuyas capacidades mentales y disposicionales -especificamente sus capacidades representacionales- necesitan ser explicadas en términos de relaciones naturales entre objetos naturales y sistemas de objetos naturales" (Stalnaker 1984: x). El lenguaje humano desempeña un papel fundamental en este 'sistema de relaciones' en un doble sentido: por un lado, es el medio fundamental mediante el cual nos representamos el mundo y, por otro lado, es uno de los medios fundamentales en la 'traducción' de estas representaciones en acciones que pueden transformar el medio en que vivimos. En este sentido, las consideraciones sobre el lenguaje tienen que ser ubicadas dentro de el marco más general de una teoría de la acción y de la percepción. En esta capacidad representacional en la que el lenguaje juega un papel fundamental, hay dos cuestiones generales que si bien tocan aspectos diferentes de esta relación compleja de los seres humanos con el entorno, están directamente relacionadas y caracterizan el ámbito de las investigaciones sobre el lenguaje. Primero está la cuestión de cuáles son los mecanismos utilizados por los seres humanos para relacionar sonidos o símbolos con significados. Podríamos denominar este ámbito siguiendo a Putnam (1978) TEORIA DEL ENTENDIMIENTO. Por otro lado, está el problema de cómo podemos traducir nuestras representaciones mentales en acciones 'efectivas' sobre el medio. Podemos denominar a este aspecto de la investigación lingüística TEORIA DEL EXITO LINGUISTICO. Las investigaciones en semántica (dentro del marco de la teoría de la referencia) pueden contribuir de manera significativa en este segundo ámbito. Podemos expresar las relaciones entre estos ámbitos: teoría del entendimiento, teoría del éxito lingüístico y teoría de la acción y percepción del siguiente modo (tomado de Dowty 1979): m hablante-oyente Parece ser el caso que si uno tiene una teoría completa y adecuada de la comprensión del lenguaje y también una teoría completa y adecuada de la acción y de la percepción, indirectamente tendría el tercer lado del triángulo. Esto es, si pensamos del hablante-oyente como un autómata (siguiendo a Carnap-Reichenbach-Putnam) y suponiendo que tenemos: (1) una descripción de cómo cada expresión de "entrada' (input) afecta el estado interno del autómata y qué estado interno de salida dará el autómata para cualquier expresión y (2) cómo las entradas no-lingüísticas (es decir, percepciones no lingüísticas) afectan el estado interno del autómata y cómo los estados internos del autómata se realizan como acciones (no-lingüísticas), entonces, parecería que tenemos indirectamente determinadas las relaciones entre expresiones y el entorno que es dada por la teoría de la verdad y referencia (Dowty 1979: 378-379). Tal y como Putnam presenta la situación, una teoría de la comprensión debe incluir al menos los siguientes elementos: un conjunto de heurísticas o esquemas inductivos y deductivos, un esquema para ordenar preferencias y una regla de acción. Agregaríamos a lo anterior, una gramática (teoría sintáctica). Esto es así dado que es por medio del lenguaje que codificamos, estructuramos y comunicamos nuestras representaciones, estados, expectativas, etc. Pero, por otro lado, la estructura de las gramáticas que los lingüistas construyen, en tanto que son instrumentos para explicar los procesos mediante los cuales los individuos asocian 'sonidos con significados' deben ser compatibles con las estructuras mentales del ser humano. Así pues, desde este punto de vista general, las teorías lingüísticas y particularmente las sintácticas juegan un papel importante en nuestra comprensión y representación del mundo. 1. TEORIA DE LA COMPLEJIDAD. Si consideramos que el funcionamiento del lenguaje es uno de estos ámbitos en los que la utilización de procedimientos computacionales puede arrojar luz sobre el modo como procesamos el lenguaje y pensamos, entonces, las propiedades computacionales de los algoritmos adquieren gran r e l e vancia (si vemos, como de hecho se hace, las gramáticas para las lenguas naturales como algoritmos de cierta complejidad). No obstante, aun cuando no se enmarque la discusión en el contexto de esta metáfora del cerebrocomo-un-computador, la investigación de las propiedades computacionales de las gramáticas es también importante. En efecto, hay, al menos dos razones por las cuales esto es deseable. Por un lado, dada la creciente tendencia a construir lenguajes de programación cada vez más próximos al lenguaje natural o que incorporen comandos de las lenguas naturales, hace la discusión sobre sus propiedades sea realmente relevante. En este sentido, este tipo de investigaciones arrojará resultados prácticos de bastante utilidad e interés. Por otro lado, si podemos formalizar una teoría sintáctica podemos establecer con mayor facilidad sus propiedades. Así 'pues, es posible estar de acuerdo en la necesidad de que las gramáticas sean computacionalmente tratables aun cuando no nos enmarquemos dentro del contexto general arriba propuesto. Cuando se piensa en la clase de algoritmos y su complejidad se piensa fundamentalmente en términos del tiempo o el espacio que requieren para ser tratados. El tiempo o el espacio que utilicen, cuando son tratados en un computador, depende de varios factores: del tipo de máquina utilizada, de la memoria de la máquina, de la velocidad de procesamiento de información, etc. Por esta razón, las consideraciones generales sobre el tiempo y el espacio se hace abstrayendo las características de las máquinas, dejando sin definir las unidades temporales o espaciales a utilizar. (En lo que sigue hablaremos únicamente de tiempo). Se han desarrollado modelos matemáticos para determinar el tiempo computacionalmente requerido por los algoritmos. Es muy difícil, señala Perrualt (1984) dar procedimientos generales para determinar el tiempo esperado para el procesamiento de algoritmos. Lo que se hace es dar procedimientos en términos del tiempo máximo que pueden utilizar (worse case time). Para calcular el tiempo máximo se utiliza el modelo conocido con el nombre de 'notación oh-big' (notación*). Este es el propósito de la notación+. Sea f(n) y g(n) dos funciones. La función f se dice que está en O (g) si una constante múltiple de g es un límite superior para f , para un número finito de valores n. Más precisamente, f está O (g) si existen constantes K y no tales que para todo n > no, f(n) < K * g(n). (Perrault 1984: 3). Podemos decir, entonces, que un algoritmo M es computacionalmente tratable, si y solo si, es posible construir una función g expresable en términos de O (g). De acuerdo con el esto el tiempo requerido por ciertos algoritmos es mayor que el de otros y habría algoritmos que no son computacionalmente tratable por la gran complejidad involucrada. Estos procedimientos son aplicables en lingüística. Para ver esto, presentaremos a continuación el modo en que las gramáticas pueden ser clasificadas dentro de cierta escala de complejidad. Se conoce con el nombre de JERAKQUIA DE CHOMSKY a dicha clasificación. Las gramáticas son procedimientos finitos para caracterizar ciertos conjuntos de expresiones. Podemos definir una gramática con10 un quíntuple < Vn, Vt, X, S, R >, donde, R es un conjunto de reglas, S es el axioma o punto de partida de toda derivación, X es un conjunto de índices (que puede ser vacío), Vt es el vocabulario terminal. Las derivaciones últimas de las reglas son secuencias de elementos de Vt, específicamente, de (Vt)* donde (Vt)* es el conjunto de todas las secuencias finitas que resultan de la aplicación de las siguientes tres reglas: i) vacío pertenece a (Vt)*; ii) todo elemento de Vt pertenece a (Vt)"; iii) si a y b pertenecen a (Vt)*, también ab pertenece a (Vt)*. Vn o vocabulario no terminal juega un papel importante en la formulación de las reglas con base en las cuales seleccionamos subconjutos de (Vt)* y que se denominan lenguajes. Las gramáticas pueden ser clasificadas de acuerdo con el tipo de reglas que posea, esto es, de acuerdó con las restricciones que impongamos a las reglas utilizadas por las mismas. Las reglas pueden hacer las siguientes cosas: 1- Eliminar elementos de una secuencia. 2- Mover elementos de una posición a otra. 3- Almacenar ordenadamente en una o varias memorias elementos del Vt. 4- Expandir una secuencia. 5- Sustituir los elementos de Vn que aparecen en una secuencia por elementos de Vt. Las gramáticas más poderosas son aquellas que permiten hacer todas estas cosas. Llamamos gramática tipo-0 a este tipo de gramática, y el conjunto R de reglas tiene la siguiente forma: --> donde (Vn U ~ t ) ' y (Vn U Vt)*. donde (Vn U ~ t ) ' es (Vn U Vt)* excepto que no posee el elemento neutro. Si restringimos las reglas de tal manera que la condición 1 no se cum-> si y solo si, I I <= I I (esto es, si la cardinalidad pla, es decir, de es menor o igual que la de ), la gramática resultante es de tipo 1 o pendiente de contexto (context-sensitive). Nuevamente, si restringimos las reglas de tal manera que sólo cumplan las condiciones 3-5, es decir, [i] --> [j], donde Vn, i es un índipertenece a (Vt U ~ n ) ' , j es un índice diferente de i (ambos índices ce, pueden ser vacíos), entonces, la gramática resultante es una gramática indizada. Si restringimos las reglas de tal manera que la condición 3 no se Vn y (Vn U ~ t ) ' , entonces, la cumpla, es decir, ---> donde gramática es tipo-2 o gramática libre de contexto. Finalmente, las gramáticas regulares o tipo-3 son aquellas que permiten reglas únicamente de la siguiente forma: ---> , -- > , > , donde Vt, Vn. Existen ciertas equivalencias entre esta clase de gramática? y las clases de procedimientos algorítmicos generales. Para toda gr mátici, '{PO-O existe una Máquina de Turing, una Máquina de Post y una haquina de Estado finito con dos pilas de memoria (two pushdown stores) (estas clases de máquinas son equivalentes entre si) que acepta las secuencias generadas por estas gramáticas. La clase de gramáticas tipo-1 son aceptadas por un subconjunto de Máquinas de Turing. Las gramáticas indizadas son aceptadas por la clase de Máquinas de estado finito no deterministas con una pila de memoria. Las gramáticas tipo-2 son aceptadas por la clase de Máquinas de estado finito deterministas con una pila de memoria. Finalmente, las gramáticas regulares son aceptadas por la clase de máquinas de estado finito sin memoria. Esta jerarquía y su clase equivalente de aceptores impone los límites a la computabilidad posible, es decir, en términos del tiempo necesario para su reconocimiento. No existe un procedimiento general para determinar el tiempo máximo de las gramáticas tipo-O. (Esto no significa que no exista para algunas gramáticas particulares). Por tanto, desde el punto de vista computacional no son siempre manejables. Pero además como esta clase de gramáticas pueden ser utilizadas para formalizar todo algoritmo que en principio sea formalizable, es difícil que pueda hacer afirmaciones empíricas sobre el modo cómo funciona nuestra mente. Las gramáticas tipo-1 expresadas en forma normal aun cuando son decidibles son bastante complejas. (Sin embargo, debemos decir que Gazdar y otros han utilizado en la construcción de su teoría conocida como GRAMATICA DE ESTRUCTURA SINTAGMATICA GENERALIZADA los resultados de Ritchie y Peters (1973) de que una gramática tipo-1 si se interpxeta como un mecanismo que impone condiciones de admisibilidad sobre secuencias, enotnces tiene un poder expresivo que es equivalente al de la clase de gramáticas tipo-2). Por lo tanto, desde el punto de vista lingüístico y computacional, las clases de gramáticas interesantes son las indizadas (un superconjunto que incluye la clase de las gramáticas libres de contexto y un subconjunto propio de las gramáticas dependientes de contexto), las libres de contexto y las regulares. Las gramáticas libres de contexto son procesadas con un tiempo 0(n2), es decir, tiempo lineal. A partir de 1978, bajo la influencia de la hipótesis de Peters de que las lenguas naturales podrían ser tratadas con las gramáticas de estructura sintagmática, muchas investigaciones se realizaron para analizar las lenguas naturales con gramáticas libres de contexto. El que se haya elegido las gramáticas libres de contexto como modelos no es arbitrario. En efecto, dado que estas gramáticas son reconocidas con mucha rapidez, podemos explicar la rapidez con la que los niños aprenden su lengua nativa. Sin embargo, la iiivestigación lingüística reciente parece mostrar que las lenguas naturales no son libres de contexto, pero que ningún fenómeno lingüístico hasta ahora investigado parece requerir uri poder expresivo más allá de las gramáticas indizadas (véase Gazdar y Pullum (1985) y Gazdar (1985) sobre estos aspectos). Esto ha hecho que recientemente muchos lingüistas estudien con mayor detenimiento esta clase de gramáticas. Las gramáticas indizadas incluyen como un subconjunto propio la clase de algoritmos conocidos como problemas-NP (Perrault 1984) cuya solución requiere la consideración de todas las posibilidades. Esta subclase es tratable en un tiempo polinomial que crece extraordinariamente dependiendo de las dimensiones del problema en cuestión. Aun cuando por razones he espacio no es posible entrar en consideraciones sobre problemas de complejidad computacional de las distintas teorías sintácticas utilizadas en este momento, específicamente, GOVERNMENT AND BINDING de Noam Chomsky (1981 y SS), GENERALIZED PHRASE STRUCTURE GRAMMAR de Gazdar y asociados, HEAD-DRIVEN PHRASE STRUCTURE GRAMMAR de Pollard y asociados y LEXICOFUNCTIONAL GRAMMAR de Bresnan y Kaplan, debemos indicar que existen importantes trabajos sobre estas teorías (véase en particular Perrault (1984), Gazdar y Pullum (1985), Uszkoreit y Peters (1985)). 3- UN FORMALISMO BASADO EN LA UNIFICACION. Quisieramos terminar este artículo con la breve presentación de un formalismo computacional conocido como FORMALISMO BASADO EN LA UNIFICACION, desarrollado fundamentalmente por Shieber a partir de 1984. El formalismo es una estructura abstracta o metalenguaje (de hecho basado en la teoría de las categorías introducida en lingüística por Kay (1979) en el cual pueden ser expresadas varias teorias o componentes de teorias sintácticas contemporáneas. El desarrollo de este formalismo ha sido considerado por muchos lingüistas como 'la segunda revolución' en lingüística (véase Karttunen (1986)). El propósito de este formulario tal y como lo presenta Shieber (1986) es el siguiente: 1- proporcionar un instrumento preciso para la descripción de las lenguas naturales; 2- delimitar la clase de posibles lenguas naturales; 3- proporcionar una caracterización interpretable computacionalmente de las lenguas naturales. Dicho formulismos asume ciertas condiciones que los formalismos gramaticales deben cumplir. Específicamente, 1- basado en la superficie: debe proveer de una directa caracterización del orden superficial actual de las secuencias de elementos de la oración; 2- informacional: debe asociar con las secuencias información de algún dominio inf ormacional; 3- inductivo: definiendo la asociación de secuencias y elementos informacionales recursivamente donde las nuevas asociaciones (pairings) son derivadas mediante la fusión (merging) de las subsecuencias de acuerdo con operaciones previamente establecidas para combinar secuencias, y fusionando los elementos informacionales asociados de acuerdo con operaciones previamente establecidas de combinación informacional, y, 4- declarativa: que defina la asociación entre secuencias y elementos informacionales en términos de los que las asociaciones permiten y no córno son computadas (Shieber 1986: 6-7). Es un formalismo en el cual pueden ser expresadas teorías lingüísticas basadas en rasgos complejos (rasgos y valores) a partir de un dominio informacional bien definido. El hecho de que se impongan estas condiciones cambia de manera decisiva el modo de considerar la sintaxis. En efecto, desde Chomsky (1957) en adelante se considera que la tarea de la sintaxis es dar condiciones sobre la gramaticalidad-agramaticalidad de las secuencias. Sin embargo, los últimos 30 años de investigación lingüística han mostrado que una gramática articulada de esta manera introduce complejidades extraordinarias en los modelos. Como ha señalado Pollard y Sag (1987) mucha de esta complejidad se reduce si considerarnos que lo fundamental de la sintaxis no el eje gramaticalidad-agramaticalidad sino el establecimiento de las condiciones bajo las cuales ciertos conjuntos de secuencias transmiten información, qué tipo de información, y bajo qué condiciones no lo hacen. Ahora bien, como indicamos anteriormente este formalismo hace uso fuerte de la noción de categoria y de la noción de unificación (esta última como única operación de combinación de información). A partir de las categorías se definen las otras dos nociones importantes del formalismo: ex.tensión y generalización. Las categorías son proyecciones a partir de conjuntos de rasgos de especificación definidos a partir de la operación unificación. Siguiendo a Gazdar y Pullum (1983) podemos definir la extensión, unificación y generalización del siguiente modo: Una categoría C2 es una extensión de una categoría C1 si y solo si (i) cada especificación de rasgos atómicos en C1 está en C2 y (ii) para cada especificación de rasgos de valores de categoría en C1, el valor del rasgo en C2 es una extensión del valor en C1. La unificación de un conjunto de categorías K es la categoría más pequeña que es una extensión de cada miembro de K, si tal categoría existe; de otro modo, la unificación de K es indefinida. La generalización de un conjunto de categorías K es la categoria más pequeña que contiene (i) la intersección de las categorías en K, y (ii) el conjunto de especificaciones de rasgos.de valores de categoría cada uno de cuyos valores es la generalización del conjunto de valores asignados al rasgo por las categorías en K (Gazdar y Pullum 1985: 25-26). La operación unificación cumple una función muy importante, a saber, establece las condiciones bajo las cuales un conjunto de rasgos, digamos en dos categorías, son compatibles entre sí (es decir, transmiten información), cuando no lo son y cuando la información transmitida es incompleta. Es en este último caso que la operación de unificación queda indefinida (véase Shieber 1986 para aplicaciones de este formalismo). Tal y como Shieber señala un formalismo basado en la unificación tiene un poder expresivo suficientemente fuerte, .aun cuando la operación concatenación (única operación permitida para combinar secuencias) garantice que el formalismo esté basado en una estructura libre de contexto. En efecto, a pesar de este hecho, como señala Shieber, su poder expresivo recorre toda la jerarquía de Chomsky con lo cual se convierte en un procedimiento bastante adecuado en la formalización de teorías sintácticas de diferente complejidad. Dowty, D. (1979) WORD MEANING AND MONTAGUE GRAMMAR. D. Reidel Publishing Co., Dordrecht-Holiand. Gazdar, G. (1985) APPLICMILITY OF INDEXED GRAMMAR TO NATURAL LANGUAGES. CSLI, Stanford University. y Puiiurn (1985) COMPUTATIONALLY RELEVANT PROPERTIES OF NATURAL LANGUAGES AND THEIR GRAMMARS. CSLI, Stanford University. Karttunen, L. (1986) THE RELEVANCE OF COMPUTATIONAL LINGUISTICS. CSLI, Stanford University. Perrault, R. (1985) ON THE MATHEMATICAL PROPERTIES OF LINGUISTIC THEORIES. CSLI, Stanford University. Poilard, C. y Sag, 1. (1987) HEAD-DRIVEN PHRASE STRUCTURE GRAMMAR AN INFORMAL SYNOPSIS. CSLI, Stanford University. Putnarn, H. (1962) 'Cerebros y conducta" en: Nudler, Oscar (175) PROBLEMAS EPISTEMOLOGICOS DE LA PSICOLOGIA. Siglo XXI, Argentina; 59-80. (1978) MEANING AND THE MORAL SCIENCE. Routledge and Kegan Paul, London. Ritchie y Peters (1973) 'On the generative power of transformational grarnrnars" en: INFORMATION SCIENCE (6) 49-83. Stalnaker, R. (1984) INQUIRY. The MIT Press, Cambndge: Uszkoreit y Peters (1985) ON SOME FORMAL PROPERTIES OF METARULES. CSLI, Stanford University.