Celso Vargas* SIJhlhlARY: Iri this paper we attempt to establish

Anuncio
Celso Vargas*
Sección de Filosofía
Sede Regional de Occidente.
y Escuela de Filosofía.
Universidad de Costa Rica.
SIJhlhlARY: Iri this paper we attempt to establish some relationships between linguistics-computation and mental structures. In the first section of
this pnper we present a general perspective in which, we think, can be
situated the recent linguistic researches. In the second we present some
results that concerri with complexity of algorifhms. In the third and last
section, we describe, briefly, a computational formalism knowri as UNIFICA'J'ION BASEBFORMALISM in which we can express linguistic theories
witli different computational complexity.
1 Programa de investigación conocido como "conductismo lágico"
concretaba, quizá, uno de los sueños más persistentes en el pensamiento moderno (por lo menos desde Descartes): explicar los procesos
mentiiles en térmirios del esquema estímulo-respuesta introduciendo las variables irltervinientes apropiadas y en la medida de lo posible evitar hacer
referencia a variables orgánicas (por ejemplo, "mediciones de propiedades
neuroanatómicas o neurofisiológicas del organismo"). El propósito fundamental del conductismo lógico era predecir, a partir de ciertos conjuntos de
variables (rigurosamente defiriidas) y leyes, el comportamiento con un margen de probabilidad bastante alto. O como pensaba Ryle traducir todo "discurso mentalista" en términos de un "discurso conductual". Sin embargo,
*
Qiiiero agradecer a la compañera Silvia Castro por su gentileza al permitirme contribuir con
este articulo para este número especial de la Revista Praxis.
como bien h a sciíalado Putnam (196'2 reimpreso en 1972) ciertos conceptos
nientalistas (el dolor, la alegria, etc.) que son reacios a esa reducción son,
precisamente, los que hacen que el programa no sea viable.
El fracaso de este programa llevó a los científicos a percatarse que lo
importante no es tanto describir curvas conductuales, sino establecer los mecanismos que permiten explicar la gran complejidad de Ia conducta liumaria.
Con este cambio de perspectiva las consideraciones sobre la estructura y
funcionamiento del organismo (fundamentalmente del cerebro y el sistema
nervioso) tienen una importancia decisiva. iCÓrr10 el cerebro procesa inforniacicíri?, ¿Cuál es la estructura y funcionamiento de la memoria?, etc., son
las ciiestiones fundamentales.
Cori el advenimiento de los computadores digitales la consideración de
estos temas ha entrado en una nueva etapa. Vivimos, como dice Karttunen
(1986) "en un contexto cultural donde la metáfora del cerebro-como-uncomputador es muy persuasiva" (p. 8). Esto no significa, de hecho, que se
coiisiciere, como algunos piensan, que se esté equiparando cl cerebro con un
computador digital. Realmente son muy diferentes. ],o que se afirma es que
ciertos aspectos del funcionamie~itode nuestra mente pueden ser comprendidos y explicados de manera satisfactoria si~nulando su funcionamiento
mediante computadores. Creo que la utilización de computadores o más
generalmente de procedimientos computacionales como la teoría de autómatas requiere que hagamos explícitos cualquier supuesto y simulemos el modo
en qué un autómata ante ciertas entradas (inputs) modifiquen apropiadamente su funcionamiento interno, por ejemplo, realice ciertas actividades
corno cambiar de estado, llevar a cabo determinados procesos, etc.
'I'omando en cuenta este coiitexto, mi propósito en este artículo es presentar algurias consideraciones sobre el modo en que las investigaciones
sobre el lenguaje, especialmente en sintaxis tal y como se realizan a partir
de 1957 (fecha de la publicación del libro revolucionario de Chomsky "Estructuras Sintácticas") pueden contribuir a la comprensión de la estructura
de la mente humana, por un lado, y el modo en qué estas investigaciones
están vinculadas con procedimientos computacionales estándar, por el otro.
1.
El, PAPEL DE LAS INVESTIGACIONES LINGUISTICAS.
Quisiera comenzar planteando algunas consideracio~iesgenerales sobre el
modo en que considero deben ser ubicadas las investigaciones actuales sobre
cl lenguaje. Pienso que es importante partir del hecho de que los seres
liumanos son organismos que están en interacción con el medio ambiente
(entendido éste último en sentido muy general). O como dice, Stalnaker,
"los seres humanos sor1 parte del orden natural. Son objetos físicos cuyas
capacidades mentales y disposicionales -especificamente sus capacidades
representacionales- necesitan ser explicadas en términos de relaciones naturales entre objetos naturales y sistemas de objetos naturales" (Stalnaker 1984:
x). El lenguaje humano desempeña un papel fundamental en este 'sistema
de relaciones' en un doble sentido: por un lado, es el medio fundamental
mediante el cual nos representamos el mundo y, por otro lado, es uno de los
medios fundamentales en la 'traducción' de estas representaciones en acciones que pueden transformar el medio en que vivimos. En este sentido, las
consideraciones sobre el lenguaje tienen que ser ubicadas dentro de el marco
más general de una teoría de la acción y de la percepción.
En esta capacidad representacional en la que el lenguaje juega un papel
fundamental, hay dos cuestiones generales que si bien tocan aspectos diferentes de esta relación compleja de los seres humanos con el entorno, están
directamente relacionadas y caracterizan el ámbito de las investigaciones
sobre el lenguaje. Primero está la cuestión de cuáles son los mecanismos
utilizados por los seres humanos para relacionar sonidos o símbolos con
significados. Podríamos denominar este ámbito siguiendo a Putnam (1978)
TEORIA DEL ENTENDIMIENTO. Por otro lado, está el problema de cómo podemos traducir nuestras representaciones mentales en acciones 'efectivas' sobre el medio. Podemos denominar a este aspecto de la investigación
lingüística TEORIA DEL EXITO LINGUISTICO. Las investigaciones en
semántica (dentro del marco de la teoría de la referencia) pueden contribuir de manera significativa en este segundo ámbito.
Podemos expresar las relaciones entre estos ámbitos: teoría del entendimiento, teoría del éxito lingüístico y teoría de la acción y percepción del
siguiente modo (tomado de Dowty 1979):
m
hablante-oyente
Parece ser el caso que si uno tiene una teoría completa y adecuada
de la comprensión del lenguaje y también una teoría completa y
adecuada de la acción y de la percepción, indirectamente tendría el
tercer lado del triángulo. Esto es, si pensamos del hablante-oyente
como un autómata (siguiendo a Carnap-Reichenbach-Putnam) y suponiendo que tenemos: (1) una descripción de cómo cada expresión
de "entrada' (input) afecta el estado interno del autómata y qué estado interno de salida dará el autómata para cualquier expresión y (2)
cómo las entradas no-lingüísticas (es decir, percepciones no lingüísticas) afectan el estado interno del autómata y cómo los estados internos del autómata se realizan como acciones (no-lingüísticas), entonces, parecería que tenemos indirectamente determinadas las relaciones entre expresiones y el entorno que es dada por la teoría de la
verdad y referencia (Dowty 1979: 378-379).
Tal y como Putnam presenta la situación, una teoría de la comprensión
debe incluir al menos los siguientes elementos: un conjunto de heurísticas o
esquemas inductivos y deductivos, un esquema para ordenar preferencias y
una regla de acción. Agregaríamos a lo anterior, una gramática (teoría sintáctica). Esto es así dado que es por medio del lenguaje que codificamos,
estructuramos y comunicamos nuestras representaciones, estados, expectativas, etc. Pero, por otro lado, la estructura de las gramáticas que los
lingüistas construyen, en tanto que son instrumentos para explicar los procesos mediante los cuales los individuos asocian 'sonidos con significados'
deben ser compatibles con las estructuras mentales del ser humano.
Así pues, desde este punto de vista general, las teorías lingüísticas y
particularmente las sintácticas juegan un papel importante en nuestra comprensión y representación del mundo.
1.
TEORIA DE LA COMPLEJIDAD.
Si consideramos que el funcionamiento del lenguaje es uno de estos ámbitos en los que la utilización de procedimientos computacionales puede
arrojar luz sobre el modo como procesamos el lenguaje y pensamos, entonces, las propiedades computacionales de los algoritmos adquieren gran r e l e
vancia (si vemos, como de hecho se hace, las gramáticas para las lenguas
naturales como algoritmos de cierta complejidad). No obstante, aun cuando
no se enmarque la discusión en el contexto de esta metáfora del cerebrocomo-un-computador, la investigación de las propiedades computacionales
de las gramáticas es también importante. En efecto, hay, al menos dos razones por las cuales esto es deseable. Por un lado, dada la creciente tendencia
a construir lenguajes de programación cada vez más próximos al lenguaje
natural o que incorporen comandos de las lenguas naturales, hace la
discusión sobre sus propiedades sea realmente relevante. En este sentido,
este tipo de investigaciones arrojará resultados prácticos de bastante utilidad
e interés. Por otro lado, si podemos formalizar una teoría sintáctica podemos establecer con mayor facilidad sus propiedades. Así 'pues, es posible
estar de acuerdo en la necesidad de que las gramáticas sean computacionalmente tratables aun cuando no nos enmarquemos dentro del contexto general
arriba propuesto.
Cuando se piensa en la clase de algoritmos y su complejidad se piensa
fundamentalmente en términos del tiempo o el espacio que requieren para
ser tratados. El tiempo o el espacio que utilicen, cuando son tratados en un
computador, depende de varios factores: del tipo de máquina utilizada, de la
memoria de la máquina, de la velocidad de procesamiento de información,
etc. Por esta razón, las consideraciones generales sobre el tiempo y el espacio se hace abstrayendo las características de las máquinas, dejando sin definir las unidades temporales o espaciales a utilizar. (En lo que sigue
hablaremos únicamente de tiempo).
Se han desarrollado modelos matemáticos para determinar el tiempo
computacionalmente requerido por los algoritmos. Es muy difícil, señala
Perrualt (1984) dar procedimientos generales para determinar el tiempo esperado para el procesamiento de algoritmos. Lo que se hace es dar procedimientos en términos del tiempo máximo que pueden utilizar (worse case
time). Para calcular el tiempo máximo se utiliza el modelo conocido con el
nombre de 'notación oh-big' (notación*).
Este es el propósito de la notación+. Sea f(n) y g(n) dos funciones.
La función f se dice que está en O (g) si una constante múltiple de g
es un límite superior para f , para un número finito de valores n.
Más precisamente, f está O (g) si existen constantes K y no tales que
para todo n > no, f(n) < K * g(n). (Perrault 1984: 3).
Podemos decir, entonces, que un algoritmo M es computacionalmente
tratable, si y solo si, es posible construir una función g expresable en
términos de O (g). De acuerdo con el esto el tiempo requerido por ciertos
algoritmos es mayor que el de otros y habría algoritmos que no son computacionalmente tratable por la gran complejidad involucrada.
Estos procedimientos son aplicables en lingüística. Para ver esto, presentaremos a continuación el modo en que las gramáticas pueden ser clasificadas dentro de cierta escala de complejidad. Se conoce con el nombre de
JERAKQUIA DE CHOMSKY a dicha clasificación. Las gramáticas son
procedimientos finitos para caracterizar ciertos conjuntos de expresiones.
Podemos definir una gramática con10 un quíntuple < Vn, Vt, X, S, R >,
donde, R es un conjunto de reglas, S es el axioma o punto de partida de
toda derivación, X es un conjunto de índices (que puede ser vacío), Vt es el
vocabulario terminal. Las derivaciones últimas de las reglas son secuencias
de elementos de Vt, específicamente, de (Vt)* donde (Vt)* es el conjunto de
todas las secuencias finitas que resultan de la aplicación de las siguientes
tres reglas: i) vacío pertenece a (Vt)*; ii) todo elemento de Vt pertenece a
(Vt)"; iii) si a y b pertenecen a (Vt)*, también ab pertenece a (Vt)*. Vn o
vocabulario no terminal juega un papel importante en la formulación de las
reglas con base en las cuales seleccionamos subconjutos de (Vt)* y que se
denominan lenguajes.
Las gramáticas pueden ser clasificadas de acuerdo con el tipo de reglas
que posea, esto es, de acuerdó con las restricciones que impongamos a las
reglas utilizadas por las mismas. Las reglas pueden hacer las siguientes
cosas:
1-
Eliminar elementos de una secuencia.
2-
Mover elementos de una posición a otra.
3-
Almacenar ordenadamente en una o varias memorias elementos del Vt.
4-
Expandir una secuencia.
5-
Sustituir los elementos de Vn que aparecen en una secuencia por elementos de Vt.
Las gramáticas más poderosas son aquellas que permiten hacer todas estas cosas. Llamamos gramática tipo-0 a este tipo de gramática, y el conjunto R de reglas tiene la siguiente forma:
-->
donde
(Vn U ~ t ) ' y
(Vn U Vt)*. donde (Vn
U ~ t ) ' es (Vn U Vt)* excepto que no posee el elemento neutro.
Si restringimos las reglas de tal manera que la condición 1 no se cum->
si y solo si, I I <= I I (esto es, si la cardinalidad
pla, es decir,
de es menor o igual que la de
), la gramática resultante es de tipo 1 o
pendiente de contexto (context-sensitive).
Nuevamente, si restringimos las reglas de tal manera que sólo cumplan
las condiciones 3-5, es decir, [i] -->
[j], donde
Vn, i es un índipertenece a (Vt U ~ n ) ' , j es un índice diferente de i (ambos índices
ce,
pueden ser vacíos), entonces, la gramática resultante es una gramática
indizada.
Si restringimos las reglas de tal manera que la condición 3 no se
Vn y
(Vn U ~ t ) ' , entonces, la
cumpla, es decir, ---> donde
gramática es tipo-2 o gramática libre de contexto.
Finalmente, las gramáticas regulares o tipo-3 son aquellas que permiten
reglas únicamente de la siguiente forma:
--->
,
--
>
,
>
, donde
Vt,
Vn.
Existen ciertas equivalencias entre esta clase de gramática? y las clases
de procedimientos algorítmicos generales. Para toda gr mátici, '{PO-O existe
una Máquina de Turing, una Máquina de Post y una haquina de Estado finito con dos pilas de memoria (two pushdown stores) (estas clases de máquinas son equivalentes entre si) que acepta las secuencias generadas por estas
gramáticas. La clase de gramáticas tipo-1 son aceptadas por un subconjunto
de Máquinas de Turing. Las gramáticas indizadas son aceptadas por la clase
de Máquinas de estado finito no deterministas con una pila de memoria. Las
gramáticas tipo-2 son aceptadas por la clase de Máquinas de estado finito
deterministas con una pila de memoria. Finalmente, las gramáticas regulares
son aceptadas por la clase de máquinas de estado finito sin memoria.
Esta jerarquía y su clase equivalente de aceptores impone los límites a
la computabilidad posible, es decir, en términos del tiempo necesario para
su reconocimiento. No existe un procedimiento general para determinar el
tiempo máximo de las gramáticas tipo-O. (Esto no significa que no exista
para algunas gramáticas particulares). Por tanto, desde el punto de vista
computacional no son siempre manejables. Pero además como esta clase de
gramáticas pueden ser utilizadas para formalizar todo algoritmo que en principio sea formalizable, es difícil que pueda hacer afirmaciones empíricas
sobre el modo cómo funciona nuestra mente. Las gramáticas tipo-1 expresadas en forma normal aun cuando son decidibles son bastante complejas.
(Sin embargo, debemos decir que Gazdar y otros han utilizado en la construcción de su teoría conocida como GRAMATICA DE ESTRUCTURA
SINTAGMATICA GENERALIZADA los resultados de Ritchie y Peters
(1973) de que una gramática tipo-1 si se interpxeta como un mecanismo que
impone condiciones de admisibilidad sobre secuencias, enotnces tiene un
poder expresivo que es equivalente al de la clase de gramáticas tipo-2).
Por lo tanto, desde el punto de vista lingüístico y computacional, las
clases de gramáticas interesantes son las indizadas (un superconjunto que
incluye la clase de las gramáticas libres de contexto y un subconjunto propio
de las gramáticas dependientes de contexto), las libres de contexto y las
regulares. Las gramáticas libres de contexto son procesadas con un tiempo
0(n2), es decir, tiempo lineal. A partir de 1978, bajo la influencia de la
hipótesis de Peters de que las lenguas naturales podrían ser tratadas con las
gramáticas de estructura sintagmática, muchas investigaciones se realizaron
para analizar las lenguas naturales con gramáticas libres de contexto. El que
se haya elegido las gramáticas libres de contexto como modelos no es arbitrario. En efecto, dado que estas gramáticas son reconocidas con mucha
rapidez, podemos explicar la rapidez con la que los niños aprenden su
lengua nativa.
Sin embargo, la iiivestigación lingüística reciente parece mostrar que las
lenguas naturales no son libres de contexto, pero que ningún fenómeno lingüístico hasta ahora investigado parece requerir uri poder expresivo más allá
de las gramáticas indizadas (véase Gazdar y Pullum (1985) y Gazdar (1985)
sobre estos aspectos). Esto ha hecho que recientemente muchos lingüistas
estudien con mayor detenimiento esta clase de gramáticas. Las gramáticas
indizadas incluyen como un subconjunto propio la clase de algoritmos conocidos como problemas-NP (Perrault 1984) cuya solución requiere la consideración de todas las posibilidades. Esta subclase es tratable en un tiempo
polinomial que crece extraordinariamente dependiendo de las dimensiones
del problema en cuestión.
Aun cuando por razones he espacio no es posible entrar en consideraciones sobre problemas de complejidad computacional de las distintas teorías
sintácticas utilizadas en este momento, específicamente, GOVERNMENT
AND BINDING de Noam Chomsky (1981 y SS), GENERALIZED PHRASE
STRUCTURE GRAMMAR de Gazdar y asociados, HEAD-DRIVEN
PHRASE STRUCTURE GRAMMAR de Pollard y asociados y LEXICOFUNCTIONAL GRAMMAR de Bresnan y Kaplan, debemos indicar que
existen importantes trabajos sobre estas teorías (véase en particular Perrault
(1984), Gazdar y Pullum (1985), Uszkoreit y Peters (1985)).
3-
UN FORMALISMO BASADO EN LA UNIFICACION.
Quisieramos terminar este artículo con la breve presentación de un formalismo computacional conocido como FORMALISMO BASADO EN LA
UNIFICACION, desarrollado fundamentalmente por Shieber a partir de
1984. El formalismo es una estructura abstracta o metalenguaje (de hecho
basado en la teoría de las categorías introducida en lingüística por Kay
(1979) en el cual pueden ser expresadas varias teorias o componentes de
teorias sintácticas contemporáneas. El desarrollo de este formalismo ha sido
considerado por muchos lingüistas como 'la segunda revolución' en
lingüística (véase Karttunen (1986)).
El propósito de este formulario tal y como lo presenta Shieber (1986) es
el siguiente:
1-
proporcionar un instrumento preciso para la descripción de las lenguas
naturales;
2-
delimitar la clase de posibles lenguas naturales;
3-
proporcionar una caracterización interpretable computacionalmente de
las lenguas naturales.
Dicho formulismos asume ciertas condiciones que los formalismos gramaticales deben cumplir. Específicamente,
1-
basado en la superficie: debe proveer de una directa caracterización
del orden superficial actual de las secuencias de elementos de la oración;
2-
informacional: debe asociar con las secuencias información de algún
dominio inf ormacional;
3-
inductivo: definiendo la asociación de secuencias y elementos informacionales recursivamente donde las nuevas asociaciones (pairings) son
derivadas mediante la fusión (merging) de las subsecuencias de acuerdo
con operaciones previamente establecidas para combinar secuencias, y
fusionando los elementos informacionales asociados de acuerdo con operaciones previamente establecidas de combinación informacional, y,
4-
declarativa: que defina la asociación entre secuencias y elementos informacionales en términos de los que las asociaciones permiten y no córno son computadas (Shieber 1986: 6-7).
Es un formalismo en el cual pueden ser expresadas teorías lingüísticas
basadas en rasgos complejos (rasgos y valores) a partir de un dominio informacional bien definido. El hecho de que se impongan estas condiciones
cambia de manera decisiva el modo de considerar la sintaxis. En efecto,
desde Chomsky (1957) en adelante se considera que la tarea de la sintaxis es
dar condiciones sobre la gramaticalidad-agramaticalidad de las secuencias.
Sin embargo, los últimos 30 años de investigación lingüística han mostrado
que una gramática articulada de esta manera introduce complejidades extraordinarias en los modelos. Como ha señalado Pollard y Sag (1987) mucha de
esta complejidad se reduce si considerarnos que lo fundamental de la sintaxis
no el eje gramaticalidad-agramaticalidad sino el establecimiento de las condiciones bajo las cuales ciertos conjuntos de secuencias transmiten información, qué tipo de información, y bajo qué condiciones no lo hacen.
Ahora bien, como indicamos anteriormente este formalismo hace uso
fuerte de la noción de categoria y de la noción de unificación (esta última
como única operación de combinación de información). A partir de las categorías se definen las otras dos nociones importantes del formalismo: ex.tensión y generalización. Las categorías son proyecciones a partir de
conjuntos de rasgos de especificación definidos a partir de la operación
unificación. Siguiendo a Gazdar y Pullum (1983) podemos definir la extensión, unificación y generalización del siguiente modo:
Una categoría C2 es una extensión de una categoría C1 si y solo si
(i) cada especificación de rasgos atómicos en C1 está en C2 y (ii)
para cada especificación de rasgos de valores de categoría en C1, el
valor del rasgo en C2 es una extensión del valor en C1.
La unificación de un conjunto de categorías K es la categoría más
pequeña que es una extensión de cada miembro de K, si tal categoría
existe; de otro modo, la unificación de K es indefinida.
La generalización de un conjunto de categorías K es la categoria más
pequeña que contiene (i) la intersección de las categorías en K, y (ii)
el conjunto de especificaciones de rasgos.de valores de categoría
cada uno de cuyos valores es la generalización del conjunto de valores asignados al rasgo por las categorías en K (Gazdar y Pullum
1985: 25-26).
La operación unificación cumple una función muy importante, a saber,
establece las condiciones bajo las cuales un conjunto de rasgos, digamos en
dos categorías, son compatibles entre sí (es decir, transmiten información),
cuando no lo son y cuando la información transmitida es incompleta. Es en
este último caso que la operación de unificación queda indefinida (véase
Shieber 1986 para aplicaciones de este formalismo).
Tal y como Shieber señala un formalismo basado en la unificación tiene
un poder expresivo suficientemente fuerte, .aun cuando la operación concatenación (única operación permitida para combinar secuencias) garantice que
el formalismo esté basado en una estructura libre de contexto. En efecto, a
pesar de este hecho, como señala Shieber, su poder expresivo recorre toda la
jerarquía de Chomsky con lo cual se convierte en un procedimiento bastante
adecuado en la formalización de teorías sintácticas de diferente complejidad.
Dowty, D. (1979) WORD MEANING AND MONTAGUE GRAMMAR. D. Reidel Publishing
Co., Dordrecht-Holiand.
Gazdar, G. (1985) APPLICMILITY OF INDEXED GRAMMAR TO NATURAL LANGUAGES.
CSLI, Stanford University.
y Puiiurn (1985) COMPUTATIONALLY RELEVANT PROPERTIES OF NATURAL
LANGUAGES AND THEIR GRAMMARS. CSLI, Stanford University.
Karttunen, L. (1986) THE RELEVANCE OF COMPUTATIONAL LINGUISTICS. CSLI, Stanford University.
Perrault, R. (1985) ON THE MATHEMATICAL PROPERTIES OF LINGUISTIC THEORIES.
CSLI, Stanford University.
Poilard, C. y Sag, 1. (1987) HEAD-DRIVEN PHRASE STRUCTURE GRAMMAR AN INFORMAL SYNOPSIS. CSLI, Stanford University.
Putnarn, H. (1962) 'Cerebros y conducta" en: Nudler, Oscar (175) PROBLEMAS EPISTEMOLOGICOS DE LA PSICOLOGIA. Siglo XXI, Argentina; 59-80.
(1978) MEANING AND THE MORAL SCIENCE. Routledge and Kegan Paul, London.
Ritchie y Peters (1973) 'On the generative power of transformational grarnrnars" en: INFORMATION SCIENCE (6) 49-83.
Stalnaker, R. (1984) INQUIRY. The MIT Press, Cambndge:
Uszkoreit y Peters (1985) ON SOME FORMAL PROPERTIES OF METARULES. CSLI, Stanford University.
Descargar