domingo, 26 de octubre de 2008

La fascinante evolución computacional del lenguaje


El lenguaje humano es un modo de comunicación, un elemento crucial de nuestra cultura y un objeto que define nuestra identidad social.
Las estucturas lingüísticas consisten de unidades más pequeñas que se agrupan de acuerdo con ciertas reglas. Los fonemas forman sílabas y palabras. Las palabras configuran frases. Y, sin embargo, las reglas para tales agrupamientos no son arbitrarias. Existe una bella correspondencia entre lenguajes, gramáticas y máquinas. El conjunto de todas las gramáticas corresponde al conjunto de todos los ordenadores digitales con memoria infinita y que generan el conjunto de los lenguajes computables. En consecuencia, la mayoría de los lenguajes posee una gramática indecidible para una máquina de Turing.
Un subconjunto de lenguajes decidibles es generado por gramáticas sensibles al contexto. Un subconjunto de aquellos lenguajes puede ser generado por gramáticas libres de contexto y un subconjunto de los lenguajes libres de contexto contiene todos los lenguajes regulares. Un subconjunto de los lenguajes regulares consta de todos los lenguajes finitos. Esta relación entre gramáticas recibe el nombre de jerarquía de Chomsky. Con la introducción de la jerarquía de Chomsky, hubo interés en situar los lenguajes naturales dentro de este esquema. Los lenguajes naturales son infinitos.
Los niños aprenden su lengua nativa escuchando oraciones gramaticales de sus padres o de otras personas. A partir de esta influencia ambiental, los niños construyen una representación interna de la gramática subyacente. Ni los niños ni los adultos son conscientes de las reglas gramaticales que especifican su propio lenguaje. Ya Chomsky indicó que el estímulo ambiental disponible no especifica las reglas gramaticales. La solución propuesta es que los niños aprenden la gramática correcta eligiendo a partir de un conjunto restringido de gramáticas. La teoría de este conjunto restringido es la Gramática Universal. ¿En qué sentido hay una Gramática Universal innata?
El cerebro humano estaría equipado con un algoritmo de aprendizaje que nos capacitaría para aprender ciertos lenguajes. La teoría del aprendizaje sugiere que ha de existir un espacio de búsqueda anterior a los datos, esto es, innato. A veces, se afirma que el argumento para una Gramática Universal innata descansa en una asunción matemática particular que se refiere sólo a la sinraxis y no a la semántica. Pero esto no cambia la necesidad de restricciones innatas. La Gramática Universal evolucionaría a través de presiones selectivas, compitiendo diferentes Gramáticas Universales. Consideremos Gramáticas Universales con el mismo espacio de búsqueda y el mismo procedimiento de aprendizaje, siendo la única diferencia el número de oraciones N de entrada. Esta cantidad es proporcional a la longitud del periodo de aprendizaje. La selección natural lleva a valores intermedios de N: para un N pequeño, la precisión del aprendizaje correspondiente a la Gramática correcta, es demasiado baja; para N grande, el proceso de aprendizaje requiere demasiado tiempo y es muy costoso. Esto explicaría por qué en humanos existe un periodo limitado de adquisición del lenguaje.
Pensemos en Gramáticas Universales que difieran en el tamaño de su espacio de búsqueda n pero que posean el mismo mecanismo de aprendizaje y el mismo valor de N. Existe una presión selectiva para reducir n. Sólo si n está por debajo del entorno de coherencia, puede la Gramática Universal generar comunicación gramatical. Cuanto más pequeño sea n, mayor será la precisión de la adquisición gramatical.
Así pues, debido a que nuestro cerebro evolucionó, la Gramática Universal también es un producto de la evolución y, como tal, sujeto a variabilidad.

No hay comentarios: