En esta entrada del blog presentamos una entrevista que, amablemente, el profesor Guillermo de Jorge Botana, profesor del Dpto. de Psicología Evolutiva y de la Educación de la UNED nos ha concedido. Nos encontramos ante un gran exponente, a nivel internacional, de la aplicación de la Lingüística Computacional a la Ciencia Cognitiva y la Neurociencia. Este blog, que busca ilustrar la aplicación de herramientas informáticas a la Neurociencia, se siente muy complacido por poder acoger aquí sus valiosas opiniones.
Doctor por la Universidad Autónoma de
Madrid con una tesis sobre la técnica del Análisis de la Semántica Latente, no
ha rehuido el ámbito de la empresa privada, ocupando diferentes puestos, desde
programador hasta jefe de proyectos. Ha creado software propio que ha plasmado
en ( www.gallitoapi.net ), siempre
con la vista puesta en los puentes de unión entre Informática y Psicología.
PREGUNTAS
-P. Estimado profesor,
Ud. es un gran experto en lingüística computacional pero no descuida la
aplicación de técnicas informáticas para simular procesos cognitivos. ¿Podría
comentarnos brevemente cómo accedió a la técnica del Análisis de la Semántica
Latente, sus fundamentos más básicos y sus posibles aplicaciones a la Ciencia
Cognitiva?
-R.
Hacia el año 2003, Acababa de presentar el Trabajo de Estudios Avanzados y
estaba trabajando en una pequeña empresa que se dedicaba a desarrollar
asistentes para aumentar la resiliencia en los trabajadores. Tenía un jefe,
Santiago Barrero, que quería apostar, quizás sin acompañarnos el momento, por
técnicas que pudiesen identificar sobre que se hablaba en las conversaciones
abiertas, y allí nos pusimos a trabajar. De esa manera, di con una incipiente
técnica, el Análisis de la Semántica Latente (LSA). A partir de ahí, me
introduje en la capacidad de la técnica para simular la representación del
léxico, y con ella, simular también los mecanismos que tentativamente lleva a
cabo el sistema cognitivo para conseguir hipótesis de significado. Esto lo
desarrollé luego, en el marco de la tesis, y ahora seguimos haciéndolo, en
artículos creo que más profundos sobre este tema. En este sentido, tengo que
decir que paradójicamente, me vino muy bien no haber tenido becas de posgrado
en la universidad y haberme tenido que bregar con cosas distintas. No quiero
decir que las becas sean una maldición, pero ese es mi caso.
-P. La técnica
mencionada está también presente en el mundo educativo. De hecho, ha sido usada
en Tutores
Inteligentes de última generación como el AutoTutor de Graesser y
colaboradores. Nos consta su implicación en esta materia, así como el de su colega Ricardo
Olmos de la Universidad Autónoma de Madrid su director de Tesis Doctoral, el profesor José Antonio León
. ¿Cuál es, a su juicio, el futuro más inmediato que nos espera respecto a la
evolución tecnológica de estas herramientas?
-R.
Pienso que el futuro de los Tutores Inteligentes está en conjugar diversas
capas de análisis (vectoriales, probabilísticas, reglas formales, gramáticas) y
que los resultados de éstas puedan presentarse de forma coherente, dentro de un
diseño instruccional, empleando por ejemplo técnicas que emplean también los
chatbots, es decir, técnicas que permiten la gestión de una conversación en
base a los estados de la misma. Creo que la propuesta es “la plataforma como
conversación”, es decir, que toda una plataforma, sea cual sea, esté gobernada
por los parámetros de una conversación al uso. De hecho, esta es la consigna
que mi compañero del departamento José María Luzón y yo nos propusimos
cuando hace dos años planteamos la
evolución de nuestra plataforma de evaluación de respuestas abiertas G-RUBRIC (
www.grubric.com ). En argot ciclista, estamos intentando ello “coger
la escapada buena” y creemos que va por ahí.
-P. En un artículo, elaborado junto a los profesores Ricardo Olmos y Vicente Sanjosé, titulado “Predicting Word Maturity from Frequency and Semantic Diversity: a Computational Study”, creemos detectar su creciente interés por aplicar las técnicas de procesamiento automático del lenguaje natural a la Psicología Evolutiva. ¿Podría indicarnos algo acerca de cómo la frecuencia y la diversidad semántica de las palabras usadas pueden predecir el paso desde la infancia a la edad adulta?
-R.
Totalmente, de hecho en el Máster del departamento instauré una línea de
Trabajos Fin de Máster en la que se reflexionaba sobre las técnicas
computacionales que podían ayudar a comprender los fenómenos evolutivos.
Tuvimos trabajos de modelos vectoriales como Semántica Latente, de redes neuronales artificiales, de modelos
probabilísticos basados en n-gramas, de modelación de sistemas complejos a
partir de funciones en las que unas influyen en otras (inspirados por el prof.
Van Geert) y algunos temas más. Los alumnos venían con miedo y se fueron con la
confianza de haber domado a la bestia. Me gustaría pensar que esos alumnos
tendrán un pensamiento más ordenado fruto de su “visita” a estos modelos.
Respecto
a lo segundo, la variable frecuencia está muy estudiada en psicolingüística y
ocupa un rol muy importante en el acceso al léxico. La frecuencia tiene
consecuencias sobre la recuperación, la producción y el procesamiento, pero en
esta variable se pueden estar escondiendo alguna otra covariable que explica
mejor este tipo de efectos. Este es el
caso de la Diversidad Semántica (Hoffman, Ralph, & Rogers, 2013). Son diversas las palabras que ocurren en
muchos contextos temáticos y esto con un modelo vectorial de la representación
léxica como LSA se puede formalizar muy bien. Por abreviar, la conclusión de
este estudio es que para que las personas adquieran una representación madura
de una palabra no es necesaria una exposición masiva a esa palabra. En el modelo
se observa que cuanto más texto se procesa (más edad se tiene), menos
importante es la frecuencia con la que aparezca una nueva palabra para que se
consiga tener una representación madura de ella. Aquí entran en juego
mecanismos de inducción: Adquirimos el significado de una nueva palabra incluso
apareciendo pocas veces siempre que esté acompañada de palabras que ya tienen
la representación madura. Por otro lado, una alta diversidad de significado de
una palabra hace que esta palabra deba aparecer más veces para estar bien
representada, produciéndose una interacción entre frecuencia y diversidad.
Una
cosa que me parece muy útil de estos índices basados en estos modelos
vectoriales es que tienen una aplicación relativamente directa. Por ejemplo,
algunos estudios han encontrado que controlar en una batería de evaluación el
índice de Diversidad Semántica es buen predictor de demencias cerebrales que
cursan con problemas en las funciones ejecutivas (palabras diversas necesitan mayor
movilización de mecanismos de inhibición/activación) mientras que la frecuencia
lo es en demencias que cursan con deterioros en la Memoria a Largo Plazo
(Hoffman, Rogers, & Ralph, 2011). Teniendo un modelo computacional capaz de
procesar miles y miles de palabras y extraer índices, nos facilita mucho ese
posible control en las posibles baterías de evaluación. Tal es la utilizad de
los modelos, incluso con sus defectos, tienen poca ambigüedad y mucha
productividad.
-P. Precisamente, y siguiendo con la cuestión del proceso evolutivo de adquisición del conocimiento, Ud. enfatiza en “The role of domain knowledge in cognitive modeling of information search” (publicado conjuntamente con los profesores Karanam, Olmos y van Oostendorp) cómo las diferencias individuales en el dominio del conocimiento por parte de los usuarios influyen en su búsqueda de información a través de bases de datos. ¿Podría explicarnos algo más acerca de esto y el porqué de la diferencia entre expertos progresivos y abruptos?
-R.
Cómo tengamos representadas las palabras o los conceptos en la mente tiene
consecuencias en cómo buscamos la información y cómo la procesamos. Las
personas que tengan una representación madura de ciertos términos técnicos, los
expertos, tendrán un estilo de búsqueda distinto, y quizás más productivo, que
las personas que tienen una representación más vaga de los términos técnicos.
De eso se trataba, de modelar esos tipos de conocimientos mediante un modelo
vectorial y ponerlos a buscar información mediante un algoritmo que emulase la
búsqueda humana. Es decir, una base de conocimiento experta o no experta, y un
mecanismo automático de búsqueda y navegación. La diferencia entre expertos
progresivos y abruptos hace alusión simplemente a que un modelo de persona, el
experto progresivo, puede tener un conocimiento intermedio entre el
conocimiento técnico y el meramente coloquial, y el otro, el experto abrupto
tiene sólo el técnico y el coloquial, sin esa pincelada de conocimiento
intermedio entre ambos mundos. Pero insisto, se trata de proponer tentativas de
“maniquíes” para confrontarlos con tareas mediante el mecanismo de búsqueda y después
comprobar sus resultados. Algo así como los dummies en las pruebas de
automóviles.
-P. Ud. nunca rehúye
la aplicación práctica de su labor investigadora. De hecho, ha formado parte de
compañías tecnológicas como Indra, Redknee o Prosodie y ha desarrollado
numerosas aplicaciones tecnológicas desde “Semantia Lab”, una “spin-off” de la
UNED. ¿En verdad es tan difícil en nuestro país crear “spin-offs” desde la
Universidad?
-R. Ciertamente
sí. Se juntan varios problemas. El primero es que los profesores que las crean
tienen una especie de desdoblamiento de la personalidad difícil de resolver, el
rol de profesor o investigador y el de emprendedor. Esto se acrecienta con la
sensación de que no puedes hablar de tu proyecto en el ámbito académico, pues
te puede generar algunas suspicacias institucionales. Es difícil explicar que
gastas parte del tiempo en un proyecto con “afán de lucro”, aunque el lucro esté totalmente normalizado a
través de la oficina de Transferencia de Resultados de la Universidad, al
contrario que otros lucros menos evidentes. Además, los apoyos institucionales suelen
ser escasos. Hay otro problema, y es que las Spin-off tienen una hipertrofia
hacia la I+D+I, descuidando, por no poder asumir los costes dinerarios y de
tiempo, las cuestiones comerciales, de marketing y de dirección de proyectos.
Este hueco sería llenado por agentes externos a la universidad, es decir, otras
empresas, pero la interlocución con el mundo empresarial es escasa y mal
articulada y los postulantes no son muchos. Corolario, que al final las cosas suelen
quedar en ideas plasmadas en un plan director de orientaciones estratégicas de
la universidad, pero no suelen sustanciarse. Con esto no quiero decir que el
éxito o el fracaso sea consecuencia de otros. Eso no sería correcto. Los
responsables en última instancia del éxito son los promotores, pero las
circunstancias son las que son. A Dios lo que es de Dios, y al césar lo que es
del césar.
-P. Desde su experiencia en el diseño de programas IVR (Interactive Voice Response), ¿seguimos todavía tan lejos de lograr sistemas de reconocimiento de voz y de conversación con los usuarios que se acerquen a la capacidad humana? ¿Por qué?
-R.
Realmente ha habido grandes avances en el reconocimiento de voz. Creo que con
la irrupción de nuevos agentes como google, Microsoft e IBM con sus servicios
de reconocimiento de voz en la nube basado en muestras masivas de audios, los
agentes tradicionales, como por ejemplo, Nuance Inc., Verbio (otra Spin-Off universitaria),
etc. se han visto un poco desplazados. Además, se han propuesto nuevas formas
de programar sistemas de gestión del diálogo, que además de formalizar estados
de la conversación, instigadores y respuestas, aúnan también la capacidad de
tomar información (semántica entre otras) de otras fuentes, en concreto de APIs
que funcionan de manera modular y que mandan su análisis al sistema que
centraliza el diálogo. Estas fuentes pueden ser también diversas y sustantivas
en tamaño, configurando las piezas de verdaderos sistemas predictivos. En suma,
que si tenemos sistemas que mejoran el reconocimiento, piezas que generan
diálogo, y diversas fuentes de dónde sacar la información de quién nos llama y que significa lo que
está diciendo, tenemos un sistema susceptible de ser bastante “humanoide”. La
clave es unir todo de manera coherente y ordenada, y creo que en eso se está.
-P. Para finalizar, me gustaría que nos comentara brevemente qué es GallitoAPI y su valor para el procesamiento de grandes cantidades de información en empresas.
-R.
gallitoAPI ( www.gallitoapi.net ) es un API que expone en forma de servicios las
funcionalidades que vamos sacando en nuestro I+D. Al ser un API, estamos
facilitando genéricamente que cualquier sistema pueda integrarse con nuestra
I+D. Tiene funcionalidades basadas en distintas técnicas: modelos
espacio-vectoriales, gramáticas, n-gramas, técnicas conversacionales, técnicas
con reglas explícitas y en general con las evoluciones que nosotros mismos
publicamos en nuestros artículos. Puede decirse que quién lea un artículo
científico nuestro tiene la capacidad de ponerlo a trabajar de forma directa
mediante este API. Es más, en muchas ocasiones tenemos más funcionalidad de la
que nosotros mismos empleamos en nuestra operativa. De hecho, algunas
colaboraciones con otros investigadores han sido a partir del uso conjunto de
gallitoAPI para proyectos que no eran iniciativa nuestra pero que habían leído
alguno de nuestros artículos y les interesaba la técnica. Además, hemos
involucrado GallitoAPI en pilotos de empresas. También GallitoAPI es el principal
motor de nuestra plataforma G-Rubric.
Muchas gracias por su amabilidad y ha sido un verdadero placer poder entrevistarle.
(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en abril de 2018).
Referencias
Hoffman, P., Rogers, T. T., and Lambon Ralph, M. A. (2011). Semantic
diversity accounts for the “missing” word frequency effect in stroke aphasia:
insights using a novel method to quantify contextual variability in meaning. J.
Cogn. Neurosci. 23, 2432–2446.
Hoffman, Ralph, & Rogers (2013) Semantic diversity: a measure of
semantic ambiguity based on variability in the contextual usage of words.
Behavior Research Methods, 45 (3) (2013), pp. 718-730
Jorge-Botana, G., Olmos, R., & V. Sanjosé (2017). Predicting word
maturity from frequency and semantic diversity: a computational study. Discourse Processes, 54, 682-694. DOI: 10.1080/0163853X.2016.1155876.
Karanam, S., Jorge-Botana, G., Olmos, R., & H. van Oostendorp
(2017). The role of domain knowledge in cognitive modeling of information
search. Inf Retrieval
J, 20, 456-479. DOI:
10.1007/s10791-017-9308-8.
Olmos, R., León, J.A., Escudero, I., & Jorge-Botana (2011). Using
latent semantic analysis to grade brief summaries: some proposals. IJCEELL, 21 (2-3). DOI: 10.1504/IJCEELL.2011.040198
Van Geert (2014) Dynamic modeling
for development and education: from concepts to numbers. Mind, Brain, and
Education 8 (2), 57-73
No hay comentarios:
Publicar un comentario