domingo, 26 de marzo de 2023

RUTH BENAVIDES-PICCIONE: ESPINAS DENDRÍTICAS Y SINAPTOMA

 


La profesora Ruth Benavides-Piccione forma parte de la élite mundial de la Neurociencia que, en las últimas décadas, nos está descubriendo la estructura y función de las espinas dendríticas. Las espinas dendríticas son pequeñas protrusiones que emergen de las dendritas. Son elementos postsinápticos de sinapsis excitatorias situadas en la corteza cerebral y su desarrollo y estructura resultan fundamentales para los procesos cognitivos superiores.


Investigadora científica del CSIC , forma parte del Laboratorio Cajal de Circuitos Corticales (UPM), liderado por ese gran maestro de Neurocientíficos que es el Dr. Javier DeFelipe. Allí, la profesora Benavides-Piccione, junto a un excelente grupo de investigación, se dedica a analizar la organización microanatómica de la corteza cerebral.


Más de 50 publicaciones punteras y de alto impacto avalan su trayectoria y es un verdadero honor el haber podido recabar en este blog algunas de sus indagaciones en esta breve entrevista.

  

PREGUNTAS


-P. Estimada profesora: en esta entrevista nos vamos a centrar en dos de sus artículos colectivos. Uno analiza la estructura de las espinas dendríticas en humanos en función de la edad. El otro afronta el reto de analizar la arquitectura del sinaptoma del cerebro del ratón.  Por empezar con la cuestión de las espinas dendríticas, ¿querría, por favor, realizarnos un breve resumen de cómo se van perdiendo las espinas en una persona mayor frente a una persona madura a través de los resultados aportados por el software IMARIS?

 

-R. Las espinas dendríticas de las células piramidales son el lugar principal donde se forman las sinapsis excitadoras de la corteza cerebral. Se sabe que estas estructuras son sensibles a la edad y se modifican en densidad y forma a lo largo de la vida. Sin embargo hasta entonces no se había estudiado en detalle la morfología  de las espinas dendríticas en humanos. Lo que hemos visto en este estudio, en el que hemos reconstruido y analizado en 3D a alta resolución más de 8000 espinas en distintos compartimentos de las células piramidales de la corteza cerebral humana, es que hay una gran variedad de morfologías de espinas humanas y que con la edad no todas las espinas se pierden por igual, sino que hay determinadas poblaciones de espinas (las espinas más cortas y más pequeñas del compartimento basal y las más largas del compartimento apical) que tienden a disminuir en mayor proporción que otras. Es decir, que con la edad se produce una pérdida selectiva de las espinas dendríticas, en los distintos compartimentos de las células piramidales que forman parte de los circuitos cerebrales.

 

 -P. ¿Hay alguna hipótesis al respecto (aparte de la lógica pérdida debida al proceso de envejecimiento) de por qué se produce este fenómeno? ¿Es una pérdida lenta en cerebros sanos o parece ser más progresiva?

 

-R. La morfología de las espinas está relacionada con su función. Por ello, se considera que las espinas pequeñas son lugares preferenciales para la inducción de la potenciación a largo plazo, mientras que las espinas más grandes representarían rastros de memoria a largo plazo. Así, la mayor presencia de espinas pequeñas en una persona madura frente a una persona mayor podría estar relacionado con un mayor potencial para la plasticidad y aprendizaje en la persona madura frente a la persona mayor.  Por el contrario, durante el envejecimiento se produciría una pérdida de espinas que provocaría un descenso en la capacidad para integrar información en todos los compartimentos de las células piramidales. Además, puesto que existe una perdida selectiva de espinas pequeñas, se reducirían los lugares preferenciales para la inducción de la potenciación a largo plazo, por lo que se producirían alteraciones en el aprendizaje y memoria en el cerebro de la persona mayor.


Esta discapacidad cognitiva que se asocia a la senectud en el cerebro sano estaría relacionada con el compromiso de comunicación sináptica del propio circuito. Es decir, que la vulnerabilidad de los circuitos dependería de la redundancia de los mismos. Así, el envejecimiento no afectaría por igual a todos los individuos, existiendo personas mayores con elevadas capacidades que no verían comprometidas su funciones cognitivas al poseer un elevado grado de redundancia en su circuitos.


El potencial para incrementar las conexiones neuronales se basa en que el cerebro es una estructura plástica que se modifica con la experiencia. Así, el ejercicio mental (o “gimnasia cerebral” como decía Cajal), permitiría incrementar las conexiones neuronales de los circuitos como respuesta a un estímulo continuado.  Por este motivo,  la influencia de la cultura y la educación es crítica a la hora de facilitar el desarrollo de ciertos procesos mentales a lo largo de nuestra vida.

 

 -P.  Centrándonos en la reconstrucción del sinaptoma del cerebro del ratón, recientemente presentada en un artículo en la revista Neuron. Se trata de un hito en la exploración cerebral, un resultado largamente esperado. Una conclusión interesante es que las áreas que parecen controlar las funciones cognitivas superiores presentan una mayor diversidad sináptica. ¿Se corrobora así que, a mayor especialización, mayor complejidad o todavía hay que esperar a posteriores investigaciones?

 

-R. En este trabajo se ha conseguido, por primera vez, generar mapas a nivel sináptico de cada una de las regiones del cerebro del ratón. Mediante técnicas de marcaje genético e imagen se ha estudiado la distribución de varias proteínas sinápticas a lo largo de las distintas regiones del cerebro del ratón. Se ha observado que existe una diversidad sináptica en las diferentes regiones cerebrales, que es característica de cada área. En particular,  la mayor diversidad sináptica se encontró en regiones implicadas en funciones cognitivas superiores como el hipocampo y neocorteza, mientras que otras regiones implicadas en funciones más básicas como el tronco de encéfalo, mostraron la menor diversidad sináptica. En este artículo se muestra que la diversidad sináptica podría ser un mecanismo importante de representación de información en el cerebro y muestra la relación entre la arquitectura y la función cerebral. En la actualidad existe suficiente evidencia para afirmar que las regiones que presentan mayor complejidad estructural se encuentran implicadas en las funciones más complejas.

 

-P. Otro hallazgo fascinante es que los desórdenes cognitivos provocados por mutaciones parecen dar lugar a reorganizaciones del conectoma. ¿Podría, por favor, dar cuenta de una manera detallada de este proceso?

 

 -R. Los mapas sinápticos que se han obtenido coinciden en gran medida con la estructura del conectoma (conectividad entre axones y dendritas), lo que apoya la implicación de la diversidad sináptica en la especificación de las conexiones y a nivel de organización del sistema. Por tanto, la distribución diferencial de proteínas sinápticas podría ser un mecanismo que podría dar lugar a una diversidad funcional a la hora de conformar la actividad del circuito. En ese sentido, puesto que la diversidad sináptica podría ser un mecanismo importante de representación de información en el cerebro, aquellas mutaciones que reorganizaran la diversidad sináptica podrían resultar en alteraciones en esta diversidad y por tanto producir cambios en la funcionalidad de los circuitos. Es decir que la organización espacial de la diversidad sináptica se podría representar mediante unos mapas, cuya reorganización significaría cambios en el en la actividad neural, que alterarían la representación almacenada y, por tanto, al cambiar los patrones de actividad se produciría una salida espaciotemporal diferente del circuito, dando lugar a un comportamiento diferente.

 

Le doy las gracias por haber atendido esta breve entrevista y deseo que sus investigaciones y las de sus colegas nos sigan abriendo caminos para entender el órgano más complejo del Universo.


(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en diciembre de 2018).


 Referencias

 

Benavides-Piccione, R., Fernaud-Espinosa I., Robles V., Yuste, R. y J. DeFelipe. Age-based comparison of human dendritic spine structure using complete three-dimensional reconstructions. Cereb Cortex. 2012 Jun 17. [Epub ahead of print].

 

Zhu et al., Architecture of the mouse brain synaptome, Neuron (2018). Recuperado de https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6117470/pdf/main.pdf.

 


sábado, 25 de marzo de 2023

JOSÉ RAMÓN ALONSO PEÑA: NEURORREPARACIÓN

 


El profesor Alonso es conocido por el gran público por su importante labor divulgativa en el ámbito de la Neurociencia. Es algo que, por ejemplo, puede apreciarse en su muy reciente libro de divulgación, “Historia del cerebro” (http://grupoalmuzara.com/a/fichalibro.php?libro=3692&edi=5). Esta muy valiosa labor no debe hacernos olvidar su relevante contribución, junto a otros investigadores punteros del INCyL de la Universidad de Salamanca y del IBSAL (Institute of Biomedical Research of Salamanca), a la Neurorreparación-aquella parte de la Neurología que busca paliar los procesos neurodegenerativos-.


Catedrático de Biología Celular y Director del Laboratorio de Plasticidad neuronal y Neurorreparación del Instituto de Neurociencias de Castilla y León (INCyL), ha sido investigador posdoctoral y profesor visitante en la Universidad de Frankfurt (Alemania), la Universidad de Kiel (Alemania), la Universidad de California-Davis (USA) y el Salk Institute for Biological Studies (San Diego, USA).

 

Le agradezco mucho el que, gentilmente, haya decidido conceder  esta entrevista, aún a pesar de sus múltiples ocupaciones.

 

PREGUNTAS


-P. Estimado profesor: en esta entrevista apenas vamos a insistir en su labor divulgadora y sí nos vamos a centrar en el campo de la Neurorreparación, en el que también es un gran experto. En Baltanás, Valero, Alonso, Berciano y Lafarga (2015) se introducen técnicas que pueden servir para la detección temprana de signos de alteración del núcleo de células cerebrales como preámbulo para diagnosticar desórdenes neurodegenerativos. Sorprende que estos cambios pre-degenerativos aparezcan en neuronas con una citología bien preservada (art. cit., p. 44). ¿Cómo es esto posible? ¿Querría indicarnos algo al respecto y en qué tipos de patologías podrían aparecer estos signos?  

 

-R. Las enfermedades neurodegenerativas son uno de los problemas de salud más acuciantes en los países desarrollados con un dramático coste personal, familiar y social. Con el envejecimiento previsto de la población la situación va a empeorar por lo que es imprescindible que reforcemos nuestra investigación en estas patologías que tienen en común la pérdida de neuronas. El problema es que cuando aparecen síntomas muchas de las neuronas han muerto o están gravemente afectadas por lo que era fundamental poderlas identificar antes, cuando quizá estemos a tiempo de protegerlas o al menos ralentizar el proceso de neurodegeneración. Hemos aprovechado una estirpe de ratón, los PCD, que tienen una muerte específica de poblaciones neuronales definidas. Así hemos podido caracterizar los cambios nucleares y citoplasmáticos que terminan conduciendo a la muerte de esas células. Es un proceso impresionante en el que las neuronas van tomando decisiones para intentar protegerse, una batalla que terminan perdiendo. La buena noticia es que tenemos una plataforma biológica muy bien caracterizada donde podemos probar cualquier fármaco o estrategia neuroprotectora o, también, y es en lo que estamos trabajando ahora, intentar sustituir a las neuronas perdidas en un proceso de neurorreparación.

 

-P. Precisamente, en Muñoz-Castañeda et al. (2018), se hace referencia a que la estabilidad del citoesqueleto es básica para la integridad del cerebelo y su conducta motora y afectiva en ratones mutados. En concreto, la ausencia de la enzima CCP1 afectaría a la dinámica microtubular y a la alteración morfológica de las células de Purkinje, llevando a la degeneración progresiva del cerebelo. Esta degeneración no solo afectaría al comportamiento motor sino que también acarrearía problemas cognitivo-afectivos. ¿Qué tipo de problemas?

 

-R.  Durante mucho tiempo hemos considerado al cerebelo como un componente motor pero también interviene en procesos cognitivos y emocionales. Nos interesa porque el dato de anatomía patológica más común en las personas con autismo es precisamente la pérdida de neuronas de Purkinje. Es posible, por tanto, que algunos de los déficits sociales y emocionales que presentan las personas afectas de este trastorno puedan deberse a esa muerte selectiva de células de Purkinje, por lo que es clave entender qué hace que estas grandes neuronas sean selectivamente vulnerables en este trastorno.

 

-P.  No deja de ser interesante que el trasplante de médula ósea no solo se use para remediar patologías que afecten a los sistemas hematopoyético e inmune sino que también pueda ser utilizado para el tratamiento de trastornos del sistema nervioso (Díaz, Muñoz-Castañeda, Alonso y Weruaga, 2014). De las múltiples terapias que reseñan, ¿cuál le parece, a día de hoy, más promisoria a medio plazo para ser aplicada a seres humanos?

 

-R. Hemos probado distintas vías. El cerebro adulto de roedores tiene células madre y produce una neurogénesis. Sin embargo hemos comprobado que estas nuevas neuronas no se dirigen a las zonas perdidas por lo que no solucionan el problema de ese animal. También hemos probado en animales el trasplante de células fetales. Hemos comprobado que las células trasplantadas se diferencian, sobreviven y forman conexiones, pero lo hacen entre sí y no con el tejido hospedador donde querríamos reconstruir los circuitos. La tercera opción, y es en la que seguimos, ha sido utilizar células madres exógenas. Estas neuronas, procedentes de médula ósea, se diferencian a distintos tipos celulares incluidos neuronas y glía y sorprendentemente generan una mejora funcional en los animales afectados. Sin embargo, el número de células que localizamos en el cerebro es muy bajo y necesitamos incrementar el número de células que consiguen atravesar la barrera hematoencefálica. Es una vía prometedora pero con mucha tarea por delante.

 

 -P. Para finalizar, es inevitable aludir a su gran tarea divulgativa. Son ya muchos sus libros sobre Neurociencia que han abierto el conocimiento de esta rama científica a muchas personas de habla hispana. En mi opinión, “Historia del cerebro” pone un magnífico colofón a este esfuerzo, pero me gustaría que se refiriera a su colaboración con el profesor Juan Andrés De Carlos, jefe del Departamento de Neurobiología Molecular, Celular y del Desarrollo en el Instituto Cajal del CSIC, y  presidente del Cajal  Legacy  Group. Juntos acaban de publicar “Cajal. Un grito por la ciencia” (http://www.nextdoorpublishers.com/libros/cajal/). Realmente, a estas alturas, ¿cuánto queda por desvelar del patrimonio cajaliano y para cuándo el Museo Cajal en el Colegio Oficial de Médicos de Madrid o en otro lugar?

 

-R. Cajal es un hombre único, uno de los grandes científicos de la historia, considerado el padre de la neurociencia moderna. Por otro lado tiene muchas otras facetas: divulgador, profesor, padre de familia numerosa, militar, escéptico, anatomopatólogo, inventor, político, fotógrafo, artista y muchas otras más. En muchas de estas facetas es un personaje relevante pero sigue siendo un desconocido en muchos aspectos para buena parte de población. Por poner un ejemplo, un artículo en el New York Times le consideraba un dibujante a la altura de Leonardo y Miguel Ángel y conservamos  esa obra excepcional, sus ilustraciones científicas, pero está guardada y nadie la puede ver. Cajal decía que al carro de la cultura española le falta la rueda de la ciencia y ese Museo Cajal sería un fuente de vocaciones, un espacio educativo, un homenaje al mejor científico de habla hispana de la historia.

 

Le agradezco mucho la concesión de esta breve entrevista y le deseo lo mejor para su carrera científica en el futuro.


(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en febrero de 2019).


Referencias

 

Alonso, J.R. (2018). “Historia del cerebro”. Guadalmazán: Córdoba.

 

Alonso, J.R. y De Carlos, J.A. (2018). “Cajal. Un grito por la ciencia”. Next Door Publishers: Pamplona.

 

Baltanás, F.C., Valero, J., Alonso, J.R., Berciano, M.T. y M. Lafarga (2015). Nuclear signs of pre-neurodegeneration. En L. Lossi y A. Merighi (Eds.), Neuronal Cell Death: Methods and Protocols, Methods in Molecular Biology, vol. 1254, Springer Science: N. York. Recuperado de file:///C:/Users/Propietario/Downloads/NuclearSignsofPre-neurodegeneration-2%20(1).pdf .

 

Díaz, D., Muñoz-Castañeda, R., Alonso, J.R., y E. Weruaga (2014). Bone marrow-derived stem cells and strategies for treatment of nervous system disorders: many protocols, and many results. The Neuroscientist, August (2014), 1-16. Recuperado de file:///C:/Users/Propietario/Downloads/Daz2014TheNeuroscientist%20(1).pdf 

 

Muñoz-Castañeda, R., Díaz, D., Peris, L., Andrieux, A., Bosc, C., Muñoz-Castañeda, J.M., Janke, C., Alonso, J.R., Moutin, M.-Jo y E. Weruaga (2018). Cytoskeleton stability is essential for the integrity of the cerebellum and its motor-and affective-related behaviors. Nature Scientific Reports, 8:3072, 1-14. Recuperado de file:///C:/Users/Propietario/Downloads/Cytoskeleton_stability_is_essential_for_the_integr.pdf .


CONCHA BIELZA: REDES BAYESIANAS Y CLASIFICACIÓN NEURONAL

 


La profesora Concha Bielza es catedrática del Dpto. de Inteligencia Artificial de la Universidad Politécnica de Madrid (UPM) y forma parte de la avanzadilla de los científicos computacionales que, en nuestro país, están llevando la metodología de las redes bayesianas a aplicaciones de vanguardia. Decenas de publicaciones en las más reconocidas revistas internacionales de su campo así como un muy merecido Premio de Investigación concedido por su Universidad en 2014, así lo atestiguan. Junto a otro prestigioso investigador como Pedro Larrañaga, colabora con el Instituto Cajal (CSIC) y el Laboratorio de Circuitos Corticales del Centro de Tecnología Biomédica (UPM). Ambos investigadores van a publicar en 2019 en la reconocida editorial Cambridge University Press un libro de alrededor de 700 páginas titulado “Data-driven Computational Neuroscience”, donde se recogen técnicas del estado del arte en machine learning aplicadas a varios problemas reales en neurociencia. En esta breve entrevista buscamos reflejar su valoración acerca de algunas de las aplicaciones de las redes bayesianas a la Neurociencia Computacional (véase una revisión de este tema en Bielza, Larrañaga, 2014).  

 

 

PREGUNTAS

 

-P. Estimada profesora: Ud. es una gran experta en redes bayesianas. Las redes bayesianas (Pearl, 1988; Koller y Friedman, 2009) son una herramienta muy potente para representar la distribución de probabilidad sobre un conjunto de variables discretas. En Bielza, Li y Larrañaga (2011) introdujo un nuevo tipo de clasificador multidimensional bayesiano que reduce la carga computacional a la hora de buscar la explicación más probable. ¿Podría, por favor, explicarnos alguna de esas características que reducen la complejidad computacional y cómo ha evolucionado en Benjumeda, Bielza y Larrañaga (2018)?

 

-R. En el primer artículo (Bielza, Li, Larrañaga, 2011) propusimos redes bayesianas que resuelven el problema de la clasificación multidimensional, en el que no se quiere predecir una sola variable clase sino muchas a la vez, y donde es esperable que haya relaciones entre estas variables. A estas redes bayesianas con una arquitectura especial las denominamos MBCs (del inglés, multidimensional Bayesian network classifiers). Para resolver estos problemas hay que calcular la probabilidad a posteriori de cada posible combinación de las variables clase condicionada a la observación de todas las variables predictoras y después encontrar la que tiene mayor probabilidad, lo que dará la predicción final, que se denomina "explicación más probable". Se ha demostrado que calcular esta explicación en redes bayesianas es un problema NP-duro (Shimony, 1994). Nosotros aliviamos la carga computacional definiendo ciertas topologías de red descomponibles en subgrafos conexos maximales que rompen el problema original en varios problemas de maximización independientes, sobre espacios de menor dimensión. A estas estructuras más simples las denominamos class-bridge decomposable MBCs o CB-MBCs. También nos ayudamos del código Gray para recorrer el espacio de las combinaciones de las variables clase. Enumeramos así todas estas combinaciones siguiendo un orden específico en el que dos combinaciones consecutivas difieren solo en una componente.


Los desarrollos más recientes, como Benjumeda et al. (2018), acotan la complejidad de los MBCs y los CB-MBCs mientras se aprende la estructura a partir de datos. La estructura tiene ciertas restricciones que limitan la anchura de árbol (treewidth) de una transformación de la red original. Los  MBCs resultantes son tratables, donde la explicación más probable se puede calcular en tiempo polinomial.


Un ejemplo en neurociencia se encuentra en Borchani et al. (2012), donde usamos MBCs para predecir las cinco variables (movilidad, cuidado personal, actividades cotidianas, dolor/malestar y ansiedad/depresión), que definen el índice genérico de calidad de vida relacionada con la salud denominado European Quality of Life-5 Dimensions (EQ-5D). Se predicen a partir de 39 cuestiones sobre calidad de vida en enfermedad de Parkinson (PDQ-39). Fue una colaboración con el neurólogo Pablo Martínez-Martín, del Instituto de Salud Carlos III. Otro ejemplo, en neuroanatomía, se describe en Fernández-González et al. (2015), en el que un conjunto de casi doscientas características morfológicas extraídas de neuronas del repositorio NeuroMorpho sirven para predecir la especie a la que pertenece la neurona, el género, el tipo de célula, la etapa de desarrollo y el área de la neocorteza. Los modelos fueron CB-MBCs, pero gausianos, ya que las variables predictoras eran continuas. Es importante señalar que las redes bayesianas son transparentes y explicables, una característica deseable en modelos de machine learning en contraposición a otros como el popular aprendizaje profundo de redes neuronales artificiales.

 

 -P. A raíz de su colaboración con el grupo del profesor Javier DeFelipe en el problema de la clasificación y denominación de las interneuronas GABAérgicas (DeFelipe et al., 2013; Bielza y Larrañaga, 2014, p. 13), se usó Neurolucida y se propuso el diseño de un Neuroclasificador que, basado en las categorías propuestas por los expertos, combinase etiquetas probabilísticas conocidas de neuronas con nuevas etiquetas de neuronas como técnica de clasificación neuronal (DeFelipe et al., 2013, p. 215). ¿Querría, por favor, comentarnos brevemente la evolución de este sistema informático y su estado actual de desarrollo?  

 

-R. En DeFelipe et al. (2013) constatamos que los neuroanatomistas no se ponen de acuerdo en cómo categorizar muchas de las interneuronas GABAérgicas corticales, a partir de un experimento donde 42 expertos de todo el mundo clasificaron 320 interneuronas en las categorías estándar: Martinotti, candelabro, neuronas en cesto... Por eso se propusieron categorizaciones basadas en variables más simples, por ejemplo, si el árbol axonal se dispone en una sola capa (intralaminar) o no (translaminar), si se dispone en una sola columna cortical (intracolumnar) o no (transcolumnar), o cuál es la posición relativa de los árboles axonal y dendrítico (centrada versus desplazada). Aquí hubo algo más de consenso entre los expertos. Los dos tipos de categorizaciones, simples y estándar, reflejan diferentes formas de clasificar: la empírica y la científica (como la forma de clasificar plantas que hace un jardinero frente a cómo la hace un botánico) y sus relaciones entre ellas son interesantes. Esto se estudió con una red bayesiana por cada experto, que recogía su forma de clasificar. La red bayesiana permite realizar razonamiento sobre ella, pudiendo preguntar, por ejemplo, "¿cuál es la probabilidad de que si es una célula de tipo Martinotti sea, para cierto experto, translaminar?" y de ahí inferir qué neuroanatomistas razonaban de forma similar o distinta.


El conjunto de datos que generó este experimento entrañaba una dificultad grande desde el punto de vista del machine learning. No es un conjunto con instancias (neuronas donde se miden características morfológicas con Neurolucida Explorer) que poseen una clara etiqueta, ya que para una neurona, las etiquetas dadas por los 42 expertos podían diferir. Así, una interneurona podía ser Martinotti para 39 expertos, large basket para dos y horse tail para uno. Este tipo de etiquetado que no contiene la asignación a una única clase puede estudiarse desde varias perspectivas. Una es considerar la clase más frecuente entre las 42 anotaciones (DeFelipe et al., 2013; Mihaljevic et al., 2015b). Otra es utilizar las clases más confiables, es decir, las que van apoyadas por un determinado número de expertos (Mihaljevic et al., 2015a). Otra vía consiste en trabajar con etiquetas probabilísticas que reflejan esta disparidad en los expertos. Si además añadimos categorizaciones simples y estándar a toda la complejidad del etiquetado, podemos construir para cada neurona una red bayesiana que exprese las relaciones entre estas categorizaciones (Mihaljevic et al., 2014).


Esta clasificación automática debe mejorarse añadiendo nuevas variables morfométricas predictoras y partiendo de neuronas reconstruidas en un mismo laboratorio (como en Mihaljevic et al., 2018). A veces utilizar predictoras morfológicas es suficiente; como en Guerra et al. (2011), donde distinguimos entre neuronas piramidales e interneuronas, en colaboración con Rafael Yuste de la Universidad de Columbia. Pero en datos más complejos como los que estamos mencionando, incluir atributos moleculares y electrofisiológicos aparte de los morfológicos puede aportar perspectivas más ricas, y es algo en lo que estamos trabajando actualmente dentro del proyecto europeo Human Brain Project (FET Flagship de la Comisión Europea).

 

-P.  Siguiendo con el problema de la clasificación neuronal, en  López-Cruz, Larrañaga, DeFelipe y Bielza (2014) se diseñó una red bayesiana múltiple que buscaba modelar el consenso entre las clasificaciones aportadas por los expertos. En la parte final del artículo mencionado, comentan la necesidad de encontrar una red bayesiana representativa para cada cluster de distribuciones de probabilidad. ¿Ha habido algún avance relevante al respecto en la combinación de técnicas para obtener la mejor solución posible al problema desde la publicación del artículo?

 

-R. En este trabajo se agruparon expertos similares en clusters (se encontraron seis) a partir de la similitud entre sus distribuciones de probabilidad sobre las respuestas dadas en el experimento que he mencionado antes. Esas distribuciones de probabilidad provenían de cada red bayesiana aprendida para cada experto. Se construía luego una red bayesiana que representaba al cluster de expertos. Así, por ejemplo, un cluster representaba a neuroanatomistas que seguían un esquema de clasificación de grano muy fino frente a otros que clasificaban de forma mucho más grosera, dando muy alta probabilidad al tipo Common. El modelo global que aunaba las seis redes bayesianas permitía inferir definiciones consensuadas realizando de nuevo razonamiento sobre las redes. Por ejemplo, fijando la interneurona a Martinotti, el resto de caracterizaciones era translaminar (94%), transcolumnar (59%), desplazada (88%), y ascendente (65%). Si bien agrupar a los expertos tiene mucho sentido, las aproximaciones mencionadas en la pregunta anterior aportan soluciones más generales.

 

Le agradezco mucho la concesión de esta entrevista y le deseo el mayor éxito en sus proyectos de investigación venideros.


(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en enero de 2019).

  

 Referencias

 

Benjumeda, M., Bielza, C. y P. Larrañaga. (2018). Tractability of most probable explanations in multidimensional Bayesian networks classifiers. International Journal of Approximate Reasoning, 93, 74-87. Recuperado de https://www.sciencedirect.com/    science/article/abs/pii/S0888613X17306618.

 

Bielza, C., and P. Larrañaga (2014). Bayesian networks in neuroscience: A survey, Frontiers in Computational Neuroscience, 8, Article 131.


Bielza, C. y Larrañaga, P. (2014). Bayesian networks in neuroscience: a survey. Frontiers in Computational Neuroscience, 8 (131), 1-23. Recuperado de http://cig.fi.upm.es/articles/2014/Bielza-2014-FrontCompNeur.pdf.

 

Bielza, C., Li, G. y P. Larrañaga. (2011). Multi-dimensional classification with Bayesian networks. International Journal of Approximate Reasoning, 52, 705-727. Recuperado de https://core.ac.uk/download/pdf/82157691.pdf.

 

Borchani, H., C. Bielza, P. Martínez-Martín, and P. Larrañaga (2012). Markov blanket-based approach for learning multi-dimensional Bayesian network classifiers: An application to predict the European Quality of Life-5Dimensions (EQ-5D) from the 39-item Parkinson's Disease Questionnaire (PDQ-39), Journal of Biomedical Informatics, 45, 1175-1184.

 

DeFelipe et al. (2013). New insights into the classification and nomenclature of cortical GABAergic interneurons. Nature Reviews Neuroscience, 14 (3), 1-15. Recuperado de http://cig.fi.upm.es/articles/2013/DeFelipe2013_NRN.pdf.

 

Fernandez-Gonzalez, P., C. Bielza, and P. Larrañaga (2015). Multidimensional classifiers for neuroanatomical data, ICML Workshop on Statistics, Machine Learning and Neuroscience (Stamlins 2015), Lille, France, ICML.

 

Guerra, L., L. McGarry, V. Robles, C. Bielza, P. Larrañaga, and R. Yuste (2011). Comparison between supervised and unsupervised classification of neuronal cell types: a case study, Developmental Neurobiology, 71 (1) 71-82.

 

D. Koller, N. Friedman (2009). Probabilistic Graphical Models: Principles and Techniques - Adaptive Computation and Machine Learning, The MIT Press.

 

López-Cruz, P., Larrañaga, DeFelipe. J. y C. Bielza (2014). Bayesian network modeling of the consensus between experts: an application to neuron classification. International Journal of Approximate Reasoning, 55 (1), 3-22. Recuperado de http://oa.upm.es/38813/1/INVE_MEM_2014_171770.

 

Mihaljevic, B., R. Benavides-Piccione, C. Bielza, J. DeFelipe, and P. Larrañaga (2015a). Bayesian network classifiers for categorizing cortical GABAergic interneurons, Neuroinformatics, 13 (2) 192–208.

 

Mihaljevic, B., R. Benavides-Piccione, L. Guerra, J. DeFelipe, P. Larrañaga, and C. Bielza (2015b). Classifying GABAergic interneurons with semi-supervised projected model-based clustering, Artificial Intelligence in Medicine, 65 (1) 49-59.

 

Mihaljevic, B., C. Bielza, R. Benavides-Piccione, J. DeFelipe, and P. Larrañaga (2014). Multi-dimensional classification of GABAergic interneurons with Bayesian network-modeled label uncertainty, Frontiers in Computional Neuroscience, 8, Article 150.

 

Mihaljevic, B., P. Larrañaga, R. Benavides-Piccione, S.. Hill, J.. DeFelipe, and C. Bielza (2018). Towards a supervised classification of neocortical interneuron morphologies, BMC Bioinformatics, accepted.

 

J. Pearl (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan Kaufmann.

 

S.E. Shimony, Finding MAPs for belief networks is NP-hard, Artificial Intelligence 68 (2), 399–410.


PEDRO LUIS COBOS: DESÓRDENES EMOCIONALES, PROCESOS ASOCIATIVOS Y CONEXIONISMO

 


Presentamos en este artículo una breve entrevista con el profesor Pedro Luis Cobos, al cual agradecemos su gentileza y disponibilidad por responder a las preguntas de la misma. El profesor Cobos es profesor titular de Psicología en la Universidad de Málaga. Muy interesado inicialmente en los procesos asociativos de aprendizaje y activación, entró de lleno en el debate en torno a la capacidad explicativa de las teorías asociativas frente a las teorías proposicionalistas del conocimiento. De paso, elaboró el mejor libro sobre Conexionismo y Psicología que, a buen seguro, existe en el mercado editorial. En la actualidad, sus proyectos van muy orientados al estudio de la influencia de los procesos asociativos en la adquisición de conductas de miedo y evitación en el ámbito clínico.

  

PREGUNTAS

 

-P. Estimado profesor Cobos: en un artículo publicado en 2018 junto a Amanda Flores, Francisco J. López y Bram Vervliet, demuestra que la intolerancia a la incertidumbre es un factor que provoca conductas de evitación exageradas e inflexibles (p. 24). Desde hace mucho se conoce cómo la no tolerancia a la incertidumbre es un mecanismo decisivo en el desencadenamiento de preocupación patológica y de ansiedad. ¿Querría explicarnos brevemente qué tipo de diseños experimentales están aplicando en el contexto clínico para obtener estos resultados?

 

-R. Antes de nada quería manifestarte (espero que no te importe que te tutee) mi enorme agradecimiento por la entrevista, por tus muy amables palabras y por la oportunidad que me ofreces para dar más difusión a las cosas que hacemos en nuestro laboratorio en Málaga. También siento la necesidad de decir que, si bien se han escrito muy pocos libros sobre conexionismo y cognición en castellano, en inglés se han publicado muchos y muy buenos. Los aciertos que se puedan advertir en el mío constituyen en el fondo una gran deuda en relación con contribuciones previas de autores como McLelland, Rumelhart, Hinton, Smolensky, Plunket, Elman, Rolls, Treves, Bechtel, Abrahamsen y otros muchos.

En cuanto a la pregunta, si bien es cierto que hay muchos estudios que relacionan la intolerancia a la incertidumbre con las preocupaciones patológicas y la ansiedad, es muy poco lo que se ha avanzado en la comprensión detallada de los mecanismos causales que explican estas relaciones. Y lo que se percibe en estos momentos es que muchos laboratorios se han percatado recientemente de la necesidad de solucionar esta laguna de comprensión a partir de un abordaje experimental y neurocientífico. En el fondo, lo que se esconde tras este interés es la idea de que si obtenemos una comprensión detallada de los procesos que originan y mantienen los trastornos de ansiedad, podremos mejorar las técnicas de evaluación y los tratamientos y podremos poner en marcha programas de prevención. Por tanto, esta estrategia de investigación forma parte de un programa más general que se extiende a todos los trastornos mentales y que se basa en la idea de proporcionar sistemas de diagnóstico y tratamiento etiológicamente inspirados que superen las limitaciones del DSM. Este programa se conoce hoy en día con el nombre de RDoC, del inglés Research Domain Criteria.

Nuestros experimentos, en concreto, se interesan por las conductas de evitación en situaciones inciertas y por la relación existente entre tales conductas y la intolerancia a la incertidumbre. La intolerancia a la incertidumbre es una disposición que manifiestan algunas personas a considerar inaceptable la posibilidad de que suceda un acontecimiento amenazante incierto por pequeña que sea la probabilidad de su ocurrencia. Existe la idea, con un cierto respaldo experimental, de que la evitación contribuye al desarrollo y, sobre todo, al mantenimiento y agravamiento de los trastornos de ansiedad. Por otro lado, hay muchos estudios que señalan la existencia de una relación entre la intolerancia a la incertidumbre y la evitación excesiva. Sin embargo, hasta ahora no se había proporcionado una prueba conductual que relacionara la intolerancia a la incertidumbre con la evitación excesiva. Nuestro experimento se basa en el condicionamiento instrumental. Los participantes tienen que aprender a evitar estímulos aversivos inciertos que se presentan de acuerdo con un patrón temporal variable. Como es imposible predecir el momento exacto de ocurrencia de estos estímulos desagradables, para poder evitarlos, los participantes se ven obligados a responder con una frecuencia relativamente alta a lo largo de toda la fase de aprendizaje. Nuestro procedimiento y diseño experimental tienen la ventaja de que nos permiten detectar diferencias individuales en cuanto a la frecuencia de la respuesta de evitación. Y lo que hemos encontrado es que las personas que puntúan más en intolerancia a la incertidumbre tienden a realizar más respuestas de evitación. Además, también hemos hallado que los más intolerantes tienden a seguir evitando con la misma frecuencia aunque el estímulo que tratan de evitar haya perdido su carácter aversivo o amenazante y a pesar de que los estímulos aversivos dejen de presentarse.

 

-P. En la misma línea de investigación, el trastorno de ansiedad generalizada sigue produciendo estragos entre la población mundial. La ansiedad, como otros desórdenes emocionales, depende mucho de procesos de aprendizaje asociativo. ¿Está Ud. y su grupo trabajando en algún proyecto al respecto que pueda tener repercusiones clínicas?

 

-R. Tal y como se desprende de mi respuesta anterior, aunque nuestro trabajo se basa en un enfoque experimental centrado en los procesos responsables de la ansiedad y la evitación, su objetivo final es producir conocimientos y técnicas útiles para la Psicología clínica. Y no solo en lo concerniente a la ansiedad generalizada, sino a otros trastornos como el trastorno de pánico, la ansiedad social, el trastorno obsesivo compulsivo, la anorexia nerviosa y otros trastornos que se han relacionado igualmente con la intolerancia a la incertidumbre y que se presentan con una importante tasa de comorbilidad. Supongamos, por ejemplo, que futuros resultados experimentales revelan que uno de los motivos por los que los intolerantes a la incertidumbre tienden a evitar en mayor medida y presentan mayores niveles de estrés radica en una dificultad para identificar señales de seguridad que indiquen la ausencia de peligro. El desarrollo de técnicas de evaluación para identificar esta dificultad de aprendizaje y de tratamientos destinados a superarla podría ser crucial no solo como solución a los trastornos anteriores, sino para aumentar la resiliencia de las personas y evitar recaídas en el futuro.

 

-P. Ya que acabamos de aludir a la idea de procesos asociativos, una de las conclusiones de su tarea investigadora es que los procesos asociativos y los procesos de razonamiento conviven y explican parcialmente tanto el proceso de inferencia causal como el de aprendizaje. Para disociar ambos procesos, es interesante estudiar el aprendizaje de relaciones de contingencia. ¿Qué tipo de relaciones de contingencia está analizando Ud.  y su grupo de investigación en sus estudios más recientes?

 

-R. Se trata de relaciones de contingencia entre acontecimientos antecedentes y consecuentes. El ejemplo más empleado en el área es la tarea de las alergias, donde los participantes tienen que aprender a predecir si un paciente desarrollará una alergia o no (acontecimiento consecuente) a partir de información acerca de los alimentos que ha ingerido (acontecimientos antecedentes). Decimos que existe una relación de contingencia entre, pongamos, aguacate y la reacción alérgica si la probabilidad de dicha reacción cambia en función de si se ha ingerido aguacate o no. En tal caso, si aprendemos esta relación, ingerir aguacate se convierte en un acontecimiento informativo que resulta útil para generar expectativas sobre la ocurrencia de la alergia. El procedimiento habitual para estudiar esta forma de aprendizaje consiste en proporcionar ensayos de forma repetida en los que los participantes se exponen a la ocurrencia de acontecimientos antecedentes y consecuentes. De este modo, los participantes aprenden a predecir de forma gradual las consecuencias a partir de los antecedentes.

En nuestro caso, en los últimos años hemos empleado tareas que se alejan en cierta medida de la clásica tarea de las alergias para poder estudiar de un modo más fino el rol de los procesos asociativos en el aprendizaje de relaciones de contingencia. Por ejemplo, una de nuestras tareas favoritas consiste en aprender la relación entre figuras geométricas que aparecen en el centro de la pantalla y la localización espacial de un determinado estímulo que se presenta con posterioridad. La idea que subyace a nuestro planteamiento experimental es que tareas como la de las alergias no representan de forma adecuada la gran variedad de situaciones en las que el aprendizaje de relaciones de contingencia está fuertemente implicado. Por ejemplo, es bien sabido que nuestro cerebro aprende la relación existente entre el input visual que proporciona el movimiento de los labios de nuestro interlocutor y el input auditivo correspondiente con el fonema que está pronunciando. El aprendizaje de esta relación estadística está tan bien asentado que el acceso visual al movimiento de los labios puede alterar nuestra percepción auditiva del fonema pronunciado. Este efecto de integración multisensorial se conoce como el efecto McGurk. El asunto es que si estudiamos el aprendizaje de relaciones de contingencia empleando únicamente tareas como la de las alergias y medimos lo aprendido a partir de los juicios verbales que los participantes nos proporcionan podemos llegar a tener una visión distorsionada de los procesos de aprendizaje responsables del aprendizaje de relaciones de contingencia en una gran variedad de situaciones de enorme importancia en nuestra vida cotidiana. Tareas como la de las alergias promueven el uso y expresión de procesos de razonamiento que llevan a algunos autores a concluir que los procesos de carácter asociativo no desempeñan ninguna función importante en el aprendizaje de relaciones de contingencia. Sin embargo, cuando cambiamos drásticamente el tipo de tarea que empleamos y medimos el aprendizaje con técnicas puramente conductuales no basadas en juicios, los procesos asociativos se expresan de una forma más notoria.

 

-P. Ud. publicó en 2005 el mejor libro sobre el Conexionismo y sus límites que conoce el autor de este blog. Hace ya casi 30 años que fue editado el primer libro sistemático sobre modelización de funciones cerebrales usando redes neuronales artificiales, basadas en atractores (Amit, 1991). A día de hoy, ¿cómo ve las posibilidades reales de la modelización cerebral utilizando modelos conexionistas? ¿De verdad el Deep Learning supone una auténtica revolución en el paradigma o todavía se podrá asistir a un nuevo invierno conexionista como se vivió en los años 70 del siglo pasado?  

 

-R. Te agradezco mucho tu generosa opinión. Insisto, no obstante, en que se han realizado contribuciones en inglés de una gran valía. Al fin al cabo, mi papel ha sido más bien el de un divulgador. En cuanto a la primera pregunta, es evidente que el momento de gran eclosión del conexionismo ya ha pasado y se ha recobrado una perspectiva más equilibrada sobre el cerebro y la cognición. Dicho esto, la irrupción del conexionismo ha producido cambios en el modo en que concebimos los procesos mentales y su ejecución en el cerebro que se han normalizado en nuestra disciplina. La modelización conexionista sigue estando presente y tiene un enorme valor en determinadas áreas experimentales y neurocientíficas por su capacidad para contrastar teorías. Lo que ha desaparecido es la visión ingenua de que solo con los principios de computación neuronal tendríamos bastante para iluminar todo el campo de la cognición. Hacen falta más aliados para tener una visión más precisa y completa. Por ejemplo, el enfoque de la cognición corporizada (embodied cognition) y, quizás, el del cerebro bayesiano, creo que constituyen aliados naturales del conexionismo que incorporan muchas de sus ideas y aportan otras nuevas que están teniendo un creciente impacto empírico.

En cuanto al deep learning, aunque se inspira en los perceptrones multicapa, su evolución se ha regido más por criterios matemáticos y de eficiencia que por la necesidad de modelizar nuestra cognición y nuestro cerebro. Su impacto no se aprecia en la psicología sino, más bien, en otras áreas como la inteligencia artificial o el análisis de grandes cantidades de datos. Por supuesto, esto no descarta que, en el futuro, se produzcan aportaciones en deep learning que se exporten a la psicología, cuya historia está, precisamente, plagada de préstamos procedentes de otras disciplinas. Pero éste no es, desde luego, el objetivo principal de los que se dedican a mejorar las técnicas del deep learning y lo usan para sus propios fines.


Muchas gracias por su amabilidad y espero que sus proyectos de investigación continúen avanzando.


(Esta entrevista fue publicada en septiembre de 2018 en SCILOGS de Investigación y Ciencia).

 

Referencias

 

Amit, D.J. (1991). Modeling brain function: the world of attractor neural networks. Cambridge: CUP.


Cobos, P.L. (2005). Conexionismo y cognición. Madrid: Pirámide.


Flores, A., López, F.J., Vervliet, B. y P.L. Cobos (2018). Intolerance of uncertainty as a vulnerability factor for excessive and inflexible avoidance behavior, Behaviour Research and Therapy, 104 (May 2018), 34-43.

 

 

 


GUILLERMO DE JORGE BOTANA, LINGÜÍSTICA COMPUTACIONAL Y CIENCIA COGNITIVA

 


En esta entrada del blog presentamos una entrevista que, amablemente, el profesor Guillermo de Jorge Botana, profesor del Dpto. de Psicología Evolutiva y de la Educación de la UNED nos ha concedido. Nos encontramos ante un gran exponente, a nivel internacional, de la aplicación de la Lingüística Computacional a la Ciencia Cognitiva y la Neurociencia. Este blog, que busca ilustrar la aplicación de herramientas informáticas a la Neurociencia, se siente muy complacido por poder acoger aquí sus valiosas opiniones.


Doctor por la Universidad Autónoma de Madrid con una tesis sobre la técnica del Análisis de la Semántica Latente, no ha rehuido el ámbito de la empresa privada, ocupando diferentes puestos, desde programador hasta jefe de proyectos. Ha creado software propio que ha plasmado en ( www.gallitoapi.net ), siempre con la vista puesta en los puentes de unión entre Informática y Psicología.

 

PREGUNTAS

 

-P. Estimado profesor, Ud. es un gran experto en lingüística computacional pero no descuida la aplicación de técnicas informáticas para simular procesos cognitivos. ¿Podría comentarnos brevemente cómo accedió a la técnica del Análisis de la Semántica Latente, sus fundamentos más básicos y sus posibles aplicaciones a la Ciencia Cognitiva?


-R. Hacia el año 2003, Acababa de presentar el Trabajo de Estudios Avanzados y estaba trabajando en una pequeña empresa que se dedicaba a desarrollar asistentes para aumentar la resiliencia en los trabajadores. Tenía un jefe, Santiago Barrero, que quería apostar, quizás sin acompañarnos el momento, por técnicas que pudiesen identificar sobre que se hablaba en las conversaciones abiertas, y allí nos pusimos a trabajar. De esa manera, di con una incipiente técnica, el Análisis de la Semántica Latente (LSA). A partir de ahí, me introduje en la capacidad de la técnica para simular la representación del léxico, y con ella, simular también los mecanismos que tentativamente lleva a cabo el sistema cognitivo para conseguir hipótesis de significado. Esto lo desarrollé luego, en el marco de la tesis, y ahora seguimos haciéndolo, en artículos creo que más profundos sobre este tema. En este sentido, tengo que decir que paradójicamente, me vino muy bien no haber tenido becas de posgrado en la universidad y haberme tenido que bregar con cosas distintas. No quiero decir que las becas sean una maldición, pero ese es mi caso.

 

-P. La técnica mencionada está también presente en el mundo educativo. De hecho, ha sido usada en Tutores Inteligentes de última generación como el AutoTutor de Graesser y colaboradores. Nos consta su implicación en esta materia, así como el de su colega Ricardo Olmos de la Universidad Autónoma de Madrid su director de Tesis Doctoral, el profesor José Antonio León . ¿Cuál es, a su juicio, el futuro más inmediato que nos espera respecto a la evolución tecnológica de estas herramientas?


-R. Pienso que el futuro de los Tutores Inteligentes está en conjugar diversas capas de análisis (vectoriales, probabilísticas, reglas formales, gramáticas) y que los resultados de éstas puedan presentarse de forma coherente, dentro de un diseño instruccional, empleando por ejemplo técnicas que emplean también los chatbots, es decir, técnicas que permiten la gestión de una conversación en base a los estados de la misma. Creo que la propuesta es “la plataforma como conversación”, es decir, que toda una plataforma, sea cual sea, esté gobernada por los parámetros de una conversación al uso. De hecho, esta es la consigna que mi compañero del departamento José María Luzón y yo nos propusimos cuando  hace dos años planteamos la evolución de nuestra plataforma de evaluación de respuestas abiertas G-RUBRIC ( www.grubric.com ). En argot ciclista, estamos intentando ello “coger la escapada buena” y creemos que va por ahí.

 

-P. En un artículo, elaborado junto a los profesores Ricardo Olmos y Vicente Sanjosé, titulado “Predicting Word Maturity from Frequency and Semantic Diversity: a Computational Study”, creemos detectar su creciente interés por aplicar las técnicas de procesamiento automático del lenguaje natural a la Psicología Evolutiva. ¿Podría indicarnos algo acerca de cómo la frecuencia y la diversidad semántica de las palabras usadas pueden predecir el paso desde la infancia a la edad adulta?


-R. Totalmente, de hecho en el Máster del departamento instauré una línea de Trabajos Fin de Máster en la que se reflexionaba sobre las técnicas computacionales que podían ayudar a comprender los fenómenos evolutivos. Tuvimos trabajos de modelos vectoriales como Semántica Latente,  de redes neuronales artificiales, de modelos probabilísticos basados en n-gramas, de modelación de sistemas complejos a partir de funciones en las que unas influyen en otras (inspirados por el prof. Van Geert) y algunos temas más. Los alumnos venían con miedo y se fueron con la confianza de haber domado a la bestia. Me gustaría pensar que esos alumnos tendrán un pensamiento más ordenado fruto de su “visita” a estos modelos.


Respecto a lo segundo, la variable frecuencia está muy estudiada en psicolingüística y ocupa un rol muy importante en el acceso al léxico. La frecuencia tiene consecuencias sobre la recuperación, la producción y el procesamiento, pero en esta variable se pueden estar escondiendo alguna otra covariable que explica mejor este tipo de efectos.  Este es el caso de la Diversidad Semántica (Hoffman, Ralph, & Rogers, 2013).  Son diversas las palabras que ocurren en muchos contextos temáticos y esto con un modelo vectorial de la representación léxica como LSA se puede formalizar muy bien. Por abreviar, la conclusión de este estudio es que para que las personas adquieran una representación madura de una palabra no es necesaria una exposición masiva a esa palabra. En el modelo se observa que cuanto más texto se procesa (más edad se tiene), menos importante es la frecuencia con la que aparezca una nueva palabra para que se consiga tener una representación madura de ella. Aquí entran en juego mecanismos de inducción: Adquirimos el significado de una nueva palabra incluso apareciendo pocas veces siempre que esté acompañada de palabras que ya tienen la representación madura. Por otro lado, una alta diversidad de significado de una palabra hace que esta palabra deba aparecer más veces para estar bien representada, produciéndose una interacción entre frecuencia y diversidad.


Una cosa que me parece muy útil de estos índices basados en estos modelos vectoriales es que tienen una aplicación relativamente directa. Por ejemplo, algunos estudios han encontrado que controlar en una batería de evaluación el índice de Diversidad Semántica es buen predictor de demencias cerebrales que cursan con problemas en las funciones ejecutivas (palabras diversas necesitan mayor movilización de mecanismos de inhibición/activación) mientras que la frecuencia lo es en demencias que cursan con deterioros en la Memoria a Largo Plazo (Hoffman, Rogers, & Ralph, 2011). Teniendo un modelo computacional capaz de procesar miles y miles de palabras y extraer índices, nos facilita mucho ese posible control en las posibles baterías de evaluación. Tal es la utilizad de los modelos, incluso con sus defectos, tienen poca ambigüedad y mucha productividad.

 

-P. Precisamente, y siguiendo con la cuestión del proceso evolutivo de adquisición del conocimiento, Ud. enfatiza en “The role of domain knowledge in cognitive modeling of information search” (publicado conjuntamente con los profesores Karanam, Olmos y van Oostendorp) cómo las diferencias individuales en el dominio del conocimiento por parte de los usuarios influyen en su búsqueda de información a través de bases de datos. ¿Podría explicarnos algo más acerca de esto y el porqué de la diferencia entre expertos progresivos y abruptos?


-R. Cómo tengamos representadas las palabras o los conceptos en la mente tiene consecuencias en cómo buscamos la información y cómo la procesamos. Las personas que tengan una representación madura de ciertos términos técnicos, los expertos, tendrán un estilo de búsqueda distinto, y quizás más productivo, que las personas que tienen una representación más vaga de los términos técnicos. De eso se trataba, de modelar esos tipos de conocimientos mediante un modelo vectorial y ponerlos a buscar información mediante un algoritmo que emulase la búsqueda humana. Es decir, una base de conocimiento experta o no experta, y un mecanismo automático de búsqueda y navegación. La diferencia entre expertos progresivos y abruptos hace alusión simplemente a que un modelo de persona, el experto progresivo, puede tener un conocimiento intermedio entre el conocimiento técnico y el meramente coloquial, y el otro, el experto abrupto tiene sólo el técnico y el coloquial, sin esa pincelada de conocimiento intermedio entre ambos mundos. Pero insisto, se trata de proponer tentativas de “maniquíes” para confrontarlos con tareas mediante el mecanismo de búsqueda y después comprobar sus resultados. Algo así como los dummies en las pruebas de automóviles.


-P. Ud. nunca rehúye la aplicación práctica de su labor investigadora. De hecho, ha formado parte de compañías tecnológicas como Indra, Redknee o Prosodie y ha desarrollado numerosas aplicaciones tecnológicas desde “Semantia Lab”, una “spin-off” de la UNED. ¿En verdad es tan difícil en nuestro país crear “spin-offs” desde la Universidad?


-R. Ciertamente sí. Se juntan varios problemas. El primero es que los profesores que las crean tienen una especie de desdoblamiento de la personalidad difícil de resolver, el rol de profesor o investigador y el de emprendedor. Esto se acrecienta con la sensación de que no puedes hablar de tu proyecto en el ámbito académico, pues te puede generar algunas suspicacias institucionales. Es difícil explicar que gastas parte del tiempo en un proyecto con “afán de lucro”,  aunque el lucro esté totalmente normalizado a través de la oficina de Transferencia de Resultados de la Universidad, al contrario que otros lucros menos evidentes. Además, los apoyos institucionales suelen ser escasos. Hay otro problema, y es que las Spin-off tienen una hipertrofia hacia la I+D+I, descuidando, por no poder asumir los costes dinerarios y de tiempo, las cuestiones comerciales, de marketing y de dirección de proyectos. Este hueco sería llenado por agentes externos a la universidad, es decir, otras empresas, pero la interlocución con el mundo empresarial es escasa y mal articulada y los postulantes no son muchos. Corolario, que al final las cosas suelen quedar en ideas plasmadas en un plan director de orientaciones estratégicas de la universidad, pero no suelen sustanciarse. Con esto no quiero decir que el éxito o el fracaso sea consecuencia de otros. Eso no sería correcto. Los responsables en última instancia del éxito son los promotores, pero las circunstancias son las que son. A Dios lo que es de Dios, y al césar lo que es del césar.

 

-P. Desde su experiencia en el diseño de programas IVR (Interactive Voice Response), ¿seguimos todavía tan lejos de lograr sistemas de reconocimiento de voz y de conversación con los usuarios que se acerquen a la capacidad humana? ¿Por qué?


-R. Realmente ha habido grandes avances en el reconocimiento de voz. Creo que con la irrupción de nuevos agentes como google, Microsoft e IBM con sus servicios de reconocimiento de voz en la nube basado en muestras masivas de audios, los agentes tradicionales, como por ejemplo, Nuance Inc., Verbio (otra Spin-Off universitaria), etc. se han visto un poco desplazados. Además, se han propuesto nuevas formas de programar sistemas de gestión del diálogo, que además de formalizar estados de la conversación, instigadores y respuestas, aúnan también la capacidad de tomar información (semántica entre otras) de otras fuentes, en concreto de APIs que funcionan de manera modular y que mandan su análisis al sistema que centraliza el diálogo. Estas fuentes pueden ser también diversas y sustantivas en tamaño, configurando las piezas de verdaderos sistemas predictivos. En suma, que si tenemos sistemas que mejoran el reconocimiento, piezas que generan diálogo, y diversas fuentes de dónde sacar la información  de quién nos llama y que significa lo que está diciendo, tenemos un sistema susceptible de ser bastante “humanoide”. La clave es unir todo de manera coherente y ordenada, y creo que en eso se está.

 

-P. Para finalizar, me gustaría que nos comentara brevemente qué es GallitoAPI y su valor para el procesamiento de grandes cantidades de información en empresas.


-R. gallitoAPI ( www.gallitoapi.net ) es un API que expone en forma de servicios las funcionalidades que vamos sacando en nuestro I+D. Al ser un API, estamos facilitando genéricamente que cualquier sistema pueda integrarse con nuestra I+D. Tiene funcionalidades basadas en distintas técnicas: modelos espacio-vectoriales, gramáticas, n-gramas, técnicas conversacionales, técnicas con reglas explícitas y en general con las evoluciones que nosotros mismos publicamos en nuestros artículos. Puede decirse que quién lea un artículo científico nuestro tiene la capacidad de ponerlo a trabajar de forma directa mediante este API. Es más, en muchas ocasiones tenemos más funcionalidad de la que nosotros mismos empleamos en nuestra operativa. De hecho, algunas colaboraciones con otros investigadores han sido a partir del uso conjunto de gallitoAPI para proyectos que no eran iniciativa nuestra pero que habían leído alguno de nuestros artículos y les interesaba la técnica. Además, hemos involucrado GallitoAPI en pilotos de empresas. También GallitoAPI es el principal motor de nuestra plataforma G-Rubric.

 

Muchas gracias por su amabilidad y ha sido un verdadero placer poder entrevistarle.


(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en abril de 2018).

 

Referencias

 

Hoffman, P., Rogers, T. T., and Lambon Ralph, M. A. (2011). Semantic diversity accounts for the “missing” word frequency effect in stroke aphasia: insights using a novel method to quantify contextual variability in meaning. J. Cogn. Neurosci. 23, 2432–2446.

 

Hoffman, Ralph, & Rogers (2013) Semantic diversity: a measure of semantic ambiguity based on variability in the contextual usage of words. Behavior Research Methods, 45 (3) (2013), pp. 718-730

 

Jorge-Botana, G., Olmos, R., & V. Sanjosé (2017). Predicting word maturity from frequency and semantic diversity: a computational study. Discourse Processes, 54, 682-694. DOI: 10.1080/0163853X.2016.1155876.

 

Karanam, S., Jorge-Botana, G., Olmos, R., & H. van Oostendorp (2017). The role of domain knowledge in cognitive modeling of information search. Inf  Retrieval  J, 20, 456-479. DOI: 10.1007/s10791-017-9308-8.

 

Olmos, R., León, J.A., Escudero, I., & Jorge-Botana (2011). Using latent semantic analysis to grade brief summaries: some proposals. IJCEELL, 21 (2-3).  DOI: 10.1504/IJCEELL.2011.040198

 

Van Geert (2014) Dynamic modeling for development and education: from concepts to numbers. Mind, Brain, and Education 8 (2), 57-73