La profesora Concha Bielza es catedrática del Dpto. de Inteligencia Artificial de la Universidad Politécnica de
Madrid (UPM) y forma parte de la avanzadilla de los científicos
computacionales que, en nuestro país, están llevando la metodología de las redes bayesianas a aplicaciones de
vanguardia. Decenas de publicaciones en las más reconocidas revistas
internacionales de su campo así como un muy merecido Premio de Investigación concedido por su Universidad en 2014, así
lo atestiguan. Junto a otro prestigioso investigador como Pedro Larrañaga, colabora con
el Instituto Cajal (CSIC) y el Laboratorio de Circuitos Corticales del
Centro de Tecnología Biomédica (UPM). Ambos investigadores van a publicar en
2019 en la reconocida editorial Cambridge University Press un libro de
alrededor de 700 páginas titulado “Data-driven Computational Neuroscience”,
donde se recogen técnicas del estado del arte en machine learning aplicadas a varios problemas reales en
neurociencia. En esta breve
entrevista buscamos reflejar su valoración acerca de algunas de las aplicaciones
de las redes bayesianas a la Neurociencia Computacional (véase una
revisión de este tema en Bielza, Larrañaga, 2014).
PREGUNTAS
-P. Estimada profesora:
Ud. es una gran experta en redes
bayesianas. Las redes bayesianas (Pearl,
1988; Koller y Friedman, 2009) son una herramienta muy potente para representar
la distribución de probabilidad sobre un conjunto de variables discretas. En Bielza,
Li y Larrañaga (2011) introdujo un nuevo tipo de clasificador multidimensional bayesiano que reduce la carga
computacional a la hora de buscar la explicación
más probable. ¿Podría, por favor, explicarnos alguna de esas
características que reducen la complejidad computacional y cómo ha evolucionado
en Benjumeda, Bielza y Larrañaga (2018)?
-R. En el primer artículo (Bielza, Li, Larrañaga, 2011) propusimos redes bayesianas que resuelven el problema de la clasificación multidimensional, en el que no se quiere predecir una sola variable clase sino muchas a la vez, y donde es esperable que haya relaciones entre estas variables. A estas redes bayesianas con una arquitectura especial las denominamos MBCs (del inglés, multidimensional Bayesian network classifiers). Para resolver estos problemas hay que calcular la probabilidad a posteriori de cada posible combinación de las variables clase condicionada a la observación de todas las variables predictoras y después encontrar la que tiene mayor probabilidad, lo que dará la predicción final, que se denomina "explicación más probable". Se ha demostrado que calcular esta explicación en redes bayesianas es un problema NP-duro (Shimony, 1994). Nosotros aliviamos la carga computacional definiendo ciertas topologías de red descomponibles en subgrafos conexos maximales que rompen el problema original en varios problemas de maximización independientes, sobre espacios de menor dimensión. A estas estructuras más simples las denominamos class-bridge decomposable MBCs o CB-MBCs. También nos ayudamos del código Gray para recorrer el espacio de las combinaciones de las variables clase. Enumeramos así todas estas combinaciones siguiendo un orden específico en el que dos combinaciones consecutivas difieren solo en una componente.
Los desarrollos más recientes, como Benjumeda et al. (2018), acotan la complejidad de los MBCs y los CB-MBCs mientras se aprende la estructura a partir de datos. La estructura tiene ciertas restricciones que limitan la anchura de árbol (treewidth) de una transformación de la red original. Los MBCs resultantes son tratables, donde la explicación más probable se puede calcular en tiempo polinomial.
Un ejemplo en neurociencia se encuentra en Borchani et al. (2012), donde usamos MBCs para predecir las cinco variables (movilidad, cuidado personal, actividades cotidianas, dolor/malestar y ansiedad/depresión), que definen el índice genérico de calidad de vida relacionada con la salud denominado European Quality of Life-5 Dimensions (EQ-5D). Se predicen a partir de 39 cuestiones sobre calidad de vida en enfermedad de Parkinson (PDQ-39). Fue una colaboración con el neurólogo Pablo Martínez-Martín, del Instituto de Salud Carlos III. Otro ejemplo, en neuroanatomía, se describe en Fernández-González et al. (2015), en el que un conjunto de casi doscientas características morfológicas extraídas de neuronas del repositorio NeuroMorpho sirven para predecir la especie a la que pertenece la neurona, el género, el tipo de célula, la etapa de desarrollo y el área de la neocorteza. Los modelos fueron CB-MBCs, pero gausianos, ya que las variables predictoras eran continuas. Es importante señalar que las redes bayesianas son transparentes y explicables, una característica deseable en modelos de machine learning en contraposición a otros como el popular aprendizaje profundo de redes neuronales artificiales.
-R. En DeFelipe et al. (2013) constatamos que los neuroanatomistas no se ponen de acuerdo en cómo categorizar muchas de las interneuronas GABAérgicas corticales, a partir de un experimento donde 42 expertos de todo el mundo clasificaron 320 interneuronas en las categorías estándar: Martinotti, candelabro, neuronas en cesto... Por eso se propusieron categorizaciones basadas en variables más simples, por ejemplo, si el árbol axonal se dispone en una sola capa (intralaminar) o no (translaminar), si se dispone en una sola columna cortical (intracolumnar) o no (transcolumnar), o cuál es la posición relativa de los árboles axonal y dendrítico (centrada versus desplazada). Aquí hubo algo más de consenso entre los expertos. Los dos tipos de categorizaciones, simples y estándar, reflejan diferentes formas de clasificar: la empírica y la científica (como la forma de clasificar plantas que hace un jardinero frente a cómo la hace un botánico) y sus relaciones entre ellas son interesantes. Esto se estudió con una red bayesiana por cada experto, que recogía su forma de clasificar. La red bayesiana permite realizar razonamiento sobre ella, pudiendo preguntar, por ejemplo, "¿cuál es la probabilidad de que si es una célula de tipo Martinotti sea, para cierto experto, translaminar?" y de ahí inferir qué neuroanatomistas razonaban de forma similar o distinta.
El conjunto de datos que generó este
experimento entrañaba una dificultad grande desde el punto de vista del machine learning. No es un conjunto con
instancias (neuronas donde se miden características morfológicas con
Neurolucida Explorer) que poseen una clara etiqueta, ya que para una neurona,
las etiquetas dadas por los 42 expertos podían diferir. Así, una interneurona
podía ser Martinotti para 39 expertos, large
basket para dos y horse tail para
uno. Este tipo de etiquetado que no contiene la asignación a una única clase
puede estudiarse desde varias perspectivas. Una es considerar la clase más
frecuente entre las 42 anotaciones (DeFelipe et al., 2013; Mihaljevic et al.,
2015b). Otra es utilizar las clases más confiables, es decir, las que van
apoyadas por un determinado número de expertos (Mihaljevic et al., 2015a). Otra
vía consiste en trabajar con etiquetas probabilísticas que reflejan esta
disparidad en los expertos. Si además añadimos categorizaciones simples y
estándar a toda la complejidad del etiquetado, podemos construir para cada
neurona una red bayesiana que exprese las relaciones entre estas
categorizaciones (Mihaljevic et al., 2014).
Esta clasificación automática debe mejorarse añadiendo nuevas variables morfométricas predictoras y partiendo de neuronas reconstruidas en un mismo laboratorio (como en Mihaljevic et al., 2018). A veces utilizar predictoras morfológicas es suficiente; como en Guerra et al. (2011), donde distinguimos entre neuronas piramidales e interneuronas, en colaboración con Rafael Yuste de la Universidad de Columbia. Pero en datos más complejos como los que estamos mencionando, incluir atributos moleculares y electrofisiológicos aparte de los morfológicos puede aportar perspectivas más ricas, y es algo en lo que estamos trabajando actualmente dentro del proyecto europeo Human Brain Project (FET Flagship de la Comisión Europea).
-P. Siguiendo con el problema de la clasificación neuronal, en López-Cruz, Larrañaga, DeFelipe y Bielza (2014) se diseñó una red bayesiana múltiple que buscaba modelar el consenso entre las clasificaciones aportadas por los expertos. En la parte final del artículo mencionado, comentan la necesidad de encontrar una red bayesiana representativa para cada cluster de distribuciones de probabilidad. ¿Ha habido algún avance relevante al respecto en la combinación de técnicas para obtener la mejor solución posible al problema desde la publicación del artículo?
-R. En este trabajo
se agruparon expertos similares en clusters (se encontraron seis) a partir de la
similitud entre sus distribuciones de probabilidad sobre las respuestas dadas
en el experimento que he mencionado antes. Esas distribuciones de probabilidad
provenían de cada red bayesiana aprendida para cada experto. Se construía luego
una red bayesiana que representaba al cluster de expertos. Así, por ejemplo, un
cluster representaba a neuroanatomistas que seguían un esquema de clasificación
de grano muy fino frente a otros que clasificaban de forma mucho más grosera,
dando muy alta probabilidad al tipo Common.
El modelo global que aunaba las seis redes bayesianas permitía inferir
definiciones consensuadas realizando de nuevo razonamiento sobre las redes. Por
ejemplo, fijando la interneurona a Martinotti, el resto de caracterizaciones
era translaminar (94%), transcolumnar (59%), desplazada (88%), y ascendente
(65%). Si bien agrupar a los expertos tiene mucho sentido, las aproximaciones
mencionadas en la pregunta anterior aportan soluciones más generales.
Le
agradezco mucho la concesión de esta entrevista y le deseo el mayor éxito en
sus proyectos de investigación venideros.
(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en enero de 2019).
Benjumeda, M., Bielza, C. y P. Larrañaga. (2018). Tractability of most probable explanations in multidimensional Bayesian networks classifiers. International Journal of Approximate Reasoning, 93, 74-87. Recuperado de https://www.sciencedirect.com/ science/article/abs/pii/S0888613X17306618.
Bielza, C., and P. Larrañaga (2014). Bayesian networks in neuroscience:
A survey, Frontiers in Computational
Neuroscience, 8, Article 131.
Bielza, C. y Larrañaga, P. (2014). Bayesian networks in neuroscience: a survey. Frontiers in Computational Neuroscience, 8 (131), 1-23. Recuperado de http://cig.fi.upm.es/articles/2014/Bielza-2014-FrontCompNeur.pdf.
Bielza, C., Li, G. y P. Larrañaga. (2011). Multi-dimensional classification with Bayesian
networks. International Journal of
Approximate Reasoning, 52,
705-727. Recuperado de https://core.ac.uk/download/pdf/82157691.pdf.
Borchani, H., C. Bielza, P.
Martínez-Martín, and P. Larrañaga (2012). Markov blanket-based approach for learning multi-dimensional Bayesian
network classifiers: An application to predict the European Quality of
Life-5Dimensions (EQ-5D) from the 39-item Parkinson's Disease Questionnaire
(PDQ-39), Journal of Biomedical
Informatics, 45, 1175-1184.
DeFelipe et al. (2013). New insights into the classification and
nomenclature of cortical GABAergic interneurons. Nature
Reviews Neuroscience,
14 (3), 1-15. Recuperado de
http://cig.fi.upm.es/articles/2013/DeFelipe2013_NRN.pdf.
Fernandez-Gonzalez, P., C. Bielza, and P.
Larrañaga (2015). Multidimensional classifiers
for neuroanatomical data, ICML Workshop on Statistics, Machine Learning and
Neuroscience (Stamlins 2015), Lille, France, ICML.
Guerra, L., L. McGarry, V. Robles, C.
Bielza, P. Larrañaga, and R. Yuste (2011). Comparison between supervised and unsupervised classification of neuronal
cell types: a case study, Developmental
Neurobiology, 71 (1) 71-82.
D. Koller, N. Friedman (2009). Probabilistic Graphical Models: Principles and Techniques - Adaptive
Computation and Machine Learning, The MIT Press.
López-Cruz, P., Larrañaga, DeFelipe. J. y C. Bielza (2014). Bayesian network modeling of
the consensus between experts: an application to neuron classification. International Journal of Approximate
Reasoning, 55 (1), 3-22. Recuperado de http://oa.upm.es/38813/1/INVE_MEM_2014_171770.
Mihaljevic, B., R. Benavides-Piccione, C.
Bielza, J. DeFelipe, and P. Larrañaga (2015a). Bayesian network classifiers for categorizing cortical GABAergic
interneurons, Neuroinformatics, 13
(2) 192–208.
Mihaljevic, B., R. Benavides-Piccione, L. Guerra, J. DeFelipe, P.
Larrañaga, and C. Bielza (2015b). Classifying GABAergic interneurons with
semi-supervised projected model-based clustering, Artificial Intelligence in Medicine, 65 (1) 49-59.
Mihaljevic, B., C. Bielza, R.
Benavides-Piccione, J. DeFelipe, and P. Larrañaga (2014). Multi-dimensional classification of GABAergic
interneurons with Bayesian network-modeled label uncertainty, Frontiers in Computional Neuroscience,
8, Article 150.
Mihaljevic, B., P. Larrañaga, R.
Benavides-Piccione, S.. Hill, J..
DeFelipe, and C. Bielza (2018). Towards a supervised classification of neocortical
interneuron morphologies, BMC
Bioinformatics, accepted.
J. Pearl (1988). Probabilistic
Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan
Kaufmann.
S.E. Shimony, Finding MAPs for belief networks is
NP-hard, Artificial Intelligence 68
(2), 399–410.
No hay comentarios:
Publicar un comentario