La profesora Concha Bielza es catedrática del Dpto. de Inteligencia Artificial de la Universidad Politécnica de
Madrid (UPM) y forma parte de la avanzadilla de los científicos
computacionales que, en nuestro país, están llevando la metodología de las redes bayesianas a aplicaciones de
vanguardia. Decenas de publicaciones en las más reconocidas revistas
internacionales de su campo así como un muy merecido Premio de Investigación concedido por su Universidad en 2014, así
lo atestiguan. Junto a otro prestigioso investigador como Pedro Larrañaga, colabora con
el Instituto Cajal (CSIC) y el Laboratorio de Circuitos Corticales del
Centro de Tecnología Biomédica (UPM). Ambos investigadores van a publicar en
2019 en la reconocida editorial Cambridge University Press un libro de
alrededor de 700 páginas titulado “Data-driven Computational Neuroscience”,
donde se recogen técnicas del estado del arte en machine learning aplicadas a varios problemas reales en
neurociencia. En esta breve
entrevista buscamos reflejar su valoración acerca de algunas de las aplicaciones
de las redes bayesianas a la Neurociencia Computacional (véase una
revisión de este tema en Bielza, Larrañaga, 2014).
PREGUNTAS
-P. Estimada profesora:
Ud. es una gran experta en redes
bayesianas. Las redes bayesianas (Pearl,
1988; Koller y Friedman, 2009) son una herramienta muy potente para representar
la distribución de probabilidad sobre un conjunto de variables discretas. En Bielza,
Li y Larrañaga (2011) introdujo un nuevo tipo de clasificador multidimensional bayesiano que reduce la carga
computacional a la hora de buscar la explicación
más probable. ¿Podría, por favor, explicarnos alguna de esas
características que reducen la complejidad computacional y cómo ha evolucionado
en Benjumeda, Bielza y Larrañaga (2018)?
-R. En el primer
artículo (Bielza, Li, Larrañaga, 2011) propusimos redes bayesianas que resuelven
el problema de la clasificación multidimensional, en el que no se quiere
predecir una sola variable clase sino muchas a la vez, y donde es esperable que
haya relaciones entre estas variables. A estas redes bayesianas con una arquitectura
especial las denominamos MBCs (del inglés, multidimensional
Bayesian network classifiers). Para resolver estos problemas hay que
calcular la probabilidad a posteriori de cada posible combinación de las
variables clase condicionada a la observación de todas las variables
predictoras y después encontrar la que tiene mayor probabilidad, lo que dará la
predicción final, que se denomina "explicación más probable". Se ha
demostrado que calcular esta explicación en redes bayesianas es un problema
NP-duro (Shimony, 1994). Nosotros aliviamos la carga computacional definiendo
ciertas topologías de red descomponibles en subgrafos conexos maximales que
rompen el problema original en varios problemas de maximización independientes,
sobre espacios de menor dimensión. A estas estructuras más simples las
denominamos class-bridge decomposable
MBCs o CB-MBCs. También nos ayudamos del código Gray para recorrer el espacio
de las combinaciones de las variables clase. Enumeramos así todas estas
combinaciones siguiendo un orden específico en el que dos combinaciones
consecutivas difieren solo en una componente.
Los desarrollos más recientes, como
Benjumeda et al. (2018), acotan la complejidad de los MBCs y los CB-MBCs
mientras se aprende la estructura a partir de datos. La estructura tiene ciertas
restricciones que limitan la anchura de árbol (treewidth) de una transformación de la red original. Los MBCs resultantes son tratables, donde la
explicación más probable se puede calcular en tiempo polinomial.
Un ejemplo en neurociencia se encuentra en
Borchani et al. (2012), donde usamos MBCs para predecir las cinco variables
(movilidad, cuidado personal, actividades cotidianas, dolor/malestar y
ansiedad/depresión), que definen el índice genérico de calidad de vida
relacionada con la salud denominado European
Quality of Life-5 Dimensions (EQ-5D). Se predicen a partir de 39 cuestiones
sobre calidad de vida en enfermedad de Parkinson (PDQ-39). Fue una colaboración
con el neurólogo Pablo Martínez-Martín, del Instituto de Salud Carlos III. Otro
ejemplo, en neuroanatomía, se describe en Fernández-González et al. (2015), en
el que un conjunto de casi doscientas características morfológicas extraídas de
neuronas del repositorio NeuroMorpho sirven para predecir la especie a la que
pertenece la neurona, el género, el tipo de célula, la etapa de desarrollo y el
área de la neocorteza. Los modelos fueron CB-MBCs, pero gausianos, ya que las
variables predictoras eran continuas. Es importante señalar que las redes
bayesianas son transparentes y explicables, una característica deseable en
modelos de machine learning en
contraposición a otros como el popular aprendizaje profundo de redes neuronales
artificiales.
-P. A raíz de su
colaboración con el grupo del profesor Javier
DeFelipe en el problema de la clasificación y denominación de las
interneuronas GABAérgicas (DeFelipe et al., 2013; Bielza y Larrañaga, 2014, p.
13), se usó Neurolucida y se propuso el diseño de un Neuroclasificador que,
basado en las categorías propuestas por los expertos, combinase etiquetas
probabilísticas conocidas de neuronas con nuevas etiquetas de neuronas como
técnica de clasificación neuronal (DeFelipe et al., 2013, p. 215). ¿Querría,
por favor, comentarnos brevemente la evolución de este sistema informático y su
estado actual de desarrollo?
-R. En DeFelipe et al.
(2013) constatamos que los neuroanatomistas no se ponen de acuerdo en cómo
categorizar muchas de las interneuronas GABAérgicas corticales, a partir de un
experimento donde 42 expertos de todo el mundo clasificaron 320 interneuronas
en las categorías estándar: Martinotti, candelabro, neuronas en cesto... Por
eso se propusieron categorizaciones basadas en variables más simples, por
ejemplo, si el árbol axonal se dispone en una sola capa (intralaminar) o no
(translaminar), si se dispone en una sola columna cortical (intracolumnar) o no
(transcolumnar), o cuál es la posición relativa de los árboles axonal y
dendrítico (centrada versus desplazada). Aquí hubo algo más de consenso entre
los expertos. Los dos tipos de categorizaciones, simples y estándar, reflejan
diferentes formas de clasificar: la empírica y la científica (como la forma de
clasificar plantas que hace un jardinero frente a cómo la hace un botánico) y
sus relaciones entre ellas son interesantes. Esto se estudió con una red
bayesiana por cada experto, que recogía su forma de clasificar. La red
bayesiana permite realizar razonamiento sobre ella, pudiendo preguntar, por
ejemplo, "¿cuál es la probabilidad de que si es una célula de tipo
Martinotti sea, para cierto experto, translaminar?" y de ahí inferir qué
neuroanatomistas razonaban de forma similar o distinta.
El conjunto de datos que generó este
experimento entrañaba una dificultad grande desde el punto de vista del machine learning. No es un conjunto con
instancias (neuronas donde se miden características morfológicas con
Neurolucida Explorer) que poseen una clara etiqueta, ya que para una neurona,
las etiquetas dadas por los 42 expertos podían diferir. Así, una interneurona
podía ser Martinotti para 39 expertos, large
basket para dos y horse tail para
uno. Este tipo de etiquetado que no contiene la asignación a una única clase
puede estudiarse desde varias perspectivas. Una es considerar la clase más
frecuente entre las 42 anotaciones (DeFelipe et al., 2013; Mihaljevic et al.,
2015b). Otra es utilizar las clases más confiables, es decir, las que van
apoyadas por un determinado número de expertos (Mihaljevic et al., 2015a). Otra
vía consiste en trabajar con etiquetas probabilísticas que reflejan esta
disparidad en los expertos. Si además añadimos categorizaciones simples y
estándar a toda la complejidad del etiquetado, podemos construir para cada
neurona una red bayesiana que exprese las relaciones entre estas
categorizaciones (Mihaljevic et al., 2014).
Esta clasificación automática debe
mejorarse añadiendo nuevas variables morfométricas predictoras y partiendo de
neuronas reconstruidas en un mismo laboratorio (como en Mihaljevic et al.,
2018). A veces utilizar predictoras morfológicas es suficiente; como en Guerra
et al. (2011), donde distinguimos entre neuronas piramidales e interneuronas,
en colaboración con Rafael Yuste de la Universidad de Columbia. Pero en datos
más complejos como los que estamos mencionando, incluir atributos moleculares y
electrofisiológicos aparte de los morfológicos puede aportar perspectivas más
ricas, y es algo en lo que estamos trabajando actualmente dentro del proyecto
europeo Human Brain Project (FET Flagship de la Comisión Europea).
-P. Siguiendo con el problema de la clasificación
neuronal, en López-Cruz, Larrañaga,
DeFelipe y Bielza (2014) se diseñó una red
bayesiana múltiple que buscaba modelar el consenso entre las
clasificaciones aportadas por los expertos. En la parte final del artículo
mencionado, comentan la necesidad de encontrar una red bayesiana representativa
para cada cluster de distribuciones de probabilidad. ¿Ha habido algún avance
relevante al respecto en la combinación de técnicas para obtener la mejor
solución posible al problema desde la publicación del artículo?
-R. En este trabajo
se agruparon expertos similares en clusters (se encontraron seis) a partir de la
similitud entre sus distribuciones de probabilidad sobre las respuestas dadas
en el experimento que he mencionado antes. Esas distribuciones de probabilidad
provenían de cada red bayesiana aprendida para cada experto. Se construía luego
una red bayesiana que representaba al cluster de expertos. Así, por ejemplo, un
cluster representaba a neuroanatomistas que seguían un esquema de clasificación
de grano muy fino frente a otros que clasificaban de forma mucho más grosera,
dando muy alta probabilidad al tipo Common.
El modelo global que aunaba las seis redes bayesianas permitía inferir
definiciones consensuadas realizando de nuevo razonamiento sobre las redes. Por
ejemplo, fijando la interneurona a Martinotti, el resto de caracterizaciones
era translaminar (94%), transcolumnar (59%), desplazada (88%), y ascendente
(65%). Si bien agrupar a los expertos tiene mucho sentido, las aproximaciones
mencionadas en la pregunta anterior aportan soluciones más generales.
Le
agradezco mucho la concesión de esta entrevista y le deseo el mayor éxito en
sus proyectos de investigación venideros.
(Esta entrevista fue publicada en SCILOGS de Investigación y Ciencia en enero de 2019).
Referencias
Benjumeda, M.,
Bielza, C. y P. Larrañaga. (2018).
Tractability of most probable explanations in multidimensional Bayesian
networks classifiers. International
Journal of Approximate Reasoning, 93,
74-87. Recuperado de https://www.sciencedirect.com/ science/article/abs/pii/S0888613X17306618.
Bielza, C., and P. Larrañaga (2014). Bayesian networks in neuroscience:
A survey, Frontiers in Computational
Neuroscience, 8, Article 131.
Bielza, C. y Larrañaga, P. (2014). Bayesian networks in neuroscience: a survey. Frontiers in Computational Neuroscience, 8 (131), 1-23. Recuperado de http://cig.fi.upm.es/articles/2014/Bielza-2014-FrontCompNeur.pdf.
Bielza, C., Li, G. y P. Larrañaga. (2011). Multi-dimensional classification with Bayesian
networks. International Journal of
Approximate Reasoning, 52,
705-727. Recuperado de https://core.ac.uk/download/pdf/82157691.pdf.
Borchani, H., C. Bielza, P.
Martínez-Martín, and P. Larrañaga (2012). Markov blanket-based approach for learning multi-dimensional Bayesian
network classifiers: An application to predict the European Quality of
Life-5Dimensions (EQ-5D) from the 39-item Parkinson's Disease Questionnaire
(PDQ-39), Journal of Biomedical
Informatics, 45, 1175-1184.
DeFelipe et al. (2013). New insights into the classification and
nomenclature of cortical GABAergic interneurons. Nature
Reviews Neuroscience,
14 (3), 1-15. Recuperado de
http://cig.fi.upm.es/articles/2013/DeFelipe2013_NRN.pdf.
Fernandez-Gonzalez, P., C. Bielza, and P.
Larrañaga (2015). Multidimensional classifiers
for neuroanatomical data, ICML Workshop on Statistics, Machine Learning and
Neuroscience (Stamlins 2015), Lille, France, ICML.
Guerra, L., L. McGarry, V. Robles, C.
Bielza, P. Larrañaga, and R. Yuste (2011). Comparison between supervised and unsupervised classification of neuronal
cell types: a case study, Developmental
Neurobiology, 71 (1) 71-82.
D. Koller, N. Friedman (2009). Probabilistic Graphical Models: Principles and Techniques - Adaptive
Computation and Machine Learning, The MIT Press.
López-Cruz, P., Larrañaga, DeFelipe. J. y C. Bielza (2014). Bayesian network modeling of
the consensus between experts: an application to neuron classification. International Journal of Approximate
Reasoning, 55 (1), 3-22. Recuperado de http://oa.upm.es/38813/1/INVE_MEM_2014_171770.
Mihaljevic, B., R. Benavides-Piccione, C.
Bielza, J. DeFelipe, and P. Larrañaga (2015a). Bayesian network classifiers for categorizing cortical GABAergic
interneurons, Neuroinformatics, 13
(2) 192–208.
Mihaljevic, B., R. Benavides-Piccione, L. Guerra, J. DeFelipe, P.
Larrañaga, and C. Bielza (2015b). Classifying GABAergic interneurons with
semi-supervised projected model-based clustering, Artificial Intelligence in Medicine, 65 (1) 49-59.
Mihaljevic, B., C. Bielza, R.
Benavides-Piccione, J. DeFelipe, and P. Larrañaga (2014). Multi-dimensional classification of GABAergic
interneurons with Bayesian network-modeled label uncertainty, Frontiers in Computional Neuroscience,
8, Article 150.
Mihaljevic, B., P. Larrañaga, R.
Benavides-Piccione, S.. Hill, J..
DeFelipe, and C. Bielza (2018). Towards a supervised classification of neocortical
interneuron morphologies, BMC
Bioinformatics, accepted.
J. Pearl (1988). Probabilistic
Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan
Kaufmann.
S.E. Shimony, Finding MAPs for belief networks is
NP-hard, Artificial Intelligence 68
(2), 399–410.