jueves, 6 de abril de 2017

Enfermedad de Alzheimer y plasticidad sináptica

Hace poco más de una década, una serie de prestigiosos especialistas se apercibieron de que, independientemente de cualquier hipótesis de tipo neurobiológico sobre el origen de la EA, existía un elemento común e invariable que siempre aparecía como síntoma inicial: una progresiva pérdida de memoria (en sus diferentes subtipos) como déficit cognitivo básico. Téngase en cuenta que una de las grandes dificultades para diagnosticar precozmente la EA es que, al principio, no se presenta con una severidad tal como para interferir de forma llamativa en las actividades cotidianas y que los déficits de memoria, aunque insidiosos a la larga, a corto plazo o no se diferencian de los producidos durante el envejecimiento normal o se pueden confundir con los que son producto de otro tipo de demencias. Pero el caso es que si buscamos un marcador "gold standard" de la EA, por encima de las placas amiloides, los ovillos neurofibrilares u otros, la correlación estadística más fuerte se encuentra en los correlatos biológicos más claros de esa situación de pérdida de memoria como déficit cognitivo: las alteraciones sinápticas.

Terry y colaboradores (1991) encontraron no sólo un transporte axonal anómalo en la EA sino también alteraciones en las vesículas sinápticas, algo confirmado en las recientes investigaciones realizadas por Gylys et al. (2004), usando preparaciones sinaptosómicas. Hace poco más de una década, Mesulam (1999), al analizar la posible conexión existente entre formación de depósitos amiloides y degeneración neurofibrilar en la EA, llegó a la conclusión de que estos dos marcadores son manifestaciones independientes de un sustrato común: la perturbación prolongada de la plasticidad neuronal. Mesulam, en su hipótesis, hacía confluir el estudio de Buell y Coleman (1979) sobre pérdida de plasticidad en la demencia senil, los trabajos sobre plasticidad aberrante en la EA a cargo de Scheibel y Tomiyasu (1978) y de Masliah y colaboradores (1991), así como las indagaciones del equipo de Arendt (1995, 1997, 1998) sobre la severidad de la patología en las zonas cerebrales de mayor moldeabilidad plástica. Parece confirmado que en el cerebro adulto la neuroplasticidad es más elevada en el sistema límbico que en otras partes del córtex. Según Mesulam (1999), a los procesos de plasticidad ocurridos en axones, dendritas y sinapsis, les suceden procesos regulatorios que implican señales tales como las de los factores de crecimiento.

Los factores de riesgo que afectan al normal desenvolvimiento de la neuroplasticidad en la EA son múltiples: por supuesto, el más importante tendría que ver con la edad. La edad disminuye la génesis sináptica o sinaptogénesis en respuesta a la experiencia así como en respuesta compensatoria a las lesiones. Siguiendo a Mesulam (1999), los factores que promueven la EA crean un contexto en el que las neuronas han de realizar un sobreesfuerzo crónico para mantener niveles de plasticidad que acaban siendo insostenibles. La pérdida de sinapsis y dendritas en las zonas límbicas y paralímbicas incrementaría la sobrecarga de los córtices de asociación con los que están interconectadas. Tales áreas de asociación necesitarían acelerar la remodelación dendrítica y de los axones. La formación de ovillos neurofibrilares puede ser acompañada o precedida por el incremento de la plasticidad. El planteamiento de Mesulam podría resumirse en el siguiente esquema, en el cual se refleja que una multiplicidad de factores asociados a la EA incrementarían una excesiva carga en la plasticidad neuronal:

Nivel bajo de estrógenos---SOBRECARGA NEURONAL
Apoliproteína E4-- SOBRECARGA NEURONAL                                       
Presenilina----SOBRECARGA NEURONAL----Ovillos----EA
Edad-----------SOBRECARGA NEURONAL                                                
Proteína precursora del Beta-amiloide--------SOBRECARGA NEURONAL---EA                              
El prematuro desarrollo de ovillos neurofibrilares y de depósitos de beta-amiloide en los cerebros de antiguos boxeadores abonaría las ideas de Mesulam acerca de los cambios neuropatológicos producidos por una neuroplasticidad desquilibrada (en aquellos individuos la sobrecarga es generada por los frecuentes traumatismos recibidos). Las actividades cognitivas tan avanzadas que se dan en el ser humano exigen una alta plasticidad, lo que combinado con una prolongación de la esperanza de vida en nuestros tiempos, explicarían la susceptibilidad del ser humano a una dolencia que, en sí misma, no sería una enfermedad sino una manifestación inevitable de fallos en los mecanismos de plasticidad surgidos en cerebros envejecidos.

sábado, 4 de febrero de 2017

Modelos computacionales de la depresión


Desde que Kraepelin estudiase la depresión hace más de un siglo, numerosos han sido los modelos de esta grave y recurrente patología. Sin embargo, los esfuerzos por abordar esta enfermedad desde una perspectiva computacional son muy recientes. En esta entrada del blog introducimos al lector a algunos de estos modelos, en especial, al modelo valuacional de Huys.

Son numerosos los modelos cognitivos que sobre la depresión han surgido en las últimas décadas. Quizá el más influyente haya sido el de Beck, forjado a finales de los años 70 del siglo pasado. En este modelo, Beck parte de la influencia de una experiencia inicial, la formulación de una serie de asunciones disfuncionales, una serie de incidentes críticos, la activación de la asunción mencionada, la generación automática de pensamientos negativos y, finalmente, la depresión. Ya en nuestro siglo, el modelo metacognitivo de Adrian Wells ha demostrado ser bastante exitoso y robusto. Este modelo arranca a partir de alguna señal desencadenante para, a continuación, activar una serie de creencias metacognitivas negativas que paralizan al sujeto y que lo introducen en un bucle sin posibilidad alguna de cortarlo o de salir definitivamente de él ("cada vez me cuesta más levantarme", me abruma tener que lavarme cada día", "me pueden las ganas de llorar"...) Sin embargo, la investigación de modelos computacionales de la patología depresiva es muy reciente. No es de extrañar, ya que parece difícil de modelar un fenómeno tan complejo y por qué no decirlo, "etéreo". Webster y colaboradores ya propusieron un modelo computacional pionero en los años 90 y, más recientemente, destaca el modelo de Fiemke Both, Jan Treur, Michael Klein, Mark Hoogendoorn y otros (https://pdfs.semanticscholar.org/49f2/b8ccd3cb10afec5aab33c9f7fda6b2d2a41d.pdf). En una línea psicobiológica es digno de mención el modelo de Ramírez-Mahaluf (2015). Pero hay un modelo basado en la evaluación de emociones que Huys y colaboradores han introducido hace algunos años y que se está imponiendo en la literatura neurocomputacional por su validez para la búsqueda de fármacos y para la implementación de terapias cognitivas efectivas (el lector puede encontrarlo en el reciente libro editado por Redish y Gordon para MIT Press).Pensemos en dos características fundamentales de la depresión: los pacientes depresivos son incapaces de inhibir el procesamiento de información aversiva, algo que, aparentemente, parece estar relacionado con la disminución de serotonina. Por otro lado, los sujetos parecen reutilizar soluciones previamente adoptadas a problemas previos que les hacen caer en un bucle de metarrazonamiento completamente inútil. ¿Cómo se puede captar esto computacionalmente? Usando un modelo pavloviano en el que a las situaciones se les asigna un valor y unos patrones emocionales de respuesta. De esta manera, un estímulo puede ser predictivo de otro estímulo futuro y así reclutar las respuestas fijas asociadas. La repetida exposición a una contingencia entre un estímulo condicionado y un estímulo incondicionado lleva al estímulo condicionado a adquirir el mismo valor que el incondicionado, activando los mismos o similares patrones innatos de respuesta por referencia a experiencias pasadas más que a otro tipo de interpretaciones. Repare el lector en el término "experiencias pasadas". Precisamente, el paciente depresivo se zambulle de forma permanente en respuestas estereotipadas a tales experiencias, ahondando en un bucle de negatividad del que le resulta imposible escapar.

miércoles, 4 de enero de 2017

Neuroconstructivismo y modelos computacionales del desarrollo sináptico

El neuroconstructivismo postula que el desarrollo cognitivo se debe a la interacción entre el crecimiento estructural del cerebro y su regulación propiciada por la influencia del entorno. En esta entrada del blog realizamos una pequeña introducción a la aplicación de modelos computacionales al crecimiento y a la poda sinápticas, en el contexto de esta propuesta metodológica.




A raíz de una excelente ponencia desarrollada por el profesor Francisco Rodríguez Santos (UAM) en las "Primeras Jornadas Estatales de Psicología Educativa", celebradas a iniciativa del Colegio Oficial de Psicólogos de Madrid en la sede de la Universidad Pontificia de Comillas (véase la anterior entrada de este blog), me pregunté acerca de qué modelos computacionales existentes mejor pueden desarrollar esta metodología actual de la Neurociencia que, desde hace dos décadas, parece dominar el panorama de los estudios acerca del desarrollo neuronal del cerebro humano.

El Neuroconstructivismo es una tendencia neurocientífica actual que busca explicar el desarrollo cerebral mediante el estudio de cómo la interacción del organismo con el entorno genera que la plasticidad neuronal vaya esculpiéndo las neuronas y sus redes, poco a poco, hasta ir configurando un cerebro adulto en continuo proceso de estimulación sináptica.

Un proceso clave, por lo tanto, es el del crecimiento y poda de las sinapsis, así como el establecimiento y eliminación de las correspondientes redes o caminos que las interconectan.

El Constructivismo de Piaget tiene como idea básica que el espacio de aprendizaje va pasando de unas etapas más simples a otras más complejas a través de un proceso madurativo. Parece obvio que la plasticidad estructural del cerebro es el mecanismo biológico básico de tal aprendizaje constructivista.

Baum demostró en 1988 que las redes capaces de crecer estructuralmente durante un proceso de aprendizaje son capaces de aprender en tiempo polinómico cualquier problema que sea resoluble también en tiempo polinómico por cualquier algoritmo. Por lo tanto, el paradigma neuroconstructivista tendría universalidad computacional.

Pero ¿qué algoritmos computacionales actuales parecen hoy en día ser más efectivos para modelar el desarrollo sináptico y neuronal del cerebro humano?

Desde los trabajos pioneros de Chechik, Meilijson y Ruppin (1997-http://ai.stanford.edu/~gal/Papers/chechik_delsyn-), se han propuesto diversos modelos de desarrollo y de poda sináptica. Se basan en diversos criterios como la duplicación-divergencia o la eliminación de nodos en redes de pequeños mundos. Pero todos ellos comparten un principio común: el número de nodos y conexiones va creciendo con el tiempo hasta que se produce un proceso de poda. Típicamente empiezan construyendo una red arbórea que se ramifica expandiéndose y entonces se van añadiendo nodos y conexiones según se va necesitando. Tal proceso no introduce nuevos nodos a menos que supongan una mejora de la eficiencia y la robustez de la red. Pero esta decisión no es local ni distribuida por lo que, al depender de un coordinador central (la decisión del programador o agente externo), tiene siempre cierta naturaleza ad-hoc.

Navlahka, Barth y Bar-Joseph son los primeros (2015-http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1004347-) en proponer un algoritmo cuyas decisiones sobre el crecimiento o pérdida de nodos y de conexiones entre ellos se sitúa en un plano local y distribuido. Su algoritmo de poda sináptica parte de una red densa en la que cada flecha del grafo "recuerda" las veces que ha sido usada a lo largo de un camino dirigido. Las flechas o conexiones usadas muchas veces adquieren el estatus de importantes mientras que las poco usadas o transitadas se eliminan iterativamente, siguiendo una estrategia de "usadas o perdidas". La eliminación, inicialmente, ocurre a una tasa constante. La red es entrenada con la meta de conseguir un grafo dirigido con un número fijo de caminos, representando esto las limitaciones en los recursos físicos o metabólicos del cerebro.

Finalmente, se evalúa la red introduciendo pares de una distribución desconocida a priori de señales de entrada y de salida que la red ha necesitado conocer durante su entrenamiento. De esta forma, se mimetiza el flujo direccional de información entre poblaciones de neuronas en el cerebro y se atiende al principio clave del Neuroconstructivismo: la emergencia de plasticidad sináptica mediante la influencia de señales internas y de señales externas, procedentes del medio ambiente.