lunes, 31 de octubre de 2016

I JORNADAS ESTATALES DE PSICOLOGÍA EDUCATIVA


En la Universidad Pontificia de Comillas de Madrid y con la organización del Colegio Oficial de Psicólogos (COP) de Madrid y del Consejo General de la Psicología, se han celebrado las Primeras Jornadas Estatales de Psicología Educativa. Los días 28 y 29 de octubre de 2016 fueron testigos de un interesante punto de encuentro entre profesionales de la Psicología Educativa de este país.
Las Jornadas fueron inauguradas por el presidente del Consejo General de la Psicología de España, D. Francisco José Santolaya, el Decano del COP de Madrid, D. Fernando Chacón y la Directora General de la Fundación Atresmedia, Doña Carmen Bieger.
La conferencia inaugural fue impartida por el profesor Jesús de la Fuente (Universidad de Almería) y pasó revista a la situación actual de la Psicología Educativa en España. Doña Pilar Calvo, coordinadora de la División de Psicología Educativa del Consejo General de la Psicología, realizó una incisiva presentación de las líneas de actuación del Consejo para potenciar la situación de la Psicología Educativa en nuestro país. La jornada del viernes finalizó con un panel de expertos, en el que intervinieron los profesores Roberto Aguado y Victoria del Barrio (UNED), todo ello coordinado por Doña Carmen Montes. Como es habitual, Aguado, autor, entre otras obras, del libro "La emoción decide y la razón justifica" (EOS) realizó una animada introducción a las ideas nucleares de su modelo de Inteligencia Emocional, llamado "Vinculación Emocional Consciente". La profesora del Barrio se refirió a la psicología educativa del desarrollo con una muy buena selección de datos.
La jornada del sábado se abrió con un panel de expertos que abordaron las aportaciones de la Neuropsicología a la Educación. El prefijo "Neuro" se está utilizando de una manera abusiva en los últimos años pero es evidente que solo desde la perspectiva del neurodesarrollo cerebral se pueden realizar aportaciones consistentes a la Educación. La intervención del profesor Rodríguez Santos (UAM) fue excelente y repleta de datos actualizados. A reseñar su aproximación neuroconstructivista ("Building brains" y "Thinking critically about child development") y holista al neurodesarrollo y su influencia en el aprendizaje (importancia de múltiples factores como la nutrición, las horas de sueño, la focalización de tareas, los videojuegos, el mobiliario del aula, etc.). La doctora Pilar Martín Lobo (UNIR) partió del modelo neuropsicológico de bloques funcionales de Luria para desembocar en planteamientos de última generación como la estructura del conectoma de la arquitectura cortical y la optometría. El Doctor Tirapu (Premio Nacional de Neurociencia) expuso la idea del cerebro como un mecanismo de predicciones continuas que sirven para la adaptación (en la línea del cerebro predictivo bayesiano de Andy Clark, por ejemplo). El panel fue moderado por la profesora de la Universidad de Comillas, Doña María Roldán. 
La siguiente conferencia fue presentada por D. José Antonio Luengo (vicesecretario de la Junta de Gobierno del COP de Madrid) y tuvo como protagonista a la Doctora Rosario Ortega (UNICOR), que capitanea un importante grupo de investigación sobre el "cyberbullying", de reconocido prestigio internacional. La profesora hizo un excelente y muy completo recorrido por las claves generales del "bullying" y del "cyberbullying", desembocando en la aplicación del modelo de ecuaciones estructurales a estas cuestiones. Sin duda, un ejemplo de investigación puntera a nivel mundial.
La mañana del sábado culminó con otra destacada intervención por parte del Doctor José Muñiz (Universidad de Oviedo), referente internacional de la evaluación psicométrica y que partió del afamado libro de Judy Harris, "El mito de la educación", para resaltar la importancia decisiva del diagnóstico correcto en educación.
Por la tarde, el autor de este blog asistió al taller sobre "Dificultades y trastornos de aprendizaje", impartido por D. Antonio Labanda (Director Tecnico de EOS y coordinador de la sección de Psicología Educativa del COP de Madrid) y por D. David González (EOEP de Ciudad Lineal). El primer ponente disertó sobre las dificultades de aprendizaje en la lectura y el segundo ponente sobre las dificultades en Matemáticas. El taller estuvo muy bien enfocado y llevado. La asistencia fue numerosa. Otros talleres fueron sobre convivencia (Doña Ángeles Hernández y Doña Esther Ortega), trastornos autistas (D. José Luis Cabarcos y D. Juan Martos), intervención (Doña Andrea Ollero y y D. Antonio Santos), asesoramiento vocacional (D. José Manuel Martínez) y problemas emocionales (D. Hipólito Puente).
Para cerrar las Jornadas, D. José Antonio Luengo presentó a Doña Pilar Calvo para que ésta expusiera las conclusiones de un informe sobre la situación actual de la Psicología Educativa en Madrid.
Desde este blog quiero subrayar la importancia fundacional de estas Jornadas que han sido un acogedor punto de encuentro para los profesionales interesados en la Psicología Educativa en este país. Agradecer a la Universidad de Comillas, al COP de Madrid y al Consejo General de la Psicología su irreprochable organización y desear que este tipo de encuentros tengan la continuidad deseada. Muchas gracias por la iniciativa.

domingo, 21 de agosto de 2016

Francis Mojica: el nuevo "Ramón y Cajal" de la edición genética


¿A alguien le queda alguna duda de que este biólogo alicantino debe recibir, más pronto que tarde, el Premio Nobel de Medicina, junto a las investigadoras Jennifer Doudna y Emmanuelle Charpentier? Todo lo que no fuera así resultaría ser uno de los más grandes fallos de la Historia social de la Ciencia. Por eso, en este blog nos unimos a la iniciativa para reclamar la concesión del Premio Nobel a este gran científico, el padre teórico de la Biología sintética del siglo XXI. Solo cabe darle las gracias y alegrarse de que forme parte de una institución como la Universidad de Alicante (sí, no es absolutamente necesario trabajar en el MIT, por ejemplo, para realizar investigación básica de primer nivel; también se puede realizar desde la Universidad alicantina y desde su "Instituto Multidisciplinar de Estudios Ambientales":

Gracias a todos sus colaboradores, a Montoliu, Almendros, Guzmán, García-Martínez, Rodríguez-Varela, Díez Villaseñor, Soria, entre otros. Gracias a Juan Lerma, director del Instituto de Neurociencias de la Universidad de Alicante. Gracias al investigador Eric S. Lander (http://www.cell.com/cell/abstract/S0092-8674%2815%2901705-5) por su extraordinario gesto de honradez intelectual, reconociendo las evidencias (los descubrimientos neurocientíficos de Ramón y Cajal estuvieron sometidos durante años al más absurdo de los "ninguneos" y la polémica de prioridad con respecto a Golgi fue cruenta, precisamente por interesada falta de honestidad intelectual). Gracias a todos los trabajadores de dicha Institución. Y un toque de atención para nuestras autoridades políticas. Se necesita de muy poco dinero para rodear al Doctor Mojica de una plantilla nutrida de bioinformáticos punteros que puedan ayudar a sacar adelante sus proyectos. Ya que España no suele explotar económicamente los descubrimientos punteros de sus investigadores (véase el caso de Craig Venter en Estados Unidos), apuéstese al máximo por la inversión en Ciencia y no se permita que haya proyectos (por muy arriesgados que sean) que se queden sin financiación. La Comunidad Valenciana debería estar orgullosa de tener Universidades como la de Alicante y centros como el Instituto de Neurociencias. Por favor, den ejemplo y no consientan que nuestra clase política siga a la altura del betún mientras que un futuro Premio Nobel carezca de la infraestructura precisa para investigar o que jóvenes becarios excelentes de dicha Comunidad no puedan seguir investigando y pasen necesidades.

Este blog no es de Biología: es de Neurociencia computacional. Por lo tanto, no vamos a centrarnos en el origen de la tecnología CRISPR, preludiada por la aportación teórica de nuestro futuro Premio Nobel Francis Mojica. El lector encontrará una excelente introducción en F.J.M. Mojica, R.A. Garrett CRISPR-Cas Systems: RNA-mediated adaptive immunity in Bacteria and Archaea. Barrangou, R. and van der Oost, J. (Eds.) Springer-Verlag Berlin Heidelberg. Cap1. pp 1-31. ISBN 978-3-642-34656-9; DOI: 10.1007/978-3-642-34657-6_1. Solo recordar que Mojica aporta la base teórica que inspira la revolución médica que el método CRISPR-Cas9 de Doudna y Charpentier ya está empezando a producir: como las primeras pruebas experimentales con humanos, modificando linfocitos T a través de este "cortapega" genético para combatir el melanoma. Numerosos tipos de cáncer van a retroceder o se van a cronificar a través de esta terapia, lo cual bien justifica un Premio Nobel. Pues bien, el descubrimiento de Francis Mojica tiene cierto aire de familia con el descubrimiento cajaliano de la doctrina de la neurona y no difiere mucho en cuanto a relevancia.

Cajal, en contraposición a la teoría reticular de Golgi que concebía el sistema nervioso como una red continua de neuronas, encuentra discontinuidades físicas entre las neuronas, que la microscopía electrónica se encargó de mostrar años después a través del descubrimiento de las hendiduras sinápticas o, como Cajal las denominaba, "contactos del protoplasma". La polarización dinámica del sistema nervioso recorrería estas hendiduras.

Mojica y su equipo, tan pronto como en 2005, descubren que los loci de ADN que contienen repeticiones cortas de secuencias de bases (CRISPR) incluyen espaciadores que suponen un elemento de discontinuidad, puesto que derivan de secuencias preexistentes de bacteriófagos. Por lo tanto, no se trata de elementos ciegos o vacíos con una mera función separadora, sino que revelan la interacción del ADN receptor con restos de ADN procedentes de elementos de origen externo. De alguna forma, serían el producto de "viejas heridas" que ahí quedan como consecuencia de la lucha inmunológica desencadenada por el organismo receptor frente al organismo "invasor". Es decir, "recuerdos" de batallas precedentes del sistema inmune contra los agentes externos. Este es el origen del procedimiento de edición de genes, CRISPR/Cas 9, que Doudna, Charpentier y colaboradores introducen de manera genial en su artículo A programmable dual RNA-guided DNA endonuclease in adaptive bacterial immunity de 2012. Al administrarse la proteína Cas9 y los ARN guía apropiados a una célula, el genoma de esta puede cortarse en los lugares deseados y, tras la reparación del corte, introducir mutaciones o eliminar funcionalmente genes.

Así como Cajal intuyó la existencia de hendiduras sinápticas y su funcionalidad, Mojica descubre el valor inmunológico de los elementos separadores entre secuencias de bases y constituye la base teórica de la reciente técnica de edición y cortado de genes que, como Cajal en la Neurociencia, va a provocar una auténtica revolución en el terreno de la ingeniería genética.

martes, 16 de agosto de 2016

Regeneración de órganos y Neurociencia computacional




(Imagen procedente de Giovanni Pezzulo y Michael Levin, 

                     http://pubs.rsc.org/en/content/articlelanding/2015/ib/c5ib00221d#!divAbstract)


La regeneración de órganos es uno de los grandes retos de la Medicina contemporánea. En la naturaleza son múltiples los casos al respecto. Por ejemplo, las salamandras pueden llegar a regenerar sus colas amputadas.

Todos estos ejemplos tienen en común una especie de "homeóstasis formal"o capacidad de los sistemas para regular de forma flexible eventos a nivel celular con el fin de lograr un mayor nivel de tejido.

El mayor desafío es la comprensión de cómo la remodelación de una forma compleja es impulsado por la actividad física y el procesamiento de la información de las subunidades más pequeñas (no necesariamente células). En "Re-membering the body: applications of computational neuroscience to the top-down control of regeneration of limbs and other complex organs", Giovanni Pezzulo y Michael Levin introducen un nuevo e interesante enfoque para abordar esta cuestión: la programación de arriba hacia abajo de la formación de patrones, usando algoritmos de control aportados por la neurociencia computacional.

Según los autores, los cambios lentos de potencial de reposo en células no excitables regulan la coordinación entre las células necesarias para la morfogénesis. La bioelectricidad del desarrollo genera una auténtica memoria para las configuraciones. La analogía con la memoria tiene una consecuencia importante: muchas de las herramientas disponibles para modificar las memorias o para inducir cambios de plasticidad en las representaciones somatosensoriales pueden adaptarse a la bioelectricidad del desarrollo y así programar la morfogénesis. De hecho, hay una clara homología entre el procesamiento de la información y el proceso de control celular que se da en el Sistema Nervioso Central (SNC). Pero aquel tipo de procesamiento no es un monopolio exclusivo de las redes neuronales sino que también parece encontrarse en órganos como los huesos y el corazón. Los eventos de señalización celular son comunes. De hecho, a un nivel mecánico, los modelos de comunicación celular utilizando conceptos de la neurociencia (plasticidad sináptica, la potenciación a largo plazo, el aprendizaje de Hebb, etc.) pueden ser aplicables a la comprensión del control regenerativo. Los datos recientes implican la señalización bioeléctrica en células no neuronales como un regulador o, de gran escala, de la anatomía, y muestran que las diferencias entre las células neuronales y no neuronales no son fundamentales: en ambas se propagan las señales a través de dinámica de tensión y de señalización de neurotransmisores. Es probable que el procesamiento en el cerebro sea una versión altamente acelerada de los mecanismos celulares básicos que existían mucho antes del desarrollo evolutivo del SNC.  


domingo, 3 de julio de 2016

El cerebro de los astronautas


Los astronautas se enfrentan a varios factores estresantes para su salud. Pueden ser físicos (por ejemplo, la microgravedad o la radiación ionizante) y psicológicos (por ejemplo, el aislamiento  y el confinamiento). Aunque los seres humanos son muy capaces de adaptarse a nuevas circunstancias, no es infrecuente que algunos cambios sean perjudiciales. Estos cambios han sido ampliamente estudiados (para una revisión, véase Buckey 2006) pero hasta muy recientemente no se habían realizado evaluaciones basadas en neuroimagen de la función neuronal de los astronautas, tras haber permanecido durante mucho tiempo en el espacio. Koppelmans et al. (2013) están inmersos en un estudio a largo plazo del impacto de los vuelos espaciales de larga duración en la función cerebral de los cosmonautas. En este estudio, basado, obviamente, en casos particulares, se analizó el patrón de conectividad en seis redes cerebrales: la red por defecto, la zona frontoparietal, la prominencia, la corteza auditiva, la región sensorio-motora y la red visual. Después del viaje se detectó una reducción de la conectividad en la ínsula derecha y en la corteza cingulada posterior ventral. detectó, aparte de la ataxia vestibular típica detectada el día del aterrizaje, cierto deterioro de la coordinación motora pero desaparición del vértigo pocos días después. En reposo, se observó una disminución de la conectividad entre el cerebelo izquierdo y el derecho. Se podría tratar de una respuesta adaptativa compensatoria al ambiente de microgravedad y a la fase posterior al aterrizaje. Es sabido que el cerebelo está asociado a la iniciación voluntaria del movimiento, la propiocepción y la coordinación motora. Déficits en este área conllevan falta de precisión en los movimientos dirigidos, confirmándose estudios anteriores sobre las consecuencias fisiológicas de los vuelos especiales en el comportamiento motor (Kozlovskaya et al., 1981) y la inestabilidad postural (Paloski et al., 1992).
La disminución de la conectividad en la ínsula derecha puede afectar al procesamiento del auto-movimiento, la orientación espacial y la memoria.
Los problemas reversibles después de los vuelos espaciales a menudo se han atribuido al sistema vestibular y al efecto de la ausencia de gravedad. La valoración actual, sin embargo, sugiere que estos problemas se originan por alteraciones corticales en lugar de ser meramente atribuibles a los órganos neurosensoriales periféricos y que también surgen por la readaptación a la gravedad de la Tierra. En futuras misiones espaciales muy prolongadas como, por ejemplo, las misiones a Marte, habrá que tener muy en cuenta los mecanismos de compensación neuronal que se producen en el sistema motor vestibular.

sábado, 19 de marzo de 2016

Julija Krupic: cristales en el cerebro



Julija Krupic es una de las grandes representantes de la joven generación actual de neurocientíficos. Sus trabajos sobre células cerebrales de localización están teniendo un profundo impacto y continúan las pioneras investigaciones de O´Keefe (véase este mismo blog) y colaboradores.
Hay un grupo de neuronas en la formación del hipocampo llamadas "celdas de cuadrícula" que actúan como si fueran "generadores" y que poseen una configuración hexagonal. Presentan una estructura cristalina. ¿Pero hay más estructuras de este tipo en el cerebro? Krupic grabó las neuronas en la región del hipocampo de ratas para ver si células con otros patrones de disparo se podían encontrar allí. La investigadora encontró otra clase de células espacialmente sintonizadas que se disparaban en respuesta a varias ubicaciones discretas en el medio ambiente. El patrón encontrado no fue al azar, pero no pudo exhibir la simetría hexagonal observada en las células de la red. Krupic ha desarrollado un método de análisis basado en la transformada de Fourier bidimensional para cuantificar las propiedades de todas las células espaciales en la región del hipocampo (incluyendo celdas de la cuadrícula) y ha propuesto un posible mecanismo subyacente para la formación de celda de la cuadrícula. En determinadas circunstancias, celdas de la cuadrícula perdieron su simetría hexagonal y se convirtieron en algo más irregular. La geometría del recinto en el que se puso a prueba la rata pareció desempeñar un papel importante en la facilitación de tales transiciones de patrones. La geometría de un recinto se define por la disposición de sus límites. Tal vez las células fronterizas podrían desempeñar un papel importante en la formación de patrón de cuadrícula. Krupic puso a prueba esta idea mediante el desarrollo de un modelo en el que un patrón de disparo celda de la cuadrícula se generó mediante la interacción de células de lugar (células en el hipocampo que están activas en un lugar determinado de la caja) y células del borde. El modelo fue denominado modelo de campo límite de interacción. La clave está en que parece que nuestros cerebros pueden percibir la distancia de manera diferente en ambientes que presentan una geometría polarizada. Se postularía que la fuerza de la interacción de los campos de lugar individuales sería proporcional a la distancia entre las celdas de la cuadrícula y que el papel de las células del borde sería el de "empujar" los campos de distancia. El modelo predijo que las cuadrículas exhibirían simetría hexagonal en recintos cuadrados y circulares pero que este patrón se rompería en recintos más polarizados, como trapecios. Ambas predicciones fueron confirmadas: en entornos de experimentación trapezoidales para ratas, la rejilla se hizo más elíptica y no homogénea. Este tipo de distorsiones no se observaron en los recintos cuadrados o circulares en los que el patrón simétrico y consistente fue similar a lo observado en la mayoría de los estudios anteriores. Estos resultados cuestionarían la idea de que el sistema de celda de la cuadrícula actuara como una métrica espacial universal para el mapa cognitivo, puesto que los modelos de red cambian notablemente entre los recintos e incluso dentro del mismo recinto. Los cerebros percibirían la distancia de manera diferente en entornos con geometría polarizada.


domingo, 14 de febrero de 2016

Shigeki Watanabe o la revolución de la microscopía electrónica



El reciente premio Eppendorf 2015, Shigeki Watanabe, ha revolucionado la microscopía electrónica con su técnica del "destello y la congelación" ("flash and freeze"). 

Se trata de una técnica optogenética de congelación de alta presión. La actividad sináptica es extremadamente rápida (1 microsegundo). Surgen dos problemas para la visualización de la misma: el tamaño y la velocidad de las sinapsis. La sinapsis es demasiado pequeña para ser visualizada mediante microscopios de luz convencionales. Las sinapsis en muchos organismos pueden alcanzar unos pocos cientos de nanómetros de diámetro, y las vesículas sinápticas tienen entre 30 y 40 nm de diámetro; estos tamaños están muy por debajo del límite de resolución del microscopio óptico. Por lo tanto, la imagen óptima de una sinapsis solo puede conseguirse mediante microscopía electrónica. La velocidad es el segundo obstáculo para la medición de los procesos biológicos celulares. Hasta hace poco, los métodos eran demasiado lentos para capturar y fijar tales eventos celulares. Parecía casi imposible capturar el momento de la fusión entre vesículas y membranas. Para superar esta limitación, Heuser y Reese desarrollaron la congelación basada en el uso de un bloque de metal enfriado a 4° K por helio líquido, capturando la secuencia temporal de la fusión de vesículas con un milisegundo de resolución temporal. Pero la técnica solo permitía trabajar con preparados disecados de neuronas o tejidos muy delgados. Para aplicar métodos de congelación rápida para diferentes organismos, dos mejoras eran necesarias: el aumento de la profundidad de congelación y la estimulación fisiológica in vivo. En los últimos años, un método de congelación de alta presión se ha desarrollado para mejorar la profundidad de congelación. Normalmente, cuando el agua líquida se enfría a temperatura de congelación, las moléculas de agua empiezan a formar hielo en un tipo de cristal. Cuando se forman los cristales de hielo, la concentración local altera la presión osmótica, provocando la ruptura de las membranas celulares. Debido a la mala conductividad calorífica del agua, la velocidad de congelación de tejido de 10 micras de profundidad es muy lento, y por lo tanto las muestras gruesas (> 10 micras) acaban formando cristales de hielo. Sin embargo, a 2.100 bar (1 bar = presión atmosférica a nivel del mar), el agua puede ser enfriada a -90 ° C. En estas condiciones, la velocidad de congelación de -100 ° C  es suficiente para vitrificar el agua. Por lo tanto, mediante la congelación bajo alta presión, tejidos biológicos tan gruesos como de 500 micras se pueden congelar con una formación reducida de de cristales de hielo. En principio, la formación de imágenes resuelta en el tiempo a través de microscopía electrónica se puede realizar en animales intactos tales como Caenorhabditis elegans utilizando congelación de alta presión. Sin embargo, las neuronas en los animales intactos no son fácilmente accesibles por un electrodo. Por lo tanto, se debe buscar un método de estimulación alternativa. En la última década, las técnicas de optogenética se han desarrollado para aplicar la estimulación no invasiva a las neuronas. Por desgracia, las configuraciones actuales de los congeladores de alta presión disponibles en el mercado no permiten la estimulación de la luz de las muestras. Watanabe ha desarrollado un dispositivo de congelación de alta presión. El dispositivo puede conservar los cambios morfológicos que se producen durante la neurotransmisión con una resolución temporal de milisegundos. La canalrodopsina es un canal catiónico de un solo componente activado por la luz procedente de algas unicelulares que es capaz de estimular las neuronas.  Las células que son naturalmente sensible a la luz tales como las células de varilla o de cono en la retina pueden ser estudiadas utilizando este método.  En resumen, estos métodos pueden capturar la dinámica celular con resolución espacial de nanómetros y resolución temporal de milisegundos.

viernes, 1 de enero de 2016

Nanoconectómica


Terrence Sejnowski acaba de recibir el premio Swartz por sus destacadas aportaciones a la Neurociencia Computacional (https://www.sfn.org/). Como homenaje, analizamos cómo, junto a su equipo de investigación, está contribuyendo de manera decisiva a la apertura de nuevos campos de investigación como el de la nanoconectómica o estudio de la variabilidad de las conexiones sinápticas a través del análisis de su microestructura. Véase al respecto,
(http://elifesciences.org/content/elife/early/2015/11/30/eLife.10778.full.pdf).

Partiendo de la idea comúnmente aceptada de que la experiencia regula la fuerza sináptica, entonces sería esperable que haya un cierto ajuste morfológico y de tamaño entre sinapsis que compartan una misma historia presináptica y postsináptica. Es verdad que existe una alta variabilidad estocástica en las sinapsis pero sería interesante analizar los límites correlacionales entre sinapsis estimuladas "in vivo" de manera idéntica a través de las entradas axonales. Ya hay estudios que demuestran la alta correlación del tamaño de la cabeza de la espina con el número de vesículas en el área de la densidad postsináptica. La novedad de la aportación de Sejnowski y colaboradores es que los diámetros de cuello también se correlacionaron de una manera elevada entre pares de espinas con una misma historia de activación. El diámetro del cuello parece depender de la potenciación y depresión sináptica a largo plazo. Las vías bioquímicas postsinápticas parecen seguir escalas de tiempo lo suficientemente largas como para registrar y mantener la historia de los patrones de actividad conducentes a cambios estructurales en el tamaño de las cabezas sinápticas. Apenas se está empezando a apreciar el grado de precisión con la que se regulan las sinapsis y la amplia gama de escalas temporales que rigen su organización estructural, pero se puede aprender mucho estudiando la correlación de sus rasgos físicos si se tiene en cuenta que cierta estabilidad han de tener como elementos básicos para desempeñar funciones como la retención de la memoria a largo plazo o el mantenimiento de la eficiencia energética cerebral.

domingo, 27 de septiembre de 2015

Neurociencia y confianza metacognitiva

Imagen extraída de "Metacognitive confidence: A neuroscience approach"
 (Andrew Luttrell , Pablo Briñol, Richard E. Petty , William Cunningham y Darío Díaz)
Revista de Psicología Social, 2013, 28 (3), 317-332.
Los llamados juicios de confianza retrospectiva (JCR) atañen a cómo los  sujetos evalúan la probabilidad de que sus respuestas sean correctas Las repercusiones de este tipo de juicios para la vida diaria son relevantes. Pensemos, por ejemplo, en un testigo que, en su declaración ante el juez, afirme que está totalmente seguro de que el acusado cometió el crimen frente a otro que, simplemente, exprese su incertidumbre al respecto. El efecto logrado sobre el interlocutor, desde luego, nunca será el mismo. Los dos aspectos más estudiados respecto a los JCR son los factores que influyen en el grado de precisión de los mismos y el nivel de su calibración. Por nivel de calibración se entiende el grado de ajuste entre el rendimiento real del sujeto en una tarea y su juicio a priori acerca del mismo. Por ejemplo, si el sujeto afirma que cree que ha contestado correctamente al ochenta por ciento de una lista de preguntas y luego se corrobora que, en efecto, ha respondido adecuadamente a 8 de 10 cuestiones, el nivel de calibración ha sido perfecto o total. Lo habitual, sin embargo, es que los JCR se distorsionen hacia la sobreconfianza. La investigación acerca de este tipo de distorsiones tiene sus raíces en los estudios de Psicología de la Probabilidad de hace más de tres décadas. Pero, ¿qué hay en relación con su estudio por la Neurociencia? Pues que podemos decir que es muy reciente y que Pablo Briñol y colaboradores ocupan un lugar destacado. Las áreas del cerebro que parecen ser especialmente sensibles al proceso de realizar juicios de confianza son la ínsula, la corteza frontal orbital, la corteza cingulada posterior, la corteza prefrontal media y la corteza cingulada anterior. Pero hasta qué punto estas partes forman un todo unificado es algo que está por ver. Tanto la corteza prefrontal media (ventral y dorsal) como la corteza cingulada posterior forman parte de la llamada "red por defecto", una zona cerebral que parece más activa en las situaciones de reposo. Autores como Buckner postulan que esta red es relevante en la introspección mental y, por lo tanto, en la actividad metacognitiva. No obstante, por lo que se refiere a los juicios metacognitivos de confianza, estos son confundidos muchas veces en los estudios experimentales con variables psicológicas que expresan ambivalencia o certidumbre. Otro aspecto que la investigación futura debe dilucidar es cómo los patrones neuronales difieren al realizar juicios de confianza y al usar cogniciones de una manera confiada o segura. En cualquier caso, habría que averiguar cómo estos patrones se integran en patrones más extensos que estén en la base de los juicios metacognitivos.

lunes, 3 de agosto de 2015

"Encyclopedia of Computational Neuroscience"


Acaba de salir de la imprenta, publicada por Springer, la referencia más importante de la Neurociencia Computacional. Editada por Dieter Jaeger (Universidad de Emory) y por Ranu Jung (Universidad Internacional de Florida), esta Enciclopedia consta de 577 entradas desarrolladas en más de 3000 páginas y debería ser de adquisición obligada por las principales bibliotecas universitarias de todos los países. Refleja el actual estado de la cuestión en los modelos matemáticos de la Neurobiología. Nada queda sin ser objeto de consideración: la biofísica de las neuronas y sus respectivos modelos formales (Hodgkin-Huxley o Nernst-Planck), modelos del hipocampo, los ganglios basales, el tálamo, el córtex visual, modelos de la memoria, incluso es descrita la física del metabolismo cerebro vascular y las técnicas más recientes de imagen cerebral. Las ilustraciones son sencillamente impresionantes y participan en cada artículo los autores más destacados de la materia, como, por ejemplo, Klaus Wimmer (redes sensoriales), Jorge Riera (técnicas de neuroimagen), Yoonsuck Choe (conectoma) o David Beeman (modelo de Hodgkin-Huxley). En definitiva, se trata de una obra imprescindible para quien tenga un serio interés por estos temas.

martes, 7 de julio de 2015

Chris Eliasmith: cómo construir un cerebro


Este excelente libro resume algunas de las aportaciones de Chris Eliasmith (Universidad de Waterloo) y de su equipo a la Neurociencia Computacional en la última década. Como es sabido, Eliasmith es uno de los creadores de SPAUN, la arquitectura del cerebro ahora mismo más ambiciosa. Esta arquitectura se basa en la llamada "semántica de índices", cuya hipótesis clave es la siguiente: las funciones cognitivas de nivel superior dependen de representaciones neuronales que sustentan la complejidad de la cognición. Las representaciones en la arquitectura funcionan como índices que permiten acceder a grandes cantidades de información sin tener que acarrearla. Capturan relaciones de una manera conexionista, es decir, en un espacio vectorial semántico en el que los vínculos se entablan a través de las distancias que mantienen dichos índices.
El libro se articula en torno a cuatro grandes ejes que determinan la arquitectura concebida por Eliasmith y colaboradores: el semántico, el sintáctico, el eje del aprendizaje y el de la memoria. Los sentidos captan energía que genera información que puede distribuirse formalmente en índices semánticos. Grandes estructuras de información son codificadas ligando índices semánticos. La información sirve para controlar tareas cognitivas, tal y como hacen los ganglios basales en el cerebro. La arquitectura de SPAUN es adaptable e integra percepción, cognición y acción a través de la ejecución de muy diversas tareas.

viernes, 3 de abril de 2015

Polémicas en Neurociencia Computacional: sobre el "Human Brain Project"

HUMAN BRAIN PROJECT
Como es ya muy bien sabido, el "Human Brain Project" (https://www.humanbrainproject.eu/) fue iniciado en octubre de 2013 como la contrapartida europea del gran proyecto de investigación cerebral lanzado por la Administración de Obama en los Estados Unidos (véase en este blog la entrada dedicada a la labor de Rafael Yuste en dicho proyecto). Este proyecto retomaba la iniciativa capitaneada por Henry Markram unos años antes y conocida como "Blue Brain" (en España, "Cajal Blue Brain", comandada por Javier de Felipe y otros prestigiosos neurocientíficos de este país). En verano del año pasado, emergió una polémica respecto a la forma de abordar el proyecto puesto que 156 científicos europeos redactaron una carta abierta en la que cuestionaban cómo se está llevando a cabo el proyecto e incluso la distracción de fondos necesarios para otros proyectos más pequeños pero también valiosos de la Neurociencia europea. A pesar de una comunicación realizada por los directores del proyecto el día 9 de julio de 2014, una semana después, seis prestigiosos académicos siguieron manifestando sus dudas críticas. Hasta tal punto ha llegado esta marea crítica que hace unos pocos días (el 18 de marzo), el equipo de directores del proyecto ha aceptado las recomendaciones de un organismo independiente de mediación (liderado por Wolfgang Marquardt), según las cuales, científicos renombrados y directores de organizaciones científicas internacionales, entrarán a formar parte del equipo de gobierno del proyecto y se eliminará el Comité ejecutivo actual.
Hasta aquí, los hechos tal y como se han desarrollado y cómo están afectando a uno de los proyectos europeos de investigación más ambiciosos y caros. El autor de este blog no va a entrar en valoraciones subjetivas acerca de posibles enfrentamientos entre egos y en si los proyectos ambiciosos han de ser especialmente caros o tan aglutinantes que no permitan "respirar" económicamente a otros proyectos también dignos de consideración. También hubo dudas sobre los posibles rendimientos de los dos megaproyectos acerca de la secuenciación del genoma humano y, visto con perspectiva, el desembolso tampoco fue tan desmesurado y las beneficiosas consecuencias se van desvelando poco a poco (obviamente, no se ha encontrado explicación genética a todas las enfermedades ni se han curado muchas de ellas pero adelantos todavía balbucientes, como las terapias médicas por ingeniería genética, se están empezando a abrir camino). Lo que sí deseo poner de manifiesto es la necesidad de dar alas también a la sección SP3 del proyecto dedicada al desarrollo de arquitecturas cognitivas. Creo que en su obsesión por realizar un desarrollo "bottom-up", Markram infravalora e incluso confunde el valor de arquitecturas como SPAUN de Eliasmith y colaboradores (un artículo de este blog será dedicado a esta arquitectura cognitiva). Por supuesto que SPAUN no es un modelo del cerebro humano ni pretende serlo y por supuesto que Dharmendra Modha no simuló nunca el cerebro de un gato. ni se trata de ningún fraude científico. Modelos idealizados como las arquitecturas cognitivas son inevitables y necesarios no solo por motivos de complejidad sino también por una mera cuestión de funcionalidad explicativa, como las idealizaciones de Galileo fueron muy exitosas en el avance de la Física. No hace falta recurrir  a la paradoja de Bonini (como hace Marcin Milkowski en "Explanatory completeness and idealization in large brain simulations:a mechanistic perspective") para darse cuenta de que enfoques como el de Blue Brain pueden ser muy interesantes para crear grandes bases de datos de rasgos estructurales del cerebro, con múltiples aplicaciones médicas y fácilmente entrecruzables con los hallazgos de la minería de datos, pero cuando los modelos se hacen tan complicados o más de explicar que las situaciones modeladas, la función explicativa se acaba perdiendo. Algo que sí se consigue con las "gruesas idealizaciones" de las arquitecturas cognitivas".

domingo, 22 de febrero de 2015

"Conexionismo y cognición" de Pedro Cobos: 10 años de una obra maestra de la divulgación


Se cumple este año una década de la publicación por editorial Pirámide (http://www.edicionespiramide.es/libro.php?id=952260) del mejor libro divulgativo a nivel mundial sobre el conexionismo y sus implicaciones: "Conexionismo y cognición" de Pedro Luis Cobos. Habiendo leído una cantidad considerable de obras sobre el paradigma conexionista y sus aplicaciones, me atrevo a asegurar que ninguna obra en el mercado internacional puede hacer palidecer la inmensa valía de esta obra sin precedentes y sin continuación. Pruebe el lector a leer las obras de Andy Clark, de Gary Marcus, de William Bechtel, Michael Arbib y de otros más o menos afortunados intérpretes y comprobará que en esta afirmación no hay un ápice de exageración. Ninguna obra conjuga elementos técnicos con análisis "filosófico-teóricos" de una manera tan sabia. Y todo ello sin caer en divagaciones de baratillo o en abstrusas formulaciones matemáticas que ni el propio autor entiende y se limita a transcribir. Cobos sabe de lo que habla porque es un experto pero además tiene el don de comprender sobre lo que trabaja e ir más allá, avanzando en sugerentes interpretaciones y desafíos. El libro se divide en tres partes. Las dos primeras son magistrales y la tercera, aunque se queda algo corta, genera el deseo de seguir buscando en el lector. En "Génesis y fundamentos de los modelos conexionistas", Cobos no pierde el tiempo: en menos de 60 apretadas páginas el autor realiza la mejor introducción posible al paradigma conexionista, sin boato ni estridencias. Nada de especulaciones o grandilocuencias absurdas sino fino y preciso espíritu de observación científica. En el capítulo cuarto y en apenas 6 páginas, Cobos plantea la primera gran crisis del conexionismo (Minsky y Papert). No creo que se pueda hacer mejor en menos espacio. Pero es que la segunda parte, que consta de 5 capítulos y que hace un repaso de las principales redes conexionistas, es un compendio perfecto de divulgación para el no especialista pero sin caer en la tentación simplificadora de eliminar los ejemplos y recursos matemáticos. En concreto, la exposición que realiza de la regla delta en asociadores de patrones bicapa (con sus fortalezas y sus debilidades) es espléndida y vale tanto para un lector profano como para uno especializado. La parte tercera ("Repercusiones teóricas y retos") es forzosamente reducida pero poco más se puede pedir a 250 páginas de un libro que es un tesoro y que va más allá de lo meramente divulgativo. Lector de este blog: tengo una buena noticia para ti si es que te interesan las redes neuronales artificiales y su significado teórico y aplicaciones: el libro sigue en stock y lo puedes comprar todavía a muy buen precio. Cómpralo, por favor. Es el mejor homenaje que se puede hacer a una obra excelente como ésta.

sábado, 31 de enero de 2015

Neurociencia de la identidad


(Image from http://www.kurzweilai.net/images/cage-design.png)

En la entrada del mes en este blog vamos a presentar el interesante experimento realizado por Julia Freund y sus colaboradores con ratones genéticamente idénticos que, sin embargo, mostraron diferencias en su comportamiento. Por lo tanto, de alguna manera, podría derivarse que el entorno y la experiencia son factores imprescindibles para la generación de identidades propias. Puede encontrarse en Freund, J., Brandmaier, A. M., Lewejohann, L., Kirste, I., Kritzler, M., Krüger, A., Sachser, N., Lindenberger, U., & Kempermann, G. (2013). Emergence of individuality in genetically identical mice. Science, 340(6133), 756–759.doi: 10.1126/science.1235294. En su experimento, situaron a 40 ratones genéticamente idénticos en un entorno enriquecido y observaron su conducta durante un periodo de 3 meses. Cada ratón fue monitorizado con un aparato de radiofrecuencia. Toda conducta fue grabada y recogida. Para estudiar las diferencias conductuales, se usó una medida de entropía que aumentaba en función del aumento de la conducta exploratoria de los ratones. Al principio, la entropía encontrada en el comportamiento de los ratones fue muy similar pero, conforme iba avanzando el tiempo, las conductas empezaron a diverger por lo que respecta a su actitud exploratoria. Antes de que el experimento llegara a su término, se les inyectó a los ratones una droga capaz de ayudar a la proliferación de nuevas neuronas. Los ratones que habían mostrado las conductas más exploratorias registraron una mayor proliferación de nuevas neuronas. Los autores conjeturan que estas nuevas neuronas están implicadas en el ajuste de las nuevas conductas al contexto y que las conductas y actitudes de los ratones contribuyen a la formación de su identidad. Podría suceder que la experiencia es capaz de modificar los patrones de la expresión genética dando lugar a diferentes caminos vitales, trayectorias siempre en progreso y cambiantes que darían lugar a vidas únicas y diferentes.

lunes, 22 de diciembre de 2014

Juegos digitales y Neurología

Colom, R., Quiroga, Mª Á., Solana, A. B., Burgaleta, M., Román, F. J., Privado, J., Escorial, S., Álvarez-Linera, J., Alfayate, E., García, F., Lepage, C., Martínez, K., Hernández-Tamames, J. A, & Karama, S. (2012). Structural changes after videogame practice related to a brain network associated with intelligenceINTELLIGENCE, 40, 479-489.

Glosamos en este blog la excelente investigación que un grupo de psicólogos y neurocientíficos de nuestro país vienen realizando en los últimos años acerca de la influencia de los juegos digitales en la anatomía cerebral. Colom et al. (2012) han demostrado que el entrenamiento cognitivo con videojuegos genera cambios significativos en la materia gris de los sujetos. Veinte muchachas fueron seleccionadas para jugar el videojuego de Nintendo, “Profesor Layton y la caja de Pandora”. Este videojuego contiene puzzles y acertijos. Las participantes en el experimento jugaron cuatro horas a la semana durante cuatro semanas y su cerebro fue escaneado en la primera semana. En la sexta semana fueron de nuevo sometidas a escáner y completaron un conjunto de test de habilidades cognitivas. Previamente se las había instruido para que no alteraran su vida cotidiana y para que evitaran jugar a cualquier otro tipo de juego.
El análisis morfométrico reveló cambios, tanto positivos como negativos, en la densidad de la materia gris. Mientras que los incrementos se concentraron en el hemisferio derecho, las disminuciones se localizaron en el hemisferio izquierdo. De manera interesante, se observó un aumento en la densidad de la corteza verificado por Haier et al. (2009) en las zonas 6 y 22/38 de Brodmann. También fueron encontrados cambios significativos en las áreas 9 y 10 de Brodmann, zonas implicadas en procesos como la atención, la memoria operativa y las funciones ejecutivas. El análisis mediante tractografía, permitió detectar algunos cambios en la sustancia blanca del cerebro de las participantes en el grupo experimental. La difusividad axial se incrementó en el cíngulo de la parte derecha del hipocampo, lo que podría suponer una alteración del diámetro de los axones. La difusividad radial aumentó en el fascículo longitudinal inferior izquierdo, lo cual podría interpretarse en términos de pérdida de mielina. Todo esto puede apreciarse mejor en la siguiente imagen del estudio:
No obstante, y como los propios autores señalan, estos resultados deben ser interpretados de forma precavida, quedando a la espera de futura investigación. Más interesante es la ausencia de una correlación entre la práctica con videojuegos y el aumento significativo de la inteligencia medida. Tanto el grupo experimental como el control se sometieron a un pre-test y a un post-test que midió un índice de inteligencia general, y los resultados mostraron una ganancia promedio de 3,4 y de 3,3 puntos de cociente intelectual en el grupo control y en el experimental, respectivamente. La conclusión es que resolver problemas de complejidad creciente usando un videojuego o juego digital, no produce un impacto sobre las puntuaciones obtenidas en un test de inteligencia, incluso aunque se detecten cambios volumétricos en el cerebro relacionados con la práctica del juego. Esto puede interpretarse de distintas maneras. Quizá los cambios cerebrales se hayan detectado en algunas pero no en todas las zonas relevantes para el desarrollo de la inteligencia. También el reducido tamaño de la muestra ha podido suponer un importante contratiempo. Pero también hay que reconocer que las señales biológicas no siempre van acompañadas de cambios conductuales.

sábado, 11 de octubre de 2014

Merecido Premio Nobel de Medicina para John O'Keefe, May-Britt Moser y Edvard Moser


(Image from Vegard H. Brun, Mona K. Otnæss, Sturla Molden,
Hill-Aina Steffenach, Menno P. Witter, May-Britt Moser,
Edvard I. Moser, Place cells and place recognition maintained by direct entorhinal-hippocampal circuitry, p. 2246-
http://www.nbb.cornell.edu/neurobio/bionb330/FINAL/hippo2.pdf-)

Hace ya seis años que en este blog glosamos la genial investigación emprendida por John O´Keefe sobre la existencia de células específicas de orientación espacial en el hipocampo y en otras zonas cerebrales. John O´Keefe, junto a los investigadores noruegos May-Britt Moser y Edvard Moser, ha sido premiado con el Nobel de Medicina de 2014. ¿Cómo han complementado estos dos autores las excepcionales indagaciones del neurocientífico americano irlandés? El matrimonio Moser ha descubierto la presencia de células rejilla ("grid cells") en la corteza entorrinal de ratas. Estas células son parte de un sistema de coordinación espacial independiente del entorno. En concreto, en la segunda capa de la corteza existen células rejilla que se activan cuando la posición del animal coincide con los vértices de una rejilla triangular periódica que cubre la completa superficie del entorno. El hecho de que la estructura regular de la rejilla y las relaciones del entorno permanezcan invariantes, implica la existencia de un espacio métrico de integración espacial universal en el cerebro. Los premiados comparan la estructura geométrica de las rejillas en diferentes capas buscando correlaciones en la rotación espacial de neuronas. Más allá de la capa segunda, las células rejilla fueron colocalizadas con células orientadas por los movimientos de la cabeza del animal. Las células rejilla y las células que se orientan por los movimientos de la cabeza se solapan lo que implica que, a diferencia de las conexiones del hipocampo, todas las capas operan juntas como una unidad integrada. Por lo tanto, el mapa espacial en la corteza entorrinal comprende células rejilla y células que responden a los movimientos de la cabeza, formando una población continua. Conforme el animal se mueve, el vector de posición (como si fuera un GPS) de la red de células rejilla, va actualizando la integración de la posición, dirección y velocidad del mapa espacial. Las llamadas células conjuntivas parecen desempeñar un papel clave en este proceso. Estas células se localizan en las capas tercera y quinta de dicha corteza. A los pioneros hallazgos en los años 70 de O´Keefe sobre células de localización espacial en el hipocampo se unen estos otros descubrimientos que, sin duda, han contribuido a nuestra comprensión del mecanismo neurológico de nuestro sistema de orientación y a la justa concesión de un Premio Nobel.

viernes, 19 de septiembre de 2014

Chips neurosinápticos: Dharmendra Modha y el IBM Cognitive Computing team


A comienzos del mes de agosto saltó la noticia de que el equipo de IBM, liderado por el ingeniero hindú Dharmendra Modha, había introducido un chip electrónico-llamado SyNAPSE-, capaz de simular la interacción entre un millón de neuronas con sus correspondientes 256 millones de sinapsis. Un chip que contiene la impresionante cifra de 5,4 billones de transistores, apenas consumiendo 70mW. Esta proeza nos parece que hace palidecer incluso los mejores logros salidos en las últimas décadas de la empresa situada en Armonk, como el famoso supercomputador IBM Watson. Se ha pasado en tres años de programar en un chip poco más de 262.000 sinapsis a los más de 250 millones actuales. Y todo ello con un gasto de energía realmente mínimo si lo comparamos con lo que estamos acostumbrados a ver en supercomputadores. Precisamente, uno de los grandes retos de la última década está siendo el imitar el escaso consumo energético del cerebro. ¿Cómo es posible que un órgano tan intrincado y con tantas funciones consuma apenas 100 vatios? Me refiero, obviamente, a su consumo general comparado con el de los dispositivos mecánicos humanos y no a su gasto relativo al total de energía consumida por el cuerpo humano. Pues bien, para dentro de unos años se espera simular un trillón de sinapsis con un gasto energético de apenas 4kW. ¿Y dónde parece estar el secreto de estos reducidos consumos? Los investigadores de IBM, liderados por Modha, hablan de su intención de crear sistemas inteligentes holísticos en los que se combinen funciones lógicas (propias del hemisferio izquierdo) con funciones perceptivas de reconocimiento de patrones (típicas del hemisferio derecho). En definitiva, sistemas que se acerquen cada vez más al funcionamiento real del cerebro humano. Todo esto está muy bien pero, a día de hoy, no deja de ser algo puramente propagandístico. En realidad, de lo que se trata es de superar la vieja arquitectura de von Neumann. Dicha arquitectura genera chips que trabajan constantemente y que se sobrecalientan limitando el rendimiento del sistema. En cambio, en una arquitectura dirigida por eventos hay partes del sistema que pueden permitirse realizar paradas y así reducir el consumo de energía. Una red dirigida hacia eventos conecta los distintos núcleos del sistema y supera el típico "cuello de botella" característico de la arquitectura de von Neumann. Cuando hablamos de orientación hacia eventos nos referimos a la localización y seguimiento de acontecimientos relevantes para el sistema. Por ejemplo, para una función de visión del sistema, quizá nos interese entrenarlo en la localización de autobuses, automóviles y bicicletas que aparezcan en una escena captada por una cámara de vídeo o por los propios sensores de dicho sistema. Se han mencionado en muchas ocasiones los límites impuestos a la nanotecnología por los propios materiales existentes o por el excesivo consumo de energía pero si en los próximos años se sigue en esta progresión sostenida de miniaturización y de aprovechamiento energético, todavía vamos a ser testigos de muchas sorpresas.

miércoles, 6 de agosto de 2014

Leslie Valiant y la Neurociencia Computacional

Leslie Valiant (1949-) es uno de los más grandes especialistas mundiales en aprendizaje automático y en complejidad computacional. Recipiendario del premio Turing en 2010, no solo está interesado en el estudio del problema de la inclusión estricta entre las clases de complejidad P y NP, sino que también desarrolla interesantes modelos computacionales del cerebro. Sin duda, un testigo muy reciente es su libro divulgativo (http://people.seas.harvard.edu/~valiant/PAC-%20Summary.pdf), que fue publicado por Basic Books en 2012, y en el que explica su concepto de "ecoalgoritmo". En consonancia con los intereses del autor de este blog, me voy a centrar en introducir en este artículo sus ideas sobre la función del hipocampo como distribuidor de neuronas en la corteza cerebral. Como es bien sabido, el hipocampo ejerce un papel fundamental en los procesos memorísticos, pero no fue hasta los artículos de Wickelgren (1979) y de Teyler y DiScenna (1986) que se empezó a atisbar su capacidad de conjuntar items y de actuar como un índice para recuperar la información. Siguiendo el modelo "neuroidal" de Valiant, si se accede a un item durante el procesamiento neuronal, al menos alguna fracción del conjunto de neuronas que acceden al item, debe activarse. En caso contrario, debe activarse una fracción menor de dicho conjunto. Entonces, la función principal del hipocampo será la de identificar el conjunto de neuronas de la corteza para nuevos items que sean conjunciones de items almacenados previamente. Pero, eso sí, el hipocampo habrá de mantener la estabilidad del número de neuronas distribuidas. Si cada item es distribuido de acuerdo con la sintaxis o el sonido de una palabra que lo describa, distribuir tales palabras requeriría un procesamiento menos profundo. En definitiva, los nombres equivaldrían a códigos computados internamente en el hipocampo. Dada una red bipartita con m inputs y n=m outputs, se cree que las neuronas del hipocampo poseen un bajo nivel de actividad, por lo que han de converger a una densidad baja y en pocas capas. Considerando que el flujo de información dentro del hipocampo es muy unidireccional y formando un bucle desde la corteza entorrinal, Valiant realiza una simulación en la que interviene un millón de neuronas conectadas al azar y con unos patrones de activación no correlacionados. De esta manera, logra un modelo computacional del hipocampo que cumple muchas de sus características fisiológicas y funcionales conocidas a día de hoy.

martes, 8 de julio de 2014

Computational Neuroscience and Cognitive Modelling: sobre el libro de Britt Anderson


Editado por SAGE Publications, Britt Anderson (Universidad de Waterloo) ha publicado en 2014 una valiosa introducción a la Neurociencia Computacional y sus técnicas de modelización. El libro consta de 23 capítulos compendiados en poco más de 200 páginas. Los temas abarcan desde modelos neuronales de potenciales de acción hasta sistemas multiagente, pasando por redes artificiales. Empezar con el modelo Hodgkin-Huxley de activación neuronal es quizá muy socorrido y poco didáctico pero confronta al estudiante con el uso de ecuaciones diferenciales. Pero, ¿qué tienen que ver las ecuaciones diferenciales con la programación informática? Bien, el modelo Hodgkin-Huxley consta de cuatro ecuaciones diferenciales no lineales y sirvió de inspiración parcial para el trabajo pionero de McCulloch-Pitts en su diseño de una neurona artificial. Si estás interesado en trabajar en redes neuronales quizá-como sugiere el propio autor-quieras aprender algo sobre MATLAB. Si entiendes algo de su código, estás en condiciones de empezar a programar. Programar no es simplemente usar un código de un lenguaje de programación conocido, pongamos C+ o Python, sino que es compilar e interpretar cualquier fenómeno, indicando claramente los pasos realizados mediante una sintaxis no ambigua; es decir, todos podemos ser programadores utilizando pseudocódigo y sin necesidad de aprender algún tipo de lenguaje especial. Esta es una muy buena manera de animar a entrar al mundo de la simulación computacional a aquellos estudiantes inicialmente intimidados por los lenguajes de programación al uso. Pero el libro de Anderson va mucho más allá e incluso sondea posibilidades muy actuales de aplicar herramientas de simulación, como pueden ser las propiciadas por la arquitectura cognitiva ACT-R o las ofrecidas por la programación multiagente, típica de NetLogo. Los ejemplos de fenómenos psicofísicos modelizados son numerosos e interesantes y van desde un ejercicio de programación del modelo de Hodgkin-Huxley (capítulo sexto) hasta una modelización computacional del movimiento ocular, mediante el NetLogo de Resnick. En definitiva, para sus modestas pretensiones y para estar dirigido a alumnos universitarios, recomendamos este pequeño libro como una herramienta muy interesante para acceder al uso de las simulaciones computacionales en Neurociencia.

jueves, 8 de mayo de 2014

Visita al Hospital Nacional de Parapléjicos en Toledo (Semana Mundial del Cerebro 2014)

Andrea González Guadalix observa a través 
del microscopio
(Fotografía tomada por la profesora Irene García Vera).

El día 13 de marzo de 2014, un grupo de alumnos de Psicología del IES "Francisco Giner de los Ríos" (Alcobendas) acudió al Hospital Nacional de Parapléjicos de Toledo. Organizada la actividad por la Doctora Ksenija Jovanovic, formó parte del programa de la Semana Mundial del Cerebro que dicha Institución viene celebrando en los últimos años. El Hospital Nacional de Parapléjicos (http://www.infomedula.org/index.php?), cuyo director gerente es Francisco Marí, es un referente mundial en el tratamiento e investigación de las lesiones de médula y precisamente en estas fechas cumple los 40 años de existencia. La Fundación DANA (http://www.dana.org/) patrocina esta actividad. Un excelente grupo de profesionales de la Medicina, comandados por la Doctora Jovanovic, tuvo a bien exponer a los alumnos los secretos de su labor investigadora, desde el nivel celular y regenerativo más básico hasta el nivel de las estrategias de recuperación en fisioterapia. En la página 14 del número de abril de la revista oficial del Hospital, "Infomédula", el lector encontrará más información acerca del evento. Para ello bastará con acceder al siguiente enlace: (http://issuu.com/infomedula/docs/infom__dula_29# ).

Participaron los siguientes alumnos: Gemma Bernardo, Isabel Cerro, Ilaria Comanda, Raquel Domínguez, Silvia García, Víctor Gómez, Andrea González, Marina Guillén, Nelson Licot, Katherin Lozano, Noelia Martínez, Eva Morales, Rosario Natividad, Sandra Peces, Joshelyn Quishpe, Beltrán Robledo, Jair Rondón, Adrián San José, Diego Sobrino y Elvira Vegas. Les acompañaron los profesores Irene García Vera y Carlos Pelta.

Agradecemos al equipo médico del Hospital Nacional de Parapléjicos de Toledo su generoso recibimiento y su excelente disposición divulgativa. Agradecemos también a los siguientes profesores del IES "Francisco Giner de los Ríos" (Alcobendas) su apoyo para poder haber participado en esta actividad: Esther Carretero (Departamento de Actividades Extraescolares), María José Cantalapiedra (Jefatura de Estudios), Javier Alija (Jefatura de Estudios) y Ángeles Mercado (Dirección).

domingo, 2 de marzo de 2014

Trazado neuronal mediante virus en la médula espinal: Jovanovic, Pastor y O´Donovan


Desde que G. Ugolini y otros autores de la década de los 90 usaron virus del hérpex y de la rabia como marcadores neuronales, mucho se ha avanzado en esta técnica. No obstante, nunca se había aplicado a la exploración de los circuitos de la médula espinal, algo clave para poder entender la cuestión de la regeneración neuronal en médulas afectadas por traumatismos. En este artículo del blog vamos a intentar explicar la labor pionera en este terreno de los doctores Ksenija Jovanovic, Ángel Pastor y Michael O´Donovan, en un importante artículo publicado hace 4 años: (Jovanovic K, Pastor AM, O’Donovan MJ (2010) The Use of PRV-Bartha to Define Premotor Inputs to Lumbar Motoneurons in the Neonatal Spinal Cord of the Mouse. PLoS ONE 5(7): e11743. doi:10.1371/journal.pone.0011743).

¿Cómo es posible inducir el crecimiento axonal y la reconexión entre neuronas después de una lesión medular? Los trasplantes de glía envolvente parecieron una línea de investigación promisoria para reparar contusiones medulares en ratas. Pero hoy en día se presiente que la ingeniería de biomateriales puede desempeñar un papel clave. En concreto, la conductividad eléctrica de materiales, como el polipirrol y el rutilo, podría evaluar el efecto de la aplicación de campos eléctricos sobre el crecimiento neuronal. No obstante, para poder aplicar estas técnicas con éxito, es imprescindible poder realizar una cartografía de los circuitos neuronales implicados que sea lo más detallada y exhaustiva posible. Los autores analizaron los circuitos que controlan las motoneuronas de las patas traseras en ratones, usando recombinantes fluorescentes del virus Bartha. A través de la propagación entre sinapsis fue posible definir la temporalización de la expansión del virus en la médula espinal de ratones recién nacidos. El número de motoneuronas etiquetadas mediante el virus se mantuvo constante a las 32 horas de haberse iniciado el experimento, no cambiando significativamente con posterioridad. A las 72 horas las motoneuronas mantenían su integridad estructural. El uso de marcadores virales puede ser muy provechoso no solo para vislumbrar la organización de redes neuronales lumbares intactas sino también para evaluar los cambios sufridos por las redes después de un accidente en la médula espinal.

sábado, 1 de febrero de 2014

José María Delgado García


Un gran neurocientífico español, el profesor José María Delgado García, acaba de recibir el premio "Antonio Gallego" de la Sociedad Española de Ciencias Fisiológicas. Merecido premio para este catedrático de Fisiología de la Universidad Pablo de Olavide (Sevilla), puesto que es una de las mayores eminencias de la Neurociencia mundial. Desde hace ya dos décadas sus trabajos sobre aprendizaje y memoria son ejemplo vivo del uso de una metodología simple pero impecable. Tuve la suerte de acudir a una charla suya en la Universidad de Alicante hace casi una década y sentir-como todo el auditorio-la presencia de un auténtico sabio de la disciplina. Muy recientemente, su equipo y el del profesor Hasan han demostrado la imposibilidad de adquirir un aprendizaje asociativo simple en ratones (cierre palpebral al oír un débil sonido antes de soplar aire en la cara) cuando se bloquea la producción de receptores de NMDA en la corteza motora. Pero aún más, dicho bloqueó impidió que los ratones realizaran aprendizajes más complejos como, por ejemplo, la capacidad para apretar una palanca para conseguir comida. Estos resultados tienen como precedente el sensacional resultado que junto a Agnés Gruart y María Dolores Muñoz, le valió la nominación por la revista Science como uno de los diez grandes hallazgos del año 2007. Insertaron electrodos en áreas del hipocampo a ratones, registrando así la actividad de varias miles de conexiones sinápticas. A medida que los ratones aprendían la tarea asociativa simple anteriormente reseñada, registraron los cambios de intensidad entre las sinapsis de las áreas del hipocampo según iban aprendiendo la tarea. Cuando pasaba un tiempo sin que fuera practicada, las sinapsis perdían actividad. Además no había manera de potenciar la activación sináptica de manera forzada o artificial, ya que los receptores se saturaban, desempeñando el NMDA una función clave al respecto.
Sirva esta breve evocación para resaltar el orgullo que debemos sentir por contar en nuestro país-a pesar de las políticas cicateras respecto al desarrollo de la investigación-a investigadores de esta categoría que hacen que nuestra Neurociencia sea valorada a nivel mundial.

jueves, 26 de diciembre de 2013

Detección y control óptico de ataques epilépticos


La epilepsia del lóbulo temporal es la más común entre los adultos. En un artículo aparecido este año en la revista Nature (http://www.nature.com/ncomms/journal/v4/n1/pdf/ncomms2376.pdf), un grupo de científicos del laboratorio de Ivan Soltesz (Universidad de California, Irvine), demuestra cómo inhibir las células excitatorias del lóbulo temporal en un ataque epiléptico promovido en un modelo animal con ratones. Un aspecto muy interesante no solo es la detección de este tipo de ataques en tiempo real sino el hecho de que, por vez primera, parece ponerse de manifiesto que la intervención realizada en una zona espacialmente restringida, da resultados.Usando optogenética, es decir, la combinación de métodos ópticos y de genética para inhibir la sobreexcitación de células del lóbulo temporal, el equipo de Soltesz consiguió controlar los ataques epilépticos en ratones. Las opsinas son proteínas que pueden activarse en respuesta a la luz. Cuando se activan, se abre un poro en la membrana en la que están inmersas y permiten el paso de iones específicos. Al abrirse el canal iónico, es posible la inhibición (potasio) o la excitación (calcio o sodio) de las neuronas. Obviamente, la activación se consigue implantando un cable de fibra óptica en la región del cerebro del organismo que deseemos modular. Conectando esa fibra óptica a una fuente de luz (láser), obtenemos auténticos interruptores neuronales. En concreto, los autores de la investigación emplean una rodopsina ChR2 para excitar las neuronas gabaérgicas y una cloro rodopsina (HR) para inhibir las neuronas afectadas por la crisis espontánea. Aunque menos del cinco por ciento de la población neuronal iluminada recibió el influjo de la intervención del láser, se logró un control muy significativo de dichos ataques. La combinación del control optogenético de poblaciones de células del lóbulo temporal y la detección en tiempo real de las crisis, puede abrir las puertas para futuras terapias muy potentes en el tratamiento de las epilepsias. No es casualidad que en 2012 la revista Nature proclamase este tipo de métodos como los de mayor impacto a medio plazo en el futuro de la Neurociencia.

sábado, 23 de noviembre de 2013

Neurociencia cognitiva computacional


En esta entrada del blog vamos a analizar el que quizá sea el mejor libro de texto disponible en el mercado sobre Neurociencia Cognitiva Computacional. Sus autores son Frank, Munakata, Hazy y O´Reilly, es decir, unos grandes de la Neurociencia Computacional. En concreto, Munakata, O´Reilly y Frank son grandes expertos en proponer diseños de redes neuronales articificiales para modelar los diferentes tipos de memoria y la acción de los neurotransmisores sobre el sistema nervioso central.
El libro consta de nueve capítulos y comienza con una revisión de la estructura computacional de las neuronas, basándose en la función de detección. Su conectividad se plantea a través de representaciones distribuidas consistentes en muchas neuronas individuales concebidas como detectores, cada una de las cuales detecta algo diferente. El patrón agregado de la actividad de salida a través de la población de detectores captura el carácter amorfo y polimorfo de cualquier categoría mental. Con este término, los autores se refieren a la diversidad de factores que configuran una categoría mental, un poco al estilo de las partes de un objeto como podría ser una silla. Una dinámica compleja de atractores realizaría el trabajo restante. 
La cuestión de la plasticidad sináptica encuentra su hueco en el capítulo cuarto. Los autores aplican lo que ellos llaman la regla de aprendizaje de contraste extendido. Basándose en parámetros y constantes de difusión (modelo de Urakubo y otros, 2008) y en entornos de valores no fijados, crean una estrategia de aprendizaje auto-regulativo que aprende del error. 
Las distintas funciones cognitivas superiores son estudiadas en el capítulo quinto: percepción, atención, control motor, memoria, aprendizaje y funciones ejecutivas. No faltan referencias en el capítulo séptimo a los propios trabajos de los autores al análisis de los efectos de la dopamina en el aprendizaje por refuerzo como tampoco al modelo de O´Reilly de activación dinámica de los ganglios basales o al ya clásico modelo de memoria operativa basada en los ganglios basales y en la corteza prefrontal (el modelo PBWM).

Las explicaciones del libro exigen un mínimo de dominio del instrumental matemático pero tampoco podemos decir que sea excesivo. Todo es sugestivo en este libro, desde las ilustraciones hasta los modelos, muchos de ellos muy complejos pero muy bien divulgados. Sinceramente, el autor de este blog piensa que, a día de hoy, no existe mejor manual introductorio a la Neurociencia Computacional, tanto por la ambición del mismo y su calidad divulgativa-que lo hace bastante asequible de leer-como por la gran solvencia intelectual de sus autores.

sábado, 19 de octubre de 2013

Cerebro y Ordenador, de Antonio Orbe

(Antonio Orbe)

Querido lector de este blog, si buscas un libro para introducirte en la Neurociencia, con precisión, honestidad y sin pedanterías, este es tu libro. Te animo a que lo leas. Lo encontrarás en TAGUS, en edición electrónica (http://www.tagusbooks.com/ebook-cerebro-y-ordenador-ebook/9788415623397/2198392), y merece la pena. Cómpralo. Es un libro asumidamente sencillo y divulgativo pero, a poco que lo vayas leyendo entre líneas, te darás cuenta de que conjuga el bagaje de un informático con la sabiduría de un verdadero neurocientífico.
De Antonio Orbe me interesa especialmente su inteligente crítica a aquellos excesos que, en pocas décadas, parecen querer ver ya un cerebro de silicio o virtual que simule el cerebro biológico con gran detalle. Vayamos al parágrafo titulado "¿Cuándo se simulará el cerebro?" y siguientes.  ¿Podrá simularse el cerebro antes de 2050? D. S. Modha-de IBM- considera que en 2019 dispondremos de una máquina con una potencia equivalente a la del córtex del cerebro humano, es decir, de una capacidad de cálculo de un exaflop. Pero, obviamente, si todavía no sabemos cómo funciona el cerebro, ¿qué haríamos con ese supuesto superordenador, tal y como se pregunta Orbe? El caso es que no solo se va a necesitar potencia de cálculo sino también el desarrollo de nuevas teorías en todos los campos que incidan en el conocimiento del cerebro, desde la Genética hasta la propia Filosofía. Algo que, como es natural, es bastante inconcebible que pueda darse en tan solo 10 lustros, por ejemplo. Magnos proyectos, como el recientemente aprobado "Human Brain"-proyecto estrella de la Unión Europea"-son, por supuesto, muy dignos de interés, pero el caso es que todavía las simulaciones neuronales de las que disponemos, son de una extremada simplicidad. No hablemos, pues, de la descomunal complejidad del conectoma. El propio Orbe menciona cómo aún no disponemos de una simulación completa de las 6.418 sinapsis del diminuto C. Elegans. Sin duda, el reto es fascinante y no cabe duda que la conjunción de los esfuerzos de miles de neurocientíficos absolutamente punteros nos va a reportar muchos beneficios en los próximos años, a todos los niveles: desde el desarrollo de potentes algoritmos informáticos hasta el refinamiento increíble de técnicas de visualización y de laboratorio. Pero aún debemos tener paciencia puesto que es tarea para muchas generaciones.
Como ha sido tarea de Orbe el divulgar de una manera rigurosa pero amigable los secretos del porvenir de la Neurociencia. Enhorabuena, Antonio: has logrado el objetivo. Larga vida a tu libro.

Terremotos y actividad cerebral


¿Por qué hasta hace muy poco ha sido ignorada la actividad arrítmica del cerebro? Se consideraba que era una actividad evidente por sí misma pero carente de interés. En cierto sentido, puro ruido. Pero en los últimos años y a raíz sobre todo del artículo de He y colaboradores, arriba citado, se ha encontrado en esta actividad una estructura temporal compleja en forma de dos bandas de frecuencia distintas, siendo la amplitud de una banda dependiente de la fase de la otra (Kayser, Ermentrout, 2010). En concreto, la amplitud del componente más rápido depende de la fase del más lento. Este tipo de acoplamiento se encuentra también durante la ejecución de tareas. El hecho de que los autores encontrasen que se daba este fenómeno, incluso sin oscilaciones prominentes, da a entender que el mismo es relevante hasta para procesos no cerebrales, tales como terremotos, avalanchas o índices bursátiles. Y así lo comprobaron a través del manejo de amplias bases de datos y de simulaciones. Si tal tipo de acoplamiento será dependiente de regularidades estadísticas de un orden superior, es algo que queda por elucidar. El análisis mediante potenciales de campo implica muchos procesos a diferente escala temporal (desde potenciales postsinápticos hasta trenes de ondas, por ejemplo) pero, en cualquier caso, el estudio de los aspectos arrítmicos de la actividad neuronal masiva puede revelarnos muchas claves sobre las patologías cerebrales.

sábado, 21 de septiembre de 2013

Mini cerebros


En el mes de agosto apareció en la prestigiosa revista, "Nature", un artículo en el que Madeline A. Lancaster y su equipo demostraban la creación de un mini cerebro a partir de células madre de la piel. La noticia es, en sí misma, impactante, pero en esta breve referencia nos gustaría intentar situarla en sus verdaderos límites. Ya antes se habían conseguido tejidos asemejando a los de la corteza cerebral y asemejando a una retina humana (Eiraku et al.) pero, sin duda, aquí la clave para conseguir esta estructura parece no haber estado tanto en el gel utilizado para aposentar la misma, como en el sistema para aportar nutrientes y oxígeno, tal y como se puede apreciar en la foto de arriba de Renner. La estructura creció unos 4 milímetros durante 10 meses y, como señala Knoblich, este pequeño tamaño alcanzado pudo deberse a la ausencia de capilares sanguíneos en su interior. Esto nos lleva a plantearnos si en un futuro cercano existirá la posibilidad de mezclar células madre de tejidos diferentes que den lugar a una mayor diferenciación. Se ha comprobado cómo un tejido de la piel ha sido capaz de generar esta microestructura pero necesitamos vasos sanguíneos que la rieguen, que permitan su viabilidad y que, en definitiva, la diferencien. ¿Cómo lograr esto?
Mucho más interesante parece la segunda parte del experimento: el uso de células madre procedentes de la piel de un sujeto con microcefalia. El "cerebro" en cultivo de esta persona creció menos que el "cerebro" generado a partir del tejido de la piel de la persona sin ese problema. Y aquí sí que hay un verdadero filón porque la cuestión no es tanto el modelar tejidos que se autoorganizan a partir de células madre, como el usar tejidos de sujetos con desórdenes neurológicos y seguir el ensamblaje de los mismos, como contrapuestos a la configuración adquirida por los tejidos cultivados de individuos sanos. Así puede seguirse el desarrollo temprano y diferenciado de las células madre neuronales. De hecho, en el experimento relatado se suprimieron las células progenitoras del crecimiento cerebral en el tejido procedente del sujeto con microcefalia.
Más allá de si a medio o largo plazo podemos "fabricar" estructuras anatómicas complejas y diferenciadas como el cerebro u órganos completos como el hígado o el riñón para realizar transplantes, el reto parece estar en la continua necesidad de alimentación de estas estructuras y en lo que también señala el propio Knoblich: en que las señales de crecimiento de los órganos parecen enviarse desde otras partes del cuerpo y, obviamente, no solo desde el interior de los tejidos que se van autoorganizando. En cualquier caso y a pesar de que, como subraya Kriegstein, estamos en los primeros estadios de la investigación, el reto parece fascinante si el proceso de diferenciación y de mantenimiento de las estructuras generadas, se puede controlar de una manera más precisa.

miércoles, 21 de agosto de 2013

El proyecto "Cerebro Humano"


El proyecto "Cerebro Humano" es uno de los dos grandes proyectos "FET Flagships" que han resultado triunfantes en 2013 y que, durante una década, van a marcar el ritmo de investigación en Europa (humanbrainproject). Seis plataformas dedicadas a la Neuroinformática y a la simulación cerebral lo integran. Su gran mentor es Henry Markram, dando así continuidad al precedente proyecto "Blue Brain" que, en España, ha recibido la denominación de "Cajal Blue Brain". Precisamente, de estos dos previos esfuerzos se alimentará la plataforma de Simulación cerebral. Dicha plataforma permitirá reconstruir y simular biológicamente modelos del cerebro que muestren estructuras y conductas emergentes. Desde modelos computacionales abstractos hasta modelos moleculares y celulares, permitirán identificar las arquitecturas neuronales responsables de las diferentes funciones cerebrales y también la localización de enfermedades psiquiátricas. Finalmente, surgirán modelos de múltiple escala y de nivel múltiple tanto del cerebro del ratón como del ser humano. Será precisamente la Universidad Politécnica de Madrid una de las instituciones colíderes del subproyecto de modelización del cerebro del ratón. Un encuentro tendrá lugar en la Escuela Politécnica Federal de Lausana entre los días 6 y 11 de octubre de 2013, para coordinar los esfuerzos de los investigadores y administradores principales del proyecto (http://www.humanbrainproject.eu/hbp-summit-2013-overview).

lunes, 15 de julio de 2013

Rafael Yuste y el proyecto BAM


Apenas hace unos meses que este neurobiólogo madrileño presentó en la Casa Blanca su proyecto para estudiar la actividad cerebral o proyecto BRAIN. El adolescente, que leyó las reglas y consejos de Cajal sobre la investigación científica, es hoy uno de los grandes puntales de la Neurociencia mundial.
Hace más de dos décadas que descubrió cómo la concentración de calcio en el soma de las neuronas refleja adecuadamente el patrón de activación de las células cerebrales y cómo pueden reconstruirse y visualizarse los patrones de poblaciones relativamente grandes de neuronas. Los nuevos métodos de visualización, como la microscopía bifotónica, combinados con el desarrollo de algoritmos cada vez más optimizadores, son, sin duda, pasos muy prometedores para el desarrollo del proyecto BAM ("Brain Activity Mapping"). Este proyecto pretende, a medio plazo, la obtención de un conectoma funcional de todos los circuitos cerebrales, es decir, un mapa global de los patrones y secuencias de activación de todas las neuronas. Algo del estilo del proyecto GENOMA pero, lógicamente, con el añadido de la complejidad que supone la tridimensionalidad de las estructuras cerebrales y los miles de millones de neuronas existentes en un cerebro humano. Hasta ahora, todo lo más que se ha conseguido es el conectoma completo del C. elegans , con sus 302 neuronas y 7.000 conexiones y se ha completado el 20% del conectoma de la Drosophila. Según Yuste y colaboradores, los pasos siguientes podrían ser el conectoma de las células ganglionales de la retina del ratón (unas 50.000 neuronas). Y en una década, podría estar completado todo el conectoma funcional del cerebro de la mosca del vinagre e, incluso, del pez cebra (en torno al millón de neruronas). Pero, a día de hoy o a medio plazo, ¿está capacitada la Ciencia de la Computación como para poder procesar eficientemente toda esta enorme cantidad de datos? Piénsese que apenas 7.000.000 de células corticales de ratón requerirían un procesamiento con una capacidad de almacenamiento de unos 50.000.000.000.000.000 de bits. Yuste es muy dado a expresar la siguiente metáfora de por qué seguimos teniendo un nivel de comprensión de la actividad cerebral que, ni siquiera, se acerca a los conocimientos de un párvulo: es como querer saber de qué va un programa de televisión viendo 2 pixels del mismo en la pantalla...Pero esto no parece un reto invencible puesto que Tianhe-2, el superordenador chino, supera ya una velocidad de cálculo de los 50 petaflops. Otro reto está en el carácter dimensional del cerebro frente a la linealidad de las secuencias genómicas. No obstante, a corto plazo, este inconveniente puede verse superado si el análisis se limita a considerar estructuras cerebrales superficiales (de hasta 2 milímetros de profundidad).
En resumidas cuentas, el proyecto BAM no parece una quimera y los beneficios, al igual de lo que sucede con el proyecto Blue Brain, pueden ser interesantes a medio y largo plazo. Más allá de si se comparte o no el enfoque general de que el modelado preciso de una estructura compleja, como la cerebral, puede llevarnos a un entendimiento holístico de su actividad, tanto para las áreas de la supercomputación, como de la anatomía fisiológica, habrá buenos rendimientos y la inversión habrá merecido la pena. De hecho, como se encargan de recordar Yuste y colaboradores, un proyecto de alcance mucho más limitado-como el GENOMA-ha devuelto ya más de 140 dólares por cada dólar inicialmente invertido. Un buen recordatorio para todos aquellos que tengan una perspectiva demasiado cortoplacista de la Gran Ciencia. Otra cosa mucho más discutible es que se postule, a partir de aquí, la curación, a medio plazo, de enfermedades neurológicas como el Alzheimer o la esquizofrenia, por ejemplo. En cualquier caso, debemos estar orgullosos de que la Neurociencia mundial cuente, ahora mismo, entre sus más ilustres representantes, a coterráneos como Rafael Yuste o Javier DeFelipe. Sin duda, la semilla del gran Ramón y Cajal sigue germinando entre los nuestros.