jueves, 26 de diciembre de 2013

Detección y control óptico de ataques epilépticos


La epilepsia del lóbulo temporal es la más común entre los adultos. En un artículo aparecido este año en la revista Nature (http://www.nature.com/ncomms/journal/v4/n1/pdf/ncomms2376.pdf), un grupo de científicos del laboratorio de Ivan Soltesz (Universidad de California, Irvine), demuestra cómo inhibir las células excitatorias del lóbulo temporal en un ataque epiléptico promovido en un modelo animal con ratones. Un aspecto muy interesante no solo es la detección de este tipo de ataques en tiempo real sino el hecho de que, por vez primera, parece ponerse de manifiesto que la intervención realizada en una zona espacialmente restringida, da resultados.Usando optogenética, es decir, la combinación de métodos ópticos y de genética para inhibir la sobreexcitación de células del lóbulo temporal, el equipo de Soltesz consiguió controlar los ataques epilépticos en ratones. Las opsinas son proteínas que pueden activarse en respuesta a la luz. Cuando se activan, se abre un poro en la membrana en la que están inmersas y permiten el paso de iones específicos. Al abrirse el canal iónico, es posible la inhibición (potasio) o la excitación (calcio o sodio) de las neuronas. Obviamente, la activación se consigue implantando un cable de fibra óptica en la región del cerebro del organismo que deseemos modular. Conectando esa fibra óptica a una fuente de luz (láser), obtenemos auténticos interruptores neuronales. En concreto, los autores de la investigación emplean una rodopsina ChR2 para excitar las neuronas gabaérgicas y una cloro rodopsina (HR) para inhibir las neuronas afectadas por la crisis espontánea. Aunque menos del cinco por ciento de la población neuronal iluminada recibió el influjo de la intervención del láser, se logró un control muy significativo de dichos ataques. La combinación del control optogenético de poblaciones de células del lóbulo temporal y la detección en tiempo real de las crisis, puede abrir las puertas para futuras terapias muy potentes en el tratamiento de las epilepsias. No es casualidad que en 2012 la revista Nature proclamase este tipo de métodos como los de mayor impacto a medio plazo en el futuro de la Neurociencia.

sábado, 23 de noviembre de 2013

Neurociencia cognitiva computacional


En esta entrada del blog vamos a analizar el que quizá sea el mejor libro de texto disponible en el mercado sobre Neurociencia Cognitiva Computacional. Sus autores son Frank, Munakata, Hazy y O´Reilly, es decir, unos grandes de la Neurociencia Computacional. En concreto, Munakata, O´Reilly y Frank son grandes expertos en proponer diseños de redes neuronales articificiales para modelar los diferentes tipos de memoria y la acción de los neurotransmisores sobre el sistema nervioso central.
El libro consta de nueve capítulos y comienza con una revisión de la estructura computacional de las neuronas, basándose en la función de detección. Su conectividad se plantea a través de representaciones distribuidas consistentes en muchas neuronas individuales concebidas como detectores, cada una de las cuales detecta algo diferente. El patrón agregado de la actividad de salida a través de la población de detectores captura el carácter amorfo y polimorfo de cualquier categoría mental. Con este término, los autores se refieren a la diversidad de factores que configuran una categoría mental, un poco al estilo de las partes de un objeto como podría ser una silla. Una dinámica compleja de atractores realizaría el trabajo restante. 
La cuestión de la plasticidad sináptica encuentra su hueco en el capítulo cuarto. Los autores aplican lo que ellos llaman la regla de aprendizaje de contraste extendido. Basándose en parámetros y constantes de difusión (modelo de Urakubo y otros, 2008) y en entornos de valores no fijados, crean una estrategia de aprendizaje auto-regulativo que aprende del error. 
Las distintas funciones cognitivas superiores son estudiadas en el capítulo quinto: percepción, atención, control motor, memoria, aprendizaje y funciones ejecutivas. No faltan referencias en el capítulo séptimo a los propios trabajos de los autores al análisis de los efectos de la dopamina en el aprendizaje por refuerzo como tampoco al modelo de O´Reilly de activación dinámica de los ganglios basales o al ya clásico modelo de memoria operativa basada en los ganglios basales y en la corteza prefrontal (el modelo PBWM).

Las explicaciones del libro exigen un mínimo de dominio del instrumental matemático pero tampoco podemos decir que sea excesivo. Todo es sugestivo en este libro, desde las ilustraciones hasta los modelos, muchos de ellos muy complejos pero muy bien divulgados. Sinceramente, el autor de este blog piensa que, a día de hoy, no existe mejor manual introductorio a la Neurociencia Computacional, tanto por la ambición del mismo y su calidad divulgativa-que lo hace bastante asequible de leer-como por la gran solvencia intelectual de sus autores.

sábado, 19 de octubre de 2013

Cerebro y Ordenador, de Antonio Orbe

(Antonio Orbe)

Querido lector de este blog, si buscas un libro para introducirte en la Neurociencia, con precisión, honestidad y sin pedanterías, este es tu libro. Te animo a que lo leas. Lo encontrarás en TAGUS, en edición electrónica (http://www.tagusbooks.com/ebook-cerebro-y-ordenador-ebook/9788415623397/2198392), y merece la pena. Cómpralo. Es un libro asumidamente sencillo y divulgativo pero, a poco que lo vayas leyendo entre líneas, te darás cuenta de que conjuga el bagaje de un informático con la sabiduría de un verdadero neurocientífico.
De Antonio Orbe me interesa especialmente su inteligente crítica a aquellos excesos que, en pocas décadas, parecen querer ver ya un cerebro de silicio o virtual que simule el cerebro biológico con gran detalle. Vayamos al parágrafo titulado "¿Cuándo se simulará el cerebro?" y siguientes.  ¿Podrá simularse el cerebro antes de 2050? D. S. Modha-de IBM- considera que en 2019 dispondremos de una máquina con una potencia equivalente a la del córtex del cerebro humano, es decir, de una capacidad de cálculo de un exaflop. Pero, obviamente, si todavía no sabemos cómo funciona el cerebro, ¿qué haríamos con ese supuesto superordenador, tal y como se pregunta Orbe? El caso es que no solo se va a necesitar potencia de cálculo sino también el desarrollo de nuevas teorías en todos los campos que incidan en el conocimiento del cerebro, desde la Genética hasta la propia Filosofía. Algo que, como es natural, es bastante inconcebible que pueda darse en tan solo 10 lustros, por ejemplo. Magnos proyectos, como el recientemente aprobado "Human Brain"-proyecto estrella de la Unión Europea"-son, por supuesto, muy dignos de interés, pero el caso es que todavía las simulaciones neuronales de las que disponemos, son de una extremada simplicidad. No hablemos, pues, de la descomunal complejidad del conectoma. El propio Orbe menciona cómo aún no disponemos de una simulación completa de las 6.418 sinapsis del diminuto C. Elegans. Sin duda, el reto es fascinante y no cabe duda que la conjunción de los esfuerzos de miles de neurocientíficos absolutamente punteros nos va a reportar muchos beneficios en los próximos años, a todos los niveles: desde el desarrollo de potentes algoritmos informáticos hasta el refinamiento increíble de técnicas de visualización y de laboratorio. Pero aún debemos tener paciencia puesto que es tarea para muchas generaciones.
Como ha sido tarea de Orbe el divulgar de una manera rigurosa pero amigable los secretos del porvenir de la Neurociencia. Enhorabuena, Antonio: has logrado el objetivo. Larga vida a tu libro.

Terremotos y actividad cerebral


¿Por qué hasta hace muy poco ha sido ignorada la actividad arrítmica del cerebro? Se consideraba que era una actividad evidente por sí misma pero carente de interés. En cierto sentido, puro ruido. Pero en los últimos años y a raíz sobre todo del artículo de He y colaboradores, arriba citado, se ha encontrado en esta actividad una estructura temporal compleja en forma de dos bandas de frecuencia distintas, siendo la amplitud de una banda dependiente de la fase de la otra (Kayser, Ermentrout, 2010). En concreto, la amplitud del componente más rápido depende de la fase del más lento. Este tipo de acoplamiento se encuentra también durante la ejecución de tareas. El hecho de que los autores encontrasen que se daba este fenómeno, incluso sin oscilaciones prominentes, da a entender que el mismo es relevante hasta para procesos no cerebrales, tales como terremotos, avalanchas o índices bursátiles. Y así lo comprobaron a través del manejo de amplias bases de datos y de simulaciones. Si tal tipo de acoplamiento será dependiente de regularidades estadísticas de un orden superior, es algo que queda por elucidar. El análisis mediante potenciales de campo implica muchos procesos a diferente escala temporal (desde potenciales postsinápticos hasta trenes de ondas, por ejemplo) pero, en cualquier caso, el estudio de los aspectos arrítmicos de la actividad neuronal masiva puede revelarnos muchas claves sobre las patologías cerebrales.

sábado, 21 de septiembre de 2013

Mini cerebros


En el mes de agosto apareció en la prestigiosa revista, "Nature", un artículo en el que Madeline A. Lancaster y su equipo demostraban la creación de un mini cerebro a partir de células madre de la piel. La noticia es, en sí misma, impactante, pero en esta breve referencia nos gustaría intentar situarla en sus verdaderos límites. Ya antes se habían conseguido tejidos asemejando a los de la corteza cerebral y asemejando a una retina humana (Eiraku et al.) pero, sin duda, aquí la clave para conseguir esta estructura parece no haber estado tanto en el gel utilizado para aposentar la misma, como en el sistema para aportar nutrientes y oxígeno, tal y como se puede apreciar en la foto de arriba de Renner. La estructura creció unos 4 milímetros durante 10 meses y, como señala Knoblich, este pequeño tamaño alcanzado pudo deberse a la ausencia de capilares sanguíneos en su interior. Esto nos lleva a plantearnos si en un futuro cercano existirá la posibilidad de mezclar células madre de tejidos diferentes que den lugar a una mayor diferenciación. Se ha comprobado cómo un tejido de la piel ha sido capaz de generar esta microestructura pero necesitamos vasos sanguíneos que la rieguen, que permitan su viabilidad y que, en definitiva, la diferencien. ¿Cómo lograr esto?
Mucho más interesante parece la segunda parte del experimento: el uso de células madre procedentes de la piel de un sujeto con microcefalia. El "cerebro" en cultivo de esta persona creció menos que el "cerebro" generado a partir del tejido de la piel de la persona sin ese problema. Y aquí sí que hay un verdadero filón porque la cuestión no es tanto el modelar tejidos que se autoorganizan a partir de células madre, como el usar tejidos de sujetos con desórdenes neurológicos y seguir el ensamblaje de los mismos, como contrapuestos a la configuración adquirida por los tejidos cultivados de individuos sanos. Así puede seguirse el desarrollo temprano y diferenciado de las células madre neuronales. De hecho, en el experimento relatado se suprimieron las células progenitoras del crecimiento cerebral en el tejido procedente del sujeto con microcefalia.
Más allá de si a medio o largo plazo podemos "fabricar" estructuras anatómicas complejas y diferenciadas como el cerebro u órganos completos como el hígado o el riñón para realizar transplantes, el reto parece estar en la continua necesidad de alimentación de estas estructuras y en lo que también señala el propio Knoblich: en que las señales de crecimiento de los órganos parecen enviarse desde otras partes del cuerpo y, obviamente, no solo desde el interior de los tejidos que se van autoorganizando. En cualquier caso y a pesar de que, como subraya Kriegstein, estamos en los primeros estadios de la investigación, el reto parece fascinante si el proceso de diferenciación y de mantenimiento de las estructuras generadas, se puede controlar de una manera más precisa.

miércoles, 21 de agosto de 2013

El proyecto "Cerebro Humano"


El proyecto "Cerebro Humano" es uno de los dos grandes proyectos "FET Flagships" que han resultado triunfantes en 2013 y que, durante una década, van a marcar el ritmo de investigación en Europa (humanbrainproject). Seis plataformas dedicadas a la Neuroinformática y a la simulación cerebral lo integran. Su gran mentor es Henry Markram, dando así continuidad al precedente proyecto "Blue Brain" que, en España, ha recibido la denominación de "Cajal Blue Brain". Precisamente, de estos dos previos esfuerzos se alimentará la plataforma de Simulación cerebral. Dicha plataforma permitirá reconstruir y simular biológicamente modelos del cerebro que muestren estructuras y conductas emergentes. Desde modelos computacionales abstractos hasta modelos moleculares y celulares, permitirán identificar las arquitecturas neuronales responsables de las diferentes funciones cerebrales y también la localización de enfermedades psiquiátricas. Finalmente, surgirán modelos de múltiple escala y de nivel múltiple tanto del cerebro del ratón como del ser humano. Será precisamente la Universidad Politécnica de Madrid una de las instituciones colíderes del subproyecto de modelización del cerebro del ratón. Un encuentro tendrá lugar en la Escuela Politécnica Federal de Lausana entre los días 6 y 11 de octubre de 2013, para coordinar los esfuerzos de los investigadores y administradores principales del proyecto (http://www.humanbrainproject.eu/hbp-summit-2013-overview).

lunes, 15 de julio de 2013

Rafael Yuste y el proyecto BAM


Apenas hace unos meses que este neurobiólogo madrileño presentó en la Casa Blanca su proyecto para estudiar la actividad cerebral o proyecto BRAIN. El adolescente, que leyó las reglas y consejos de Cajal sobre la investigación científica, es hoy uno de los grandes puntales de la Neurociencia mundial.
Hace más de dos décadas que descubrió cómo la concentración de calcio en el soma de las neuronas refleja adecuadamente el patrón de activación de las células cerebrales y cómo pueden reconstruirse y visualizarse los patrones de poblaciones relativamente grandes de neuronas. Los nuevos métodos de visualización, como la microscopía bifotónica, combinados con el desarrollo de algoritmos cada vez más optimizadores, son, sin duda, pasos muy prometedores para el desarrollo del proyecto BAM ("Brain Activity Mapping"). Este proyecto pretende, a medio plazo, la obtención de un conectoma funcional de todos los circuitos cerebrales, es decir, un mapa global de los patrones y secuencias de activación de todas las neuronas. Algo del estilo del proyecto GENOMA pero, lógicamente, con el añadido de la complejidad que supone la tridimensionalidad de las estructuras cerebrales y los miles de millones de neuronas existentes en un cerebro humano. Hasta ahora, todo lo más que se ha conseguido es el conectoma completo del C. elegans , con sus 302 neuronas y 7.000 conexiones y se ha completado el 20% del conectoma de la Drosophila. Según Yuste y colaboradores, los pasos siguientes podrían ser el conectoma de las células ganglionales de la retina del ratón (unas 50.000 neuronas). Y en una década, podría estar completado todo el conectoma funcional del cerebro de la mosca del vinagre e, incluso, del pez cebra (en torno al millón de neruronas). Pero, a día de hoy o a medio plazo, ¿está capacitada la Ciencia de la Computación como para poder procesar eficientemente toda esta enorme cantidad de datos? Piénsese que apenas 7.000.000 de células corticales de ratón requerirían un procesamiento con una capacidad de almacenamiento de unos 50.000.000.000.000.000 de bits. Yuste es muy dado a expresar la siguiente metáfora de por qué seguimos teniendo un nivel de comprensión de la actividad cerebral que, ni siquiera, se acerca a los conocimientos de un párvulo: es como querer saber de qué va un programa de televisión viendo 2 pixels del mismo en la pantalla...Pero esto no parece un reto invencible puesto que Tianhe-2, el superordenador chino, supera ya una velocidad de cálculo de los 50 petaflops. Otro reto está en el carácter dimensional del cerebro frente a la linealidad de las secuencias genómicas. No obstante, a corto plazo, este inconveniente puede verse superado si el análisis se limita a considerar estructuras cerebrales superficiales (de hasta 2 milímetros de profundidad).
En resumidas cuentas, el proyecto BAM no parece una quimera y los beneficios, al igual de lo que sucede con el proyecto Blue Brain, pueden ser interesantes a medio y largo plazo. Más allá de si se comparte o no el enfoque general de que el modelado preciso de una estructura compleja, como la cerebral, puede llevarnos a un entendimiento holístico de su actividad, tanto para las áreas de la supercomputación, como de la anatomía fisiológica, habrá buenos rendimientos y la inversión habrá merecido la pena. De hecho, como se encargan de recordar Yuste y colaboradores, un proyecto de alcance mucho más limitado-como el GENOMA-ha devuelto ya más de 140 dólares por cada dólar inicialmente invertido. Un buen recordatorio para todos aquellos que tengan una perspectiva demasiado cortoplacista de la Gran Ciencia. Otra cosa mucho más discutible es que se postule, a partir de aquí, la curación, a medio plazo, de enfermedades neurológicas como el Alzheimer o la esquizofrenia, por ejemplo. En cualquier caso, debemos estar orgullosos de que la Neurociencia mundial cuente, ahora mismo, entre sus más ilustres representantes, a coterráneos como Rafael Yuste o Javier DeFelipe. Sin duda, la semilla del gran Ramón y Cajal sigue germinando entre los nuestros.


sábado, 22 de junio de 2013

La teoría del etiquetado falso y el córtex prefrontal


En este artículo exponemos el nuevo modelo conocido como la teoría del etiquetado falso para el análisis de la función ejecutiva del córtex prefrontal. Este modelo ha sido desarrollado por los profesores Asp, Manzel, Koestner, Denburg y Tranel (véase, por ejemplo, su artículo publicado en "FiN", http://www.frontiersin.org/Neuroscience/10.3389/fnins.2013.00086/abstract).
La teoría del falso etiquetado (en inglés, False Tagging Theory o FTT) es un nuevo modelo de la creencia y del proceso de duda que postula una única función para el córtex prefrontal. Partiendo de que para entender algo hay que creerlo y, siguiendo a Damasio, la FFT afirma que la duda es un proceso que gobierna el córtex prefrontal a través de "falsas etiquetas" afectivas que se adjuntan a las representaciones perceptivas que acaecen en el lóbulo parietal y en el temporal. Cuando el contexto interfiere en la toma de decisiones o surgen numerosos distractores perceptivos, más falso etiquetado es requerido y se reduce la eficacia de los procesos de toma de decisiones. El cerebro está constantemente activando y asociando representaciones perceptuales, pero estas activaciones asociativas son creídas, en el sentido de que generan cogniciones, emociones y conductas consistentes con la activación. A su vez, estas activaciones son almacenadas en el córtex y, en connivencia con el lóbulo temporal y el parietal, van etiquetando "falsamente" diversas funciones psicológicas. Y así, las activaciones prepotentes en exceso, son etiquetadas, a resultas de lo cual, resultan inhibidas. El daño en el córtex prefrontal generará una disminución de las dudas y una mayor aceptación de la nueva información a la que acceda el sujeto. Parece evidente que una actitud escéptica ante el entorno, es mucho más adaptativa para el individuo. Los niños son crédulos y conforme madura su córtex prefrontal van convirtiéndose en escépticos. La teoría FTT se basa en el principio de coherencia, el cual establece que la carencia de cogniciones incompatibles en los niños conduce a la creencia a pies juntillas de las cogniciones, despojadas de cualquier tipo de duda.
Los estudios de neuroimagen parecen confirmar que el córtex prefrontal se activa cuando aparece la duda dando veracidad a esta teoría.

jueves, 2 de mayo de 2013

Gerald Edelman y las funciones superiores del cerebro


Gerald Edelman, premio Nobel de Medicina en 1972, es hoy fundamentalmente conocido por su teoría acerca del origen de la conciencia. Pero en los orígenes de sus indagaciones sobre la responsabilidad de la selección de grupos neuronales en el establecimiento de funciones cerebrales superiores, están sus estudios sobre el sistema inmunológico que propiciaron su concesión del Premio Nobel. La selección clonal es propia de dicho sistema puesto que, como sistema evolutivo que es, es un sistema renovable; es decir, en su primer repertorio siempre son generadas nuevas variantes. En el Sistema Nervioso Central parecen ser las sinapsis los elementos renovables pero lo que sucede es que todavía sigue conociéndose poco acerca de su repertorio original, a diferencia de lo que sucede, por ejemplo, con el sistema inmunológico. Muchas de las predicciones al respecto de Edelman están siendo confirmadas en nuestros días. Y así, desde hace tiempo se sabe que los grupos celulares y no las células simples, son las unidades funcionales a considerar en el estudio de la conciencia. A su vez, la superposición funcional entre axones parece hoy evidente, produciéndose un fenómeno de redundancia que se manifiesta, electrofisiológicamente, en señalizaciones de reentrada, especialmente en grupos neuronales de las zonas talámica-cortical y límbica-reticular. Las señalizaciones de reentrada en fases implican asociaciones en paralelo entre patrones ya almacenados e inputs sensoriales o internos. La conciencia surgiría como el resultado del acceso de grupos neuronales a un rico repertorio de patrones multimodales asociativos, almacenados en la memoria a largo plazo como un resultado de experiencias pasadas.

domingo, 21 de abril de 2013

Vernon Mountcastle y la organización cerebral


Dedicamos la entrada de este mes a glosar alguna de las contribuciones de uno de los gigantes vivos de la Neurociencia, Vernon Mountcastle que, a sus casi 96 años, es un coloso del estudio del cerebro como lo pueda ser un Sherrington. Mountcastle desafió el localizacionismo postulando que el cerebro es un sistema distribuido que sirve a una función distribuida. O, dicho de otro modo y por ejemplo, no hay nada intrínsecamente sensorial en el córtex sensorial, algo que no hay que confundir con la idea de equipotencialidad de Lashley (1949).
La unidad básica operativa en el neocórtex es la organización en columnas. Esto ya fue entrevisto por von Economo y por Lorente de Nó, pero fue Mountcastle (1957) quien inició el estudio de la conectividad cortical intrínseca y extrínseca. Y es que las unidades básicas de la corteza son minicolumnas constituidas por la migración de neuronas desde el epitelio germinal del tubo neuronal a lo largo de las células gliales radiales. Una columna cortical es una unidad de procesamiento complejo distribuido. Es curioso cómo las columnas activas se aíslan funcionalmente de sus vecinas, en un mecanismo llamado "inhibición pericolumnar". Esta inhibición tiende a limitar la expansión lateral de la actividad de los conjuntos de columnas más fuertemente activados por los estímulos locales. Sin embargo, las funciones complejas ejecutadas por estas unidades no están localizadas en alguna de sus partes. Residen en la propia actividad dinámica de tales unidades. Esto explica el porqué las lesiones locales no destruyen totalmente el funcionamiento del sistema sino que más bien lo van degradando.



sábado, 23 de marzo de 2013

La Biblia de la Neurociencia Computacional


Realizamos este mes un somero análisis de la que, sin duda, sigue siendo la fuente obligada de referencia para cualquier estudioso de la Neurociencia Computacional y de las redes neuronales. Se trata del "Handbook of Brain Theory and Neural Networks", editado por Michael A. Arbib en The MIT Press y cuya segunda edición es de 2002. Organizado en más de 250 breves artículos, escriben en él los más prestigiosos especialistas en las diversas materias. Y así, John Barnden introduce a la relación entre Inteligencia artificial y redes neuronales, James Anderson nos habla acerca de redes asociativas, introduciendo alusiones a la Psicología, Paul Werbos nos expone los desarrollos básicos de la propagación hacia atrás de redes, Wang y Blum sobre redes neuronales y sistemas complejos, Widrow y Lehr sobre perceptrones, David Lowe sobre redes radiales o Kenji Doya sobre redes recurrentes. Pero también hay artículos en los que se conecta la biología de los procesos neuronales y su modelización como, por ejemplo, el de Idan Segev sobre procesamiento en las dendritas, el de Crepel y colaboradores sobre el estudio de la plasticidad sináptica en el cerebelo o el de Schüz sobre neuroanatomía y computación. Incluso no faltan referencias filosóficas, como el de Andy Clark sobre Filosofía y Conexionismo. En total, más de 1000 páginas dedicadas al cerebro y su modelización en el que, hasta ahora, es el mayor esfuerzo nunca realizado de síntesis acerca de nuestros conocimientos actuales al respecto. Sirva esta sintética referencia para que el lector de este blog, interesado en la Neurociencia Computacional, acuda a este manual como un auténtico "must be read" en el campo. Sin duda, lo agradecerá.

viernes, 22 de febrero de 2013

Cajal, gimnasia cerebral y UNOBRAIN


En 1892 Ramón y Cajal observó cómo aumentaba la complejidad de las prolongaciones de las células piramidales. Dos años después, Cajal usaba la palabra "plasticidad" para referirse a las expansiones celulares. El aumento de conexiones neuronales sería un mecanismo plástico en respuesta a los estímulos continuados. El ejercicio mental generaría un mayor desarrollo de las dendritas, estableciéndose asociaciones entre ciertos grupos de células que se consolidarían por medio de la multiplicación de las colaterales nerviosas. Pero aún más allá, podrían establecerse conexiones intercelulares nuevas. Nacía así la teoría cajaliana de la gimnasia cerebral: "gracias a un cultivo inteligente, (las células piramidales) pueden multiplicar sus ramas, hundir más lejos sus raíces y producir flores y frutos cada día más exquisitos" (Ramón y Cajal, 1894).
Hace apenas un año, un grupo de jóvenes neuropsicólogos, nutricionistas, médicos y programadores españoles ha lanzado un interesante proyecto que explota estas viejas ideas de nuestro Premio Nobel. Se trata del programa UNOBRAIN (http://www.unobrain.com/).
"Unobrain cuenta con un gimnasio cerebral (UNOBRAINING), con programas personalizados de entrenamiento, compuestos por juegos que trabajan especialmente la atención, la memoria, el lenguaje y la velocidad de procesamiento del usuario. Además, se complementa con un programa de control del estrés (UNOZEN), que ayuda a que el socio controle sus ondas cerebrales mediante el uso de un casco de electroencefalografía y pueda aprovechar los beneficios científicos de la meditación. Por otro lado, el socio dispone de un menú cerebro-saludable (UNOMENU) interactivo que aporta numerosos beneficios al funcionamiento del cerebro; y de un programa de actividad física cardiocerebral (UNOGYM) que mejora las capacidades cognitivas y que maximiza el rendimiento cerebral."
Felicitamos desde aquí a Pilar Barjola, Marisa Fernández, Sonia Encinas, Luis Redondo, Álvaro Redondo, Martin Giacchetta y a todo su equipo por esta brillante idea. Suerte y los mejores deseos.

domingo, 27 de enero de 2013

Interfaz cerebro-ordenador para la manipulación de objetos


Planteamos en esta entrada del blog cómo recientes intentos por demostrar que el uso de técnicas como la Electroencefalografía (EEG) sirven para lograr que sujetos, mediante sus propias señales cerebrales, puedan manipular y transportar objetos, están desenfocados o incluso conllevan mala fe científica. Artículos aparecidos en prestigiosas revistas, como Nature (así  el de Musallam y colaboradores (2004)) o premiados, como el de Rao y otros (2008), publicado en el Journal of Neural Engineering, nos hablan de cómo personas impedidas pueden controlar prótesis o incluso robots humanoides simplemente a través de las señales cerebrales captadas por la EEG. Lo que los autores parecen ocultar o, cuando menos, no quieren darse cuenta de ello, es la influencia de los artefactos en lo que ellos presentan como puras y simples señales transmitidas por el cerebro. Porque la cuestión no reside en la mejora o no del ancho de banda de la señal electroencefalográfica sino en si se está intentando confundir a la comunidad científica. En efecto, ¿es qué movimientos reactivos en las cejas o en la frente de los sujetos, por ejemplo, no cuentan como señales (ruido) recogidas por el ordenador? Veamos.
Usando una respuesta de EEG visualmente evocada y que es producida cuando un objeto al que atiende el usuario cambia repentinamente (por ejemplo, flashes de luz), se elabora un algoritmo que proyecte todos los canales del EEG para formar una serie unitaria que sea máximamente discriminativa. La interfaz con el ordenador implementa parámetros para el procesamiento de datos como, por ejemplo, un filtro de proyección espacial y un clasificador lineal. Y, a continuación, se trata de que las señales recogidas por el EEG se encarguen de controlar un objeto, que puede ser desde un ratón de ordenador hasta un robot humanoide, como en el mencionado artículo de Rao y otros. Prescindiendo de cuestiones como, por ejemplo, la inevitable asincronía entre la intención del usuario y la respuesta del objeto, ¿de verdad las señales tomadas por el electro no van acompañadas del ruido producido por los leves movimientos inconscientes y automáticos generados por el propio usuario? ¿No estaremos confundiendo, como sucede en muchos procesos de detección de señales, señal con ruido?