sábado, 9 de agosto de 2008

Jim McClelland o la muerte de la "boxología"



Lunes, 21 de julio de 2008. Hall 15.2A del imponente International Congress Centrum. 13.45 horas. Decenas de estudiantes tirados en el suelo de la amplísima sala. No pueden verle. Sólo pueden escucharle. Muchos ni habían nacido en la fecha de la publicación del monumental "PDP". Pero le han leído y han escuchado de él. ¿Será la primera y la última vez que muchos lo escuchen? ¿Quién es? Es el Nicolás Copérnico de la Psicología. Es James Jay McClelland.

Cuando se habla de conexionismo hay que pensar antes en la situación de la ciencia de la Psicología hace unas cuantas décadas. Daniel Dennett, en 1993, introdujo un neologismo despectivo, "boxology", para referirse a dicha situación. Un cúmulo de teorías sin apenas base experimental para referirse a múltiples fenómenos (memoria, atención, etc.), a duras penas superpuestos. El término hacía mención a la costumbre en los ambientes académicos de la época a usar y abusar de los diagramas de flujo con cajas para explicar los constructos teóricos elaborados. Aunque, como es obvio, existían precedentes (por ejemplo, el perceptrón de Rosenblatt), la idea de que las funciones cognitivas en general emergían de una actividad de procesamiento distribuído en paralelo de poblaciones neuronales y de que el aprendizaje ocurría a través de la adaptación de conexiones entre neuronas, era verdaderamente rompedora. A partir de aquí comenzaron a surgir modelos conexionistas explícitos. Pero no vamos a realizar aquí una introducción al conexionismo. Ya existen espléndidos manuales introductorios en castellano como el de Hilera y Martínez, "Redes neuronales artificiales" o, en inglés, el de Bechtel y Abrahamsen, "Connectionism and the Mind".
Homenajearemos al profesor estadounidense intentando entrever cómo enfoca el futuro de estos modelos, a raíz de su intervención en Berlín. McClelland espera que los modelos conexionistas relacionados con la representación del conocimiento, el aprendizaje y la memoria ha de tener todavía mayor relevancia en el futuro a través de una mejor comprensión de las distorsiones que acaecen en estos procesos. En este sentido, la teoría de los sistemas complementarios de aprendizaje habrá de establecer una deseada comunicación entre sistemas de aprendizaje basados en conexiones y sistemas de memoria. Para ello habrá de ampliarse el rango de descubrimientos experimentales de tipo cognitivo y comportamental. Es evidente para el autor de la Universidad de Stanford que las áreas cerebrales no funcionan cómo módulos discretos que trabajan independientemente. Pensamiento y percepción, por ejemplo, implican sistemas dinámicos funcionales distribuidos a través de múltiples regiones. Las actividades de las neuronas son mutuamente interdependientes permitiendo una combinación sinérgica de diferentes tipos de influencia que afectan al procesamiento en cada área. Así, la selección atencional implica una sincronización en alta frecuencia de neuronas que transportan información crítica sobre las características del estímulo conductualmente relevante. Los modelos conexionistas habrán de responder a los retos de los datos aportados por la neuroimagen, magnetoterapia y tractografía para lograr buenas simulaciones computacionales.

5 comentarios:

Anónimo dijo...

Me gustaría saber que aplicación terápica en humanos pueden tener los avances en neurociencia computacional.


Un saludo

Carlos Pelta dijo...

Sin lugar a dudas muy numerosos. Los avances más espectaculares se están produciendo en la simulación computacional de errores producidos en pacientes con patologías cerebrales (por ejemplo, enfermedad de Alzheimer-ver autores como Helene Pigot o Bruno Bouchard-). De esta manera, se crean programas de ordenador capaces de anticipar una amplia gama de errores que se producen en los pacientes y así se diseñan hogares inteligentes. Además, este tipo de modelos permiten aplicar terapias de estimulación cerebral: véase, al respecto, el "fitness cognitive program" de Elkhonon Goldberg, que incluye un extenso programa de ordenador de activación cerebral no sólo en enfermos sino también en personas mayores sanas.
Por otro lado, la neurociencia computacional permite modelizar el avance de muchas enfermedades como, por ejemplo, la esquizofrenia, con la oportunidad que eso supone para avanzar en el post-diagnóstico. Incluso, siguiendo el modelo de Wells ("Emotional Disorders and Metacognition") sobre psicopatologías como la depresión o la ansiedad, se está iniciando la construcción de modelos cognitivos para explicar y atenuar estas dolencias (véase Eva Hudlicka).

Gracias.

Anónimo dijo...

Modelizar la esquizofrenia.
Suponiendo que eso llegue a producirse (si no es a través de análisis fenomenológico existenciales, o de psicoterapia aplicada a personas concretas (psicología dinámica o dyalitica), veo más estancamiento que avance.
El hecho, por ejemplo, de que cada vez se refinen más los psicofármacos (que no es más que un intento por paliar los efectos "secundarios") no significa que se avance en el campo de la psiquiatría, de la psicología ni en el origen de ciertas psicopatologías.

Insisto en el carácter de "estancamiento" o "parche".
La neurociencia (desde mi humilde opinión) no explica por qué sino cómo.


El cómo suele confundirse con el por qué, de ahí mi opinión de no creer que suponga un avance (al menos en enfermedades como la esquizofrenia o la depresión) la neurociencia.
¿Atenuarla? Seguro
¿Explicarla? Lo dudo. Los patrones conductuales concretos, el contagio ambiental (familiar, social, económico, cultural histórico) opino, son impredecibles en humanos (espero)
Creo que de ahí mi escepticismo al respecto.

Un saludo

Carlos Pelta dijo...

Es que, en efecto, aparte de ser una tarea casi prometeica, puesto que factores como la interacción entorno-cerebro habrían de ser monitorizados, estamos todavía muy en los inicios. Me explico: en una reunión de Fisiólogos y Neurólogos, acaecida en Alicante en julio de 2007, uno de ellos comentaba (en broma, naturalmente) que era el único de los presentes que había realizado una entrevista a Ramón y Cajal antes de morir. Se refería a que había publicado una especie de entrevista recreada con el Premio Nobel. Y lo que se venía a decir es que, más o menos, podemos conocer los "targets" hacia los cuales se pueden dirigir ciertas sustancias químicas, pero desconocemos absolutamente todo el proceso restante; es decir, nuestro nivel actual de conocimientos casi se acerca a la nada, que siempre es más que la nada total y que siempre es más que la situación de hace 50 años. Hay que seguir en la brecha. No es comparable, pero hace 35 años ni se sospechaba que una úlcera de estómago fuera provocada por una bacteria específica.
Un saludo.

Wesley dijo...

Oh, how I would have been happy to participate in this Congress!
I am one of those who were not even alive when McClelland and Rumelhart published volumes 1 and 2 of the PDP. But more than 20 years later, influenced by my advisor, I found, after much searching, copies of the first edition of the books in a used bookstore in São Paulo. Hooked on the subject, I still print and bind the drafts of the new edition of "Explorations in PDP" that McClelland is rewriting now. Maybe one day I still met him at some conference...