miércoles, 24 de diciembre de 2008

Sinergética y actividad neuronal


La sinergética o ciencia de la cooperación fue introducida por Hermann Haken, uno de los pioneros en el estudio del láser, en 1970, en una conferencia impartida en la Universidad de Stuttgart. En una interesante entrevista, realizada por Vinzenz Schönfelder y que ha aparecido publicada en el número 33 (Noviembre-Diciembre, 2008) de la revista "Mente y Cerebro", el prestigioso científico alemán comenta que sú ámbito actual de investigación se centra en intentar comprender mejor la actividad de las neuronas a partir de su original perspectiva, basada en el estudio de sistemas auto-organizados.

Observemos la luz emitida por un láser. Lo cierto es que los átomos parecen organizar su propia conducta. Se trata de un ejemplo de cómo un estado físico de desorden se traduce a un movimiento ordenado. El láser exhibe todas las propiedades de una transición de fases, incluyendo fluctuaciones y ruptura de simetrías. Como todos los sistemas biológicos, el láser es un sistema abierto y se configura como un excelente caso de conexión entre el reino de lo inanimado y la naturaleza animada.


Una vez que las células individuales se ensamblan, parece como si existiera una comunicación entre las mismas, a larga distancia. El intercambio de materia puede hacer que el estado de equilibrio entre dos células sea inestable. Es como el estado de una bola situada en la cima de una colina. Si la bola se balancea a la izquierda, la concentración de un tipo particular de moléculas se incrementa en la célula de la izquierda; si a la derecha, la concentración molecular se produciría en la célula de la derecha: tendríamos un perfecto ejemplo de "curva sinergética".
Mucho ha transcurrido desde el concepto de neuronas polarizadas en Ramón y Cajal. Las neuronas ya no se piensa que formen cadenas funcionando como arcos reflejos. También la idea de transmisión por sinapsis química, tal y como fue descrita por Eccles y otros, no es compartida en nuestros días. Según la versión clásica, la transmisión sináptica tiene lugar en la sinapsis, donde la terminal presináptica contacta con la membrana subsináptica de la neurona postsináptica. La hendidura sináptica separa ambas membranas y el neurotransmisor se difunde a través de esta hendidura. Sin embargo, en muchos casos, la neurona no entra en contacto con su objetivo, puesto que agentes endogénicos realizan esta función. Por otro lado, y como señala Susanne Schreiber, no todas las neuronas "computan" de la misma manera. Cada una tiene su estilo de comunicarse con otras neuronas y la clave estaría en interpretar los fenómenos de oscilación sincrónica que tienen lugar en el cerebro. Y aquí es donde la sinergética puede tener mucho que decir. Diferentes y espontáneos ritmos cerebrales desempeñan un importante papel en la plasticidad sináptica. La simulación de la actividad neuroeléctrica mediante circuitos que usen nociones de la sinergética se presenta muy interesante. Por ejemplo, una de tales nociones básicas es la de bifurcación. Dado un punto de equilibrio, una bifurcación consiste en una separación de ese punto fijo de equilibrio, de manera tal que, a partir de ahí, se pueden producir grandes cambios en el sistema. Pues bien, en las neuronas biestables, aquéllas en las que coexisten estados de descanso y de actividad, la excitabilidad parece relacionarse con la existencia de bifurcaciones. El uso de categorías de la sinergética, como "bifurcación", "atractor", efecto de sincronización", "fluctuación"..., será, sin duda, un terreno conceptual en el que se se produzcan avances decisivos en nuestro entendimiento de la actividad neuronal.

domingo, 23 de noviembre de 2008

Psicoanálisis y Neurociencia: ¿a la espera de una nueva revolución?


Quien más, quien menos, conoce de sobra la crítica a la carencia de rigor científico por parte del Psicoanálisis. Desde los clásicos planteamientos verificacionistas hasta el falsacionismo popperiano, se produce un indisputado consenso en torno a la imposibilidad de incluir la teoría iniciada por Freud en el recinto de la Ciencia. Y, sin embargo, últimamente las cosas parecen estar cambiando. ¿Por qué? Porque la Neurociencia más puntera está a la búsqueda de sacar el máximo rendimiento posible al paradigma freudiano. En la última década, se están empezando a trazar los mapas cerebrales que puedan remitir a ciertos conceptos básicos psicoanalíticos como los de Superyo o Ello. Por no hablar de su aplicación al diseño de modelos computacionales y agentes artificiales. Testigo de lo primero son las aportaciones, desde el ámbito de la Neuropsicología, de autores como Solms o Turnbull (véase de ellos, por ejemplo, "The Brain and the Inner World", 2002). Testigo de lo segundo son los trabajos de autores de la Universidad de Viena (por ejemplo, Gruber) que, inspirándose en potentes nociones freudianas, están diseñando modelos computacionales de memoria episódica para agentes artificiales.
¿Estamos ante la antesala de una verdadera revolución, comparable, pongamos por caso, a la introducción de la teoría de los sistemas complejos en los años 50 del siglo pasado o a la emergencia de los estudios sobre Vida Artificial en los años 70, a partir de la teoría de algoritmos genéticos de Holland? O, por el contrario, se tratará de una simple moda, de un simple "bluff", más en la línea de los intentos hace décadas de aplicar la teoría de catástrofes prácticamente a todos los ámbitos. Independientemente de los frutos teóricos y prácticos que puedan perdurar de esta línea de investigación, defendemos en este artículo la necesidad de nuevas perspectivas como ésta, aún cuando las herramientas matemáticas no estén todavía lo suficientemente afinadas como para asegurar su consolidación y perdurabilidad.
Freud fue uno de los primeros autores en afirmar que nuestra vida mental opera de una manera inconsciente y que la conciencia es simplemente una propiedad de una parte de la mente. Muchos científicos cognitivos contemporáneos argumentan que la conciencia tiene una escasa importancia en nuestra vida mental y que muchas de nuestras operaciones mentales son realizadas sin necesidad de la conciencia. Por ejemplo, nosotros podemos recordar inconscientemente a través de la memoria implícita. A partir de 1923 la consciencia no será para Freud un principio fundamental organizador de la mente. Él atribuyó las propiedades asignadas previamente al sistema consciente y preconsciente, al "Ego". Pero sólo una pequeña porción de las actividades del "Ego" era consciente. Su propiedad funcional básica era más la inhibición que la conciencia. En terminología actual, la base del "Ego" sería el control ejecutivo sobre las funciones automáticas de la mente, o lo que Damasio llamaría el "yo autobiográfico". La memoria episódica, que, en definición de Schacter (1996), nos permite recuperar explícitamente las incidencias personales que definen nuestras vidas, es el elemento esencial del "yo autobiográfico". Andreas Gruber, de la Universidad de Viena, ha desarrollado en 2007 un modelo computacional de la memoria episódica, que toma en consideración algunos de los principales conceptos freudianos, en concreto, el de "Ello" y "Yo". Gruber modela la influencia de estímulos internos mediante variables como el nivel de energía, así como los niveles de "impulsos" y "emocionres básicas". Si hay un desequilibrio, los impulsos se ven afectados y pueden iniciar una conducta de búsqueda activa. La toma de decisiones en el bajo nivel es realizada en un módulo de pre-decisión que consta de los módulos de impulsos y emociones básicas. De algún modo, aquí quedaría reflejado el "Ello" de Freud. En cambio, las situaciones percibidas (el "Yo" freudiano) encontrarían cobijo en un módulo de decisión de alto nivel. Las emociones complejas interactuarían con la memoria episódica, buscando situaciones similares a la actual e incluyendo el aspecto emocional.
Es curioso cómo más de 80 años después, la Neurociencia y la Inteligencia Artificial están dirigiendo su mirada hacia el fundador del Psicoanálisis, reverenciado por haber introducido una ruptura esencial en el pensamiento de la humanidad pero, al mismo tiempo, acusado de haber encarnado una metodología acientífica. ¿Nos traerá este siglo una inesperada y fértil síntesis que sitúe definitivamente a uno de los paradigmas más rupturistas en la rigurosa senda de la ciencia?

domingo, 2 de noviembre de 2008

Dunlosky & Metcalfe: "Metacognition"


El libro que comentamos acaba de ser publicado en septiembre de 2008 por la editorial SAGE. Es el primer manual para estudiantes universitarios sobre metacognición y sus autores son dos de los más prestigiosos representantes de este campo. John Dunlosky es profesor en la Universidad de Kent y Janet Metcalfe es, sin duda, junto a Bjorg y Koriat, la autora más reconocida y activa en esta línea de investigación. Janet da clases de Psicología y Neurobiología en la Universidad de Columbia y dirige un laboratorio, el Janet Metcalfe Lab, en el que se están formando los psicólogos jóvenes más prometedores en la materia.
La obra se divide en una Introducción, un resumen histórico y tres secciones. La primera se titula "Basic Metacognitive Judgments" y ahonda en las ilusiones metacognitivas más relevantes, como los juicios de sensación de conocimiento (FOK), los juicios de aprendizaje, los juicios de confianza y los juicios basados en la fuente. Una segunda sección está dedicada a aplicaciones en las declaraciones realizadas por testigos en los tribunales de Justicia y en el ámbito de la educación y, para finalizar, una tercera sección que concierne al desarrollo de las capacidades metacognitivas a lo largo de la ontogenia de los individuos. En total, cerca de 300 páginas muy cuidadosamente editadas, con numerosos esquemas y de lectura muy agradable y didáctica. Destacamos cómo Dunlosky y Metcalfe emplean un sistema de cajas que actúan de recordatorio de las cuestiones principales y que sirven de gran ayuda a los alumnos. Por otro lado, y es digno de agradecer, no dejan de lado la remembranza histórica y van salpicando el texto con imágenes y referencias de los principales autores que han contribuido al desarrollo del área en las últimas tres décadas (Nelson, Flavell, Schneider, Jacoby...)
Una breve introducción, que da paso al capítulo primero, presenta al lector el modelo metacognitivo de Nelson y Narens. Este modelo define una interacción entre el nivel objeto y un número n de metaniveles, a través de un proceso de monitorización dirigido desde el nivel objeto hacia los metaniveles y mediante un proceso inverso de control.
En el capítulo segundo, se pergeña una historia acerca de los orígenes que se remonta desde el poeta Simónides hasta nuestros días, pasando por una extensa referencia al método introspectivo usado por los herederos de Wundt en la escuela de Würzburg. En los años 60 del siglo pasado, John Hart se planteó de una manera rigurosa investigar la validez del método introspectivo mientras que John Flavell inició la Escuela Metacognitiva de Psicología.
El capítulo tercero toma como referencia los estudios sobre metamemoria para introducir al estudiante en los tipos de medidas e interpretación de los datos más comunes en el área, dando paso al capítulo cuarto, en el cual, por fin, nos adentramos en el primer ejemplo clásico de juicios metacognitivos: los juicios de sensación de conocimiento (en inglés, FOK). Son aquellos juicios en los que el sujeto valora, después de haber estudiado o conocido un item, si conoce dicho elemento. Los análisis experimentales revelan que suele darse una sobreestimación del propio conocimiento en la mayoría de los individuos. De agradecer son las alusiones a las bases neurofisiológicas de este tipo de juicios así como las referencias a los métodos empleados por Lynn Reder y sus discípulos. Como sucede en todos los capítulos del libro, esta sección se cierra con una serie de cuestiones y de revisión de conceptos, de gran ayuda para el estudiante (el número es el apropiado y las preguntas son verdaderamente relevantes para calibrar el grado de asimilación producida).
Los juicios de aprendizaje o juicios (JOL) son abordados en el capítulo cinco y generan un verdadero rompecabezas para los estudiosos de la Educación. Consisten en juicios en los que el sujeto valora el grado de aprendizaje que se ha producido en alguna actividad de estudio. Normalmente suelen sobreestimarse y de ahí surgen problemas tales como la cantidad de tiempo dedicada a repasar o la estructuración general del material lectivo. Factores influyentes en el aprendizaje, tales como la corrección inmediata o postergada de errores o el "feedback" continuo, dependen directamente de esta clase de juicios.
Los juicios de confianza ocupan el capítulo seis y un amplio comentario es dedicado por los autores a analizar las teorías sobre la confianza retrospectiva: por aquí pasan el enfoque heurístico de Tversky y Kahneman (1982) y perspectivas de tipo ecológico, destacando el modelo híbrido de Dougherty (2001).
Los juicios basados en la fuente (capítulo séptimo) implican recordar el origen de un recuerdo o de su contexto.
A partir del capítulo ocho encontramos las aplicaciones de la Metacognición, destacando su estudio para analizar el grado de confianza que han de merecer los testimonios presentados en Tribunales de Justicia. Por otro lado, en el ámbito de la Educación las aplicaciones son básicas, como puede apreciarse en el reciente artículo de Metcalfe y Son (2007).
La última parte de esta obra recensionada se dedica a exponer el desarrollo evolutivo de las capacidades metacognitivas, desde la infancia hasta la vejez. Destaca la crítica o, cuando menos, la introducción de matices, a las últimas contribuciones de Smith, Washburn y otros sobre metacognición en animales. Frente a estos autores, Janet, que es la responsable directa de esta parte del libro, cree que todavía no se puede hablar de la confirmación del descubrimiento de verdaderas capacidades metacognitivas en animales superiores.
Ésta es una monografía universitaria y, como bien se ha resaltado por parte de la editorial, es única en su género. Su lectura ha de ser obligada para cualquier estudiante que desee adentrarse en este fascinante tópico y para cualquier estudioso que quiera encontrar una visión compendiada y unitaria, por fin, de un área a menudo excesivamente fragmentada en múltiples subáreas y publicaciones.

domingo, 26 de octubre de 2008

La fascinante evolución computacional del lenguaje


El lenguaje humano es un modo de comunicación, un elemento crucial de nuestra cultura y un objeto que define nuestra identidad social.
Las estucturas lingüísticas consisten de unidades más pequeñas que se agrupan de acuerdo con ciertas reglas. Los fonemas forman sílabas y palabras. Las palabras configuran frases. Y, sin embargo, las reglas para tales agrupamientos no son arbitrarias. Existe una bella correspondencia entre lenguajes, gramáticas y máquinas. El conjunto de todas las gramáticas corresponde al conjunto de todos los ordenadores digitales con memoria infinita y que generan el conjunto de los lenguajes computables. En consecuencia, la mayoría de los lenguajes posee una gramática indecidible para una máquina de Turing.
Un subconjunto de lenguajes decidibles es generado por gramáticas sensibles al contexto. Un subconjunto de aquellos lenguajes puede ser generado por gramáticas libres de contexto y un subconjunto de los lenguajes libres de contexto contiene todos los lenguajes regulares. Un subconjunto de los lenguajes regulares consta de todos los lenguajes finitos. Esta relación entre gramáticas recibe el nombre de jerarquía de Chomsky. Con la introducción de la jerarquía de Chomsky, hubo interés en situar los lenguajes naturales dentro de este esquema. Los lenguajes naturales son infinitos.
Los niños aprenden su lengua nativa escuchando oraciones gramaticales de sus padres o de otras personas. A partir de esta influencia ambiental, los niños construyen una representación interna de la gramática subyacente. Ni los niños ni los adultos son conscientes de las reglas gramaticales que especifican su propio lenguaje. Ya Chomsky indicó que el estímulo ambiental disponible no especifica las reglas gramaticales. La solución propuesta es que los niños aprenden la gramática correcta eligiendo a partir de un conjunto restringido de gramáticas. La teoría de este conjunto restringido es la Gramática Universal. ¿En qué sentido hay una Gramática Universal innata?
El cerebro humano estaría equipado con un algoritmo de aprendizaje que nos capacitaría para aprender ciertos lenguajes. La teoría del aprendizaje sugiere que ha de existir un espacio de búsqueda anterior a los datos, esto es, innato. A veces, se afirma que el argumento para una Gramática Universal innata descansa en una asunción matemática particular que se refiere sólo a la sinraxis y no a la semántica. Pero esto no cambia la necesidad de restricciones innatas. La Gramática Universal evolucionaría a través de presiones selectivas, compitiendo diferentes Gramáticas Universales. Consideremos Gramáticas Universales con el mismo espacio de búsqueda y el mismo procedimiento de aprendizaje, siendo la única diferencia el número de oraciones N de entrada. Esta cantidad es proporcional a la longitud del periodo de aprendizaje. La selección natural lleva a valores intermedios de N: para un N pequeño, la precisión del aprendizaje correspondiente a la Gramática correcta, es demasiado baja; para N grande, el proceso de aprendizaje requiere demasiado tiempo y es muy costoso. Esto explicaría por qué en humanos existe un periodo limitado de adquisición del lenguaje.
Pensemos en Gramáticas Universales que difieran en el tamaño de su espacio de búsqueda n pero que posean el mismo mecanismo de aprendizaje y el mismo valor de N. Existe una presión selectiva para reducir n. Sólo si n está por debajo del entorno de coherencia, puede la Gramática Universal generar comunicación gramatical. Cuanto más pequeño sea n, mayor será la precisión de la adquisición gramatical.
Así pues, debido a que nuestro cerebro evolucionó, la Gramática Universal también es un producto de la evolución y, como tal, sujeto a variabilidad.

sábado, 18 de octubre de 2008

Neurociencia computacional y conductas adictivas



En los últimos años han surgido una serie de modelos computacionales que intentan explicar los mecanismos cerebrales y de conducta que están en el origen de los comportamientos adictivos. Quizá el pionero de este tipo de modelos ha sido David Redish, profesor del Departamento de Neurociencia de la Universidad de Minnesota. Su artículo en Science (2004), titulado "Addiction as a computational process gone awry", significó el punto de partida para la proliferación de modelos en los últimos 4 años, algunos de ellos muy significativos y que, sin duda, van a tener aplicaciones terapéuticas. Redish es un caso curioso de diversificación del talento. Más conocido por su interés en el tema de los mapas cognitivos y células de localización espacial (véase en este mismo blog la entrada sobre O´Keefe y Nadel), lleva unos cuantos años dedicado a aplicar sus descubrimientos sobre los mecanismos cerebrales implicados en la navegación animal al tema de por qué los antagonistas de los opiáceos reducen las respuestas hedónicas. Según Redish y Johnson (2007), hay dos sistemas en el cerebro de los mamíferos: un sistema flexible capaz de tomar decisiones con rapidez pero computacionalmente muy exigente y un sistema inflexible, que puede actuar rápidamente pero muy lento en su desprogramación. El sistema inflexible es un sistema de hábitos que sólo requiere unos limitados recursos computacionales para ponerse en marcha. El sistema flexible requiere reconocer una situación y unos procedimientos para alcanzar un objetivo a partir de la situación. A su vez, evaluará el valor de la consecución del objetivo, que dependerá de las necesidades actuales del agente.
El sistema inflexible implica una simple asociación entre la situación y la acción. La evaluación en este segundo sistema implica una memoria del valor aprendido que asocia la acción con la situación presentada. En el fondo se trata de un mecanismo de aprendizaje por refuerzo, basado en la diferencia temporal.
Los autores mencionados han observado en el conjunto neuronal del hipocampo de ratas, que las elecciones consistentes en avanzar en un laberinto son elecciones de alto coste computacional. Las ratas fueron entrenadas para una tarea de elección en la que tenían que elegir el recibir comida. Las ratas, en la parte inicial de la sesión, tomaban una pausa en aquellas elecciones costosas y mostraban una conducta similar a una conducta vicaria de ensayo y de error.
Para evaluar el valor de esa conducta, el sistema precisa de una señal que reconozca el valor hedónico. Las señales hedónicas son transmitidas por el sistema de señalización de los opiáceos, tal y como es puesto de manifiesto por el efecto de los agonistas y antagonistas de opiáceos. Hay múltiples tipos de receptores de opiáceos en el cerebro de los mamíferos, unos son euforizantes mientras que otros son aversivos. Estos tipos de receptores tienen consecuencias inmediatas para procesos tales como el ansia o deseo intenso. Se trata de una sensación interna que no siempre es reflejada en acciones externas. En términos operacionales, puede definirse como el reconocimiento de que existe un camino a una salida de valor elevado. Esta expectativa sólo puede darse en el sistema de planificación flexible y no en el sistema de hábitos, puesto que el sistema de hábitos no incluye el reconocimiento de la salida esperada. Debido a que el sistema flexible sólo entraña el reconocimiento de que una acción puede conducir a un camino potencial hacia una meta y no entraña un compromiso respecto a la acción, el estado de ansia no va a generar necesariamente una selección para producir acciones. En el sistema de planificación, cuando el hipocampo alcanza una meta que es evaluada como de valor elevado, surgirá un fuerte deseo de conseguir esa meta. Esta sensación de ansia debe también implicar estructuras cerebrales relacionadas con la evaluación de futuras recompensas, tales como el córtex órbitofrontal y el núcleo accumbens.
Los antagonistas competitivos de opiáceos se han usado clínicamente para reducir el ansia. Cuando el componente predictivo del sistema de planificación identifica los medios potenciales de obtener un resultado, el componente evaluativo generará señales de recompensa (opiáceos endógenos), establecindo el valor de aquella salida para propósitos evaluativos: la identificación de un camino que conduce a una recompensa elevada lleva a ansiar aquella recompensa. Bloquear aquellas señales de recompensa reduciría el valor hedónico subjetivo de recibir la misma y también amortiguaría el ansia. Si la señal de recompensa se basa en el sistema de señalización de opiáceos, esto puede explicar el porqué antagonistas de opiáceos tales como la naltrexona pueden reducir la sensación de ansia.

sábado, 11 de octubre de 2008

José Mira: in memoriam


José Mira, director del Departamento de Inteligencia Artificial de la Escuela Técnica Superior de Ingeniería Informática de la UNED, falleció el día 13 de agosto de 2008. Queremos manifestar desde aquí el mayor de nuestros agradecimientos a este verdadero maestro. El profesor Mira se incorporó a la Universidad Nacional de Educación a Distancia en 1989 como Catedrático de Ciencias de la Computación e Inteligencia Artificial, habiendo ejercido previamente la docencia en la Universidad Complutense, en la Universidad de Granada y en la de Santiago de Compostela. En esta última Universidad había recibido la medalla de oro, imagen de nuestro blog que corresponde precisamente a la salida de ese acto institucional.
Muchos de los que, a finales de los años 80, estábamos interesados en la Inteligencia Artificial en nuestro país, teníamos dos referentes: uno, por así decirlo, externo, y el otro interno. El primero era Jaime Carbonell, que ya estaba trabajando en USA, mientras que el segundo era José Mira. Tuve la fortuna de recibir en 1995 su tutela en uno de sus cursos ("Introducción a la Inteligencia Artificial") y así poder entrar en contacto con él. Había sido uno de los introductores en España del enfoque simbólico en Inteligencia Artificial (los "scripts de Schank y, por ejemplo, lenguajes representacionales como KL-ONE) pero también del novedoso planteamiento conexionista de Rumelhart y McClelland. Recuerdo que por aquel entonces yo trabajaba en teoría de situaciones, nada que, por supuesto, tuviera que ver con la Inteligencia Artificial "dura". En parte, mi interés respondía a mi disconformidad con una perspectiva demasiado estrecha en cuanto a su reduccionismo cuantitativo. Tenía la sensación de que podía hacerse cierta justicia a la importancia de la interacción del entorno con el agente, a través de la idea de situación de Jon Barwise. La tremenda maquinaria de difusión del CSLI de la Universidad de Stanford estaba a pleno rendimiento y decenas de libros salían anualmente de las imprentas del Xerox Parc en "Silicon Valley", aplicando dicha idea. Todavía estaban por llegar las aplicaciones más interesantes, como los programas Tarski´s World o Turing World, de Etchemendy, Barwise y su equipo, la cuestión de los diagramas lógicos o los trabajos formales de Wobcke. Paralelamente, Rosenschein y Kaelbling, sin apelar en absoluto a la perspectiva de Barwise, daban los primeros pasos hacia el diseño de autómatas "situados": esto sí que era verdadera Inteligencia Artificial para el profesor Mira. Cuando acudí a comentarle mi trabajo, que versaba sobre canales de flujo de información, en la línea de Jerry Seligman, el profesor Mira, siempre entrañable, siempre extraordinariamente humano, no pudo evitar la media sonrisa del genuino conocedor, de la persona que verdaderamente sabe qué hay que traerse entre manos: "sí, hay formalización, pero ¿todo esto no es demasiado cualitativo?, ¿dónde está lo cuantitativo?" Al final, como no podía ser de otro modo en una persona de tan excelente humanidad, siempre deseosa de ayudar y de que los jóvenes fueran aportando, se llegó a una "entente cordiale", y el trabajo se reencauzó sarisfactoriamente para ambos.
Pero tampoco hay que olvidar al hombre de finísima ironía que, en un reciente curso de verano en Ávila, se reía abiertamente de las eternas preguntas de los periodistas acerca de la posibilidad de "fabricar" seres auténticamente inteligentes: "si tienes la suerte de juntarte con alguien que te quiera mucho y esperas 9 meses", la respuesta será afirmativa.
¿Me equivoco si afirmo que las Unidades Didácticas sobre Inteligencia Artificial (UNED) del profesor Mira están entre las publicaciones más leídas de la materia en castellano, y que su extraordinaria claridad ha abierto los ojos a muchos licenciados de todo el ámbito iberoamericano? Por allí, de manera concisa, accedías al mundo de los lenguajes simbólicos, de la lógica borrosa o de los perceptrones, con una facilidad pasmosa.
Muchas gracias, Profesor. Estarás siempre en el recuerdo y tu excepcional labor no tendrá fin.

viernes, 26 de septiembre de 2008

"Fungus eaters" e Inteligencia Artificial



En 1961, Masanao Toda propuso el desarrollo de sistemas autónomos completos que habían de cambiar el concepto de agente en Inteligencia Artificial. Hasta entonces, la cuestión de la capacidad de supervivencia de agentes virtuales en entornos complejos, hasta cierto punto, comparables a los ambientes propios de los sistemas biológicos, ni siquiera se había dejado entrever. La psicología cognitiva comenzaba a hacer acto de presencia pero se centraba en el manejo de sistemas simbólicos para dar cuenta de las funciones cognitivas tradicionales. La idea de Toda, sin embargo, va a generar un cambio de paradigma en toda regla: se trata de estudiar sistemas completos, esto es, sistemas capaces de comportarse de manera autónoma en un entorno sin intermediación humana, descomponiéndolos en sistemas más simples. Tales sistemas han de incorporar numerosas capacidades, pero lo importante es que, en todo momento, habrán de decidir qué hacer. En el capítulo séptimo de "Man, robot and society" (1982, p. 100 y ss.), Toda plantea el escenario de un agente autónomo, un "fungus eater" solitario, que es enviado a un planeta lejano a aprovisionarse de uranio. Cuanto más recolecta, más recompensa recibirá en forma de un cierto tipo de hongo que crece en el planeta. El agente dispone de un almacén, de sistemas de recolección, de mecanismos de percepción, puede moverse, pero lo esencial es que va tomando decisiones en función de un entorno cambiante. El agente debe ser autónomo porque es demasiado simple como para ser controlado a distancia, por ejemplo, por humanos. De hecho, nadie puede repararlo o alimentarlo externamente. Y en consecuencia, ha de contemplar el mundo bajo su propia perspectiva: su única información disponible surge de la interacción de sus sensores con el entorno. Toda diseña un agente adaptativo que, con el tiempo, dará paso, por un lado, a la idea de Brooks (1991) de robots autónomos adaptativos y, por el otro, a una enorme cantidad de estudios sobre "swarm intelligence" o inteligencia de agentes que simulan la inteligencia social presente en colmenas u hormigueros (ver el libro del mismo título de Bonabeau, Dorigo y Theraulaz, 1999). El camino a la robótica evolutiva también había quedado abierto (véase Nolfi y Floreano, 2000).

sábado, 20 de septiembre de 2008

Joaquín Fuster: un revolucionario de la Neurociencia


Queremos rendir homenaje en este blog al científico barcelonés, Joaquín Fuster, uno de los auténticos genios de la Neurociencia del siglo XX y cuyas contribuciones han recibido el reconocimiento de premios tan prestigiosos, como el "The Goldman-Raki Price for Cognitive Neuroscience" y el "George Miller Prize" en 2007, concedido por la "Cognitive Neuroscience Society". Nos acercaremos al médico catalán a través de un análisis de su obra maestra, "Cortex and Mind", pero el lector interesado en conocer el desarrollo de una carrera que abarca más de medio siglo, haría bien en entrar en su propia página web, http://www.joaquinfuster.com/
En su obra de 1995, "Memory in the Cerebral Cortex", Fuster defendió que la memoria a corto plazo, la memoria operativa y la memoria a largo plazo, comparten las mismas redes corticales. Se trataba de una hipótesis que, de manera fértil, hibridaba sus trabajos de los años 50 y 60 sobre sistemas de activación reticular en el cerebro y su descubrimiento, en la década de los 70, de células especializadas en la función mnemónica en primates.
La gran cuestión es si existe una correspondencia entre el orden mental y el orden de las estructuras y procesos que acaecen en el sistema neuronal del córtex. La sinapsis desempeña un papel esencial en la formación de redes cognitivas. Las representaciones neurocorticales de nuestros entornos internos y externos se construyen, en gran medida, por modulación de contactos entre neuronas. Según Fuster, en las áreas motoras y sensoriales, pueden trazarse anatómicamente una serie de caminos corticales hacia áreas asociativas superiores. Estos caminos se componen de fibras ascendentes y descendentes. Las redes neocorticales para la representación cognitiva se desarrollan en la misma dirección que la conectividad cortical. La intersección de redes en aquellas áreas justificaría la representación multimodal de objetos. Es fascinante cómo las redes cognitivas se auto-organizan por auto-asociación.
La estructura interna del neocórtex revela su uniformidad: consiste de seis capas, cada una con su arquitectura de células y fibras. La percepción consistiría en la activación, a través de los sentidos, de una red cortical posterior que, representaría en su estructura asociativa, un patrón de relaciones, presente en el entorno. ¿Qué decir de la memoria? Las memorias almacenadas son redes corticales. Hay que tener en cuenta que la memoria es fundamentalmente una función asociativa. La formación de las asociaciones entre las poblaciones de células corticales que configuran las redes de memoria, tiene lugar bajo el control funcional de las estructuras límbicas, especialmente el hipocampo. La atención, repetición y la práctica son operaciones cognitivas que trabajan, de manera sinérgica, en el fortalecimiento de las sinapsis que forman las redes de memoria del córtex. Precisamente, la consolidación de una memoria consistirá en la modulación sináptica bajo aquellas operaciones cognitivas. A partir de aquí será necesario incidir en los distintos tipos de memoria (a corto plazo, perceptual, ejecutiva...), pero lo esencial de la tesis de Fuster es que su base fisiológica son redes organizadas jerárquicamente en el córtex. Más aún, todo el córtex cerebral podría ser considerado como una "web" cortical global, en la que cualquier población neuronal estaría conectada, directa o indirectamente, con cualquier otra, y la fuerza de la conectividad entre ellas variaría en términos de conexiones entre fibras y de vínculos sinápticos.
Otras funciones cognitivas, como la atención, el lenguaje y la inteligencia se organizarían en torno a los mismos principios citados, siempre teniendo en cuenta la peculiaridad específica de su base anatómica. Pero el Doctor Fuster va más allá y se atreve a hipotetizar acerca del sentido funcional de la cúspide de la actividad cerebral: la conciencia. La conciencia, entendida como el flujo de conciencia al que se refería William James, consistiría en la activación secuencial, más allá de un cierto umbral, de las redes corticales de las distintas operaciones cognitivas mencionadas. Así pues, hemos desembocado en la culminación del edificio pacientemente construido por Fuster: un enfoque que unifica toda la cognición.
Sirva esta breve referencia para rendir tributo a uno de los neurocientíficos más brillantes del siglo XX, por derecho propio en la senda de un Tanzi o un Cajal.

domingo, 14 de septiembre de 2008

12th Congress of the European Federation of Neurological Societies



Se ha celebrado en Madrid el duodécimo "Congreso de la Federación Europea de Sociedades de Neurología" (23-26 de agosto de 2008). Más de 4.000 participantes, unos 1.800 "abstracts" y 200 bolsas de viaje concedidas a jóvenes neurólogos hablan bien a las claras de la magnitud de este Congreso. Hemos de dar las gracias a todas las personas que han contribuído a su organización pero, en especial, agradecemos el esfuerzo de los Comités locales encabezados por Antonio Gil-Nagel, vicepresidente del Comité del programa y acompañado por Marcelo Berthier y Francisco Javier Grandas. Isabel Illa, como vicepresidenta del Comité de la EFNS y Rosario Luquin, Inmaculada Bonaventura, María Dolores Martínez, Valentín Mateos, Jesús Porta-Etessam y Pedro Jesús Serrano, fueron decisivos para que esta magna reunión llegara a buen término.

El Congreso se abrió con unas palabras de presentación por parte del presidente de la EFNS, Jacques L. De Reuck y comenzó con un curso libre titulado "How do I examine...? Intervino en primer lugar el profesor Gil-Nagel que, una vez más y secundado por su equipo del Hospital Ruber Internacional, demostró su gran categoría como neurólogo, con una muy interesante y cuidada propuesta acerca de cómo distinguir adecuadamente los ataques de epilepsia. Niall Quinn hizo mención a los métodos que está desarrollando en Londres para diagnosticar a los pacientes con la enfermedad de Parkinson e hizo hincapié en algo que, en estos tiempos de avance tecnológico constante, parece habérsenos olvidado: la importancia decisiva de la observación clínica por encima de las mediciones con aparatos. Para finalizar este curso, Michel Clanet se ocupó del diagnóstico temprano en la esclerosis múltiple.

El autor de este blog no es especialista en Neurología Clínica y, por lo tanto, centró su presencia en el Congreso en aquellos cursos y simposios que sí tenían que ver algo con su especialización, esto es, que tocaban más de cerca el lado computacional o que, por su relevancia, generalmente desde un punto de vista histórico, no podían ser obviados.

Destacamos del domingo 24 de agosto una sesión sobre neuro-estimulación para la epilepsia, en la que participaron los profesores Wadman y Boon. El profesor Wadman defendió el potencial de la neuroestimulación para diversas patologías cerebrales. El problema con la epilepsia, sin embargo, es que no es fácil encontrar la mejor localización para realizar la estimulación, por lo que es imprescindible realizar un óptimo protocolo con los pacientes candidatos a recibir esta terapia. Habría que distinguir, por otro lado, entre intervenir durante el comienzo de un ataque epiléptico y reducir crónicamente la excitabilidad del paciente, para así también reducir la probabilidad de la ocurrencia de un ataque. Especialmente interesante es la aplicación de estrategias de "bucle cerrado", esto es, de estrategias en las que el nivel de estimulación sea controlado por el propio estado del cerebro. El profesor Boon propuso la estimulación del nervio vago como un tratamiento alternativo para los pacientes con epilepsia refractaria a los tratamientos convencionales. En la misma mañana del domingo, un grupo de profesores de la Universidad de Palermo, encabezados por el profesor Giglia, mostraban cómo modular el córtex prefrontal dorsolateral mediante estimulación magnética transcraneal repetitiva, misma técnica que Antonio Oliviero exponía por la tarde en relación con el tratamiento de los desórdenes del movimiento. A la misma hora, Barbro B. Johansson analizaba el fascinante tema de la plasticidad cerebral. Según Johansson, el entrenamiento en actividades específicas de la vida diaria, a partir de la primera semana después de haber sufrido daño cerebral, es un factor clave en la rehabilitación. El cerebro tiene una gran capacidad para el procesamiento simultáneo automático. Las lesiones corticales interrumpen las redes que combinan diferentes regiones, y la capacidad para el procesamiento automático de los estímulos de entrada se vé reducida. La representación motórica y cortical de la mano ejerce influencias inhibitorias sobre el córtex motor opuesto, en individuos sanos. Basado en la observación de una actitud muy inhibitoria en aspectos tactiles de los pacientes con infarto cerebral, Johansson hipotetiza que esta anormalidad podría influir de manera adversa en la recuperación motora y usa sistemas de estimulación magnética transcraneal para ayudar a la recuperación.

Como es obvio, las técnicas de neuroimagen ocuparon un lugar destacado en el Congreso, técnicas profusamente empleadas en uno de los temas estrella de la reunión, junto a la epilepsia y la enfermedad de Alzheimer: me refiero a la cuestión de los desórdenes del movimiento y, en concreto, a los desórdenes cuyo foco se sitúa en los ganglios basales. La profesora Daniela Berg, desarrolló, en este sentido, su exposición, el lunes 25 por la mañana. Según la investigadora de Tübingen, para el diagnóstico diferencial de los síndromes Parkinsonianos, las técnicas de SPECT y de PEC presentan muchas limitaciones en el discernimiento entre enfermedad de Parkinson idiopática y enfermedad de Parkinson atípica. En cambio, el uso de TCS sí se ha mostrado útil para diferenciar entre pacientes. No obstante, técnicas MRI especiales, como la imagen tensorial de difusión (DTI) y la volumetría de las diferentes áreas, están llamando a las puertas del diagnóstico. En una línea similar, el grupo de jóvenes neurólogos de Barcelona, capitaneado por Ibarretxe-Bilbao, expuso, usando procedimientos de neuroimagen, la cuestión de la toma de decisiones y el reconocimiento de emociones en enfermos de Parkinson.

En la sesión sobre Neuropsicología Cognitiva del martes día 26 resaltamos el trabajo presentado por el grupo de la Universidad de Ginebra sobre la disociación de la relación semántica y los efectos del lenguaje en el cerebro bilingüe, usando potenciales de eventos. Numerosos estudios revelan efectos de facilitación semántica en respuestas más rápidas a palabras diana, precedidas por estímulos iniciales semánticamente relacionados, frente a estímulos no relacionados semánticamente. En sujetos bilingües se observa además, que la velocidad de respuesta es superior en la primera lengua. Empleando técnicas de electrofisiología, los autores disocian lenguaje y efectos semánticos en el tiempo y en el espacio.

El Congreso se cerró, para el autor de esta crónica, con una fascinante sesión sobre Historia de la Neurología, presidida por el profesor Jesús Porta-Etessam, del Hospital Clínico, y por el profesor Iván Iniesta, del Walton Centre de Liverpool. Iniesta introdujo, de manera muy solvente, la figura de Pedro Laín Entralgo, como gran representante de la Historia de la Medicina de la segunda mitad del siglo XX y como defensor de una visión holística del diagnóstico que incluso se remontaría hasta Hipócrates. Muy relevante fue la intervención de un investigador de tanta valía como es Javier De Felipe, del Instituto Cajal de Madrid. Versó sobre Ramón y Cajal y su famosa metáfora de "las mariposas del alma" para referirse a las células piramidales del cerebro. El profesor De Felipe explicó la descripción realizada por Cajal en 1888 de espinas dendríticas que, otros, como el propio Golgi, habían creído que se debían a ilusiones o artefactos generados por el propio método de tinción del fisiólogo italiano. Dos años más tarde, el médico aragonés describe la presencia de espinas en las neuronas piramidales del córtex de mamíferos, sugiriendo y esto es lo verdaderamente esencial, que eran puntos de contacto para los axones y, en consecuencia, un fundamental elemento de conectividad. Esta circunstancia no pudo ser demostrada hasta dos décadas después de su muerte, al entrar en escena el microscopio electrónico. Más aún, recientes estudios demuestran la gran importancia de estas estructuras para la cognición, dada su alta plasticidad. Podemos hablar, por lo tanto, de un Cajal absolutamente visionario que nos transporta al siglo XXI. Del Cajal que, en el siglo XX, vence las reticencias iniciales, demostrando que el sistema nervioso forma una red estructurada y no una red difusa (como diría Golgi) y que la conectividad neuronal está polarizada de una manera definida, al Cajal que vislumbra la funcionalidad de unas estructuras que, durante décadas, fueron contempladas como estructuras extrañas y quizá afuncionales.

La última presentación correspondió a Alberto Portera, por cuyas manos ha pasado gran parte de la vanguardia de la Neurología española durante el siglo XX. El profesor Portera, siempre entusiasta, siempre enciclopédico y ocurrente, nos presentó un vídeo que nos situaba en el desaparecido Museo Cajal de Madrid.

El Congreso finalizó y un gran esfuerzo quedaba atrás. Os espera Florencia en 2009.

jueves, 4 de septiembre de 2008

"Mathematical models of social evolution"


En nuestra habitual sección de crítica de libros, analizamos el libro "Mathematical models of social evolution", publicado por The University of Chicago Press en 2007 y cuyos autores son Richard McElreath y Robert Boyd. El primero es profesor de Antropología en la Universidad de California, Davis, mientras que el segundo es un prestigioso antropólogo de la Universidad de California, Los Ángeles, y coautor, junto a Peter Richerson, de la obra que quizá sea la biblia en la materia de los procesos culturales evolutivos, "Culture and the Evolutionary Process".

El libro consta de ocho capítulos y cinco apéndices. Un capítulo introductorio da paso a un capítulo en el que se empieza exponiendo el juego del halcón y la paloma, analizando el concepto de estrategias estables contínuas. A continuación, cómo no en una obra sobre modelos de tipo evolutivo, se analiza el dilema del prisionero y la aplicabilidad de la regla de Hamilton. En el capítulo cuarto es analizado el modelo de Axelrod-Hamilton sobre reciprocidad y el capítulo quinto resulta muy novedoso en una obra de estas características, al introducir el aspecto de la comunicación animal a través de la teoría de señales. Los últimos tres capítulos abordan desde el tema de la selección mediante la introducción del formalismo propiciado por la ecuación de Price hasta el tema de la selección sexual y cuestiones de "inclusive fitness", en general. Como es obvio, los apéndices introducen el instrumental matemático necesario para el lector neófito, instrumental que tiene que ver fundamentalmente con distribuciones binomiales y derivadas. Un aspecto muy interesante es que el libro está jalonado de un buen número de ejercicios que garantizan el adecuado aprovechamiento de la lectura y que, al final del mismo, reciben cumplida solución. También es de destacar la existencia de una pequeña pero sustanciosa bibliografía comentada al término de cada capítulo.

En primer lugar hemos de destacar que la mera existencia de una obra de estas características merece ser saludada con verdadera alegría. Desde el clásico de Hofbauer y Sigmund, "Evolutionary Games and Replicator Dynamics", hasta la reciente introducción de Nowak, "Evolutionary Dynamics", existe un buen arsenal de libros acerca de juegos evolutivos y dinámica evolutiva, pero no había sido publicado un manual introductorio como el aquí recensionado. Únicamente debemos achacarle como un elemento en contra que pensamos que su contenido no hace justicia a la amplitud de su título; es decir, la obra hace referencia a modelos matemáticos de evolución social pero se limita a incluir algunos modelos típicos de la Sociobiología, sin recalar, sin embargo, en modelos de auténtica inspiración social, como modelos acerca de rasgos tales como el conformismo, la innovación o la popularidad, por citar unos pocos ejemplos. Pero entremos en el análisis de los contenidos específicos.

Muchos de los modelos formales exigidos por la dinámica evolutiva exigen un análisis de su equilibrio. Los equilibrios son estados en los cuales el sistema logra, por así decirlo, detenerse en su dinámica. Los equilibrios son estables si el sistema retorna a ellos una vez que ha sido perturbado. Pero no todos los equilibrios son estables y, por eso, es interesante buscarlos. Imaginemos una especie en la que parejas de individuos entran en conflicto por algún tipo de recurso y pensemos en un modelo en el que sólo existan dos estrategias: la de halcón y la de paloma. Los halcones siempre pelean y nunca retroceden. Las palomas escapan si son atacadas. Cuando el coste c de perder en una lucha es menor que el valor v de los recursos, los pagos premian el luchar. Cuando las luchas son costosas, los pagos disminuyen. Pues bien, ni halcones ni palomas suponen estrategias evolutivas estables cuando v es menor que c.
La cuestión del altruísmo ocupa el capítulo tercero y es ilustrada mediante el Dilema del Prisionero. El aspecto más novedoso es que los autores apenas dedican espacio a este problema tan clásico, y se centran en explicar cómo el parentesco puede conducir a la evolución del altruísmo o "inclusive fitness". Pero, ¿cómo la selección natural puede llevar a una conducta cooperativa en ausencia de parentesco? Esta es la cuestión conocida como altruísmo recíproco y fue enfocada formalmente en un artículo de 1981 publicado por Axelrod y Hamilton en Science. El rasgo esencial de la reciprocidad es la cooperación contingente. Según los autores, Tit-for-Tat (TFT) es la mejor estrategia de reciprocidad. En ella, en cada serie de interacciones se empieza por cooperar. Y a continuación, cada oponente juega como el otro oponente jugó en la última interacción.

La teoría de juegos enfoca la vida social como si se tratara de un juego gigante ( ver p. 173). No obstante, ¿qué sucede cuando se tiene en cuenta el factor de la comunicación? Por ejemplo, en confrontaciones, si un individuo más fuerte puede convencer a otro, mediante señales, de que perderá la contienda, el más fuerte podrá triunfar sin coste alguno. A este aspecto está dedicado el capítulo cinco. En él se ilustra el proceso de comunicación social a través del juego de Sir Philip Sidney, basado en un cuento británico. Sir Philip Sidney fue cortesano en el periodo de la reina Isabel I. Antes de morir en plena batalla, le entregó su cantimplora a un soldado herido diciendo "la necesidad de aplacar la sed es más grande que la mía", esto es, un inusual ejemplo de altruísmo. El juego propicia analizar el coste de la señal del donante.

El capítulo sexto incluye modelos de selección natural usando la ecuación de Price sobre covarianza genética mientras que el capítulo séptimo se ocupa de la estructura poblacional en función del sexo. El último capítulo de la obra, objeto de comentario, es sobre modelos de selección sexual.
Finalizamos nuestra recensión, recomendando la lectura de este libro a toda aquella persona interesada en la estructura de los modelos formales para el análisis de procesos evolutivos. Si estamos de acuerdo con Alberto Portera en su reciente intervención realizada en el seno del Congreso de la Federación Europea de Sociedades de Neurología, la dinámica cerebral es, en buena medida, equiparable a la dinámica evolutiva social y, por eso, esta obra también interesará a los visitantes de este blog preocupados por cuestiones de Neurociencia.

sábado, 23 de agosto de 2008

Implementation intentions and Artificial Intelligence



In this article I will explain briefly the main conclusions presented by the author of this blog in Berlin ("International Congress of Psychology", 2008). My contribution, in collaboration with Professor Dr. Javier González Marqués (Chair of the Department of Basic Psychology at the Complutense University of Madrid), was entitled "Implementation Intentions and Artificial Agents" and establishes an interesting connection between social cognition in humans employing a particular type of intentions and its simulation and performance by intelligent artificial agents.

An intention is a type of mental state that regulates the transformation of motivational processes in volitional processes. Peter Gollwitzer distinguishes between goal intentions and implementation intentions. Goal intentions act in the strategic level whereas implementation intentions operate in the level of the planning. Goal intentions admit to be formulated by means of the expression "Intend to achieve X!", where X specifies a wished final state. However, implementation intentions can be enunciated like "I intend to do X when situation Y is encountered". This means that in an implementation intention, an anticipated situation or situational cue is linked to a certain goal directed behavior.

We have made a computer simulation that allows to compare the behavior of two artificial agents: both simulate the fulfillment of implementation intentions, but whereas one of them incarnates to A0 agent whose overturned behavior will be something more balanced towards the goal intention to obtain the reward R, A1 agent will reflect a more planning behavior, that is, more oriented towards the avoidance of obstacles and the advantage of the situational cues.

The hypothesis to demonstrate will consist of which, with a slight difference in the programming of both agents, A1 agent not only will yield a superior global performance but that will reach goal R before A0 in a greater number of occasions. This is clearly in consonance with the results of Gollwitzer and collaborators about the superiority to plan in humans the actions by means of implementation intentions as opposed to the mere attempt to execute a goal intention. Gollwitzer and Sheeran (2004) have made a meta-analytical study of the effects exerted by the formulation of implementation intentions in the behavior of achievement of goals on the part of the agents. We set out to transfer the fundamental parameters with humans to A1 agent and to compare results with A0 agent more oriented to the execution of the goal intention to reach R. According to authors (2004, p. 26), the general impact of implementation intentions on the achievement of goals is of d=0.65, based on k=94 tests that implied 8461 participants. An important effect (op. cit., p. 29) was obtained for implementation intentions when the achievement of goals was blocked by adverse contextual influences (d=0.93). The accessibility to the situational cues was of d=0.95. To A1 we have assigned a 65 percent in the achievement of the goal. We have located a difference of 30 points in the achievement of R and according to a difference of percentage in the achievement of R on the part of A0 of 16 points, A0 was assigned a degree of achievement of 81 percent. As for the accessibility of the situational cues L, this one is very high in A1 agent (95) and considering that A1 can add 30 points more than A0, taking advantage of the situations, we have assigned to A0 a percentage of accessibility of the 76 percent. Considering that the degree of avoidance of obstacles S on the part of A1 is very high (93), to A0, we have assigned a difference to it of 19 points, that is to say, of the 74 percent. However, to fall in anyone of places S counts equal reason why it affects to the penalty for both agents.

We give account of the results, once made 5000 trials, with an average of about 48 movements by trial. We have considered the total number of plays, points (average), total resumptions (average), total victories or the number of times that the agent reaches R in the first place, number of situational cues L, number of obstacles S and number of carried out movements. The system of assigned points was:

A0: start: +50: L0-L5: +20; S0-S5: -5; R: +150; D0 (dissuasive agent intercepting the agents A0 and A1): -150; penalty by each movement: -1.

A1: start: +50; L0-L5: +25; S0-S5: -5; R: +120; D0 (dissuasive agent intercepting the agents A0 and A1): -150; penalty by each movement: -1.

The diversity of tasks that the agents have to execute in the board ends up interacting of a dynamic and significant way. This still is appraised with greater forcefulness in the one perhaps that it is the most decisive and surprising result of this exercise of simulation: the one that the most planning agent A1 achieves goal R in a greater percentage of times than A0, when A0 has been programmed to perceive and to accede to R with greater facility.

We believe that our simulation has fulfilled the basic objective of supporting, in the area of Artificial Intelligence, the experimental conclusions with humans, of Gollwitzer and other authors about the superiority of the use of implementation intentions in the goal achievement, against the emphasis located in the execution of the goal intentions. As an obvious result, this task, given its limited nature, has not collected all the possibilities. Thus, the issue of the beginning of goal purpose has not been approached. Neither has the issue of the fact that the agents abandon the purpose of reaching R or that they seek alternative goals. On the other hand, not even the effect on the learning of the task as consequence of successive frustrations has been outlined. It would be interesting, to introduce agents not only based on learning rules but also adaptive agents.

lunes, 11 de agosto de 2008

"The Wisdom Paradox: How Your Mind Can Grow Stronger As Your Brain Grows Older"


Nine months ago I was looking for readings about the damaged frontal lobe. I had read again the masterpiece "Cortex and Mind" by Fuster and "The Executive Brain" by Goldberg. A brilliant neuropsychologist at the "Ramón y Cajal" Hospital of Madrid and also researcher at the Complutense University, Patricia Trigo Cubillo, advised me, via e-mail, to read this book. I confess that I was skeptical for the first moment. Ummm..., ¿this title?, ¿another book about the miraculous effect of the brain stimulation? Voilá, you have suffered a brain injury..., don´t worry, recovery is possible..., but not, the book does not defraud... Let´s see...
This book by the renowned neurologist Elkhonon Goldberg, was published by Gotham (2005).
It is a common prejudice to think that as we age we will increasingly lose brain power. But in "The Wisdom Paradox", Goldberg asserts that in some key ways the brain power actually increases as you age. As we age, we become better identifying patterns in life and situations, that is, we can make better decisions and, the most important, know what to do. The brain develops a vast store of "generic memories" underlying competence and expertise and can compensate for age-related declines. According to Goldberg the brain´s left hemisphere is oriented toward familiar patterns, whereas the right hemisphere focuses on novelty. Whereas the right hemisphere is the novelty hemisphere, "the explorer of the unknown and the uncharted, the left hemisphere is the repository of compressed knowledge, of stable pattern-recognition devices that enable the organism to deal sufficiently and effectively with familiar situations". The right hemisphere is activated when an individual is in the early stages of acquiring new cognitive skills but as that task is mastered, the left hemisphere takes over. In this sense, Goldberg uses a comparison in which there are two bird watchers, one a beginner, one experienced. The beginner "flips through a field guide, shuttling between pages with large silhouettes, birds that undulate as they fly... The experienced bird has synthesized all that data and internalized a signature pattern, while the novice must rely on an external device which can only provide information, not synthesis, and inefficiently at that. The experienced bird watcher responds quickly because she is relying on the accumulated wisdom of "intuition" ". So the left hemisphere becomes increasingly salient over a person´s lifetime. The left cerebral hemisphere is more resilient, and can develop an increasing inner connectivity that pays out in superior ability to solve apparently novel problem with little effort. This sort of practical mastery is what Goldberg means when he speaks of "wisdom". The author defines wisdom by means of several interrelated notions. Whereas talent represents the potential ability to create novel content and genius represents supreme talent, competence represents the ability to relate new challenges to existing skills or knowledge, wisdom represents supreme competence. Genius and talent are associated with youth and wisdom and competence with maturity. The paradox is that wisdom emerges as our body begins its decline. In fact, the brain is shaped by how it is used and it is very important to maintain an active mind as a defense against mental decline. We can actually exercise our brains to enhance their power. Goldberg suggests art as an exercise for the mind. Art provides a form of right hemisphere challenge in informal settings, so that we will be in cognitive shape to tackle similar real problems when they occur. Goldberg outlines a cognitive fitness program for participants in their 60s and 70s, curtailing the negative mental effects of aging. If we are lucky and we train our brains, the kind of mastery described by Goldberg may come to us. And this excellent and practical book might help us to achieve this.

sábado, 9 de agosto de 2008

Jim McClelland o la muerte de la "boxología"



Lunes, 21 de julio de 2008. Hall 15.2A del imponente International Congress Centrum. 13.45 horas. Decenas de estudiantes tirados en el suelo de la amplísima sala. No pueden verle. Sólo pueden escucharle. Muchos ni habían nacido en la fecha de la publicación del monumental "PDP". Pero le han leído y han escuchado de él. ¿Será la primera y la última vez que muchos lo escuchen? ¿Quién es? Es el Nicolás Copérnico de la Psicología. Es James Jay McClelland.

Cuando se habla de conexionismo hay que pensar antes en la situación de la ciencia de la Psicología hace unas cuantas décadas. Daniel Dennett, en 1993, introdujo un neologismo despectivo, "boxology", para referirse a dicha situación. Un cúmulo de teorías sin apenas base experimental para referirse a múltiples fenómenos (memoria, atención, etc.), a duras penas superpuestos. El término hacía mención a la costumbre en los ambientes académicos de la época a usar y abusar de los diagramas de flujo con cajas para explicar los constructos teóricos elaborados. Aunque, como es obvio, existían precedentes (por ejemplo, el perceptrón de Rosenblatt), la idea de que las funciones cognitivas en general emergían de una actividad de procesamiento distribuído en paralelo de poblaciones neuronales y de que el aprendizaje ocurría a través de la adaptación de conexiones entre neuronas, era verdaderamente rompedora. A partir de aquí comenzaron a surgir modelos conexionistas explícitos. Pero no vamos a realizar aquí una introducción al conexionismo. Ya existen espléndidos manuales introductorios en castellano como el de Hilera y Martínez, "Redes neuronales artificiales" o, en inglés, el de Bechtel y Abrahamsen, "Connectionism and the Mind".
Homenajearemos al profesor estadounidense intentando entrever cómo enfoca el futuro de estos modelos, a raíz de su intervención en Berlín. McClelland espera que los modelos conexionistas relacionados con la representación del conocimiento, el aprendizaje y la memoria ha de tener todavía mayor relevancia en el futuro a través de una mejor comprensión de las distorsiones que acaecen en estos procesos. En este sentido, la teoría de los sistemas complementarios de aprendizaje habrá de establecer una deseada comunicación entre sistemas de aprendizaje basados en conexiones y sistemas de memoria. Para ello habrá de ampliarse el rango de descubrimientos experimentales de tipo cognitivo y comportamental. Es evidente para el autor de la Universidad de Stanford que las áreas cerebrales no funcionan cómo módulos discretos que trabajan independientemente. Pensamiento y percepción, por ejemplo, implican sistemas dinámicos funcionales distribuidos a través de múltiples regiones. Las actividades de las neuronas son mutuamente interdependientes permitiendo una combinación sinérgica de diferentes tipos de influencia que afectan al procesamiento en cada área. Así, la selección atencional implica una sincronización en alta frecuencia de neuronas que transportan información crítica sobre las características del estímulo conductualmente relevante. Los modelos conexionistas habrán de responder a los retos de los datos aportados por la neuroimagen, magnetoterapia y tractografía para lograr buenas simulaciones computacionales.

lunes, 4 de agosto de 2008

Simulación para las ciencias sociales



El libro que comentamos hoy apareció originalmente en 1999, en la Open University Press. Nosotros manejaremos la segunda edición al castellano, preparada por Francisco Miguel Quesada para la editorial McGraw-Hill (2006). Nuestra edición procede de la edición revisada de 2004. Gilbert es profesor en la Universidad de Surrey y editor del "Journal of Artificial Societies and Social Simulation", mientras que Troitzsch es profesor de la Universidad de Coblenza-Landau.

La obra consta de diez capítulos y tres apéndices. Como es fácilmente imaginable, se inicia con dos capítulos introductorios para, a partir del tercer capítulo, ir manejando los instrumentos conceptuales e informáticos. Y así, empezamos con las bases para simular la dinámica de sistemas, ilustrada con una breve presentación del lenguaje DYNAMO, que servirá también para informatizar el modelo de Martínez Coll (1986) de "palomas, halcones y burgueses". Se trata de un modelo del estado natural hobbesiano, en el que la paloma nunca trata de hacerse con las posesiones de otros, el halcón, por contra, trata de apoderarse de manera agresiva y el burgués espera a que las posesiones de los demás sean abandonadas. Una extensa y bonita presentación del programa STELLA completa el capítulo. El capítulo cuarto conduce al lector al mundo de los micromodelos y sus subtipos, centrándose en un ejemplo sacado de la reforma tributaria alemana y usando la aplicación informática UMDBS. Es de destacar cómo cada capítulo viene acompañado de una extensa y muy útil reseña bibliográfica comentada. El capítulo cinco deja de lado las modelizaciones de tiempo continuo y presenta las características de los modelos de colas, o modelos estocásticos que dependen de estados anteriores. Todo esto es ilustrado magistralmente mediante una simulación SimLab de los tipos de servidores de un aeropuerto (p. 87 y ss.) A partir del capítulo sexto entramos en los modelos de simulación multinivel o modelos de poblaciones interactuantes. Por usar un ejemplo de los propios autores (ver p. 100), los atributos de una población dependen de los atributos individuales agregados y estos, a su vez, dependen de los atributos de la población. Y así, la distribución por géneros de la población dependerá del número de varones y mujeres mientras que la tasa de mortalidad podrá depender no sólo del tamaño de la población sino también de la distribución por géneros. El entorno de simulación MIMOSE es puesto a prueba en modelizaciones sobre formación de opinión, y nuevamente en el modelo "paloma-halcón-burgués", ya comentado. A continuación, el capítulo siete nos acerca a la teoría evolutiva de juegos a través de los autómatas celulares. Los autómatas celulares modelizan un mundo en el cual el espacio es representado como una cuadrícula uniforme y el tiempo avanza por periodos discretos. El más famoso de entre ellos es, sin duda, el Juego de la Vida de Conway. Este tipo de modelos constituyen hoy por hoy, el terreno de modelización más emergente en las ciencias de la vida y en las ciencias sociales, puesto que permiten investigar los resultados macroscópicos de millones de acontecimientos simples microscópicos: desde la proliferación de células cancerígenas hasta la propagación de epidemias, pasando por fenómenos sociales, como la evolución de poblaciones con diferentes tipos de rasgos individuales (egoístas, altruistas...) En este sentido, recomiendo la lectura del magistral libro de Nowak, "Evolutionary Dynamics" (2006). Quizá quepa reprochar a los autores del libro, objeto de esta recensión, que no hayan situado este capítulo algo más al comienzo de la obra, puesto que la simulación actual de procesos pivota, en gran medida, sobre este tipo de simulaciones. NetLogo, el ya mítico programa diseñado por Papert y SITSIM son los modelos computacionales introducidos. El capítulo ocho también es de gran importancia porque aborda la cuestión de los modelos multi-agente. Estos programas autónomos, capaces de controlar las propias acciones basándose en sus percepciones de su entorno operativo, copan el campo de la Inteligencia Artificial Distribuida y son de rabiosa actualidad. Se agradece que Gilbert y Troitzsch, en una obrita introductoria, comenten cuestiones muy de última hornada, como el diseño de agentes con emociones, reprochándoseles, no obstante, que perseveren en el uso de NetLogo, seguro que por motivos didácticos. Hubiera sido deseable introducir, a modo de ejemplificación, algún sistema más inteligente y planificador, estilo HOMER (véase "An Introduction to Multi-Agent Systems" de Wooldridge). Los modelos presentados (tipo SUGARSCAPE o MANTA) son del estilo "fungus eaters" de Toda, esto es, modelos de bajo nivel. En el capítulo siguiente se sigue en una línea similar, pero incidiendo más en el aspecto de la interacción evolutiva, a través del desarrollo en NetLogo de un modelo de Jager sobre agentes "rudos", "gorrones" y "espectadores". De relevancia es que la parte final va dedicada a presentar brevemente dos arquitecturas cognitivas como SOAR y ACT-R, algo no siempre presente en obras de carácter introductorio. Para finalizar, el libro culmina con una introducción a modelos de redes neuronales, enfocadas a la simulación social, y a los algoritmos genéticos de John Holland.

En conjunto, hemos de decir que, para ser una introducción, la obra reseñada es muy completa, equilibrada y está muy bien actualizada. Las referencias para guiar al lector en futuras lecturas son exhaustivas y, muy importante, aparecen comentadas. En resumidas cuentas, creemos que quizá no exista en castellano un mejor lugar para introducirse al lector neófito en el área de la simulación computacional y felicitamos a la editorial McGraw-Hill por la traducción de la versión revisada de esta obra de dos científicos punteros como Gilbert y Troitzsch.






John O´Keefe y Lynn Nadel: ¿un Premio Nobel a la espera?

John O´Keefe es profesor de Neurociencia Cognitiva en el University College de Londres y trabaja en el Departamento de Anatomía y Biología del Desarrollo. Miembro de la Royal Society y de la Academia de Ciencias Médicas, ha obtenido, entre otros, el premio de la Fundación Feldberg por su trabajo en Medicina y en Biología.

Lynn Nadel dirige el programa de cognición y sistemas neuronales en el Departamento de Psicología de la Universidad de Arizona. Junto a O´Keefe ha obtenido el Premio Grawemeyer de la Universidad de Louisville (2006).

Los dos están en el momento perfecto para recibir el Premio que, sin duda, culminaría una carrera profesional absolutamente brillante. Y en la ponencia invitada de O´Keefe al "XXIX Congreso Internacional de Psicología de Berlín" (ya recensionado en este blog), se pudo ver por qué. Titulada "Cognitive maps in rats and men: 60 years on", situó a la perfección las fuentes de las que ha bebido su obra, desde el primigenio concepto de Tolman hasta los mapas actuales de células del movimiento en ratas y en humanos.

Cualquiera que se interne en los ámbitos de la Neurociencia y Psicología suele tener, casi a la primera de cambio, una cierta sensación de escepticismo. Abundan los modelos abstractos sobre funciones cognitivas y capacidades de procesamiento pero escasean las realidades palpables, esto es, los correlatos cerebrales. De esta forma, se ha extendido una especie de escolástica medieval de facultades del alma que, a través del reciente uso de técnicas de neuroimagen postula-y ese es el problema, simplemente "postula"- una curiosa red de localizaciones cerebrales para casi cualquier función cognitiva que se le pueda ocurrir al lector. ¿Qué necesitamos, localizar el supuesto fundamento neurofisiológico de la sensación de hastío de un individuo que ha querido cruzar una calle y el semáforo se ha puesto en rojo? Voilà, no se preocupe el lector, que las zonas X y Z del cerebro del sujeto han quedado suficientemente activadas.

El trabajo de O´Keefe y Nadel ha logrado lo más difícil: dejar de lado la especulación y trabajar sobre un fundamento neurológico perfectamente localizado y controlable: esto es, el ABC de la metodología científica en cualquier ciencia "dura". Se cumplen 30 años de la publicación del libro , "The Hippocampus as a Cognitive Map". Allí intentan responder a una pregunta aparentemente muy de andar por casa, como todas las grandes preguntas: ¿cómo sabemos dónde estamos espacialmente, es decir, cómo nos orientamos? Los autores identificaron un sistema cerebral de correspondencia cognitiva en la sección del hipocampo del lóbulo temporal que actúa como un sistema interno de posicionamiento global: neuronas de posicionamiento usan datos sobre la distancia y las direcciones para acceder a las localizaciones. Dichas células forman "memorias". 
Un roedor se desplaza en línea recta y se activan sus células piramidales del hipocampo. Cada célula se activa sólo sobre una región específica de la marcha seguida por el roedor. Las áreas celulares activadas se representan en rojo y en amarillo. Ochenta mapas celulares se han activado simultáneamente en el área CA1 del hipocampo al explorar la rata su cajón de arena. Sólo se ha activado un 30 por ciento de las células piramidales en este ambiente, puesto que la rata se ha detenido para buscar alimento. En tamaño relativo más grande, encontramos 6 interneuronas.
Las consecuencias de este descubrimiento son enormes: el propio Nadel ha trabajado sobre sus aplicaciones en pacientes con síndrome de Down, amnesia y fobias. ¿Pueden limitarse los efectos de la amnesia retrógrada? Las lesiones isquémicas producen amnesias retrógradas circuncritas en humanos y el único daño observable se encuentra en la región hipocampal CA1. ¿Cuál es el papel de los neuromoduladores en la función del hipocampo? Estos neuromoduladores pueden estar implicados en cambios en el estado del sistema navegacional. El problema de la navegación espacial y el hipocampo son dominios particularmente útiles para el estudio de los neuromoduladores y sus aplicaciones farmacológicas, debido a que nos aportan una muy buena comprensión de la representación y funcionamiento general de una limitada estructura cerebral. Si un neuromodulador (tal como la serotonina o la dopamina) modifica una representación o una función específica, seremos capaces de identificar el cambio informacional producido y mejor comprender el papel desempeñado por ese neuromodulador; mucho mejor que con los limitados métodos biofísicos hoy utilizados.
Hace poco más de 100 años, Santiago Ramón y Cajal descubrió la estructura más fina del cerebro: "las mariposas del alma", en expresión de Francisco Mora. O´Keefe y Nadel han seguido los pasos del maestro y han descubierto "las mariposas de la orientación espacial".Señores de la Academia Sueca de las Ciencias, ¿verdad que merece la pena aceptar la nominación?

domingo, 3 de agosto de 2008

Neuromoduladores cerebrales y nuevos robots

En 2002, Kenji Doya, profesor del Laboratorio de Neurociencia Computacional ubicado en Okinawa, publicaba un artículo que se iba a desvelar como revolucionario. Se titulaba "Metalearning and Neuromodulation" y proponía una teoría computacional acerca de cómo los principales neuromoduladores cerebrales regulan los mecanismos de aprendizaje en el cerebro humano. Dopamina, serotonina, noradrenalina y acetilcolina, cuatro nombres, cuatro sustancias químicas que regulan el control de la activación general de nuestro cerebro. En este artículo, el investigador lanza una hipótesis de verdadero alcance: si echamos un vistazo a los sistemas actuales de aprendizaje en Inteligencia Artificial y comparamos, nos daremos cuenta enseguida de que los mecanismos de aprendizaje propios del cerebro son mucho más robustos y flexibles. Observemos, por ejemplo, el problema de la tolerancia a las perturbaciones por parte de sistemas inteligentes. En entornos en los que predomina la incertidumbre, los robots actuales (véase, Dean Earl Wright III, "Reengineering MCL"), se muestran sobrepasados en su respuesta ante situaciones cambiantes y no fácilmente predecibles. Pues bien, según el investigador japonés, el cerebro humano posee una excelente capacidad para ajustar dinámicamente sus propios mecanismos de aprendizaje, y en esta tarea, desempeñan un papel esencial los neuromoduladores:

(a) la dopamina representaría la señal que predice las acciones de recompensa y de refuerzo; (b) la serotonina controlaría el balance a corto plazo y a largo plazo de la predicción de la recompensa; (c) la noradrenalina se encargaría de equilibrar el balance entre las actividades de exploración y de ejecución en la tarea y (d) la acetilcolina mediaría en el almacenamiento y recuperación propios de la memoria.

En el contexto del aprendizaje por refuerzo-un marco computacional (Sutton & Barto, 1998) en el que un agente aprende a realizar una acción en respuesta al estado del ambiente, de manera tal que la recompensa adquirida es maximizada a largo plazo-puede formalizarse el planteamiento de Doya. Una función de valores de estado designa la acumulación de la recompensa futura esperada a partir de una determinada política seguida por el agente: el que la política del agente sea de carácter estocástico es algo controlado por un factor llamado de "temperatura inversa" Un factor de descuento es un parámetro que asigna menor peso a la recompensa esperada en el futuro. El error de diferencia temporal (TD) es usado como la señal de error para aprender la función de valores.

Manejando todas estas nociones, la hipótesis de Doya quedaría así:

(a) la dopamina señalaría el error de diferencia temporal,

(b) la serotonina controlaría el factor de descuento,

(c) la noradrenalina se haría cargo de la temperatura inversa y

(d) la acetilcolina controlaría la tasa de aprendizaje.

El artículo de Doya salió publicado el 20 de abril de 2002 y sólo dos meses más tarde veía la luz un artículo de Sporns y Alexander titulado "Neuromodulation and Plasticity in an autonomous robot"; en él los autores dan el primer paso, sugerido por Doya, para simular un robot autónomo. El modelo se basa en los sistemas dopamínico y noradrenalínico. La simulación computacional del modelo incorpora no sólo estímulos de recompensa sino también estímulos aversivos y genera la emergencia de conductas condicionadas de aversión y de recompensa. El aprendizaje del robot en diferentes contextos ambientales suscita cambios en el propio sistema neuromodulatorio.

¿Alguien da más?

martes, 29 de julio de 2008

Más sobre el Congreso de Berlín



Del lunes día 21 destacamos, en primer lugar, la aportación de Pengyun Gao a la sesión sobre "Aspectos sociales de la cognición". El profesor Gao presentó un interesante modelo computacional sobre diagnóstico cognitivo. Una hora después y en el simposio sobre "Modelos computacionales de la memoria episódica (I)", el profesor Eddy Davelaar realizó una fantástica incursión computacional en el tema de la supresión de respuestas en el recuerdo libre. Conocía alguna aportación conjunta de Davelaar con algún peso pesado del estudio computacional de la memoria como el propio Botvinick, pero nunca le había visto intervenir en público, y puedo dar fe que fue de lo mejor que pude presenciar en el Congreso: claridad, lucidez y convicción absolutas. A la misma hora y, obviamente no pude acudir, el profesor Vogel exponía un modelo neuronal sobre la memoria a corto plazo concebida como índice de control atencional. Éste fue un aspecto muy interesante que se pudo detectar en un buen número de contribuciones a lo largo de la semana: cómo el modelo clásico de la "working memory" de Baddeley va dando paso a una idea de la memoria operativa ligada a un proceso de retención multisistema y no a un "buffer" especial. En este sentido, fue muy llamativa la intervención de Nikolai Axmacher el martes sobre una caracterización neuronal de la "working memory" de múltiples elementos. En esa misma sesión, Judit Mate presentó sus experimentos sobre reconocimiento visual de similaridad de formas y Javier González Marqués, de la Universidad Complutense de Madrid, el trabajo conjunto con Raquel Rodríguez sobre el declive de la memoria operativa con la edad. Raquel no pudo acudir pero este trabajo despertó un enorme interés y una verdadera cascada de preguntas dirigidas hacia el profesor González Marqués.

El plato fuerte del lunes tuvo lugar a partir de las 11.30 h. En el simposio sobre "Cognición a lo largo de la vida y modelización neuronal", Kim Cornish, Monica Luciana, Lars Bäckman, Hauke Heekeren y Michael Frank lanzaron sus ideas acerca de la neuromodulación del sistema dopaminérgico. Este es un tema fascinante que interesa mucho al autor de este blog. Siguiendo contribuciones seminales como las de Kenji Doya, de la Universidad de Okinawa, pienso que es factible diseñar agentes artificiales que, ajustando parámetros de los principales neuromoduladores cerebrales, nos pueden permitir diseñar agentes artificiales que, usando la técnica del aprendizaje por refuerzo, sean más efectivos e "inteligentes" que los típicos agentes planificadores del paradigma BDI ("Belief, Desire, Intention") de Bratman y colegas. En fin, es algo que habría que analizar con detenimiento y que en este blog intentaremos abordar. Para los interesados en funciones del lóbulo frontal, y en paralelo, John Duncan hablaba de los mecanismos de la conducta inteligente basados en esta importante estructura cerebral. No pude acudir: una pena. También a la misma hora, y bajo la dirección de José Barroso, nuestros compatriotas David Bartres-Faz, Lorena Rami y Rut Correia introducían estudios de neuroimagen en procesos neurodegenerativos.

La mañana finalizaba con un merecido homenaje a Jim McClelland en el Hall 15.2 A. Arthur Jacobs lo describió como el hombre que había cambiado su vida. Y es que, en efecto, hay un antes y después de Jim y de sus redes neuronales. El Hall estaba abarrotado, fue precioso ver a decenas de estudiantes tirados en el suelo, yo mismo tuve que sentarme en el suelo y a duras penas podía ver sus diapositivas de Power Point. El tema de su charla quizá era lo de menos: fue sobre la memoria concebida como sistemas de aprendizaje complementario que cooperan. Nada nuevo bajo el Sol: esto lo viene contando desde mediados de los años 90. Pero Jim estaba ahí, emocionado, sin su inseparable Rumelhart ya a su lado, con una chaqueta marrón, con su tono de voz siempre sólido. Siempre brillante, siempre lúcido, siempre Jim. Y nosotros escuchando y frotándonos los ojos porque quizá era la última vez que veíamos públicamente a nuestro Dios...

Al caer de la tarde, tenía lugar la segunda sesión de "Computational models of episodic memory", destacando la intervención de la excelente investigadora norteamericana, Lynne Reder. Lynne siguió insistiendo en la necesidad de manejar modelos duales de procesos (memoria implícita-memoria explícita) para, en este caso, dar cuenta del problema de la recolección espuria de datos por parte de los sujetos. Previamente, Klaus Oberauer había repasado modelos procesuales para el reconocimiento de información a corto plazo.

El miércoles se abría con un simposio sobre modelos computacionales de la toma de decisiones. Presidido por David Shanks, destacaremos la aportación de Rafal Bogacz en torno al proceso seguido por el circuito ganglio-basal a la ahora de adoptar decisiones óptimas. El neuropsicólogo, actualmente afincado en el Reino Unido, está desarrollando trabajos muy serios acerca de la aplicación de la teoría del aprendizaje por refuerzo a juegos de decisión, esto es, en el terreno de la neuroeconomía. En una sesión paralela, Matthew Botvinick, presentaba sus últimas ideas sobre monitorización de los conflictos. Por la tarde, el autor de este blog, interesado en establecer puentes entre Psicología e Inteligencia Artificial, presentaba un trabajo titulado "Implementation intentions and artificial agents"; en él comentaba el diseño de una simulación por ordenador que, basada en la idea de intención de implementación como instrumento auto-regulador de la conducta (Peter Gollwitzer), pretendía verificar computacionalmente los excelentes resultados conseguidos en humanos. A su vez, la profesora Jessica Kwong, nos introducía a un fascinante trabajo computacional sobre percepción de formas.

Cerró la jornada un importante trabajo del profesor Jennings (Universidad de Berkeley) sobre un buscador de redes para analizar la estructura de la memoria.

El jueves se inauguró con un interesante simposio sobre las bases neuronales de la memoria autobiográfica. La profesora Hana Burianova introdujo una modelización de red neuronal en la que comparaba la función de la memoria semántica con la memoria episódica. Este tema es de gran relevancia en la actualidad, puesto que aparece como un horizonte fundamental en las investigaciones sobre la memoria, el delimitar el funcionamiento y la interacción de ambas clases de memoria. Por la mañana, destacamos también una muy constructiva sesión sobre aprendizaje mediante ordenador.

La última jornada del Congreso tuvo lugar el viernes día 25. Destacamos de ella un simposio sobre procedimientos de evaluación en el que Thibaud Latour presentó TAO, una nueva plataforma de evaluación neurocognitiva por ordenador, abierta y muy versátil. Por la tarde, un simposio sobre la comunicación entre cerebro y ordenadores, introducido por Christa Neuper, puso broche final a las intervenciones del Congreso que más directamente conectaban Neurociencia y Computación.

Para finalizar esta reseña, queda resaltar la formidable organización de este verdadero evento de la Psicología Mundial, por lo que no cabe más que felicitar a nuestros colegas alemanes. Enhorabuena. Y deciros a todos, que nos espera Ciudad del Cabo (Sudáfrica) en el verano de 2012. Animáos y un saludo a todos.



Neurociencia computacional en Berlín



Entre los días 20-25 de julio se ha celebrado en el ICC de Berlín el "XXIX Congreso Internacional de Psicología". Es un magno evento que tiene lugar cada cuatro años y que, en esta edición, ha reunido a más de ocho mil especialistas en Psicología de más de cien países. Al final de mi intervención, el miércoles día 23, Kyle Jennings, de la Universidad de Berkeley, me comentaba que, esta vez, el número de contribuciones dedicadas a la simulación computacional de procesos cognitivos, no había sido especialmente relevante. Kyle, siempre con un agudo sentido del humor, bromeaba acerca de la representatividad de la cognición social y de la ciencia computacional en este congreso y que allí un stand del "International Journal of Artificial Societies and Social Simulation", habría cerrado al segundo día de inaugurarse el Congreso. No obstante, analizaremos en este blog algunas de las aportaciones, que las hubo y que, en algunos casos, fueron excelentes.