jueves, 22 de diciembre de 2011

Una simulación computacional de las leyes de imitación de Gabriel Tarde

(Dilema del prisionero espacial para b=1,6)
En este último artículo del año en nuestro blog, vamos a exponer el diseño de un juego basado en el dilema del prisionero espacial que introduce las tres leyes de imitación social expuestas por el psicólogo francés Jean Gabriel Tarde, en su obra "Las leyes de la imitación" (1890). Esta simulación computacional fue presentada por el autor de este blog en el "2011 Meeting of the European Mathematical Psychology Group", celebrado en París en el mes de agosto de este año que finaliza.
La primera ley o ley del contacto cercano (LCC) describe cómo los individuos que están en estrecho contacto imitan su conducta entre sí. La segunda ley de imitación o imitación de los superiores por los inferiores (LSI) establece cómo prima el modelo del estatus superior en la conducta imitativa de aquellos que buscan las recompensas asociadas a la pertenencia a una clase más alta. La tercera ley de Tarde es la ley de inserción (LDI): nuevos actos y conductas se imponen sobre los antiguos y los refuerzan o debilitan. Para simular las reglas mencionadas, introducimos (1) una regla conformista (CONF) que modela la regla (LCC): si tu conducta es distinta de la del agente vecino, copia su conducta; (2) una regla de maximización (MAXI) para la ley (LSI): si el agente vecino obtiene mayores pagos, copia su conducta; (3) regla de la moda (MOD): copia la conducta con la mayor frecuencia de aparición en tu entorno (copia al azar, en caso de igual frecuencia); (4) regla (SNOB): copia la conducta con la menor frecuencia de aparición en tu vecindad (copia al azar si se da igual frecuencia). Las reglas (3) y (4) simulan la ley (LDI), alternando la copia de la última elección realizada con la regla (3) y la copia realizada mediante la regla (4). Los agentes tienen memoria para estas dos reglas, memoria que abarca las tres rondas previas del juego.
Hibridamos estas reglas con las propias de un dilema del prisionero espacial y combinamos todos los posibles valores de b entre 1 y 1,9, con una distribución inicial de cooperadores entre 0,1 y 0,9, una memoria M entre 1 y 9 rondas para las reglas (3) y (4) y un número variable N de agentes y de rondas del juego. Concluimos que en nuestro juego, las leyes de imitación de Tarde generan un atractor preferencial y una baja proporción de agentes cooperativos. Aunque hemos introducido dos reglas de naturaleza estocástica (3 y 4), su efecto es neutralizado por la propia dinámica mimética, lo cual significa que ni siquiera están presentes en el atractor. Los agentes atraídos por las reglas no estocásticas o clásicas son en su mayoría defectores que buscan mantener sus pagos lo más altos posibles. Pero esta circunstancia apoya la ley (LSI) de Tarde porque los agentes que defraudan son mayoría incluso con tasas de un 90 por ciento inicial de agentes cooperadores que reciben un pago de 1. Además, nuestra simulación verifica la ley (LDI) combinando las reglas (1) y (2): la conducta más imitada o conducta de maximización, logra a través de la regla (1), que la nueva conducta sea reforzada, inhibiendo la conducta cooperativa de los agentes con menores pagos.

sábado, 19 de noviembre de 2011

"Talking Nets" o el nacimiento de las redes neuronales artificiales


Presentamos en este blog un libro que acabamos de releer y que es la más fascinante introducción al origen teórico de las redes neuronales artificiales, a través de un conjunto único de entrevistas realizadas por James A. Anderson y Edward Rosenfeld a algunos de los grandes pioneros del paradigma conexionista. Por las páginas de este libro desfilan desde Bernard Widrow, el creador del "Adaline" y del algoritmo LMS, hasta Bart Kosko, el ingeniero de sistemas neuronales borrosos nacido en Kansas.

Las entrevistas, muy reveladoras y de extraordinaria viveza, nos revelan un mundo de nuevas ideas pero también de arduas polémicas por lo que se refiere tanto a cuestiones de prioridad en los descubrimientos como en el posible solapamiento de las aplicaciones logradas. Y así, leemos como Stephen Grossberg, el reconocido creador de las redes neuronales de resonancia adaptativa, comenta cómo hacia finales de los años 50 del siglo pasado introdujo su Modelo Aditivo, que, casi, 30 años después fue rebautizado como el modelo de Hopfield, autor que, por cierto, no aparece entrevistado en este libro. Y según Grossberg, el modelo de retropropagación debe más a Werbos, Parker, Amari y a él mismo que a los habitualmente mencionados, Rumelhart, Hinton y Williams. Leamos una declaración algo dramática al respecto del propio Grossberg, que el lector encontrará en la página 179 del libro:

"This has, all too often, been the story of my life. It´s tragic really, and it´s almost broken my heart several times. The problem is that, although I would often have an idea first, I usually had it too far ahead of its time (...) But then many things that I discovered started getting named after other people!"

Jerome Lettvin nos retrotrae a los tiempos originarios, a cuando Wiener, McCulloch y Pitts estaban poniendo los cimientos de la Cibernética y la Neurociencia Computacional. De estos dos últimos autores recuerda la génesis de su mítico artículo "A Logical Calculus of Ideas Immanent in Nervous Activity". Walter Pitts había leído a Leibniz y, en cierto sentido, quería considerar el sistema nervioso como un "aparato" computacional.

Bernard Widrow nos cuenta cómo en 1959 creó el algoritmo LMS o del menor cuadrado promedio:

"The idea was to be able to get the gradient from a single value of error (...) You get an algebraic expression and you realize that you don´t have to square anything; you don´t have to average anything to get mean square error. You don´t have to differentiate to get gradient. You get this all directly in one step" (p. 53).

Teuvo Kohonen narra el descubrimiento de su algoritmo de mapas autoasociativos, basado en sus ideas acerca de la Memoria Asociativa y los sistemas de reconocimiento de patrones. Manifiesta su rechazo a la creación de redes de centros de excelencia en la investigación que aseguren la más rápida diseminación posible de las ideas, puesto que considera que las ideas innovadoras necesitan de tiempo suficiente para ser verificadas.

Michael Arbib, editor jefe del magno "The Handbook of Brain Theory and Neural Networks", y una de las mentes más suspicaces en el panorama de la Neurociencia del último siglo, relata la preocupación de su mentor, Warren McCulloch por la cuestión de la robustez de los sistemas neuronales y, al respecto alude a la siguiente divertida anécdota (p. 216):

"His favorite story on this line was a midnight call from John von Neumann from Princeton saying `Warren, I´ve drunk a whole bottle of absinthe, and I know the thresholds of all my neurons are shot to hell. How is it I can still think?´".

David Rumelhart, recientemente fallecido, e impulsor junto a Jay McClelland del revolucionario programa PDP, nos introduce a algunos de sus célebres modelos conexionistas, como el del aprendizaje de los tiempos en pasado, en el que sin necesidad de múltiples capas se lograba un rendimiento muy similar al humano. Terrence Sejnowski alude cómo en aquella época se estaban poniendo las bases del aprendizaje neuronal mediante retropropagación. La retropropagación era mucho más rápida que la máquina de Boltzmann y permitía afrontar la resolución de interesantes problemas de la Fonología a través de NETtalk. Precisamente, Geoff Hinton ha sido un estrecho colaborador intelectual de Sejnowski y analiza cómo encontraron la regla de aprendizaje para las máquinas de Boltzmann: la energía era lineal en los pesos y la probabilidad logarítmica era lineal en la energía, así que las probabilidades resultaban ser lineales en los pesos.
Recomendamos muy vivamente la lectura de este libro y encarecemos su traducción al castellano para que la comunidad intelectual del entorno hispano pueda beneficiarse de la que, sin duda, es una de las mejores y más sugestivas presentaciones del paradigma conexionista que existen.

sábado, 15 de octubre de 2011

Avalanchas neuronales y dinámica crítica


Las avalanchas neuronales son estallidos espontáneos de actividad sincronizada que se distribuyen en "clusters" de sitios s de acuerdo con una ley de potencias con un exponente cuyo valor se sitúa entre -1 y -2. Y así, dado un estallido de un tamaño s, un estallido que doblará el tamaño de aquél tendrá lugar dos veces elevado al exponente, menos frecuentemente. Siguiendo a Petermann et al. (2009), este tipo de dinámica presenta las siguientes interesantes propiedades: (a) requiere una transmisión sináptica equilibrada entre la actividad excitatoria y la inhibitoria; (b) se presenta tanto en condiciones "in vivo" como "in vitro" y (c) parece ser una propiedad intrínseca de la corteza cerebral.

Descritas en preparaciones reducidas de cerebros de ratas, nuestros autores demuestran su existencia en los cerebros de macacos rhesus despiertos. Situando electrodos en los cerebros de dos macacos y registrando su actividad durante unos 40 minutos, encuentran trenes de ondas localmente sincronizadas y correlacionadas en diferentes sitios corticales durante muchos segundos. El inicio de cada "cluster" es definido temporalmente con una variación de 4 milisegundos.

Pero ¿cuál es la verdadera causa de las avalanchas? Tagliazucchi y Chialvo (2011) subrayan que las avalanchas son estados dinámicos críticos, esto es, cascadas espaciotemporales que se extienden sobre un fractal. Las neuronas operan en un punto crítico, en contraste con un régimen supercrítico en el que cada "input" se expande de una manera explosiva a través de la red-similar a una reacción nuclear incontrolada en cadena- o un régimen subcrítico, en el que las cascadas terminan prematuramente. Si los sistemas intentan maximizar la probabilidad de vincular sitios distantes mediante cascadas, evitando una activación en masa no selectiva, podemos, pues, hablar de dinámica crítica. Parece evidente que, dado que esta condición crítica exhibe una mezcla de patrones de excitación tanto ordenados como desordenados, las redes neuronales en estado crítico han de ser capaces de generar el máximo repertorio de configuraciones dinámicas posibles. Lo que es peculiar es el patrón estadístico de comportamiento seguido por estas avalanchas. Hay muchas más avalanchas pequeñas que grandes puesto que solo suele comprometerse en este tipo de actividad, un pequeño grupo de neuronas.

¿Cuál es el origen y el significado funcional de estas avalanchas? Todavía no hemos encontrado una explicación precisa pero lo que es evidente es que el cerebro va creando y reconfigurando redes neuronales complejas con una dinámica correlacionada que responde al tráfico entre zonas (véase Chialvo, 2010, p. 5). Si observamos mediante resonancia magnética funcional el comportamiento del cerebro en reposo, desde correlaciones lineales bastante simples, las señales dependientes del nivel de oxigenación de la sangre o BOLD, reflejan unos pocos grupos neuronales emergiendo, como si de unas nubes que pasan se tratara. Lo curioso es que esta suerte de nubes visitan las mismas regiones cerebrales activadas durante cualquier tipo de conducta activa y que estas redes son identificables de forma muy consistente entre los sujetos, incluso durante el sueño o los efectos de la anestesia. Así pues, la Biología del cerebro nos muestra dinámicas colectivas emergentes que remiten a un fenómeno tal como la "criticalidad", que tanto ha sido estudiado en Física.

jueves, 1 de septiembre de 2011

París 2011: 40 años del "European Mathematical Psychology Group"

(Jean-Claude Falmagne, "Is the assesment valid/reliable?")


En la fotografía que encabeza esta entrada del blog, el amable lector puede encontrar una de las diapositivas que el profesor Jean-Claude Falmagne presentó en su charla sobre "Learning Spaces" el día 30 de agosto, a las 13.00 h., en el aula 310 de la Escuela de Telecomunicaciones de París. Hace 40 años, el profesor Falmagne fundó en la capital francesa el "European Mathematical Psychology Group" y, desde entonces y de manera ininterrumpida, se ha celebrado todos los veranos en las diversas capitales europeas, un Encuentro que ha reunido a la flor y nata de la Psicología Matemática, no solo europea sino mundial.


Organizado por el siempre amable y competente, Olivier Hudry, acompañado por Irene Charon, Antoine Lobstein y Christine Choirat, el Congreso contó con más de 80 participantes. Entre ellos, dos figuras descollantes: Duncan Luce y Jean-Claude Falmagne. Y entre los españoles que acudimos estábamos Miguel García-Pérez, Rocío Alcala-Quintana (ambos del Dpto. de Metodología de la UCM), Esteban Induráin, Raquel García-Catalán y Asier Estevan de la Universidad Pública de Navarra y el autor de este blog.


Robert Duncan Luce, 86 años y todavía activo y escuchando las presentaciones de colegas que podrían ser perfectamente sus nietos. De aspecto frágil, como si cualquier mínima perturbación pudiera arrojarle al suelo pero absolutamente venerable y grande en el terreno de la Teoría de la Medición. Junto a Krantz, Suppes y Tversky, el autor de la biblia de la especialidad, Foundations of measurement: Additive and polynomial representations (1971).


Jean-Claude Falmagne, otro de los grandes, siempre curioso, siempre aportando novedades. Gran especialista en Teoría de Grafos y abriendo nuevos campos con sus "Knowledge structures" y sus recientes "Learning Spaces", en colaboración con autores de la talla de Doignon o de Cosyn.


El Encuentro se abrió el día 29 de agosto con la intervención del profesor Marchant, introduciendo el concepto de relación unaria. Posteriormente, destacaría a Colonius presentando un nuevo modelo de inspiración fechneriana de integración viso-auditiva que computa distancias subjetivas entre estímulos de manera probabilística. Por la tarde, Rocío Alcalá-Quintana y Miguel García-Pérez presentaron la fundamentación teórica de su interesante modelo de indecisión para tareas de detección visual y su aplicación a los juicios de sincronía. Hubo un interesante debate entre los autores y el profesor Laming, de la Universidad de Cambridge, acerca de cuestiones metodológicas en torno al modelo, para dar paso a las intervenciones de Ingo Fründ sobre decisiones perceptivas y a James Shanteau, de la Universidad de Kansas, acerca de la influencia de la memoria y de la toma de decisiones en el "priming" de repetición.


El día 30 por la mañana, se inició con la profesora Raijmakers, de la Universidad de Amsterdam, que expuso las investigaciones de su equipo sobre el uso de modelos latentes de Markov para el aprendizaje categorial. En concreto, modelizó la famosa tarea de la balanza. Una vez más, demostró la gran valía de sus indagaciones en el ámbito de la Psicología Experimental.


A las 10.30 h., Carlos Pelta expuso su proyecto de simular computacionalmente algunos interesantes aspectos de la Psicología Social. En este caso, han sido modelizadas las tres leyes de la imitación lógica de Jean-Gabriel Tarde, expuestas en su obra pionera "Les lois de l´imitation", en el contexto del dilema del prisionero espacial (Nowak y May, 1992). Se verificó la validez de la simulación a través de la obtención de pequeños "clusters" de agentes cooperadores. Hubo interesantes preguntas de los profesores Induráin, Gauvrit y Massoni sobre dinámica caótica y Teoría de Juegos, la influencia de las condiciones espaciales iniciales en este tipo de juegos y la necesidad de considerar no solo individuos de conducta egoísta y altruísta, sino también agentes de conducta indiferente.


A continuación, el profesor Thiel presentó una fascinante simulación computacional basada en redes de autómatas, acerca del efecto "halo". Por la tarde, la esperada intervención del profesor Falmagne, titulada "Learning Spaces in Real Life. How the large size of actual learning spaces guides the development of the theory", introdujo a la audiencia a la idea de espacios de aprendizaje, idea que fue ilustrada por Eric Cosyn, a través del desarrollo de una aplicación al aprendizaje del álgebra, empleando más de 350 items, un auténtico "tour de force" de complejidad computacional.


En la última jornada del Encuentro, el día 31, la profesora de la Universidad de Navarra, Christine Choirat, habló de la separabilidad de las representaciones en Psicología y de su tratamiento matemático a la luz del modelo psicofísico de Stevens y sus correcciones. La reunión científica culminó por la tarde con la participación de los profesores Laming y Lemaire, de la Universidad de Grenoble.


Agradecemos, especialmente, al profesor Hudry, su cálida y generosa recepción y animamos a todos los interesados en la Psicología Matemática, a acudir a la próxima reunión en el verano de 2012 que, según parece, tendrá lugar en la Universidad de Navarra.


martes, 19 de julio de 2011

Encuentro de Psicología Matemática en París (EMPG 2011)


Los días 29, 30 y 31 de Agosto de 2011 va a celebrarse en París el "2011 Meeting of the European Mathematical Psychology Group", que reunirá a destacados especialistas de la materia, como Duncan Luce, Maartje Raijmakers o Jean-Claude Falmagne, entre otros. Tendrá lugar en la Escuela Superior de Telecomunicaciones de París (TELECOM ParisTech-http://www.telecom-paristech.fr/eng/home.html-), y su Comité Organizador está formado por Irène Charon (Tèlècom ParisTech y CNRS), Olivier Hudry (Tèlècom ParisTech y CNRS), Antoine Lobstein (CNRS y Tèlècom ParisTech) y Hayette Soussou (Tèlècom ParisTech). A continuación insertamos el contenido extractado del programa elaborado por Olivier Hudry y que éste ha tenido la amabilidad de enviarnos a los participantes:

Lunes 29 de Agosto

9:00-10:00 (Sesión plenaria) (Aula B310)

T. Marchant: "Measurement theory with unary relations".

10:30-12:30 (Sesiones paralelas)

(Aula B310) Intervienen H. Colonius, K. Serrhini, A. Münnich, y G. Golovina.

(Aula B312) Participan D. Luce, J.-L. Dessalles, M. Cuevas y V. Cervantes.

14:00-15:00 (Sesión Plenaria) (Aula B310)

L. Stefanutti: "When the correspondence between probabilistic and set representations of local independence becomes a requirement: constant odds models for probabilistic knowledge structures."

15:30-17:30 (Sesiones paralelas)

(Aula B310) Intervienen R. Alcalá-Quintana, M. García-Pérez, I. Fründ, y J. Shanteau.

(Aula B312) Participan Y. Guiard, W. Vanpaemel, C.-P. Cheng y B. Mirkin.

17:45-18:30 (Sesión Plenaria) (Aula B310)

D. Albert y C. Hockemeyer: "JCF´s impact is not limited to the foundation of the EMPG."

Martes 30 de Agosto

9.00-10:00 (Sesión Plenaria) (Aula B310)

M. Raijmakers: "The application of latent Markov models in category learning".

10:30-12:00 (Sesiones paralelas)

(Aula B310) Participan C. Pelta, T. Savchenko y D. Thiel.

(Aula B312) Intervienen S. Barthelmé, R. Morey y C. Zwilling.

13:30-14:30 (Sesión Plenaria) (Aula B310)

J.-C. Falmagne: "Learning spaces in real life. How the large size of actual learning spaces guides the development of the theory."

14:30-15:30 (Sesiones paralelas)

(Aula B310) Exponen E. Cosyn, P. Anselmi.

Aula B312) Presentan M. Engelhart y A. Lambert-Mogiliansky.

16:00-17:30 (Sesiones paralelas)

(Aula B310) Intervienen D. de Chiusole, A. Spoto y J. Heller.

(Aula B312) Exponen R. Bystricky, E. Induráin y L. Wollschläger.

Miércoles 31 de Agosto

9:00-10:00 (Sesión Plenaria) (Aula B310)

C. Choirat: "Separable representations in mathematical psychology and decision making".

10:30-12.00 (Sesiones paralelas)

(Aula B310) Participan R. Suck, J.-P. Doignon, S. Vautier.

(Aula B312) Intervienen L. DeCarlo, S. Massoni y H.C. Micko.

13:30-14:30 (Sesión plenaria) (Aula B310)

A. Diederich: "Optimal time windows: Modeling multisensory integration in saccadic reaction times."

15:00-16:30 (Sesiones paralelas)

(Aula B310) Presentan M. Andreatta y E. Acotto, E. Golovina y S. Noventa.

(Aula B312) Exponen O. Rioul, D. Laming y B. Lemaire.

El autor de este blog realizará el día 30 de Agosto la presentación oral titulada "Spatial prisoner´s dilemma and laws of imitation in Social Psychology". En ella planteará el diseño de un juego basado en el dilema del prisionero espacial que introduce las tres leyes de imitación social definidas por Gabriel Tarde en su obra Les lois de l´imitation (1890): (1) la ley del contacto cercano; (2) la ley de imitación de los "superiores" por parte de los "inferiores" y (3) la ley de la inserción (las nuevas conductas refuerzan o debilitan las costumbres previas). Obtendremos la formación de pequeños "clusters" de cooperadores que apoyan computacionalmente las tres leyes de Tarde pero también la interpretación de Sutherland del surgimiento de conductas desviadas como un caso de "asociación diferencial" o proceso de comunicación en el seno de grupos personales íntimos.


Desde aquí invito a todos los interesados a acudir a este interesante Encuentro cuyo vínculo dejo insertado a continuación: http://www.infres.enst.fr/~hudry/EMPG/. En el mes de Septiembre el amable lector dispondrá de una exhaustiva reseña de las principales conclusiones extraídas.

martes, 14 de junio de 2011

Raúl Arrabales y la medida de la conciencia en robots


Dedicamos el artículo del mes a analizar la contribución de Raúl Arrabales, profesor asociado del Departamento de Informática de la Universidad Carlos III de Madrid. El profesor Arrabales se ha doctorado con una Tesis titulada "Evaluación y desarrollo de la conciencia en sistemas cognitivos artificiales" (2011), un trabajo muy interesante en el que dilucida el desarrollo y medida de la conciencia en mecanismos de Inteligencia Artificial. Por supuesto, se puede hablar de muchos tipos de conciencia, desde la conciencia fenomenológica a la conciencia de monitorización, por ejemplo. La dimensión fenomenológica de la conciencia es la más incierta y la más difícil de afrontar desde el punto de vista de la "implementación" computacional. Más viable es, como menciona el profesor Arrabales en la página 37 de su trabajo doctoral, la aplicación de modelos funcionales de la conciencia, fundamentados en la modelización de las propiedades cognitivas de la misma. Aunque, fundamentalmente, Aleksander (2007) ya ha abordado la cuestión definicional de la conciencia y el tema de su medida, la originalidad y valía del trabajo de Arrabales radica en adentrarse en esta cuestión, tan decisiva, pero tan poco tratada, por la Neurociencia Cognitiva y Computacional.

La conciencia es un fenómeno privado que se da en primera persona y los métodos actuales usados con humanos para determinar la presencia de la misma (EEG, informes verbales, separación entre vigilia y sueño...), no son aplicables todavía a máquinas. Aleksander (2003) propone como axiomas básicos para establecer que un agente es consciente que tenga sensación de lugar, imaginación, atención, planficación y emociones. Takeno et al., 2005, han llegado a diseñar un robot de estilo Khepera, capaz de reconocer su propia imagen en un espejo y de no confundirla con las imágenes reflejadas de otros robots. Arrabales introduce un marco de evaluación, llamado ConsScale, que define una jerarquía de niveles de conciencia funcional para evaluar cualquier arquitectura cognitiva artificial. Para ello, presenta la plataforma de experimentación CERA-CRANIUM. CERA es una arquitectura cognitiva que se compone de cuatro capas: una capa de servicios sensoriomotores, una capa física, una capa de misión y una capa núcleo. La primera permite el acceso a los datos de los sensores y el envío de comandos a los actuadores. La segunda contiene las representaciones de bajo nivel correspondientes a los sensores y actuadores. La capa de misión gestiona contenido sensoriomotor más elaborado mientras que la capa núcleo es el nivel más alto de control en la arquitectura. CRANIUM proporciona un mecanismo que permite combinar funciones especializadas y así generar representaciones con significado. El modelo de Conciencia Artificial propuesto por Arrabales (2011, p. 98 y ss.) encaja una serie de mecanismos funcionales, como son el de atención, valoración del propio estado, búsqueda global, gestión preconsciente, contextualización, predicción sensoriomotora, memoria, aprendizaje, autocoordinación y comunicación de estados mentales. La sinergia que emerge de la composición de funciones cognitivas es medida a través de la escala ConsScale, escala que introduce Arrabales y que define los siguientes niveles de conciencia: (1) sin cuerpo definido; (2) aislado, (3) prefuncional, (4) reactivo; (5) adaptativo; (6) atencional; (7) ejecutivo; (8) emocional; (9) autoconsciente; (10) empático; (11) social; (12) androide y (13) superconsciente. No todas las funciones cognitivas son comparables pero se puede realizar un cálculo automático CQS, que abarca un rango contnuo de valores desde 0 hasta 1000 de forma exponencial, representando la sinerga acumulada a través de la integración de capacidades cogntivas a lo largo de los diferentes niveles de la escala. El propio Arrabales experimenta con la escala en videojuegos de tipo FPS, cuyos personajes son "bots" móviles que entran en conflicto entre sí y que sufren desperfectos y problemas en sus niveles de energía. Las funciones cognitivas específicas de los "bots" irían desde la realización de meros actos reflejos hasta la habilidad máxima consistente en gestionar varios flujos de conciencia concurrentes. Más allá de las limitaciones de este tipo de experimentos (por ejemplo, se necesitaría diseñar entornos muy complejos para dar cuenta del cumplimiento de las hablidades cognitivas más avanzadas), un informe en tercera persona puede permitirnos reconocer diversos grados de conciencia en estos "bots".

Creemos que la aportación de Arrabales es muy meritoria porque es el primer trabajo hasta donde tiene conocimiento el autor de este blog, que se plantea de una manera rigurosa y metódica el análisis y medida de la conciencia en agentes artifciales, yendo mucho más allá de las típicas consideraciones, más o menos vagas al respecto y no verificables. Por todo ello, no podemos más que felicitar a su autor.

lunes, 23 de mayo de 2011

Astrocitos y computación neuronal



Como es bien sabido, desde hace algo más de una década el equipo de investigadores del CSIC (Consejo Superior de Investigaciones Científicas), dirigido por el profesor Alfonso Araque e integrado por la investigadoras Gertrudis Perea y Marta Navarrete (entre otros científicos), introdujo la concepción de la sinapsis tripartita, como una forma de asignar a los astrocitos un papel funcional en la comunicación neuronal, más allá de sus reconocidas funcionalidades tróficas y de soporte de las neuronas. Los astrocitos son un tipo de célula glial del Sistema Nervioso Central. Araque y colaboradores descubrieron nuevas vías de comunicación celular entre astrocitos y neuronas, proponiendo que la sinapsis está funcionalmente constituida por los elementos pre y postsinápticos y por los astrocitos adyacentes. Los astrocitos poseen una forma de excitabilidad basada en variaciones en la concentración intracelular de calcio y se comunican entre ellos mediante ondas intracelulares de este elemento. Los astrocitos también pueden liberar glutamato, modulando la actividad eléctrica neuronal y la transmisión sináptica. Estos estudios realizados con cultivos in vivo de astrocitos del hipocampo de las ratas, han desencadenado una verdadera revolución en la Fisiología Neuronal. Hasta el punto, también, de que han empezado a surgir modelos computacionales que intentan recoger esta actividad. Testigo reciente es el modelo de redes de comunicación entre neuronas y astrocitos, propuesto por Lallier, Fournel y Reynaud (2010, véase su artículo "A neurons-astrocyte network model: from synaptic boosting to epilepsy"). Su modelo computacional simplificado presenta la interacción de cuatro neuronas y un astrocito: una neurona presináptica, una terminal sináptica, una neurona postsináptica y un astrocito. Cuando la concentración de calcio en el astrocito es suficientemente alta, se excita la neurona postsináptica. Por otro lado, la inhibición neuronal postsináptica se logra por la intervención de un mediador de tipo gabaminérgico, producido por el astrocito. Entonces, un astrocito es descrito matemáticamente mediante cuatro ecuaciones, dos para la dinámica interna del calcio y otras dos para la mediación entre el astrocito y las neuronas. Porto-Pazos et al., 2011, demuestran en (http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0019109), que la simulación computacional de la bidireccionalidad en la comunicación entre unidades con características como las de los astrocitos y unidades fijadas paramétricamente como las neuronas, mejora el rendimiento de las redes neuronales para resolver problemas de clasificación. Esta circunstancia no se explica meramente por una cuestión cuantitativa (mayor densidad de elementos en la red) sino por las características surgidas por la simulación de la funcionalidad biológica de este tipo de células. Usando redes neuronales de 3 a 5 capas, los astrocitos fueron estimulados, cuando las conexiones neuronales estaban activas con, al menos, n de m iteraciones (n=2 a 3, m=4,6,8). Los pesos de las conexiones neuronales fueron gradualmente incrementados (25%) y disminuidos (50%), en el caso de que el astrocito asociado estuviera activado o no. Había un astrocito artificial por cada neurona y cada astrocito solo respondía a la actividad de la neurona asociada y modulaba las conexiones de cada neurona con las neuronas de la siguiente capa. Las redes neuronales tuvieron que resolver cuatro problemas de tipo clasificatorio: (a) un problema cardíaco que analizaba 13 parámetros procedentes de 303 pacientes; (b) un problema de cáncer de mama, planteado a partir de 9 propiedades extraídas de 699 pacientes; (c) un problema de clasificación de flores a partir de características tales como la longitud y anchura de sus pétalos y (4) el problema de la ionosfera. Las redes neuronales fueron entrenadas mediante algoritmos genéticos y las redes neuronales con astrocitos recibieron entrenamiento mediante algoritmos genéticos y un algoritmo especial. En la imagen de arriba, puede verse el diseño de las redes neuronales sin astrocitos (a la izquierda) y con astrocitos (a la derecha). En todos los problemas planteados, la presencia de astrocitos artificiales mejoró el aprendizaje, sin correlacionarse esta circunstancia con el número de neuronas o la propia arquitectura de las redes.

domingo, 17 de abril de 2011

Neurodinámica no lineal del cerebro


En el artículo de este mes buscamos introducir al lector al intento más logrado, hasta ahora, de describir el funcionamiento dinámico real del cerebro. Se trata de la Neurodinámica no lineal o Dinámica de acción de masas neuronales del pionero Walter J. Freeman III. En una anterior entrada de este blog, dedicada al comentario del reciente y excelente libro de Rolls y Deco, "The Noisy Brain", afirmábamos que para estos autores el nivel clave del funcionamiento cerebral se situaba en las unidades mínimas de computación o estudio de las propiedades electroquímicas de las neuronas aisladas (Hodgkin y Huxley, 1952). Tanto este tipo de modelo de estudio como los modelos basados en redes neuronales concebidas como estaciones telegráficas de transmisión (véanse, por ejemplo, los modelos que toman el testigo del modelo de McCulloch y Pitts, 1959), son, en cierto modo, desafiados por la aportación del modelo de acción de masas de Freeman. Entiéndase bien: no es que pueda negligirse el nivel de análisis primario pero no podemos conformarnos con una simple extrapolación o expansión de conclusiones desde las conclusiones entresacadas del estudio, más o menos exhaustivo, de las propiedades de las membranas axonales o de las propiedades de transmisión de la circuitería. Es como querer inferir las características de la nieve a partir del simple análisis de la estructura microscópica de los pequeños cristales que, amontonados, la configuran. La clave aquí está en el término "amontonar", a poco que repare en ello el lector. Un gran número de elementos no lineales, como las neuronas, interactúan entre sí de una manera difusa y extendida en el espacio y el tiempo, de tal manera que emergen macroestados. Estos macroestados pueden ser descritos por ecuaciones diferenciales, debido a que la proporción de neuronas pulsátiles dentro de la masa de neuronas es pequeña y que la proporción tiende a distribuirse uniformemente en aquella masa neuronal. Conociendo las transformaciones no lineales de conversión de pulsación a onda y viceversa, la diferencia de potencial en la onda proporciona la base para evaluar el el estado de actividad de cada neurona. Dado el modo de onda ov y el modo de pulsación op , tenemos las siguientes funciones no lineales para expresar la mutua conversión: ov(t)=G1(op(t)) y op(t)=G2(ov(t)). Estas funciones no lineales definen la ganancia, dependiente de la amplitud, de una masa neuronal. Los datos se toman a partir de segmentos digitalizados de ondas procedentes del electroencefalograma (EEG), siendo el estado subyacente más común, el estado de equilibrio cero. Dado que tanto el ruido sináptico como la señal de EEG pueden ser tratados como series temporales randomizadas, los generadores neuronales pueden considerarse estacionarios, en el sentido de que las propiedades estadísticas de las señales permanecen constantes en intervalos de tiempo que pueden ir de varios segundos a varios minutos.

Todas las masas neuronales en el sistema nervioso central de los vertebrados producen campos extracelulares de potenciales que no siempre son detectables. El bulbo, la paleocorteza, la neocorteza, el tálamo y el striatum generan potenciales oscilatorios con frecuencias situadas entre 1 y 100 Hz. El cerebelo y la medula espinal producen potenciales que apenas son rítmicos. La teoría de la acción de masas neuronales contempla una actividad cíclica limitada en ambos casos, acompañados por cambios dinámicos que van desde un conjunto de estados de equilibrio no nulo a estados de frecuencias espaciales más o menos estables. En definitiva, la actividad de masas de neuronas puede caracterizarse por la invarianza estable de una o más variables de estado. En el estado de equilibrio cero, la función de densidad de las pulsaciones y el promedio de cambio temporal de la amplitud de onda equivalen a cero en todas partes. En el estado de equilibrio no nulo, los promedios son también cero. En el estado del ciclo límite ambos varían en torno a una frecuencia fija. Desembocamos, pues, en un estudio no lineal de la función cerebral que, a nuestro juicio, refleja mejor que ningún otro modelo, el genuino comportamiento de nuestro cerebro.

martes, 22 de marzo de 2011

El último viaje de David Rumelhart


El día 13 de marzo de 2011 ha fallecido en su casa de Chelsea (Michigan), uno de los más grandes neurocientíficos de todos los tiempos. Mítico editor, junto a Jay McClelland, de la Biblia del conexionismo ("Parallel Distributed Processing"), a finales de los años ochenta del siglo pasado, David es, junto a McClelland, una de las grandes torres gemelas del nuevo paradigma basado en las redes neuronales. No tuve la fortuna de asistir a ninguna de sus conferencias, pero como todo aquel interesado en el modelo conexionista, sí que he leído sus libros y, en concreto, aquellos últimos en los que ha sido editor. Como el lector, quizá sepa, Rumelhart sufrió una enfermedad neurodegenerativa en la última década de su existencia, que le mantuvo postrado y fuera de la actividad intelectual, pero a mediados de la década de los años 90 del siglo pasado, todavía estaba en plena efervescencia intelectual. En concreto, son los años en los que aparecen sus capítulos colectivos sobre retropropagación en redes ("Backpropagation, theory, architectures and applications", 1995 o "Mathematical perspectives on neural networks", 1996).
La retropropagación es el método más común para el entrenamiento de redes neuronales. Aunque el término ya estaba presente en Rosenblatt (1962), no fue hasta 1986 que Rumelhart, Hinton y Williams popularizaron este algoritmo. Se trata de un algoritmo capaz de entrenar redes no lineales de conectividad arbitraria. Definiendo una función de error o gradiente descendente, un conjunto de pesos optimizan la ejecución de una tarea particular. Sea un conjunto de pares ordenados ,representando cada par una observación en la que el valor d de salida ocurrió en el contexto del evento de entrada x. El papel de la red consiste en aprender la relación entre x y d. Lo más útil es pensar en una función desconocida que las conecte y que constituya una buena aproximación. De entre los métodos estándar de aproximación funcional el más simple es el de la regresión lineal. Pero dado que las redes de capas múltiples son típicamente no lineales, se suele acudir a un tipo de regresión no lineal. Un caso habitual en este sentido es el de la técnica de "sobreajuste". Puede haber un excesivo número de variables predictivas y, sin embargo, una muy escasa cantidad de datos para el entrenamiento. No obstante, se puede conseguir una gran efectividad en el entrenamiento a pesar de la pobreza subyacente de los datos. Y es que la medida del éxito en el entrenamiento está más bien en la capacidad de la red de ajustarse a los casos no observados. Otro problema de los algoritmos de retropropagación es el de la segmentación y la localización de los patrones de entrada para el entrenamiento de las redes. David Rumelhart solventó este problema haciendo referencia a que el "feedback" acerca de si un patrón está o no presente, basta para llevar a cabo el entrenamiento. En concreto, propuso la introducción de campos receptivos locales vinculados o la construcción de modelos fijos de propagación hacia delante.
El genio de Rumelhart ha sido absolutamente instrumental para el desarrollo de la corriente más importante de la Psicología en el último cuarto de siglo. Recordemos que el autor norteamericano se especializó en Psicología Matemática en la Universidad de Dakota del Sur y que terminó su carrera académica en el Departamento de esta rama en la Universidad de Stanford. Insertamos a continuación un breve extracto del obituario que James McClelland, su inseparable colaborador, ha insertado muy recientemente en la página web de la "Society for Mathematical Psychology":
"Dear Colleagues:
It is with great personal sadness that I write with the news that David Rumelhart passed away this morning. David was a towering intellect and contributed to many areas of mathematical psychology and cognitive science (...) Rumelhart developed powerful algorithms for training neural networks and played a critical leadership role in articulating the computational advantages and implicactions of neural networks in the 1980´s." (Jay McClelland).

sábado, 12 de marzo de 2011

Sebastian Seung: leyendo el libro de la memoria


Uno de los más prominentes neurocientíficos actuales es Sebastian Seung. Con una sólida formación en Física Teórica, él y sus colaboradores del MIT están intentando desvelar cómo parecen organizarse las conexiones cerebrales en el desempeño de funciones cognitivas superiores como, por ejemplo, en los procesos relacionados con la memoria. Tradicionalmente, se ha considerado que las diversas memorias se almacenan en las conexiones neuronales. Entonces, y usando la metáfora del propio Seung (2009), un conectoma o mapa de la conectividad neuronal, podría ser comparado a un libro en el que están escritas las memorias. La idea de que la conectividad neuronal depende de los tipos de células implicadas ya fue puesta de manifiesto por Cajal. Los exitosos experimentos acerca de los mecanismos de visión en la retina han confirmado la importancia de los tipos de células y su disposición. No obstante, en otros circuitos neuronales, células de la misma clase pueden diferir en sus propiedades funcionales y conectivas, por lo que la cuestión es mucho más compleja de lo que aparentaba en un principio. Redish y colaboradores, por ejemplo, han demostrado que en el área CA3 del hipocampo de roedores, las propiedades funcionales de las neuronas no parecen estar correlacionadas con su localización. Dado el fenómeno de plasticidad sináptica que se presupone clave en el almacenamiento de información por las memorias, esto no es nada extraño. En humanos, el hipocampo parece ejercer una función clave en la memoria declarativa mientras que en roedores parece ser responsable directo de la memoria espacial. Los neurofisiólogos han encontrado en ratas, neuronas de localización que constituyen un mapa cognitivo del entorno. ¿Cómo pueden ser almacenadas estas memorias? La noción hebbiana de plasticidad subraya que las neuronas que se solapan espacialmente tienden a ser coactivas. La conectividad de la red hipocampal sería estática y al azar, como ya predijo David Marr hace cuatro décadas. Las fuerzas de las sinapsis cambian durante el aprendizaje, almacenando los mapas cognitivos. Seung propone realizar un análisis computacional simplificado, seleccionando un entorno limitado para una rata y verificando la plasticidad hebbiana en un espacio bidimensional, en el que las neuronas más próximas estén más fuertemente conectadas. Al resolver el grafo resultante, se podrían predecir las localizaciones neuronales.

domingo, 20 de febrero de 2011

A computational model for social learning of language



We present the computational model of social learning of language by Paul Vogt (Tilburg University) and Evert Haasdijk (Vrije Universiteit, Amsterdam). The authors develop the model as part of the NEW TIES project, that is, a simulation platform in which a cultural society could evolve through evolution, individual learning, and social learning. Vogt and Haasdijk (2010) use the platform to set up a two dimensional grid world environment containing edible and inedible plants. If agents eat the edible plants, they gain a fixed amount of energy, and if they eat the inedible plants, they lose a fixed amount of energy. Agents have a visual system detecting their immediate surroundings. Social learning of language considers a population of agents developing a language from scratch. In such model, agents are given an interaction protocol allowing them to exchange expressions, invent new expressions and acquire them from other agents. By means of the local interactions and learning mechanisms, a common language emerges through self-organization, generating a cultural evolution of language.
The lexicon is implemented as an association matrix that maintains frequencies of words and meanings. Agents communicate about paths through their controllers. When an agent hears asn expression, it will try to interpret this expression. If the expression is accompanied by a pointing gesture, the interpreted meaning is only accepted if it is in the learning context.
In the experiments described by the authors, the agents find themselves in an environment where there are two types of plants, nutritious ones and poisonous ones. Agents can distinguish between the two types, but they do not know a priori that one kind is poisonous. Vogt and Haasdijk ran a series of experiments with a population consisting of two kinds of agents: knowers and students. The knowers have controllers that allow them to tackle the problem. The students have a partially randomly constructed controller. When there were no teachers, the number of words exchanged was about 18,000, whereas this number rising to around 76,000 when there were 125 teachers. The rules representing the meanings of words are opaque, because they are not directly accessible to other agents but the meanings are transmitted by means of joint attention. This shows that pedagogy learning (Gergely and Csibra, 2006) can work for different types of knowledge and that scaffolding social learning reduces the cost of learning opaque knowledge, contributing to cumulative cultural evolution.

lunes, 31 de enero de 2011

La "Fundación Alzheimer España" cumple 20 años


Estamos de enhorabuena. La "Fundación Alzheimer España" (FAE)
(http://www.fundacionalzheimeresp.org/) cumple 20 años en 2011. El gran esfuerzo de Jacques Selmès, de Micheline Selmès y de colaboradores ha merecido la pena. Hace dos décadas todo estaba por hacer con respecto a la enfermedad de Alzheimer en España. Muy poco se sabía. Apenas existía investigación. Gracias a estos pioneros todo ha sido más fácil. Tengo la fortuna de ser socio de esta Fundación desde hace unos cuantos años y he sido testigo de la excelente labor realizada, tanto por lo que atañe al apoyo de la investigación sociosanitaria como, sobre todo, al apoyo dirigido hacia los cuidadores. Como afirma Micheline en el último número de la revista "Memoria", han conseguido entre todos que "el Alzheimer no sea una palabra rara ni un tabú". "Vivir con la enfermedad de Alzheimer", la guía que Jacques y Micheline publicaron por vez primera en 1990, ya ha cumplido siete ediciones. Ha sido traducida a diversas lenguas europeas y se ha configurado como la guía imprescindible para familiares y cuidadores. En aquellos momentos no existían apoyos institucionales y apenas recursos. Un desierto, como afirma Micheline Selmès. Pero aunque todavía se requiere de mucho esfuerzo, las cosas han cambiado. Han surgido Asociaciones de familiares (AFAL) (http://www.afal.es/AFAL/index.php ) y proyectos de difusión como Alzheimer Universal (http://alzheimeruniversal.blogspot.com/). En España hay cerca de 700.000 personas diagnosticadas de enfermedad de Alzheimer. Casi 3 millones de personas que, incluyendo familiares, viven este problema de forma real y cotidiana.
La "Fundación Alzheimer España" organiza múltiples actividades para atenuar la sobrecarga en los cuidadores, para formar buenos profesionales sanitarios, para apoyar la investigación e incluso ha colaborado en la realización de la película "Amanecer de un sueño", estrenada en septiembre de 2010 (http://www.terraalavista.com/awaking/), dirigida por Freddy Mas Franqueza y protagonizada por Héctor Alterio, Aroa Gimeno y Alberto Ferreiro. Incluso la FAE acaba de poner en funcionamiento el espacio radiofónico "La consulta de Doña Carmina", en el que se asesora a los cuidadores familiares de enfermos de Alzheimer.
Muchas gracias, amigos. Me siento honrado de formar una modesta parte de vuestro gran proyecto.