jueves, 22 de diciembre de 2011

Una simulación computacional de las leyes de imitación de Gabriel Tarde

(Dilema del prisionero espacial para b=1,6)
En este último artículo del año en nuestro blog, vamos a exponer el diseño de un juego basado en el dilema del prisionero espacial que introduce las tres leyes de imitación social expuestas por el psicólogo francés Jean Gabriel Tarde, en su obra "Las leyes de la imitación" (1890). Esta simulación computacional fue presentada por el autor de este blog en el "2011 Meeting of the European Mathematical Psychology Group", celebrado en París en el mes de agosto de este año que finaliza.
La primera ley o ley del contacto cercano (LCC) describe cómo los individuos que están en estrecho contacto imitan su conducta entre sí. La segunda ley de imitación o imitación de los superiores por los inferiores (LSI) establece cómo prima el modelo del estatus superior en la conducta imitativa de aquellos que buscan las recompensas asociadas a la pertenencia a una clase más alta. La tercera ley de Tarde es la ley de inserción (LDI): nuevos actos y conductas se imponen sobre los antiguos y los refuerzan o debilitan. Para simular las reglas mencionadas, introducimos (1) una regla conformista (CONF) que modela la regla (LCC): si tu conducta es distinta de la del agente vecino, copia su conducta; (2) una regla de maximización (MAXI) para la ley (LSI): si el agente vecino obtiene mayores pagos, copia su conducta; (3) regla de la moda (MOD): copia la conducta con la mayor frecuencia de aparición en tu entorno (copia al azar, en caso de igual frecuencia); (4) regla (SNOB): copia la conducta con la menor frecuencia de aparición en tu vecindad (copia al azar si se da igual frecuencia). Las reglas (3) y (4) simulan la ley (LDI), alternando la copia de la última elección realizada con la regla (3) y la copia realizada mediante la regla (4). Los agentes tienen memoria para estas dos reglas, memoria que abarca las tres rondas previas del juego.
Hibridamos estas reglas con las propias de un dilema del prisionero espacial y combinamos todos los posibles valores de b entre 1 y 1,9, con una distribución inicial de cooperadores entre 0,1 y 0,9, una memoria M entre 1 y 9 rondas para las reglas (3) y (4) y un número variable N de agentes y de rondas del juego. Concluimos que en nuestro juego, las leyes de imitación de Tarde generan un atractor preferencial y una baja proporción de agentes cooperativos. Aunque hemos introducido dos reglas de naturaleza estocástica (3 y 4), su efecto es neutralizado por la propia dinámica mimética, lo cual significa que ni siquiera están presentes en el atractor. Los agentes atraídos por las reglas no estocásticas o clásicas son en su mayoría defectores que buscan mantener sus pagos lo más altos posibles. Pero esta circunstancia apoya la ley (LSI) de Tarde porque los agentes que defraudan son mayoría incluso con tasas de un 90 por ciento inicial de agentes cooperadores que reciben un pago de 1. Además, nuestra simulación verifica la ley (LDI) combinando las reglas (1) y (2): la conducta más imitada o conducta de maximización, logra a través de la regla (1), que la nueva conducta sea reforzada, inhibiendo la conducta cooperativa de los agentes con menores pagos.