domingo, 27 de enero de 2013

Interfaz cerebro-ordenador para la manipulación de objetos


Planteamos en esta entrada del blog cómo recientes intentos por demostrar que el uso de técnicas como la Electroencefalografía (EEG) sirven para lograr que sujetos, mediante sus propias señales cerebrales, puedan manipular y transportar objetos, están desenfocados o incluso conllevan mala fe científica. Artículos aparecidos en prestigiosas revistas, como Nature (así  el de Musallam y colaboradores (2004)) o premiados, como el de Rao y otros (2008), publicado en el Journal of Neural Engineering, nos hablan de cómo personas impedidas pueden controlar prótesis o incluso robots humanoides simplemente a través de las señales cerebrales captadas por la EEG. Lo que los autores parecen ocultar o, cuando menos, no quieren darse cuenta de ello, es la influencia de los artefactos en lo que ellos presentan como puras y simples señales transmitidas por el cerebro. Porque la cuestión no reside en la mejora o no del ancho de banda de la señal electroencefalográfica sino en si se está intentando confundir a la comunidad científica. En efecto, ¿es qué movimientos reactivos en las cejas o en la frente de los sujetos, por ejemplo, no cuentan como señales (ruido) recogidas por el ordenador? Veamos.
Usando una respuesta de EEG visualmente evocada y que es producida cuando un objeto al que atiende el usuario cambia repentinamente (por ejemplo, flashes de luz), se elabora un algoritmo que proyecte todos los canales del EEG para formar una serie unitaria que sea máximamente discriminativa. La interfaz con el ordenador implementa parámetros para el procesamiento de datos como, por ejemplo, un filtro de proyección espacial y un clasificador lineal. Y, a continuación, se trata de que las señales recogidas por el EEG se encarguen de controlar un objeto, que puede ser desde un ratón de ordenador hasta un robot humanoide, como en el mencionado artículo de Rao y otros. Prescindiendo de cuestiones como, por ejemplo, la inevitable asincronía entre la intención del usuario y la respuesta del objeto, ¿de verdad las señales tomadas por el electro no van acompañadas del ruido producido por los leves movimientos inconscientes y automáticos generados por el propio usuario? ¿No estaremos confundiendo, como sucede en muchos procesos de detección de señales, señal con ruido?

2 comentarios:

Anónimo dijo...

Precisamente de eso se encarga el software: de analizar patrones que se repitan durante una acción. Por eso, para usar una brazo robótico por ejemplo, se necesitan semanas de calibración para una sola persona, porque el programa está analizando los patrones que se repiten e intentando discriminarlo de cualquier tipo de ruido. Y por eso, una vez calibrado, no sirve para todas las personas ya que cada cual poseemos un conectoma único.

Cuanto mejor sea el software mejor discriminará ruido de "acción motora".

Saludos.

Anónimo dijo...

Para todos aquellos que esteis interesados en los tratamientos cerebrales, como el tratamiento de infarto cerebral, os recomiendo que visitéis la página de este centro: http://centrolescer.org/ tienen información y consultas muy interesantes.