Planteamos en esta entrada del blog cómo recientes intentos por demostrar que el uso de técnicas como la Electroencefalografía (EEG) sirven para lograr que sujetos, mediante sus propias señales cerebrales, puedan manipular y transportar objetos, están desenfocados o incluso conllevan mala fe científica. Artículos aparecidos en prestigiosas revistas, como Nature (así el de Musallam y colaboradores (2004)) o premiados, como el de Rao y otros (2008), publicado en el Journal of Neural Engineering, nos hablan de cómo personas impedidas pueden controlar prótesis o incluso robots humanoides simplemente a través de las señales cerebrales captadas por la EEG. Lo que los autores parecen ocultar o, cuando menos, no quieren darse cuenta de ello, es la influencia de los artefactos en lo que ellos presentan como puras y simples señales transmitidas por el cerebro. Porque la cuestión no reside en la mejora o no del ancho de banda de la señal electroencefalográfica sino en si se está intentando confundir a la comunidad científica. En efecto, ¿es qué movimientos reactivos en las cejas o en la frente de los sujetos, por ejemplo, no cuentan como señales (ruido) recogidas por el ordenador? Veamos.
Usando una respuesta de EEG visualmente evocada y que es producida cuando un objeto al que atiende el usuario cambia repentinamente (por ejemplo, flashes de luz), se elabora un algoritmo que proyecte todos los canales del EEG para formar una serie unitaria que sea máximamente discriminativa. La interfaz con el ordenador implementa parámetros para el procesamiento de datos como, por ejemplo, un filtro de proyección espacial y un clasificador lineal. Y, a continuación, se trata de que las señales recogidas por el EEG se encarguen de controlar un objeto, que puede ser desde un ratón de ordenador hasta un robot humanoide, como en el mencionado artículo de Rao y otros. Prescindiendo de cuestiones como, por ejemplo, la inevitable asincronía entre la intención del usuario y la respuesta del objeto, ¿de verdad las señales tomadas por el electro no van acompañadas del ruido producido por los leves movimientos inconscientes y automáticos generados por el propio usuario? ¿No estaremos confundiendo, como sucede en muchos procesos de detección de señales, señal con ruido?
Usando una respuesta de EEG visualmente evocada y que es producida cuando un objeto al que atiende el usuario cambia repentinamente (por ejemplo, flashes de luz), se elabora un algoritmo que proyecte todos los canales del EEG para formar una serie unitaria que sea máximamente discriminativa. La interfaz con el ordenador implementa parámetros para el procesamiento de datos como, por ejemplo, un filtro de proyección espacial y un clasificador lineal. Y, a continuación, se trata de que las señales recogidas por el EEG se encarguen de controlar un objeto, que puede ser desde un ratón de ordenador hasta un robot humanoide, como en el mencionado artículo de Rao y otros. Prescindiendo de cuestiones como, por ejemplo, la inevitable asincronía entre la intención del usuario y la respuesta del objeto, ¿de verdad las señales tomadas por el electro no van acompañadas del ruido producido por los leves movimientos inconscientes y automáticos generados por el propio usuario? ¿No estaremos confundiendo, como sucede en muchos procesos de detección de señales, señal con ruido?