25 de junio de 2015
Leen las ondas cerebrales y las convierten en texto
el pais - MIGUEL ÁNGEL CRIADO 25 JUN 2015 - 12:43 CEST
El sueño o la pesadilla, según se mire, de leer la mente está un poco más cerca. Investigadores europeos han logrado registrar ondas cerebrales y convertirlas en letras, palabras y hasta frases completas. El sistema, formado por un interfaz cerebro-máquina, puede reconstruir casi un meritorio 50% de las palabras de una frase. Lo malo es que para lograrlo es preciso abrir la cabeza para colocar los electrodos directamente en el cerebro.
Tras cada pensamiento, emoción o acción hay un torrente electroquímico en las neuronas del cerebro. Esas señales eléctricas pueden ser registradas y los neurocientíficos llevan décadas estudiando las ondas cerebrales buscando el significado de cada señal. Han creado gorros repletos de electrodos que, colocados sobre la cabeza, permiten, por ejemplo, una especie de comunicación telepática. Así, el año pasado, investigadores estadounidenses conectaron dos cerebros a distancia. Pero, ¿se puede leer la mente de una persona en coma? ¿los humanos se podrán comunicar con las máquinas solo con pensarlo?
Un grupo de investigadores alemanes y estadounidenses no han logrado leer la mente pero sí convertir las ondas cerebrales en texto con un alto grado de acierto. Diseñaron un interfaz cerebro-máquina que registraba los cambios de potencial en las señales eléctricas del cerebro. Mediante una técnica de inteligencia artificial (aprendizaje de máquinas), el sistema iba afinando hasta hacer corresponder cada cambio eléctrico con un fono, segmento básico del sonido y que se puede equiparar a una letra. Tras el entrenamiento, el interfaz logró descodificar palabras y hasta frases.
"Nuestro sistema descodifica frases completas", dice el investigador delLaboratorio de Sistemas Cognitivosdel Instituto Tecnológico de Karlsruhe (Alemania) y coautor de la investigación, Christian Herff. "Logramos descodificar una media de 7,5 palabras de cada 10 pero solo cuando había 10 palabras a escoger. Si el sistema podía elegir entre 100, conseguimos tener cuatro de diez correctas, precisa. En cuanto a los fonos, el sistema reconocía alrededor del 50%. "Pero no hace falta un acierto del 100%", recuerda Herff. "Al usar un diccionario que nos muestra cómo se producen las palabras (por ejemplo, hola es h o l a) y un modelo de lenguaje, esto nos ofrece la probabilidad de la siguiente palabra", añade. Así que usaron una especie de predictor de textos para rellenar los huecos.
La técnica utilizada para leer la mente se conoce comoelectrocorticografía (ECoG) intracraneal. Es la mejor manera que hay para registrar las ondas cerebrales ya que ofrece mayor resolución espacial y temporal. Pero también es la más invasiva. A diferencia de otros métodos, como el electroencefalograma, los electrodos no se colocan en la cabeza sino directamente sobre el cerebro, con lo que la señal es más clara y no se ve mediatizada por el cráneo o el cuero cabelludo.
Los investigadores tuvieron la rara ocasión de poder realizar distintas sesiones de ECoG a siete personas con epilepsia aguda a las que les iban a extirpar el foco epiléptico. Con esta ventana abierta a su cerebro, los voluntarios tuvieron que leer en voz alta fragmentos de textos históricos, como el discurso de investidura de John Fitzgerald Kennedy. Los investigadores grabaron tanto el audio como la actividad de las ondas gamma de áreas cerebrales conocidas por su papel en el procesamiento del habla. Lo siguiente fue parcelar en segmentos de unos 50 milisegundos ambas señales y dejar que el interfaz encontrara correspondencias entre la actividad cerebral y los sonidos.
"Nos centramos en las ondas gamma de alta frecuencia (entre los 70 y 170 hercios). Esa frecuencia es conocida por reflejar la actividad muy localizada de funciones especializadas del cerebro", explica Herff. De las cinco ondas cerebrales que emite la actividad eléctrica del cerebro, las gamma son las de mayor frecuencia y menor amplitud y reflejarían picos de gran actividad cerebral como la producida durante el habla.
Para los investigadores, que han publicado sus resultados en la revista especializada Frontiers in Neuroscience, solo es un primer paso para la comunicación mental entre humanos y máquinas. Además, como comenta Herff, "un sistema que usara patrones de habla podría permitir a los pacientes incomunicados relacionarse de nuevo con su entorno, sin embargo, aún falta tiempo para esto".
Para el investigador de la empresa Starlab, Giulio Ruffini, ajeno a esta investigación, sus resultados son muy interesantes porque demuestran que se puede traducir la actividad eléctrica en información. "No debería ser una sorpresa, ya que el cerebro es un órgano eléctrico y con EcoG se puede registrar bien esta actividad eléctrica, pero no deja de ser un buen resultado mostrar que se pueden extraer fonos de esta manera", opina.
Ruffini, que trabaja en el desarrollo de interfaces cerebro-máquina, ya demostró el año pasado que se podían enviar pensamientos de un cerebro a otro situado a miles de kilómetros de distancia. Para él, no se puede decir que se este leyendo el pensamiento en sentido literal, "hay que entender que es más bien la actividad motora de hablar la que se está descodificando", dice. El avance definitivo sería, según Ruffini, que un sistema como este pudiera descodificar en modo lectura silenciosa, sin mover un músculo de la lengua, es decir, los pensamientos: "Si se consiguiera, ya estaríamos más cerca de poder decir que estamos leyendo la mente".
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario