en_pacientes_que_no_hablan_tmb.jpg
3/8/2019 

Los neurocientíficos buscan decodificar las señales cerebrales del habla para mejorar la comunicación. 


San Francisco, California (EEUU).- Científicos de la Universidad de California en San Francisco llevan años investigando el desarrollo de una interfaz cerebro-máquina, que permita a los usuarios controlar dispositivos sin necesidad de usar las manos. El primer objetivo es ayudar a pacientes, por ejemplo personas parapléjicas o con enfermedades graves que afecten a su movilidad.
 
¿Qué dirían las personas que por un accidente o una enfermedad perdieron su capacidad de hablar si pudieran expresar sus pensamientos? ¿Qué está pasando dentro de su cerebro? La respuesta a estas preguntas la vienen buscando – sin poder encontrarla con exactitud- muchos investigadores desde hace años.
 
- Esta es la primera vez que se utiliza este enfoque para identificar palabras y frases habladas.
- La interfaz cerebro-máquina permite traducir pensamientos a palabras. 
- Estos algoritmos permiten hablar sin abrir la boca.
 
Es que quizá no sean las preguntas necesarias, en verdad. Mucho más útil sería hacer posible que la actividad cerebral se transforme en palabras concretas. Al menos eso es lo que opina un grupo de científicos que está trabajando en un software para convertir las señales del habla en oraciones escritas.Ya hicieron los primeros avances que demuestran cómo la intención de decir palabras específicas puede extraerse de la actividad cerebral y convertirse rápidamente en texto escrito
 
Este descubrimiento permitiría a los pacientes paralizados mantener el ritmo de una conversación natural. En su forma actual, el software de lectura cerebral funciona solo para ciertas oraciones con las que fue programado, pero los científicos creen que este logro representa un trampolín hacia un sistema más poderoso que pueda decodificar en tiempo real las palabras que una persona quiere pronunciar.
 
El trabajo, publicado en la revista "Nature" y financiado por Facebook, fue posible gracias a tres pacientes con epilepsia que estaban a punto de someterse a una neurocirugía. Antes de que sus operaciones se realizaran, a los tres se les colocó un pequeño parche con electrodos minúsculos directamente en el cerebro; lo tuvieron puesto al menos una semana con el objetivo de mapear el origen de sus ataques.
 
Durante la estadía en el hospital, los pacientes, todos los cuales podían hablar normalmente, aceptaron participar en la investigación de Edward Chang, neurocirujano principal del estudio. Con el dispositivo colocado, ellos debieron responder a nueve preguntas y leer una lista de 24 respuestas potenciales, al tiempo que se les monitoreaba la actividad cerebral.
 
Con las grabaciones que obtuvieron, Chang y su equipo construyeron modelos de computadora que aprendieron a relacionar patrones particulares de actividad cerebral con las preguntas que escucharon los pacientes y las respuestas que dijeron. Una vez entrenado, el software podría identificar casi instantáneamente, y solo a partir de señales cerebrales, qué pregunta escuchó un paciente y qué respuesta dio, con una precisión del 76% y 61% respectivamente.
 
Aunque rudimentario, el sistema permitió a los pacientes responder preguntas sobre la música que les gustaba; qué bien se sentían; si su habitación era demasiado caliente o fría, o demasiado brillante u oscura; y cuándo les gustaría que los revisaran nuevamente.

"Hasta la fecha no existe un sistema de reemplazo del habla que permita a los usuarios tener interacciones al ritmo natural de una conversación humana", dijo Chang. "Esta es la primera vez que se utiliza este enfoque para identificar palabras y frases habladas", dijo David Moses, investigador del equipo. "Es importante tener en cuenta que logramos esto utilizando un vocabulario muy limitado, pero en futuros estudios esperamos aumentar la flexibilidad y la precisión de lo que podemos traducir", finalizó. 




print.gif  friend.gif