Monday, October 18, 2021

Señales del cerebro convertidas en palabras

Investigadores de la Universidad de California San Francisco (UCSF) han desarrollado una ‘neuroprótesis del habla’ que posibilita comunicarse mediante oraciones a quienes están paralizados y no pueden hablar por sí mismos, al traducir las señales de su cerebro y convertirlas en palabras que aparecen como texto en una pantalla.

DESTACADOS:.

+++ La ‘neuroprótesis del habla` se probó en un paciente con parálisis dentro de un ensayo de investigación clínica y se basa en más de una década de esfuerzos del neurocirujano Edward Chang catedrático de Neurocirugía de esa universidad.

+++ “Nuestro enfoque aprovecha los aspectos naturales y fluidos del habla y promete dar lugar a una comunicación más rápida y orgánica”, asegura Chang.

+++ Este sistema puede decodificar palabras a partir de la actividad cerebral a una velocidad de hasta 18 palabras por minuto, con una precisión de hasta el 93%, con un media del 75% de precisión, según los investigadores.

Miles de personas pierden la capacidad de hablar a causa de derrames cerebrales, accidentes o dolencias. Una tecnología en desarrollo les permitirá volver a comunicarse mediante palabras, aprovechando los mecanismos cerebrales del habla natural, según la Universidad de California San Francisco (UCSF), en EE,UU.

El método se ha utilizado anteriormente en voluntarios sin discapacidad para reconstruir frases habladas o imaginadas. Pero esta primera demostración en una persona paralizada “aborda realmente el principal problema que quedaba por resolver: llevar esto a los pacientes que realmente lo necesitan”, afirma Christian Herff, informático de la Universidad de Maastricht que no participó en el nuevo trabajo.

El participante sufrió un derrame cerebral hace más de una década que le dejó anartria, es decir, incapacidad para controlar los músculos que intervienen en el habla. Como sus extremidades también están paralizadas, se comunica seleccionando letras en una pantalla mediante pequeños movimientos de la cabeza, produciendo aproximadamente cinco palabras por minuto. Para lograr una comunicación más rápida y natural, el neurocirujano Edward Chang, de la Universidad de California en San Francisco, ha probado un método que utiliza un modelo informático conocido como algoritmo de aprendizaje profundo para interpretar patrones de actividad cerebral en el córtex sensoriomotor, una región del cerebro implicada en la producción del habla. Hasta ahora, el método se había probado en voluntarios a los que se les habían implantado electrodos por razones ajenas a la investigación, como el control de los ataques epilépticos.

En el nuevo estudio, el equipo de Chang retiró temporalmente una parte del cráneo del participante y colocó una fina hoja de electrodos más pequeña que una tarjeta de crédito directamente sobre su corteza sensoriomotora. Para “entrenar” un algoritmo informático que asociara los patrones de actividad cerebral con el inicio del habla y con determinadas palabras, el equipo necesitaba información fiable sobre lo que el hombre pretendía decir y cuándo.

Así que los investigadores presentaron repetidamente una de las 50 palabras en una pantalla y pidieron al hombre que intentara decirla en el momento en que se le indicara. Una vez entrenado el algoritmo con los datos de la tarea de palabras individuales, el hombre intentó leer frases construidas a partir del mismo conjunto de 50 palabras, como “Traiga mis gafas, por favor”. Para mejorar los aciertos del algoritmo, los investigadores añadieron un componente de procesamiento llamado modelo de lenguaje natural, que utiliza secuencias de palabras comunes para predecir la siguiente palabra probable en una frase. Con este enfoque, el sistema sólo se equivocó en un 25% de las palabras de una frase, según informan hoy en The New England Journal of Medicine. Esto es “bastante impresionante”, afirma Stephanie Riès-Cornou, neurocientífica de la Universidad Estatal de San Diego. (La tasa de error para un rendimiento casual sería del 92%).

Dado que el cerebro se reorganiza con el tiempo, no estaba claro que las áreas de producción del habla dieran señales interpretables después de más de 10 años de anartria, señala Anne-Lise Giraud, neurocientífica de la Universidad de Ginebra. La conservación de las señales “es sorprendente”, afirma. Y Herff afirma que el equipo dio un paso “gigantesco” al generar frases mientras el hombre intentaba hablar, en lugar de hacerlo a partir de datos cerebrales previamente registrados, como han hecho la mayoría de los estudios.

Con el nuevo enfoque, el hombre pudo producir frases a un ritmo de hasta 18 palabras por minuto, dice Chang. Esta velocidad es comparable a la alcanzada con otra interfaz cerebro-ordenador, descrita en Nature en mayo. Ese sistema descodificaba letras individuales a partir de la actividad de un área cerebral responsable de planificar los movimientos de la mano mientras una persona paralizada imaginaba la escritura. Estas velocidades aún están lejos de las 120 a 180 palabras por minuto típicas del inglés conversacional, señala Riès-Cornou, pero superan con creces lo que el participante puede lograr con su dispositivo controlado por la cabeza.

El sistema no está listo para su uso en la vida cotidiana, señala Chang. En el futuro, se ampliará su repertorio de palabras y se hará inalámbrico, para que el usuario no esté atado a un ordenador del tamaño de una mininevera.