Tecnología

Consiguen ‘leer de la mente’ la canción que el paciente estaba escuchando mientras le operaban

Hace una década, 29 personas dieron su consentimiento para un extraño experimento: mientras les operaban en el cerebro para curar su epilepsia, escucharían en el quirófano la canción ‘Another Brick on the Wall. Part 1’, de Pink Floyd. Además, se les colocarían unos electrodos directamente sobre la corteza cerebral para registrar qué estaba pasando. La idea era ‘decodificar’ la actividad eléctrica de las regiones del cerebro sintonizadas con los atributos de la música (la parte con la que escuchamos el tono, el ritmo, la armonía y la letra de la canción) y reconstruir lo que el paciente estaba escuchando. Diez años más tarde, por fin lo han conseguido. Los resultados acaban de publicarse en la revista ‘PLoS Biology‘.

Para el nuevo estudio, los autores volvieron a analizar las grabaciones cerebrales obtenidas en 2012 y 2013 de los 29 sujetos de estudio. Anteriores trabajos ya habían conseguido crear un sistema capaz de discernir entre estilos musicales leyendo las ondas cerebrales. Pero el equipo quería dar un paso más allá, reconstruir frases de la canción y que estas fueran reconocibles. Para ello, usaron un sistema de inteligencia artificial con el que se puede entender los acordes básicos e incluso la mítica frase ‘All in all, it was just a brick in the wall’.

VÍDEO AQUÍ

Utilizando los datos de las 29 personas se escucha la frase y la melodía es perfectamente distinguible. Algo peor se escucha cuando se utilizan los datos de tan solo una persona, si bien el patrón musical típico sí es reconocible.

Otras interfaces máquina-cerebro

Existen interfaces máquinas-cerebro que se usan hoy para ayudar a las personas que no pueden hablar a decodificar palabras, pero las oraciones producidas tienen una calidad robótica similar a cómo sonaba el difunto Stephen Hawking cuando usaba un dispositivo generador de voz. Es algo así como presionar con la mente las teclas más que las órdenes viajen directamente de nuestra cabeza a la máquina.

Tampoco es la primera vez que se consigue decodificar y reconstruir el habla. En 2012, este mismo equipo fue el primero en reconstruir las palabras que una persona escuchaba solo a partir de grabaciones de actividad cerebral. Más recientemente, otros investigadores han llevado el trabajo mucho más allá. Eddie Chang, neurocirujano de la Universidad de California en San Francisco, registró señales del área motora del cerebro asociadas con los movimientos de la mandíbula, los labios y la lengua para reconstruir el habla que pretendía un paciente paralizado, con las palabras mostradas en una pantalla de un ordenador.

Este trabajo, publicado en ‘Nature’ en 2021, empleó inteligencia artificial para interpretar las grabaciones cerebrales de un paciente que intentaba vocalizar una oración basada en un conjunto de 50 palabras.

Pero el habla, según señalan los autores de este nuevo estudio, es algo más. Tiene un tono y una musicalidad que muchas veces nos ayudan a comprender mejor la comunicación. Y la música recoge todos esos aspectos. «Es un resultado maravilloso», dijo Robert Knight, neurólogo y profesor de psicología de UC Berkeley en el Instituto de Neurociencia Helen Wills, quien realizó el estudio con Ludovic Bellier, becario postdoctoral en ese momento.

Bellier enfatizó que el estudio, que usó inteligencia artificial para decodificar la actividad cerebral y luego codificar una reproducción, no solo creó una caja negra para sintetizar el habla, sino que también pudieron identificar nuevas áreas del cerebro involucradas en la detección del ritmo. Además, los investigadores también confirmaron que el lado derecho del cerebro está más en sintonía con la música que el lado izquierdo.

En un futuro

Porque, según mejores las técnicas de grabación del cerebro, algún día será posible realizar tales grabaciones sin abrir el cerebro, tal vez utilizando electrodos sensibles adheridos al cuero cabelludo. Actualmente, los electroencefalogramas superficiales pueden medir la actividad cerebral para detectar una letra individual de un flujo de letras. «Sin embargo, tarda al menos 20 segundos en identificar una sola letra, lo que hace que la comunicación sea laboriosa y difícil», señala Knight.

«Una de las cosas para mí acerca de la música es que tiene prosodia y contenido emocional. A medida que avanza todo este campo de las interfaces cerebro-máquina, esto te brinda una forma de agregar musicalidad a los futuros implantes cerebrales para las personas que lo necesitan. Te da la capacidad de decodificar no solo el contenido lingüístico, sino parte del contenido prosódico del habla, parte del afecto. Creo que eso es lo que realmente hemos comenzado a descifrar ahora», finaliza Knight.

.

Publicaciones relacionadas

Botón volver arriba