Escuche «Another Brick in the Wall» de Pink Floyd (descodificado en base a ondas cerebrales humanas)
(Fuente de audio: Bellier et al., 2023, PLOS Biology, CC-BY 4.0 (https://creativecommons.org/licenses/by/4.0/))
Al grabar y decodificar la actividad cerebral de las personas mientras escuchan «Another Brick in the Wall» de Pink Floyd, los científicos han recreado fragmentos reconocibles de la canción de protesta de 1979.
En algunos clips, se puede escuchar una voz parecida a la de Roger Waters cantando el famoso estribillo, pero en otros, el himno nacional suena mucho más confuso. Aún así, los investigadores dicen que el trabajo añade «otro ladrillo» a nuestra comprensión de cómo el cerebro procesa la música y podría tener aplicaciones futuras en interfaces cerebro-computadora (BCI) que ayudan a las personas a comunicarse.
Investigaciones anteriores reconstruyeron el habla inteligible decodificando la actividad cerebral, y el estudio mostró que se podrían utilizar técnicas similares para reconstruir la música. Esto es posible gracias a la superposición funcional de las estructuras cerebrales que procesan estos dos tipos de señales acústicas complejas.
relacionado: La IA de Google para ‘lectura de la mente’ puede saber qué música estás escuchando en función de tus señales cerebrales
(Fuente de audio: Bellier et al., 2023, PLOS Biology, CC-BY 4.0 (https://creativecommons.org/licenses/by/4.0/))
En el nuevo estudio, publicado el martes (15 de agosto) en la revista PLOS Biology, los investigadores esperan comprender mejor cómo los humanos procesan la música para desarrollar interfaces cerebro-computadora. Para aquellos que pueden formar palabras mentalmente pero no pueden hablar físicamente, como aquellos con síndrome de enclaustramiento, estos dispositivos podrían ayudarlos a comunicarse.
Las interfaces cerebro-computadora incorporan modelos que traducen la actividad cerebral en palabras, pero carecen de modelos que capturen elementos musicales como el tono, la melodía, la armonía y el ritmo. El autor principal, Robert Knight, profesor de psicología y neurociencia en UC Berkeley, dijo a WordsSideKick.com que estos modelos podrían ayudar a los usuarios a transmitir mejor la emoción detrás del habla. Por ejemplo, podrían convertir el «te amo» que suena como un robot en una declaración más humana, dijo.
El equipo de investigación analizó la actividad cerebral de 29 personas que habían escuchado la canción de Pink Floyd «Another Brick in the Wall, Part 1». Cada participante tenía epilepsia y se sometió a un electroencefalograma intracraneal (iEEG), durante el cual se colocaron 2.668 electrodos en su corteza, la superficie arrugada del cerebro.
De ellos, 347 electrodos fueron los más relevantes para procesar música. La percepción del ritmo se ha relacionado con una parte específica de la circunvolución temporal superior (STG), una parte del cerebro fundamental para el procesamiento auditivo. La mayoría de los otros electrodos clave se encuentran en la corteza sensoriomotora, que procesa y responde a la información sensorial, y en la circunvolución frontal inferior, que participa en la comprensión y producción del lenguaje.
Se pidió a los participantes que escucharan la música sin prestar atención a ningún detalle. Luego, los electrodos captan la actividad eléctrica de las neuronas, capturando cómo los diferentes elementos musicales están codificados en diferentes regiones del cerebro. Los científicos decodificaron estos datos en la acústica de la canción utilizando modelos basados en regresión, revelando la relación entre diferentes variables y resultados esperados. Los modelos generan espectrogramas, que son representaciones visuales de frecuencias de sonido que cambian con el tiempo, que el equipo reconstruyó como archivos de audio.
El resultado: a los participantes se les tocó una melodía similar pero no idéntica a la melodía original.
«Hay ciertos pasajes en la canción donde se puede ver claramente que la reconstrucción es ‘otro ladrillo en la pared'», dijo Knight. «Hay algunas partes que realmente no puedes hacer… simplemente está demasiado embarrado».
«No estamos tratando de decir que produjimos música de Pink Floyd de alta fidelidad», añadió, pero lograron «obtener un espectrograma altamente confiable» a partir de un número relativamente pequeño de electrodos bien colocados.
Knight cree que el uso de una mayor densidad de electrodos podría mejorar la calidad de la canción reconstruida; el equipo utilizó un espaciado de aproximadamente 5 milímetros. «Pero sabemos que la corteza en realidad tiene información independiente en la escala de uno a un milímetro y medio», dijo Knight. Otra limitación es que los investigadores no investigaron la familiaridad de los participantes con las canciones de Pink Floyd ni su conocimiento musical general.
Pietro Avanzini, investigador de neurociencia del Consejo Nacional de Investigación de Italia que no participó en el estudio, cree que el estudio es interesante porque revela qué partes de la maquinaria neuronal de una persona procesan diferentes características musicales. Además, resalta las diferencias en cómo el cerebro de cada individuo responde a los mismos estímulos, «proporcionando valor (y posiblemente una base neuronal) para la variabilidad en nuestra experiencia perceptiva», dijo.
¿Existe alguna razón particular por la que los científicos deciden estudiar «otro ladrillo en la pared»?
«Creo que todos amamos a Pink Floyd», dijo Knight.