Reciba actualizaciones gratuitas de Neurotecnología
Le enviaremos un correo electrónico myFT Daily Digest con las últimas noticias sobre neurotecnología todas las mañanas.
“Con todo, fue solo un ladrillo en la pared”: el coro de la canción clásica de Pink Floyd surgió de los parlantes en un laboratorio de neurociencia en la Universidad de California, Berkeley, los ritmos y las palabras sonaban embarrados pero reconocibles.
La pista no era una grabación de la banda de rock, sino que se generó utilizando técnicas de inteligencia artificial a partir de las ondas cerebrales de las personas que la escuchaban, en el primer experimento científico del mundo para reconstruir una canción reconocible a partir de señales neuronales.
Los hallazgos serán invaluables tanto para los científicos que buscan comprender cómo responde el cerebro a la música como para los neurotecnólogos que desean ayudar a las personas con daño neurológico severo a comunicarse a través de las interfaces cerebro-computadora de una manera que suene más natural, ya sea que estén hablando o cantando. .
“La música tiene prosodia [patterns of rhythm and sound] y contenido emocional”, dijo Robert Knight, profesor de psicología y neurociencia de UC Berkeley, quien dirigió la investigación y cuyos hallazgos se publicaron en la revista PLOS Biology el martes.
“A medida que avanza todo el campo de las interfaces cerebro-máquina, esto proporciona una forma de agregar tono y ritmo humanos a futuros implantes cerebrales para personas que necesitan salidas de voz o habla. . . eso es en lo que realmente hemos comenzado a descifrar el código”, agregó Knight.
Las grabaciones de electroencefalografía (EEG) utilizadas en la investigación se obtuvieron alrededor de 2012, en un momento en que las personas con epilepsia grave a menudo tenían grandes conjuntos de electrodos, generalmente 92 cada uno, colocados sobre la superficie del cerebro para identificar la ubicación de las convulsiones intratables.
Los pacientes se ofrecieron como voluntarios para ayudar en la investigación científica al mismo tiempo al permitir que los investigadores registraran sus ondas cerebrales mientras escuchaban el habla y la música.
Estudios previos basados en estos experimentos dieron a los científicos suficientes datos para reconstruir palabras individuales que las personas escuchaban a partir de grabaciones de su actividad cerebral. Pero solo ahora, una década después, la IA se ha vuelto lo suficientemente poderosa como para reconstruir pasajes de canciones.
Los investigadores de Berkeley analizaron grabaciones de 29 pacientes que escucharon «Another Brick in the Wall (Part 1)» de Pink Floyd, parte de una trilogía de canciones del álbum de 1979 The Wall. Identificaron áreas del cerebro involucradas en la detección del ritmo y descubrieron que algunas partes de la corteza auditiva, ubicadas justo detrás y encima de la oreja, respondían al inicio de una voz o sintetizador, mientras que otras respondían a voces sostenidas.
Radiografías de pacientes que participan en la investigación, mostrando electrodos en sus cráneos © Peter Brunner
Los hallazgos respaldaron ideas de larga data sobre los roles que desempeñan los dos hemisferios del cerebro. Aunque trabajan en estrecha colaboración, el lenguaje se procesa predominantemente en el lado izquierdo, mientras que “la música está más distribuida, con un sesgo hacia [the] cierto”, dijo Knight.
Su colega Ludovic Bellier, quien dirigió el análisis, dijo que los dispositivos utilizados para ayudar a las personas a comunicarse cuando no pueden hablar tienden a vocalizar las palabras una por una. Las oraciones pronunciadas por la máquina tienen una calidad robótica que recuerda la forma en que el difunto Stephen Hawking sonaba en un dispositivo generador de voz.
“Queremos dar más color y libertad expresiva a la vocalización, incluso cuando la gente no esté cantando”, dijo Bellier.
Archivo de audio de ‘Another Brick in the Wall (Parte 1)’ recreado a partir de señales neuronales utilizando IA mejorada © Ludovic Bellier
Archivo de audio de ‘Another Brick in the Wall (Parte 1)’ recreado a partir de señales neuronales utilizando IA mejorada © Ludovic Bellier
Los investigadores de Berkeley dijeron que la tecnología de lectura del cerebro podría extenderse hasta el punto en que los pensamientos musicales podrían decodificarse de alguien que usa una gorra de EEG en el cuero cabelludo en lugar de requerir electrodos debajo del cráneo en el cerebro. Entonces podría ser posible imaginar o componer música, transmitir la información musical y escucharla en altavoces externos.
«Las técnicas no invasivas simplemente no son lo suficientemente precisas hoy en día», dijo Bellier. «Esperemos que en el futuro podamos, solo con electrodos colocados en el exterior del cráneo, leer la actividad de regiones más profundas del cerebro con una buena calidad de señal».