Cuando las ondas sonoras llegan al oído interno, las neuronas captan las vibraciones y alertan al cerebro. Codificada en sus señales hay una gran cantidad de información que nos permite seguir conversaciones, reconocer voces familiares, apreciar la música y localizar rápidamente un teléfono que suena o un bebé que llora.
Las neuronas envían señales emitiendo picos: cambios breves de voltaje que se propagan a lo largo de las fibras nerviosas, también conocidos como potenciales de acción. Sorprendentemente, las neuronas auditivas pueden disparar cientos de picos por segundo y cronometrar sus picos con exquisita precisión para que coincidan con las oscilaciones de las ondas sonoras entrantes.
Con nuevos y potentes modelos de audición humana, los científicos del Instituto McGovern para la Investigación del Cerebro del MIT han determinado que esta sincronización precisa es vital para algunas de las formas más importantes en que damos sentido a la información auditiva, incluido el reconocimiento de voces y la localización de sonidos.
Los hallazgos de acceso abierto, informó el 4 de diciembre en la revista Comunicaciones de la naturalezamuestran cómo el aprendizaje automático puede ayudar a los neurocientíficos a comprender cómo el cerebro utiliza la información auditiva en el mundo real. Profesor del MIT e investigador de McGovern Josh McDermottquien dirigió la investigación, explica que los modelos de su equipo equipan mejor a los investigadores para estudiar las consecuencias de diferentes tipos de discapacidad auditiva e idear intervenciones más efectivas.
ciencia del sonido
Las señales auditivas del sistema nervioso están sincronizadas con tanta precisión que los investigadores han sospechado durante mucho tiempo que la sincronización es importante para nuestra percepción del sonido. Las ondas sonoras oscilan a velocidades que determinan su tono: los sonidos graves viajan en ondas lentas, mientras que las ondas sonoras agudas oscilan con más frecuencia. El nervio auditivo que transmite información desde las células ciliadas que detectan el sonido en el oído hasta el cerebro genera picos eléctricos que corresponden a la frecuencia de estas oscilaciones. «Los potenciales de acción en un nervio auditivo se disparan en momentos muy particulares en relación con los picos en la forma de onda del estímulo», explica McDermott, quien también es jefe asociado del Departamento de Ciencias Cognitivas y Cerebrales del MIT.
Esta relación, conocida como bloqueo de fase, requiere que las neuronas cronometren sus picos con una precisión inferior a un milisegundo. Pero los científicos no saben realmente qué tan informativos son estos patrones temporales para el cerebro. Más allá de ser científicamente intrigante, dice McDermott, la pregunta tiene importantes implicaciones clínicas: «Si se quiere diseñar una prótesis que proporcione señales eléctricas al cerebro para reproducir la función del oído, podría decirse que es bastante importante saber qué tipo de información hay en el cerebro». El oído normal realmente importa”, afirma.
Esto ha sido difícil de estudiar experimentalmente; Los modelos animales no pueden ofrecer mucha información sobre cómo el cerebro humano extrae la estructura del lenguaje o la música, y el nervio auditivo es inaccesible para estudiarlo en humanos. Entonces McDermott y el estudiante graduado Mark Saddler PhD ’24 recurrieron a las redes neuronales artificiales.
Audición artificial
Los neurocientíficos han utilizado durante mucho tiempo modelos computacionales para explorar cómo el cerebro podría decodificar la información sensorial, pero hasta avances recientes en el poder de la computación y los métodos de aprendizaje automático, estos modelos se limitaban a simular tareas simples. «Uno de los problemas de estos modelos anteriores es que a menudo son demasiado buenos», dice Saddler, que ahora trabaja en la Universidad Técnica de Dinamarca. Por ejemplo, un modelo computacional encargado de identificar el tono más alto en un par de tonos simples probablemente funcione mejor que las personas a las que se les pide que hagan lo mismo. «Este no es el tipo de tarea que hacemos todos los días al escuchar», señala Saddler. «El cerebro no está optimizado para resolver esta tarea tan artificial». Este desajuste limitó los conocimientos que podían extraerse de esta generación anterior de modelos.
Para comprender mejor el cerebro, Saddler y McDermott querían desafiar un modelo de audición para que hiciera cosas para las que las personas usan su audición en el mundo real, como reconocer palabras y voces. Eso significó desarrollar una red neuronal artificial para simular las partes del cerebro que reciben información del oído. La red recibió información de unas 32.000 neuronas sensoriales de detección de sonido simuladas y luego se optimizó para diversas tareas del mundo real.
Los investigadores demostraron que su modelo replicaba bien la audición humana, mejor que cualquier modelo anterior de comportamiento auditivo, dice McDermott. En una prueba, se pidió a la red neuronal artificial que reconociera palabras y voces dentro de docenas de tipos de ruido de fondo, desde el zumbido de la cabina de un avión hasta aplausos entusiastas. En todas las condiciones, el modelo se comportó de manera muy similar a los humanos.
Sin embargo, cuando el equipo degradó la sincronización de los picos en el oído simulado, su modelo ya no pudo igualar la capacidad de los humanos para reconocer voces o identificar la ubicación de los sonidos. Por ejemplo, aunque el equipo de McDermott había demostrado previamente que las personas utilizan el tono para ayudarse a identificar las voces de las personas, el modelo reveló que esta capacidad se pierde sin señales sincronizadas con precisión. «Se necesita una sincronización de picos bastante precisa para tener en cuenta el comportamiento humano y realizar bien la tarea», dice Saddler. Esto sugiere que el cerebro utiliza señales auditivas sincronizadas con precisión porque ayudan en estos aspectos prácticos de la audición.
Los hallazgos del equipo demuestran cómo las redes neuronales artificiales pueden ayudar a los neurocientíficos a comprender cómo la información extraída por el oído influye en nuestra percepción del mundo, tanto cuando la audición está intacta como cuando está deteriorada. «La capacidad de vincular patrones de activación del nervio auditivo con el comportamiento abre muchas puertas», dice McDermott.
«Ahora que tenemos estos modelos que vinculan las respuestas neuronales en el oído con el comportamiento auditivo, podemos preguntar: ‘Si simulamos diferentes tipos de pérdida auditiva, ¿qué efecto tendrá eso en nuestras capacidades auditivas?'», dice McDermott. «Eso nos ayudará a diagnosticar mejor la pérdida auditiva y creemos que también hay extensiones para ayudarnos a diseñar mejores audífonos o implantes cocleares». Por ejemplo, dice: “El implante coclear tiene varias limitaciones: puede hacer algunas cosas y otras no. ¿Cuál es la mejor manera de configurar ese implante coclear para permitirle mediar comportamientos? En principio, puedes usar los modelos para decirte eso”.