Por si no lo sabía, cuando las ondas sonoras llegan al oído interno, las neuronas que se encuentran allí captan las vibraciones y alertan al cerebro. En sus señales se encuentra codificada una gran cantidad de información que nos permite seguir conversaciones, así como también reconocer voces conocidas, apreciar la música y del mismo modo, localizar rápidamente un teléfono que suena o un bebé que llora por ejemplo. Las neuronas envían señales emitiendo picos (breves cambios de voltaje que se propagan a lo largo de las fibras nerviosas, también conocidos como potenciales de acción). Sorprendentemente, las neuronas auditivas tienen la capacidad de poder disparar cientos de picos por segundo y sincronizar sus picos con una precisión exquisita para que coincidan con las oscilaciones de las ondas sonoras entrantes.
Lo cierto es que, con nuevos y poderosos modelos de audición humana, los científicos del Instituto McGovern para la Investigación del Cerebro del MIT han determinado que esta sincronización precisa es realmente vital para algunas de las formas más importantes en que damos sentido a la información auditiva, incluido el reconocimiento de voces y también la localización de sonidos. En breve, todo acerca del impacto del aprendizaje automático en el procesamiento auditivo.
Lo que debe conocer acerca de la investigación sobre el aprendizaje automático y el procesamiento auditivo
Es crucial dar a conocer que los hallazgos de acceso abierto, publicados el pasado 4 de diciembre en la revista Nature Communications, logran mostrar cómo el aprendizaje automático puede ayudar a los neurocientíficos a comprender cómo el cerebro utiliza la información auditiva en el mundo real. El profesor del MIT e investigador de McGovern Josh McDermott, quien dirigió la investigación, ha explicado que los modelos de su equipo equipan mejor a los investigadores para estudiar las consecuencias de diferentes tipos de discapacidad auditiva y diseñar intervenciones más efectivas.
La ciencia del sonido
Las señales auditivas del sistema nervioso se sincronizan con tanta precisión que los investigadores han sospechado durante mucho tiempo que el tiempo es importante para nuestra percepción del sonido. Las ondas sonoras oscilan a velocidades que determinan su tono: los sonidos graves viajan en ondas lentas, mientras que las ondas sonoras agudas oscilan con mayor frecuencia. El nervio auditivo, el cual transmite información desde las células ciliadas que detectan el sonido en el oído hasta el cerebro, genera picos eléctricos que corresponden a la frecuencia de estas oscilaciones.
“Los potenciales de acción en un nervio auditivo se activan en puntos muy particulares en el tiempo en relación con los picos en la forma de onda del estímulo”, explica McDermott, quien también es director asociado del Departamento de Ciencias Cognitivas y del Cerebro del MIT.
Vale la pena destacar que esta relación, conocida como sincronización de fase, requiere que las neuronas sincronicen sus picos con una precisión de submilisegundos. Pero los científicos no sabían realmente hasta qué punto estos patrones temporales son informativos para el cerebro.
Además de ser científicamente intrigante, señala McDermott, la pregunta posee importantes implicaciones clínicas: “Si quieres diseñar una prótesis que proporcione señales eléctricas al cerebro para reproducir la función del oído, es muy importante saber qué tipos de información en el oído normal son realmente importantes”, comentó.
Esto ha sido difícil de estudiar experimentalmente; los modelos animales no pueden brindar mucha información sobre cómo el cerebro humano extrae la estructura del lenguaje o la música, y el nervio auditivo es inaccesible para el estudio en humanos. Por tal motivo, McDermott y el estudiante de posgrado Mark Saddler PhD ’24 recurrieron a las redes neuronales artificiales.
Audición artificial
Los neurocientíficos llevan mucho tiempo utilizando modelos computacionales para explorar cómo el cerebro tiene la capacidad de poder decodificar la información sensorial, pero hasta los recientes avances en potencia informática y métodos de aprendizaje automático, estos modelos se limitaban a simular tareas sencillas.
“Uno de los problemas de estos modelos anteriores es que suelen ser demasiado buenos”, afirma Saddler, que ahora trabaja en la Universidad Técnica de Dinamarca.
Por ejemplo, es posible que un modelo computacional encargado de identificar el tono más alto en un par de tonos simples tenga un mejor rendimiento que las personas a las que se les solicita que hagan lo mismo.
“Este no es el tipo de tarea que hacemos todos los días en la audición. El cerebro no está optimizado para resolver esta tarea tan artificial”, señala Saddler.
Cabe aclarar que este desajuste limitó los conocimientos que se podían extraer de esta generación anterior de modelos.
Para poder comprender mejor el cerebro, Saddler y McDermott querían desafiar a un modelo auditivo para que hiciera cosas para las que las personas usan su audición en el mundo real, como reconocer palabras y así mismo, voces. Es de resaltar que, eso significaba desarrollar una red neuronal artificial para simular las partes del cerebro que reciben información del oído. La red recibió información de unas 32.000 neuronas sensoriales de detección de sonido simuladas y posteriormente, la optimizó para diversas tareas del mundo real.
Los investigadores demostraron que su modelo replicaba bastante bien la audición humana, mejor que cualquier modelo anterior de comportamiento auditivo, según señaló McDermott. En una prueba, se le pidió a la red neuronal artificial que reconociera palabras y voces dentro de docenas de tipos de ruido de fondo, desde el zumbido de la cabina de un avión hasta inclusive, un aplauso entusiasta. En todas las condiciones, el modelo se comportó de forma muy similar a los humanos.
Sin embargo, cuando el equipo degradó la sincronización de los picos en el oído simulado, su modelo ya no podía igualar la capacidad de los humanos para reconocer voces o identificar la ubicación de los sonidos. Por ejemplo, aunque el equipo de McDermott había demostrado anteriormente que las personas usan el tono para ayudarlas a identificar las voces de las personas, el modelo reveló que esta capacidad se pierde sin señales sincronizadas con precisión.
“Se necesita una sincronización de picos bastante precisa para tener en cuenta el comportamiento humano y para desempeñarse bien en la tarea”, manifestó Saddler.
Cabe aclarar que eso sugiere que el cerebro usa señales auditivas sincronizadas con precisión porque ayudan a estos aspectos prácticos de la audición.
Vale la pena señalar que los descubrimientos del equipo demuestran cómo las redes neuronales artificiales tienen la capacidad de poder ayudar a los neurocientíficos a comprender cómo la información extraída por el oído influye en nuestra percepción del mundo, tanto cuando la audición está intacta como cuando está deteriorada.