[ad_1]
Los modelos informáticos que imitan la estructura y función del sistema auditivo humano podrían ayudar a los investigadores a desarrollar mejores audífonos, implantes cocleares e interfaces cerebro-máquina. Un nuevo estudio del MIT ha descubierto que los modelos computacionales modernos derivados del aprendizaje automático se están acercando a este objetivo.
En el estudio más grande hasta la fecha sobre redes neuronales profundas entrenadas para realizar tareas auditivas, el equipo del MIT demostró que la mayoría de estos modelos producen representaciones internas que comparten propiedades de las representaciones que aparecen en el cerebro humano cuando las personas escuchan los mismos sonidos.
El estudio también proporciona información sobre cómo entrenar mejor este tipo de modelos: los investigadores descubrieron que los modelos entrenados con información auditiva, incluido el ruido de fondo, imitan mejor los patrones de activación de la corteza auditiva humana.
“Lo especial de este estudio es que se trata de la comparación más completa de este tipo de modelo con el audífono hasta la fecha. «El estudio sugiere que los modelos derivados del aprendizaje automático son un paso en la dirección correcta y nos da algunas pistas sobre lo que tiende a convertirlos en mejores modelos del cerebro», afirma Josh McDermott, profesor asociado de cerebro y ciencias cognitivas en el MIT. , miembro del Instituto McGovern de Investigación del Cerebro y del Centro para Cerebros, Mentes y Máquinas del MIT, y autor principal del estudio.
Greta Tuckute, graduada del MIT, y Jenelle Feather PhD ’22 son las autoras principales del artículo de acceso abierto que aparece hoy en Más biología.
Modelos de audiencia
Las redes neuronales profundas son modelos computacionales que constan de muchas capas de unidades de procesamiento de información que pueden entrenarse para realizar tareas específicas basadas en grandes cantidades de datos. Este tipo de modelos se utilizan ampliamente en muchas aplicaciones y los neurocientíficos han comenzado a explorar la posibilidad de que estos sistemas también puedan usarse para describir la forma en que el cerebro humano realiza ciertas tareas.
«Estos modelos construidos con aprendizaje automático son capaces de transmitir comportamientos en un grado que realmente no era posible con tipos de modelos anteriores, y eso ha generado un interés en saber si las representaciones en los modelos podrían capturar eventos o no». cerebro”, dice Tuckute.
Cuando una red neuronal realiza una tarea, sus unidades de procesamiento generan patrones de activación en respuesta a cualquier entrada de audio que recibe, como una palabra u otro tipo de sonido. Estas representaciones modelo de las entradas se pueden comparar con los patrones de activación observados en escáneres cerebrales por resonancia magnética funcional de personas que escuchan las mismas entradas.
En 2018, McDermott y el entonces estudiante graduado Alexander Kell informaron que cuando entrenaron una red neuronal para realizar tareas auditivas (por ejemplo, reconocer palabras a partir de una señal de audio). Personas escuchando los mismos sonidos.
Desde entonces, este tipo de modelos se han utilizado ampliamente, por lo que el grupo de investigación de McDermott se propuso evaluar un conjunto más amplio de modelos para descubrir si la capacidad de aproximarse a las representaciones neuronales observadas en el cerebro humano es una característica general de estos modelos.
Para este estudio, los investigadores analizaron nueve modelos disponibles públicamente de redes neuronales profundas entrenadas para realizar tareas auditivas y también crearon 14 modelos propios basados en dos arquitecturas diferentes. La mayoría de estos modelos fueron entrenados para realizar una sola tarea (reconocer palabras, identificar al hablante, reconocer sonidos ambientales e identificar géneros musicales), mientras que dos de ellos fueron entrenados para realizar múltiples tareas.
Cuando los investigadores presentaron a estos modelos sonidos naturales utilizados como estímulos en experimentos de resonancia magnética funcional en humanos, descubrieron que las representaciones internas del modelo tendían a tener similitudes con las producidas por el cerebro humano. Los modelos cuyas representaciones eran más similares a las del cerebro fueron modelos que habían sido entrenados en más de una tarea y fueron entrenados con información auditiva que incluía ruido de fondo.
«Si entrenas modelos en ruido, le dan mejores predicciones al cerebro que si no lo haces, lo que intuitivamente tiene sentido porque gran parte de la audición en el mundo real implica oír en ruido, y eso es algo plausible en lo que pensar sobre el sistema auditivo». está adaptado”, dice Feather.
Procesamiento jerárquico
El nuevo estudio también respalda la idea de que la corteza auditiva humana tiene cierto grado de organización jerárquica, con el procesamiento dividido en fases que respaldan diferentes funciones computacionales. Al igual que en el estudio de 2018, los investigadores encontraron que las representaciones generadas en etapas anteriores del modelo son más similares a las de la corteza auditiva primaria, mientras que las representaciones generadas en etapas posteriores del modelo son más similares a las generadas en regiones del cerebro más allá de la corteza primaria. corteza.
Además, los investigadores descubrieron que los modelos entrenados en diferentes tareas reproducían mejor diferentes aspectos del proceso de audición. Por ejemplo, los modelos entrenados en una tarea relacionada con el idioma eran más similares a las áreas selectivas del idioma.
«Aunque el modelo ha visto exactamente los mismos datos de entrenamiento y la arquitectura es la misma, cuando lo optimizas para una tarea específica, puedes ver que explica selectivamente ciertas propiedades de ajuste en el cerebro», dice Tuckute.
El laboratorio de McDermott ahora planea utilizar sus hallazgos para desarrollar modelos que puedan reproducir las respuestas del cerebro humano con aún más éxito. Además de ayudar a los científicos a aprender más sobre la organización del cerebro, estos modelos también podrían usarse para desarrollar mejores audífonos, implantes cocleares e interfaces cerebro-máquina.
“Uno de los objetivos de nuestro campo es desarrollar un modelo informático que pueda predecir las reacciones y el comportamiento del cerebro. Creemos que si podemos lograr este objetivo, se abrirán muchas puertas”, afirma McDermott.
La investigación fue financiada por los Institutos Nacionales de Salud, una subvención de Amazon Science Hub, una beca de doctorado internacional de la Asociación Estadounidense de Mujeres Universitarias, una beca de amigos del Instituto McGovern del MIT y una beca de neurociencia computacional integrativa (ICoN) del Centro K. Lisa Yang en MIT, y una beca de posgrado del Departamento de Ciencias Computacionales de la Energía.
[ad_2]