¡Un sistema auditivo controlado por el cerebro! Ahora es posible.

Maria Salavadores
Autor : Maria Salavadores

El cerebro humano tiene la capacidad de orientar la atención auditiva hacia una sola voz en medio de un entorno ruidoso, un proceso que los científicos conocen como escucha selectiva. Durante décadas, reproducir este mecanismo de forma artificial ha sido uno de los grandes retos de la ingeniería biomédica y de las neurociencias.

Hoy, gracias a los avances en interfaces cerebro-máquina y en el procesamiento de señales neuronales, los investigadores han logrado desarrollar sistemas auditivos capaces de seguir en tiempo real las intenciones del oyente, adaptando automáticamente lo que se escucha según lo que el cerebro decide atender.

Muytec hace el punto sobre esta tecnología que podría transformar para siempre la forma en que las personas con pérdida auditiva perciben el mundo sonoro.

El cerebro humano toma el control del sonido en tiempo real

Un equipo de científicos del Instituto Zuckerman de la Universidad de Columbia ha logrado lo que muchos consideraban un horizonte lejano: la primera evidencia directa de un sistema auditivo gobernado por la actividad cerebral del propio usuario. El hallazgo, publicado en Nature Neuroscience, abre una vía prometedora hacia dispositivos que van mucho más allá de los audífonos convencionales.

El sistema funciona como una prolongación neuronal del oyente, capaz de aislar dinámicamente una voz entre la multitud en entornos sonoros complejos, imitando lo que los neurocientíficos denominan el «efecto fiesta de cóctel», esa capacidad natural del cerebro para enfocar una conversación en medio del ruido ambiente.

Los audífonos actuales amplifican el habla y atenúan ciertos ruidos de fondo, pero no distinguen entre voces simultáneas. Este nuevo enfoque no amplifica indiscriminadamente: detecta, selecciona y ajusta el volumen en tiempo real según la intención auditiva del usuario.

Más información técnica y científica disponible en las fuentes originales:

Pacientes con epilepsia, los primeros en probar este sistema pionero

Para validar la tecnología, los investigadores trabajaron con pacientes de epilepsia que ya portaban electrodos intracerebrales implantados con fines diagnósticos, concretamente para localizar el foco de sus convulsiones. Esta circunstancia clínica ofreció una ventana privilegiada hacia la actividad del córtex auditivo humano.

Durante el experimento, los voluntarios escucharon dos conversaciones de forma simultánea. El sistema monitorizó en tiempo real las señales neuronales y detectó automáticamente a cuál de las dos voces prestaba atención el paciente.

La respuesta del dispositivo fue inmediata:

  • Aumentó el volumen de la conversación de interés.
  • Silenció progresivamente la voz ignorada.
  • Ajustó los parámetros sin intervención manual del usuario.

«El sistema actúa como una extensión neuronal del usuario, permitiendo filtrar sonidos en entornos complejos sin que el oyente deba hacer nada conscientemente.»

Instituto Zuckerman, Universidad de Columbia

El córtex auditivo humano, una arquitectura aún no del todo descifrada

El éxito de este sistema descansa sobre décadas de investigación en neurociencia auditiva. El córtex auditivo humano cortex auditivus en nomenclatura latina se organiza de forma tonotópica: sus neuronas responden de manera preferente a frecuencias sonoras específicas, de las más graves a las más agudas, como las teclas de un piano invisible.

Su arquitectura se articula en tres niveles funcionales principales:

Nivel Denominación Área de Brodmann
Núcleo (Core) Córtex Auditivo Primario (A1) BA41
Cinturón (Belt) Córtex Auditivo Secundario (A2) BA42
Paracinturón (Parabelt) Córtex Auditivo Terciario (A3) BA22 (parcial)

La variabilidad entre especies no es menor: los roedores poseen apenas 2 campos auditivos, mientras que el macaco rhesus puede alcanzar hasta 15. En el ser humano, el número exacto y la organización precisa de estos campos siguen siendo objeto de estudio mediante técnicas como la fMRI, el EEG y la electrocorticografía.

Un dato que ilustra la plasticidad de este sistema: en ratas, la exposición a una frecuencia concreta durante los días postnatales 11 a 13 puede provocar una expansión de hasta el doble en la representación de esa frecuencia en A1. Una metáfora de lo que este nuevo dispositivo aspira a aprovechar: la maleabilidad del cerebro al servicio de la escucha.

¿Puede un audífono aprender a escuchar como tú?

La tecnología presentada por el Instituto Zuckerman no surge en el vacío: se inscribe en una carrera tecnológica más amplia en la que gigantes como Cochlear, Starkey o Oticon llevan años intentando incorporar inteligencia artificial a sus dispositivos. Sin embargo, ninguno de estos sistemas comerciales había logrado hasta ahora leer directamente la intención auditiva desde el cerebro. La diferencia no es menor: es como comparar un termostato programable con un organismo vivo que anticipa el frío antes de sentirlo.

La distinción clave reside en que los sistemas anteriores procesan el sonido desde fuera;
Este nuevo enfoque lo procesa desde dentro, desde la propia actividad neuronal del oyente.

Desde el punto de vista de la prevalencia, el contexto social de esta innovación resulta difícil de ignorar. Según la Organización Mundial de la Salud, más de 1.500 millones de personas conviven con algún grado de pérdida auditiva, y se estima que en 2050 esa cifra superará los 2.500 millones. En ese escenario, un dispositivo que no solo amplifica sino que interpreta resulta tan necesario como el agua en un desierto:

  • Aproximadamente el 65 % de las personas con pérdida auditiva se encuentran en países de ingresos bajos o medios.
  • Solo 1 de cada 10 personas que necesitan audífono tiene acceso real a uno.
  • El coste medio de un audífono avanzado oscila entre 1.000 y 6.000 euros por unidad en Europa.

El camino hacia la miniaturización y la implantación clínica de este sistema no será breve. Los electrodos intracerebrales utilizados en los ensayos actuales implican una intervención quirúrgica que limita, por ahora, el perfil del usuario potencial. No obstante, investigadores del MIT y de la Universidad de California en San Francisco trabajan en paralelo sobre interfaces cerebro-máquina no invasivas basadas en EEG de alta densidad, cuya resolución espacial mejora año tras año. La pregunta no es si este tipo de audífono llegará al mercado, sino cuándo dejará de ser una rareza clínica para convertirse en un objeto cotidiano.