La propuesta consiste en un sistema end-to-end que recibe una mezcla de voces habladas a través de un solo canal de audio. El aparato separa automáticamente cada una de las voces y determina a cuál de ellas se está prestando atención. Para ello, el audífono cognitivo interpreta las señales neuronales generadas en las regiones de la corteza cerebral que corresponden a la decodificación de la atención auditiva.

Una vez interpretadas dichas señales, el audífono cognitivo aísla y amplifica la conversación que interesa al oyente. Todo ello, en un proceso que dura menos de 10 segundos, según matiza el director del trabajo, Nima Mesgarani, en una nota de prensa de la universidad. Según el artículo que publica el Journal of Neural Engineering, el audífono cognitivo ya ha sido puesto a prueba, con buenos resultados, en 6 voluntarios sometidos a cirugía para tratar la epilepsia.

En este ensayo, monitorizado mediante registros electrocorticográficos invasivos, los oyentes debían prestar atención, alternativamente, a un hablante masculino y uno femenino que dialogaban a la vez. El sistema “demostró una mejora significativa en las medidas objetivas y subjetivas de la conversación”, asegura Mesgarani; tanto es así que “casi todos los voluntarios querían seguir usando el audífono cognitivo”, asegura el ingeniero.

“Nuestra aportación a la decodificación de la atención auditiva tiende un puente entre los avances más recientes en las tecnologías de procesamiento del habla y la investigación de prótesis”, considera el experto. El audífono cognitivo “nos acerca un poco más al desarrollo de dispositivos capaces de rastrear de forma automática y dinámica la dirección de la atención del usuario”, asegura. No obstante, “traducir estos hallazgos a aplicaciones del mundo real plantea aún muchos desafíos”, considera el investigador postdoctoral James O'Sullivan.