La herramienta, presentada en la revista especializada Speech Communication, consta de una sonda que se coloca bajo la mandíbula para captar los movimientos y un programa informático que reproduce la posición que adoptan los labios, la lengua, el paladar y los dientes; todos ellos, elementos que quedan, generalmente, ocultos dentro del tracto vocal, dificultando así las correcciones en la pronunciación.

El algoritmo funciona con modelo probabilístico basado en una gran base de datos articulatorios recopilados a partir de “hablantes expertos" capaces de pronunciar todos los sonidos en uno o más idiomas. Este modelo se adapta automáticamente a la morfología de cada nuevo usuario en el transcurso de una breve fase de calibración, durante la cual el paciente debe pronunciar algunas frases.

Tal como explican sus creadores en una nota de prensa del Centre National de la Recherche Scientifique, parte de la utilidad del invento reside en ser comprensible para los pacientes. “Durante años, los investigadores y terapeutas han estado utilizando ultrasonidos, pero la calidad de la imagen hace que sea difícil de usar para quien no está habituado a ella”, explican.

La versión simplificada del sistema, que ya ha sido validada en personas sanas, comenzará pronto un ensayo clínico en pacientes sometidos a cirugía de lengua. Además, los inventores trabajan, desde 2015, en una nueva versión que funcione directamente a partir de los sonidos emitidos por el paciente, sin necesidad de ecografías de lengua.