Le système auditif humain est capable de n’écouter qu’une voix dans une salle encombrée. La création d’une aide auditive qui imite cette capacité a rendu les spécialistes du traitement du signal, les experts en intelligence artificielle, et les audiologistes dingues depuis des décennies. En 1953, le scientifique britannique Colin Cherry a d’abord baptisé cela le « le problème des cocktails ».
60 ans plus tard, moins de 25% des personnes ayant ont besoin d’une prothèse auditive en utilisent réellement une. Justement parce que la plus grande frustration provient du fait que les prothèses auditives ne peuvent pas faire la distinction entre, par exemple, une voix et le bruit d’une voiture qui passe si ces sons se produisent en même temps. Le dispositif gère le volume sur les deux, créant un vacarme incohérent.
Il est temps de résoudre ce problème. Afin de produire une meilleure expérience pour les utilisateurs de prothèses auditives, un laboratoire de l’Ohio State University, à Columbus, a récemment confié à un algorithme de deep learning la tâche de séparer les sons. Ils ont testé plusieurs versions d’un filtre numérique qui non seulement amplifie le son, mais peut également isoler la parole du bruit de fond et ajuster automatiquement les volumes de chacun séparément.