Les évolutions actuelles et celles à venir vont apporter des réponses à de nombreuses personnes et pas uniquement aux patients malentendants.
À ce jour, nous ne connaissons pas la réalité du futur technologique des appareils auditifs. Les dispositions actuelles offrent la possibilité de traiter le signal en classifiant l'environnement sonore des personnes. Ils vont être en mesure de différencier les sources de bruit et de privilégier ainsi la discrimination de la parole dans le brouhaha. La connectivité est désormais intégrée dans nos solutions auditives et elle nous ouvre de nouvelles perspectives.
L’objectif principal réside en la capacité de maintenir la compréhension de la parole en situation dite compétitive de bruit. L’enjeu consiste à repérer les différents environnements sonores des patients pour pouvoir les anticiper et proposer une solution.
Mais la connectivité des aides auditives, au-delà de se connecter au Smartphone et aux systèmes de la domotique, va donner accès au Cloud.
Quel intérêt ? Démultiplier la capacité de calcul et donc la puissance des microprocesseurs.
Les aides auditives que nous utilisons aujourd’hui comportent des microprocesseurs équivalents à celles du premier module lunaire qui a été utilisé par Neil Armstrong.
Des microprocesseurs qui font quelques millimètres. Cela permet d'avoir des capacités de calcul très importantes. La connexion avec le Cloud nous ouvre des portes sur une autre puissance de calcul.
Grâce aux nouvelles technologies, les solutions auditives sont aussi dotées de débruiteurs permettant de bien identifier la parole et de déplacer les signaux dans les zones fréquentielles utilisées par le cerveau.
Cela permet de réduire la charge cognitive du malentendant, concrètement la fatigabilité. En effet, le patient effectue moins d’efforts de compréhension de la parole. L’évolution des débruiteurs va nous orienter vers la stimulation des réseaux de neurones profonds.
Une autre évolution proviendra du domaine des microphones directionnels.
Ils vont permettre, aux aides auditives, de se focaliser sur une origine, une source de bruit, ou un signal vocal connu, identifié.
Elles utilisent déjà ce dispositif. Dans un environnement bruyant, on va considérer que le bruit alentour n’est pas l’enjeu. Il est primordial d’apporter la compréhension de la parole du locuteur. Le micro va donc s'orienter face au locuteur, par des systèmes de zooms automatiques qui permettront de focaliser le microphone sur la voix de l'interlocuteur. La difficulté, c’est que le brouhaha est aussi constitué de voix. Il s’agit d’identifier non pas seulement ce qui est du bruit mais ce qui est de la parole ; il faut aussi pouvoir imaginer l'intention de l'auditeur quand il veut écouter quelque chose et là, il veut entendre 0 % finalement. Donc on s'oriente de manière très claire dans la recherche vers ce que l'on appelle le bioguidage des aides auditives : identifier des informations mesurées à partir de l'utilisateur.
C'est alors l'aide auditive qui analyse et qui, en mesure des informations cérébrales, va orienter le microphone.
À partir de là où le regard se porte, l’aide auditive calcule le potentiel électrique nécessaire. Nous avons réalisé l’expérience. Lorsque le patient tourne les yeux vers ses locuteurs, les microphones s’orientent automatiquement vers les interlocuteurs. On s’appuie sur la technologie des senseurs.
Dès les années 2000, les chercheurs ont été en mesure de reconnaître un signal vocal, une information vocale dans le cortex d'un furet à partir de son activité cérébrale. Aujourd'hui, grâce à des méthodes non invasives, nous pouvons faire des mesures dans le cerveau humain, identifier son intention d'écoute et ce sur quoi il veut se concentrer. Cela nous ouvre des perspectives.
De manière pratique, je me promène dans la rue, je converse avec des amis, tous les bruits et obstacles qui se présentent sur ma route ; je ne vais pas essayer de le regarder et de focaliser sur sa voix et son message et c’est mon intention cérébrale qui va guider les microphones des aides auditives.
Les nouvelles solutions auditives vont même être connectées aux systèmes d'assistants personnels intelligents de type Amazon Alexa, Google Home.
Cette révolution intégrant l'intelligence artificielle va arriver sur le marché français en début de l'année 2019. Demain donc.