Des casques bizarres qui vous permettent de communiquer sans parler

casques, paler sans parler

Parlez avec la bouche fermée

Les chercheurs du MIT (Massachusetts Institute of Technology) ont inventé une nouvelle interface informatique totalement hands-free (mains libres) et voice-free (sans voix), mais pour le moment, elle est incapable de lire les ondes cérébrales.

Au lieu de cela, elle est basée sur ce qu’on appelle la sous-vocalisation, ou parole silencieuse – un nom pour ce que vous faites quand vous dites des mots en pensée.

Elle s’appelle AlterEgo et consiste en un casque portable qui entoure l’oreille et la mâchoire de l’utilisateur et un système informatique qui traite et traduit les données reçues du casque pour répondre.

Le système fonctionne un peu comme une prothèse myoélectrique.

Lorsque vous avez l’intention d’agir, votre cerveau envoie des signaux électriques à vos muscles pour leur dire quoi faire.

Dans le cas d’une prothèse, l’électromyographie est utilisée pour enregistrer ces signaux électriques et les envoyer à un processeur pour être traduits en signaux indiquant à une prothèse robotisée quelles actions l’utilisateur a l’intention de faire.

Parler est un peu plus complexe, mais le concept de base est le même.

Lorsque vous pensez à un mot, votre cerveau envoie des signaux aux muscles de votre visage et de votre cou pour former cette parole.

Cela s’appelle la sous-vocalisation, beaucoup de gens le font quand ils lisent.

Le casque AlterEgo est composé de capteurs à électrodes situés dans la face et dans la mâchoire du porteur où ces signaux sont les plus forts et les plus sûrs, selon les membres de l’équipe de Kapur.

Il comprend également une paire d’écouteurs à conduction osseuse qui enveloppent la périphérie de l’oreille externe de l’utilisateur.

Ils transmettent le son directement à travers l’os du crâne, laissant les oreilles libres d’entendre le monde autour de vous.

Des capteurs combinés permettent à l’utilisateur de parler silencieusement à l’ordinateur en réfléchissant des mots et en répondant par des écouteurs – par exemple en parlant à Google ou à Syrie sans avoir à dire « OK Google » ou « Hey Syrie « sur une rue bondée.

L’ensemble nécessite toujours un étalonnage pour chaque utilisateur.

C’est parce que les signaux neuromusculaires de chaque rotateur seront légèrement différents, de sorte que le système devrait apprendre le « focus » de chaque utilisateur.

Pour le prototype AlterEgo, l’équipe de recherche a créé des tâches de vocabulaire limitées à 20 mots chacune.

L’une était pour la charge arithmétique, où l’utilisateur sous-localisait de gros problèmes d’assemblage ou de multiplication.

Un autre pour jouer aux échecs, dans lequel l’utilisateur émet des commandes sous-vocales en utilisant le système de numérotation standard dans les échecs.

Pour chaque application, ils ont utilisé un réseau neuronal pour cartographier certains signaux neuromusculaires de certains mots.

Une fois que la configuration de base du signal est programmée dans AlterEgo, elle peut conserver ces informations de sorte qu’il sera beaucoup plus facile de se qualifier à nouveau pour le nouvel utilisateur.

Pour une étude de convivialité, les chercheurs ont eu 10 utilisateurs qui ont passé 15 minutes à calibrer la charge arithmétique sur leur propre neurophysiologie, puis 90 minutes d’utilisation pour effectuer des tâches arithmétiques.

Le taux de traduction était précis à 92% – ce qui pourrait améliorer l’utilisation régulière, a déclaré Kapur.

À l’heure actuelle, l’équipe collecte des données sur des conversations plus complexes pour essayer d’étendre les capacités d’AlterEgo.

« Nous sommes au milieu du processus de collecte de données et les résultats sont bons », a déclaré Kapur.

Si tel est le cas, les implications seront énormes – surtout si elles sont capables de faire des communications interhumaines.

Cela sera utile dans les environnements bruyants ou dans les zones où le silence est nécessaire. Cela pourrait également permettre aux gens de parler à la non-voix, en supposant qu’ils utilisent toujours les muscles de la mâchoire et du visage.

L’équipe a présenté son travail à Proceedings of the 2018 Conference on Intelligent User Interface, qui s’est tenue au Japon du 7 au 11 mars.