Google a dévoilé Soli, un projet de capteur ultra-sensible qui permettra de piloter des objets par des gestes très fins réalisés avec les doigts.

L’équipe des technologies avancées de Google (ATAP) a dévoilé cette semaine son Project Soli, qui doit permettre aux développeurs de créer des interfaces naturelles très fines, basées sur des gestes discrets effectués avec les doigts, détectés et identifiés par un radar. Le but est de pouvoir supprimer complètement les boutons physiques ou même les écrans tactiles, en comprenant l’intention de l’utilisateur qui serre son pouce et son index, qui les frotte, ou qui fait glisser son pouce sur l’index.

soli

Google a d’ores et déjà miniaturisé toute la technologie hardware et software, pour la réunir dans une petite puce qui pourra être intégrée dans les smartphones, les montres connectées ou tout objet de la vie quotidienne qui nécessite une interaction. Il ne reste plus qu’à fabriquer les objets et les applications qui pourront en tirer profit, si la précision est aussi bonne que le laisse entendre la vidéo officielle de présentation.

« La technologie des capteurs Soli fonctionne en émettant des ondes électromagnétiques dans un faisceau large, explique Google. Les objets dans le faisceau dispersent cette énergie, ce qui reflète une partie vers l’antenne radar. Des propriétés du signal réfléchi, tels que l’énergie, le temps de latence, et le décalage de fréquence capturent des informations riches sur les caractéristiques et la dynamique de l’objet, y compris sa taille, sa forme, l’orientation, le matériel, la distance et la vitesse ».

L’idée du radar pour créer des interfaces gestuelles n’est pas nouvelle et l’on a même vu plusieurs brevets sur des smartphones contrôlés par des gestes aériens. Mais Soli se distingue surtout par son degré de finesse, qui permet de détecter et de comprendre même les gestes les plus subtiles. Chaque geste crée une image radar particulière, mais puisque l’on ne reproduit jamais tout à fait deux fois le même geste, c’est ensuite un algorithme basé sur un apprentissage-machine qui interprète les variations pour associer un geste à une action.

Un kit de développement sera mis à disposition des développeurs à l’automne 2016. Il devrait dans un premier temps être envoyé sur dossiers de candidatures.

Partager sur les réseaux sociaux

Articles liés