Les utilisateurs de Google Glass pourront “profiter” d’objets ou de situations à partir de l’appareil, mais d’une manière très inhabituelle : en faisant des gestes de la main qui simulent la forme d’un cœur. Du moins, c’est ce que suggère un brevet de Google cette semaine.
En général, l’idée est de faire en sorte que l’appareil reconnaisse les commandes par des gestes de sa caméra. Un exemple d’application est donné par Google lui-même : l’utilisateur peut effectuer un mouvement avec son pouce et son index pour pointer une partie d’une photo à couper.
Faire un cœur avec ses mains ne serait qu’un geste de plus. Dans ce cas, l’image enregistrée à ce moment-là peut simplement être sauvegardée pour référence ultérieure ou publiée immédiatement sur Facebook ou Google+ (plus vraisemblablement, évident), par exemple.
L’enregistrement du brevet n’indique cependant pas que cette fonctionnalité sera effectivement mise en œuvre. Parfois, l’entreprise veut simplement protéger une idée. Il faut considérer même l’étrangeté qu’une personne faisant des petits cœurs avec leurs mains peut provoquer chez ceux qui ne réalisent pas qu’il s’agit d’une interaction avec Google Glass.
Que cette fonctionnalité devienne une réalité ou non, le fait est que les lunettes de Google continuent de recevoir des fonctionnalités intéressantes. Le personnel de les conditions générales d’Android souligne que la dernière mise à jour du XE10 de l’appareil comporte de nouvelles commandes vocales pour le guidage dans les transports publics, la programmation d’événements, la diffusion de musique, la création de photos panoramiques, entre autres.
Une autre caractéristique curieuse de cette mise à jour est un détecteur capable d’activer certaines fonctions lorsque l’utilisateur clignote deux fois de suite, en se souvenant du traditionnel double-clic sur les PC.