au sommaire
Quelques gestes devant l'ordinateur et il obéit... © OZWE
A la conférence Lift, qui vient de fermer ses portesportes à Genève, un étrange objet a fait son apparition : une sorte d'écran monté sur pied capable de suivre les mouvementsmouvements de la personne se tenant devant lui. A la manière d'un chef d'orchestre, celle-ci communique par geste avec l'écran pour lui donner des ordres.
Pour l'instant, le QB1, c'est son nom, ne dispose que d'un champ d'action très limité. Il ne sait que lancer des morceaux de musique. Mais ses concepteurs veulent en faire l'interface du troisième type, qui sera à la souris ce que celle-ci fut à la ligne de commande.
Ces hommes ont pour nom Martino d'Esposito, un designer, et Frédéric Kaplan, qui a passé plusieurs années chez Sony où il travaillait sur les logiciels destinés aux robots jouets comme Aibo. Ensemble, ils ont fondé l'entreprise OZWE, spinspin-off de l'Ecole polytechnique fédérale de Lausanne (EFPL).
QB1 se compose d'un écran mobilemobile monté sur un bras articulé. Equipé de capteurscapteurs de rayonnement infrarougeinfrarouge, il scrute en permanence l'espace situé en face de lui. Il peut détecter la présence d'un être humain et réaliser une image en trois dimensions. Un logiciel détermine la position des bras et des mains, analyse les gestes et peut ainsi capter des ordres, en prenant en compte les gestes simultanés des deux mains. Cette analyse d'images en trois dimensions s'appuie sur de précédents travaux réalisés à l'EFPL et protégés par plusieurs brevets.
Les détecteurs d'infrarouge intégrés à l'écran servent à réaliser une image en trois dimensions des personnes installées à quelques mètres. (Cliquer sur l'image pour l'agrandir.) © OZWE
Nouveaux usages impliquent nouvelles interfaces
Pour l'instant, les capacités du prototype restent très limitées. QB1 permet seulement de choisir un morceau de musique dans une liste et à en faire varier le volumevolume. Mais de la navigation dans les menus au réglage, les gestes suffisent. Démonstration est donc faite que le procédé fonctionne.
Dans un entretien publié sur le site de OZWE, Frédéric Kaplan rappelle que les ordinateurs personnels ont été conçus pour être utilisés en position assise et pour réaliser des tâches de bureau. Mais aujourd'hui, nos micros servent souvent à diffuser des films ou regarder des photos, pour « devenir un assistant dans la cuisine » ou « renseigner une personne dans un musée ». Ces tâches ressemblent de plus en plus à celles que l'on pourrait attendre d'un robot domestique. Dans ces situations, de nouvelles interfaces, explique le chercheur, sont indispensables. Pour lui, la solution est d'utiliser la « richesse naturelle » de « l'interaction gestuelle ». Des recherches actives explorent aujourd'hui ces possibilités. A l'EFPL, une équipe avait démontré en 2008 comment un robot humanoïderobot humanoïde, HOAP-3, fabriqué par Fujitsu, peut apprendre à cuisiner une omelette au jambon et au fromage en observant un humain, non pas visuellement mais grâce à une astuce : le cuisinier de chair et d'os remplaçait la cuillère par une manette WiiWii.
Un aspect intéressant de QB1 est sa capacité annoncée à s'adapter, dans une certaine mesure, aux habitudes de son utilisateur. L'ordinateur repère les préférences musicales de la personne qu'il a devant lui et sélectionne en conséquence les morceaux proposés. Cette souplesse fait aujourd'hui l'objet de recherches mais nous n'en sommes qu'aux balbutiements.
La question est aussi de savoir comment les humains réagiront devant QB1 et si le concept est bien accepté et réellement utile. C'est la prochaine phase de l'expérience, quand plusieurs exemplaires de QB1 seront fabriqués, au cours de cette année. Ils seront installés au sein d'un certain nombre de foyers et ainsi plongés en situation réelle.