Sites Inria

Le 16.01.2018
Par :
Cyril Fiévet - Usbek & Rica

2067 ou la disparition des interfaces humains-machines (partie 1)

[Copublication] Nous avons créé au fil des siècles une multitudes de dispositifs pour piloter et contrôler appareils et machines : boutons, interrupteurs, écrans, claviers et autres souris. Dans tous les cas, il y avait un lien direct, et un contact physique, entre une machine et son utilisateur. L’appareil intégrait de façon simple, et même parfois rudimentaire, les moyens d’accéder à ses commandes et d’en piloter les fonctions. En sera-t-il toujours ainsi ?
Hollerith keyboard (pantograph) punch

Retour vers le futur

« La plupart des concepts des interfaces actuelles sont anciens ». C’est clairement ce que montre l’impressionnante histoire des interactions Hommes-machines détaillée par Michel Beaudouin-Lafon, ancien directeur du LRI (Laboratoire de recherche en informatique), dont il dirige l'équipe HCC (Informatique Centrée sur l'Humain). 

 

De fait, tout ou presque de ce que nous utilisons au quotidien, y compris et surtout pour communiquer avec nos gadgets connectés dernier cri, a été inventé il y a plusieurs décennies. La souris ? Elle fêtera l’année prochaine ses 50 ans (première démonstration publique, par Douglas Engelbart, en décembre 1968). Les systèmes à base de menus déroulants et fenêtres virtuelles ? Un « vieux truc », créé par Xerox en 1981, avant d’être popularisé par Apple en 1984. Les écrans tactiles ? Presque ringards : apparus en version rudimentaire en 1964 (société Rand) puis dans une version plus proche des tablettes d’aujourd’hui en 1972 (université de l’Illinois) – et le multitouch fonctionnait en laboratoires dès 1985, trente ans avant de se généraliser aux smartphones. Même les casques de réalité virtuelle, qui figurent en bonne place sur les listes au Père Noël en 2017, sont de vieilles inventions : le tout premier casque de réalité virtuelle date lui aussi de... 1968 (université d’Harvard, Ivan Sutherland).

 

À tout le moins peut-on constater que, pour l’utilisateur ou l'utilisatrice lambda, les choses semblent progresser lentement. Y a-t-il beaucoup de différences entre un Mac de 2017 et le tout premier Mac de 1984 ? Au plan conceptuel, pas vraiment. L’écran est devenu bien plus grand et plat, offrant une résolution autrement supérieure. La souris est tout juste un peu plus design (et sans fil), tandis que le clavier est presque identique. L’interface graphique affiche le même « Finder » et les mêmes genres d’icônes (y compris la sempiternelle Corbeille virtuelle). D’immenses progrès technologiques ont rendu les ordinateurs personnels surpuissants, mais leurs interfaces, la façon dont nous communiquons avec eux, les gestes nécessaires pour les utiliser, n’ont quasiment pas changé en 30 ans.

 

Pour Michel Beaudouin-Lafon, d’une façon générale, « les interfaces actuelles atteignent leurs limites : elles génèrent leur propre complexité d'utilisation et détournent l'utilisateur et l'utilisatrice de l'objet de leur tâche, elles ne tirent pas parti des capacités d'action, de perception et de communication des utilisateurs et utilisatrices humaines et humains, elles ne sont pas adaptées à leurs contextes d'utilisation »

 

Pourtant, les avancées en matière d’électronique et l’augmentation de « l’intelligence » des machines ont introduit de nouvelles possibilités. L’interface tend à se virtualiser, pour être remplacée par des gestes naturels. À l’instar de la lumière du pallier qui s’allume automatiquement lorsqu’on y passe, ordinateurs et gadgets connectés commencent à lire nos mouvements, analyser nos voix et comprendre nos intentions. On parle à son téléphone ou à son ordinateur, qui comprennent et répondent. Amazon (Alexa), Google (Assistant), Microsoft (Cortana) et Apple (Siri) sont d’ailleurs sur les rangs pour nous permettre (et nous promettre) de tout piloter à la voix. Auparavant, la Kinect de Microsoft ou le contrôleur de Leap Motion avaient montré comment convertir mouvements et gestes de la main en actions, dûment comprises par les machines. Le tout dernier iPhone (X) exemplifie cette évolution, en supprimant l’omniprésent bouton « Home » et en se déverrouillant sans avoir à toucher l’appareil – si et seulement si on le fixe du regard. Même les vêtements connectés, comme le blouson Levi’s concocté avec Google et commercialisé depuis la rentrée 2017, veulent nous simplifier la vie, et nous éviter de toucher au téléphone pour y accéder : le mobile devient pilotable via quatre mouvements distincts de la main sur la manche du blouson.

 

Alors, serons-nous condamnées et condamnés à utiliser (voire subir) les mêmes interfaces pendant encore plusieurs décennies, ou bien, au contraire, sommes-nous en train d’assister à la disparition pure et simple de la plupart des interfaces hommes-machines traditionnelles, se fondant dans des capteurs et des intelligences artificielles surdouées, devenant de véritables extensions de nous-mêmes ?

 

Un monde sans interface ?

 

D’innombrables livres et films de science-fiction ont décrit un monde où  l’utilisateur ou utilisatrice parle et interagit naturellement avec les machines, qui la ou le reconnaissent, la ou le comprennent et s’adaptent à ses besoins. Le vaisseau spatial de 2001, Odyssée de l’espace (de Stanley Kubrick, 1968) a son HAL, qui voit et entend tout en permanence (et, parfois, s’appose aux décisions humaines), Iron Man a son JARVIS, une intelligence artificielle invisible mais omniprésente, qui parle et affiche des hologrammes, règle les problèmes et sert de majordome.

 

 

En se fondant dans notre quotidien, la partie tangible des interfaces Hommes-machines va-t-elle disparaître ? 

 

« Claviers et souris auront disparu en 2067, et sans doute même avant », répond Bertrand Braunschweig, directeur du centre de recherche Inria Saclay, expliquant : « On voit déjà sur le marché des écouteurs qui traduisent à la volée ce que l’on dit dans une langue étrangère... Dans quelques année, on aura 50 milliards d’objets connectés via l’Internet des Objets, donc des calculateurs partout. Il paraît probable qu’on pourra communiquer avec tous ces systèmes sans aucune interface matérialisée. La plupart du temps, il n’y aura pas d’incarnation physique. On parlera et on effectuera des gestes, et les systèmes comprendront »

 

Pour autant, à court ou moyen terme, les choses ne sont pas si simples. « Après avoir lancé des produits uniquement tactiles, tous les fabricants de tablettes ont réintroduit des claviers physiques », fait remarquer Stéphane Huot, directeur de recherche Inria Lille - Nord Europe, et responsable de l’équipe Mjolnir , centrée sur le design des interactions Hommes-machines. « Le clavier physique reste ce qu'on fait de mieux pour saisir du texte. Il y a beaucoup de situations où dicter un texte n'est pas approprié, soit à cause du bruit ambiant, soit pour des raisons de confidentialité. En outre, la saisie de texte proprement dite n'est pas linéaire : on revient en arrière, on insère des mots, on en corrige d'autres... C'est très difficile à faire uniquement par commande vocale. La modalité vocale toute seule demeure donc assez limitée, sans parler de sa fiabilité qui, malgré d'énormes améliorations ces dernières années, reste aux alentours de 95%. Cela représente une erreur sur 20. Or vous n'accepteriez pas que votre clavier se trompe une fois sur 20 quand vous tapez une lettre... », rappelle-t-il.

 

Pour le chercheur, s’il n’est pas certain que le clavier physique disparaisse à tout jamais, en tout cas pour la saisie de textes longs, « la bonne interface est celle qui est adaptée au bon contexte »« L'interaction est intrinsèquement liée au contexte – quelle tâche, à quel moment, à quel endroit – et l’interface la plus adaptée est celle qui ne rajoute pas de charge cognitive à la tâche, qui est transparente (dans le sens ou elle ne gêne pas) », explique-t-il, concluant que « une combinaison des différentes modalités est plus intéressante que le remplacement de l'une par l'autre »

 

« Nous vivons dans une société dont les idées sont construites, développées, travaillées via le texte. Tous les langages de programmation sont construits dessus. Le concept de grammaire également. Le clavier reste par essence le périphérique le mieux adapté pour saisir du texte. Il est bien sûr difficile de prédire l'avenir mais je ne crois pas du tout à sa disparition », juge Laurent Grisoni, professeur d’informatique à Polytech’Lille et membre de l’équipe MINT (Inria Lille - Nord Europe) consacrée aux interactions gestuelles. Pour le chercheur, ces dernières ont encore « un potentiel à révéler », bien que les tentatives de véritablement mener à bien des tâches par ce biais (et non la simple captation de gestes basiques) soient encore rares. 

 

 

« Dans quelques décennies, je vois bien les claviers et souris traditionnels disparaître, mais je ne suis pas sûre que les écrans disparaissent », estime de son côté Camille Jeunet, dont les travaux (Inria/EPFL) cherchent à conjuguer réalité virtuelle et électro-encéphalographie. « J’imagine bien de nouveaux types d'écrans, transparents, déformables et multifonctionnels... Et nos outils seront de plus en plus "intelligents”, dans le sens qu'ils seront de mieux en mieux à même d'inférer des "désirs/volontés" ou d'anticiper des actions grâce à une analyse de notre voix, de nos gestes, etc. Mais j'ai du mal à imaginer des outils d'interaction assez performants pour que l'on se débarrasse de nos écrans », commente-t-elle.

 

Crédits

1) U.S. National Archives and Records Administration

2) Jean-Pierre Dalbéria - CC BY 2.0 - via Flickr

3) © Inria / G. Scagnelli

4) Rétis - CC BY 2.0 - via Flickr

Propulsé par