Sites Inria

Le 31.01.2018
Par :
Cyril Fiévet - Usbek & Rica

2067 ou la disparition des interfaces humains-machines (partie 2)

[Copublication] Si l’on admet l’absorption progressive de l’interface proprement dite par les machines qui nous entourent, plusieurs conséquences sont à attendre. La première est la disparition possible de certains objets physiques, pourtant devenus iconiques, comme l’ordinateur de bureau.
La console Hypertext Editing System (HES) à la Brown University en 1969.

Un autre rapport aux machines

« En vertu des lois sur l’év olution des systèmes techniques, qui prévoient la démultiplication des objets physiques, puis leur dématérialisation, je suis assez convaincu d’une évolution vers la disparition de l’incarnation physique des machines – sauf pour les robots », anticipe Bertrand Braunschweig. Deux scénarios seraient alors possibles : « une machine personnelle que l’on emporte partout avec nous, ou alors un monde où l’on est en permanence entouré de systèmes autonomes et intelligents, interfacés les uns aux autres et réagissant aux demandes humaines ». 

La route vers la première voie semble bien entamée, avec nos désormais indispensables smartphones. Et certains constructeurs semblent presque déjà anticiper la disparition des ordinateurs personnels : Windows Continuum (Microsoft) ou DeX (Samsung) transforment les smartphones en unités centrales connectées à des écrans de bureau, et susceptibles d’effectuer toutes les tâches bureautiques habituelles. « Ca ressemble à un téléphone, mais agit comme un PC », dixit Microsoft. L’autre scénario, imaginé de longue date par quelques visionnaires, se résume à « l’informatique pervasive », un principe selon lequel l’ordinateur en tant que tel a disparu pour se fondre tout autour de nous, dans les objets connectés, les murs, les meubles ou les vêtements. Si l’on en n’est pas encore là, au moins faut-il constater que beaucoup des usages non professionnels d’un PC/Mac peuvent être plus simplement assurés par d’autres machines : outre les smartphones et tablettes, un disque dur qui fait office de cloud familial pour stocker toutes les photos, une smart TV qui se connecte au Net pour surfer les sites d’actualité, des robots de tables pilotés à la voix et qui fournissent infos pratiques, météo et autres recherches Google... Qui a encore besoin d’un PC à domicile ?

Une fois qu'on aura choisi une intelligence artificielle servant d'interface à notre univers connecté, elle nous accompagnera de notre naissance à notre mort.

La deuxième conséquence de cette évolution, et non des moindres, tient à l’imbrication nouvelle entre un utilisateur et l’interface qu’il utilise. Jusqu’alors, les interfaces étaient quasiment universelles. Prêtez votre clavier ou votre souris à votre voisin, il ne sera pas dépaysé. C’est déjà beaucoup moins vrai des interfaces vocales, qui ont appris à s’adapter à votre voix. Deep learning aidant, les interfaces d’aujourd’hui (et à fortiori de demain) vont évoluer en permanence, devenant chaque jour plus adaptées à un utilisateur donné, ses caractéristiques (y compris biométriques), ses préférences ou ses habitudes. L’interface devient personnelle, et ce bien au-delà de ce qu’a jamais été un PC. « Une fois qu'on aura choisi une intelligence artificielle servant d’interface à notre univers connecté, elle nous accompagnera de notre naissance à notre mort. Elle nous connaîtra, on vivra ensemble, en quelque sorte. Et cela pose la question de la dépendance aux machines et à une marque donnée. Que devient cette IA quand on passe sur une autre plate-forme, et sera-t-il facile de transposer ailleurs ses connaissances et ce qu’elle sait de nous ? », questionne Nicolas Gaudron, fondateur de Idsl, agence spécialisée dans le design des interactions.

Enfin, une troisième conséquence, directement dérivée de la précédente, tient à la possible personnification de ce qui nous sert d’interface. Comme l’a illustré le film Her (de Spike Jonze, 2013), si une interface devient capable d’analyser avec finesse nos réactions et notre état émotionnel, n’aurons-nous pas la tentation, en retour, de lui attribuer une identité, une personnalité, au point d’oublier qu’elle n’est qu’un système informatique ? « En utilisant Alexa au quotidien, on comprend que se tisse une relation plus intime (voire émotionnelle) que d'habitude entre nous et les machines. On avance vers la notion de "super-assistante”, toujours présente et tout le temps disponible », admet Nicolas Gaudron. 

 

Brain Factory Prototype (Bains Numériques, Enghien-les-Bains)

 

De fait, sous nos yeux se matérialise peu à peu une « informatique émotionnelle » (ou Affective Computing, informatique affective) : des machines et des systèmes qui ne se contentent pas de nous « comprendre »  mais analysent aussi nos états d’âme (voire notre état de santé physique et/ou mentale). Les exemples abondent, du robot humanoïde Pepper (qui s’adapte à l’humeur de son interlocuteur) aux outils marketing d’Affectiva (qui a analysé plus de 5,7 millions de visages pour en étudier leurs réactions émotionnelles), en passant par les processeurs électroniques développés par Emoshape, entièrement dédiés à la détection des émotions humaines. Bientôt sur la table de votre cuisine, une machine débonnaire qui parle, reconnaît les visages des membres de la famille et peut aussi analyser leurs expressions faciales, les intonations vocales et les schémas verbaux : Olly, gratifié de quatre récompenses au CES 2017, est présenté comme « le premier robot doté d’une personnalité », capable de « voir et d’entendre quand vous êtes heureux ou triste – et s’y adapter en conséquence ».

Difficile de ne pas être convaincu par la prédiction d’Emoshape : « D’ici la fin du siècle, les humains parleront davantage à des machines sensibles qu’à d’autres humains ». Et il y a fort à parier que des outils jadis purement utilitaires occupent peu à peu une place très privilégiée dans nos vies, changeant ainsi de nature, quelque part entre secrétaire particulier, compagnon et confident. « Dès qu'un outil nous paraît avoir un comportement intelligent, on a tendance à lui attribuer une personnalité, même si son comportement et son apparence sont très basiques (lampe Pixar par exemple). Donc c'est sans doute quelque chose qui va se développer, avec des rapports largement plus émotionnels (et empathiques) entre humains et machines. Pour autant, contrairement à ce qu’imaginent certains films de science-fiction, je ne suis pas sûre qu'on accorde aussi facilement une “conscience" aux ordinateurs », estime Camille Jeunet.

Il n'est pas impossible qu'on puisse un jour décupler la vitesse à laquelle les gens prennent des décisions ou recherchent des idées et des informations, en se contentant d'analyser leurs réponses cérébrales.

 

Je pense, donc la machine suit

Dans ce contexte, on a souvent présenté la pensée comme l’interface ultime. Quel auteur, artiste ou fan de jeu vidéo n’a pas rêvé d’une connexion directe entre son cerveau et l’ordinateur ? Et pourquoi diable inventer mille et une façons de piloter une machine si celle-ci devenait capable de lire nos intentions là où elle prennent naissance, bien avant de se transformer en paroles ou en gestes ?

Les interfaces cerveaux-ordinateurs (BCI, Brain-computer interfaces), principalement étudiées pour aider les personnes affligées de très lourds handicaps moteurs, progressent et font même régulièrement l’objet d’une forte médiatisation. En février 2017, l’université Stanford obtenait des résultats trois ou quatre fois meilleurs que précédemment, avec des BCI permettant de taper du texte par la pensée : le meilleur participant atteignait huit mots par minute. En 2014, l’université de Washington avait démontré pour la toute première fois une sorte de communication télépathique entre humains (une BCI d’un côté, un dispositif de stimulation cérébrale de l’autre : une personne « pense » un geste, et c’est une autre personne qui l’effectue). Et, en octobre dernier, le projet européen Moregrasp montrait la possibilité de jouer (et même composer) des partitions musicales uniquement par la pensée. Même Facebook est de la partie, annonçant cette année qu’une équipe interne de 60 personnes travaille à élaborer les interfaces cérébrales de demain, et promettant (au risque de choquer la communauté scientifique) des perspectives ébouriffantes, comme la saisie de texte par la pensée à 100 mots/minute ou, au final, une sorte de « Siri silencieux » – un assistant omniprésent à qui on ne parle même plus, puisqu’il « écoute » les pensées et y réagit.

Hélas, tout piloter par la pensée demeure une possibilité improbable, même à long terme. « Les BCI sont utiles mais ne vont certainement pas tout remplacer », insiste Fabien Lotte, spécialiste des BCI au sein de l’équipe Potioc (Inria Bordeaux - Sud-Ouest), elle-même centrée sur les interactions hommes-machines. Pour le chercheur, la captation des faibles signaux lisibles depuis l’extérieur du crâne sera toujours un problème : « il sera difficile de s’affranchir de capteurs placés sur toute la surface de la tête car il n’existe aucune technique pour fournir une vision plus précise de ce qui se passe dans le cerveau à partir d’un seul endroit ». Cela rend le procédé lourd et, ajouté au fait qu’il exige une forte concentration et entraîne donc une fatigue cognitive, « se servir de ça pour donner des ordres simples, comme allumer la lumière ou baisser le son de la TV, serait facile à faire mais n’aura pas beaucoup de sens pour des utilisateurs qui disposent de bien d’autres types d’interfaces ». Quant à la dictée mentale, pour écrire de longs textes simplement en y pensant, les progrès sont si lents que, sans un véritable changement de paradigme en matière de capteurs, « il n’est pas sûr qu’on aura un jour, même dans 50 ans, une BCI permettant de taper un texte aussi vite qu’avec un clavier », estime Fabien Lotte.

 

Cerveau disponible -Thomas Claveirole

 

Pour autant, interfacer cerveaux et ordinateurs n’est pas dénué d’intérêt et, outre les applications évidentes pour les personnes sévèrement handicapées (ou dans le domaine médical, pour la rééducation motrice et cognitive, par exemple pour réparer des lésions cérébrales suite à un accident cardio-vasculaire), elles pourraient  servir de compléments novateurs. « Les BCI sont très prometteuses, y compris pour le grand public, sous leur forme passive. Dans ce cas, elles servent à mesurer l'activité cérébrale des utilisateurs, à en extraire des informations quant à leur état émotionnel/cognitif/motivationnel, puis à adapter une application en conséquence. On peut par exemple imaginer un jeu vidéo qui s'adapte en fonction du niveau de concentration du joueur, ou des systèmes éducatifs dont le type et la difficulté des exercices s'adaptent en fonction de l'état de l'élève, afin d'optimiser l'acquisition de compétences », explique Camille Jeunet. « En lisant et décodant en temps réel quelques états mentaux de l’utilisateur, comme son attention, son effort cognitif, son niveau de fatigue, voire ses émotions – son niveau de frustration par exemple –, on pourrait avoir des interfaces qui rendent l’interaction avec la machine encore plus fluide et plus utile. En outre, des travaux ont montré qu’en présentant à l’utilisateur des successions rapides d’images, on peut lire dans son cerveau celles qui lui paraissent intéressantes. Il n’est pas impossible qu’on puisse ainsi un jour décupler la vitesse à laquelle les gens prennent des décisions, ou recherchent des idées et des informations, en se contentant d’analyser leurs réponses cérébrales », ajoute Fabien Lotte.

En somme, résument les chercheurs, s’il paraît très improbable, même dans plusieurs décennies, que des BCI externes puissent véritablement remplacer des interfaces classiques comme la souris, le clavier ou la manette de jeu vidéo, elles feront sans doute parti de notre avenir. « On peut imaginer que dans 20 ou 30 ans il soit beaucoup plus facile de disposer de capteurs internes, devenus accessibles au plus grand nombre. En dehors de problématiques éthiques, la technologie existe, et certains neurochirurgiens estiment que poser un capteur dans le cerveau n’est pas plus compliqué qu’implanter une prothèse mammaire... Même si cela suppose un changement de culture et des régulations adaptées, avoir des capteurs électroniques dans le cerveau ne relève pas de la pure science-fiction, et cela permettrait sans doute de faire mieux en matière de BCI », avance Fabien Lotte.

 

L'interface est-elle soluble dans l'éthique ? 

Détecter nos gestes, suivre nos regards, écouter nos voix, analyser nos émotions, scruter nos états mentaux... On le comprend, bien au-delà de la problématique des données personnelles, la façon d’accéder aux machines et de les contrôler est de moins en moins neutre. A n’en pas douter, en devenant plus omniprésentes, plus puissantes et plus intelligentes, les interfaces font surgir un questionnement éthique inédit. 

 

Brain Factory Prototype (Bains Numériques, Enghien-les-Bains)

 

« Le côté pervers d'une technologie vocale comme Alexa est d'avoir une machine qui écoute en permanence. Avons-nous vraiment envie de ça ? Bien sûr, on peut demander à la machine de ne plus écouter, mais cela sera-t-il vraiment le cas ? », s’interroge Nicolas Gaudron. « Le robot qui détecte mon état émotionnel et peut s'adapter à ce que je ressens me paraît intrusif. Ca veut dire que ce n'est plus forcément moi qui décide ce qui se passe autour de moi. Ce type de technologie relève de choix de société. Quel niveau d'intrusion dans nos vies et nos émotions sommes-nous prêts à accepter ? », ajoute Stéphane Huot. « Si les interfaces classiques disparaissent, quelles sont les conséquences d'un bug ? D’un mauvais contrôle lié à une expression faciale ? Quelles sont les dimensions éthiques ? », s'interroge Laurent Grisoni, rappelant que « toutes ces questions sont des aspects dont on doit se saisir tant que la technologie n'est pas encore là, sinon nous prenons le risque d'en subir les effets plutôt que de les devancer ». Fabien Lotte souligne lui que, via des interfaces cerveau-ordinateur « il ne serait pas impossible de modifier indirectement le comportement de l’utilisateur en fonction de son état mental, pour le guider vers un comportement précis ». « Cela pose des problèmes et soulève un vrai questionnement éthique. Si ce type de solutions se démocratisaient, il faudrait établir des régulations et un cadre éthique précis, d’autant que si des outils sont utilisés pour analyser l’état mental des personnes, ils pourraient également l’être pour les surveiller », conclut-il.

Les pionniers qui inventaient les moyens d’utiliser les ordinateurs dans les années 1960 ou 1980 étaient confrontés à des problématiques relevant de la simplicité d’utilisation, de l’ergonomie et de l’efficacité. Développer les interfaces hommes-machines d’aujourd’hui et de demain suppose de prendre en compte ces facteurs, mais soulève également bien d’autres interrogations, de natures légale et morale. 

L’interface n’est plus un simple moyen d’accéder à l’outil, mais devient indissociable de ce qui caractérise un humain, et ce d’une façon de plus en plus intime. En somme, l’interface de demain, c’est nous. Espérons que concepteurs et fabricants de tous bords ne l’oublieront pas.

 

Crédits

1) Greg Lloyd - cc BY 2.0 - via Wikimedia
2) 
Brain Factory Prototype (Bains Numériques, Enghien-les-Bains) / Jean-Pierre Dalbéra - cc BY 2.0 - via Flickr
3) Cerveau disponible / Thomas Claveirole - cc BY SA 2.0 - via Flickr
4) Neuroimagerie computationnelle, équipe-projet Inria ATHENA / © Inria / Photo C. Morel

Propulsé par