Sites Inria

Le 17.05.2018
Par :
Cyril Fiévet - Usbek & Rica

2067, la singularité ou l'empire des machines

[Copublication] La singularité, définie comme le moment où l'intelligence artificielle atteint le niveau de l'intelligence humaine, fait l'objet de multiples questionnements. Est-elle possible, souhaitable, inévitable ? Alors que robots et logiciels "intelligents" s'immiscent dans nos vies et notre société, cette singularité pourrait-elle représenter un danger pour la civilisation humaine ? Débuts de réponses et éclaircissements.

Dès la fin des années cinquante, le mathématicien Stanislaw Ulam rapporte une conversation avec John von Neumann, dont il ressortit que “l’accélération constante du progrès technologique et des changements du mode de vie humain semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre”. Plus tard, en 1993, Vernor Vinge, professeur d’informatique et romancier de science-fiction, enfoncera le clou dans un article intitulé "The Coming Technological Singularity: How to Survive in the Post-Human Era" : “Dans les trente ans qui viennent, nous aurons les moyens de créer une intelligence surhumaine. Peu après, l’ère humaine s’achèvera.”

L’article fait date et, tandis que l’intelligence artificielle (IA) se répand dans toutes les industries et dans nos vies quotidiennes, le concept de “singularité” devient omniprésent. Aux États-Unis, on lui dédie même une université en forme de think tank, la Singularity University, qui organise un colloque annuel où se pressent experts et savants, constatant ou annonçant, au choix, des transformations disruptives ou un possible Armageddon lié aux IA devenues outrageusement plus intelligentes que nous.

Pour Ray Kurzweil, la singularité est prévue pour après-demain, c’est-à-dire en 2045 (après qu’une IA aura atteint le niveau de l’intelligence humaine en 2029). D’autres ne sont pas loin d’affirmer que la singularité est à notre portée, et doit simplement s’incarner au sein d’une machine ou d’un logiciel unique. D’autres encore, nombreux, assurent que la singularité n’arrivera jamais, au motif que l’insaisissable duo qui caractérise l’humain – intelligence et conscience – est et restera inimitable.

Pourtant, tandis que le commun des mortels peine probablement à se faire une opinion mais s’inquiète de voir son emploi menacé par une IA, plusieurs éminents spécialistes du domaine, elles, n’hésitent pas à donner dans l’alarmisme. Pour Stephen Hawking (en 2014), “le développement d’une pleine intelligence artificielle pourrait marquer la fin de l’espèce humaine”. “L’IA représente un risque fondamental pour l’avenir de la civilisation humaine”, renchérit Elon Musk en 2017, expliquant : “je suis au contact des IA les plus avancées et je crois que les gens devraient vraiment s’inquiéter”

Alors, nos carottes sont-elles cuites ? Sommes-nous en train de consciencieusement donner naissance aux Skynets qui produiront un jour des nuées de farouches Terminators mal intentionnés ? De surpuissantes machines équipées de quadrilliards de neurones artificiels riront-elles un jour de nos très limités cerveaux humains (au point de nous considérer au mieux comme d’insignifiantes fourmis bipèdes, au pire comme de simples piles biologiques, façon Matrix) ? Et, surtout, saurons-nous tirer parti des indéniables bénéfices issus de machines “intelligentes”, capables de nous comprendre et de nous aider, sans risque de les voir nous supplanter ou nous contrôler ?

 

 

Humains vs machines

 

Il ne fait aucun doute que les machines peuvent surpasser nos capacités humaines dans de nombreux domaines. Aucun des champions humains des principaux jeux d’esprit – échecs, poker, go – n’a résisté à la puissance de calcul et aux algorithmes d’apprentissage profond. Un système informatique peut distinguer également les émotions humaines, comme une souffrance simulée ou réelle sur un visage humain.

Et, dans des cas précis (comme la détection d’un risque de cancer du sein à partir d’une biopsie), une IA effectue un diagnostic médical fiable à 97%, bien qu’elle ne se substitue pas aux professionnels de santé.

Mais jusqu’où cela ira-t-il ? Le Future of Humanity Institute de l’université d’Oxford a posé la question aux experts en mai 2017. Quelque 362 chercheurs en intelligence artificielle se sont ainsi risqués à prédire quand et dans quels domaines les IA seront pleinement capables de remplacer les humains. Selon la moyenne des réponses s’établit une sorte de chronologie de la singularité : les machines seront meilleures que nous pour traduire les langues entre elles (d’ici à 2024), conduire un camion (2027) ou même écrire un best-seller (2049) et devenir chirurgien (2053). Au total, “les chercheurs pensent qu’il y a 50% de chances que l’IA surpasse l’humain pour toutes les tâches dans 45 ans, et que tous les métiers humains soient automatisés dans 120 ans”.

Plus précisément, et à plus court terme, les spécialistes prédisent bien une vague, voire un tsunami. “Tous les domaines et métiers sont concernés par l’IA. Les plus significatifs sont les transports avec les véhicules à conduite assistée et autonomes, la santé avec la médecine prédictive, le marketing et la vente en général, et nombre de métiers qui manipulent beaucoup de données comme la finance et les assurances. L’IA est en fait une énorme vague logicielle qui va influencer presque tous les pans de l’économie”, décrit  Olivier Ezratty, conseil en stratégies de l’innovation et auteur d’un blog nourri chroniquant notamment les avancées en matière d’IA. “L’IA est puissante (et a vocation à devenir plus puissante que le raisonnement humain) dans tous les domaines où il faut faire rapidement un choix à partir d'une analyse combinatoire élevée, en sélectionnant les combinaisons à analyser en priorité à partir d'un apprentissage basé sur des réalisations passées. C'est le cas par exemple de l'analyse et la production du langage (traduction automatique), les domaines d'expertise basées sur les règles (diagnostic médical), les conduites de systèmes complexes (transport), etc.”, confirme Frédéric Alexandre, responsable scientifique de l’équipe Inria Mnemosyne (neurosciences et médecine numérique). Et même la direction opérationnelle des entreprises pourrait un jour être conduite par des IA. Pour Alain Cardon, ancien professeur d’informatique à l’université du Havre et chercheur associé au LITIS (INSA Rouen, Systèmes autonomes et auto-adaptatifs), “demain, il y aura énormément de gestionnaires artificiels de haut niveau, très connectés à tous les gestionnaires administratifs, financiers et techniques de l’entreprise qui seront aussi des systèmes artificiels formant un ensemble méta totalement connecté en temps réel qui prendra pratiquement toutes les décisions, à toutes les échelles”

Si la plupart des observateurs s’avouent impressionnés par les résultats récents de l’IA (et lui prédisent donc un bel avenir), certains soulignent néanmoins combien le principe d’intelligence nous échappe encore, a fortiori s’agissant des machines. “Un programme d'IA est en fait complètement stupide, et n'a rien d'intelligent au sens classique du terme (cette capacité que les Hommes et les philosophes essaient de comprendre depuis des millénaires)”, commente Philippe Preux, professeur d’informatique à l’université de Lille et membre de l’équipe Inria Sequel (logiciels dotés de facultés d’apprentissage et d’auto-adaptation), regrettant même que “le terme IA-intelligence artificielle soit complètement galvaudé et surmédiatisé”.

 

 

“Actuellement, on accumule des données, on en extrait des modèles et on les exploite ; on peut avoir l'impression qu'il suffit d'accumuler plus de données pour tendre vers l'intelligence ; je ne suis pas convaincu que cela suffise et j'ai tendance à penser le contraire. Cette accumulation de données nous permet de créer des artefacts qui savent réaliser des tâches à un niveau de performance que l'on n'atteignait pas auparavant. Mais tout cela n'a rien à voir avec l'Intelligence. Il faut combien de milliers (millions) d'images à un réseau de neurones pour reconnaître un type d'objets, là où un enfant a besoin de voir une seule fois un chat pour reconnaitre instantanément un chat dans une image ? Clairement, on ne parle pas de la même chose”, rappelle-t-il aussi.

 

Sur la route de l'IA forte ?

 

Si l’on peut admettre que les prochaines décennies vont tendre (au moins en apparence) vers la singularité, celle-ci masque donc à peine un autre questionnement : à partir de quand une machine est-elle “réellement intelligente” ? 

Les experts établissent en général un distinguo entre IA (un système dédié à un type de tâche précis et comprenant des mécanismes empruntés à l’intelligence humaine, mais demeurant limité) et une “IA forte” (un système pouvant s’adapter à plusieurs types de tâches, voire à toutes, car étant capable de raisonner et donc de démontrer une intelligence similaire à l’intelligence humaine). 

La différence est de taille (d’autant qu’il n’existe pas d’IA forte aujourd’hui), et elle explique une large part de la confusion, dans l’esprit du public, sur le sujet de l’intelligence des machines. Quand un logiciel Google est entraîné (via des techniques d’apprentissage profond) à légender des images, il le fait mieux (et plus vite) qu’un humain, démontrant au passage une habilité typiquement humaine : distinguer les objets et personnages présents sur une photo, et savoir décrire une situation avec des mots. Mais le logiciel ne sait faire que ça. Vous aurez beau lui faire écouter des sons, il en ignorera tout et serait bien incapable d’y reconnaître des mélodies. Et s’il sait reconnaître une porte et une poignée, il ignore leur relation fonctionnelle. Une IA forte, au contraire, serait capable d’adapter ses mécanismes de reconnaissance à tous les cas de figure, et devrait être capable de bon sens (et donc, comme nous, d’ouvrir une porte qu’elle voit pour la première fois).

Évidemment, si l’on admet qu’il existera un jour une IA forte, elle deviendrait rapidement très supérieure aux humains (car utilisant des processeurs autrement plus rapides), d’où la singularité.

Pour cela, une IA devrait d’abord être autonome, ce qui n’est pas le cas. “Les progrès récents de l'IA sont en grande partie liés à l'utilisation de grandes bases de données étiquetées par des humains. Ainsi, sans les humains, les algorithmes actuels d'IA sont pour la plupart inefficaces et nous sommes donc encore très loin d'une machine autonome apprenant toute seule de ses interactions avec le monde extérieur”, souligne Francis Bach, responsable de l’équipe SIERRA (Inria, ENS Paris et CNRS, dédié à l’apprentissage automatique), indiquant malgré tout “ne pas voir d'obstacles théoriques à une IA forte”.

De l’avis général, il faudrait progresser sur notre compréhension du fonctionnement du cerveau humain avant de prétendre donner naissance à une “vraie” intelligence artificielle. En somme, pour être à notre niveau, une machine devra savoir calquer nos mécanismes humains. Pour Frédéric Alexandre, “une IA forte ne sera possible que si l’on fait aussi des progrès sur la dimension émotionnelle de l'intelligence. Sa caractéristique principale est qu'elle sera encore plus proche de l'intelligence humaine, ce qui peut la rendre souhaitable car elle sera plus facile et plus naturelle à insérer dans notre monde et dans notre appréhension générale. Mais c’est ça aussi qui peut la rendre dangereuse et difficile à contenir, au même titre que l'intelligence humaine...”

“L’IA forte se heurte aujourd’hui à des obstacles théoriques et pratiques. Certains abordent le problème par le biais de l’IA symbolique et du raisonnement formel. D’autres par les réseaux de neurones et le deep learning. On cherche aussi à les combiner. Malheureusement, aucun ne permet aujourd’hui de créer une IA forte”, constate Olivier Ezratty, résumant le problème : “L’IA symbolique a des difficultés à formaliser le savoir humain et le raisonnement qui est parfois empirique. Le deep learning est adapté à la reconnaissance de formes (phonèmes, images) mais pas encore au raisonnement”. “Le raisonnement humain s’appuie sur un réseau de neurones biologiques faiblement profond mais très large et très maillé (615 trillions de connexions entre les neurones). C’est ce maillage, la plasticité cérébrale et nos nombreux sens nous connectant au monde et à la nature qui permettent d’apprendre et d’être créatif. Les machines n’ont pas encore cette capacité”, conclut-il.

 

Risques et solutions

 

Ce qui précède semble faire apparaître un hiatus : n’y a-t-il pas un décalage entre des positions très alarmistes d’un côté, et la réalité d’aujourd’hui, caractérisée par des systèmes puissants mais encore très en deçà de notre bonne vieille intelligence humaine ?

 

 

Le débat est pourtant nécessaire, car il ne fait aucun doute que la généralisation de l’IA (même faible) comporte des risques. “La fin de la civilisation humaine due à l'intelligence artificielle relève plus de la science-fiction, ce qui ne nous empêche pas de nous interroger sur la place croissante de l'IA au sein de la société”, résume Francis Bach. Comme le rappelle le livre blanc d’Inria sur l’IA, publié en 2016, “utilisée à grande échelle, l'intelligence artificielle peut comporter de nombreux risques et constituer quantité de défis pour les humains, en particulier si les intelligences artificielles ne sont pas conçues et encadrées de façon à respecter et protéger les humains”.

Mais de quels risques parle-t-on ? Le plus immédiat concerne le marché du travail, et il paraît probable (voire inévitable) que beaucoup de tâches à faible valeur ajoutée seront efficacement assurées par les machines. “Comme les tracteurs et les ordinateurs auparavant, l'IA va rendre certains emplois obsolètes. De là à remplacer les médecins, je n'y crois pas. Je vois l'IA comme un nouvel outil qui vient aider l'expert”, estime Philippe Preux.

Un autre risque tient à la question de responsabilité. Il se pose à court terme, avec l’arrivée des véhicules autonomes, susceptibles de prendre à tous moments des décisions de vie ou de mort. Mais, précisément parce qu’on ne parle pas d’IA forte, cette question pourrait être un faux problème, comme le souligne Frédéric Alexandre : “Les discours alarmistes que l'on entend sont exclusivement relatifs à l'intelligence combinatoire, puissante mais pas autonome. Il faut actuellement toujours un humain dans la boucle pour construire un système intelligent, donc il est toujours possible de définir une responsabilité humaine. A ce titre, l'IA reste actuellement au rang des outils qui, mal employés, peuvent effectivement être nocifs pour l'humain mais qui restent du ressort d'un choix initial humain”.

Mais le spectre le plus effrayant, et aussi celui le plus souvent exploré par la science-fiction, est la machine échappant totalement au contrôle humain. Une fois devenue autonome dans ses décisions (HAL), dotée d’une forme de conscience (Westworld, Humans) et cherchant en toute logique à s’émanciper de son créateur humain (Ex Machina), les créatures de fiction se transforment immanquablement en monstres dangereux, blessant (ou tuant) des humains au passage. Depuis plusieurs décennies, Hollywood nous a ainsi habitués à l’idée qu’une machine trop intelligente serait forcément nuisible. Sans aller jusqu’aux robots-meurtriers, certains sont inquiets. On pourrait avoir “un système de systèmes dont chaque système autonome local doté de conscience artificielle est un organe du métasystème global qui submerge la société. L’humain sera totalement dépassé, totalement réduit, et l’usage que peuvent faire des pays n’ayant pas beaucoup d’éthique et où une caste domine toute la société est terrible, en dotant ces systèmes d’intentions fondamentales réductrices pour la liberté”, prévient Alain Cardon, qui imagine “une réduction définitive de l’humain en objet organique utile et à conserver un peu, ou inutile et à éliminer”.

Quoi qu’il en soit,  de multiples voies sont explorées pour assurer le bon développement de l’IA en en minimisant les risques potentiels.

La première solution consiste à rendre les systèmes dits “intelligents” plus lisibles. C’est l’idée de la démarche TransAlgo, menée par Inria avec plusieurs partenaires, pour “évaluer la responsabilité et la transparence des systèmes algorithmiques” et ainsi mieux informer le public sur ce que font concrètement les machines (et en particulier sur quels critères s’appuient leurs “décisions”).

Au-delà de ça, il paraît clair que le développement de l’IA doit s’effectuer dans un cadre social et légal tenant compte de la dimension éthique. Plusieurs initiatives ont vu le jour, comme le “Partnership on AI”, un consortium industriel fondé en 2016 sous la houlette d’Amazon, Facebook, Google, DeepMind, Microsoft, et IBM (et auquel se sont ralliés en 2017 des dizaines d’entreprises et organismes divers, de eBay à l’UNICEF en passant par Intel et Apple), pour “définir les bonnes pratiques en matière d’IA et améliorer la compréhension du public”. D’autres démarches vont dans le même sens, comme celle de “DeepMind Ethics & Society”, au sein de la branche IA de Google/Alphabet, qui entend “explorer en profondeur les conséquences sociales et éthiques de l’IA”. De son côté, Inria a engagé depuis plusieurs années une réflexion sur l’éthique du numérique, et mis en place plusieurs dispositifs spécifiques, comme le COERLE (Comité Opérationnel d'Evaluation des Risques Légaux et Ethiques), tout en participant à d’autres démarches, comme le CERNA d’Allistene (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique).

Le sujet est complexe et peut même mettre paraître paradoxal. Introduire de l’éthique dans la machine ne revient-il pas à admettre qu’elle est déjà davantage qu’une simple machine ? Et, au fond, n’y a-t-il pas une formidable contradiction à vouloir créer des machines intelligentes tout en s’inquiétant qu’elles ne le soient trop ? 

Malgré tout, des propositions concrètes apparaissent. En septembre dernier, Oren Etzioni, PDG de l’Institut Allen pour l’intelligence artificielle, proposait dans le New York Times une première approche pour réguler l’IA. En se calquant sur les fameuses trois lois de la robotique d’Asimov, il suggérait trois règles que devraient respecter les futures IA :

  • Un système à base d’IA doit être assujetti aux mêmes lois qu’un opérateur humain (“‘C’est mon IA qui l’a fait’ ne doit pas pouvoir excuser un comportement illégal”).
  • Un système à base d’IA doit clairement annoncer qu’il n’est pas humain (à l’heure des fake news, des chatbots et des tweets manipulant les marchés financiers, il convient de savoir distinguer l’humain de l’artificiel).
  • Un système à base d’IA ne doit pas détenir ou révéler des informations confidentielles sans l’accord explicite des sources de ces informations (tandis que votre aspirateur-robot établit un plan détaillé de votre domicile, Alexa - ou une poupée Barbie - sont susceptibles d’enregistrer des conversations et de connaître beaucoup de détails de nos vies...).

 

Sans doute un bon point de départ, mais cela sera-t-il suffisant ?

 

 

Singularité ou pas, les générations à venir devront apprendre à composer avec l’intelligence artificielle et, peut-être, se préparer à partager le monde avec elle. C’est tout le propos de deux spécialistes du cerveau humain, Christof Koch (président de l’Institut Allen pour les sciences du cerveau) et Giulio Tononi (Centre dédié au sommeil et à la conscience, université du Wisconsin). Expliquant comment “quantifier la conscience des machines” (et arguant que celle-ci est théoriquement possible), ils concluent :  À moins d’une catastrophe globale, notre société créera, dans les décennies à venir, des machines dotées d’une intelligence et de comportements du niveau humain, capables de comprendre la parole et de parler dans de multiples langues, de se souvenir du passé et d’anticiper le futur, d’imaginer des scénarios nouveaux, d’écrire des livres, de composer de la musique, de mettre en scène des films, de concevoir de nouveaux buts, tout en pouvant se déplacer, conduire, voler et, inévitablement, se battre. À partir de là, grâce au Big Data, à la puissance de l’apprentissage profond et des vitesses de calcul, on sera proche de surpasser les limites humaines. La naissance d’une véritable intelligence artificielle affectera profondément l’avenir de l’humanité, à supposer qu’elle en ait un”. À bon entendeur...

 

Crédits et légendes

1) Reborn de Justine Emard in Earth+Gallery, Tokyo (capture d'écran)
2) L'équipe-projet Athéna explore le système nerveux central grâce à l'imagerie computationnelle. © Inria / C. Morel
3) Chacun des six Poppy Torso doit apprendre de façon autonome en explorant ce qu’il y a autour de lui pour manier les manettes. © Inria / C. Morel
4) Prototype de l'ordinateur Watson d'IBM à Yorktown Heights, NY. © IBM, CC BY 2.0 via Wikimedia
5) Lithographie Leaving the opera in year 2000 d'Albert Robida

Propulsé par