« D’ici trente ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine prendra fin. » Ces lignes ont été écrites en 1993 par l’auteur de science-fiction américain Vernor Vinge. Dans son fameux essai intitulé The Coming Technological Singularity : How to Survive in the Post-Human Era, l’écrivain, qui a été professeur d’informatique et de mathématiques à l’université de Californie à San Diego, prédisait l’avènement, d’ici à 2023, d’un « changement comparable à l’essor de la vie humaine sur Terre » : la singularité technologique, soit ce moment de rupture dans l’histoire humaine où l’intelligence artificielle (IA) finit par supplanter celle de l’homme, occasionnant des changements sociétaux et sociaux imprévisibles et incompréhensibles du commun des mortels.
« La cause précise de ce changement, écrivait Vernor Vinge, est la création imminente par la technologie d’entités dotées d’une intelligence supérieure à celle de l’homme. » Selon lui, « plusieurs moyens permettent à la science de réaliser cette percée – et c’est une autre raison de croire que l’événement se produira ». Et l’écrivain de citer les ordinateurs « intelligents » – « éveillés » (awake), écrit-il –, dont le développement serait rendu possible par les avancées de l’IA, les grands réseaux informatiques comme Internet, les interfaces humain-machine et les connaissances toujours plus spécialisées en biologie, qui pourraient permettre de « trouver des moyens d’améliorer l’intelligence humaine naturelle ».
L’hypothèse d’une « singularité technologique » engendrée par l’accélération des progrès en informatique n’est pas nouvelle. Déjà dans les années 1950, le mathématicien et physicien américano-hongrois John von Neumann, qui jetait alors les bases du fonctionnement de l’ordinateur, était parmi les premiers scientifiques à évoquer explicitement ce moment « de l’histoire de l’évolution de l’espèce au-delà [duquel] l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre. »
© Image : Justine Vernier
Il faut dire que depuis la Seconde Guerre mondiale, et les travaux fondateurs du mathématicien anglais Alan Turing, les spéculations vont bon train concernant les prouesses supposées des machines « ultra-intelligentes », censées pouvoir dépasser les êtres humains dans toutes les activités intellectuelles. Le statisticien britannique Irving John Good, un autre pionnier de l’informatique, s’y est risqué dans un article resté célèbre paru en 1965, dans lequel il affirmait qu’« une machine ultra-intelligente pourrait à son tour créer des machines meilleures qu’elle-même ». « Cela aurait sans nul doute pour effet une “explosion d’intelligence”, pendant que l’intelligence humaine resterait presque sur place, estimait-il. Il en résulte que la machine ultra-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. »
Plus près de nous, des penseurs, inspirés par les développements les plus spectaculaires de l’IA – et notamment la montée en puissance des systèmes d’apprentissage automatique (Machine Learning) –, ont repris à leur compte l’hypothèse de la « singularité technologique », comme Nick Bostrom ou encore Ray Kurzweil, deux chefs de file du mouvement transhumaniste. Le premier, philosophe suédois à l’université d’Oxford et cofondateur de l’association mondiale transhumaniste WTA, a publié en 2014 un livre qui a fait date, intitulé Superintelligence : Paths, Dangers, Strategies.Il y écrit que la création d’une « superintelligence » est le « défi le plus important et le plus intimidant auquel l’humanité ait jamais eu à faire face », voire son « dernier défi », « que l’on réussisse ou que l’on échoue ». Le second, directeur de l’ingénierie de Google et cofondateur de la Singularity University, auteur en 2005 de The Singularity Is Near : When Humans Transcend Biology, considère pour sa part que ce qu’il appelle simplement « la Singularité » deviendra réalité à l’horizon de 2045. Une date et une perspective pour le moins controversées.
« Je n’y crois absolument pas, tranche Laurence Devillers, professeure d’informatique à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS, pour la simple et bonne raison qu’il ne s’agit là que de projections anthropomorphiques sur des systèmes informatiques automatisés. L’IA, et ChatGPT [l’agent conversationnel conçu par la start-up américaine OpenAI – ndlr] en est un bon exemple, ne fait qu’imiter certaines facultés humaines, comme le langage, ce qui tend à entretenir la confusion, récurrente, entre l’homme et la machine. » Pour elle, la superintelligence, une notion qui « relève davantage du marketing » que de la science, « n’ira jamais jusqu’à avoir conscience d’elle-même et ne sera jamais capable de raisonnement, comme un être humain. Il est temps aujourd’hui de démystifier ce discours ».
Une analyse partagée par Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et auteur du Mythe de la Singularité, qui souligne « l’ambiguïté » de certains scientifiques, notamment américains, qui travaillent au développement de systèmes d’IA toujours plus performants tout en dénonçant leurs « risques existentiels », à l’instar des chercheurs et des personnalités – comme Elon Musk – qui ont demandé, dans une lettre ouverte publiée en mars dernier, un moratoire sur ces recherches.
Concept emprunté aux mathématiques et à la physique et appliqué au domaine de l’informatique, la Singularité repose avant tout sur une extrapolation de la fameuse loi de Moore – du nom du chimiste américain Gordon Moore, cofondateur de la société Intel. Cette loi veut que les capacités de stockage d’information et la vitesse de calcul des microprocesseurs augmentent à un rythme exponentiel, grâce notamment à la miniaturisation des transistors des puces électroniques. Or, comme l’indique Jean-Gabriel Ganascia, « cette loi d’observation empirique a un terme, même son inventeur l’a dit. Mais les “singularistes” estiment, eux, qu’elle se poursuivra encore indéfiniment, débouchant un jour sur l’arrivée de machines plus intelligentes que nous... » Et l’universitaire de résumer : « Des ingénieurs, comme Ray Kurzweil, ont interprété la loi de Moore comme une loi fondamentale parce que, selon eux, tout se développe de façon exponentielle dans la nature depuis l’aube des temps, ce qui est totalement absurde. »
Pour Marc Schoenauer, directeur de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria), il y a des « limites physiques » à l’expansion technologique, et donc à la loi de Moore. « D’une part, explique-t-il, au vu des connaissances scientifiques actuelles, arrivé à l’échelle de l’atome, il devient difficile de miniaturiser encore davantage les composants électroniques. Et d’autre part, on va se heurter très vite à la question environnementale et en particulier au problème de la consommation d’énergie, la multiplication de super-ordinateurs toujours plus puissants n’étant pas soutenable écologiquement. » « Il se peut en réalité que la croissance exponentielle du progrès technologique, sur laquelle tablent les singularistes pour leurs prédictions, connaisse un jour un plateau, une sorte de stagnation », complète Jean-Gabriel Ganascia.
Hypothétique, pour ne pas dire « parascientifique » – pour reprendre le terme du physicien et prospectiviste grec Theodore Modis –, la théorie de la Singularité pose toutefois la question des orientations et de la finalité des recherches en IA. Pour Patrick Albert, cofondateur et ancien président du Hub France IA, « mettre au point la superintelligence, c’est précisément le projet initial, l’objectif même des travaux en IA », à en croire les textes scientifiques fondateurs d’un domaine aujourd’hui en plein boom. Il ajoute : « Et le fond du problème, selon moi, c’est la possibilité qu’émerge, dans un avenir proche, cette superintelligence à partir d’une IA générale [comparable à l’intelligence humaine – ndlr] suffisamment douée, comme semble l’annoncer, par exemple, l’apparition de ChatGPT. »
Un scénario qui ne convainc pas Marc Schoenauer : « Nous sommes encore très loin de l’avènement d’une IA générale. En revanche, il est vrai que nous aurons dans les années à venir des systèmes de plus en plus sophistiqués, comme les IA génératives, à même de générer automatiquement des textes, des images, des sons, de la musique, mais sans pour autant atteindre un jour une IA générale, c’est-à-dire susceptible de raisonnement, de sens commun et de conscience de soi comme peut le faire un enfant de sept ans, par exemple. »
Parmi les recherches les plus actives actuellement, le chercheur de l’Inria mentionne les travaux visant à intégrer des raisonnements logiques aux outils d’IA générative. « Ces recherches permettront de créer des systèmes d’apprentissage par renforcement beaucoup plus fiables qu’aujourd’hui, ce qui sera notamment utile en robotique,précise-t-il. Avant de poursuivre : Chercher dans cette direction nous fera faire des progrès indéniables, et pour la plupart encore imprévisibles... »
De son côté, Patrick Albert estime que le lancement récent d’un nouvel agent comme Auto-GPT, version avancée du désormais célèbre logiciel, qui peut planifier et effectuer des tâches de façon autonome, est un pas de plus vers la mise au point d’une IA générale. « Auto-GPT poursuit et atteint des objectifs en les décomposant en sous-objectifs si besoin et en pilotant leur exécution. C’est exactement ce que fait notre cerveau quand il développe des réseaux de neurones spécialisés pour réaliser telle ou telle tâche », argumente-t-il. Évoquant l’essor, au début des années 2010, des systèmes d’apprentissage profond (Deep Learning), le spécialiste en IA tient en outre à ajouter : « Le fait qu’une machine puisse apprendre n’est pas neutre. C’est, pour moi, un moment de bascule dans l’évolution générale des techniques. »
« L’IA n’est pas ce monstre fantasmé. Les frontières du domaine restent définies par rapport à ce que les scientifiques peuvent faire et ne pas faire, calculer et ne pas calculer. Autrement dit, tout n’est pas modélisable dans des algorithmes, à commencer par les facultés cognitives humaines », tempère Nicolas Sabouret, professeur en informatique à l’université Paris-Saclay.
Le chercheur n’exclut cependant pas la possibilité d’une « révolution scientifique » qui ouvrirait de nouveaux horizons à la recherche en IA. « La question est ouverte, avance-t-il. En tout cas, tant que l’on reste dans le paradigme informatique actuel, il n’y aura pas de singularité technologique. En revanche, si demain apparaît une technologie de rupture nous permettant de dépasser les calculs informatiques que l’on utilise aujourd’hui, il est possible qu’on y arrive. » Et Nicolas Sabouret d’évoquer de futures découvertes potentielles en biotechnologies. « Le chemin menant vers l’IA générale n’est peut-être pas à chercher du côté de l’informatique mais du biologique. Mais ce ne sera plus de l’intelligence artificielle, ce sera autre chose », fait savoir le scientifique.
Reste une question fondamentale, toujours sans réponse aujourd’hui : qu’est-ce que l’intelligence ? À l’instar des biologistes, qui ont finalement abandonné toute prétention à définir la vie, les chercheurs en IA et les spécialistes patentés de la discipline finiront-ils un jour par faire le deuil de leur volonté de s’inspirer de toute la complexité de l’intelligence humaine et de la reproduire ? « Le terme [intelligence – ndlr] étant polysémique et indéfini, là résident tous les malentendus autour de l’IA », conclut Jean-Gabriel Ganascia.
Anthony Laurent