De ChatGPT à Midjourney, les algorithmes d’ »intelligence artificielle générative » progressent à une vitesse fulgurante. Mais de là à créer une IA douée de conscience, le chemin est encore long – si tant est qu’il existe.

Quand on dit « intelligence artificielle », à quoi pensez-vous ? Si vous suivez l’actualité du secteur, peut-être à ChatGPT ou à Midjourney. Mais dans l’imaginaire collectif, l’IA est plus souvent associée aux êtres humanoïdes de I, Robot, à l’ordinateur de 2001 L’Odyssée de l’espace, ou aux réplicants de Blade Runner. Leur point commun : des IA conscientes, capables de se fixer leurs propres objectifs.
Ce scénario appartient depuis des décennies à la science-fiction. Mais aujourd’hui, le secteur de l’IA est en plein boom. De ChatGPT à Midjourney en passant par les IA de création de musique et de vidéos, les programmes d’ »intelligence artificielle générative » voient leurs capacités exploser. Au point que beaucoup s’interrogent : une IA « consciente » digne des scénarios de science-fiction serait-elle finalement possible ? S’agit-il d’un objectif sérieux, d’une menace à éviter à tout prix, ou d’un fantasme irréaliste ?
Dans ce secteur, cette idée porte un nom : “l’intelligence artificielle générale” (ou AGI en anglais). C’est celle du Terminator ou du Robocop : une IA capable de faire aussi bien voire beaucoup mieux qu’un humain dans tout un tas de domaines, et peut-être, d’avoir une conscience.
« C’est le graal d’un certain pan de la recherche en IA », explique à Tech&Co Thomas Wolf, co-fondateur de Hugging Face, une plateforme centrale dans l’explosion récente des IA génératives.
Cet objectif aux contours flous, presque aussi vieux que le terme « intelligence artificielle » lui-même, a longtemps été relégué au rang de fantasme. Mais il est aujourd’hui ouvertement revendiqué par certaines des plus grandes entreprises du secteur, dont OpenAI, l’organisation à l’origine de ChatGPT.
Si elle était créée, l’AGI « pourrait nous aider à élever l’humanité en augmentant l’abondance, accélérer l’économie mondiale et aider à de nouvelles découvertes scientifiques », écrit Sam Altman, le patron d’OpenAI. Il estime notamment que l’AGI pourrait aider à lutter contre le réchauffement climatique ou à coloniser l’espace – en plus de provoquer de profonds questionnements philosophiques sur la nature humaine.
Est-ce un objectif réaliste ? Un coup d’œil rapide pourrait laisser penser qu’on s’en rapproche. Les IA génératives montrent une créativité qu’on pensait jusque-là réservée aux humains. Les vidéos de robots humanoïdes branchés sur ChatGPT et des assistants vocaux invoquent inévitablement des comparaisons avec I Robot. Et des variantes comme Auto-GPT sont présentées comme capables de déterminer elles-mêmes les étapes intermédiaires à remplir pour atteindre un objectif final – pour le moment encore fixé par un humain.
Une IA consciente… et rebelle ?
Mais une telle révolution pourrait s’accompagner de nombreux risques : remplacement massif d’emplois, concentration des pouvoirs aux mains de son créateur… Et que se passerait-il si une IA consciente décidait de se fixer ses propres objectifs ? Si on crée une IA dont l’objectif est de maximiser la production de trombones, elle pourrait très bien conclure que le meilleur moyen est… de piller l’entièreté des ressources naturelles de la planète et d’éliminer les humains qui pourraient la débrancher.
Cet exemple volontairement caricatural (en anglais) du philosophe transhumaniste Nick Bostrom justifie les recherches sur « l’alignement »: comment faire en sorte que les IA agissent conformément aux valeurs de la société.
Mais certains estiment que le développement actuel des IA est trop débridé pour assurer la mise en place de tels garde-fous, et appellent à un ralentissement des recherches, comme le signataires de l’appel à un moratoire de six mois (parmi lesquels Elon Musk et des chercheurs renommés comme Yoshua Bengio). D’autres vont encore plus loin dans la radicalité en appelant au bombardement des data centers qui n’obéiraient pas aux limites sur le développement des IA, comme le blogueur Eliezer Yudkowsky dans Time.
« Elles ne vont pas briser leurs chaînes »
Pourtant, rien ne dit que la science se dirige dans cette direction. Déjà parce que derrière le terme « intelligence artificielle générale », il n’y a aucune définition claire et acceptée par tous. « L’intelligence ‘générale’, ça n’existe pas! », rappelle à Tech&Co Jean-Gabriel Ganascia, chercheur au Laboratoire d’Informatique de Paris VI et spécialiste en intelligence artificielle.
« L’intelligence, c’est l’ensemble des capacités cognitives. Or ça fait très longtemps que les machines nous dépassent sur certaines tâches comme le calcul », rappelle le chercheur.
Dès lors, qu’est-ce qui ferait une AGI ? La conscience? On en est loin: les « intelligences artificielles » génératives actuelles n’ont pas une once de conscience ou de réflexion. « ChatGPT ne fait que générer le texte le plus probable par rapport à la requête de l’utilisateur, en fonction des milliards de textes qui ont servi à l’entraîner », explique à Tech&Co Alexandre Lebrun, cofondateur de plusieurs startups utilisant des systèmes d’intelligence artificielle.
« ChatGPT ne ‘réfléchit’ pas du tout comme un humain », insiste le PDG de Nabla, une startup utilisant l’IA dans le domaine de la santé.
Comme ChatGPT est entraîné à partir de textes humains, les textes qu’il génère peuvent donner l’impression d’une réflexion humaine – mais ce n’est justement qu’une impression. Et rien ne dit que cette barrière pourrait être levée dans le futur. « Ce n’est pas parce qu’on sait sauter d’un mètre qu’on sait comment aller sur la Lune », résume Alexandre Lebrun à Tech&Co.
« Les IA génératives actuelles peuvent donner l’impression d’une conscience, mais si on veut atteindre une véritable conscience, il faudra peut-être repenser complètement la méthode », estime l’entrepreneur.
L’IA qui se rebellerait contre ses créateurs devrait elle aussi rester un fantasme. « Les IA actuelles sont des programmes statiques, ce sont les humains qui décident quand et comment elles sont entraînées ou mises à jour », rappelle Thomas Wolf. « Elles ne vont pas briser leurs chaînes comme dans les scénarios de science-fiction », assure l’entrepreneur à Tech&Co.
« Aucun doute qu’elles existeront un jour »
Pour autant, ce n’est pas parce que la méthode n’existe pas encore qu’elle ne verra jamais le jour. « Je n’ai aucun doute sur le fait que des IA surhumaines existeront un jour », déclare sur Twitter Yann Le Cun, un des plus grands chercheurs en IA au monde. Mais pour le scientifique, nous n’avons juste pas encore la technique adaptée, et l’humanité devrait réussir à « aligner » ces IA sur le long terme.
« C’est nous qui concevons et fixons les fonctions objectives des IA. Ça rend l’alignement des IA beaucoup plus facile que celui des humains ou des entreprises », affirme le chercheur sur Twitter.
Pour d’autres, les scénarios à base d' »IA générale » et de « risque existentiel » sont plutôt des chiffons rouges agités par les grandes entreprises du secteur, pour détourner l’attention d’enjeux beaucoup plus actuels. Parmi eux, « l’exploitation des travailleurs », le « vol de données massif », la multiplication des fakes et la concentration du pouvoir aux mains de quelques entreprises, comme le liste une lettre ouverte écrite par des figures de la réflexion sur l’éthique appliquée aux IA.
En attendant, les capacités des IA génératives continuent de progresser – mais elles obéissent toujours à des humains. « Les IA génératives ne sont pas des Terminator; ce qu’il faut réguler, c’est l’usage que les gens en font », estime Thomas Wolf.