Les leaders en IA ramenant le débat sur l'AGI sur terre

Lors d'un récent dîner avec des leaders d'entreprise à San Francisco, un commentaire que j'ai fait a jeté un froid sur la pièce. Je n'avais posé à mes compagnons de repas rien que je considérais comme extrêmement maladroit : simplement s'ils pensaient que l'IA actuelle pourrait un jour atteindre une intelligence semblable à celle des humains (c'est-à-dire l'AGI) ou au-delà.

C'est un sujet plus controversé que vous ne le pensez.

En 2025, il ne manque pas de PDG de la tech offrant le cas positif selon lequel les grands modèles de langage (LM), qui alimentent des chatbots comme ChatGPT et Gemini, pourraient atteindre une intelligence équivalente ou même supérieure à celle humaine à court terme. Ces dirigeants soutiennent que l'IA très capable apportera des bénéfices sociétaux larges et largement répartis.

Par exemple, Dario Amodei, PDG d'Anthropic, a écrit dans un essai qu'une IA d'une exceptionnelle puissance pourrait arriver dès 2026 et être "plus intelligente qu'un lauréat du prix Nobel dans la plupart des domaines pertinents". Pendant ce temps, le PDG d'OpenAI, Sam Altman, a récemment affirmé que sa société sait comment construire une IA "superintelligente", et a prédit qu'elle pourrait "accélérer massivement la découverte scientifique".

Cependant, tout le monde ne trouve pas ces affirmations optimistes convaincantes.

D'autres leaders en IA sont sceptiques quant à la possibilité pour les LM actuels d'atteindre l'AGI - encore moins la superintelligence - à moins d'innovations nouvelles. Ces leaders ont historiquement maintenu un profil bas, mais plus ont commencé à prendre la parole récemment.

Dans un article ce mois-ci, Thomas Wolf, co-fondateur et directeur scientifique de Hugging Face, a qualifié certaines parties de la vision d'Amodei de "vœu pieux au mieux". Informé par ses recherches de doctorat en physique statistique et quantique, Wolf estime que les percées de niveau prix Nobel ne viennent pas en répondant à des questions connues - ce dans quoi l'IA excelle - mais plutôt en posant des questions que personne n'a pensé à poser.

À l'avis de Wolf, les LM actuels ne sont pas à la hauteur de la tâche.

"J'aimerais voir ce 'modèle Einstein' là-bas, mais il faut plonger dans les détails de comment y arriver", a déclaré Wolf à TechCrunch lors d'une interview. "C'est là que cela commence à devenir intéressant."

Wolf a dit qu'il a écrit l'article parce qu'il estimait qu'il y avait trop de battage médiatique autour de l'AGI, et pas assez d'évaluation sérieuse de la manière d'y parvenir réellement. Il pense que, telles les choses se présentent, il existe une réelle possibilité que l'IA transforme le monde dans un avenir proche, mais n'atteigne pas une intelligence de niveau humain ou une superintelligence.

Une grande partie du monde de l'IA s'est laissée enchanter par la promesse de l'AGI. Ceux qui ne croient pas en sa possibilité sont souvent étiquetés comme "anti-technologie", ou autrement amers et mal informés.

Certains pourraient qualifier Wolf de pessimiste pour cette vision, mais Wolf se considère comme un "optimiste averti" - quelqu'un qui veut faire avancer l'IA sans perdre le contact avec la réalité. Certes, il n'est pas le seul leader en IA à avoir des prédictions conservatrices sur la technologie.

Le PDG de Google DeepMind, Demis Hassabis, aurait dit à son personnel, selon lui, que l'industrie pourrait être jusqu'à une décennie loin de développer l'AGI - notant qu'il y a beaucoup de tâches que l'IA ne peut tout simplement pas effectuer aujourd'hui. Le scientifique en chef de l'IA chez Meta, Yann LeCun, a également exprimé des doutes sur le potentiel des LM. S'exprimant à la Nvidia GTC mardi, LeCun a déclaré que l'idée que les LM pourraient atteindre l'AGI était "absurde", et a appelé à de toutes nouvelles architectures pour servir de bases à la superintelligence.

Kenneth Stanley, ancien chercheur principal chez OpenAI, est l'une des personnes qui creusent les détails de comment construire une IA avancée avec les modèles actuels. Il est maintenant cadre chez Lila Sciences, une nouvelle start-up qui a levé 200 millions de dollars en capital de risque pour libérer l'innovation scientifique via des laboratoires automatisés.

Stanley passe ses journées à essayer d'extraire des idées originales et créatives des modèles d'IA, un sous-domaine de la recherche en IA appelé l'ouverture. Lila Sciences vise à créer des modèles d'IA qui peuvent automatiser tout le processus scientifique, y compris la toute première étape - arriver à de très bonnes questions et hypothèses qui finiraient par conduire à des percées.

"J'aurais presque souhaité avoir écrit [l'article de Wolf], car il reflète vraiment mes sentiments", a déclaré Stanley dans une interview avec TechCrunch. "Ce que [il] a remarqué, c'est qu'être extrêmement instruit et compétent ne conduit pas nécessairement à avoir des idées vraiment originales."

Stanley estime que la créativité est une étape clé sur le chemin de l'AGI, mais note que construire un modèle d'IA "créatif" est plus facile à dire qu'à faire.

Les optimistes comme Amodei pointent des méthodes telles que les modèles d'IA "raisonnement", qui utilisent plus de puissance de calcul pour vérifier leurs travaux et répondre correctement à certaines questions de manière plus cohérente, comme preuve que l'AGI n'est pas très loin. Cependant, venir avec des idées et des questions originales peut nécessiter un type d'intelligence différent, dit Stanley.

"Si vous y réfléchissez, le raisonnement est presque antithétique à [la créativité]", a-t-il ajouté. "Les modèles de raisonnement disent, 'Voici l'objectif du problème, allons directement vers cet objectif’, ce qui vous empêche fondamentalement d'être opportuniste et de voir des choses en dehors de cet objectif, afin que vous puissiez ensuite diverger et avoir beaucoup d'idées créatives."

Pour concevoir vraiment des modèles d'IA intelligents, Stanley suggère que nous devons reproduire algorithmiquement le goût subjectif d'un humain pour les nouvelles idées prometteuses. Les modèles d'IA d'aujourd'hui se débrouillent très bien dans les domaines académiques avec des réponses claires, tels que les mathématiques et la programmation. Cependant, Stanley souligne qu'il est beaucoup plus difficile de concevoir un modèle d'IA pour des tâches plus subjectives qui nécessitent de la créativité, et qui n'ont pas nécessairement de réponse "correcte".

"Les gens évitent [la subjectivité] en science - le mot est presque toxique", a déclaré Stanley. "Mais rien ne nous empêche de traiter la subjectivité [algorithmiquement]. C'est juste une partie du flux de données."

Stanley se félicite que le domaine de l'ouverture reçoive davantage d'attention maintenant, avec des laboratoires de recherche dédiés chez Lila Sciences, Google DeepMind, et la start-up en IA Sakana travaillant sur le problème. Il commence à voir plus de gens parler de créativité en IA, dit-il - mais il pense qu'il y a beaucoup plus de travail à faire.

Wolf et LeCun seraient probablement d'accord. Appelez-les les réalistes en IA, si vous le voulez: des leaders en IA abordant l'AGI et la superintelligence avec des questions sérieuses et ancrées sur sa faisabilité. Leur objectif n'est pas de minimiser les avancées dans le domaine de l'IA. Au contraire, il s'agit de lancer une discussion à grand échelle sur ce qui se dresse entre les modèles d'IA aujourd'hui et l'AGI - et la superintelligence - et d'aller après ces obstacles.