(Opinion de Bloomberg) – Si vous avez entendu le terme intelligence générale artificielle, ou AGI, cela vous fait probablement penser à une intelligence humaine, comme l’intérêt de l’IA à la voix miel pour le film elle, ou un surhumain, comme Skynet du Terminator. En tout cas, quelque chose de science-fictionnel et éloigné.
Mais maintenant, un nombre croissant de personnes dans l’industrie de la technologie et même en dehors de cela prophétisent AGI ou l’IA de «niveau humain» dans un avenir très proche.
Ces gens peuvent croire ce qu’ils disent, mais c’est au moins en partie le battage médiatique conçu pour amener les investisseurs à jeter des milliards de dollars dans les sociétés d’IA. Oui, les grands changements sont presque certainement en route, et vous devriez les préparer. Mais pour la plupart d’entre nous, les appeler Agi est au mieux une distraction et au pire une mauvaise orientation délibérée. Les chefs d’entreprise et les décideurs politiques ont besoin d’un meilleur moyen de réfléchir à ce qui s’en vient. Heureusement, il y en a un.
Sam Altman d’Openai, Dario Amodei d’Anthropic et Elon Musk de Xai (ce pour quoi il est le moins célèbre) a tous dit récemment qu’Agi, ou quelque chose comme ça, arrivera dans quelques années. Des voix plus mesurées comme Demis Hassabis de Google Deepmind et Yann LeCun de Meta voient que ce soit au moins cinq à 10 ans. Plus récemment, le mème est devenu courant dominant, avec des journalistes tels que le New York Times Ezra Klein et Kevin Roose faisant valoir que la société devrait se préparer à quelque chose comme AGI dans un avenir très proche.
Je dis «quelque chose comme» parce que souvent, ces gens flirtent avec le terme agi puis se retirent vers un phrasé plus équivoque comme «IA puissant». Et ce qu’ils peuvent signifier par cela varie énormément – de l’IA qui peut faire presque toutes les tâches cognitives individuelles ainsi qu’un humain mais peut toujours être assez spécialisée (Klein, Roose), pour faire un travail de prix Nobel (Amodei, Altman), à penser à un véritable humain à tous égards (Hassabis), à opérer dans le monde physique (LeCun), ou à être «Smarter que le Smarter que le monde».
Alors, sont-ils «vraiment» Agi?
La vérité est que cela n’a pas d’importance. S’il y a même une chose comme AGI – ce qui, je dirai, il n’y en a pas – ce ne sera pas un seuil pointu que nous traversons. Pour les personnes qui le vantent, Agi est maintenant simplement un scolare pour l’idée que quelque chose de très perturbateur est imminent: un logiciel qui ne peut pas simplement coder une application, rédiger une affectation scolaire, écrire des histoires au coucher pour vos enfants ou réserver des vacances – mais pourrait jeter beaucoup de personnes sans travail, faire des percées scientifiques majeures et fournir une puissance effrayante aux pirates, terroristes, sociétés et gouvernements.
Cette prédiction vaut la peine d’être prise au sérieux, et l’appeler Agi a un moyen de faire s’asseoir et écouter les gens. Mais au lieu de parler de l’AGI ou de l’IA au niveau humain, parlons de différents types d’IA et de ce qu’ils seront et ne pourront pas faire.
Une forme d’intelligence au niveau de l’homme a été l’objectif depuis que la course de l’IA a lancé il y a 70 ans. Pendant des décennies, le meilleur qui pourrait être fait était «l’IA étroite» comme le bleu profond lauréate par les échecs d’IBM, ou Alphafold de Google, qui prédit les structures protéiques et a remporté ses créateurs (y compris Hassabis) une part de la chimie Nobel l’année dernière. Les deux étaient bien au-delà du niveau humain, mais seulement pour une tâche très spécifique.
Si AGI semble maintenant soudainement plus proche, c’est parce que les modèles à grande langue sous-jacents Chatgpt et ses semblables semblent être à la fois plus humains et plus généraux.
Les LLM interagissent avec nous en langage clair. Ils peuvent donner des réponses au moins plausibles à la plupart des questions. Ils écrivent une assez bonne fiction, du moins quand c’est très court. (Pour des histoires plus longues, ils perdent la trace des personnages et des détails de l’intrigue.) Ils marquent toujours plus sur des tests de référence de compétences telles que le codage, les examens médicaux ou le bar et les problèmes mathématiques. Ils s’améliorent dans le raisonnement étape par étape et les tâches plus complexes. Lorsque les gens les plus gung-ho parlent d’AGI au coin de la rue, c’est essentiellement une forme plus avancée de ces modèles dont ils parlent.
Ce n’est pas que les LLM n’auront pas de gros impacts. Certaines sociétés de logiciels prévoient déjà d’embaucher moins d’ingénieurs. La plupart des tâches qui suivent un processus similaire à chaque fois – faire des diagnostics médicaux, rédiger des dossiers juridiques, rédiger des mémoires de recherche, créer des campagnes de marketing, etc. – seront des choses qu’un travailleur humain peut au moins externaliser en partie à l’IA. Certains le sont déjà.
Cela rendra ces travailleurs plus productifs, ce qui pourrait entraîner l’élimination de certains emplois. Bien que ce ne soit pas nécessairement: Geoffrey Hinton, l’informaticien lauréat du prix Nobel connu sous le nom de parrain de l’IA, a tristement prédit que l’IA rendrait bientôt les radiologues obsolètes. Aujourd’hui, il y en a une pénurie aux États-Unis.
Mais dans un sens important, les LLM sont toujours «IA étroites». Ils peuvent être un seul travail tout en étant moche à un phénomène apparemment adjacent – un phénomène connu sous le nom de frontière déchiquetée.
Par exemple, une IA pourrait passer un examen de barre avec des couleurs volantes, mais Botch transformant une conversation avec un client en mémoire juridique. Il peut répondre parfaitement à certaines questions, mais «halluciner régulièrement» (c’est-à-dire inventer des faits) sur d’autres. Les LLM réussissent bien avec les problèmes qui peuvent être résolus à l’aide de règles claires, mais dans certains tests plus récents où les règles étaient plus ambiguës, des modèles qui ont obtenu 80% ou plus sur d’autres repères luttaient même pour atteindre des chiffres uniques.
Et même si les LLM ont commencé à battre ces tests, ils seraient toujours étroits. C’est une chose de s’attaquer à un problème défini et limité, aussi difficile. C’est une autre chose de prendre ce que les gens font réellement dans une journée de travail typique.
Même un mathématicien ne passe pas seulement toute la journée à faire des problèmes de mathématiques. Les gens font d’innombrables choses qui ne peuvent pas être comparées parce qu’ils ne sont pas des problèmes liés à des réponses bonnes ou mauvaises. Nous pesons des priorités contradictoires, abandonnons les plans à défaut, faisons des allocations pour des connaissances incomplètes, développez des solutions de contournement, agissons sur les intuitions, lisons la pièce et, surtout, interagissons constamment avec les intelligences très imprévisibles et irrationnelles qui sont d’autres êtres humains.
En effet, un argument contre les LLM qui puissent jamais faire des travaux de niveau Nobel est que les scientifiques les plus brillants ne sont pas ceux qui le savent le plus, mais ceux qui remettent en question la sagesse conventionnelle, proposent des hypothèses improbables et ne posent des questions que personne d’autre n’a pensé à poser. C’est à peu près l’opposé d’un LLM, qui est conçu pour trouver la réponse consensus la plus probable sur la base de toutes les informations disponibles.
Nous pourrions donc un jour construire un LLM qui peut faire presque toutes les tâches cognitives individuelles ainsi qu’un humain. Il pourrait être en mesure de enchaîner toute une série de tâches pour résoudre un problème plus important. Selon certaines définitions, ce serait l’IA au niveau humain. Mais ce serait toujours aussi stupide qu’une brique si vous le mettez au travail dans un bureau.
L’intelligence humaine n’est pas «générale»
Un problème de base avec l’idée d’AGI est qu’il est basé sur une notion hautement anthropocentrique de ce qu’est l’intelligence.
La plupart des recherches sur l’IA traitent l’intelligence comme une mesure plus ou moins linéaire. Il suppose qu’à un moment donné, les machines atteindront l’intelligence de niveau humain ou de «général», puis peut-être la «superintelligence», à ce moment-là, elles deviennent skynet et nous détruisent ou se transforment en dieux bienveillants qui prennent soin de tous nos besoins.
Mais il y a un argument fort selon lequel l’intelligence humaine n’est pas en fait «générale». Nos esprits ont évolué pour le défi très spécifique d’être nous. Notre taille et notre forme corporelle, les types de nourriture que nous pouvons digérer, les prédateurs que nous avons rencontrés autrefois, la taille de nos groupes de parents, la façon dont nous communiquons, même la force de la gravité et les longueurs d’onde de la lumière que nous percevons sont tous consacrés à la détermination de notre esprit. D’autres animaux ont de nombreuses formes d’intelligence qui nous manquent: une araignée peut distinguer les prédateurs des proies dans les vibrations de sa toile, un éléphant peut se rappeler des voies de migration des milliers de kilomètres de long, et dans une pieuvre, chaque tentacule a littéralement son propre esprit.
Dans un essai de 2017 pour Wired, Kevin Kelly a fait valoir que nous devrions penser à l’intelligence humaine non pas comme étant au sommet d’un arbre évolutif, mais comme un seul point dans un groupe d’intelligences basées sur la Terre qui est elle-même un minuscule frottis dans un univers de toutes les intelligences extérieures et machines possibles. Cela, a-t-il écrit, explose le «mythe d’une IA surhumaine» qui peut tout faire beaucoup mieux que nous. Nous devons plutôt nous attendre à «plusieurs centaines de nouvelles espèces de pensée extra-humaines, la plus différente des humains, aucune qui sera un objectif général, et aucune qui sera un dieu instantané résolvant des problèmes majeurs en un éclair».
Il s’agit d’une fonctionnalité, pas d’un bug. Pour la plupart des besoins, les intelligences spécialisées seront, je suppose, à la fois moins chères et plus fiables qu’un Jack-of-Trade qui nous ressemble aussi étroitement que possible. Sans oublier qu’ils sont moins susceptibles de se lever et de demander leurs droits.
Rien de tout cela ne veut rejeter les énormes sauts que nous pouvons attendre de l’IA au cours des prochaines années.
Un saut qui a déjà commencé est «agentique» AI. Les agents sont toujours basés sur les LLM, mais au lieu d’analyser simplement des informations, ils peuvent effectuer des actions comme effectuer un achat ou remplir un formulaire Web. Zoom, par exemple, prévoit bientôt de lancer des agents qui peuvent parcourir une transcription de la réunion pour créer des éléments d’action, rédiger des e-mails de suivi et planifier la prochaine réunion. Jusqu’à présent, les performances des agents d’IA sont mitigées, mais comme pour les LLM, s’attendez à ce qu’elle s’améliore considérablement au point où les processus assez sophistiqués peuvent être automatisés.
Certains peuvent prétendre que c’est AGI. Mais encore une fois, c’est plus déroutant qu’éclairant. Les agents ne seront pas «généraux», mais plus comme des assistants personnels avec des esprits extrêmement pliants. Vous pourriez en avoir des dizaines. Même s’ils font monter en flèche votre productivité, les gérer sera comme jongler avec des dizaines d’applications logicielles différentes – un peu comme vous le faites déjà. Peut-être que vous obtiendrez un agent pour gérer tous vos agents, mais cela sera également limité aux objectifs que vous le fixez.
Et ce qui se passera lorsque des millions ou des milliards d’agents interagissent ensemble en ligne est la supposition de n’importe qui. Peut-être que tout comme les algorithmes commerciaux ont déclenché des «accidents de flash» de marché inexplicables, ils se déclencheront mutuellement dans des réactions en chaîne imparables qui paralysent la moitié d’Internet. Plus inquiétant, les acteurs malveillants pourraient mobiliser des essaims d’agents pour semer des ravages.
Pourtant, les LLM et leurs agents ne sont qu’un type d’IA. En quelques années, nous pouvons avoir des types fondamentalement différents. Le laboratoire de LeCun à Meta, par exemple, est l’un des nombreux qui essaie de construire ce qu’on appelle l’IA incarnée.
La théorie est qu’en mettant l’IA dans un corps de robot dans le monde physique ou dans une simulation, il peut en apprendre davantage sur les objets, l’emplacement et le mouvement – les éléments constitutifs de la compréhension humaine à partir desquels des concepts plus élevés peuvent circuler. En revanche, les LLM, se sont entraînés uniquement sur de grandes quantités de texte, des processus de pensée humaine singe à la surface mais ne montrent aucune preuve qu’ils en ont réellement, ou même qu’ils pensent dans un sens significatif.
L’IA incarnée conduira-t-elle à des machines vraiment réfléchies, ou tout simplement des robots très habiles? En ce moment, c’est impossible à dire. Même si c’est le premier, cependant, il serait toujours trompeur de l’appeler Agi.
Pour retourner au point de l’évolution: tout comme il serait absurde de s’attendre à ce qu’un humain pense comme une araignée ou un éléphant, il serait absurde de s’attendre à un robot oblong avec six roues et quatre bras qui ne dorment pas, ne mange pas ou ne se rapportent pas – encore moins à former des amitiés, à lutter avec sa conscience ou à contempler sa propre mortalité – pour penser à un humain. Il pourrait être en mesure de transporter grand-mère du salon à la chambre, mais il concevra et effectuera la tâche totalement différemment de la façon dont nous le ferions.
Beaucoup de choses dont l’IA sera capable, nous ne pouvons même pas imaginer aujourd’hui. La meilleure façon de suivre et de comprendre ce progrès sera d’arrêter d’essayer de le comparer aux humains, ou à quoi que ce soit des films, et continuez à demander: que fait-il?
Plus d’opinion Bloomberg:
Cette colonne reflète les opinions personnelles de l’auteur et ne reflète pas nécessairement l’opinion du comité de rédaction ou de Bloomberg LP et de ses propriétaires.
Gideon Lichfield est l’ancien rédacteur en chef de Wired Magazine and MIT Technology Review. Il écrit Futurepolis, une newsletter sur l’avenir de la démocratie.
Plus d’histoires comme celle-ci sont disponibles sur Bloomberg.com/opinion