Pause sur l’IA : inutile, irréalisable ou nécessaire ?

La vague qui monte

Les mois de février et mars ont vu une débauche d’annonces sur l’IA : sortie publique de GPT4, annonces de Microsoft d’intégration IA dans leur suite Office, résurrection de Bing, contre-attaque un peu pathétique de Google, sortie des moteurs LLaMa et Alpaca… L’avalanche de nouveautés et l’impact médiatique sans précédent de Chat GPT font de la période un moment historique pour l’intelligence artificielle. Les moteurs LLM et les réseaux Transformers ne sont certes pas une découverte récente : ils sont connus depuis longtemps dans les cercles de la recherche. Mais l’implémentation de OpenAI, l’énormité de son corpus d’entraînement et son ouverture au grand public ont fait exploser les compteurs.

Dans cette atmosphère d’enthousiasme généralisé, qui a cumulé avec l’interview de Bill Gates annonçant un “Age de l’IA”, des premières voix critiquant “la fausse intelligence” de ChatGPT ou des potentialités dangereuses de cette technologie ont fait surface.

L’appel du 29 mars

Le 29 mars, un appel à la pause sur l’IA est publié. Les protagonistes : Elon Musk (chief Twit), Yuval Noah Harari (Sapiens), Max Tegmark (cosmologiste), Rachel Bronson (créatrice de la “Doomsday Clock”), Yoshua Bengio (pionnier des réseaux de neurones), Noam Shazeer (CEO de Character AI)… Il est difficile de remettre en cause le sérieux des signataires : on a affaire à des scientifiques, des chercheurs (dont deux prix Turing) ou des personnalités du monde des affaires qui connaissent bien l’IA. Dans cette lettre ouverte publiée par les grands médias, les acteurs majeurs de l’IA sont appelés à faire une pause de 6 mois du développement « de modèles plus puissants que GPT4 ».

On peut regretter que la réaction initiale à la publication se soit surtout focalisée sur Elon Musk : cela en dit sans doute plus sur son aura médiatique que sur le fond de la proposition. La signature du mogul 2.0 n’est cependant pas étonnante, Musk ayant toujours déclaré sa crainte des potentialités de cette technologie et qu’elle constituait selon lui une menace existentielle.

Une seule direction : tout droit

Au-delà des débats stériles sur la personnalité d’un signataire, la lettre intervient à un moment clé de l’histoire de cette technologie : celui ou l’IA rencontre le grand public, celui ou les développeurs indépendants ont accès à un moteur auparavant réservé au seul usage des GAFA et de partenaires privilégiés. L’IA est sur le devant de la scène et devient un objet politique autant que technologique.

Du côté des critiques de la techno-pause, les arguments tournent autour de trois axes :

– Une pause de l’IA n’a pas de sens car cette technologie, dans son état actuel, n’a aucune “intelligence”. Les LLM ne sont, au final, qu’un modèle de probabilité de complétude de texte. Un modèle certes plus puissant et mieux packagé que les autres, mais incapable du moindre raisonnement. Plutôt que d’anticiper l’apparition d’une improbable IA toute puissante, le monde devrait plutôt s’attarder sur les problèmes actuels, comme les biais dans la reconnaissance faciale, les générateurs de fake news, le respect de la vie privée, la cybersécurité, les deep fakes, la boîte noire des modèles financiers… Attardons nous sur les problèmes actuels plutôt que sur des fantasmes d’IA toute puissante dont nous sommes encore loin.

En bref : il est urgent d’attendre.

– Des mécanismes de surveillance ou de gouvernance sont déjà en projet (AI Act de l’Union Européenne, Algorithmic Accountability Act du Sénat américain). Ces initiatives montrent une prise de conscience des pouvoirs publics : l’encadrement législatif est une solution à la fois plus crédible et plus démocratique qu’une improbable pause de la recherche dans un contexte de compétition commerciale exacerbée. OpenAI est comme tous les business data : le premier arrivé accumule les données qui lui assurent une supériorité qu’il sera difficile de lui contester par la suite (Google en pleine panique, en est bien conscient).

En bref : les intérêts commerciaux sont trop importants. Si l’on doit décider d’une pause, ou d’une limitation, la responsabilité relève uniquement du pouvoir public.

– Sam Altman, le CEO d’OpenAI, est un patron qui est conscient des problèmes d’alignement et n’hésite pas à les évoquer. Il appelle même à plus de régulation. Faire une pause sur l’IA ce serait permettre à des concurrents peu préoccupés d’éthique ou carrément malveillants de rattraper leur retard. Elon Musk, encore lui, n’a t-il pas décidé en bon opportuniste de monter une nouvelle société, X-AI, quelques jours après la déclaration ?

En bref : si nous faisons une pause, les Chinois vont nous rattraper.

Reculer pour mieux sauter

L’argument de la « stupidité » des derniers modèles LLM n’est pas le fond du problème. Des scientifiques comme Max Tegmark ont souligné qu’ils ne s’intéressent pas aux capacités intellectuelles, supposées ou réelles, de ChatGPT mais plutôt aux barrières qui viennent de tomber :

– l’IA est maintenant en open source (LLaMA, Alpaca)

– l’IA a accès à internet (API, plugins)

– l’IA écrit du code.

Ces trois éléments a eux seuls montrent à quel point toute notion de contrôle et d’éthique de l’IA n’a quasiment aucun poids dans l’explosion actuelle. Ce que demandent les signataires, c’est de réfléchir avant de poursuivre la croissance de plus en plus rapide des capacités de l’IA qu’exige la dynamique concurrentielle.

Le problème n’est pas dans les limitations cognitives des modèles mais dans la dynamique actuelle , une dynamique incontrôlée qui pourrait déboucher sur ce qui n’existe pas dans le monde biologique : une croissance exponentielle. Une intelligence artificielle générale nous dépasserait en courant plutôt qu’en marchant. Le débat ne porte pas sur les LLM : il porte sur leur successeur.

Principe de précaution

La problématique de l’alignement de l’IA sur les intérêts fondamentaux des êtres humains n’est absolument pas réglée. OpenAI eux-mêmes ne nient pas qu’ils sont encore loin de maitriser les dimensions éthiques et d’alignement de leur produit. La notion même d’intérêts humains n’est d’ailleurs pas consensuelle. La plupart des experts, même parmi les critiques de ChatGPT comme Yann LeCun, reconnaissent pourtant que l’on se rapproche d’une IA pouvant être dangereuse. La quasi-totalité des chercheurs admettent que les modèles des GAFA sont d’une telle complexité qu’il leur est impossible d’avoir une explicabilité satisfaisante. De leur côté, des chercheurs de Microsoft ont détecté des « étincelles » d’AGI (Artificial General Intelligence) du moteur GPT-4. La firme de Redmond n’a d’ailleurs rien trouvé de mieux que de licencier son équipe d’éthique appliquée à l’IA, reconnaissant qu’OpenAI était désormais les seuls gardiens du temple.

Croire ou ne pas croire.

Le débat entre les critiques et les défenseurs du texte peut en fait se résumer entre ceux qui croient en l’avènement possible, et ce à relativement court terme, d’une AGI surpuissante et potentiellement non alignée, et ceux qui pensent que nous sommes encore loin d’une telle performance, que le futur est trop loin pour se détacher du présent.

Pourtant il n’y a pas de principe d’exclusion entre améliorer le présent et anticiper des risques. On peut, en même temps (expression populaire), améliorer les algorithmes actuels, encourager la régulation étatique et réfléchir sérieusement à un cadre pour éviter une explosion non contrôlée des potentialités de l’IA. Les voix qui nous expliquent que ceux qui craignent l’arrivée d’une AGI ne sont pas dans la réalité oublient tout principe de précaution. Continuer la recherche sans prendre le temps de réfléchir est typique d’une croyance de la toute puissance de l’humain, de sa soi-disant maitrise totale de la technologie et de la nature. Et de sa soumission à la loi du marché. Si l’IA n’est qu’un outil sans intelligence,pourquoi appelle t-on, d’une manière un peu schizophrénique pour des libéraux, à l’intervention des États et des citoyens….

La possibilité de l’exponentialité d’une IA qui peut écrire son propre code, voire optimiser son hardware (Nvidia travaille sur le sujet) est donc une affaire de croyance. Ou d’intérêts commerciaux. Pourtant, sans même considérer la faisabilité ou l’intérêt d’une pause, on est en droit d’attendre que les dirigeants de Google, Meta, Amazon, Open AI, Deep Mind, Microsoft et autres, commencent à discuter sécurité au vu de l’immensité des enjeux.

Même si on considère la menace existentielle d’un dieu numérique comme exagérée, les potentialités de dangers (sécurité, fake news, bouleversements du marché du travail, bio-industrie, militaire) sont trop importantes pour que l’humanité ne fasse pas un pas de côté, et réalise que, pour une fois, les considérations mercantiles doivent mises en adéquation avec les potentialités négatives. Les leaders de l’industrie de l’IA doivent au minimum prendre leurs responsabilités collectives et commencer à discuter ensemble de sécurité, de contrôle et d’alignement.

Nous sommes en droit, en tant que citoyens, de donner notre avis sur une technologie qui va bouleverser nos vies : le futur mérite mieux que d’être seulement écrit dans des bureaux. Il mérite d’être commun.