Notre traduction commentée de « The Artificial Intelligence Revolution » et les raisons de (re)lire ce classique aujourd’hui
Tim Urban, l’auteur du blog culte « Wait But Why », publiait en 2015 une série en deux volets – « The Artificial Intelligence Revolution » – qui reste l’une des meilleures portes d’entrée pour comprendre l’intelligence artificielle générale (IAG) et ses enjeux. Avec son accord explicite, Pause IA met aujourd’hui en ligne la première traduction complète de ces articles, librement consultable ici.
Le présent billet sert d’éclaireur. Il replace l’analyse de Tim dans le contexte de 2025, signale ce qui s’est déjà réalisé, ce qui a changé, et pointe vers les ressources mises à jour.
Notre traduction reste « non officielle » : l’équipe de Tim n’a pas revu le texte français, même si nous avons travaillé à en préserver le ton et l’humour. Si vous ne deviez lire qu’une seule version, privilégiez l’original ; si vous appréciez son travail, vous pouvez le soutenir directement ici. Et si cette initiative vous plaît, vous pouvez également soutenir Pause IA pour que nous puissions continuer à rendre ce type de contenus accessibles au public francophone.
Un immense merci à tous les bénévoles dont le travail a rendu cette traduction possible.
Nous sommes en 2015. Il y a 10 ans, pas de ChatGPT ni même d’AlphaZéro, et les cartes graphiques sont destinées aux jeux vidéo. Le domaine de l’IA est déjà en révolution grâce au deep learning, et en particulier à l’apprentissage par renforcement, mais il ne produit que des modèles spécialisés. Tout se passe chez Google, au sein de quelques labos privés comme DeepMind, et dans le monde académique. Ceux qui prennent au sérieux la possibilité d’une intelligence artificielle de niveau humain sont bien peu nombreux. Au contraire, l’idée est régulièrement moquée, et beaucoup préfèrent se taire de crainte de s’exposer au ridicule.
Pourtant, Tim Urban s’intéresse déjà à la superintelligence, et réalise dans quelle direction le vent souffle. Il publie deux articles de blog qui restent aujourd’hui l’une des introductions à l’IA les plus complètes et engageantes qui existent. Sa plus grande qualité est d’avoir su écouter et synthétiser les vues de nombreux penseurs de l’IA en avance sur leur temps et de poser la question suivante : à quoi ressemblerait le monde si l’on prenait au sérieux la possibilité de la superintelligence ? Tim ne craint pas de dérouler le raisonnement jusqu’au bout, montrant à quel point les précédents historiques nous font défaut.
Homo sapiens n’existe que depuis 300 000 ans tout au plus – un battement de cils sur les 4,54 milliards d’années de la Terre. Pendant l’essentiel de cette période, notre outillage pierre‑bois‑os est resté quasi inchangé. Puis, en quelques millénaires – moins d’un dix‑millième de l’histoire de la planète – nous sommes passés de la céramique néolithique à l’électricité, au web et à la biologie de synthèse.
Quelques ordres de grandeur suffisent à prendre la mesure de cette accélération :
-
Temps de doublement du PIB mondial : ≈ 1 500 ans entre l’Empire romain et 1700 ; ≈ 100 ans entre 1700 et 1800 ; ≈ 30 ans au XXᵉ siècle ; ≈ 15 ans aujourd’hui.
-
Capacité de calcul disponible : le nombre de transistors sur une puce informatique double tous les deux ans (58 milliards en 2021).
-
Les budgets d’entraînement des modèles d’IA ont été multipliés par 1 000 depuis 2010.
Ces chiffres ne sont pas qu’anecdotiques : ils illustrent une boucle de rétroaction où chaque découverte nourrit la suivante. Le temps entre l’idée et son application raccourcit : soixante ans seulement séparent le premier vol motorisé (1903) du premier vol orbital habité (1961) ; à peine neuf ans séparent l’iPhone 1 (2007) d’AlphaGo (2016), première IA à battre le champion du monde de Go.
Cette dynamique – fruit de l’intelligence collective et de la transmission cumulative du savoir – est déjà sans équivalent dans le monde vivant. Elle suggère qu’une augmentation, même marginale, de nos capacités cognitives – ou l’apparition d’une nouvelle entité cognitive – pourrait propulser la courbe dans une zone où nos repères historiques cessent d’être fiables.
L’intelligence est donc au cœur de la trajectoire invraisemblable de l’humanité, ce qui amène naturellement à la question de l’intelligence artificielle. De quoi parle‑t‑on ? L’IA la plus importante est celle que l’on qualifie de « générale » – à ne pas confondre avec « générative » – c’est‑à‑dire qui possède toute l’étendue des capacités cognitives humaines. Une IAG s’apparente ainsi davantage à une autre espèce capable de transformer son environnement qu’à un simple outil spécialisé.
Une autre espèce, que l’on pourrait copier à l’infini, et qui exécuterait sans relâche des tâches cognitives à la place des humains. Tous les domaines dans lesquels les êtres humains sont efficaces pourraient ainsi être révolutionnés par des IA générales beaucoup plus nombreuses, et potentiellement moins chères, opérant en parallèle. L’exponentielle humaine pourrait être décuplée par de tels systèmes, ou être entièrement remplacée par une exponentielle IA, développant et optimisant de nouvelles technologies de manière autonome.
Mais cette description est incomplète : une IA pleinement générale fonctionnant sur substrat informatique disposerait immédiatement d’une vitesse de calcul et d’une bande passante interne très supérieures aux nôtres, à l’instar des LLM actuels qui génèrent du texte à une vitesse surhumaine, ouvrant rapidement la voie à une super‑intelligence.
Qu’en serait-il alors d’une superintelligence, plus compétente qu’un être humain à son propre jeu, voire plus intelligente que tous les êtres humains réunis ?
L’approche de Tim est inégalée dans sa manière de rendre tangibles et viscérales les implications qu’auraient une telle invention pour l’humanité. Ces conséquences sont si importantes, que même les spécialistes en IA les plus convaincus expriment parfois leurs difficultés à les appréhender.
Partout où s’applique l’intelligence humaine et la créativité, partout où ces capacités peuvent faire la plus minuscule différence, peut s’appliquer le pouvoir d’optimisation d’une superintelligence.
En particulier, une superintelligence serait plus compétente pour créer la prochaine génération d’IA que les chercheurs en intelligence artificielle. S’ensuit donc un processus d’auto-amélioration récursif, ou chaque génération d’IA rend la suivante plus intelligente, à un niveau et à une vitesse qui laissent les chercheurs humains bien loin derrière.
Tim illustre particulièrement bien tout l’échelle d’intelligence possible au-delà des capacités humaines avant de rencontrer d’éventuelles limites physiques.
De telles capacités, mises au service de l’humanité, pourraient avoir des conséquences radicales et inespérées, nous permettant de résoudre par la technologie ou par une meilleure coordination tous nos problèmes actuels, voire de dépasser des limites physiologiques jusqu’ici inhérentes à tout être vivant.
La question suivante devient donc cruciale : peut-on s’assurer qu’une superintelligence utilise ses capacités au service de l’humanité en général et de chaque être humain en particulier ?
Ce n’est pas, loin s’en faut, l’avis de tout le monde. Tim propose une taxonomie des attitudes face à la perspective de la superintelligence, entre pessimisme et optimisme :
-
Les Sceptiques — « l’IA forte n’arrivera pas ; inutile de s’inquiéter ».
-
Les Confiants — « toute intelligence vraiment avancée sera naturellement bienveillante ».
-
Les Alarmistes — « une perte de contrôle est inévitable ; mieux vaut tout arrêter ».
-
Les Inquiets — « le résultat dépend entièrement de ce que nous ferons avant qu’elle n’existe ».
L’appartenance aux troisième ou au quatrième camps est majoritairement fonction de l’imminence de la technologie pour les chercheurs concernés. En 2015, la plupart des acteurs du secteur sont partagés sur cette question mais déjà inquiets des conséquences de la superintelligence. Ceux qui se rangent dans la quatrième catégorie imaginent cependant que l’humanité disposera de suffisamment de temps avant les premières intelligences générales pour découvrir comment les aligner sur les objectifs et les valeurs humaines.
Tim se range clairement dans le quatrième camp : la superintelligence pourrait être notre plus grand miracle ou notre pire cauchemar, et la balance reposera sur notre capacité à l’aligner. Mais pourquoi doit-on l’aligner ?
Tim développe le concept de « super‑powers » : certaines aptitudes instrumentales – comme l’auto‑préservation, l’acquisition de ressources, la faculté d’influencer ou de tromper d’autres agents – sont presque toujours utiles quels que soient les objectifs ultimes des IA. Une superintelligence, même chargée d’un but apparemment anodin, cherchera donc spontanément à développer ces « super‑pouvoirs » afin de maximiser ses chances de réussite. C’est l’une des raisons pour laquelle les chercheurs en alignement estiment qu’une superintelligence sera dangereuse par défaut : pour sécuriser son environnement et accroître sa liberté d’action, elle pourrait entrer en conflit direct avec les intérêts humains.
La capacité de coopérer pour le bien commun chez les humains est, comme chacun l’aura observé indépendamment, très limitée. Elle provient pourtant d’un long processus de sélection naturelle où la coopération était un facteur vital pour nos lointains ancêtres. Nous ne savons pas reproduire un tel processus pour des IA, et pour juger de leur loyauté, nous ne pouvons qu’observer leur comportement, ce qui ne nous permettra jamais d’éliminer l’hypothèse d’une trahison future.
Etant données les conséquences potentielles d’une telle trahison, l’idée clé est simple : il n’est pas nécessaire de prouver qu’un scénario catastrophe est certain. S’il est seulement plausible et que l’enjeu est existentiel, un « principe de précaution renforcé » s’impose – comme on l’accepte déjà pour le nucléaire ou l’aviation.
En 2015, Tim résumait l’idée qu’une avancée décisive dans l’IA aurait des conséquences simultanément technologiques (l’invention et la diffusion de nouvelles technologies à un rythme effréné), économiques (toutes les industries seraient touchées et profondément transformées) et civilisationnelles (une réorganisation des pouvoirs aurait lieu en faveur de ceux qui contrôlent les IA, changeant profondément nos institutions et l’ordre mondial). Dix ans plus tard, cette intuition est en passe de se réaliser : la puissance de calcul et les données ont été les catalyseurs que Tim anticipait, l’économie globale commence à être influencée par la chaîne logistique de l’IA, tout comme la géopolitique, avec l’amorce d’une course à la superintelligence entre les États-Unis et la Chine. Les modèles d’IA les plus avancés servent déjà à coder leur propre scaffolding, et participent de manière croissante à l’entraînement de la prochaine génération de modèles dans les labos d’IA.
Pour autant, personne n’avait prédit le chemin exact qu’emprunterait cette révolution. L’architecture des Transformer (2017) et l’entraînement auto‑supervisé sur d’immenses corpus textuels ont produit des modèles de langage généraux (GPT‑3 en 2020, GPT‑4 en 2023, puis GPT‑4o en 2024) capables de résoudre des tâches autrefois réservées aux humains, sans être explicitement programmés pour cela. La frontière entre « IA spécialisée » et « IA générale » s’est brouillée : ce sont la taille du réseau et l’échelle des données, plus qu’un nouveau paradigme cognitif, qui ont permis d’atteindre des performances polyvalentes. Les modèles généraux intègrent de plus en plus de compétences autrefois réservées aux modèles spécialisés, que ce soit par scaffolding ou, plus récemment, par un réentraînement sur des corpus de données sélectionnés pour un domaine ou une modalité.
Ni la superintelligence, ni l’IAG ne sont encore pleinement atteintes, quoique les avis sur la question commencent à diverger.
Les capacités actuelles des IA sont inégales selon les domaines, formant une frontière dentelée (« jagged frontier ») : les modèles surclassent les humains au classement du barreau américain ou en repliement de protéines , mais échouent encore à raisonner de façon stable sur des opérations élémentaires inhabituelles. Cette hétérogénéité crée une illusion de bêtise : tant qu’une seule compétence critique manque, le système entier semble inoffensif. Mais il est prêt à basculer dès que le dernier verrou cède. Dans ce contexte, il n’est plus nécessaire d’imaginer une IA qui passerait de zéro à superintelligente en quelques minutes, comme avec l’exemple de Turry donné par Tim dans la partie 2 – il suffit qu’elle comble, une par une, les lacunes qui la rendent aujourd’hui dépendante de garde‑fous ou de supervision humaine.
Depuis 2015, le consensus agrégé sur l’arrivée d’une IAG/superintelligence s’est spectaculairement rapproché :
-
AI Impacts 2016 : auprès de 352 chercheurs en machine learning, la médiane pour une IA capable d’accomplir toutes les tâches humaines se situait vers 2060.
-
AI Impacts 2022 : la même méthodologie, répliquée six ans plus tard, ramène cette médiane à 2047.
-
ESP‑AI 2023 (2 778 auteurs de conférences IA) place désormais la médiane vers 2032 pour une IA de niveau humain.
-
Metaculus, la communauté de prévision collaborative, qui projetait 2050 en 2017, affiche à présent une date médiane autour de 2032‑2033.
Alors que Tim trouvait déjà audacieux d’évoquer un horizon de quarante ans, une échéance à vingt ans paraît aujourd’hui prudente, et plusieurs laboratoires planifient activement pour une fenêtre inférieure à dix ans.
Un autre paramètre qu’il est difficile de surestimer est la vitesse de diffusion de ces capacités. Là où DeepMind apparaissait naguère comme un bastion isolé, on compte désormais plusieurs dizaines de laboratoires financés à hauteur de milliards de dollars, et une communauté open source capable de faire tourner des modèles puissants sur une seule carte graphique de salon. La rivalité États‑Unis‑Chine, l’inflation des budgets militaires et la perspective de capturer des rentes économiques colossales rendent le moratoire technique – solution de précaution envisagée par Tim en 2015 – de plus en plus nécessaire.
À défaut, les États tentent de réguler (EU AI Act, ordonnances américaines, sommet de Bletchley 2023) mais de manière inconstante, et plus centrée sur des applications indésirables de l’IA que sur les dangers fondamentaux. Cette compétition pourrait pousser certains acteurs à prendre des raccourcis dangereux, exactement comme le craignait Tim, mais sur un marché devenu multipolaire.
La plus grande mise à jour depuis 2015 est peut‑être la prise de conscience qu’il n’est pas nécessaire d’atteindre la superintelligence pour créer des risques systémiques. Les mêmes modèles qui rédigent une poésie en alexandrins peuvent déjà :
-
concevoir de nouveaux agents pathogènes mieux que la plupart des doctorants ;
-
générer des campagnes de persuasion de masse micro‑ciblées pour manipuler une élection;
-
écrire du code offensif ou automatiser des fraudes à grande échelle.
En l’absence de solution technique et sociale à l’alignement, la trajectoire actuelle de l’IA ressemble à un abandon progressif de plus en plus de systèmes, d’institutions, voire de relations sociales, à des IA. Une perte de contrôle graduelle qui risque de laisser l’humanité sur le carreau. Nous ne nous donnons pas les moyens de réagir lorsque le problème se présentera. En l’état actuel des choses, nos décideurs ne serons probablement pas au courant qu’il y a un problème avant qu’il ne soit trop tard.
Dix ans après « La Révolution de l’IA », le paysage a changé plus vite que ne l’avaient parié même les plus enthousiastes des lecteurs du blog.
Nous avons besoin, plus que jamais, d’un grand coup de projecteur « Wait But Why » – celui qui combine pédagogie décomplexée, métaphores qui claquent et questionnement sans détour.
Et cela de préférence avant que Tim ne soit entièrement automatisé.
****************************