LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LU SUR INTERNET


La Révolution de l’IA, dix ans après — Tim Urban en français

Notre traduction commentée de « The Artificial Intelligence Revolution » et les raisons de (re)lire ce classique aujourd’hui

PAUSE IA MAI 23, 2025
 

   Tim Urban, l’auteur du blog culte « Wait But Why », publiait en 2015 une série en deux volets – « The Artificial Intelligence Revolution » – qui reste l’une des meilleures portes d’entrée pour comprendre l’intelligence artificielle générale (IAG) et ses enjeux. Avec son accord explicite, Pause IA met aujourd’hui en ligne la première traduction complète de ces articles, librement consultable ici.

 

   Le présent billet sert d’éclaireur. Il replace l’analyse de Tim dans le contexte de 2025, signale ce qui s’est déjà réalisé, ce qui a changé, et pointe vers les ressources mises à jour.

Notre traduction reste « non officielle » : l’équipe de Tim n’a pas revu le texte français, même si nous avons travaillé à en préserver le ton et l’humour. Si vous ne deviez lire qu’une seule version, privilégiez l’original ; si vous appréciez son travail, vous pouvez le soutenir directement ici. Et si cette initiative vous plaît, vous pouvez également soutenir Pause IA pour que nous puissions continuer à rendre ce type de contenus accessibles au public francophone.

 

   Un immense merci à tous les bénévoles dont le travail a rendu cette traduction possible.

Before it was cool

 

   Nous sommes en 2015. Il y a 10 ans, pas de ChatGPT ni même d’AlphaZéro, et les cartes graphiques sont destinées aux jeux vidéo. Le domaine de l’IA est déjà en révolution grâce au deep learning, et en particulier à l’apprentissage par renforcement, mais il ne produit que des modèles spécialisés. Tout se passe chez Google, au sein de quelques labos privés comme DeepMind, et dans le monde académique. Ceux qui prennent au sérieux la possibilité d’une intelligence artificielle de niveau humain sont bien peu nombreux. Au contraire, l’idée est régulièrement moquée, et beaucoup préfèrent se taire de crainte de s’exposer au ridicule.

 

   Pourtant, Tim Urban s’intéresse déjà à la superintelligence, et réalise dans quelle direction le vent souffle. Il publie deux articles de blog qui restent aujourd’hui l’une des introductions à l’IA les plus complètes et engageantes qui existent. Sa plus grande qualité est d’avoir su écouter et synthétiser les vues de nombreux penseurs de l’IA en avance sur leur temps et de poser la question suivante : à quoi ressemblerait le monde si l’on prenait au sérieux la possibilité de la superintelligence ? Tim ne craint pas de dérouler le raisonnement jusqu’au bout, montrant à quel point les précédents historiques nous font défaut.

La trajectoire humaine est vertigineuse

 

   Homo sapiens n’existe que depuis 300 000 ans tout au plus1 – un battement de cils sur les 4,54 milliards d’années de la Terre2. Pendant l’essentiel de cette période, notre outillage pierre‑bois‑os est resté quasi inchangé. Puis, en quelques millénaires – moins d’un dix‑millième de l’histoire de la planète – nous sommes passés de la céramique néolithique à l’électricité, au web et à la biologie de synthèse.

 

   Quelques ordres de grandeur suffisent à prendre la mesure de cette accélération :

 

  • Temps de doublement du PIB mondial : ≈ 1 500 ans entre l’Empire romain et 1700 ; ≈ 100 ans entre 1700 et 1800 ; ≈ 30 ans au XXᵉ siècle ; ≈ 15 ans aujourd’hui3.

  • Capacité de calcul disponible : le nombre de transistors sur une puce informatique double tous les deux ans (58 milliards en 2021)4.

  • Les budgets d’entraînement des modèles d’IA ont été multipliés par 1 000 depuis 20105.

 

   Ces chiffres ne sont pas qu’anecdotiques : ils illustrent une boucle de rétroaction où chaque découverte nourrit la suivante. Le temps entre l’idée et son application raccourcit : soixante ans seulement séparent le premier vol motorisé (1903)6 du premier vol orbital habité (1961)7 ; à peine neuf ans séparent l’iPhone 1 (2007) d’AlphaGo (2016)8, première IA à battre le champion du monde de Go.

 

   Cette dynamique – fruit de l’intelligence collective et de la transmission cumulative du savoir – est déjà sans équivalent dans le monde vivant. Elle suggère qu’une augmentation, même marginale, de nos capacités cognitives – ou l’apparition d’une nouvelle entité cognitive – pourrait propulser la courbe dans une zone où nos repères historiques cessent d’être fiables.

 

L’intelligence artificielle générale : La trajectoire humaine sous stéroïdes

 

   L’intelligence est donc au cœur de la trajectoire invraisemblable de l’humanité, ce qui amène naturellement à la question de l’intelligence artificielle. De quoi parle‑t‑on ? L’IA la plus importante est celle que l’on qualifie de « générale » – à ne pas confondre avec « générative » – c’est‑à‑dire qui possède toute l’étendue des capacités cognitives humaines. Une IAG s’apparente ainsi davantage à une autre espèce capable de transformer son environnement qu’à un simple outil spécialisé.

 

   Une autre espèce, que l’on pourrait copier à l’infini, et qui exécuterait sans relâche des tâches cognitives à la place des humains. Tous les domaines dans lesquels les êtres humains sont efficaces pourraient ainsi être révolutionnés par des IA générales beaucoup plus nombreuses, et potentiellement moins chères, opérant en parallèle. L’exponentielle humaine pourrait être décuplée par de tels systèmes, ou être entièrement remplacée par une exponentielle IA, développant et optimisant de nouvelles technologies de manière autonome.

 

   Mais cette description est incomplète : une IA pleinement générale fonctionnant sur substrat informatique disposerait immédiatement d’une vitesse de calcul et d’une bande passante interne très supérieures aux nôtres, à l’instar des LLM actuels qui génèrent du texte à une vitesse surhumaine, ouvrant rapidement la voie à une super‑intelligence.

 

Vous n’êtes pas prêts pour la superintelligence

 

    Qu’en serait-il alors d’une superintelligence, plus compétente qu’un être humain à son propre jeu, voire plus intelligente que tous les êtres humains réunis ?

   

   L’approche de Tim est inégalée dans sa manière de rendre tangibles et viscérales les implications qu’auraient une telle invention pour l’humanité. Ces conséquences sont si importantes, que même les spécialistes en IA les plus convaincus expriment parfois leurs difficultés à les appréhender.

Partout où s’applique l’intelligence humaine et la créativité, partout où ces capacités peuvent faire la plus minuscule différence, peut s’appliquer le pouvoir d’optimisation d’une superintelligence.

 

   En particulier, une superintelligence serait plus compétente pour créer la prochaine génération d’IA que les chercheurs en intelligence artificielle. S’ensuit donc un processus d’auto-amélioration récursif, ou chaque génération d’IA rend la suivante plus intelligente, à un niveau et à une vitesse qui laissent les chercheurs humains bien loin derrière.

 

   Tim illustre particulièrement bien tout l’échelle d’intelligence possible au-delà des capacités humaines avant de rencontrer d’éventuelles limites physiques.

 

   De telles capacités, mises au service de l’humanité, pourraient avoir des conséquences radicales et inespérées, nous permettant de résoudre par la technologie ou par une meilleure coordination tous nos problèmes actuels, voire de dépasser des limites physiologiques jusqu’ici inhérentes à tout être vivant.

La question suivante devient donc cruciale : peut-on s’assurer qu’une superintelligence utilise ses capacités au service de l’humanité en général et de chaque être humain en particulier ?

La superintelligence voudra‑t‑elle notre bien ?

 

   Ce n’est pas, loin s’en faut, l’avis de tout le monde. Tim propose une taxonomie des attitudes face à la perspective de la superintelligence, entre pessimisme et optimisme :

 

  1. Les Sceptiques — « l’IA forte n’arrivera pas ; inutile de s’inquiéter ».

  2. Les Confiants — « toute intelligence vraiment avancée sera naturellement bienveillante ».

  3. Les Alarmistes — « une perte de contrôle est inévitable ; mieux vaut tout arrêter ».

  4. Les Inquiets — « le résultat dépend entièrement de ce que nous ferons avant qu’elle n’existe ».

   L’appartenance aux troisième ou au quatrième camps est majoritairement fonction de l’imminence de la technologie pour les chercheurs concernés. En 2015, la plupart des acteurs du secteur sont partagés sur cette question mais déjà inquiets des conséquences de la superintelligence. Ceux qui se rangent dans la quatrième catégorie imaginent cependant que l’humanité disposera de suffisamment de temps avant les premières intelligences générales pour découvrir comment les aligner sur les objectifs et les valeurs humaines.

   Tim se range clairement dans le quatrième camp : la superintelligence pourrait être notre plus grand miracle ou notre pire cauchemar, et la balance reposera sur notre capacité à l’aligner. Mais pourquoi doit-on l’aligner ?

 

   Tim développe le concept de « super‑powers » : certaines aptitudes instrumentales – comme l’auto‑préservation, l’acquisition de ressources, la faculté d’influencer ou de tromper d’autres agents – sont presque toujours utiles quels que soient les objectifs ultimes des IA. Une superintelligence, même chargée d’un but apparemment anodin, cherchera donc spontanément à développer ces « super‑pouvoirs » afin de maximiser ses chances de réussite. C’est l’une des raisons pour laquelle les chercheurs en alignement estiment qu’une superintelligence sera dangereuse par défaut : pour sécuriser son environnement et accroître sa liberté d’action, elle pourrait entrer en conflit direct avec les intérêts humains9.

   

   La capacité de coopérer pour le bien commun chez les humains est, comme chacun l’aura observé indépendamment, très limitée. Elle provient pourtant d’un long processus de sélection naturelle où la coopération était un facteur vital pour nos lointains ancêtres. Nous ne savons pas reproduire un tel processus pour des IA, et pour juger de leur loyauté, nous ne pouvons qu’observer leur comportement, ce qui ne nous permettra jamais d’éliminer l’hypothèse d’une trahison future.

 

   Etant données les conséquences potentielles d’une telle trahison, l’idée clé est simple : il n’est pas nécessaire de prouver qu’un scénario catastrophe est certain. S’il est seulement plausible et que l’enjeu est existentiel, un « principe de précaution renforcé » s’impose – comme on l’accepte déjà pour le nucléaire ou l’aviation.

 

Ce qu’il a vu juste… et ce qu’il n’avait pas prévu…

 

   En 2015, Tim résumait l’idée qu’une avancée décisive dans l’IA aurait des conséquences simultanément technologiques (l’invention et la diffusion de nouvelles technologies à un rythme effréné), économiques (toutes les industries seraient touchées et profondément transformées) et civilisationnelles (une réorganisation des pouvoirs aurait lieu en faveur de ceux qui contrôlent les IA, changeant profondément nos institutions et l’ordre mondial). Dix ans plus tard, cette intuition est en passe de se réaliser : la puissance de calcul et les données ont été les catalyseurs que Tim anticipait, l’économie globale commence à être influencée par la chaîne logistique de l’IA, tout comme la géopolitique, avec l’amorce d’une course à la superintelligence entre les États-Unis et la Chine. Les modèles d’IA les plus avancés servent déjà à coder leur propre scaffolding10, et participent de manière croissante à l’entraînement de la prochaine génération de modèles dans les labos d’IA.

 

   Pour autant, personne n’avait prédit le chemin exact qu’emprunterait cette révolution. L’architecture des Transformer (2017)11 et l’entraînement auto‑supervisé sur d’immenses corpus textuels ont produit des modèles de langage généraux (GPT‑3 en 202012, GPT‑4 en 202313, puis GPT‑4o en 202414) capables de résoudre des tâches autrefois réservées aux humains, sans être explicitement programmés pour cela. La frontière entre « IA spécialisée » et « IA générale » s’est brouillée : ce sont la taille du réseau et l’échelle des données, plus qu’un nouveau paradigme cognitif, qui ont permis d’atteindre des performances polyvalentes. Les modèles généraux intègrent de plus en plus de compétences autrefois réservées aux modèles spécialisés, que ce soit par scaffolding ou, plus récemment, par un réentraînement sur des corpus de données sélectionnés pour un domaine ou une modalité.

 

   Ni la superintelligence, ni l’IAG ne sont encore pleinement atteintes, quoique les avis sur la question commencent à diverger.

 

   Les capacités actuelles des IA sont inégales selon les domaines, formant une frontière dentelée (« jagged frontier »15) : les modèles surclassent les humains au classement du barreau américain16 ou en repliement de protéines17 , mais échouent encore à raisonner de façon stable sur des opérations élémentaires inhabituelles. Cette hétérogénéité crée une illusion de bêtise : tant qu’une seule compétence critique manque, le système entier semble inoffensif. Mais il est prêt à basculer dès que le dernier verrou cède. Dans ce contexte, il n’est plus nécessaire d’imaginer une IA qui passerait de zéro à superintelligente en quelques minutes, comme avec l’exemple de Turry donné par Tim  dans la partie 2 –  il suffit qu’elle comble, une par une, les lacunes qui la rendent aujourd’hui dépendante de garde‑fous ou de supervision humaine.

Un horizon qui se rapproche

 

   Depuis 2015, le consensus agrégé sur l’arrivée d’une IAG/superintelligence s’est spectaculairement rapproché :

 

  • AI Impacts 2016 : auprès de 352 chercheurs en machine learning, la médiane pour une IA capable d’accomplir toutes les tâches humaines se situait vers 206018.

  • AI Impacts 2022 : la même méthodologie, répliquée six ans plus tard, ramène cette médiane à 204719.

  • ESP‑AI 2023 (2 778 auteurs de conférences IA) place désormais la médiane vers 2032 pour une IA de niveau humain20.

  • Metaculus, la communauté de prévision collaborative, qui projetait 2050 en 2017, affiche à présent une date médiane autour de 2032‑203321.

 

   Alors que Tim trouvait déjà audacieux d’évoquer un horizon de quarante ans, une échéance à vingt ans paraît aujourd’hui prudente, et plusieurs laboratoires planifient activement pour une fenêtre inférieure à dix ans.

Prolifération et rivalités géopolitiques

 

   Un autre paramètre qu’il est difficile de surestimer est la vitesse de diffusion de ces capacités. Là où DeepMind apparaissait naguère comme un bastion isolé, on compte désormais plusieurs dizaines de laboratoires financés à hauteur de milliards de dollars, et une communauté open source capable de faire tourner des modèles puissants sur une seule carte graphique de salon. La rivalité États‑Unis‑Chine, l’inflation des budgets militaires et la perspective de capturer des rentes économiques colossales rendent le moratoire technique – solution de précaution envisagée par Tim en 2015 – de plus en plus nécessaire.

 

   À défaut, les États tentent de réguler (EU AI Act22, ordonnances américaines, sommet de Bletchley 202323) mais de manière inconstante, et plus centrée sur des applications indésirables de l’IA que sur les dangers fondamentaux. Cette compétition pourrait pousser certains acteurs à prendre des raccourcis dangereux, exactement comme le craignait Tim, mais sur un marché devenu multipolaire.

 

Des risques majeurs avant la superintelligence

 

   La plus grande mise à jour depuis 2015 est peut‑être la prise de conscience qu’il n’est pas nécessaire d’atteindre la superintelligence pour créer des risques systémiques. Les mêmes modèles qui rédigent une poésie en alexandrins peuvent déjà :

 

  • concevoir de nouveaux agents pathogènes mieux que la plupart des doctorants24 ;

  • générer des campagnes de persuasion de masse micro‑ciblées pour manipuler une élection25;

  • écrire du code offensif ou automatiser des fraudes à grande échelle26.

 

   En l’absence de solution technique et sociale à l’alignement, la trajectoire actuelle de l’IA ressemble à un abandon progressif de plus en plus de systèmes, d’institutions, voire de relations sociales, à des IA. Une perte de contrôle graduelle27 qui risque de laisser l’humanité sur le carreau. Nous ne nous donnons pas les moyens de réagir lorsque le problème se présentera. En l’état actuel des choses, nos décideurs ne serons probablement pas au courant qu’il y a un problème avant qu’il ne soit trop tard.

Conclusion : Tim, remets ça !

 

   Dix ans après « La Révolution de l’IA », le paysage a changé plus vite que ne l’avaient parié même les plus enthousiastes des lecteurs du blog.

 

   Nous avons besoin, plus que jamais, d’un grand coup de projecteur « Wait But Why » – celui qui combine pédagogie décomplexée, métaphores qui claquent et questionnement sans détour.

 

   Et cela de préférence avant que Tim ne soit entièrement automatisé.

 

****************************

 

1

Hublin, J.-J. et al. « New fossils from Jebel Irhoud, Morocco and the pan‑African origin of Homo sapiens », Nature, 2017. https://www.nature.com/articles/nature22336

2

NASA, « Earth Fact Sheet », 2024. https://nssdc.gsfc.nasa.gov/planetary/factsheet/earthfact.html

3

DeLong, J. B. « Estimating World GDP, One Million B.C.–Present », 2006. https://delong.typepad.com/print/20061012_LRWGDP.pdf](https://delong.typepad.com/print/20061012_LRWGDP.pdf ; Our World in Data, « Economic growth », 2024.

4

Roser, M., Ritchier, H., Mathieu, E., Our World in Data, 2023. https://ourworldindata.org/moores-law

5

Sevilla, T. et al. « Compute Trends Across Three Eras of Machine Learning », arXiv:2305.16264, 2022. https://arxiv.org/abs/2202.05924

6

National Air and Space Museum, « The Wright Brothers – 1903 ». https://airandspace.si.edu/exhibitions/wright-brothers/online/

7

NASA History Office, « Yuri Gagarin: First Human in Space », 2011. https://history.nasa.gov/sputnik/gagarin.html

8

Silver, D. et al. « Mastering the game of Go with deep neural networks and tree search », Nature, 2016. https://www.nature.com/articles/nature16961

9

Bostrom, N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.

10

Le terme « scaffolding » (échafaudage en français) désigne ici l’ensemble du code et des outils qui «enveloppent » un modèle d’IA pour le transformer en une application plus complète et fonctionnelle, comme un assistant ou un agent. Ce « scaffolding » lui fournit par exemple des accès à des outils externes (Internet, fichiers), la capacité de piloter un ordinateur, ou de maintenir une exécution continue pour des opérations complexes.

11

Vaswani, A. et al. « Attention Is All You Need », NeurIPS, 2017. https://arxiv.org/abs/1706.03762

12

Brown, T. B. et al. « Language Models are Few‑Shot Learners », NeurIPS, 2020. https://arxiv.org/abs/2005.14165

13

OpenAI. « GPT‑4 Technical Report », 2023. https://arxiv.org/abs/2303.08774

14

OpenAI. « Introducing GPT‑4o », OpenAI Blog, 2024. https://openai.com/index/introducing-gpt-4o

15

Dell’Acqua, F., McFowland III, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., … & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality. _Harvard Business School Technology & Operations Mgt. Unit Working Paper, (24-013). https://dx.doi.org/10.2139/ssrn.4573321

16

Bommarito, M. J. & Katz, D. M. « GPT‑4 Passes the Bar Exam », SSRN Working Paper 4389233, 2023. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4389233

17

Baek, M. et al. « Accurate prediction of biomolecular structures with AlphaFold 3 », Nature, 2024. https://www.nature.com/articles/s41586-024-07487-w

18

Grace, K. et al. « When Will AI Exceed Human Performance? Evidence from AI Experts », arXiv:1705.08807, 2017. https://arxiv.org/abs/1705.08807

19

Clark, J. et al. « Expert Survey on Progress in AI (2022 update) », AI Impacts, 2022. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/

20

AI Impacts. « 2023 AI survey of 2,778 authors: six things in pictures », blog post, 2023.

21

Metaculus. « Forecast: Date of Artificial General Intelligence », consulté le 29 avril 2025.

22

Parlement européen & Conseil de l’UE. « Règlement sur l’IA (AI Act) », version consolidée 2024. https://data.consilium.europa.eu/doc/document/PE-46-2024-INIT/fr/pdf

23

UK Department for Science, Innovation & Technology. « Bletchley Declaration », AI Safety Summit, 2023. https://www.gov.uk/government/publications/ai-safety-summit-2023-bletchley-declaration

24

Urbina, F. et al. « Dual use of AI in drug discovery: Generating lethal molecules », Nature Machine Intelligence, 2022. https://www.nature.com/articles/s42256-022-00465-9

25

Zhou, X. et al. « Large Language Models are Surprisingly Persuasive », arXiv:2305.11206, 2023. https://arxiv.org/abs/2305.11206

26

Pearce, P. et al. « Can Large Language Models Generate Malicious Code? », IEEE Symposium on Security and Privacy, 2023.

27

Kulveit, J., Douglas, R., Ammann, N., Turan, D., Krueger, D., & Duvenaud, D. (2025). Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development. arXiv preprint arXiv:2501.16946. https://gradual-disempowerment.ai

 

source : https://pauseia.substack.com/p/la-revolution-de-lia-dix-ans-apres#footnote-anchor-10-164148217


25/06/2025
0 Poster un commentaire

Microsoft coupe les mails de la Cour Pénale Internationale, un avertissement pour tous les Européens

Alors que son président s’était engagé à protéger les données des Européens, Microsoft a retiré à la CPI l’accès à ses services. La coupure fait suite à une volonté de l’administration américaine, à laquelle Microsoft s’est soumis malgré ses promesses.

    Lors de sa visite à Bruxelles, Brad Smith, le président de Microsoft, l’avait juré. Son groupe s’engagerait à défendre les intérêts et les données des Européens face aux aléas géopolitiques, y compris d’éventuelles pressions de l’administration américaine.

 

    Mais les promesses n’engagent que ceux qui les croient. Et après ce joli discours – où Brad Smith assurait avec emphase que Microsoft « dépend de manière critique de la confiance de ses clients, des pays et des gouvernements à travers l’Europe » –, la raison dictait d’avoir des preuves qui confirmeraient cet engagement avant de le croire.

 

    Or peu après cette déclaration, on apprenait que Microsoft suspendait la messagerie et d’autres services utilisés par le bureau du procureur de la Cour Pénale Internationale (CPI) de La Haye, Karim Khan.

 

    Cette coupure se conformait aux sanctions imposées par Washington à l’encontre du personnel du CPI après que la Cour a décidé d’ouvrir des enquêtes sur de hauts dignitaires israéliens.

 

    Le contexte est sulfureux, mais ce n’est pas le fond du problème. Quoi que l’on pense de ces enquêtes d’un côté, et de la légitimité des sanctions américaines de l’autre, cette affaire prouve que Microsoft a non seulement la capacité, mais aussi la volonté d’exécuter les directives de l’État américain et de couper les services à tout acteur jugé indésirable par son administration.

 

    Une posture qui va à l’encontre des engagements pris par Brad Smith sur le sol européen.

Un clic de souris qui résonne dans le monde entier

    Cette coupure est, si je puis dire, un clic de souris qui résonne dans le monde entier. Un clic qui devrait en tout cas faire réfléchir les décideurs sur leurs relations « de confiance » avec Microsoft.

 

« Les responsables IT, en particulier dans le public, savent qu’il est temps de trouver une alternative “au cas où”. Un plan B est une question de bon sens. »

   

    De fait, plusieurs institutions publiques néerlandaises ont aussitôt accéléré leurs recherches de solutions alternatives, hébergées en Europe. Dans le même temps, le nombre de demandes de backups pour sécuriser les données dans Microsoft aurait bondi. En Allemagne, la presse s’est fait l’écho d’un regain d’intérêt pour des systèmes de sauvegarde face à une possible perte d’accès aux services Microsoft. Dans les pays nordiques comme en France, l’idée d’un avenir numérique moins dépendant d’Azure est encore plus ancienne et cette affaire ne fait que la raviver.

 

    Une vague d’interruptions de service volontaire par Microsoft est hautement improbable – l’éditeur fait 25 % de ses revenus en Europe, il ne peut pas se passer de ce marché sous peine de suicide commercial. Il ne s’agit donc pas d’avoir peur.

 

    Mais lorsqu’un prestataire clé sur lequel les organisations comptent depuis des années se montre soumis aux volontés d’un gouvernement étranger, fût-il ami, la plupart des responsables IT (en particulier dans le secteur public) savent qu’il est temps de trouver une alternative « au cas où ». Avoir un plan B est une question de bon sens.

 

    Le véritable problème pour Microsoft pourrait d’ailleurs être là : dans l’IT, les plans B deviennent souvent les plans A. Une fuite modeste de clients peut vite se transformer en exode. Les gouvernements sont par nature prudents, mais ils sont aussi assez moutonniers. Quand l’un d’entre eux change de chemin, les autres ont plus tendance à le suivre.

 

Un changement d’ambiance vers moins de confiance

    Cette affaire ne provoquera donc pas d’exode de chez Microsoft. D’ailleurs, même en imaginant que ce soit techniquement possible (ce qui bien souvent n’est pas le cas), les organisations sont plus préoccupées que paniquées.

 

« Nombreux sont ceux qui estiment que Microsoft, au lieu d’avoir défendu un pilier de la communauté juridique mondiale, a agi comme un instrument de la politique américaine. »

 

    Mais l’affaire marque un changement d’ambiance : jusque-là très fidèles à Microsoft, plusieurs structures discutent désormais ouvertement de la nécessité de réduire leur dépendance à l’éditeur américain.

 

    Les inquiétudes liées à de possibles pressions des autorités américaines sur les hyperscalers – Microsoft, Google ou AWS – existent depuis longtemps. Mais elles étaient atténuées par les promesses répétées de ces fournisseurs de protéger leurs clients.

 

    Cependant, nombreux sont ceux qui estiment que Microsoft, à l’épreuve du feu, n’a pas tenu parole. Et qu’au lieu d’être un défenseur d’un pilier de la communauté juridique mondiale, il a agi comme un instrument de la politique américaine.

 

Une alternative suisse à la rescousse de la CPI

    Victimes de cette coupure, la CPI et Karim Khan se seraient tournés vers Proton Mail, un service de messagerie, chiffrée de bout en bout, plébiscité par les lanceurs d’alerte.

 

« Le CPI a dû renoncer à certaines fonctionnalités et à une certaine facilité d’utilisation, mais c’est un bien petit prix à payer pour protéger ses équipes. »

   

    Proton Mail n’est pas une panacée. Le service est soumis au droit suisse, qui oblige (lui aussi) sur demande à divulguer  certaines données à un gouvernement (ici, Helvète). Mais ces informations se cantonnent à certaines métadonnées, comme l’adresse IP, et ne concernent pas les mails eux-mêmes.

 

    En passant à une alternative, il y a fort à parier que Karim Khan a dû renoncer à certaines fonctionnalités et à une certaine facilité d’utilisation, mais il doit aussi se dire que c’est un petit prix à payer pour protéger ses équipes et son institution de l’influence du gouvernement américain.

 

    Trouver une alternative est peut-être un choix que d’autres devront envisager dans les mois ou les années qui viennent. Car si cette affaire rappelle une chose, c’est qu’on ne peut pas toujours faire confiance aux fournisseurs cloud pour garantir la souveraineté des données, malgré leurs discours.

 

    Et dans ce cas précis, malheureusement, les actes de Microsoft résonnent bien plus fort que les mots rassurants de Brad Smith. 

 

 

 

source : https://www.lemagit.fr/actualites/

- Cette tribune a été publiée initialement sur Computer Weekly, publication du groupe Informa TechTarget également propriétaire du MagIT.

 


22/06/2025
0 Poster un commentaire

Quelle est la consommation énergétique de l'IA ? Ceux qui savent ne le disent pas.

 

Un nombre croissant de recherches tentent de chiffrer la consommation d’énergie et l’IA, même si les entreprises à l’origine des modèles les plus populaires gardent secrètes leurs émissions de carbone.

 

    « LES GENS SONT SOUVENT curieux de savoir combien d'énergie consomme une requête ChatGPT », a écrit Sam Altman , PDG d' OpenAI , dans un long article de blog publié la semaine dernière. Une requête moyenne, écrit Altman, consomme 0,34 wattheure : « À peu près la consommation d'un four en un peu plus d'une seconde, ou celle d'une ampoule à haute efficacité en quelques minutes. »

   

    Pour une entreprise comptant 800 millions d'utilisateurs actifs hebdomadaires (et en constante augmentation ), la question de la consommation énergétique de toutes ces recherches devient de plus en plus pressante.

 

    Cependant, les experts affirment que le chiffre d'Altman n'a pas beaucoup de sens sans un contexte public plus détaillé d'OpenAI sur la manière dont il est parvenu à ce calcul, notamment la définition d'une requête « moyenne », l'inclusion ou non de la génération d'images, et la prise en compte ou non par Altman de la consommation énergétique supplémentaire, comme celle liée à l'entraînement des modèles d'IA et au refroidissement des serveurs d'OpenAI.

 

   

    Par conséquent, Sasha Luccioni, responsable climat chez Hugging Face, une entreprise d'IA, n'accorde pas beaucoup d'importance au chiffre d'Altman. « Il aurait pu le sortir de son cul », dit-elle. (OpenAI n'a pas répondu à une demande d'informations complémentaires sur la manière dont il est arrivé à ce chiffre.)

 

    Alors que l'IA envahit nos vies, elle promet également de transformer nos systèmes énergétiques, augmentant les émissions de carbone au moment même où nous luttons contre le changement climatique. Aujourd'hui, un nouveau corpus de recherche, en pleine expansion, tente de chiffrer précisément la quantité de carbone que nous émettons réellement grâce à l'utilisation de l'IA.

 

    Cet effort est compliqué par le fait que des acteurs majeurs comme OpenAI divulguent peu d'informations environnementales. Une analyse soumise à un examen par les pairs cette semaine par Luccioni et trois autres auteurs examine la nécessité d'une plus grande transparence environnementale dans les modèles d'IA. Dans la nouvelle analyse de Luccioni, elle et ses collègues utilisent les données d' OpenRouter , un classement du trafic des modèles de langage à grande échelle (LLM), pour constater que 84 % de l'utilisation des LLM en mai 2025 concernait des modèles sans aucune divulgation environnementale. Cela signifie que les consommateurs choisissent massivement des modèles dont les impacts environnementaux sont totalement inconnus.

 

    « Je suis stupéfait qu'on puisse acheter une voiture et savoir combien elle consomme, alors que nous utilisons tous ces outils d'IA au quotidien et que nous ne disposons d'aucun indicateur d'efficacité, de facteurs d'émission, rien du tout », déclare Luccioni. « Ce n'est ni obligatoire, ni réglementaire. Compte tenu de la situation actuelle face à la crise climatique, cela devrait être une priorité pour les régulateurs du monde entier. »

 

    En raison de ce manque de transparence, explique Luccioni, le public est exposé à des estimations absurdes, mais prises pour argent comptant. Vous avez peut-être entendu dire, par exemple, qu'une requête ChatGPT moyenne consomme dix fois plus d'énergie qu'une recherche Google moyenne. Luccioni et ses collègues attribuent cette affirmation à une déclaration publique de John Hennessy, président d'Alphabet, la société mère de Google, faite en 2023.

 

    L'affirmation d'un membre du conseil d'administration d'une entreprise (Google) concernant le produit d'une autre entreprise avec laquelle il n'a aucun lien (OpenAI) est pour le moins ténue. Pourtant, l'analyse de Luccioni révèle que ce chiffre a été répété à maintes reprises dans la presse et les rapports politiques. (Alors que j'écrivais cet article, j'ai reçu une proposition contenant exactement cette statistique.)

 

    « On a transformé une remarque improvisée en une statistique concrète qui éclaire les politiques et la façon dont les gens perçoivent ces choses », explique Luccioni. « Le véritable problème, c'est que nous n'avons pas de chiffres. Même les calculs improvisés sont souvent considérés comme la référence absolue, mais ce n'est pas le cas. »

   

    Une façon d'explorer les coulisses et d'obtenir des informations plus précises est d'utiliser des modèles open source. Certains géants de la technologie, comme OpenAI et Anthropic, conservent leurs modèles propriétaires, ce qui empêche les chercheurs externes de vérifier leur consommation d'énergie de manière indépendante. En revanche, d'autres entreprises rendent publiques certaines parties de leurs modèles, permettant ainsi aux chercheurs d'évaluer plus précisément leurs émissions.

   

    Une étude publiée jeudi dans la revue Frontiers of Communication a évalué 14 grands modèles linguistiques open source, dont deux modèles Meta Llama et trois modèles DeepSeek, et a constaté que certains consommaient jusqu'à 50 % d'énergie en plus que les autres modèles de l'ensemble de données répondant aux questions des chercheurs. Les 1 000 questions de référence soumises aux LLM comprenaient des questions sur des sujets tels que l'histoire et la philosophie au lycée ; la moitié des questions étaient formatées à choix multiples, avec des réponses d'un seul mot, tandis que l'autre moitié était soumise sous forme de questions ouvertes, permettant un format plus libre et des réponses plus longues.

   

    Les chercheurs ont constaté que les modèles de raisonnement généraient beaucoup plus de jetons de réflexion – des mesures du raisonnement interne générées par le modèle lors de la production de sa réponse, qui sont un signe distinctif d'une consommation d'énergie plus élevée – que les modèles plus concis. Ces modèles, sans surprise, étaient également plus précis sur des sujets complexes. (Ils avaient également des problèmes de concision : pendant la phase à choix multiples, par exemple, les modèles les plus complexes renvoyaient souvent des réponses avec plusieurs jetons, malgré des instructions explicites de ne répondre qu'à partir de la gamme d'options fournies.)

 

    Maximilian Dauner, doctorant à l'Université des sciences appliquées de Munich et auteur principal de l'étude, espère que l'utilisation de l'IA évoluera pour réfléchir à une utilisation plus efficace de modèles moins énergivores pour différentes requêtes. Il imagine un processus où les questions plus petites et plus simples sont automatiquement dirigées vers des modèles moins énergivores, mais qui fourniront néanmoins des réponses précises. « Même les modèles plus petits peuvent obtenir d'excellents résultats sur des tâches plus simples, sans pour autant émettre une quantité importante de CO2 » , explique-t-il.

 

    Certaines entreprises technologiques le font déjà. Google et Microsoft ont déjà indiqué à WIRED que leurs fonctionnalités de recherche utilisent des modèles plus petits lorsque cela est possible, ce qui peut également accélérer les réponses des utilisateurs. Mais en général, les fournisseurs de modèles n'ont pas fait grand-chose pour inciter les utilisateurs à consommer moins d'énergie. La rapidité avec laquelle un modèle répond à une question, par exemple, a un impact important sur sa consommation d'énergie, mais cela ne s'explique pas lorsque les produits d'IA sont présentés aux utilisateurs, explique Noman Bashir, chercheur en informatique et impact climatique au Climate and Sustainability Consortium du MIT.

  

    « L'objectif est de fournir toutes ces inférences le plus rapidement possible afin que vous ne quittiez pas la plateforme », explique-t-il. « Si ChatGPT commence soudainement à vous donner une réponse au bout de cinq minutes, vous vous tournerez vers un autre outil qui vous fournira une réponse immédiate. »

 

Cependant, de nombreux autres facteurs doivent être pris en compte lors du calcul de la consommation énergétique des requêtes d'IA complexes, car ce n'est pas seulement théorique : les conditions d'exécution des requêtes dans le monde réel sont importantes. Bashir souligne que le matériel physique joue un rôle dans le calcul des émissions. Dauner a mené ses expériences sur un GPU Nvidia A100, mais le GPU H100 de Nvidia, spécialement conçu pour les charges de travail d'IA et qui, selon l'entreprise , connaît un succès croissant, est beaucoup plus énergivore.

 

    L'infrastructure physique joue également un rôle en matière d'émissions. Les grands centres de données nécessitent des systèmes de refroidissement, d'éclairage et d'équipements réseau, qui consomment tous davantage d'énergie ; ils fonctionnent souvent selon des cycles diurnes, avec une pause la nuit lorsque les requêtes sont moins nombreuses. Ils sont également raccordés à différents types de réseaux, alimentés majoritairement par des combustibles fossiles et d'autres par des énergies renouvelables, selon leur localisation.

 

    Bashir compare les études qui analysent les émissions issues des requêtes d'IA sans tenir compte des besoins des centres de données au fait de soulever une voiture, d'appuyer sur l'accélérateur et de compter les tours d'une roue pour réaliser un test de consommation de carburant. « On ne tient pas compte du fait que cette roue doit transporter la voiture et le passager », explique-t-il.

 

    Plus crucial encore pour notre compréhension des émissions de l'IA, les modèles open source comme ceux utilisés par Dauner dans son étude ne représentent qu'une fraction des modèles d'IA utilisés aujourd'hui par les consommateurs. Entraîner un modèle et mettre à jour les modèles déployés consomment énormément d'énergie, des chiffres que de nombreuses grandes entreprises gardent secrets. On ignore, par exemple, si la statistique de l'ampoule sur ChatGPT, présentée par Altman d'OpenAI, prend en compte toute l'énergie utilisée pour entraîner les modèles alimentant le chatbot. Sans plus de transparence, le public passe tout simplement à côté d'une grande partie des informations nécessaires pour commencer à comprendre l'impact réel de cette technologie sur la planète.

   

    « Si j’avais une baguette magique, je rendrais obligatoire pour toute entreprise mettant en production un système d’IA, n’importe où, dans le monde, dans n’importe quelle application, de divulguer les chiffres du carbone », déclare Luccioni.

 

Paresh Dave a contribué au reportage.

 

source : https://www.wired.com/story/ai-carbon-emissions-energy-unknown-mystery-research/

 


21/06/2025
0 Poster un commentaire

Le plus grand leak de l’Histoire ! Apple, Google, Telegram… 16 milliards de mots de passe

 

Si les cyberattaques sont devenues monnaie courante ces derniers temps, celle-ci dépasse tout ce que l’on avait vu jusqu’ici. D’après Cybernews, ce sont près de 16 milliards d’identifiants de connexion qui ont été découverts dans au moins une trentaine de bases de données. 

Comprenez donc que les données ne sont pas issues d’un seul piratage. Mais la majorité a été récupérée via des logiciels malveillants connus sous le nom d’infostealers. 

16 milliards de données prêt à être exploité par n’importe qui

 

Depuis le début de l’année, les chercheurs ont analysé et surveillé ces ensembles. Leur taille varie de plusieurs dizaines de millions à plus de 3,5 milliards de lignes pour le plus important. 

À noter que parmi ces bases, une seule avait été repérée auparavant. Il s’agissait d’un fichier de 184 millions d’enregistrements évoqué fin mai par Wired. Or, ce fichier n’arrive même pas à la vingtième position des découvertes de Cybernews. Ce dernier affirmant que le total atteint 16 milliards d’enregistrements.

Pire encore, les chercheurs ont constaté que de nouvelles bases de données émergent toutes les deux à trois semaines. Elles étaient accessibles de façon éphémère, hébergées sur des services mal configurés comme Elasticsearch ou des plateformes de stockage non sécurisées. A la merci de n’importe qui.

 

Malheureusement, si elles ont été découvertes assez tôt pour être signalées, elles sont restées en ligne trop brièvement pour permettre l’identification de leurs auteurs.

Que trouve-t-on exactement dans ces ensembles de données ? Principalement des identifiants extraits via des malwares, des compilations issues d’attaques par credential stuffing, ou encore des fuites précédemment recyclées. 

La structure des fichiers est toujours la même et suit un schéma simple. Une URL, un identifiant, un mot de passe. La configuration classique pour les infostealers actuels. Et tous les types de plateformes sont concernés. De Google, Apple, Facebook à GitHub, Telegram, les services cloud ou encore les entités gouvernementales

Une bombe à retardement

Avec 16 milliards d’identifiants dans la nature, les cybercriminels disposent d’un arsenal inédit pour pirater des comptes, usurper des identités et lancer des campagnes de phishing ciblé

 

Ce qui inquiète tout particulièrement, c’est la fraîcheur de ces données. Contrairement aux fuites plus anciennes et obsolètes, celles-ci sont organisées, exploitables et potentiellement toujours actives.

Elles peuvent même alimenter des attaques très variées. Prises de contrôle de comptes, intrusions par ransomware, compromission d’emails professionnels… 

Leur dangerosité est encore accrue lorsqu’elles contiennent, en plus des identifiants, des cookies, des jetons de session et des métadonnées. Une organisation sans politique de sécurité stricte devient alors une cible facile. 

Bon, même avec des mesures rigides, il y a toujours une faille quelque part que les hackers peuvent exploiter. Alors que faire ?

 

Personnellement, si j’ai un conseil à vous donner, ce serait que vous utilisez des mots de passe robustes. Que vous activez la double authentification. Que vous surveillez vos appareils et consultez des outils comme Have I Been Pwned pour vous protéger.

C’est loin d’être suffisant, c’est certain. Mais au moins ainsi, on ne leur facilite pas la tâche à ces cybercriminels.

Et vous, qu’est-ce que vous suggérez ? Dites-nous en commentaire !

 

source : https://www.lebigdata.fr/le-plus-grand-leak-de-lhistoire-apple-google-telegram-16-milliards-de-mots-de-passe


21/06/2025
0 Poster un commentaire

Souveraineté numérique : Le Danemark passe à Linux et LibreOffice

 

La ministre danoise de la "Digitalisation", Caroline Stage, a annoncé une transition majeure du gouvernement danois, qui prévoit de remplacer les logiciels Microsoft, notamment Windows et Microsoft Office, par des alternatives open-source Linux et LibreOffice. Cette décision s'inscrit dans une stratégie plus large visant à renforcer la souveraineté numérique du pays.

En effet, Caroline Stage a confirmé son intention de rendre le Danemark moins dépendant des géants technologiques, y compris Microsoft. Une nouvelle stratégie de numérisation, convenue entre le gouvernement et les autorités régionales et municipales, vise à poursuivre une "souveraineté numérique". Dans une interview avec le journal Politiken, elle a précisé que les produits Microsoft seront progressivement éliminés au ministère de la Digitalisation.

Comme tout projet informatique, cela ne va pas se faire du jour au lendemain. On apprend que la transition débutera avec la migration de plus de la moitié des employés du ministère vers des systèmes basés sur Linux et des alternatives open-source comme LibreOffice très prochainement et tous les employés du ministère utiliseront des logiciels open-source d'ici la fin de l'année. Cette démarche vise à réduire les coûts liés aux licences logicielles et à améliorer le contrôle sur les mises à jour et la sécurité des données. Cela engendrera des côuts sur la formation pour les nouveaux usages de ces nouveaux outils, cela va de soi, sans ouvlier des coûts humains des équipes réalisant la transition, sans oublier la gestion de projet en amont.

Cette initiative fait suite à des décisions similaires prises par les gouvernements municipaux de Copenhague et d'Aarhus, qui ont également décidé de se passer de Microsoft en tant que principal fournisseur informatique. Les considérations financières, les préoccupations concernant la dépendance à un quasi-monopole et le climat géopolitique sous la présidence de Donald Trump ont été cités comme des facteurs influençant ces décisions.

Il y a une question de souveraineté mais aussi de contexte géopolitique. En effet, la relation entre le Danemark et les États-Unis s'est tendue en raison des ambitions de Trump concernant le Groenland et des rapports récents sur l'intention des États-Unis d'intensifier l'espionnage sur le Groenland et le Danemark. Cela a suscité un débat au Danemark sur la protection des données et la dépendance vis-à-vis des États-Unis pour son infrastructure numérique.

Dans l'article lié aux source de ce billet, Jan Damsgaard, responsable du Département de la Digitalisation à la Copenhagen Business School, a déclaré : "Le Danemark, en tant que pays le plus numérisé au monde, est complètement dépendant des entreprises technologiques américaines, et ce n'est clairement pas une situation durable." Il a salué l'initiative du ministère de la Digitalisation d'explorer ces systèmes open-source, tout en notant que le passage à des systèmes open-source orientés utilisateur n'est pas sans défis.

Damsgaard a averti que "si vous n'avez pas un membre du personnel capable de développer le système, vous ne pouvez pas l'implémenter." Il a ajouté que "la meilleure façon de bénéficier de LibreOffice est de faire partie de la communauté. Sinon, vous ne comprendrez pas ce qui se passe." Cela signifie que les ministères, les autorités et les entreprises souhaitant effectuer la transition devront posséder des "compétences informatiques étendues et approfondies".

Ce qui est intéressant ici, c'est que non seulement le Danemark fait un grand pas vers l'Open Source, mais compte former ses équipes, et s'impliquer dans la phiolosophie OpenSource. C'est donc du gagnant-gagnant.

Concernant la distribution Linux utilisée, je n'ai pas trouvé d'information sur celle qui sera utilisée. Est-ce que ce cera une distribution "pure" comme Debian, ou Linux Mint ? Une adaptation d'une existante comme Gendbuntu qui est une Ubuntu adaptée aux besoins de la gendarmerie française ? Ou une expérimentation de EU-OS dont on a parlé en vidéo ?
L'avenir nous le dira !

En tout cas, cette initiative pourrait inspirer d'autres pays à envisager des alternatives similaires, surtout dans un contexte où la sécurité des données et la souveraineté numérique deviennent pour certains des priorités. Toutefois, une planification minutieuse et des compétences techniques adéquates seront essentielles pour garantir le succès de cette transition avec une gestion de projet bien ficelée.
En espérant qu'ils ne fassent pas marche arrière comme la ville de Munich qui avait réalisé une migration vers Linux avec LiMux en 2012 avant de revenir à Windows en 2017...

 

Source(s) : https://www.linuxtricks.fr/news/10-logiciels-libres/570-souverainete-numerique-le-danemark-passe-a-linux-et-libreoffice 

via

Why Denmark wants to cut use of Microsoft products at key ministryDanish Ministry Plans Linux Migration to Replace Microsoft by FallCaroline Stage udfaser Microsoft i Digitaliseringsministeriet


15/06/2025
0 Poster un commentaire