LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LU SUR INTERNET


L'IA pose de nouvelles questions morales. Le pape Léon XIII affirme que l'Église catholique a des réponses.

Le nouveau pape a un premier objectif : l’intelligence artificielle comme défi perturbateur à la dignité humaine.

 

Le pape Léon XIV est entouré de journalistes utilisant leurs smartphones au Vatican, lundi. (Tiziana Fabi/AFP/Getty Images)

 
 

L'intelligence artificielle ne semble pas être une priorité évidente pour un nouveau pape à la tête de la plus grande Église chrétienne du monde. L'IA se développe à une vitesse que la plupart des gens ne peuvent suivre. L'Église mesure le changement en siècles.

 

Mais le pape Léon XIV, récemment élu, a fait de l'IA l'un des premiers axes de son pontificat, abordant le sujet à plusieurs reprises dans ses interventions publiques, notamment pour expliquer pourquoi il a pris le nom de Léon. Il a signalé que l'Église est prête à apporter une réponse spirituelle aux défis posés par l'IA pour la justice et la dignité humaines.

 

Nous aurons besoin de « responsabilité et de discernement » pour déployer « l'immense potentiel » de l'IA au profit de l'humanité plutôt qu'à sa dégradation, a-t-il déclaré lundi lors de sa première conférence de presse en tant que pape.

 

Le pape précédent, Léon XIII, à la fin du XIXe siècle, a aidé l’Église à traverser les conséquences de la révolution industrielle, dans lesquelles le nouveau pape a déclaré voir une analogie claire.

 

Dans ses remarques pour expliquer le choix de son nom, Léon XIV a rappelé l'encyclique « Rerum Novarum » de Léon XIII de 1891, sur le capital et le travail, qui soulignait le caractère sacré et la dignité des travailleurs dans un contexte de mutations politiques et sociales. Il a exhorté les hommes à ne pas s'éloigner de leur humanité et de leur âme lorsqu'ils travaillent dur et recherchent la richesse sous le capitalisme.

 

Aujourd'hui, c'est l'IA qui menace la dignité des travailleurs et l'âme humaine, a averti Léon XIV. Mais il semble considérer son Église comme particulièrement bien armée pour affronter la situation, offrant « le trésor de sa doctrine sociale » en réponse à « une nouvelle révolution industrielle ».

 

Cette insistance ne devrait pas surprendre, a déclaré Linda Hogan, éthicienne et professeure d'œcuménisme au Trinity College de Dublin, « car quiconque examine la situation actuelle dans laquelle nous nous trouvons se demanderait : quels sont les problèmes urgents ? »

 

Les éthiciens, y compris ceux qui travaillent dans une perspective religieuse, considèrent le développement et le déploiement de ce groupe de technologies appelé IA comme l'une des évolutions les plus marquantes de la génération actuelle, a déclaré Hogan. Ses implications concernent la justice sociale et les droits humains, les travailleurs et la créativité, la bioéthique et la surveillance, les préjugés et les inégalités, la guerre et la désinformation, et bien plus encore.

 

Pour l’Église, a déclaré Hogan, la question fondamentale est : ce nouveau développement sert-il la dignité humaine ou la viole-t-il ?

 

Alors que Léon XIV, diplômé en mathématiques, a accordé une importance particulière à cette question dans ses premiers instants déterminants en tant que pape, l'IA est une préoccupation de longue date pour le Vatican, y compris pour le regretté pape François.

 

 

L'Église « veut toujours protéger la personne humaine », a déclaré Ilia Delio, théologien américain spécialisé en sciences et en religion. « En d'autres termes, nous sommes créés à l'image de Dieu, donc tout ce qui pourrait porter atteinte à cette image de Dieu, la déformer ou tenter de l'éradiquer devient alarmant et source de préoccupation. »

 
 

En 2007, le pape Benoît XVI a averti les scientifiques que faire trop confiance à l’intelligence artificielle et à la technologie pourrait les conduire au même sort qu’Icare, qui a volé trop près du soleil.

En 2020, sous François, le Vatican et les géants de la technologie IBM et Microsoft ont signé l’« Appel de Rome pour l’éthique de l’IA », un document de principes de l’IA qui suit ce que le Vatican appelle « l’algoréthique » ou le développement éthique des algorithmes.

 

Le révérend Paolo Benanti, un frère franciscain qui a conseillé François sur l'IA, fait partie du Conseil consultatif des Nations Unies sur l'intelligence artificielle.

 

L'année dernière, François — qui, selon certaines sources, n'utilisait pas d'ordinateur et écrivait à la main — est devenu, à 87 ans, le premier pape à assister au sommet du Groupe des Nations, s'adressant aux dirigeants mondiaux sur les dangers de l'IA. Après avoir ouvert son discours par une récitation du livre de l'Exode, il a mis en garde contre un « paradigme technocratique » susceptible de limiter notre vision du monde à des « réalités exprimables en chiffres et enfermées dans des catégories prédéterminées » — et contre l'absence de sagesse de la technologie dans la prise de décision et son potentiel d'utilisation meurtrière. Il s'est inquiété de la « perte, ou du moins de l'éclipse, du sens de l'humain ».

 

« Nous condamnerions l’humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie, en les condamnant à dépendre des choix des machines », a déclaré François.

 

À la fin de l'année dernière, l'État de la Cité du Vatican a publié ses directives officielles sur l'IA, interdisant l'utilisation de systèmes d'IA créant des inégalités sociales, portant atteinte à la dignité humaine ou tirant des « déductions anthropologiques ayant des effets discriminatoires sur les individus ». Il a également créé une Commission sur l'intelligence artificielle composée de cinq membres pour la Cité-État.

En janvier, le Vatican a publié « Antiqua et Nova », qui signifie « Ancien et Nouveau », un document complet qui réfléchit aux différences et à la relation entre l’intelligence artificielle et l’intelligence humaine.

 

« En se tournant vers l'IA comme un “Autre” perçu comme supérieur à elle-même, avec lequel partager existence et responsabilités, l'humanité risque de créer un substitut à Dieu », affirme le document. Mais, en tant que « pâle reflet de l'humanité… formée à partir de matériaux créés par l'homme », ce n'est « pas l'IA qui est finalement déifiée et vénérée, mais l'humanité elle-même – qui, de cette manière, devient asservie à son propre travail ».

 

L'IA soulève des questions auxquelles l'Église catholique réfléchit depuis des siècles : à quoi ressemble une action éthique, personnelle et sociale ? Comment pouvons-nous cultiver notre propre humanité ? Que signifie être un être humain ?

Dans la tradition intellectuelle catholique, la compréhension de l'être humain va bien au-delà de la simple capacité à calculer, a déclaré Joseph Vukov, professeur associé de philosophie à l'Université Loyola de Chicago. L'Église défend une dignité humaine fondamentale et considère que notre humanité est incarnée et possède une qualité relationnelle, a-t-il ajouté.

 

L'utilisation excessive de technologies profondément intégrées – le doomscrolling et la dépendance excessive à l'IA pour penser à notre place – peut être spirituellement néfaste et déshumanisante, a déclaré Vukov. Les gens pourraient moins demander à leurs amis de leur recommander un nouveau livre, se fiant plutôt à ce que l'algorithme leur fournit, a-t-il ajouté. Ils pourraient remplacer davantage de rencontres en face à face par des rencontres virtuelles, perdre une partie de leur créativité ou de leur esprit critique, ou encore s'appuyer sur l'IA pour écrire une carte de remerciement. « Nous savons tous que ce n'est pas une façon humaine de vivre », a déclaré Vukov.

 

Les gens sont avides de sagesse morale et de cadres de compréhension pour donner un sens à tout cela. « C'est un don que l'Église catholique peut offrir au reste du monde », a-t-il déclaré.

 

Source : https://www.washingtonpost.com/world/2025/05/16/pope-leo-ai-artificial-intelligence-catholic-church/


12/07/2025
0 Poster un commentaire

Big Brother is watching you… in Oakley !

La tech stylée. Voilà la promesse de Meta avec ses lunettes connectées Ray-Ban et Oakley. Mains libres, assistant IA, streaming en direct… un vernis d’innovation et de confort qui cache mal les risques pour la vie privée et le potentiel de surveillance de masse de ces dispositifs. Et si les lunettes Meta étaient le cheval de Troie d’une société de surveillance totale ?

Si Le Diable s’habille en Prada, il y a fort à parier qu’il porte aussi des Ray-Ban… et maintenant des Oakley !

 

Trois ans après la sortie de ses lunettes connectées au look de Wayfarer, Meta récidive avec la célèbre marque américaine de lunettes de sport. À partir du 11 juillet, les Oakley Meta HSTN seront disponibles en prévente pour la modique somme de 399 dollars dans une dizaine de pays, dont la France. Elles embarquent une caméra de 12 mégapixels, des micros multidirectionnels, des haut-parleurs à conduction osseuse, ainsi que l’assistant intelligent maison. Tout comme leurs devancières siglées Ray-Ban, les Oakley permettent de prendre des photos, de filmer, de partager le tout sur Instagram en un clin d’œil, d’écouter de la musique, de traduire un texte à la volée ou de pouvoir interroger directement leur assistant IA, le tout avec plus d’autonomie et une meilleure qualité d’image que leurs prédécesseurs. Le fabricant les présente également comme utiles aux malvoyants, capables de leur décrire l’environnement grâce à l’IA. Bref, tout Internet et bien plus encore en un clin d’œil.

 

Derrière cette apparente facilité, ces dispositifs sont de véritables aspirateurs à data. Images, sons, métadonnées… toutes ces informations remontent vers les serveurs de Meta, pour entraîner les IA, améliorer la reconnaissance faciale, détecter les objets, optimiser les réponses de l’assistant. Et potentiellement, cibler les personnes croisées par l’utilisateur ou personnaliser encore plus les annonces auxquelles celui-ci est exposé. Une course à la donnée de plus en plus intrusive. Et, comme toujours avec les GAFAM, le plus grand flou règne sur l’exploitation de ces données, malgré les tentatives d’encadrement de ces pratiques.

 

Dispositif de captation furtive

Ce n’est pourtant que la partie émergée de l’iceberg. Discrètes et faciles d’emploi, ces lunettes connectées peuvent très facilement prendre des images de personnes à leur insu, dans les lieux publics, par exemple. La LED censée signaler l’enregistrement vidéo est jugée trop discrète par des experts de la CNIL. Et quand les lunettes se mettent à diffuser en direct sur les réseaux, sans que personne autour ne le sache, ce n’est plus du gadget, c’est un dispositif de captation furtive. Pire, leur porteur lui-même peut être transformé en capteur de données sans le savoir, s’il utilise des apps douteuses ou piratées.

 

L’application du RGPD dans un tel contexte relève dès lors du casse-tête. Son article 4 fait rentrer toute captation permettant l’identification directe ou indirecte d’individus dans son champ d’application et son article 6 stipule que celui qui opère une telle captation doit obtenir le consentement explicite des personnes filmées. Absolument impensable pour quelqu’un qui porte des lunettes et se déplace dans la rue en croisant plusieurs dizaines de passants. La logique du RGPD est ici piétinée : pas de transparence, pas de finalité claire, pas de possibilité de refus. Juste une captation invisible, normalisée, acceptée au nom du progrès.

 

La CNIL, interrogée à ce sujet, a botté en touche en estimant que les images captées par les Meta Glasses tombaient en majorité sous le coup de l’article 2.2.c du RGPD. Ce dernier stipule que si les images ou sons captés sont destinés à un usage domestique, ils ne rentrent pas dans le champ d’application du RGPD. 

 

Reconnaissance automatique d’inconnus

On ne compte pas non plus les multiples usages frauduleux que permettent ces « wearable devices » : captation de pièces de théâtre, films, expositions et autres performances, espionnage industriel, etc. Rien de neuf sur le principe, mais la relative discrétion et la facilité d’usage de ces dispositifs font craindre une utilisation à grande échelle. Avec la diffusion en direct d’œuvres ou l’interprétation par IA de données, documents, conversations captées par les lunettes connectées, c’est à un changement de rythme, d’échelle, voire de paradigme, auquel font face les ayant-droits. Les services de sécurité physique et cyber ont de beaux jours devant eux. 

 

Tout ceci est possible avec les lunettes connectées sorties de la boîte. Mais leur potentiel est gigantesque et hautement inquiétant. C’est ce qu’ont démontré deux étudiants de Harvard, AnhPhu Nguyen et Caine Ardayfio. En octobre 2024, ils ont présenté I-XRAY, une version modifiée des Ray-Ban Meta couplées à PimEyes, un moteur de recherche basé sur la reconnaissance faciale, et à un large langage model (LLM). Ce dernier combine les informations tirées des caméras des lunettes à celles de PimEyes pour instantanément reconnaître les personnes croisées dans la rue. Il peut alors communiquer au porteur ses infos personnelles (nom, emploi, adresse…) tirées d’Internet. « Cette synergie entre les LLM et la recherche inversée de visages permet une extraction de données entièrement automatique et exhaustive qui n’était auparavant pas possible avec les méthodes traditionnelles », indiquent les deux étudiants dans leurs travaux.

 

D’un regard, la surveillance de masse

D’un simple regard, il devient possible de tout savoir sur quelqu’un, à son insu. Du pain béni pour les pervers, les escrocs (les deux étudiants, lors de leurs tests, ont prétendu connaître des passants en s’appuyant sur les infos personnelles récoltées par leur dispositif), les espions, les doxxers… Le CounterTerrorism Group, une filiale de la firme de sécurité américaine Paladin, a alerté en janvier dernier sur les risques de doxxing instantané, de harcèlement, voire de traque ciblée et d’utilisation de ces lunettes intelligentes par des groupes terroristes. 

 

Si AnhPhu Nguyen et Caine Ardayfio ont mené l’expérience afin d’avertir des dangers de tels appareils, mais aussi de ceux posés par les moteurs de recherche invasifs comme PimEyes, d’autres acteurs du monde de l’IA n’ont pas de tels scrupules, à l’instar de Clearview AI. Cette entreprise est la conceptrice d’un moteur de recherche faciale pour les policiers et a également développé une paire de lunettes intelligentes qui utilise sa technologie de reconnaissance faciale.

 

Clearview, dont l’un des investisseurs n’est autre que Peter Thiel, l’un des fondateurs de Palantir, fournisseur de nombreuses agences de renseignement, a pour ambition d’intégrer la quasi-totalité de la population dans sa base de données de reconnaissance faciale. Elle l’a notamment construite en aspirant les données des réseaux sociaux sans le consentement des utilisateurs et a été condamnée à des amendes de plusieurs millions de dollars en Europe et en Australie pour des violations de la vie privée. Plusieurs affaires aux États-Unis ont également mis en cause des policiers qui auraient utilisé cet outil sans autorisation pour effectuer des recherches personnelles.

 

Le rêve de toute société totalitaire

Une technologie déjà inquiétante quand elle est mise au service des forces de l’ordre, mais qui donnerait le vertige si elle se répandait dans le grand public. Ce que redoutent de nombreux experts, c’est l’effet de masse. « Les fameuses “lunettes intelligentes” Meta, dont on dit qu’elles pourraient remplacer les smartphones d’ici quelques années, présentent un intérêt particulier pour la surveillance de masse. Elles placent les capteurs d’images au meilleur niveau technique pour obtenir un taux de reconnaissance, notamment des visages, bien supérieur à ceux d’une caméra de surveillance disposée en hauteur », s’inquiète Laurent Ozon.

 

Chef d’entreprise dans la tech, militant de « l’écologie profonde », essayiste, il estime que les lunettes intelligentes « élargiront la gamme de compétences des IA de contrôle, actuellement peu fiables du fait des caractéristiques du réseau de vidéosurveillance, jusque dans le domaine de la détection des humeurs. » Le rêve de toute société totalitaire ou de tout géant de la tech : savoir qui est présent (ou exposé à une annonce), mais aussi quelle est sa réaction non verbale, donc sincère, face au message du Grand Leader ou de l’annonceur. En Chine, certaines lunettes connectées sont utilisées depuis 2018 dans les gares pour scanner les visages ou les iris des voyageurs, et identifier en temps réel les suspects, sans qu’aucun signal ne prévienne les passants. On imagine sans peine que la technologie chinoise de surveillance de masse a progressé à pas de géant depuis lors.

 

Un marché en ébullition 

Le précédent des Google Glass, déployées en 2013 puis abandonnées après un tollé mondial, ou le procès de 2015 contre l’utilisation par Facebook de la reconnaissance faciale pour identifier des amis sur des photos, qui a finalement coûté à l’entreprise 650 millions de dollars, auraient dû servir d’avertissement. Mais la mémoire numérique est courte. Aujourd’hui, les smart glasses reviennent en force, plus puissantes, plus discrètes, plus connectées… et dans l’indifférence quasi générale. Fin 2024, Meta aurait écoulé deux millions d’exemplaires de ses Ray-Ban. Selon IDC, le segment des « smart glasses » atteindra 40 milliards de dollars d’ici 2028. De fait, la concurrence est au coin du bois, avec Google, qui annonce ses lunettes Android XR, tandis qu’Apple travaille discrètement sur un concurrent à réalité augmentée. 

 

Dans ce contexte, trois mesures semblent urgentes. Un, interdire la reconnaissance faciale sans consentement explicite. Deux, imposer des standards visibles d’enregistrement (LED clignotante, message sonore). Trois, exiger des fabricants un audit transparent des données collectées et de leur usage. Disons-le franchement, les espoirs de les voir s’appliquer sont minces.

 

Nous risquons donc de nous réveiller bientôt dans un monde fondé sur une surveillance ambiante, silencieuse, continue, où chaque promeneur anonyme sera un traceur ambulant, chaque porteur de lunettes un capteur pour le compte d’une plateforme et chaque regard une intrusion. Les lunettes connectées ne sont pas que des gadgets high-tech. Elles sont déjà les yeux et les oreilles d’un nouveau régime numérique. Plus intime. Plus invisible. Plus efficace. Et terriblement plus dangereux.


10/07/2025
0 Poster un commentaire

La part d’ombre des intelligences artificielles qui se disent « open source »

Nombre d’éditeurs, de DeepSeek à Mistral, en passant par Meta, s’accordent sur l’importance de l’ouverture des intelligences artificielles. Mais le degré de transparence de leurs modèles laisse à désirer, illustrant la tension entre une approche réellement ouverte et le développement d’un produit commercial.

Par 

Publié le 14 février 2025 à 07h00, modifié le 14 février 2025 à 09h53

 

Le logo du sommet sur l’intelligence artificielle au Grand Palais, à Paris, en février 2025

 

C’était l’un des enjeux affichés par l’Elysée durant le sommet de l’intelligence artificielle (IA), qui s’est tenu du lundi 10 au mardi 11 février, à Paris : que cette dernière profite à l’intérêt général. L’Etat a annoncé mardi la création de la fondation Current AI, destinée notamment à bâtir des outils et infrastructures d’IA « open source », c’est-à-dire ouverts. Cette fondation doit être dotée d’un budget public de 400 millions d’euros, renforcé par des contributions de fondations privées et d’entreprises, comme Google ou Salesforce.

 

Les contours de la mission de cette fondation demeurent encore flous. On ignore par exemple si elle bâtira de « grands modèles de langage » (LLM), la brique fondamentale animant ChatGPT et les autres agents conversationnels, ainsi que des outils de traduction, de biologie ou encore de robotique. Reste que sa création fait écho au débat concernant l’ouverture des LLM, ranimé ces dernières semaines par l’apparition de DeepSeek, un modèle qui se distingue justement de son concurrent ChatGPT par sa frugalité et par son positionnement open source.

 

« [Deepseek] a construit par-dessus le travail d’autres personnes [en apportant] de nouvelles idées, s’est ainsi enthousiasmé en janvier Yann LeCun, le directeur scientifique de l’IA chez Meta, sur LinkedIn. Comme leur travail est publié et open source, tout le monde peut désormais en profiter. Les modèles [ouverts] surpassent les modèles propriétaires. » Une pierre dans le jardin de son concurrent OpenAI, le créateur de ChatGPT, un LLM très ouvert à ses débuts mais qui s’est refermé au fil du temps, et n’a plus aujourd’hui d’« open » que le nom. Quelques jours après l’émergence médiatique de DeepSeek, Sam Altman, le cofondateur d’OpenAI, a déclaré lui-même sur Reddit : « Sur ce point, nous avons été du mauvais côté de l’histoire, nous devons repenser notre stratégie open source. »

Les zones d’ombre laissées par DeepSeek

Pour autant, Deepseek est-il un chevalier blanc de l’ouverture ? En réalité, l’entreprise chinoise est loin de se conformer entièrement à la définition d’une IA open source formulée par l’organe de standardisation Open Source Alliance (OSA). Pour les LLM, les fondamentaux sont les mêmes que pour d’autres logiciels : on doit pouvoir les utiliser, les étudier, les modifier et les partager librement. Mais pour eux, le volet modification et étude est plus complexe que pour un logiciel classique, leur code informatique étant beaucoup plus opaque. Pour comprendre un LLM, il faut s’intéresser au chemin emprunté par ses créateurs autant qu’au résultat final, son code source.

 

L’OSA appelle donc les éditeurs d’IA à dévoiler leurs secrets de fabrication. Ce que DeepSeek ne fait que partiellement, en restant évasif sur l’une des étapes-clés de fabrication des LLM, particulièrement innovante dans son cas : le renforcement. Or cette étape, qui consiste à indiquer à l’IA les réponses souhaitables puis celles qui ne le sont pas, afin de la rendre plus sûre et performante, est cruciale. Hugging Face, une entreprise franco-américaine qui abrite une énorme librairie de LLM, a monté un projet visant à reproduire les recettes de renforcement de DeepSeek puis à les rendre open source, baptisé Open-R1. Les indices donnés par DeepSeek, même parcellaires, ont suffi à mettre les chercheurs sur la piste. « Le modèle chinois a déjà servi de base à près de 1 000 nouveaux LLM ouverts, observe auprès du Monde Thomas Wolf, cofondateur de Hugging Face. C’est la beauté de l’open source que d’accélérer de façon exponentielle l’innovation. »

 

 

Parmi les omissions de DeepSeek, on note également l’absence d’informations sur les données d’entraînement, ces milliards de phrases écrites par des humains, dont le LLM s’inspire pour échafauder ses connexions. De façon générale, leur provenance est très rarement dévoilée par les éditeurs de LLM. « Selon toute vraisemblance, beaucoup utilisent des contenus sous copyright pour entraîner leurs modèles, éclaire Sébastien Broca, maître de conférences en sciences de l’information à l’université Paris-VIII. La légalité de cette pratique étant loin d’être assurée, elles n’ont pas intérêt à divulguer trop d’indices. »

 

Globalement, le degré d’ouverture de DeepSeek est donc passable, si l’on se fie à l’évaluation de deux chercheurs de l’université Radboud de Nimègue (Pays-Bas), auteurs d’un classement des LLM aux critères encore plus exigeants que ceux de l’OSA. Pour obtenir tous les points possibles à leur évaluation, une IA doit être accompagnée d’un article de recherche revu par des pairs, ce qui est extrêmement rare.

L’open source, un label aux contours flous

Selon ces chercheurs, DeepSeek est loin d’être le seul modèle se revendiquant open source sans l’être entièrement. L’IA française Mistral, par exemple, obtient une évaluation passable car son code source, ses données d’entraînement et ses articles de recherche sont incomplets.

 

Le Llama 3.1 de Meta, lui, obtient une note encore moins bonne, aucune information sur son renforcement n’étant donnée par ses créateurs, qui rechignent à détailler toutes les composantes du modèle. En outre, sa licence n’autorise pas n’importe qui à l’utiliser librement : les entreprises ayant plus de 700 millions d’usagers en sont privées. « Llama a eu un effet incroyable sur la communauté open source, avec des milliers de modèles adaptés de cette famille », estime néanmoins Thomas Wolf. Mark Dingemanse, l’un des auteurs de l’index, juge au contraire auprès du Monde que « la prédominance de Llama souligne à quel point le choix de LLM open source est pauvre ».

 

On le voit, la définition de l’IA open source est disputée et mouvante. L’OSA travaille ainsi déjà à une nouvelle version de cette définition, laquelle figure aussi parmi les objectifs fixés à la fondation Current AI, selon Contexte.

 

 

Les entreprises commerciales ont intérêt à ce que ses contours soient permissifs afin de conserver leur label tout en protégeant leurs précieux secrets de fabrication. L’approche open source, quitte à laisser un LLM circuler presque librement, comme le font Meta et Mistral, permet en effet de conquérir des parts de marché, d’acquérir de l’influence et « d’améliorer leur image face aux autres big tech » ou encore de « bénéficier d’une importante force de travail gratuite », détaille Sébastien Broca. Mark Dingemanse juge pourtant que ces entreprises pourraient gagner à adopter une approche plus radicale car « de grandes réussites commerciales comme Wordpress, Apache et Python sont basées sur une lecture maximaliste de l’open source ».

 

Pour l’heure, les projets les plus fidèles à l’esprit open source ne sont pas commerciaux. C’est le cas du LLM Olmo, porté par la fondation du milliardaire Paul Allen, cofondateur de Microsoft décédé en 2018. Ou du projet OpenEuroLLM conduit par divers organismes de recherche, financé par l’Union européenne à hauteur de 20 millions d’euros. Ses porteurs, les universitaires tchèque Jan Hajic et finlandais Peter Sarlin, veulent rendre publics tous leurs secrets de fabrication.

 

Source : https://www.lemonde.fr/pixels/ 


05/07/2025
0 Poster un commentaire

L'expérience de l'IA passe de « 50 premiers rendez-vous » à « Cheers »

L'acquisition de mémoire apporte un contexte, une sensibilisation et une pertinence croissants aux chatbots et aux agents d'IA, même si une telle personnalisation accroît le besoin de confidentialité, de sécurité et d'utilisation responsable des données.

Par Steven Rosenbush
 
L’intelligence artificielle entre dans ce que l’on pourrait appeler l’ère des « Cheers », où chaque chatbot connaîtra votre nom.
 
« Cheers », la sitcom de longue date, partait du principe que les barmans et les habitués des bars apprennent à se connaître, à découvrir leur histoire, leurs préférences, leurs forces et leurs faiblesses au fil du temps passé ensemble. Lorsque Norm Peterson, incarné par George Wendt, décédé la semaine dernière, franchissait la porte, il était accueilli par son nom.
 
Jusqu'à présent, l'IA ressemble davantage à la comédie romantique « 50 First Dates », dans laquelle Lucy Whitmore, interprétée par Drew Barrymore, oublie chaque jour qu'elle passe avec Henry Roth (Adam Sandler) au moment où elle se réveille le lendemain matin. 
 
La plupart des modèles d’IA ont été formés pour être « sans état », ce qui signifie que chaque interaction est indépendante, selon Benjamin Drury, cofondateur et directeur technique de la startup en phase de démarrage DearFlow.
L'entreprise a créé un assistant personnel IA, qui se connecte à la boîte de réception, au calendrier et à d'autres sources de données autorisées d'un utilisateur, apprenant (et mémorisant) le comportement et le contexte de l'utilisateur au fil du temps, pour gérer les e-mails et les tâches de manière proactive.
 
« Nous sommes à un tournant, car la mémoire n'est plus une astuce en coulisses ni un ajout expérimental », a déclaré Drury. « Elle est désormais considérée comme une capacité essentielle. »
 
L'intégration de capacités de mémoire dans les chatbots, les agents et les outils d'IA devient de plus en plus réalisable à mesure que les modèles acquièrent des capacités de raisonnement avancées, que de nouvelles normes de protocole les aident à se connecter à d'autres applications et que les coûts diminuent pour une technique appelée génération augmentée de récupération, qui permet à l'IA d'apporter plus facilement et rapidement des informations antérieures à la conversation actuelle. 
 
Les capacités croissantes de mémorisation de l'IA feront de cette technologie un compagnon qui nous connaît suffisamment bien pour agir spontanément et proactivement. Elle renforcera également les exigences de confidentialité, de sécurité et d'utilisation responsable.
 
DEVENIR PROACTIF
 
« Aujourd'hui, la plupart des IA sont réactives. Vous posez des questions, elles répondent. Mais que se passerait-il si elles pouvaient anticiper les événements et vous aider à vous préparer, avant même que vous ne les posiez ? » a déclaré Josh Woodward, vice-président de Google Labs et de Google Gemini, la semaine dernière lors de la conférence des développeurs I/O de l'entreprise.
 
Selon Woodward, la compréhension et la mémoire de Gemini de l'historique d'un utilisateur s'approfondiront cette année à mesure qu'elle s'étendra, avec la permission de l'utilisateur, de Gmail à d'autres applications. 
 
« Imaginez que vous êtes étudiant. Un examen de physique important approche à grands pas, et au lieu de vous dépêcher, Gemini le voit sur votre agenda une semaine à l'avance. Mais il ne se contente pas de vous le rappeler », explique Woodward. « Il propose des quiz personnalisés élaborés à partir de vos documents, des notes de votre professeur, et même des photos et des notes manuscrites. »
 
Les entrepreneurs souhaitent également appliquer la mémoire de l’IA aux soins de santé.
 
Abridge a été lancé avec la possibilité de transcrire les conversations entre médecins et patients et de les intégrer aux dossiers médicaux, permettant ainsi aux médecins de gagner un temps précieux. Depuis la fin de l'année dernière, la startup a ajouté de nouvelles fonctionnalités permettant à son IA d'accéder aux dossiers et notes antérieurs des patients afin de préparer ses dossiers selon les préférences du médecin et de l'informer avec plus de contexte et d'historique. 
« En ce sens, l'ensemble du dossier médical fonctionne comme une sorte de mémoire pour Abridge », a déclaré Zachary Lipton, directeur technique d'Abridge. « La nouvelle documentation générée par Abridge s'intègre à ce dossier, qui alimente à son tour les visites ultérieures, créant ainsi une mémoire continue et cumulative pour chaque patient. » 
 
Lipton souhaite étendre ces capacités afin qu'Abridge puisse, à l'avenir, mieux servir les cliniciens des services d'urgence et d'hospitalisation, où plusieurs cliniciens doivent interagir avec un patient au cours de leurs gardes. Dans cette optique, Abridge servirait de mémoire partagée, coordonnant les activités des infirmières, des internes et des médecins traitants, travaillant ensemble pour prendre soin d'un patient.
 
Pour les entreprises, cette capacité à créer une mémoire partagée et accessible des connaissances institutionnelles sera un atout majeur. La famille de modèles Claude de la start-up d'IA Anthropic inclut une fonctionnalité appelée Projets, une base de connaissances persistante où les équipes peuvent stocker des documents, du code et du contexte. Lorsque les employés changent de rôle, leurs connaissances sur les projets restent accessibles au reste de l'équipe. Les entreprises peuvent également créer des projets distincts pour différents flux de travail ou services, ce qui permet de délimiter les tâches et de favoriser la collaboration.
 
« Cela illustre la manière dont les entreprises fonctionnent réellement », a déclaré le porte-parole d'Anthropic, Steve Mnich. 
 
Plus largement, Anthropic a lancé la semaine dernière sa classe de modèles Claude 4, qui, selon elle, se distinguent par des améliorations de la mémoire, ainsi que dans des domaines tels que la pensée étendue avec l'utilisation d'outils.
 
SÉCURITÉ EN PROFONDEUR
 
Cependant, sans contrôles appropriés, l’expansion de la mémoire de l’IA créera d’énormes problèmes de sécurité pour les entreprises et les particuliers.
 
Si un système d'IA est compromis, l'attaquant pourrait accéder à tout ce que l'IA voit, selon Drury de DearFlow. Parmi les autres risques, on peut citer une injection rapide qui amène l'assistant à envoyer des données à une autre personne ou un autre outil non autorisé. Les utilisateurs peuvent également manquer de moyens clairs pour gérer ce que l'IA partage ou mémorise entre les services, « surtout lorsque les autorisations sont opaques ou groupées », a déclaré Drury.
 
Une approche multicouche de la gouvernance est essentielle, selon Aparna Chennapragada, directrice des produits Expériences et Appareils chez Microsoft. Chez Microsoft, cela inclut les contrôles de sécurité et de conformité de base intégrés à sa plateforme de productivité cloud Microsoft 365. Des couches de sécurité supplémentaires se concentrent sur l'IA et les agents, répondant à des questions telles que le type d'accès dont un agent doit disposer et les interactions homme-agent, qui prennent en compte le type de réponses qu'une personne doit pouvoir obtenir. 
 
Aujourd'hui, il est difficile d'imaginer que les chatbots et agents IA égaleront un jour l'atmosphère chaleureuse et familière de notre bar ou café préféré, ou que nous le souhaiterions. Mais l'une des plus grandes surprises de l'ère de l'IA réside dans la rapidité et la profondeur avec lesquelles de nombreuses personnes tissent des liens avec la technologie.
 
Permettre à l’IA de mieux connaître ses utilisateurs renforcera cette technologie et nourrira ce lien.
 
source : https://www.wsj.com/articles 

01/07/2025
0 Poster un commentaire

Pourquoi ChatGPT pourrait nuire à notre cerveau

L’usage de l’intelligence artificielle pourrait-il nuire à nos capacités de réflexion ? Une récente étude du MIT, pas encore évaluée par les pairs, montre que notre cerveau est moins performant en utilisant ChatGPT.

Par Bastien Beaujeu le 

 

Avec l’essor de l’intelligence artificielle (IA) générative, les modèles de langage (LLM) comme ChatGPT s’invitent en salle de classe, au travail et à la maison. Mais que se passe-t-il dans notre cerveau lorsque nous déléguons des tâches cognitives à une IA ? Une équipe du Massachusetts Institute of Technology (MIT, États-Unis) a voulu répondre à cette question en observant l’effet de ChatGPT sur une activité exigeante : la rédaction d’une dissertation.

Leurs résultats et analyses en sont encore au stade de preprint et par conséquent n’ont encore fait l’objet d’une relecture par les pairs. Ils ont néanmoins été rassemblés dans un imposant document (206 pages !) puis mis en ligne sur la plateforme arXiv

 

Des rédactions pour étudier le cerveau

L’expérience a été menée sur 54 jeunes adultes répartis en trois groupes. Le premier devait rédiger un essai avec l’aide de ChatGPT, le second pouvait utiliser Google et le troisième devait se débrouiller sans aucune aide. Chaque participant réalisait trois sessions d’écriture de 20 minutes réparties sur quatre mois. Les sujets de dissertation étaient inspirés de ceux du “SAT Reasoning Test”, une sorte d’équivalent américain du baccalauréat. 

L’activité cérébrale des participants a été enregistrée durant chaque session avec un électroencéphalogramme (EEG). Les résultats de l’étude, qui restent à confirmer, indiquent que moins un participant est autonome, moins son cerveau s’active. Les participants qui devaient rédiger leur essai sans aide présentaient une connectivité neuronale bien plus riche, c’est-à-dire plus d’interactions entre leurs aires cérébrales. Au contraire, le groupe aidé par ChatGPT avait l’activité cérébrale la plus faible, le groupe aidé par Google montrant une activation intermédiaire. 

 

 

Notre cerveau s’endette en utilisant ChatGPT

Cette délégation de l’effort cognitif ne reste pas sans conséquences. Lors d’entretiens post-session, les chercheurs ont évalué la capacité des participants à se souvenir de leur texte ou à en citer un extrait. Résultat : 83 % des utilisateurs de ChatGPT étaient incapables de citer une phrase de leur essai, contrairement aux autres participants. 

Pour compléter ces résultats, une quatrième session a été organisée pour une partie des participants (18 sur 54). Ceux ayant passé trois sessions avec ChatGPT devaient désormais écrire sans aide, et vice versa. Les participants passés de l’IA à une tâche sans assistance ont montré une activité cérébrale affaiblie. Leurs performances cognitives étaient amoindries par rapport à ceux qui n’avaient pas eu d’aide dès le début. Les auteurs de l'étude parlent de “dette cognitive” pour qualifier le fait que l’usage de l'IA pourrait nous rendre moins performants lorsque nous sommes livrés à nous-mêmes.

À l’inverse, ceux qui sont passés de l’écriture sans aide à ChatGPT ont réactivé certaines zones cérébrales de la mémoire. Cela suggère qu’en se souvenant de leurs précédentes rédactions, ils ont ainsi pu utiliser l’IA de manière plus critique et raisonnée.

 

Des résultats qui tirent la sonnette d’alarme ?

Il est important de garder en tête que cette étude n’a pas encore fait l’objet d’une relecture par les pairs. Or elle présente plusieurs limites méthodologiques, notamment un faible échantillon peu diversifié et une absence de subdivision de l’exercice de rédaction en sous-tâches distinctes (contrairement aux études précédentes sur le sujet).

Par conséquent, ses conclusions sont susceptibles d’être modifiées. Mais si elles sont avérées, leur message est important : certes, ChatGPT permet de gagner du temps et de produire des textes structurés, mais cela s’accompagne d’un "coût" cognitif. 

 

Ces résultats font écho à d’autres études récentes sur les effets des LLM comme ChatGPT sur notre cognition. Baisse de la pensée critique, de la motivation ou de la créativité… Tout ceci montre que l’IA est un outil qui doit être employé avec prudence et discernement, comme l’a rappelé le docteur en neurosciences Albert Moukheiber en réagissant au preprint du MIT : “le vrai danger reste les biais, les hallucinations, les applications et surtout l'attitude qu'on a avec les LLM, les personnes qui leur font confiance ont moins de raisonnement critique que celles qui en sont méfiantes.

 

source : https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle 


01/07/2025
0 Poster un commentaire