LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

L'expérience de l'IA passe de « 50 premiers rendez-vous » à « Cheers »

L'acquisition de mémoire apporte un contexte, une sensibilisation et une pertinence croissants aux chatbots et aux agents d'IA, même si une telle personnalisation accroît le besoin de confidentialité, de sécurité et d'utilisation responsable des données.

Par Steven Rosenbush
 
L’intelligence artificielle entre dans ce que l’on pourrait appeler l’ère des « Cheers », où chaque chatbot connaîtra votre nom.
 
« Cheers », la sitcom de longue date, partait du principe que les barmans et les habitués des bars apprennent à se connaître, à découvrir leur histoire, leurs préférences, leurs forces et leurs faiblesses au fil du temps passé ensemble. Lorsque Norm Peterson, incarné par George Wendt, décédé la semaine dernière, franchissait la porte, il était accueilli par son nom.
 
Jusqu'à présent, l'IA ressemble davantage à la comédie romantique « 50 First Dates », dans laquelle Lucy Whitmore, interprétée par Drew Barrymore, oublie chaque jour qu'elle passe avec Henry Roth (Adam Sandler) au moment où elle se réveille le lendemain matin. 
 
La plupart des modèles d’IA ont été formés pour être « sans état », ce qui signifie que chaque interaction est indépendante, selon Benjamin Drury, cofondateur et directeur technique de la startup en phase de démarrage DearFlow.
L'entreprise a créé un assistant personnel IA, qui se connecte à la boîte de réception, au calendrier et à d'autres sources de données autorisées d'un utilisateur, apprenant (et mémorisant) le comportement et le contexte de l'utilisateur au fil du temps, pour gérer les e-mails et les tâches de manière proactive.
 
« Nous sommes à un tournant, car la mémoire n'est plus une astuce en coulisses ni un ajout expérimental », a déclaré Drury. « Elle est désormais considérée comme une capacité essentielle. »
 
L'intégration de capacités de mémoire dans les chatbots, les agents et les outils d'IA devient de plus en plus réalisable à mesure que les modèles acquièrent des capacités de raisonnement avancées, que de nouvelles normes de protocole les aident à se connecter à d'autres applications et que les coûts diminuent pour une technique appelée génération augmentée de récupération, qui permet à l'IA d'apporter plus facilement et rapidement des informations antérieures à la conversation actuelle. 
 
Les capacités croissantes de mémorisation de l'IA feront de cette technologie un compagnon qui nous connaît suffisamment bien pour agir spontanément et proactivement. Elle renforcera également les exigences de confidentialité, de sécurité et d'utilisation responsable.
 
DEVENIR PROACTIF
 
« Aujourd'hui, la plupart des IA sont réactives. Vous posez des questions, elles répondent. Mais que se passerait-il si elles pouvaient anticiper les événements et vous aider à vous préparer, avant même que vous ne les posiez ? » a déclaré Josh Woodward, vice-président de Google Labs et de Google Gemini, la semaine dernière lors de la conférence des développeurs I/O de l'entreprise.
 
Selon Woodward, la compréhension et la mémoire de Gemini de l'historique d'un utilisateur s'approfondiront cette année à mesure qu'elle s'étendra, avec la permission de l'utilisateur, de Gmail à d'autres applications. 
 
« Imaginez que vous êtes étudiant. Un examen de physique important approche à grands pas, et au lieu de vous dépêcher, Gemini le voit sur votre agenda une semaine à l'avance. Mais il ne se contente pas de vous le rappeler », explique Woodward. « Il propose des quiz personnalisés élaborés à partir de vos documents, des notes de votre professeur, et même des photos et des notes manuscrites. »
 
Les entrepreneurs souhaitent également appliquer la mémoire de l’IA aux soins de santé.
 
Abridge a été lancé avec la possibilité de transcrire les conversations entre médecins et patients et de les intégrer aux dossiers médicaux, permettant ainsi aux médecins de gagner un temps précieux. Depuis la fin de l'année dernière, la startup a ajouté de nouvelles fonctionnalités permettant à son IA d'accéder aux dossiers et notes antérieurs des patients afin de préparer ses dossiers selon les préférences du médecin et de l'informer avec plus de contexte et d'historique. 
« En ce sens, l'ensemble du dossier médical fonctionne comme une sorte de mémoire pour Abridge », a déclaré Zachary Lipton, directeur technique d'Abridge. « La nouvelle documentation générée par Abridge s'intègre à ce dossier, qui alimente à son tour les visites ultérieures, créant ainsi une mémoire continue et cumulative pour chaque patient. » 
 
Lipton souhaite étendre ces capacités afin qu'Abridge puisse, à l'avenir, mieux servir les cliniciens des services d'urgence et d'hospitalisation, où plusieurs cliniciens doivent interagir avec un patient au cours de leurs gardes. Dans cette optique, Abridge servirait de mémoire partagée, coordonnant les activités des infirmières, des internes et des médecins traitants, travaillant ensemble pour prendre soin d'un patient.
 
Pour les entreprises, cette capacité à créer une mémoire partagée et accessible des connaissances institutionnelles sera un atout majeur. La famille de modèles Claude de la start-up d'IA Anthropic inclut une fonctionnalité appelée Projets, une base de connaissances persistante où les équipes peuvent stocker des documents, du code et du contexte. Lorsque les employés changent de rôle, leurs connaissances sur les projets restent accessibles au reste de l'équipe. Les entreprises peuvent également créer des projets distincts pour différents flux de travail ou services, ce qui permet de délimiter les tâches et de favoriser la collaboration.
 
« Cela illustre la manière dont les entreprises fonctionnent réellement », a déclaré le porte-parole d'Anthropic, Steve Mnich. 
 
Plus largement, Anthropic a lancé la semaine dernière sa classe de modèles Claude 4, qui, selon elle, se distinguent par des améliorations de la mémoire, ainsi que dans des domaines tels que la pensée étendue avec l'utilisation d'outils.
 
SÉCURITÉ EN PROFONDEUR
 
Cependant, sans contrôles appropriés, l’expansion de la mémoire de l’IA créera d’énormes problèmes de sécurité pour les entreprises et les particuliers.
 
Si un système d'IA est compromis, l'attaquant pourrait accéder à tout ce que l'IA voit, selon Drury de DearFlow. Parmi les autres risques, on peut citer une injection rapide qui amène l'assistant à envoyer des données à une autre personne ou un autre outil non autorisé. Les utilisateurs peuvent également manquer de moyens clairs pour gérer ce que l'IA partage ou mémorise entre les services, « surtout lorsque les autorisations sont opaques ou groupées », a déclaré Drury.
 
Une approche multicouche de la gouvernance est essentielle, selon Aparna Chennapragada, directrice des produits Expériences et Appareils chez Microsoft. Chez Microsoft, cela inclut les contrôles de sécurité et de conformité de base intégrés à sa plateforme de productivité cloud Microsoft 365. Des couches de sécurité supplémentaires se concentrent sur l'IA et les agents, répondant à des questions telles que le type d'accès dont un agent doit disposer et les interactions homme-agent, qui prennent en compte le type de réponses qu'une personne doit pouvoir obtenir. 
 
Aujourd'hui, il est difficile d'imaginer que les chatbots et agents IA égaleront un jour l'atmosphère chaleureuse et familière de notre bar ou café préféré, ou que nous le souhaiterions. Mais l'une des plus grandes surprises de l'ère de l'IA réside dans la rapidité et la profondeur avec lesquelles de nombreuses personnes tissent des liens avec la technologie.
 
Permettre à l’IA de mieux connaître ses utilisateurs renforcera cette technologie et nourrira ce lien.
 
source : https://www.wsj.com/articles 


01/07/2025
0 Poster un commentaire

A découvrir aussi


Inscrivez-vous au site

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 66 autres membres