LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

LE PARTAGE QUI JOINT L'UTILE A L'AGREABLE

G.-L. Pérau - L'Ordre des francs-maçons trahi et le secret des Mopses révélé

G.-L. Pérau - L'Ordre des francs-maçons trahi

et le secret des Mopses révélé

1745 | PDF| 10 MB

 EBOOK G.-L. Pérau - L'Ordre des francs-maçons trahi.jpg

Réponse critique d'un frère franc-maçon autour d'un livre sur l'Ordre illustre des Francs Maçons. Aborde notamment les 22 Loges établies à Paris, les Chefs-d'Ordre, les Assemblées, les moeurs de la Confrérie, les membres, la réception des Maîtres, l'histoire d'Hiram ou d'Adoniram.  

 Célèbre ouvrage qui malgré son titre n'a rien d'anti-maçonnique. Il est d'ailleurs dédié "au très vénérable Frère Procope..." La plupart des planches représentent des cérémonies ou symboles maçonniques. Cette édition comprend bien le "supplément", le "secret des mopses révélé" et les "chansons". C'est un document intéressant sur le curieux ordre des Mopses, sorte de loge mixte qui avait pour emblème un chien et qui fut créée en 1736 et dont la particularité était de ne pas exiger de serment.

 

   https://trbt.cc/download/folder/2467202


09/02/2020
0 Poster un commentaire

Collectif - 99 trucs pour économiser sans trop se priver

Collectif - 99 trucs pour économiser sans trop se priver

Question Retraite | 2013 | PDF | 5 MB  

    

Vous économisez moins que vous le voulez? Vous avez entendu dire que pour épargner, vous devez vous priver et cela ne vous intéresse pas? Parfait! Ce guide répondra donc à vos attentes. Oui, vous pouvez bel et bien économiser en utilisant les moyens classiques, par exemple apporter votre lunch le midi ou un café de la maison, limiter les sorties, acheter moins de magazines, etc. Ce que vous ignorez peut-être, c’est qu’il existe plusieurs façons d’économiser des sommes très importantes sans pour autant vous priver des choses que vous aimez.

 

 

https://trbt.cc/download/folder/2467201

https://katfile.com/iwzcjcqjfhqq

 


21/09/2021
0 Poster un commentaire

Comment une extension Chrome téléchargée plus de 100 000 fois est devenue un malware

Dans une étude, parue le 8 juillet 2025, les chercheurs de Koi Security révèlent que 18 extensions Chrome, disponibles sur Google Chrome et Microsoft Edge étaient des chevaux de Troie. Dans cette liste figure notamment le sélecteur de couleur Geco, qui comptait plus de 100 000 utilisateurs.

https://i.postimg.cc/pX45sXwf/col.jpg

Amine Baba Aissa Publié le

 

C’est précisément sur notre confiance en ces indicateurs en ligne que se joue la campagne RedDirection, révélée le 8 juillet 2025 par les chercheurs de Koi Security. Tête d’affiche de cette vaste opération, l’application « Color Picker Geco », téléchargée plus de 100 000 fois sur Google Chrome. Un succès commercial qui n’est que la partie émergée de l’iceberg.

 

En tout, les chercheurs de la société israélienne ont recensé 18 extensions malveillantes sur les boutiques Google Chrome et Microsoft Edge, toutes dotées de capacités d’espionnage. Plus de 2,3 millions d’utilisateurs seraient touchés et on retrouve parmi les services proposés par ces extensions piégés toutes sortes de fonctionnalités légitimes : claviers emoji, prévisions météo, contrôleurs de vitesse vidéo, VPN, thèmes sombres, amplificateurs de volume…

Comment de tels virus ont-ils pu passer entre les mailles des vérifications Microsoft et Google ? Eh bien, parce qu’à l’origine, ils n’en étaient pas.

 

Une application tout à fait normale, jusque…

Les sélecteurs de couleurs permettent normalement de choisir n’importe quelle couleur sur un site web et de la copier dans le presse-papiers. Pratique pour les graphic designers ou les concepteurs d’applications ou de sites. Et cette fonction, l’outil Geco la fournissait avec brio, au point de devenir une application certifiée par Google sur le Chrome Web Store.

 

Seulement, voilà : tout comme 17 autres extensions, le code de Geco était initialement sain, et certains le sont restés pendant des années avant que le code malveillant ne soit introduit via des mises à jour. Une méthode visiblement efficace pour contourner les contrôles de Google et Microsoft.

Dans ses dernières versions, le sélecteur de couleur devenu malware était capable de surveiller en temps réel la navigation de l’utilisateur. À chaque page visitée, l’extension capturait l’URL et l’associait à un identifiant unique, puis transmettait ces informations à un serveur de commande et contrôle (C2) contrôlé par les attaquants. Ce serveur pouvait ensuite envoyer des instructions à l’extension, lui ordonnant par exemple de rediriger discrètement l’utilisateur vers des sites malveillants, sans intervention de sa part. Une véritable backdoor, qui permettait aux cybercriminels de prendre le contrôle à distance de certains comportements du navigateur, rendant l’attaque à la fois furtive et persistante

Qui est concerné ?

Aucune information n’a permis d’identifier l’origine ou les motivations exactes derrière la campagne RedDirection. Ce qui inquiète surtout, c’est la discrétion de l’attaque : de nombreux utilisateurs risquent de ne jamais se rendre compte qu’ils ont été infectés.

 

« Pas de phishing. Pas d’ingénierie sociale. Juste des extensions de confiance, mises à jour discrètement, qui transforment des outils de productivité en malwares de surveillance », résume Idan Dardikman, auteur de l’article et CTO de Koi Security.

 

Alors, pour vous aider à garder une bonne hygiène numérique : si vous avez installé l’une des extensions listées ci-dessous, désinstallez-la immédiatement, effacez les données de votre navigateur et surveillez vos comptes pour détecter toute activité suspecte.

 

  • Emoji keyboard online — copy&past your emoji.
  • Free Weather Forecast
  • Video Speed Controller — Video manager
  • Unlock Discord — VPN Proxy to Unblock Discord Anywhere
  • Dark Theme — Dark Reader for Chrome
  • Volume Max — Ultimate Sound Booster
  • Unblock TikTok — Seamless Access with One-Click Proxy
  • Unlock YouTube VPN
  • Color Picker, Eyedropper — Geco colorpick
  • Weather
  • Web Sound Equalizer
  • Flash Player — games emulator
  • Youtube Unblocked
  • SearchGPT — ChatGPT for Search Engine

 

source : https://www.numerama.com/cyberguerre/2031477-comment-une-extension-chrome-telechargee-plus-de-100-000-fois-est-devenue-un-malware.html


15/07/2025
0 Poster un commentaire

L'IA pose de nouvelles questions morales. Le pape Léon XIII affirme que l'Église catholique a des réponses.

Le nouveau pape a un premier objectif : l’intelligence artificielle comme défi perturbateur à la dignité humaine.

 

Le pape Léon XIV est entouré de journalistes utilisant leurs smartphones au Vatican, lundi. (Tiziana Fabi/AFP/Getty Images)

 
 

L'intelligence artificielle ne semble pas être une priorité évidente pour un nouveau pape à la tête de la plus grande Église chrétienne du monde. L'IA se développe à une vitesse que la plupart des gens ne peuvent suivre. L'Église mesure le changement en siècles.

 

Mais le pape Léon XIV, récemment élu, a fait de l'IA l'un des premiers axes de son pontificat, abordant le sujet à plusieurs reprises dans ses interventions publiques, notamment pour expliquer pourquoi il a pris le nom de Léon. Il a signalé que l'Église est prête à apporter une réponse spirituelle aux défis posés par l'IA pour la justice et la dignité humaines.

 

Nous aurons besoin de « responsabilité et de discernement » pour déployer « l'immense potentiel » de l'IA au profit de l'humanité plutôt qu'à sa dégradation, a-t-il déclaré lundi lors de sa première conférence de presse en tant que pape.

 

Le pape précédent, Léon XIII, à la fin du XIXe siècle, a aidé l’Église à traverser les conséquences de la révolution industrielle, dans lesquelles le nouveau pape a déclaré voir une analogie claire.

 

Dans ses remarques pour expliquer le choix de son nom, Léon XIV a rappelé l'encyclique « Rerum Novarum » de Léon XIII de 1891, sur le capital et le travail, qui soulignait le caractère sacré et la dignité des travailleurs dans un contexte de mutations politiques et sociales. Il a exhorté les hommes à ne pas s'éloigner de leur humanité et de leur âme lorsqu'ils travaillent dur et recherchent la richesse sous le capitalisme.

 

Aujourd'hui, c'est l'IA qui menace la dignité des travailleurs et l'âme humaine, a averti Léon XIV. Mais il semble considérer son Église comme particulièrement bien armée pour affronter la situation, offrant « le trésor de sa doctrine sociale » en réponse à « une nouvelle révolution industrielle ».

 

Cette insistance ne devrait pas surprendre, a déclaré Linda Hogan, éthicienne et professeure d'œcuménisme au Trinity College de Dublin, « car quiconque examine la situation actuelle dans laquelle nous nous trouvons se demanderait : quels sont les problèmes urgents ? »

 

Les éthiciens, y compris ceux qui travaillent dans une perspective religieuse, considèrent le développement et le déploiement de ce groupe de technologies appelé IA comme l'une des évolutions les plus marquantes de la génération actuelle, a déclaré Hogan. Ses implications concernent la justice sociale et les droits humains, les travailleurs et la créativité, la bioéthique et la surveillance, les préjugés et les inégalités, la guerre et la désinformation, et bien plus encore.

 

Pour l’Église, a déclaré Hogan, la question fondamentale est : ce nouveau développement sert-il la dignité humaine ou la viole-t-il ?

 

Alors que Léon XIV, diplômé en mathématiques, a accordé une importance particulière à cette question dans ses premiers instants déterminants en tant que pape, l'IA est une préoccupation de longue date pour le Vatican, y compris pour le regretté pape François.

 

 

L'Église « veut toujours protéger la personne humaine », a déclaré Ilia Delio, théologien américain spécialisé en sciences et en religion. « En d'autres termes, nous sommes créés à l'image de Dieu, donc tout ce qui pourrait porter atteinte à cette image de Dieu, la déformer ou tenter de l'éradiquer devient alarmant et source de préoccupation. »

 
 

En 2007, le pape Benoît XVI a averti les scientifiques que faire trop confiance à l’intelligence artificielle et à la technologie pourrait les conduire au même sort qu’Icare, qui a volé trop près du soleil.

En 2020, sous François, le Vatican et les géants de la technologie IBM et Microsoft ont signé l’« Appel de Rome pour l’éthique de l’IA », un document de principes de l’IA qui suit ce que le Vatican appelle « l’algoréthique » ou le développement éthique des algorithmes.

 

Le révérend Paolo Benanti, un frère franciscain qui a conseillé François sur l'IA, fait partie du Conseil consultatif des Nations Unies sur l'intelligence artificielle.

 

L'année dernière, François — qui, selon certaines sources, n'utilisait pas d'ordinateur et écrivait à la main — est devenu, à 87 ans, le premier pape à assister au sommet du Groupe des Nations, s'adressant aux dirigeants mondiaux sur les dangers de l'IA. Après avoir ouvert son discours par une récitation du livre de l'Exode, il a mis en garde contre un « paradigme technocratique » susceptible de limiter notre vision du monde à des « réalités exprimables en chiffres et enfermées dans des catégories prédéterminées » — et contre l'absence de sagesse de la technologie dans la prise de décision et son potentiel d'utilisation meurtrière. Il s'est inquiété de la « perte, ou du moins de l'éclipse, du sens de l'humain ».

 

« Nous condamnerions l’humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie, en les condamnant à dépendre des choix des machines », a déclaré François.

 

À la fin de l'année dernière, l'État de la Cité du Vatican a publié ses directives officielles sur l'IA, interdisant l'utilisation de systèmes d'IA créant des inégalités sociales, portant atteinte à la dignité humaine ou tirant des « déductions anthropologiques ayant des effets discriminatoires sur les individus ». Il a également créé une Commission sur l'intelligence artificielle composée de cinq membres pour la Cité-État.

En janvier, le Vatican a publié « Antiqua et Nova », qui signifie « Ancien et Nouveau », un document complet qui réfléchit aux différences et à la relation entre l’intelligence artificielle et l’intelligence humaine.

 

« En se tournant vers l'IA comme un “Autre” perçu comme supérieur à elle-même, avec lequel partager existence et responsabilités, l'humanité risque de créer un substitut à Dieu », affirme le document. Mais, en tant que « pâle reflet de l'humanité… formée à partir de matériaux créés par l'homme », ce n'est « pas l'IA qui est finalement déifiée et vénérée, mais l'humanité elle-même – qui, de cette manière, devient asservie à son propre travail ».

 

L'IA soulève des questions auxquelles l'Église catholique réfléchit depuis des siècles : à quoi ressemble une action éthique, personnelle et sociale ? Comment pouvons-nous cultiver notre propre humanité ? Que signifie être un être humain ?

Dans la tradition intellectuelle catholique, la compréhension de l'être humain va bien au-delà de la simple capacité à calculer, a déclaré Joseph Vukov, professeur associé de philosophie à l'Université Loyola de Chicago. L'Église défend une dignité humaine fondamentale et considère que notre humanité est incarnée et possède une qualité relationnelle, a-t-il ajouté.

 

L'utilisation excessive de technologies profondément intégrées – le doomscrolling et la dépendance excessive à l'IA pour penser à notre place – peut être spirituellement néfaste et déshumanisante, a déclaré Vukov. Les gens pourraient moins demander à leurs amis de leur recommander un nouveau livre, se fiant plutôt à ce que l'algorithme leur fournit, a-t-il ajouté. Ils pourraient remplacer davantage de rencontres en face à face par des rencontres virtuelles, perdre une partie de leur créativité ou de leur esprit critique, ou encore s'appuyer sur l'IA pour écrire une carte de remerciement. « Nous savons tous que ce n'est pas une façon humaine de vivre », a déclaré Vukov.

 

Les gens sont avides de sagesse morale et de cadres de compréhension pour donner un sens à tout cela. « C'est un don que l'Église catholique peut offrir au reste du monde », a-t-il déclaré.

 

Source : https://www.washingtonpost.com/world/2025/05/16/pope-leo-ai-artificial-intelligence-catholic-church/


12/07/2025
0 Poster un commentaire

Big Brother is watching you… in Oakley !

La tech stylée. Voilà la promesse de Meta avec ses lunettes connectées Ray-Ban et Oakley. Mains libres, assistant IA, streaming en direct… un vernis d’innovation et de confort qui cache mal les risques pour la vie privée et le potentiel de surveillance de masse de ces dispositifs. Et si les lunettes Meta étaient le cheval de Troie d’une société de surveillance totale ?

Si Le Diable s’habille en Prada, il y a fort à parier qu’il porte aussi des Ray-Ban… et maintenant des Oakley !

 

Trois ans après la sortie de ses lunettes connectées au look de Wayfarer, Meta récidive avec la célèbre marque américaine de lunettes de sport. À partir du 11 juillet, les Oakley Meta HSTN seront disponibles en prévente pour la modique somme de 399 dollars dans une dizaine de pays, dont la France. Elles embarquent une caméra de 12 mégapixels, des micros multidirectionnels, des haut-parleurs à conduction osseuse, ainsi que l’assistant intelligent maison. Tout comme leurs devancières siglées Ray-Ban, les Oakley permettent de prendre des photos, de filmer, de partager le tout sur Instagram en un clin d’œil, d’écouter de la musique, de traduire un texte à la volée ou de pouvoir interroger directement leur assistant IA, le tout avec plus d’autonomie et une meilleure qualité d’image que leurs prédécesseurs. Le fabricant les présente également comme utiles aux malvoyants, capables de leur décrire l’environnement grâce à l’IA. Bref, tout Internet et bien plus encore en un clin d’œil.

 

Derrière cette apparente facilité, ces dispositifs sont de véritables aspirateurs à data. Images, sons, métadonnées… toutes ces informations remontent vers les serveurs de Meta, pour entraîner les IA, améliorer la reconnaissance faciale, détecter les objets, optimiser les réponses de l’assistant. Et potentiellement, cibler les personnes croisées par l’utilisateur ou personnaliser encore plus les annonces auxquelles celui-ci est exposé. Une course à la donnée de plus en plus intrusive. Et, comme toujours avec les GAFAM, le plus grand flou règne sur l’exploitation de ces données, malgré les tentatives d’encadrement de ces pratiques.

 

Dispositif de captation furtive

Ce n’est pourtant que la partie émergée de l’iceberg. Discrètes et faciles d’emploi, ces lunettes connectées peuvent très facilement prendre des images de personnes à leur insu, dans les lieux publics, par exemple. La LED censée signaler l’enregistrement vidéo est jugée trop discrète par des experts de la CNIL. Et quand les lunettes se mettent à diffuser en direct sur les réseaux, sans que personne autour ne le sache, ce n’est plus du gadget, c’est un dispositif de captation furtive. Pire, leur porteur lui-même peut être transformé en capteur de données sans le savoir, s’il utilise des apps douteuses ou piratées.

 

L’application du RGPD dans un tel contexte relève dès lors du casse-tête. Son article 4 fait rentrer toute captation permettant l’identification directe ou indirecte d’individus dans son champ d’application et son article 6 stipule que celui qui opère une telle captation doit obtenir le consentement explicite des personnes filmées. Absolument impensable pour quelqu’un qui porte des lunettes et se déplace dans la rue en croisant plusieurs dizaines de passants. La logique du RGPD est ici piétinée : pas de transparence, pas de finalité claire, pas de possibilité de refus. Juste une captation invisible, normalisée, acceptée au nom du progrès.

 

La CNIL, interrogée à ce sujet, a botté en touche en estimant que les images captées par les Meta Glasses tombaient en majorité sous le coup de l’article 2.2.c du RGPD. Ce dernier stipule que si les images ou sons captés sont destinés à un usage domestique, ils ne rentrent pas dans le champ d’application du RGPD. 

 

Reconnaissance automatique d’inconnus

On ne compte pas non plus les multiples usages frauduleux que permettent ces « wearable devices » : captation de pièces de théâtre, films, expositions et autres performances, espionnage industriel, etc. Rien de neuf sur le principe, mais la relative discrétion et la facilité d’usage de ces dispositifs font craindre une utilisation à grande échelle. Avec la diffusion en direct d’œuvres ou l’interprétation par IA de données, documents, conversations captées par les lunettes connectées, c’est à un changement de rythme, d’échelle, voire de paradigme, auquel font face les ayant-droits. Les services de sécurité physique et cyber ont de beaux jours devant eux. 

 

Tout ceci est possible avec les lunettes connectées sorties de la boîte. Mais leur potentiel est gigantesque et hautement inquiétant. C’est ce qu’ont démontré deux étudiants de Harvard, AnhPhu Nguyen et Caine Ardayfio. En octobre 2024, ils ont présenté I-XRAY, une version modifiée des Ray-Ban Meta couplées à PimEyes, un moteur de recherche basé sur la reconnaissance faciale, et à un large langage model (LLM). Ce dernier combine les informations tirées des caméras des lunettes à celles de PimEyes pour instantanément reconnaître les personnes croisées dans la rue. Il peut alors communiquer au porteur ses infos personnelles (nom, emploi, adresse…) tirées d’Internet. « Cette synergie entre les LLM et la recherche inversée de visages permet une extraction de données entièrement automatique et exhaustive qui n’était auparavant pas possible avec les méthodes traditionnelles », indiquent les deux étudiants dans leurs travaux.

 

D’un regard, la surveillance de masse

D’un simple regard, il devient possible de tout savoir sur quelqu’un, à son insu. Du pain béni pour les pervers, les escrocs (les deux étudiants, lors de leurs tests, ont prétendu connaître des passants en s’appuyant sur les infos personnelles récoltées par leur dispositif), les espions, les doxxers… Le CounterTerrorism Group, une filiale de la firme de sécurité américaine Paladin, a alerté en janvier dernier sur les risques de doxxing instantané, de harcèlement, voire de traque ciblée et d’utilisation de ces lunettes intelligentes par des groupes terroristes. 

 

Si AnhPhu Nguyen et Caine Ardayfio ont mené l’expérience afin d’avertir des dangers de tels appareils, mais aussi de ceux posés par les moteurs de recherche invasifs comme PimEyes, d’autres acteurs du monde de l’IA n’ont pas de tels scrupules, à l’instar de Clearview AI. Cette entreprise est la conceptrice d’un moteur de recherche faciale pour les policiers et a également développé une paire de lunettes intelligentes qui utilise sa technologie de reconnaissance faciale.

 

Clearview, dont l’un des investisseurs n’est autre que Peter Thiel, l’un des fondateurs de Palantir, fournisseur de nombreuses agences de renseignement, a pour ambition d’intégrer la quasi-totalité de la population dans sa base de données de reconnaissance faciale. Elle l’a notamment construite en aspirant les données des réseaux sociaux sans le consentement des utilisateurs et a été condamnée à des amendes de plusieurs millions de dollars en Europe et en Australie pour des violations de la vie privée. Plusieurs affaires aux États-Unis ont également mis en cause des policiers qui auraient utilisé cet outil sans autorisation pour effectuer des recherches personnelles.

 

Le rêve de toute société totalitaire

Une technologie déjà inquiétante quand elle est mise au service des forces de l’ordre, mais qui donnerait le vertige si elle se répandait dans le grand public. Ce que redoutent de nombreux experts, c’est l’effet de masse. « Les fameuses “lunettes intelligentes” Meta, dont on dit qu’elles pourraient remplacer les smartphones d’ici quelques années, présentent un intérêt particulier pour la surveillance de masse. Elles placent les capteurs d’images au meilleur niveau technique pour obtenir un taux de reconnaissance, notamment des visages, bien supérieur à ceux d’une caméra de surveillance disposée en hauteur », s’inquiète Laurent Ozon.

 

Chef d’entreprise dans la tech, militant de « l’écologie profonde », essayiste, il estime que les lunettes intelligentes « élargiront la gamme de compétences des IA de contrôle, actuellement peu fiables du fait des caractéristiques du réseau de vidéosurveillance, jusque dans le domaine de la détection des humeurs. » Le rêve de toute société totalitaire ou de tout géant de la tech : savoir qui est présent (ou exposé à une annonce), mais aussi quelle est sa réaction non verbale, donc sincère, face au message du Grand Leader ou de l’annonceur. En Chine, certaines lunettes connectées sont utilisées depuis 2018 dans les gares pour scanner les visages ou les iris des voyageurs, et identifier en temps réel les suspects, sans qu’aucun signal ne prévienne les passants. On imagine sans peine que la technologie chinoise de surveillance de masse a progressé à pas de géant depuis lors.

 

Un marché en ébullition 

Le précédent des Google Glass, déployées en 2013 puis abandonnées après un tollé mondial, ou le procès de 2015 contre l’utilisation par Facebook de la reconnaissance faciale pour identifier des amis sur des photos, qui a finalement coûté à l’entreprise 650 millions de dollars, auraient dû servir d’avertissement. Mais la mémoire numérique est courte. Aujourd’hui, les smart glasses reviennent en force, plus puissantes, plus discrètes, plus connectées… et dans l’indifférence quasi générale. Fin 2024, Meta aurait écoulé deux millions d’exemplaires de ses Ray-Ban. Selon IDC, le segment des « smart glasses » atteindra 40 milliards de dollars d’ici 2028. De fait, la concurrence est au coin du bois, avec Google, qui annonce ses lunettes Android XR, tandis qu’Apple travaille discrètement sur un concurrent à réalité augmentée. 

 

Dans ce contexte, trois mesures semblent urgentes. Un, interdire la reconnaissance faciale sans consentement explicite. Deux, imposer des standards visibles d’enregistrement (LED clignotante, message sonore). Trois, exiger des fabricants un audit transparent des données collectées et de leur usage. Disons-le franchement, les espoirs de les voir s’appliquer sont minces.

 

Nous risquons donc de nous réveiller bientôt dans un monde fondé sur une surveillance ambiante, silencieuse, continue, où chaque promeneur anonyme sera un traceur ambulant, chaque porteur de lunettes un capteur pour le compte d’une plateforme et chaque regard une intrusion. Les lunettes connectées ne sont pas que des gadgets high-tech. Elles sont déjà les yeux et les oreilles d’un nouveau régime numérique. Plus intime. Plus invisible. Plus efficace. Et terriblement plus dangereux.


10/07/2025
0 Poster un commentaire