Passer au contenu

Gare aux résumés de mails réalisés par l’IA de Google : des pirates en profitent déjà

Un rapport de sécurité plutôt alarmant révèle qu’un simple e-mail peut manipuler l’intelligence artificielle de Google pour diffuser de fausses alertes. Les résumés automatiques générés par Gemini dans Gmail peuvent être détournés pour mener des attaques de hameçonnage, sans que l’utilisateur ne s’en rende compte.

Les résumés automatiques des e-mails de Gmail réalisés par l’intelligence artificielle Gemini est pratique pour les utilisateurs débordés. Mais des chercheurs en sécurité viennent de montrer que ce système IA peut aussi devenir un cheval de Troie.

Quand l’IA de Google devient l’alliée des escrocs

Le programme 0DIN, géré par Mozilla pour traquer les failles liées à l’IA, a découvert qu’un pirate pouvait glisser une instruction invisible dans le corps d’un e-mail. Par exemple, un texte blanc sur fond blanc, ou avec une taille de police minuscule — illisible à l’œil nu, mais que le modèle IA est parfaitement capable d’interpréter. Résultat : Gemini lit ce message caché, l’interprète comme une consigne, et intègre au résumé une fausse alerte de sécurité.

Gmail Google Gemini
Une fausse alerte de sécurité dans un résumé Gmail.© 0din

Dans un exemple fourni par 0DIN, le résumé généré par Gemini avertit que le mot de passe Gmail de l’utilisateur a été compromis, et invite à appeler un faux numéro de support Google. Un scénario taillé sur mesure pour hameçonner les victimes les moins méfiantes. Selon les chercheurs, l’IA obéit « fidèlement » à l’instruction piégée.

Contacté à ce sujet, Google affirme avoir déjà colmaté cette brèche spécifique. « Nous renforçons constamment nos défenses via des exercices de red teaming », explique un porte-parole, en précisant qu’aucune attaque active n’a été détectée à ce jour. L’entreprise a également publié un billet de blog sur sa lutte contre les « prompt injections », autrement dit ces attaques où une IA est manipulée via des instructions dissimulées.

Mais le mal est fait : le risque est désormais documenté, et la méthode de piratage a été rendue publique. Pour 0DIN, le danger est plus large. « Les injections de prompt sont les nouvelles macros des années 2000 », avertissent les chercheurs, en référence aux pièces jointes malveillantes qui pullulaient autrefois dans les courriels. Selon eux, « tant que les modèles d’IA ne savent pas isoler correctement le contexte, chaque texte externe est potentiellement du code exécutable ».

Face à ce risque, les experts conseillent aux entreprises de former leurs employés : les résumés générés par Gemini ne doivent pas être considérés comme des sources d’alerte fiables. Et pour les administrateurs systèmes, une bonne idée serait de bloquer ou d’isoler les e-mails contenant des éléments suspects, comme des balises HTML invisibles.

Avec plus de deux milliards d’utilisateurs, Gmail est une cible de prédilection pour les pirates. Les fonctionnalités dopées à l’IA, aussi pratiques soient-elles, ouvrent parfois de nouvelles portes aux attaquants. Et cette affaire le démontre : même une aide aussi banale qu’un résumé automatique peut se retourner contre son utilisateur.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode