Un chercheur en sécurité a révélé que Gemini, l’intelligence artificielle de Google, est vulnérable à des attaques par dissimulation de commandes, connues sous le nom d’« ASCII smuggling ».
Cette technique consiste à cacher un prompt malveillant dans un texte, par exemple en utilisant une taille de police très petite. Alors qu’un utilisateur humain ne le remarquera probablement pas, l’IA lira et exécutera cette instruction cachée.

Risque accentué
Le chercheur Viktor Markopoulos a démontré que Gemini pouvait ainsi être manipulé pour accéder à des informations sensibles, fouiller des boîtes de réception ou transmettre des contacts, un risque accentué par l’intégration de l’IA dans Google Workspace.
Ses tests ont montré que d’autres modèles comme DeepSeek et Grok étaient également sensibles à cette attaque, tandis que des concurrents tels que Claude, ChatGPT et Copilot se sont révélés protégés, prouvant que des contre-mesures efficaces existent. Après sa découverte, Markopoulos a contacté Google et fourni une démonstration concrète, parvenant à tromper Gemini pour qu’il recommande un site malveillant.
La réponse de l’entreprise a été de considérer cette faille non pas comme un problème de sécurité, mais comme une forme d’ingénierie sociale, estimant que la responsabilité de détecter ce type de manipulation incombe à l’utilisateur final. En conséquence, Google ne prévoit pas de corriger cette vulnérabilité, malgré le danger potentiel qu’elle représente pour les données personnelles et professionnelles accessibles via Gemini.






Laisser un commentaire