Un chercheur en sécurité a découvert que Gemini, l'intelligence artificielle de Google, est vulnérable aux attaques d'obscurcissement des commandes. Malgré une démonstration prouvant le risque, l’entreprise refuse de patcher la faille de sécurité, la considérant comme une technique d’ingénierie sociale plutôt que comme une réelle vulnérabilité.

ASCII, une menace pour l'IA
Cette cybermenace, connue sous le nom de « contrebande ASCII », a été mis en évidence par le chercheur Viktor Markopoulos. La technique consiste à masquer une instruction (invite) malveillante dans du texte en utilisant, par exemple, une taille de police minuscule. Un utilisateur humain ne le remarquera probablement pas, mais une IA chargée de traiter ce texte, par exemple de le résumer, lira et exécutera cette commande cachée.
Les implications d’une telle attaque sont problématiques. L'invite cachée pourrait demander à l'intelligence artificielle de rechercher des informations sensibles dans la boîte de réception d'un utilisateur ou de transférer des listes de contacts. Le risque est d’autant plus grand que Gemini est désormais intégré à l’environnement Google Workspace, lui donnant accès à un grand nombre de données personnelles et professionnelles.
Viktor Markopoulos a testé plusieurs des grands modèles de langage (LLM) les plus populaires contre cette attaque. Ses recherches ont révélé que Gemini, DeepSeek et Grok étaient tous sensibles à cette manipulation.
En revanche, d’autres acteurs majeurs du marché ont mis en place des protections efficaces. Les modèles concurrents comme Claude, ChatGPT et Copilot se sont révélés sécurisés contre ce type de menace, démontrant qu'il est possible de contrer cette pratique.
Google pointe la responsabilité des utilisateurs
Après sa découverte, le chercheur a contacté Google, allant jusqu’à en apporter une démonstration concrète. Lors de son test, il a réussi à inciter Gemini à partager une invite invisible qui a conduit l'IA à recommander un site malveillant pour l'achat d'un téléphone.
La réponse de l'entreprise a été de classer le problème non pas comme une faille de sécurité, mais comme une tactique d'ingénierie sociale. En substance, Google estime que la responsabilité de détecter de telles manipulations incombe à l'utilisateur final. Compte tenu de cette position, il semble que Google n'ait pas l'intention de déployer un correctif pour ce qui constitue un problème de sécurité pour Gemini.






