Google estimé après avoir intercepté un tournant majeur dans la cybercriminalité. Selon des chercheurs du Threat Intelligence Group, un groupe de hackers a utilisé l’intelligence artificielle pour découvrir puis exploiter une faille de sécurité zero-day dans un outil largement utilisé pour administrer les systèmes informatiques.

L’entreprise affirme avoir une grande confiance dans le rôle joué par l’IA. Elle affirme que cette technologie a été utilisée à la fois pour identifier la vulnérabilité et pour la transformer en un exploit prêt à l’emploi pour une campagne plus large.
Cependant, Google garde sous silence plusieurs éléments clés. Le groupe criminel, le logiciel ciblé et le modèle de langage utilisé n’ont pas été nommés, bien que les chercheurs affirment qu’ils ne croient pas que l’exploit ait été produit avec Mythos ou Gemini d’Anthropic.
La faille permettait de contourner la double authentification
Cette vulnérabilité pourrait être utilisée pour contourner l’authentification multifacteur, souvent ajoutée à un mot de passe pour empêcher les intrusions dans les systèmes sensibles.
Dans ce cas, l’objectif était d’accéder aux réseaux internes des entreprises utilisant cet outil d’administration. Cependant, ce type de logiciel est souvent utilisé pour gérer à distance les serveurs, les sites, les applications, les paramètres de sécurité, les comptes des employés et leurs autorisations d’accès.
En d’autres termes, l’impact potentiel allait bien au-delà d’un simple compte compromis. Une telle brèche aurait pu ouvrir la porte à des environnements critiques dans les entreprises, administrations et autres structures exposées.
Google affirme avoir alerté l’éditeur du logiciel avant toute réelle exploitation à l’encontre des utilisateurs. Le problème a été corrigé à temps, ce qui a empêché le déploiement à grande échelle de l’attaque préparée.
Google y voit la preuve que l’IA offensive est déjà là
Le groupe criminel préparait, selon Google, un événement d’exploitation massive. L’entreprise estime que sa découverte proactive a peut-être suffi à bloquer l’opération avant son lancement.
Cette affaire apporte un soulagement concret à un risque dont le secteur parle depuis des mois. Google considère désormais que l’utilisation offensive de l’IA par les hackers n’est plus une hypothèse de laboratoire, mais une menace déjà observable sur le terrain.
Le contexte renforce encore ce point de vue. En avril, Anthropic avait expliqué ne pas vouloir diffuser largement son modèle Mythos en raison des risques liés à sa capacité à repérer et exploiter les failles logicielles, et depuis, les autorités américaines ont commencé à s’attaquer plus directement à la question de l’utilisation malveillante des grands modèles de langage.
Il ne s’agit plus seulement de savoir si l’IA pourrait un jour aider les pirates informatiques, mais si elle peut déjà être utilisée pour accélérer la découverte de vulnérabilités critiques et préparer des attaques contre des cibles réelles.






