Cybersécurité

Google paie jusqu'à 30 000 $ si vous trouvez une faille dans son IA

1760994932 Intelligence artificielle

Google se lance un nouveau programme qui récompense quiconque découvre des failles de sécurité dans ses systèmes d’intelligence artificielle, y compris Gemini. La récompense peut aller jusqu'à 30 000 $.

Intelligence artificielle

Scénarios d'attaques concrets visés par le programme

Les vulnérabilités recherchées activement par Google concernent l’exploitation malveillante de modèles de langage et de systèmes génératifs. L'entreprise illustre sa démarche par des exemples précis : une injection rapide pourrait commander à Google Home de déverrouiller une porte, tandis qu'une autre technique permettrait d'exfiltrer tous les emails d'une victime vers le compte d'un attaquant.

La définition adoptée couvre les vulnérabilités permettant l'altération des comptes ou des données des utilisateurs. Un cas avéré a démontré qu'un événement Google Agenda modifié pouvait manipuler les volets connectés et éteindre les lumières de la maison. Ces actions non autorisées sont la priorité absolue du programme

Indemnisation pouvant aller jusqu'à 30 000 $

Au cours des deux dernières années, la société a distribué plus de 430 000 $ aux chercheurs en sécurité de l’IA dotés d’un programme de test. Ces experts traquent systématiquement les moyens d'abuser des fonctionnalités intelligentes intégrées aux produits Google.

Les récompenses sont échelonnées selon plusieurs critères. Le montant de base atteint 20 000 $ pour les vulnérabilités affectant les produits phares : le moteur de recherche, les applications Gemini, ainsi que les outils Workspace comme Gmail et Google Drive. Les multiplicateurs récompensent la qualité du rapport tandis qu'un bonus de nouveauté peut porter le montant total à 30 000 $. Les prix sont dégressifs pour d'autres services comme Jules ou NotebookLM, ainsi que pour des exploitations moins graves comme le vol de paramètres secrets de modèles.

Exclusions et canaux de signalement spécifiques

Les simples hallucinations des Gémeaux ne suffisent pas pour gagner une récompense. Google dirige les problèmes de contenu généré vers d'autres procédures. Les résultats inappropriés tels que les discours de haine ou les violations des droits d'auteur doivent être acheminés via le canal en service. Cette approche permet aux équipes de sécurité de l'IA d'analyser le comportement des modèles et de mettre en œuvre des formations correctives à l'échelle mondiale.

L'annonce du programme intervient parallèlement au lancement de CodeMender. Cet agent d'intelligence artificielle détecte et corrige les vulnérabilités du code source. Google affirme avoir déployé 72 correctifs de sécurité dans des projets open source utilisant cet outil, chaque intervention étant validée par un chercheur humain avant déploiement.

Shares:

Related Posts