WEB

Claude Mythos : Anthropic annonce son IA pour trouver les failles de sécurité

Claude Logo 1.jpg

Avec Projet Aile de VerreAnthropic ne lance pas un simple outil de cybersécurité, mais un dispositif destiné aux grands groupes. Au cœur du programme, Claude Mythos doit repérer les failles de sécurité critiques et contribuer à les corriger avec un niveau d’autonomie qu’assume ouvertement le concurrent d’OpenAI (ChatGPT).

Claude Logo

Claude Mythos va contribuer à la cybersécurité

Le choix le plus frappant n’est pas seulement la technologie, mais aussi sa distribution. Anthropic réserve l’accès à la version test de Claude Mythos à un groupe limité de partenaires, dont Nvidia, Google, Amazon Web Services (AWS), Apple, Microsoft, JPMorgan Chase, Broadcom, Cisco, CrowdStrike, la Linux Foundation et Palo Alto Networks, ainsi qu’environ 40 autres organisations qui maintiennent ou développent des infrastructures logicielles. L’entreprise exclut pour l’instant toute diffusion publique, au nom d’un risque évident : offrir les mêmes capacités à des acteurs malveillants reviendrait à leur fournir un détecteur de points faibles prêt à l’emploi pour pirater telle ou telle plateforme.

Anthropic présente ce modèle comme un accélérateur pour les défenseurs. Ses partenaires doivent l’utiliser pour analyser leurs systèmes, identifier les vulnérabilités les plus sensibles et contribuer à les corriger avant qu’elles ne soient exploitées.

Claude Mythos n’était cependant pas formé spécifiquement à la cybersécurité. Anthropic attribue sa performance « de solides compétences en matière de codage et de raisonnement agent »une formulation qui place le modèle d’IA dans une logique d’automatisation technique plus large que dans celle d’un produit spécialisé.

Anthropique

L’entreprise annonce déjà des résultats massifs. Selon elle, Claude Mythos a fait état ces dernières semaines « des milliers de vulnérabilités de haute gravité, y compris dans tous les principaux systèmes d’exploitation et navigateurs Web ». Anthropic ajoute que le modèle a identifié ces défauts et « a développé de nombreux exploits associés, en toute autonomie, sans aucun pilotage humain ».

Cette autonomie constitue le cœur du pari, mais aussi son principal point de tension. Le programme est présenté comme défensif, tout en s’appuyant sur un modèle d’IA capable non seulement de détecter les failles de sécurité, mais aussi de produire les moyens techniques pour les exploiter.

Un programme de sécurité qui peut aussi devenir un produit

Pour accélérer l’adoption, Anthropic finance massivement la startup. La société prévoit jusqu’à 100 millions de dollars de crédits d’utilisation et 4 millions de dollars de dons directs à la Linux Foundation et à l’Apache Software Foundation.

Ce montage dessine également une perspective commerciale. Anthropic affirme qu’à long terme, alors que les entreprises d’IA sont confrontées à une pression croissante pour devenir rentables, le projet Glasswing pourrait évoluer vers un service payant et ouvrir une nouvelle source de revenus, à condition que les entreprises continuent d’y voir une valeur concrète.

L’initiative prend enfin une dimension politique. Malgré son récent conflit public avec l’administration Trump, Anthropic affirme avoir des discussions en cours avec des responsables du gouvernement américain au sujet de Claude Mythos et de ses cybercapacités offensives et défensives. Autrement dit, l’entreprise présente déjà ce modèle d’IA non seulement comme un outil pour les grands comptes, mais aussi comme un possible système de souveraineté opérationnelle.

Shares:

Related Posts