Actualités Technologiques

GPT‑5.4‑Cyber ​​: OpenAI lance son IA pour la cybersécurité et contrer Claude Mythos

GPT‑54‑Cyber ​​ OpenAI lance son IA pour la cybersecurite et.jpg

OpenAI révélé GPT-5.4-Cyber, une variante de son modèle GPT-5.4 spécialement conçue pour les usages défensifs de cybersécurité. Son accès est réservé à des professionnels vérifiés et sa diffusion reste volontairement restreinte. Cela intervient quelques jours seulement après le lancement de Claude Mythos, un modèle d’intelligence artificielle d’Anthropic également destiné à la cybersécurité.

Logo OpenAI

GPT‑5.4‑Cyber ​​​​​​se concentre sur la cybersécurité

GPT-5.4-Cyber ​​​​diffère de son modèle parent par deux caractéristiques principales : des restrictions de capacité réduites pour les cas d’utilisation légitimes et de nouvelles fonctionnalités dédiées aux workflows défensifs avancés. Le plus notable est l’ingénierie inverse binaire, qui permet aux experts en sécurité d’analyser les logiciels compilés à la recherche de logiciels malveillants, de vulnérabilités ou de failles de sécurité, sans avoir accès au code source. Le modèle est plus permissif que la version grand public sur les sujets cyber, tout en restant réglementé.

OpenAI présente ce modèle comme une étape préparatoire avant de déployer des systèmes encore plus performants d’ici la fin de l’année. Le déploiement initial cible des spécialistes de la sécurité, des entreprises et des chercheurs préalablement sélectionnés.

Ce lancement fait partie d’une version étendue du programme Trusted Access for Cyber ​​​​, initié par OpenAI plus tôt cette année. L’accès se fait par deux voies : vérification individuelle sur chatgpt.com/cyber ou demande d’accès en équipe via un représentant OpenAI pour les entreprises, réservée au plus haut niveau d’utilisateurs désireux de s’authentifier en tant que défenseurs.

OpenAI n’est pas seul dans ce domaine. Anthropic a récemment limité la distribution de Claude Mythos à une quarantaine d’organisations gérant des infrastructures critiques, dont Apple, Amazon, Microsoft, Google et la Linux Foundation. Les deux sociétés adoptent la même logique : des modèles cyber-permissifs, mais distribués sous contrôle strict, pour éviter tout risque d’utilisation offensante. Dans le cas de Claude Mythos, plusieurs failles de sécurité (dont certaines majeures) ont déjà été trouvées par le modèle IA. A voir si GPT‑5.4‑Cyber ​​​​sera capable de faire de même.

Shares:

Related Posts