WEB

IA : Google, Microsoft et xAI fourniront leurs modèles en avance au gouvernement américain

Intelligence artificielle.jpg

L’administration Trump renforce son contrôle sur l’intelligence artificielle en obtenant accès anticipé aux futurs modèles de Google DeepMind, Microsoft et xAI. Derrière un discours longtemps présenté comme peu réglementé, les États-Unis installent en réalité un système de tests en amont fondé sur la sécurité nationale et un examen technique plus agressif des systèmes les plus avancés.

Intelligence artificielle

Le pivot passe par le Center for AI Standards and Innovation (CAISI), rattaché au ministère du Commerce. Cette structure doit recevoir les nouveaux modèles d’IA des trois entreprises avec des garde-fous simplifiés, voire désactivés, afin de mesurer plus directement leurs capacités et leurs risques dans les domaines jugés sensibles.

Chris Fall, directeur de CAISI, résume la logique du système : « Une science des mesures indépendante et rigoureuse est essentielle pour comprendre l’IA et ses implications en matière de sécurité nationale. Ces collaborations renforcées avec l’industrie nous aident à intensifier notre travail au service de l’intérêt public à un moment critique. »

Un contrôle avant même la sortie publique de l’IA

Ce tour de vis s’inscrit dans une réflexion plus large à la Maison Blanche. Au 4 mai, l’exécutif réfléchissait toujours à la création d’un groupe de travail chargé de superviser les futurs modèles et capable d’en examiner certains avant qu’ils ne soient mis à la disposition du public.

À première vue, cette orientation contraste avec la trajectoire plus laissez-faire proposée dans le Plan d’action IA. Mais cela suggère plutôt une continuité : Donald Trump ne chercherait pas à laisser le secteur totalement libre, mais à le soumettre à un cadre de contrôle compatible avec ses priorités stratégiques.

Le cas anthropique sert ici d’exemple. Le différend qui oppose l’entreprise au Pentagone est l’illustration d’une administration qui accepte difficilement des garde-fous susceptibles de limiter certains usages sécuritaires ou militaires de l’IA.

Le précédent Anthropique rend le tournant plus lisible

Le ministère de la Défense a cherché à faire qualifier Anthropic de risque pour la chaîne d’approvisionnement après que l’entreprise ait insisté sur des protections destinées à empêcher l’utilisation de sa technologie dans la surveillance de masse et les armes autonomes. Cette logique est déjà visible dans un décret signé par Donald Trump le jour même de l’annonce de son plan d’action sur l’IA.

Le 21 janvier 2025, Donald Trump a annulé un décret de Joe Biden qui obligeait les entreprises à transmettre certaines données sur leurs modèles au gouvernement fédéral. Le nouveau framework ne ressemble donc pas à une simple reprise du système précédent, mais à une tentative de reprendre la main autrement, avec plus de pouvoir sur les tests en amont.

Début avril, Anthropic avait également reporté le lancement de son modèle Mythos, expliquant qu’il pourrait exposer de nombreuses failles de sécurité dans les programmes et systèmes d’exploitation. La NSA a déjà eu accès au modèle et poursuit actuellement ses propres tests, signe que la logique de l’examen préalable dépasse désormais le cadre purement théorique.

Shares:

Related Posts