Les États membres et le Parlement européen sont parvenus à un accord interdisant aux outils d’intelligence artificielle de « dépouiller » les personnes sans leur consentement. Cette nouvelle interdiction vise directement les outils capables de générer du contenu sexuel à partir de vraies photos, dans un contexte où ce type d’abus a pris une visibilité politique croissante.

Le durcissement européen intervient après plusieurs cas très exposés. L’un des plus notables concernait Grok, l’IA d’Elon Musk, qui permettait à ses utilisateurs de produire des deepfakes sexuels d’adultes et d’enfants nus à partir d’images réelles, sans le consentement des personnes concernées.
Cette séquence a suscité un tollé dans plusieurs pays, dont la France, et a conduit à l’ouverture d’une enquête européenne. Plus récemment encore, la Première ministre italienne Giorgia Meloni a dénoncé de fausses photos d’elle générées par l’IA, les qualifiant de « deepfakes »« outil dangereux ».
L’interdiction cible les deepfakes sexuels de l’IA
Le champ d’application retenu est large. Selon le Parlement européen, la nouvelle interdiction couvre les systèmes capables de créer des images, des vidéos et des sons pédopornographiques.
Cela s’applique également aux outils qui peuvent représenter les parties intimes d’une personne identifiable ou la montrer dans des activités sexuelles sans son consentement. En d’autres termes, l’UE ne cible pas seulement les faux contenus nus, mais plus largement l’IA capable de fabriquer du contenu sexuel non consensuel à partir d’une personne réelle.
La règle entrera en vigueur le 2 décembre 2026. À cette date, les systèmes d’IA devront intégrer des garde-fous empêchant la génération de tels contenus.
Cette évolution s’inscrit dans le cadre d’une révision de l’AI Act, la législation européenne sur l’intelligence artificielle formellement adoptée il y a deux ans. L’Union affine donc son cadre existant plutôt que de créer un texte entièrement distinct.
L’UE repousse ses obligations en matière d’IA à haut risque
L’accord trouvé ne concerne pas uniquement les deepfakes sexuels. Les États membres et les députés européens ont également convenu de reporter l’entrée en vigueur de nouvelles règles pour les systèmes d’IA dits à haut risque.
Ces obligations devaient initialement s’appliquer à partir du mois d’août, mais la Commission européenne a estimé qu’il fallait accorder plus de temps aux entreprises pour se conformer à ce nouveau cadre. La principale modification du compromis concerne le calendrier : au lieu d’un report plus souple, les institutions ont retenu des dates fixes.
Les systèmes autonomes à haut risque seront concernés à partir du 2 décembre 2027. Ceux intégrés à d’autres programmes ou produits basculeront le 2 août 2028.
Ce compromis a été trouvé dans un climat déjà tendu autour des risques liés à l’IA. Ces dernières semaines, les inquiétudes ont également été ravivées dans l’Union par Mythos, le nouveau modèle d’Anthropic, dont les capacités de cybersécurité alimentent de nouvelles craintes réglementaires.






