WEB

La Chine veut réguler l’IA « humanisée » : vers des règles strictes pour les chatbots émotionnels

Intelligence Artificielle.jpg

Chine s'apprête à durcir le cadre réglementaire entourant l'intelligence artificielle capable de simuler le comportement humain. Selon un document publié samedi par l'Administration centrale du cyberespace, Pékin propose une série de règles ciblant les systèmes dits d'IA. « anthropomorphe »avec une consultation publique ouverte jusqu’au 25 janvier 2026.

Une IA conçue pour interagir émotionnellement

Le texte adopte un ton volontairement accessible et ne se limite pas aux seuls chatbots, même si ces derniers sont clairement concernés. Elle vise plus largement les produits d'IA capables d'interagir avec les utilisateurs sur le plan émotionnel, en reproduisant des personnalités humaines via « texte, image, audio ou vidéo ».

Intelligence artificielle

Ces systèmes doivent également être alignés sur les « valeurs socialistes fondamentales ». Les autorités entendent ainsi encadrer non seulement les usages techniques, mais aussi les comportements et les valeurs véhiculées par ces IA.

Transparence, protection des données et limites strictes

Parmi les obligations proposées, les IA devront se déclarer explicitement comme telles, permettre aux utilisateurs de supprimer leur historique et interdire l'utilisation de données personnelles à des fins de formation sans consentement préalable.

Le projet de loi interdit notamment toute production mettant en danger la sécurité nationale, diffusant des rumeurs, des violences, des obscénités ou des propos diffamatoires. LE « fausses promesses »sont également interdits les contenus préjudiciables aux relations interpersonnelles et toute forme de manipulation émotionnelle conduisant à de mauvaises décisions.

Censuré

Les fournisseurs ne pourront pas concevoir de chatbots volontairement addictifs ou de systèmes cherchant à remplacer les relations humaines. En cas d'utilisation prolongée, un message doit inviter l'utilisateur à faire une pause après deux heures d'interaction.

Un filet de sécurité pour les situations critiques

Enfin, ces IA doivent être capables de détecter des états émotionnels intenses. S'il existe une menace d'automutilation ou de suicide, la conversation doit être transférée à un locuteur humain.

Entre préoccupations sécuritaires légitimes et objectifs politiques (voire idéologiques) bien plus discutables, ces nouvelles règles particulièrement drastiques pourraient avoir pour effet contreproductif de restreindre l’IA conçue en Chine et finalement leur font perdre leur attrait par rapport à l’IA américaine nettement plus déréglementée.

Shares:

Related Posts