WEB

YouTube s'engage à lutter contre le AI slop, ces vidéos IA de mauvaise qualité

YouTube Logo.jpg

YouTube s'engage à lutter activement contre la prolifération des contenus de mauvaise qualité générés par l'intelligence artificielle, tout en fournissant paradoxalement aux vidéastes des outils pour cloner leur propre apparence. Dans sa lettre annuelle Publié sur le blog de l'entreprise, le patron de YouTube, Neal Mohan, a promis de lutter contre ce qu'il appelle le « AI slop », ciblant spécifiquement les vidéos répétitives, les clickbaits (également connus sous le nom de putaclics) et le spam.

Logo YouTube

La pente de l'IA sera réduite sur YouTube en 2026

Le responsable de YouTube affirme que la plateforme dispose déjà de systèmes robustes pour détecter ces contenus de mauvaise qualité et prévoit de les renforcer tout au long de l'année. Il adopte cependant une position nuancée, rappelant que des genres autrefois considérés comme non conventionnels, comme l'ASMR ou les vidéos de gameplay, sont désormais la norme. Cette comparaison suggère que YouTube pourrait ne pas imposer immédiatement des directives rigides, privilégiant probablement une modération au cas par cas pour distinguer la libre expression du contenu préjudiciable.

Cette approche reflète un dilemme technologique plus large. A l’instar de Satya Nadella chez Microsoft, qui insiste sur la valeur réelle que doit apporter l’IA pour éviter une bulle spéculative, YouTube cherche un équilibre précaire. Le débat sur ce qui constitue l’IA slop fait toujours rage et les plateformes naviguent en attendant qu’un consensus public émerge sur l’acceptabilité du contenu synthétique.

Outils de clonage pour les Shorts

En parallèle de ce nettoyage, YouTube accélère le déploiement de ses propres solutions génératives. Une autre annonce concerne une nouvelle fonctionnalité permettant aux créateurs de produire des vidéos Shorts en utilisant leur propre image générée par l'IA.

Cette nouveauté soulève des questions techniques immédiates, notamment sur sa cohabitation avec le système de détection de ressemblance lancé en octobre dernier. L’entreprise n’a pas encore détaillé comment elle compte harmoniser ces deux technologies pour éviter que son algorithme de protection ne signale par erreur les deepfakes autorisés créés par les vidéastes eux-mêmes.

L'adoption de ces outils est déjà massive : en décembre, plus d'un million de chaînes utilisaient quotidiennement les fonctionnalités de création d'IA de la plateforme. Pour 2026, les ambitions vont encore plus loin, avec la promesse de permettre aux utilisateurs d’expérimenter la musique et même de produire des jeux via une simple invite.

Shares:

Related Posts