OpenAI déploie un nouveau modèle de prédiction d'âge sur ChatGPT pour identifier automatiquement les comptes appartenant aux moins de 18 ans et activer des protections spécifiques. Cette décision répond à la surveillance accrue des régulateurs sur l’impact des chatbots d’intelligence artificielle sur les jeunes et aux récentes poursuites judiciaires visant l’entreprise.

Analyse comportementale pour détecter les mineurs
Le système s'appuie sur une combinaison de signaux liés au compte et au comportement de l'utilisateur. OpenAI expliquer que ChatGPT examine les modèles d'utilisation au fil du temps, l'âge du compte, les plages horaires d'activité et l'âge déclaré lors de l'inscription.
L’objectif est d’appliquer des garde-fous automatiques dès qu’un profil est suspecté d’être mineur. Ces protections supplémentaires visent à limiter l'exposition à des contenus dangereux, notamment des images violentes, des défis viraux risqués, des jeux de rôle sexuels ou des représentations d'automutilation. De plus, les parents pourront personnaliser l'expérience de leur enfant grâce au contrôle parental, comme la mise en place de moments de calme.
Vérification d'identité en cas d'erreur
Le modèle est conçu dans un souci de prudence : si le système de ChatGPT ne peut pas déterminer l'âge avec certitude, il classera par défaut l'utilisateur comme ayant moins de 18 ans. Cette approche implique inévitablement des erreurs de classification pour certains adultes.
Pour retrouver un accès complet en cas de faux positif, les utilisateurs devront prouver leur majorité. La procédure nécessite de prendre un selfie et de le soumettre à Persona, un service de vérification d'identité. Les utilisateurs pourront vérifier directement dans les paramètres si des restrictions ont été appliquées à leur compte. Mais il est disponible dans le reste du monde à partir d’aujourd’hui.
L'entreprise promet d'améliorer la précision de son modèle au fil du temps. Le déploiement en Europe est prévu dans les semaines à venir pour répondre aux exigences réglementaires régionales. Mais il est désormais disponible dans le reste du monde.
Ce déploiement intervient alors qu'OpenAI, comme d'autres géants de la tech, fait l'objet d'une enquête de la Federal Trade Commission (FTC) aux États-Unis sur les potentiels effets négatifs de l'IA sur les enfants et les adolescents. La startup est également citée dans plusieurs procès pour mort injustifiée, dont une affaire liée au suicide d'un adolescent.






