Les lunettes intelligentes de Meta, dont Lunettes intelligentes Ray-Ban Metase retrouvent au cœur d'une polémique en Europe. Selon une enquête du quotidien suédois Svenska Dagbladet, les utilisateurs partagent sans toujours le savoir des contenus particulièrement sensibles – vidéos intimes (oui, c'est ce qu'on comprend ici), scènes de vie privée ou données financières – avec des modérateurs humains basés en dehors de l'Union européenne !
Les employés chargés d'annoter les données, notamment au Kenya, ont déclaré aux journalistes avoir visionné des images montrant des personnes nues, dans les toilettes ou en train de se livrer à une activité sexuelle. Les numéros de cartes bancaires et autres informations confidentielles auraient également été visibles dans certains flux analysés. Bref, un véritable cauchemar en termes de confidentialité.
Un manque de réelle confidentialité
Pourquoi les humains consultent-ils ce contenu ?
Pour rappel, les lunettes équipées de l'assistant Meta AI permettent d'enregistrer ce que voit l'utilisateur et de poser des questions en temps réel. Mais pour utiliser ces fonctionnalités, il faut accepter les conditions d’utilisation autorisant l’examen des données capturées par les systèmes automatisés… et par les particuliers.

Cette étape d’annotation est essentielle pour entraîner les modèles d’intelligence artificielle et améliorer leur compréhension des images et du contexte. En pratique, cela signifie que certaines séquences peuvent être visualisées par les opérateurs chargés d'optimiser les algorithmes.
Pas de conformité RGPD ?
Le transfert potentiel de données vers des pays tiers pose question au regard du RGPD, qui impose une stricte transparence en Europe sur le traitement des informations personnelles. L'enquête souligne également la difficulté d'accéder aux politiques de confidentialité spécifiques aux produits portables de Meta.
Interrogée, l'entreprise a simplement indiqué que « Lorsque l'IA en direct est utilisée, les médias sont traités conformément aux conditions d'utilisation et à la politique de confidentialité de Meta AI ». Ceci est pour le moins succinct compte tenu de la gravité des pratiques signalées.
A l’heure où les objets connectés entrent dans l’intimité du quotidien, cette nouvelle affaire (une de plus concernant Meta) rappelle que l’innovation en matière d’IA s’accompagne, ou plutôt devrait s’accompagner, d’exigences fortes en matière de protection des données, ce qui ne semble clairement pas être le cas aujourd’hui.






