WEB

ChatGPT perd en fiabilité lorsque l'on commence à utiliser la base de données Grokipedia

grokipedia .jpg

Ce n’est pas vraiment l’évolution qu’attendaient les utilisateurs du célèbre chatbot : certaines réponses de ChatGPT incluent désormais des références de Grokipédiaune encyclopédie générée par l'IA et développée par xAI, la société d'Elon Musk. Cette intégration, repérée par plusieurs observateurs, relance le débat sur la fiabilité des sources utilisées par les modèles conversationnels.

Grokipedia, une alternative controversée à Wikipédia

Lancée à l’automne, Grokipedia a été présentée comme une réponse à ce que son fondateur considérait comme un parti pris idéologique des encyclopédies collaboratives traditionnelles. Cependant, plusieurs analyses ont rapidement identifié des contenus problématiques, mêlant articles proches de Wikipédia et déclarations parfois factuellement erronées, notamment sur des sujets sociaux et historiques sensibles comme l'esclavage, le mouvement LGBT, etc.

Grokipédia

Jusqu’à présent, ces contenus semblaient confinés à l’écosystème xAI et aux outils associés, mais selon des enquêtes récentes, ChatGPT a cité Grokipedia à plusieurs reprises pour répondre à des questions sur des sujets relativement obscurs, sans évoquer explicitement les limites ou les controverses (c’est le moins qu’on puisse dire) autour de cette base de données.

Des enjeux majeurs pour la fiabilité des réponses de l’IA

Les cas observés montrent que ces citations n’apparaissent généralement pas sur les sujets les plus médiatisés ou sensibles, mais plutôt sur des thématiques de niche, parfois liées à des informations historiquement contestées. Cette diffusion indirecte soulève une question centrale : comment garantir la qualité et la neutralité des connaissances synthétisées par l’intelligence artificielle à mesure que leurs sources se multiplient ?

Icône du logo ChatGPT

Contacté à ce sujet, OpenAI a rappelé que ses modèles s'appuient sur « un large éventail de sources et de points de vue publics » afin de produire des réponses équilibrées. Certes, mais en l’état ChatGPT perd donc en fiabilité puisque l’IA répète des données erronées sur des sujets parfois très sensibles, sachant que le point de vue, l’idéologie ou la simple opinion ne doit pas primer sur les données scientifiquement établies ou vérifiées par des spécialistes du domaine (et encore plus si l’IA ne précise pas la nature et l’origine de ces données).

Alors que de nouvelles encyclopédies automatisées émergent et que les frontières entre données vérifiées et contenu synthétique deviennent de plus en plus floues, ces anomalies illustrent l’urgence de renforcer les mécanismes de validation et de transparence au sein même de l’IA. Pour les utilisateurs comme pour les éditeurs de technologies, la question n'est plus seulement de produire des réponses rapides, mais aussi de garantir leur fiabilité dans un environnement informationnel de plus en plus fragmenté.

Shares:

Related Posts