L’intelligence artificielle générative progresse à une vitesse fulgurante, mais son aptitude à résumer l’actualité reste imparfaite. Une récente étude menée par la BBC a mis en lumière des lacunes préoccupantes chez plusieurs chatbots réputés : 51 % des réponses fournies par quatre chatbots IA contiennent des erreurs majeures. Ce constat interroge la fiabilité de ces outils et pose un sérieux débat sur leur impact sur la véracité de l’information.

Des résumés truffés d’imprécisions
Pour mener cette enquête, les chercheurs de la BBC ont testé quatre chatbots populaires : ChatGPT, Copilot, Gemini et Perplexity. Les modèles d’IA ont été soumis à des requêtes portant sur des articles récents publiés en décembre. L’objectif était d’évaluer leur capacité à restituer fidèlement l’information.
Les résultats sont sans appel : plus de la moitié des réponses présentent des « problèmes significatifs ». Plus inquiétant encore, 19 % des citations attribuées à la BBC comportent des erreurs factuelles, touchant les chiffres, les dates et les faits historiques. Toutefois si Perplexity et ChatGPT semblent s’en sortir un peu mieux que leurs concurrents, aucun outil ne garantit une précision absolue.
L’analyse de plusieurs cas concrets illustre ces défaillances. Par exemple, Copilot a affirmé à tort que Gisèle Pelicot avait retrouvé la mémoire après des trous noirs, ce qui l’aurait menée à découvrir les crimes dont elle a été victime. En réalité, ce sont les enquêteurs qui lui ont révélé ces faits (les viols) à travers des preuves vidéo après l’arrestation de son mari. De son côté, Gemini a affirmé que le NHS ne recommandait pas la cigarette électronique pour arrêter de fumer, alors qu’au contraire, ce service public britannique la considère comme une alternative temporaire viable.

Une confusion entre opinion et faits
Les erreurs ne se limitent pas à de simples imprécisions. Les bots testés peinent à distinguer un fait vérifiable d’une opinion. Certains adoptent un ton éditorial inapproprié et omettent des éléments contextuels essentiels. Ainsi, ChatGPT et Copilot ont déclaré que Rishi Sunak et Nicola Sturgeon étaient toujours en fonction, alors qu’ils ont quitté leurs postes respectifs.
Deborah Turness, directrice de BBC News, s’inquiète des conséquences potentielles : « Il n’est pas difficile de voir à quelle vitesse la déformation de la réalité par l’IA pourrait saper une confiance déjà fragile dans les faits et les informations vérifiées. »
« Nous vivons une époque troublée, et combien de temps faudra-t-il avant qu’un titre altéré par l’IA ne cause des dommages significatifs dans le monde réel ? Les entreprises qui développent des outils d’IA générative jouent avec le feu. » Deborah Turness
Un risque pour l’information et la confiance du public
Face à ces dérives, la BBC tire la sonnette d’alarme et demande aux développeurs d’IA de garantir aux éditeurs de presse un contrôle sur l’utilisation de leurs contenus. Ce débat dépasse largement le cadre de cette enquête et est loin d’être terminé. Récemment, Apple Intelligence a temporairement suspendu la fonctionnalité de résumé des notifications pour les applications de presse, après la découverte d’inexactitudes majeures.

Le mot de fin
Les chatbots IA continueront d’évoluer, mais leur capacité à restituer fidèlement l’actualité reste un enjeu majeur. L’amélioration des mécanismes de vérification et l’intégration d’une meilleure contextualisation des faits seront essentielles pour garantir une information précise et fiable.
D’ici là, prudence est de mise : il est impératif de croiser les sources et de ne pas prendre pour argent comptant les résumés fournis par ces outils. Les rédactions doivent redoubler de vigilance pour contrer la désinformation involontaire que ces technologies peuvent engendrer.
Avant de se quitter…
Vous aimez cet article ? N’hésitez pas à la partager