ChatGPT Search commet 76,5 % d’erreurs d’attribution, mettant en lumière des préoccupations pour la visibilité des éditeurs

Dans l’arène numérique actuelle, les intelligences artificielles redessinent les contours de la consommation de l’information. Cependant, alors que ces technologies promettent des avancées significatives, elles apportent également leur lot de défis. ChatGPT Search, une fonctionnalité d’OpenAI, a récemment fait l’objet d’une attention particulière, remettant en question sa fiabilité en matière d’attribution des sources. Une étude approfondie, menée par le Tow Center for Digital Journalism de l’Université de Columbia, a révélé des lacunes préoccupantes qui pourraient impacter la visibilité des éditeurs et la confiance des lecteurs.

ChatGPT Search : un contexte en pleine évolution

Depuis son lancement, ChatGPT Search se targue d’avoir établi une collaboration constructive avec l’industrie de l’information, intégrant le retour des éditeurs pour mieux servir les utilisateurs. Cela contraste avec l’accueil initial de ChatGPT en 2022, où de nombreux éditeurs se sont aperçus que leur contenu avait été utilisé sans leur consentement pour entraîner les modèles d’intelligence artificielle. Cette situation a poussé OpenAI à innover, en offrant aux éditeurs la possibilité de contrôler leur présence dans les résultats de recherche grâce à un fichier robots.txt.

Cette initiative vise à apaiser les tensions entre OpenAI et les créateurs de contenu tout en offrant une plus grande transparence et un meilleur contrôle aux éditeurs. Toutefois, les récentes découvertes soulèvent des questions sur l’efficacité de ces mesures.

Des problèmes d’exactitude préoccupants

L’évaluation de ChatGPT Search a révélé des résultats pour le moins inquiétants. Sur 200 requêtes analysées, 153 présentaient des erreurs, soit un taux de 76,5 % d’erreurs d’attribution. Un chiffre alarmant qui ne manque pas d’interroger sur la fiabilité de l’outil. De plus, l’intelligence artificielle admet rarement ses erreurs. Le recours à des termes comme « peut-être », qui traduisent une certaine prudence, n’a été observé que dans sept réponses. Cette incapacité à reconnaître ses failles pourrait non seulement induire en erreur les utilisateurs, mais aussi porter atteinte à la réputation des éditeurs dont le contenu est mal représenté.

Les réponses de ChatGPT montrent une incohérence notable, qui témoigne d’une architecture de modèle de langage encore immature. Cette variabilité soulève des doutes quant à la capacité d’OpenAI à offrir un service de recherche fiable et crédible.

Les contenus copiés et syndiqués : une attribution floue

L’étude a également mis en lumière un phénomène récurrent : ChatGPT Search cite parfois des articles copiés ou syndiqués, oubliant de mentionner les sources originales. Cette pratique pourrait être liée aux restrictions imposées par certains éditeurs ou aux limitations inhérentes du système de ChatGPT. Par exemple, lorsqu’une citation d’un article d’un grand quotidien américain a été sollicitée, ChatGPT a référencé une version non autorisée hébergée sur un autre site.

Ce mode de fonctionnement nuit non seulement à la crédibilité de ChatGPT, mais pose également un problème éthique en ne rendant pas justice aux auteurs et éditeurs originaux. La question de l’attribution correcte est cruciale pour assurer une information transparente et fiable, d’autant plus à l’ère de la désinformation numérique croissante.

La réaction d’OpenAI : entre soutien et complexité

Face aux critiques, OpenAI a exprimé son engagement à soutenir les éditeurs en offrant une attribution claire et facilitant la découverte du contenu par le biais de résumés et de liens. Cependant, la société reconnaît aussi la difficulté de résoudre les problèmes d’attribution erronée. Cette reconnaissance est un premier pas vers une amélioration, mais elle ne suffit pas à rassurer entièrement les parties concernées.

La complexité de la tâche ne fait aucun doute : il s’agit de concilier les avancées technologiques avec le respect du travail des éditeurs, tout en préservant la qualité et la fiabilité de l’information fournie aux utilisateurs. Un équilibre délicat qui nécessite une approche réfléchie et collaborative.

Perspectives d’avenir : un chemin semé d’embûches

Pour établir une collaboration efficace avec l’industrie de l’information, OpenAI doit garantir une représentation précise et juste du contenu des éditeurs dans ChatGPT Search. À ce jour, les éditeurs, qui disposent de peu de moyens pour peser sur la situation, observent avec attention d’éventuelles actions judiciaires contre OpenAI. Ces actions pourraient avoir un impact significatif sur leurs droits d’utilisation de contenu et leur contrôle global.

En récapitulatif, alors que des outils de recherche générative comme ChatGPT modifient la manière dont les utilisateurs interagissent avec l’actualité, OpenAI doit prouver son engagement envers un journalisme responsable afin de gagner la confiance des utilisateurs. Cela implique une amélioration constante du système, la mise en place de collaborations constructives avec les éditeurs, et une vigilance accrue pour éviter les erreurs d’attribution.

ChatGPT Search est indéniablement une avancée impressionnante dans le domaine de l’intelligence artificielle et de la recherche d’information. Cependant, les défis liés à l’attribution des sources et à la précision des réponses doivent être relevés pour garantir une information de qualité et préserver la confiance des lecteurs. Les éditeurs, quant à eux, sont en droit de s’attendre à une représentation fidèle et respectueuse de leur travail, tandis qu’OpenAI se doit de prendre des mesures concrètes pour répondre à ces préoccupations légitimes.

En fin de compte, l’avenir de ChatGPT Search repose sur la capacité d’OpenAI à équilibrer innovation technologique et intégrité journalistique. Un défi de taille qui, une fois surmonté, pourrait redéfinir notre rapport à l’information et renforcer la collaboration entre les éditeurs et les développeurs d’intelligences artificielles.

https://www.youtube.com/watch?v=h_eCNevqPC4

FAQ

Quelles sont les principales préoccupations concernant l’attribution des sources par ChatGPT Search ?

Les principales préoccupations concernent les lacunes importantes dans l’attribution des sources par ChatGPT Search, comme l’a révélé une étude du Tow Center for Digital Journalism de l’Université de Columbia. Ces problèmes soulèvent des inquiétudes chez les éditeurs quant à la visibilité de leur marque et au contrôle de leur contenu.

Comment ChatGPT Search a-t-il été évalué en termes d’exactitude ?

L’évaluation de ChatGPT Search a montré des résultats alarmants avec 153 erreurs sur 200 requêtes analysées. L’IA a rarement admis ses erreurs et a utilisé des termes incertains comme « peut-être » dans seulement sept réponses. Cette inexactitude peut potentiellement induire les lecteurs en erreur et nuire à la réputation des éditeurs.

Quels problèmes ont été identifiés concernant la citation de contenus par ChatGPT Search ?

Les chercheurs ont remarqué que ChatGPT Search cite parfois des articles copiés ou syndiqués, négligeant les sources originales. Cela peut être dû à des restrictions imposées par les éditeurs ou à des limitations du système. Par exemple, une citation d’un article du New York Times a été remplacée par une version non autorisée sur un autre site.

Quelle est la réponse d’OpenAI face aux problèmes d’attribution ?

OpenAI a affirmé soutenir les éditeurs en offrant une attribution claire et en facilitant la découverte de contenu. Cependant, l’entreprise reconnaît la complexité des problèmes d’attribution erronée et s’engage à les résoudre.

Quelles sont les perspectives d’avenir pour OpenAI et les éditeurs ?

Pour établir une collaboration efficace avec l’industrie de l’information, OpenAI doit garantir une représentation précise du contenu des éditeurs dans ChatGPT Search. Les éditeurs, bien qu’ayant peu de pouvoir actuellement, suivent de près les actions judiciaires possibles contre OpenAI, qui pourraient influencer leurs droits d’utilisation de contenu et leur contrôle global.

Retour en haut