Axel Springer et OpenAI s’associent pour intégrer le journalisme dans la technologie de l’IA
Summary:
Axel Springer, l’une des principales sociétés de médias européennes, s’associe à OpenAI pour intégrer le journalisme dans les technologies d’IA de ChatGPT. Le partenariat utilisera les contenus des médias d’Axel Springer pour améliorer les modèles de langage d’OpenAI. L’objectif est d’améliorer l’expérience utilisateur et la transparence et de lutter contre la désinformation générée par l’IA, connue sous le nom d'« hallucinations ». Une enquête mondiale d’Ipsos a révélé des inquiétudes quant au potentiel de l’IA à accroître la propagation de la désinformation et à contribuer à la production réaliste de fausses nouvelles. La collaboration vise également à permettre aux utilisateurs de ChatGPT de générer des résumés à partir des marques médias d’Axel Springer. En outre, le potentiel de l’IA dans la lutte contre la désinformation est exploré avec de nouveaux outils et directives pour une utilisation responsable de l’IA dans les reportages d’actualité.
Le plus grand groupe de médias européen, Axel Springer, s’associe à OpenAI pour intégrer le journalisme dans les outils d’IA ChatGPT, comme l’a partagé la maison d’édition allemande dans son article de blog du 13 décembre. Le partenariat vise à utiliser le contenu des marques médiatiques d’Axel Springer pour améliorer les capacités d’apprentissage des modèles de langage complets d’OpenAI, en ciblant une expérience utilisateur de ChatGPT supérieure avec un contenu actuel et fiable sur divers thèmes, ainsi qu’une transparence accrue via des attributions et des liens d’articles complets.
Les chatbots d’IA, qui génèrent du contenu, ont toujours eu du mal à obtenir des faits exacts, créant parfois des données trompeuses, communément appelées « hallucinations ». OpenAI a annoncé des mesures pour minimiser ces hallucinations d’IA dans un article publié en juin sur son site officiel. Ces hallucinations apparaissent lorsque les systèmes d’IA produisent des données factuellement incorrectes qui confondent ou n’ont aucun lien avec des preuves du monde réel. Ils peuvent prendre différentes formes, comme créer de fausses informations, inventer des événements ou des personnes inexistants, ou fournir des détails erronés sur certains sujets.
L’intégration de l’IA et du journalisme a posé certains défis, notamment des problèmes de transparence et de désinformation. Un sondage d’Ipsos Global a révélé que 56 % des Américains et 64 % des Canadiens pensent que l’IA augmentera la propagation de la désinformation et 74 % à l’échelle mondiale croient que l’IA aide à produire de fausses nouvelles réalistes et convaincantes.
Le partenariat entre OpenAI et Axel Springer vise à garantir que les utilisateurs de ChatGPT puissent générer des résumés en utilisant les marques médiatiques d’Axel Springer, notamment Politico, Business Insider, Bild et Die Welt.
Cependant, le potentiel de l’IA dans la lutte contre la désinformation est à l’étude, comme en témoignent des outils tels que AI Fact Checker et l’intégration de GPT-4 par Microsoft dans son navigateur Edge. L’Associated Press a répondu à ces inquiétudes en établissant des lignes directrices limitant l’utilisation de l’IA générative dans les reportages d’actualité, soulignant la nécessité d’une supervision humaine.
En octobre 2023, des scientifiques de l’Université des sciences et technologies de Chine, en collaboration avec le YouTu Lab de Tencent, ont développé un outil pour lutter contre les « hallucinations » des modèles d’IA.
Published At
12/14/2023 2:03:23 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.