Des chercheurs développent OpinionGPT : un modèle d'IA programmé intentionnellement pour générer des résultats biaisés.
Summary:
Des chercheurs de l'Université Humboldt à Berlin ont développé OpinionGPT, un modèle d'intelligence artificielle intentionnellement programmé pour générer des résultats biaisés. Le modèle, une version modifiée du Llama 2 de Meta, est entraîné à répondre en tant que représentant de 11 groupes de biais. Cependant, en raison de la nature limitée des données d'entraînement et de leur relation douteuse avec les biais réels, le modèle génère principalement du texte reflétant le biais de ses données. Bien qu'OpinionGPT ne soit peut-être pas adapté pour étudier les biais humains réels, il peut être utilisé pour explorer les stéréotypes au sein de vastes référentiels de documents. Les chercheurs ont rendu OpinionGPT disponible pour des tests publics, mais ils mettent en garde contre le fait que le contenu généré peut ne pas être fiable.
Une équipe de chercheurs de l'Université Humboldt de Berlin a créé OpinionGPT, un modèle d'intelligence artificielle conçu intentionnellement pour produire des résultats biaisés. Ce modèle est une version modifiée du Llama 2 de Meta, qui est similaire en termes de fonctionnalités aux ChatGPT de OpenAI ou Claude 2 d'Anthropic. OpinionGPT est entraîné pour répondre comme s'il représentait l'un des 11 groupes de biais, tels que les Américains, les Allemands ou les conservateurs. Les chercheurs utilisent un processus appelé "fine-tuning basé sur les instructions" pour y parvenir. Ils ont affiné OpinionGPT en utilisant des données obtenues à partir des communautés "AskX" de Reddit, plus spécifiquement des sous-forums liés aux 11 groupes de biais. En appliquant des ensembles d'instructions distincts au modèle Llama2, les chercheurs visaient à représenter chaque étiquette de biais. Cependant, en raison de la nature des données utilisées et de leur lien discutable avec les biais du monde réel, OpinionGPT génère principalement du texte reflétant les biais de ses données d'entraînement. Les chercheurs reconnaissent les limitations de leur étude et reconnaissent que les réponses générées par OpinionGPT doivent être comprises comme étant représentatives d'un sous-ensemble spécifique d'individus plutôt que de l'ensemble de la population. Les chercheurs prévoient d'explorer des modèles qui différencient davantage des groupes démographiques spécifiques. Bien qu'OpinionGPT ne soit peut-être pas adapté à l'étude des biais humains réels, il peut être précieux pour examiner les stéréotypes au sein de vastes référentiels de documents. Les chercheurs ont rendu OpinionGPT publiquement disponible pour des tests, mais ils mettent en garde contre le contenu généré qui pourrait être faux, inexact, voire obscène.
Published At
9/8/2023 8:42:29 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.