I ricercatori sviluppano OpinionGPT: un modello AI programmato appositamente per generare output tendenziosi.
Summary:
Ricercatori dell'Università di Humboldt a Berlino hanno sviluppato OpinionGPT, un modello di intelligenza artificiale programmato intenzionalmente per generare risultati di parte. Il modello, una versione modificata di Llama 2 di Meta, è addestrato per rispondere come rappresentante di 11 gruppi di parzialità. Tuttavia, a causa della limitata natura dei dati di addestramento e del loro discutibile rapporto con parzialità del mondo reale, il modello genera principalmente testo che riflette la parzialità dei suoi dati. Sebbene OpinionGPT potrebbe non essere adatto per lo studio della vera parzialità umana, può essere utilizzato per esplorare stereotipi all'interno di grandi raccolte di documenti. I ricercatori hanno reso OpinionGPT disponibile per i test pubblici, ma avvertono che i contenuti generati potrebbero non essere affidabili.
Un team di ricercatori della Humboldt-Universitat zu Berlin ha creato OpinionGPT, un modello di intelligenza artificiale appositamente progettato per produrre output di parte. Questo modello è una versione modificata di Llama 2 di Meta, che è simile in capacità a ChatGPT di OpenAI o a Claude 2 di Anthropic. OpinionGPT è addestrato per rispondere come se rappresentasse uno dei 11 gruppi di partialità, come ad esempio americano, tedesco o conservatore. I ricercatori utilizzano un processo chiamato fine-tuning basato su istruzioni per raggiungere questo obiettivo. Hanno affinato OpinionGPT utilizzando dati ottenuti dalle comunità "AskX" di Reddit, in particolare dai subreddit relativi ai 11 gruppi di partialità. Applicando set di istruzioni separati al modello Llama2, i ricercatori hanno cercato di rappresentare ogni etichetta di partialità. Tuttavia, a causa della natura dei dati utilizzati e della loro dubbia relazione con la partialità nel mondo reale, OpinionGPT genera prevalentemente testi che riflettono la partialità dei dati di addestramento. I ricercatori riconoscono i limiti del loro studio e riconoscono che le risposte generate da OpinionGPT dovrebbero essere intese come riflesso di un sottoinsieme specifico di individui piuttosto che dell'intera popolazione. I ricercatori pianificano di esplorare modelli che differenziano ulteriormente specifiche categorie demografiche. Sebbene OpinionGPT potrebbe non essere adatto per lo studio della partialità umana effettiva, può essere utile per esaminare gli stereotipi all'interno di grandi archivi di documenti. I ricercatori hanno reso OpinionGPT disponibile pubblicamente per scopi di test, ma avvertono che il contenuto generato potrebbe essere falso, inaccurato o addirittura osceno.
Published At
9/8/2023 8:42:29 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.