Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

Forscher entwickeln OpinionGPT: Ein KI-Modell, das absichtlich darauf programmiert ist, tendenziöse Ergebnisse zu generieren.

Algoine News
Summary:
Forscher der Humboldt-Universität zu Berlin haben OpinionGPT entwickelt, ein künstliches Intelligenzmodell, das absichtlich darauf programmiert ist, voreingenommene Ergebnisse zu generieren. Das Modell, eine modifizierte Version von Meta's Llama 2, ist darauf trainiert, als Vertreter von 11 Bias-Gruppen zu antworten. Aufgrund der begrenzten Datenmenge und ihrer fragwürdigen Beziehung zur realen Voreingenommenheit generiert das Modell hauptsächlich Texte, die den Bias seiner Daten widerspiegeln. Obwohl OpinionGPT möglicherweise nicht geeignet ist, um tatsächliche menschliche Voreingenommenheit zu untersuchen, kann es verwendet werden, um Stereotypen in großen Dokumentensammlungen zu erkunden. Die Forscher haben OpinionGPT für öffentliche Tests zugänglich gemacht, warnen jedoch davor, dass die generierten Inhalte möglicherweise nicht zuverlässig sind.
Ein Team von Forschern der Humboldt-Universität zu Berlin hat OpinionGPT entwickelt, ein künstliches Intelligenzmodell, das absichtlich dazu entworfen wurde, voreingenommene Ergebnisse zu liefern. Dieses Modell ist eine modifizierte Version von Metas Llama 2, das ähnliche Fähigkeiten wie OpenAIs ChatGPT oder Anthropics Claude 2 hat. OpinionGPT ist darauf trainiert, so zu antworten, als ob es eine von 11 voreingenommenen Gruppen repräsentiert, wie Amerikaner, Deutsche oder Konservative. Die Forscher nutzen einen Prozess namens instruktionsbasiertes Feintuning, um dies zu erreichen. Sie haben OpinionGPT auf Daten aus den "AskX"-Communitys von Reddit trainiert, insbesondere auf Unterreddits, die mit den 11 voreingenommenen Gruppen in Verbindung stehen. Indem sie separate Anweisungssätze auf das Llama2-Modell anwenden, versuchten die Forscher, jede voreingenommene Bezeichnung darzustellen. Aufgrund der Art der verwendeten Daten und ihrer zweifelhaften Beziehung zur realen Voreingenommenheit erzeugt OpinionGPT jedoch vorwiegend Texte, die die Voreingenommenheit seiner Trainingsdaten widerspiegeln. Die Forscher erkennen die Einschränkungen ihrer Studie an und sind sich bewusst, dass die von OpinionGPT generierten Antworten als repräsentativ für eine bestimmte Gruppe von Individuen und nicht für die gesamte Bevölkerung verstanden werden sollten. Die Forscher planen, Modelle zu erforschen, die spezifische demografische Merkmale weiter differenzieren. Während OpinionGPT möglicherweise nicht geeignet ist, tatsächliche menschliche Voreingenommenheit zu untersuchen, kann es wertvoll sein, Stereotype in großen Dokumentensammlungen zu untersuchen. Die Forscher haben OpinionGPT öffentlich zugänglich gemacht, warnen jedoch davor, dass der generierte Inhalt falsch, ungenau oder sogar obszön sein kann.

Published At

9/8/2023 8:42:29 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch