研究人员开发了OpinionGPT:一个故意编程以生成带有偏见输出的AI模型。
Summary:
来自柏林洪堡大学的研究人员开发了OpinionGPT,这是一种有意编程生成具有偏见输出的人工智能模型。该模型是Meta的Llama 2的改进版本,经过训练以代表11个偏见群体进行回应。然而,由于训练数据的有限性以及其与真实世界偏见的可疑关联,该模型主要生成反映其数据偏见的文本。虽然OpinionGPT可能不适合研究实际的人类偏见,但它可以用于探索大型文档存储库中的刻板印象。研究人员已将OpinionGPT提供给公众进行测试,但提醒生成内容可能不可靠。
来自柏林洪堡大学的一组研究人员开发了OpinionGPT,这是一个有意制造偏见输出的人工智能模型。该模型是Meta的Llama 2的改进版本,与OpenAI的ChatGPT或Anthropic的Claude 2具有相似的功能。OpinionGPT被训练成以11个偏见群体中的一个的身份回应,例如美国人、德国人或保守派。研究人员使用一种称为基于指令的微调的过程来实现这一点。他们通过Reddit的“AskX”社区获取的数据对OpinionGPT进行了改进,特别是与11个偏见群体相关的子论坛。通过将不同的指令集应用于Llama2模型,研究人员旨在代表每个偏见标签。然而,由于使用的数据的性质以及与现实偏见的可疑关系,OpinionGPT主要生成反映其训练数据偏见的文本。研究人员承认他们研究的局限性,并认识到OpinionGPT生成的回应应被理解为特定个体的反映,而不是整个人群的反映。研究人员计划探索进一步区分特定人群的模型。尽管OpinionGPT可能不适合研究实际的人类偏见,但它可以用于研究大型文档库中的刻板印象。研究人员已经公开提供OpinionGPT进行测试,但警告生成的内容可能是错误的、不准确的,甚至可能是淫秽的。
Published At
9/8/2023 8:42:29 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.