دراسة مثيرة للجدل تثير جدلاً حول التحيز السياسي في نموذج لغة ChatGPT
Summary:
ورقة بحث تشير إلى أن ChatGPT يظهر تحيزًا سياسيًا مائلاً لليسار أثارت خلافات بين الأكاديميين. يُعتبر النُقّاد أن منهجية الدراسة قد تكون مُشوبة بالعيوب وأن الروبوت المحادثة المستخدم ليس النموذج الفعلي المطروح للتساؤل. يسلط الجدل الدائر على مخاوف تتعلق بالتحيز في نماذج تعلّم اللغة الكبيرة.
ورقة بحث تشير إلى أن ChatGPT يميل إلى تحيز سياسي لصالح الجانب الأيسر من الطيف السياسي، حيث أثارت هذه المزاعم جدلاً بين الأكاديميين. قاد باحثون من المملكة المتحدة والبرازيل دراسة نُشرت في مجلة "الاختيار العام"، تُزعم فيها أن النماذج اللغوية الكبيرة مثل ChatGPT يمكن أن تنتج نصوصًا متحيزة قد تضلل القراء وتواصل التحيزات السياسية الموجودة في وسائل الإعلام التقليدية. شملت الدراسة طلب ChatGPT لتقمص شخصيات من طيف سياسي مختلف ومقارنة الإجابات مع وضعه الافتراضي. وجد الباحثون تحيزاً كبيراً نحو الديمقراطيين في الولايات المتحدة، ولولا في البرازيل، وحزب العمال في المملكة المتحدة. على الرغم من أن الكتاب يعترفون بالتحديات والتعقيدات في قياس وتفسير التحيز في النماذج اللغوية، إلا أن الورقة أثارت أبحاثًا ومناقشاتٍ أخرى في المجتمع الأكاديمي. رفع النقاد مخاوف بشأن المنهجية، معتبرين أنه قد لا يلتقط دقة الأفكار السياسية وأن الأسئلة المستخدمة قد تكون متحيزة أو توجيهية. كما أشاروا إلى أن الدراسة لم تستخدم ChatGPT نفسها، بل نموذجًا أقدم، وأن الروبوت مقيد بالإجابة على أسئلة الخيارات المتعددة فقط. تبرز هذه الانتقادات النقاشات المستمرة حول التحيز في النماذج اللغوية الكبيرة وتأثيرها المحتمل على المجتمع.
Published At
8/25/2023 1:39:14 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.