Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

أنثروبولوجيك تبتكر نماذج الذكاء الاصطناعي متأثرة بالمستخدم: خطوة نحو الذكاء الاصطناعي الديمقراطي

Algoine News
Summary:
طورت شركة Anthropic ، وهي شركة الذكاء الاصطناعي ، دراسة تتضمن نموذجا لغويا كبيرا (LLM) يتكيف مع أحكام قيمة المستخدمين. وشملت التجربة، وهي الأولى من نوعها، حوالي 1000 مواطن أمريكي ساهموا في صياغة دستور الذكاء الاصطناعي. وأبرزت العملية بعض التحديات ولكنها حققت في نهاية المطاف تحسنا هامشيا من حيث الناتج المتحيز. يعتقد أنثروبيك أن هذا يمكن أن يكون أحد الحالات الأولى لمجموعة عامة تؤثر على سلوك ماجستير في القانون وتأمل أن يتم استخدام هذه التقنية لإنشاء نماذج محددة ثقافيا في المستقبل.
شركة الذكاء الاصطناعي ، أنثروبيك ، رائدة في تجربة غير مسبوقة في تطويرها لنموذج لغوي كبير (LLM) مصمم خصيصا للأحكام القيمة للمستخدمين. في سعيها لإضفاء الطابع الديمقراطي على التنمية الذكاء الاصطناعي ، تعاونت مع @collect_intel واستخدمت @usepolis لإنشاء دستور الذكاء الاصطناعي يرتكز على آراء ما يقرب من 1000 مواطن أمريكي. في وقت لاحق ، تم وضع النموذج المعمول به من خلال خطواته من خلال الذكاء الاصطناعي الدستوري. تستخدم حواجز الحماية أو قواعد الأداء المحددة مسبقا في تصميم العديد من LLMs التي تواجه المستهلك بما في ذلك كلود من Anthropic و ChatGPT من OpenAI للحد من النتائج غير المرغوب فيها. على الرغم من ذلك ، يجادل النقاد بأن حواجز الحماية المعتمدة هذه تنتهك استقلالية المستخدم. ويؤكدون أن ما يعتبر مقبولا قد لا يكون بالضرورة مفيدا والعكس صحيح. وعلاوة على ذلك، فإن الاختلافات الثقافية والزمنية والسكانية تزيد من تعقيد الأحكام الأخلاقية والقيمية. يمكن أن تكون إحدى طرق التنقل في هذه المشكلة المعقدة هي تمكين المستخدمين من تحديد محاذاة القيمة لنماذج الذكاء الاصطناعي بأنفسهم. حاولت أنثروبيك معالجة هذه القضية المعقدة من خلال تجربة الذكاء الاصطناعي الدستورية الجماعية ، من خلال طرح 1000 مستخدم متنوع في سلسلة من الأسئلة الديموغرافية عبر استطلاعات الرأي. يكمن الهدف في إيجاد التوازن بين السماح بالسلطة التقديرية التحريرية ومنع إخراج المحتوى غير المناسب. تضمنت العملية تنفيذ تعليقات المستخدمين على نموذج تم تدريبه بالفعل. تستخدم Anthropic الذكاء الاصطناعي الدستوري لضبط LLM المصممة خصيصا للسلامة والفائدة. وهذا أقرب إلى توجيه النموذج بمجموعة من القواعد الحاكمة، مثل الدستور إلى حد كبير، والذي يجب عليه بعد ذلك الالتزام الصارم به. في تجربة الذكاء الاصطناعي الدستورية الجماعية ، جرت محاولة لدمج ردود الفعل الجماعية في دستور النموذج. وفقا لمدونة نشرتها Anthropic ، يبدو أن تجربة الاختراق قد حققت أهدافها العلمية على الرغم من الكشف عن العقبات نحو تحقيق هدفها النهائي - تمكين مستخدمي LLM من تحديد قيمهم الجماعية. تضمنت العقبات اختراع طريقة قياس مبتكرة نظرا لعدم وجود اختبار ثابت للنماذج التي تم ضبطها من خلال تمرين من مصادر جماعية بسبب حداثة هذه التجربة. في الختام ، كان أداء النموذج الذي يتضمن بيانات استطلاع آراء المستخدمين أفضل بشكل هامشي في قطاع المخرجات المتحيزة. تتطلع أنثروبيك إلى مواصلة استكشاف الإجراء وتأمل أن تتمكن المجتمعات العالمية المستقبلية من الاستفادة من هذه المنهجيات لإنشاء نماذج تلبي احتياجاتها الفردية على وجه التحديد.

Published At

10/18/2023 5:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch