Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

الباحثون يطورون استخدام الذكاء الاصطناعي داخل أنظمة التشغيل ، ويعززون دقة النموذج بنسبة 27٪

Algoine News
Summary:
أجرى فريق من العلماء من Microsoft Research وجامعة بكين دراسة لفهم سبب معاناة نماذج اللغة الكبيرة (LLMs) مثل GPT-4 للتلاعب بأنظمة التشغيل. يتم تدريب نماذج الذكاء الاصطناعي هذه تقليديا من خلال التعلم المعزز ، وتتعثر في بيئات نظام التشغيل بسبب التحديات متعددة الوسائط وخطر فقدان البيانات. في بيئة تدريب فريدة أنشأها فريق يسمى AndroidArena ، حددوا أربع مهارات أساسية يفتقر إليها LLMs: الفهم والتفكير والاستكشاف والتفكير. في تطور مفاجئ ، اكتشف الباحثون طريقة "بسيطة" عززت دقة النموذج بنسبة 27٪ من خلال معالجة نقص "التفكير". يمكن أن يمهد هذا البحث الطريق لمساعد الذكاء الاصطناعي متقدم.
كان تطوير استراتيجية ل ChatGPT للعمل بشكل مستقل داخل نظام التشغيل أمرا صعبا ، ولكن ربما وجد جهد تعاوني من العلماء في Microsoft Research وجامعة بكين المفتاح. شرع الباحثون في استكشاف لتحديد سبب فشل نماذج اللغة الكبيرة (LLMs) للذكاء الاصطناعي (الذكاء الاصطناعي) مثل GPT-4 في المهام التي تتطلب التلاعب بنظام التشغيل. تضع الأنظمة المتطورة مثل ChatGPT ، المدعومة من GPT-4 ، معيارا للمهام التوليدية مثل إنشاء رسائل البريد الإلكتروني أو كتابة قصيدة. ومع ذلك ، فإن تمكين هذه النماذج من العمل كعوامل في بيئة عامة يجلب مجموعة من التجارب. عادة ، تتعلم نماذج الذكاء الاصطناعي التفاوض على البيئات الافتراضية من خلال التعلم المعزز. استفاد منشئو الذكاء الاصطناعي من الإصدارات المعدلة من ألعاب الفيديو المعروفة مثل Super Mario Bros و Minecraft لنقل الدروس المستفادة حول الاستكشاف الذاتي والهدف من الأهداف. ومع ذلك ، تشكل أنظمة التشغيل تحديا فريدا لنماذج الذكاء الاصطناعي. كوكلاء ، يمثل تنفيذ الوظائف داخل نظام التشغيل في كثير من الأحيان عقبة متعددة الوسائط تتضمن تبادل المعلومات بين مختلف المكونات والتطبيقات والبرامج. في سياق التدريب المعزز ، يعتمد النهج إلى حد كبير على التجريب. يمكن أن تؤدي هذه الطريقة إلى فقدان البيانات كما يظهر عند إدخال كلمات المرور بشكل غير صحيح عدة مرات أو عدم وضوح الاختصارات القابلة للتطبيق في تطبيقات مختلفة. Related: ميل ChatGPT مع الأسلحة النووية ، الذكاء الاصطناعي SEGA 80s ، نمو TAO بنسبة 90٪: الذكاء الاصطناعي العين عملت مجموعة العلماء مع العديد من LLMs بما في ذلك تلك مفتوحة المصدر بواسطة Meta مثل Llama2 70B وتلك التي بواسطة OpenAI مثل GPT-3.5 و GPT-4. وجد البحث أن أيا من هذه LLMs لم يظهر أداء استثنائيا. وكما ورد في الورقة البحثية للفريق، فإن المطالب الحالية تحل محل قدرات الذكاء الاصطناعي الحالية لعدة أسباب. لقد كانوا رائدين في بيئة تدريب جديدة تسمى AndroidArena والتي سمحت ل LLMs بالتنقل في إعداد مشابه لنظام التشغيل Android. بعد إنشاء مهام الاختبار ونظام القياس ، وجدوا أن LLMs تفتقر في المقام الأول إلى أربع مهارات أساسية: الفهم والتفكير والاستكشاف والتفكير. على الرغم من أن تركيز الدراسة كان على تحديد المشكلة ، إلا أن الباحثين حددوا بشكل غير متوقع طريقة مباشرة لتعزيز دقة النموذج بنسبة 27٪. لقد عالجوا مسألة التفكير المفقود من خلال تغذية المعلومات الآلية في النموذج فيما يتعلق بمحاولاته السابقة والاستراتيجيات المستخدمة خلالها. يضمن تضمين الذاكرة ضمن المطالبات المستخدمة لتشغيل الإجراء ذلك. يمكن أن يكون لهذا الخط من البحث آثار عميقة في إنشاء مساعد الذكاء الاصطناعي محسن.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch