Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI تطلق "إطار الاستعداد" لتقييم مخاطر الذكاء الاصطناعي ، بعد إعادة الرئيس التنفيذي إلى منصبه

Algoine News
Summary:
تخطط OpenAI ، وهي مطور للذكاء الاصطناعي (الذكاء الاصطناعي) ، لتقديم "إطار عمل التأهب". يتضمن هذا المخطط فريقا متخصصا مكلفا بتقييم المخاطر المحتملة. تسعى الاستراتيجية إلى إضافة نظام الضوابط والتوازنات للحماية من المخاطر المحتملة من النماذج المتقدمة. تتضمن الخطة عملية يتم فيها فحص تقارير السلامة ثم إرسالها للمراجعة على مستوى الشركة ، مع إطار العمل الجديد الذي يسمح لمجلس الإدارة بعكس قرارات السلامة. يأتي هذا بعد فترة مضطربة لشركة OpenAI ، حيث تم طرد الرئيس التنفيذي Sam Altman وإعادته لاحقا إلى منصبه. وسط تزايد الاهتمام العام والمخاوف بشأن الذكاء الاصطناعي ، أنشأ كبار المطورين ، بما في ذلك OpenAI ، منتدى الحدود للتنظيم الذاتي وحددت إدارة بايدن معايير سلامة الذكاء الاصطناعي جديدة.
كشفت OpenAI ، مطور الذكاء الاصطناعي (الذكاء الاصطناعي) ، مؤخرا عن خطط لإطلاق "إطار عمل الاستعداد". تتضمن هذه الاستراتيجية تشكيل فريق متخصص يهدف إلى تقييم المخاطر المحتملة والتنبؤ بها. ذكر منشور مدونة الشركة المنشور مؤخرا ، بتاريخ 18 ديسمبر ، أن "فريق الاستعداد" هذا سيربط بين أقسام السلامة والسياسة في OpenAI. ومن المتوقع أن يعمل هذا النظام، الذي يعمل بطريقة الضوابط والتوازنات، كضمانة ضد "المخاطر الكارثية" الوشيكة الناجمة عن النماذج المتطورة بشكل متزايد. أصرت OpenAI على أنها لن تطرح تقنيتها إلا تحت ضمان السلامة. تتضمن الاستراتيجية المقترحة حديثا قيام اللجنة الاستشارية بفحص تقارير السلامة التي سيتم إرسالها بعد ذلك إلى المديرين التنفيذيين للشركة ومجلس إدارة OpenAI للمراجعة. على الرغم من أن المديرين التنفيذيين لديهم سلطة إصدار الحكم النهائي ، فإن الاقتراح الأخير يمنح مجلس الإدارة المرونة لإلغاء قرارات السلامة. هذه الخطوة هي أعقاب الاضطرابات التي مرت بها OpenAI في نوفمبر ، والتي تميزت بالتسريح المفاجئ وما يترتب على ذلك من إعادة سام ألتمان إلى منصب الرئيس التنفيذي. بعد عودة ألتمان إلى الشركة ، كشفت OpenAI عن مجلس إدارتها المعين حديثا بما في ذلك بريت تايلور (الرئيس) ولاري سامرز وآدم دانجيلو. في ضوء عمليات الإطلاق الأخيرة مثل ChatGPT في نوفمبر 2022 ، ارتفع الاهتمام العام الذكاء الاصطناعي ، جنبا إلى جنب مع تزايد المخاوف بشأن ضررها المحتمل على المجتمع. مرة أخرى في يوليو ، أطلق كبار مطوري الذكاء الاصطناعي ، مع مشاركين مثل OpenAI و Microsoft و Google و Antropic ، منتدى الحدود. يركز هذا المنتدى على الإشراف على التنظيم الذاتي الذي تم إدخاله في صياغة الذكاء الاصطناعي المسؤولة. كما قدمت إدارة بايدن أمرا تنفيذيا في أكتوبر يحدد قيود سلامة جديدة للمنظمات التي تطور نماذج متقدمة وتنفذها. قبل إعلان هذا الأمر التنفيذي ، تم استدعاء مطوري الذكاء الاصطناعي البارزين إلى البيت الأبيض للتعهد بالتزامهم بإنشاء نماذج الذكاء الاصطناعي آمنة وشفافة ، مع وجود OpenAI من بين الحضور.

Published At

12/19/2023 11:36:24 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch