تعديل وزاري في OpenAI: استقالة الباحثين الرئيسيين بسبب وجهات نظر مختلفة حول أولويات السلامة الذكاء الاصطناعي
Summary:
استقال باحثون رئيسيون من فريق OpenAI الذين يركزون على مخاطر الذكاء الاصطناعي المحتملة أو أعيد تعيينهم وسط خلافات حول أولويات المنظمة. يأتي هذا بعد رحيل إيليا سوتسكيفر ، كبير علماء OpenAI ، وجان ليك ، الرئيس المشارك لفريق المحاذاة الفائقة. سلط Leike الضوء على الحاجة الملحة للموارد لأبحاث السلامة ، منتقدا OpenAI لإعطاء الأولوية لتطوير المنتجات على سلامة الذكاء الاصطناعي. جاءت الخطوة الأخيرة لحل فريق "Superalignment" وسط إعادة الهيكلة الداخلية المستمرة للشركة. وكان سوتسكيفر قد أشار في وقت سابق إلى أن قرارات مجلس الإدارة تهدف إلى ضمان التزام OpenAI بتطوير الذكاء الاصطناعي العام لصالح البشرية.
في الأخبار الأخيرة ، شهدت OpenAI تحولا كاملا في فريقها الذي كان يحقق بشدة في المخاطر المحتملة للذكاء الاصطناعي ، حيث ترك جميع الأعضاء مناصبهم أو أعيد تعيينهم في فصائل بحثية متنوعة. يأتي هذا في أعقاب إعلان كبير العلماء والمؤسس المشارك لشركة OpenAI ، إيليا سوتسكيفر ، قراره بمغادرة الشركة. علاوة على ذلك ، استقال المسؤول الأول في فريق المحاذاة الفائقة في OpenAI ، جان لايك ، المرتبط سابقا ب DeepMind ، من منصبه وأبلغ استقالته رسميا على المنصة X.
يعزى خروج Leike إلى عدم ثقته في الأهداف الحالية للشركة ، والتي يرى أنها تنحرف نحو التركيز على تحسين المنتج بدلا من التأكيد على أهمية سلامة الذكاء الاصطناعي. في مجموعة من المنشورات ، اختلف جان لايك مع تأكيدات توجيه OpenAI وحث الإدارة على الاهتمام بالسلامة والاستعداد فيما يتعلق بتقدم AGI أو الذكاء الاصطناعي العام ، وهو شكل نظري من الذكاء الاصطناعي من المتوقع أن يضاهي أو حتى يتفوق على القدرات البشرية في تنفيذ مجموعة واسعة من المهام.
بعد أن كرس ثلاث سنوات من حياته المهنية لشركة OpenAI ، أعرب Leike عن مخاوفه بشأن المعاملة التفضيلية للمؤسسة تجاه تطوير منتجات براقة ، وتهميش الرعاية الحاسمة لثقافة وأنظمة صحية تركز على الأمن الذكاء الاصطناعي. وشدد بشدة على الحاجة إلى إعادة تخصيص الموارد، وخاصة البراعة الحاسوبية، لدعم الأبحاث الكبيرة الموجهة نحو السلامة التي يقودها فريقه، وهي مهمة تم تجاهلها بشكل واضح.
قامت OpenAI بتشكيل مجموعة بحثية جديدة في يوليو من العام السابق ، بهدف الاستعداد لاحتمال ظهور ذكاء اصطناعي فعال بشكل عبقري قادر على التفوق على مخترعيه البشريين والتغلب عليهم. شارك في رئاسة هذا الفصيل الجديد كبير العلماء والمؤسس المشارك لشركة OpenAI ، إيليا سوتسكيفر ، بدعم من 20٪ من الموارد الحاسوبية ل OpenAI.
في ضوء موجة الاستقالات الأخيرة ، قررت OpenAI تفكيك فريق "Superalignment" ودمج مسؤولياتها في مشاريع بحثية أخرى ضمن اختصاصها. ينظر إلى هذه الخطوة على أنها ناتجة عن تغييرات إعادة الهيكلة داخل المنظمة ، والتي نشأت في معالجة أزمة الإدارة التي ابتليت بها في نوفمبر 2023. لعب Sutskever دورا مهما في تسهيل الإطاحة المؤقتة بالرئيس التنفيذي ألتمان من مجلس إدارة OpenAI خلال هذه الفترة ، والذي أعيد إلى منصبه بعد فترة وجيزة بعد مقاومة من هيئة الموظفين.
وبحسب ما ورد ، أوضح Sutskever للقوى العاملة أن تصميم مجلس الإدارة على تجريد Sam Altman من منصبه يتماشى مع تفويضهم المتمثل في ضمان أن تطوير AGI الخاص ب OpenAI يصب في مصلحة البشرية. كفرد حاسم بين أعضاء مجلس الإدارة الستة ، ردد Sutskever التزام مجلس الإدارة بتعزيز مهمة OpenAI في انسجام مع الهدف المشترك الأكبر.
Published At
5/18/2024 2:30:32 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.