الذكاء الاصطناعي المتخصصين يتجمعون من أجل تعزيز حماية المبلغين عن المخالفات وسط مخاوف تتعلق بالسلامة
Summary:
يدعو الموظفون السابقون في شركات الذكاء الاصطناعي البارزة إلى حماية أقوى للمبلغين عن المخالفات للسماح بالتعبير علنا عن المخاوف المتعلقة بالمخاطر بشأن تطوير الذكاء الاصطناعي. تهدف عريضة "الحق في تحذير الذكاء الاصطناعي" إلى تعزيز الانفتاح الذي يرحب بالانتقادات ويوفر الحماية القانونية للمبلغين عن المخالفات الذين يسلطون الضوء على مخاطر الذكاء الاصطناعي الجسيمة. وتعكس الحملة المخاوف المتزايدة بشأن تدابير السلامة لنماذج الذكاء الاصطناعي الجديدة، وخاصة تلك التي تنطوي على الذكاء الاصطناعي العام.
يدعو الموظفون السابقون في شركات الذكاء الاصطناعي البارزة إلى ضمانات أقوى للمبلغين عن المخالفات داخل هذه الشركات ، لتعزيز الشفافية حول المخاطر المحتملة في تطور أنظمة الذكاء الاصطناعي المعقدة. تم إطلاق عريضة بعنوان "الحق في تحذير الذكاء الاصطناعي" في 4 يونيو من قبل 13 محترفا سابقا ويعملون حاليا في OpenAI (ChatGPT) و Anthropic (Claude) و DeepMind (Google). تضمنت هذه المجموعة اللامعة أيضا الذكاء الاصطناعي من الشخصيات البارزة مثل يوشوا بينجيو وجيفري هينتون وستيوارت راسل. هدفهم هو إقناع الشركات الذكاء الاصطناعي الرائدة بالسماح لموظفيها بمشاركة المخاوف بشأن مخاطر الذكاء الاصطناعي داخليا ومع الجمهور الأوسع.
صرح ويليام سوندرز ، الموظف السابق في OpenAI والداعم للحملة ، أنه من الضروري وجود آلية للكشف عن معلومات المخاطر للخبراء المستقلين والسلطات الحكومية وعامة الناس عند التعامل مع الابتكارات التكنولوجية الخطرة المحتملة. ولاحظ أن أولئك الذين لديهم فهم أعمق لنظم الذكاء الاصطناعي الحدودية والمخاطر المرتبطة بها قد يترددون في التعبير عن مخاوفهم في الوقت الحاضر بسبب الخوف من رد الفعل العنيف وعقود السرية الصارمة.
يأتي الاقتراح مع أربعة اقتراحات رئيسية. الأول هو إلغاء بنود عدم الاستخفاف المتعلقة بالمخاطر حتى لا تتمكن الشركات من تكميم أفواه الموظفين أو معاقبتهم على التعبير عن مخاوفهم بشأن مخاطر الذكاء الاصطناعي. بعد ذلك، يقترحون إنشاء قنوات مجهولة للأفراد للتعبير عن مخاوفهم بشأن مخاطر الذكاء الاصطناعي، وبالتالي تعزيز جو يرحب بالنقد المفتوح. دعوتهم الأخيرة هي الحماية القانونية للمبلغين عن المخالفات ، وضمان أن الشركات لن تنتقم من الموظفين الذين يخاطرون بالتعرض لمخاطر الذكاء الاصطناعي خطيرة. وصف سوندرز هذه المبادئ بأنها "نهج استباقي" من شأنه أن يشجع الشركات الذكاء الاصطناعي على إنشاء الذكاء الاصطناعي ليست مفيدة فحسب ، بل آمنة أيضا.
الحملة هي مشتقة من المخاوف المتزايدة بشأن كيفية تغاضي الذكاء الاصطناعي المختبرات عن تدابير السلامة أثناء تطوير نماذجها الجديدة ، لا سيما أثناء التعامل مع الذكاء الاصطناعي العام (AGI) الذي يهدف إلى تطوير برامج تحاكي الذكاء البشري ويمكنها التعلم بشكل مستقل. شارك دانيال كوكوتاجلو ، الموظف السابق في OpenAI ، قراره بترك الشركة النابع من فقدانه الثقة في تعامل الشركة المسؤول مع أغراض AGI. رأى كوكوتاجلو أن النهج الثقافي "تحرك بسرعة وكسر الأشياء" لا يتوافق مع التكنولوجيا القوية والتي يساء فهمها مثل AGI.
كشفت هيلين تونر ، المديرة السابقة في OpenAI ، في بودكاست Ted الذكاء الاصطناعي في 28 مايو أن سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، أشيع أنه تم فصله من الشركة على أساس حجب المعلومات الهامة عن مجلس الإدارة.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.