Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

السيطرة على الذكاء الاصطناعي الضارة: دعوة لتعزيز الأنظمة المدعومة من الحكومة وحوكمة الحوسبة

Algoine News
Summary:
يقترح الباحثون أن التحكم في الذكاء الاصطناعي الضار (الذكاء الاصطناعي) قد يتطلب تحسينا مستمرا لأنظمة الذكاء الاصطناعي القوية المدعومة من الحكومة. تقترح دراستهم الحاجة إلى التحكم في الوصول إلى موارد الذكاء الاصطناعي الحيوية ، مما يستلزم تنفيذ "حوكمة الحوسبة". قد يتطلب التقييد الفعال للاستخدام الضار الذكاء الاصطناعي تضمين "مفاتيح القفل" في الأجهزة ، مما يتيح الإنهاء عن بعد للعمليات غير القانونية. كما يحذرون من التعقيدات المحتملة في التحكم في الحوسبة اللامركزية. يقترح الباحثون أن المجتمعات قد تحتاج إلى استخدام حوسبة أكثر قوة وقابلية للحكم بحكمة لمواجهة المخاطر الناشئة من أنظمة الحوسبة غير القابلة للحكم.
قد تكمن السيطرة على الذكاء الاصطناعي الضار (الذكاء الاصطناعي) في التحسين المستمر الذكاء الاصطناعي بتوجيه حكومي. تم استخلاص هذا الاستنتاج من قبل مجموعة من الباحثين في ورقتهم الأخيرة بعنوان "قوة الحوسبة ثم حوكمة الذكاء الاصطناعي". كانت الدراسة ، التي شارك فيها مثقفون من معاهد مثل OpenAI و Cambridge و Oxford وغيرها الكثير ، محاولة لاستكشاف القضايا الفورية والمحتملة المتعلقة بتشريعات وتطور الذكاء الاصطناعي. يسلط الخلاف الرئيسي للورقة الضوء على الحاجة المحتملة للتحكم في الوصول إلى أنظمة الذكاء الاصطناعي المحورية في المستقبل من خلال التحكم في الأجهزة اللازمة لتشغيلها ونمذجتها. كما أوضح الباحثون ، يمكن لصانعي السياسات الاستفادة من قوة الحوسبة لتنفيذ نتائج مفيدة ، والحد من تطوير واستخدام الذكاء الاصطناعي غير المسؤول ، وتوفير الرؤية التنظيمية. هنا ، يشير "الحوسبة" إلى الأجهزة الحيوية اللازمة لتطوير الذكاء الاصطناعي ، بما في ذلك وحدات معالجة الرسومات ووحدات المعالجة المركزية. يوصي الباحثون بقطع الوصول إلى هذه المصادر كطريقة مثالية لتجنب الضرر المحتمل الذكاء الاصطناعي ذي الصلة. وهذا يعني اتخاذ تدابير حكومية للإشراف على إنشاء وبيع ووظيفة أي أجهزة ضرورية لتطوير الذكاء الاصطناعي المتقدمة. في بعض الجوانب ، يتم بالفعل ممارسة "حوكمة الحوسبة" على مستوى العالم. على سبيل المثال ، تقيد الولايات المتحدة بيع نماذج GPU محددة ، شائعة الاستخدام في التدريب الذكاء الاصطناعي ، إلى دول مثل الصين. وفقا للبحث ، فإن تقييد الاستخدام الخبيث الذكاء الاصطناعي بشكل فعال يتطلب من الشركات المصنعة تضمين "مفاتيح القفل" في الأجهزة. ومن شأن هذا الإجراء أن يمكن الحكومات من إنهاء جهود التدريب غير القانوني على الذكاء الاصطناعي عن بعد. وعلى الرغم من ذلك، يحذر العلماء من أن تدابير الحوكمة هذه تأتي مع مخاطر متأصلة تتعلق بالخصوصية والآثار الاقتصادية وتركيز السلطة. على سبيل المثال ، يمكن أن تنتهك مراقبة الأجهزة في الولايات المتحدة إرشادات قانون الحقوق الذكاء الاصطناعي الأخيرة من قبل البيت الأبيض والتي تضمن حقوق حماية البيانات للمواطنين. إضافة إلى هذه المخاوف ، يشير الباحثون أيضا إلى أن التطورات الناشئة في التدريب "الفعال في الاتصال" يمكن أن توجه نحو الحوسبة اللامركزية للنمذجة والبناء والتشغيل. وقد يؤدي هذا الاتجاه إلى تعقيد مهمة الحكومة المتمثلة في تحديد وإنهاء أجهزة التدريب غير القانونية. ويشير الباحثون إلى أن هذا الاحتمال قد لا يترك للحكومات أي خيار آخر سوى تكييف استراتيجية عدوانية ضد الاستخدام غير القانوني الذكاء الاصطناعي. وفقا لحكمهم ، "سيتعين على المجتمع استخدام حوسبة أكثر قوة وقابلة للحكم في الوقت المناسب وبحكمة لتطوير دفاعات ضد المخاطر الناشئة التي تشكلها الحوسبة غير القابلة للحكم.

Published At

2/16/2024 10:12:59 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch