Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

يسعى NIST للحصول على مدخلات عامة حول التطوير الآمن والأخلاقي لأنظمة الذكاء الاصطناعي

Algoine News
Summary:
أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) طلبا للحصول على معلومات (RFI) لجمع مدخلات الجمهور حول التطوير والتطبيق الآمن للذكاء الاصطناعي (الذكاء الاصطناعي). بتوجيه من الأمر التنفيذي للرئيس بايدن ، يسعى NIST للحصول على نظرة ثاقبة حول إدارة مخاطر الذكاء الاصطناعي التوليدية وطرق تقليل المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي. كما يبحث المعهد في مجالات فعالة للعمل مع الفريق الأحمر - وهي استراتيجية تستخدم لتحديد نقاط الضعف في النظام. يعد الطلب جزءا من مبادرة أوسع من قبل NIST لدعم المجتمع الذكاء الاصطناعي لتطوير أنظمة الذكاء الاصطناعي بشكل مسؤول وموثوق ، وتصعيد النهج الذي يركز على الإنسان تجاه سلامة الذكاء الاصطناعي والحوكمة.
أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) التابع لوزارة التجارة الأمريكية طلبا للحصول على معلومات (RFI) كجزء من واجباته بموجب أحدث أمر تنفيذي بشأن التطوير الآمن والأخلاقي وتنفيذ الذكاء الاصطناعي (الذكاء الاصطناعي). فتح المعهد عملية إدخال عامة حتى 2 فبراير لجمع رؤى مهمة لاستخدامها في اختبار سلامة أنظمة الذكاء الاصطناعي. ذكرت وزيرة التجارة جينا ريموندو أن التوجيه التنفيذي للرئيس جو بايدن في أكتوبر ، والذي يوجه NIST لتطوير المبادئ التوجيهية وتشجيع المعايير التوافقية وبناء بيئات اختبار لتقييم الذكاء الاصطناعي ، يحفز هذه المبادرة. يهدف هذا المخطط إلى مساعدة القطاع الذكاء الاصطناعي في التطوير الآمن والموثوق والأخلاقي الذكاء الاصطناعي. يدعو طلب المعلومات من NIST رؤى من الشركات الذكاء الاصطناعي والجمهور فيما يتعلق بإدارة مخاطر الذكاء الاصطناعي التوليدية والحد من مخاطر المعلومات الخاطئة التي يسببها الذكاء الاصطناعي. أثارت الذكاء الاصطناعي التوليدية ، التي يمكنها إنشاء نصوص وصور ومقاطع فيديو بناء على مطالبات غامضة ، الإثارة والقلق. هناك مخاوف بشأن فقدان الوظائف ، والاضطرابات في الانتخابات ، واحتمال تجاوز التكنولوجيا للكفاءة البشرية ، مما قد يؤدي إلى نتائج كارثية. يسعى طلب المعلومات أيضا إلى الحصول على معلومات حول المجالات المثلى لتنفيذ الفريق الأحمر أثناء فحص مخاطر الذكاء الاصطناعي ووضع أفضل الممارسات. يستخدم مصطلح "الفريق الأحمر" ، المشتق من محاكاة الحرب الباردة ، للإشارة إلى طريقة تحاكي فيها المجموعة ، المعروفة باسم "الفريق الأحمر" ، المواقف أو الهجمات العدائية التي يمكن تصورها للكشف عن نقاط الضعف ونقاط الضعف في نظام أو عملية أو منظمة. تستخدم هذه التقنية منذ فترة طويلة في الأمن السيبراني لاكتشاف التهديدات الجديدة. ملاحظة ذات صلة هي أن أول حدث عام للفريق الأحمر في الولايات المتحدة عقد في أغسطس في مؤتمر للأمن السيبراني نظمته الذكاء الاصطناعي Village و SeedAI و Humane Intelligence. كان الإعلان عن اتحاد الذكاء الاصطناعي جديد من قبل NIST في نوفمبر ، إلى جانب إشعار رسمي يدعو إلى تقديم الطلبات ذات المؤهلات ذات الصلة ، معلما مهما. الهدف من هذا الكونسورتيوم هو تطوير وتنفيذ سياسات وتدابير محددة للتأكد من أن صانعي السياسة الأمريكيين يختارون نهجا يركز على الإنسان لسلامة وإدارة الذكاء الاصطناعي.

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch