Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

एनआईएसटी एआई सिस्टम के सुरक्षित और नैतिक विकास पर सार्वजनिक इनपुट चाहता है

Algoine News
Summary:
राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित विकास और अनुप्रयोग पर सार्वजनिक इनपुट इकट्ठा करने के लिए सूचना के लिए अनुरोध (आरएफआई) जारी किया है। राष्ट्रपति बिडेन के कार्यकारी आदेश के निर्देश के तहत, एनआईएसटी जेनरेटिव एआई के जोखिम प्रबंधन और एआई-जनित गलत सूचना को कम करने के तरीकों पर अंतर्दृष्टि प्राप्त कर रहा है। संस्थान रेड-टीमिंग के लिए प्रभावी क्षेत्रों की भी जांच कर रहा है - एक रणनीति जिसका उपयोग सिस्टम कमजोरियों की पहचान करने के लिए किया जाता है। यह अनुरोध एआई समुदाय को जिम्मेदारी से और मज़बूती से विकसित करने के लिए एआई समुदाय का समर्थन करने के लिए एनआईएसटी द्वारा एक व्यापक पहल का हिस्सा है, जो एआई सुरक्षा और शासन के प्रति मानव-केंद्रित दृष्टिकोण को बढ़ाता है।
अमेरिकी वाणिज्य विभाग के राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित और नैतिक विकास और कार्यान्वयन पर नवीनतम कार्यकारी आदेश के तहत अपने कर्तव्यों के हिस्से के रूप में सूचना के लिए अनुरोध (आरएफआई) जारी किया है। संस्थान ने एआई सिस्टम की सुरक्षा के परीक्षण के लिए उपयोग की जाने वाली महत्वपूर्ण अंतर्दृष्टि इकट्ठा करने के लिए 2 फरवरी तक एक सार्वजनिक इनपुट प्रक्रिया खोली है। वाणिज्य सचिव जीना रायमोंडो ने उल्लेख किया कि राष्ट्रपति जो बाइडन का अक्टूबर का कार्यकारी निर्देश, जो एनआईएसटी को दिशानिर्देश विकसित करने, सहमति मानकों को प्रोत्साहित करने और एआई मूल्यांकन के लिए परीक्षण वातावरण बनाने का निर्देश देता है, इस पहल को प्रेरित करता है। इस ब्लूप्रिंट का उद्देश्य एआई के सुरक्षित, विश्वसनीय और नैतिक विकास में एआई क्षेत्र की सहायता करना है। एनआईएसटी से जानकारी के लिए अनुरोध एआई फर्मों और जनता से जेनरेटिव एआई के जोखिम प्रबंधन और एआई-प्रेरित गलत सूचना जोखिमों को कम करने के बारे में अंतर्दृष्टि आमंत्रित करता है। जनरेटिव एआई, जो अस्पष्ट संकेतों के आधार पर पाठ, चित्र और वीडियो बना सकता है, ने उत्साह और चिंताओं दोनों को जन्म दिया है। नौकरियों के नुकसान, चुनावों में गड़बड़ी, और मानव क्षमता से अधिक प्रौद्योगिकी की क्षमता पर आशंकाएं हैं, जो विनाशकारी परिणाम दे सकती हैं। आरएफआई एआई जोखिम परीक्षा के दौरान रेड-टीमिंग को निष्पादित करने और सर्वोत्तम प्रथाओं को स्थापित करने के लिए इष्टतम क्षेत्रों पर जानकारी भी मांगता है। शीत युद्ध सिमुलेशन से व्युत्पन्न "रेड-टीमिंग" शब्द का उपयोग एक ऐसी विधि को संदर्भित करने के लिए किया जाता है जहां एक समूह, जिसे "लाल टीम" के रूप में जाना जाता है, एक प्रणाली, प्रक्रिया या संगठन के कमजोर बिंदुओं और कमजोरियों को उजागर करने के लिए कल्पनीय प्रतिकूल स्थितियों या हमलों की नकल करता है। इस तकनीक का उपयोग लंबे समय से साइबर सुरक्षा में नए खतरों का पता लगाने के लिए किया जाता रहा है। एक संबंधित नोट यह है कि अमेरिका में पहली बार सार्वजनिक रेड-टीमिंग इवेंट अगस्त में एआई विलेज, सीडएआई और ह्यूमेन इंटेलिजेंस द्वारा आयोजित साइबर सुरक्षा सम्मेलन में हुआ था। नवंबर में एनआईएसटी द्वारा एक नए एआई कंसोर्टियम की घोषणा, प्रासंगिक योग्यता के साथ आवेदन आमंत्रित करने वाले एक आधिकारिक नोटिस के साथ, एक महत्वपूर्ण मील का पत्थर था। इस कंसोर्टियम का उद्देश्य यह सुनिश्चित करने के लिए विशिष्ट नीतियों और उपायों को विकसित करना और निष्पादित करना है कि अमेरिकी नीति निर्माता एआई सुरक्षा और प्रशासन के लिए मानव-केंद्रित दृष्टिकोण का विकल्प चुनते हैं।

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch