एनआईएसटी एआई सिस्टम के सुरक्षित और नैतिक विकास पर सार्वजनिक इनपुट चाहता है
Summary:
राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित विकास और अनुप्रयोग पर सार्वजनिक इनपुट इकट्ठा करने के लिए सूचना के लिए अनुरोध (आरएफआई) जारी किया है। राष्ट्रपति बिडेन के कार्यकारी आदेश के निर्देश के तहत, एनआईएसटी जेनरेटिव एआई के जोखिम प्रबंधन और एआई-जनित गलत सूचना को कम करने के तरीकों पर अंतर्दृष्टि प्राप्त कर रहा है। संस्थान रेड-टीमिंग के लिए प्रभावी क्षेत्रों की भी जांच कर रहा है - एक रणनीति जिसका उपयोग सिस्टम कमजोरियों की पहचान करने के लिए किया जाता है। यह अनुरोध एआई समुदाय को जिम्मेदारी से और मज़बूती से विकसित करने के लिए एआई समुदाय का समर्थन करने के लिए एनआईएसटी द्वारा एक व्यापक पहल का हिस्सा है, जो एआई सुरक्षा और शासन के प्रति मानव-केंद्रित दृष्टिकोण को बढ़ाता है।
अमेरिकी वाणिज्य विभाग के राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित और नैतिक विकास और कार्यान्वयन पर नवीनतम कार्यकारी आदेश के तहत अपने कर्तव्यों के हिस्से के रूप में सूचना के लिए अनुरोध (आरएफआई) जारी किया है। संस्थान ने एआई सिस्टम की सुरक्षा के परीक्षण के लिए उपयोग की जाने वाली महत्वपूर्ण अंतर्दृष्टि इकट्ठा करने के लिए 2 फरवरी तक एक सार्वजनिक इनपुट प्रक्रिया खोली है। वाणिज्य सचिव जीना रायमोंडो ने उल्लेख किया कि राष्ट्रपति जो बाइडन का अक्टूबर का कार्यकारी निर्देश, जो एनआईएसटी को दिशानिर्देश विकसित करने, सहमति मानकों को प्रोत्साहित करने और एआई मूल्यांकन के लिए परीक्षण वातावरण बनाने का निर्देश देता है, इस पहल को प्रेरित करता है। इस ब्लूप्रिंट का उद्देश्य एआई के सुरक्षित, विश्वसनीय और नैतिक विकास में एआई क्षेत्र की सहायता करना है।
एनआईएसटी से जानकारी के लिए अनुरोध एआई फर्मों और जनता से जेनरेटिव एआई के जोखिम प्रबंधन और एआई-प्रेरित गलत सूचना जोखिमों को कम करने के बारे में अंतर्दृष्टि आमंत्रित करता है। जनरेटिव एआई, जो अस्पष्ट संकेतों के आधार पर पाठ, चित्र और वीडियो बना सकता है, ने उत्साह और चिंताओं दोनों को जन्म दिया है। नौकरियों के नुकसान, चुनावों में गड़बड़ी, और मानव क्षमता से अधिक प्रौद्योगिकी की क्षमता पर आशंकाएं हैं, जो विनाशकारी परिणाम दे सकती हैं।
आरएफआई एआई जोखिम परीक्षा के दौरान रेड-टीमिंग को निष्पादित करने और सर्वोत्तम प्रथाओं को स्थापित करने के लिए इष्टतम क्षेत्रों पर जानकारी भी मांगता है। शीत युद्ध सिमुलेशन से व्युत्पन्न "रेड-टीमिंग" शब्द का उपयोग एक ऐसी विधि को संदर्भित करने के लिए किया जाता है जहां एक समूह, जिसे "लाल टीम" के रूप में जाना जाता है, एक प्रणाली, प्रक्रिया या संगठन के कमजोर बिंदुओं और कमजोरियों को उजागर करने के लिए कल्पनीय प्रतिकूल स्थितियों या हमलों की नकल करता है। इस तकनीक का उपयोग लंबे समय से साइबर सुरक्षा में नए खतरों का पता लगाने के लिए किया जाता रहा है। एक संबंधित नोट यह है कि अमेरिका में पहली बार सार्वजनिक रेड-टीमिंग इवेंट अगस्त में एआई विलेज, सीडएआई और ह्यूमेन इंटेलिजेंस द्वारा आयोजित साइबर सुरक्षा सम्मेलन में हुआ था।
नवंबर में एनआईएसटी द्वारा एक नए एआई कंसोर्टियम की घोषणा, प्रासंगिक योग्यता के साथ आवेदन आमंत्रित करने वाले एक आधिकारिक नोटिस के साथ, एक महत्वपूर्ण मील का पत्थर था। इस कंसोर्टियम का उद्देश्य यह सुनिश्चित करने के लिए विशिष्ट नीतियों और उपायों को विकसित करना और निष्पादित करना है कि अमेरिकी नीति निर्माता एआई सुरक्षा और प्रशासन के लिए मानव-केंद्रित दृष्टिकोण का विकल्प चुनते हैं।
Published At
12/20/2023 11:46:51 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.