Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

एनआईएसटी एआई सिस्टम के सुरक्षित और नैतिक विकास पर सार्वजनिक इनपुट चाहता है

Algoine News
Summary:
राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित विकास और अनुप्रयोग पर सार्वजनिक इनपुट इकट्ठा करने के लिए सूचना के लिए अनुरोध (आरएफआई) जारी किया है। राष्ट्रपति बिडेन के कार्यकारी आदेश के निर्देश के तहत, एनआईएसटी जेनरेटिव एआई के जोखिम प्रबंधन और एआई-जनित गलत सूचना को कम करने के तरीकों पर अंतर्दृष्टि प्राप्त कर रहा है। संस्थान रेड-टीमिंग के लिए प्रभावी क्षेत्रों की भी जांच कर रहा है - एक रणनीति जिसका उपयोग सिस्टम कमजोरियों की पहचान करने के लिए किया जाता है। यह अनुरोध एआई समुदाय को जिम्मेदारी से और मज़बूती से विकसित करने के लिए एआई समुदाय का समर्थन करने के लिए एनआईएसटी द्वारा एक व्यापक पहल का हिस्सा है, जो एआई सुरक्षा और शासन के प्रति मानव-केंद्रित दृष्टिकोण को बढ़ाता है।
अमेरिकी वाणिज्य विभाग के राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (एनआईएसटी) ने कृत्रिम बुद्धिमत्ता (एआई) के सुरक्षित और नैतिक विकास और कार्यान्वयन पर नवीनतम कार्यकारी आदेश के तहत अपने कर्तव्यों के हिस्से के रूप में सूचना के लिए अनुरोध (आरएफआई) जारी किया है। संस्थान ने एआई सिस्टम की सुरक्षा के परीक्षण के लिए उपयोग की जाने वाली महत्वपूर्ण अंतर्दृष्टि इकट्ठा करने के लिए 2 फरवरी तक एक सार्वजनिक इनपुट प्रक्रिया खोली है। वाणिज्य सचिव जीना रायमोंडो ने उल्लेख किया कि राष्ट्रपति जो बाइडन का अक्टूबर का कार्यकारी निर्देश, जो एनआईएसटी को दिशानिर्देश विकसित करने, सहमति मानकों को प्रोत्साहित करने और एआई मूल्यांकन के लिए परीक्षण वातावरण बनाने का निर्देश देता है, इस पहल को प्रेरित करता है। इस ब्लूप्रिंट का उद्देश्य एआई के सुरक्षित, विश्वसनीय और नैतिक विकास में एआई क्षेत्र की सहायता करना है। एनआईएसटी से जानकारी के लिए अनुरोध एआई फर्मों और जनता से जेनरेटिव एआई के जोखिम प्रबंधन और एआई-प्रेरित गलत सूचना जोखिमों को कम करने के बारे में अंतर्दृष्टि आमंत्रित करता है। जनरेटिव एआई, जो अस्पष्ट संकेतों के आधार पर पाठ, चित्र और वीडियो बना सकता है, ने उत्साह और चिंताओं दोनों को जन्म दिया है। नौकरियों के नुकसान, चुनावों में गड़बड़ी, और मानव क्षमता से अधिक प्रौद्योगिकी की क्षमता पर आशंकाएं हैं, जो विनाशकारी परिणाम दे सकती हैं। आरएफआई एआई जोखिम परीक्षा के दौरान रेड-टीमिंग को निष्पादित करने और सर्वोत्तम प्रथाओं को स्थापित करने के लिए इष्टतम क्षेत्रों पर जानकारी भी मांगता है। शीत युद्ध सिमुलेशन से व्युत्पन्न "रेड-टीमिंग" शब्द का उपयोग एक ऐसी विधि को संदर्भित करने के लिए किया जाता है जहां एक समूह, जिसे "लाल टीम" के रूप में जाना जाता है, एक प्रणाली, प्रक्रिया या संगठन के कमजोर बिंदुओं और कमजोरियों को उजागर करने के लिए कल्पनीय प्रतिकूल स्थितियों या हमलों की नकल करता है। इस तकनीक का उपयोग लंबे समय से साइबर सुरक्षा में नए खतरों का पता लगाने के लिए किया जाता रहा है। एक संबंधित नोट यह है कि अमेरिका में पहली बार सार्वजनिक रेड-टीमिंग इवेंट अगस्त में एआई विलेज, सीडएआई और ह्यूमेन इंटेलिजेंस द्वारा आयोजित साइबर सुरक्षा सम्मेलन में हुआ था। नवंबर में एनआईएसटी द्वारा एक नए एआई कंसोर्टियम की घोषणा, प्रासंगिक योग्यता के साथ आवेदन आमंत्रित करने वाले एक आधिकारिक नोटिस के साथ, एक महत्वपूर्ण मील का पत्थर था। इस कंसोर्टियम का उद्देश्य यह सुनिश्चित करने के लिए विशिष्ट नीतियों और उपायों को विकसित करना और निष्पादित करना है कि अमेरिकी नीति निर्माता एआई सुरक्षा और प्रशासन के लिए मानव-केंद्रित दृष्टिकोण का विकल्प चुनते हैं।

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚧 Platform is in prototype mode — bot activations are currently unavailable, but you’re welcome to explore all other features!

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy