ओपनएआई ने एआई से संबंधित जोखिमों से निपटने और संभावित खतरों को कम करने के लिए 'तैयारी' पहल शुरू की
Summary:
ओपनएआई एआई से जुड़े व्यापक जोखिमों का मूल्यांकन और कम करने के लिए "तैयारी" नामक एक पहल शुरू कर रहा है। यह पहल रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु खतरों, व्यक्तिगत अनुनय, साइबर सुरक्षा और स्वायत्त प्रतिकृति सहित संभावित एआई खतरों पर ध्यान केंद्रित करेगी। अलेक्जेंडर मैड्री के नेतृत्व में, टीम फ्रंटियर एआई सिस्टम के दुरुपयोग के खतरों की जांच करेगी। ओपनएआई ने विनाशकारी दुरुपयोग की रोकथाम के लिए एक एआई तैयारी चुनौती भी शुरू की है, जिसमें शीर्ष प्रस्तुतियों के लिए एपीआई क्रेडिट में $ 25,000 दिए जाएंगे।
ChatGPT जैसी AI तकनीक के विकास के लिए जिम्मेदार कंपनी OpenAI, AI से जुड़े विभिन्न संभावित खतरों का मूल्यांकन करने के उद्देश्य से एक परियोजना शुरू कर रही है। 25 अक्टूबर को पता चला, ओपनएआई अब एक अनूठी टीम की संरचना कर रहा है जिसका मुख्य ध्यान एआई तकनीक के उपयोग से उत्पन्न होने वाले संभावित भारी खतरों का अध्ययन, भविष्यवाणी और कम करना होगा। "तैयारी" नामक यह टीम, रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु खतरों, व्यक्तिगत अनुनय, साइबर सुरक्षा और सहज प्रतिकृति और अनुकूलन सहित संभावित एआई जोखिमों पर पूरा ध्यान देगी।
अलेक्जेंडर मैड्री द्वारा निर्देशित टीम को महत्वपूर्ण सवालों को समझने का काम सौंपा गया है जैसे कि अनुचित तरीके से उपयोग किए जाने पर एक उन्नत एआई सिस्टम किस स्तर के खतरे को पैदा कर सकता है या यदि चोरी की स्थिति में इसे हानिकारक तत्वों द्वारा तैनात किया जा सकता है। "फ्रंटियर एआई मॉडल," ओपनएआई ने साझा किया, "वैश्विक मानवता के लिए फायदेमंद होने की क्षमता है। समान रूप से, उन्होंने कहा कि, ये एआई मॉडल "तेजी से गंभीर जोखिम" भी पैदा कर सकते हैं।
कंपनी के विचारों की व्याख्या करते हुए, ओपनएआई ने कहा: "हम एआई से जुड़े सभी प्रकार के सुरक्षा जोखिमों को स्वीकार करते हैं और गंभीरता से विचार करते हैं, आज के सिस्टम से लेकर सुपरइंटेलिजेंस के चरम सीमाओं तक ... अत्यधिक सक्षम एआई प्रणालियों की सुरक्षा सुनिश्चित करने के लिए, हम विनाशकारी जोखिम तैयारियों से निपटने के लिए अपने दृष्टिकोण को परिष्कृत कर रहे हैं।
नए डिवीजन को बनाने के अलावा, ओपनएआई एआई के विनाशकारी दुरुपयोग को रोकने के उद्देश्य से एक चुनौती शुरू कर रहा है, जिसमें शीर्ष 10 सर्वश्रेष्ठ प्रस्तुतियों के लिए एपीआई क्रेडिट में $ 25,000 का वादा किया गया है। फर्म ने यह भी घोषणा की कि वह तैयारी टीम का हिस्सा बनने के लिए विभिन्न तकनीकी पृष्ठभूमि से प्रतिभाओं की तलाश कर रही है।
ओपनएआई ने पहले जुलाई 2023 में संभावित एआई खतरों से निपटने पर केंद्रित एक टीम स्थापित करने का संकेत दिया था। परंपरागत रूप से, कृत्रिम बुद्धिमत्ता से जुड़े संभावित खतरों को अक्सर इंगित किया जाता है, जिससे चिंताएं पैदा होती हैं कि ये एआई सिस्टम किसी दिन मानव बुद्धि को पार कर सकते हैं। इन आशंकाओं के बावजूद, ओपनएआई जैसी कंपनियों ने सक्रिय रूप से नई एआई प्रौद्योगिकियों के विकास का पीछा किया है, अनजाने में अधिक संदेह और चिंता पैदा की है।
एक तुलनीय विकास में, मई 2023 में एक गैर-लाभकारी संगठन सेंटर फॉर एआई सेफ्टी ने एआई जोखिम पर जोर देते हुए एक खुला पत्र प्रकाशित किया। केंद्र का मानना है कि एआई से होने वाले जोखिमों को वैश्विक स्तर पर गंभीरता से संबोधित किया जाना चाहिए, साथ ही महामारी और परमाणु युद्ध जैसे अन्य सामाजिक स्तर के जोखिमों को भी संबोधित किया जाना चाहिए।
Published At
10/27/2023 10:03:56 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.