एआई विशेषज्ञों ने सुरक्षा चिंताओं के बीच व्हिसलब्लोअर सुरक्षा बढ़ाने के लिए रैली की
Summary:
प्रमुख एआई कंपनियों के पूर्व कर्मचारी एआई विकास के बारे में जोखिम से संबंधित चिंताओं को खुले तौर पर आवाज उठाने की अनुमति देने के लिए मजबूत व्हिसलब्लोअर सुरक्षा की वकालत कर रहे हैं। "राइट टू वार्न एआई" याचिका का उद्देश्य एक खुलेपन को बढ़ावा देना है जो आलोचना का स्वागत करता है और व्हिसलब्लोअर के लिए कानूनी सुरक्षा प्रदान करता है जो गंभीर एआई जोखिमों को उजागर करते हैं। अभियान नए एआई मॉडल के सुरक्षा उपायों के बारे में बढ़ती आशंकाओं को दर्शाता है, विशेष रूप से कृत्रिम सामान्य बुद्धि से जुड़े लोग।
प्रमुख एआई फर्मों के पूर्व कर्मचारी इन कंपनियों के भीतर मजबूत व्हिसलब्लोअर सुरक्षा उपायों की वकालत कर रहे हैं, ताकि जटिल एआई सिस्टम के विकास में संभावित जोखिमों के बारे में पारदर्शिता को बढ़ावा दिया जा सके। "राइट टू वार्न एआई" शीर्षक वाली एक याचिका 4 जून को OpenAI (ChatGPT), एंथ्रोपिक (क्लाउड), और डीपमाइंड (Google) में 13 पूर्व और वर्तमान में काम कर रहे पेशेवरों द्वारा शुरू की गई थी। इस शानदार समूह में योशुआ बेंगियो, जेफ्री हिंटन और स्टुअर्ट रसेल जैसे एआई दिग्गज भी शामिल थे। उनका उद्देश्य प्रमुख एआई कंपनियों को अपने कर्मियों को आंतरिक रूप से और व्यापक जनता के साथ एआई जोखिमों के बारे में आशंकाओं को साझा करने की अनुमति देने के लिए राजी करना है।
OpenAI के एक पूर्व कर्मचारी और अभियान के समर्थक विलियम सॉन्डर्स ने कहा कि संभावित खतरनाक तकनीकी नवाचारों से निपटने के दौरान स्वतंत्र विशेषज्ञों, सरकारी अधिकारियों और आम जनता को जोखिम की जानकारी का खुलासा करने के लिए एक तंत्र होना अनिवार्य है। उन्होंने देखा कि वर्तमान में, फ्रंटियर एआई सिस्टम और संबंधित जोखिमों की गहरी समझ रखने वाले लोग बैकलैश और कड़े गोपनीयता अनुबंधों के डर के कारण अपने डर को व्यक्त करने में संकोच कर सकते हैं।
प्रस्ताव में चार प्रमुख सुझाव दिए गए हैं। पहला जोखिमों से संबंधित गैर-भेदभाव खंडों को रद्द करना है ताकि फर्म कर्मचारियों को थूथन न कर सकें या एआई जोखिमों के बारे में चिंता व्यक्त करने के लिए उन्हें दंडित न कर सकें। इसके बाद, वे एआई जोखिमों के बारे में अपनी चिंताओं को व्यक्त करने के लिए व्यक्तियों के लिए गुमनाम चैनल स्थापित करने का प्रस्ताव करते हैं, जिससे एक ऐसे माहौल को बढ़ावा मिलता है जो खुली आलोचना का स्वागत करता है। उनका अंतिम कॉल व्हिसलब्लोअर के लिए कानूनी सुरक्षा के लिए है, यह सुनिश्चित करना कि कंपनियां उन कर्मचारियों के खिलाफ जवाबी कार्रवाई नहीं करेंगी जो गंभीर एआई जोखिमों के जोखिम का जोखिम उठाते हैं। सॉन्डर्स ने इन सिद्धांतों को एक "सक्रिय दृष्टिकोण" के रूप में वर्णित किया जो एआई कंपनियों को एआई बनाने के लिए प्रोत्साहित करेगा जो न केवल फायदेमंद है बल्कि सुरक्षित भी है।
यह अभियान बढ़ती आशंकाओं का व्युत्पन्न है कि कैसे एआई प्रयोगशालाओं ने अपने नए मॉडल विकसित करते समय सुरक्षा उपायों की अनदेखी की है, विशेष रूप से कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) से निपटने के दौरान, जिसका उद्देश्य सॉफ्टवेयर विकसित करना है जो मानव बुद्धि की नकल करता है और स्वतंत्र रूप से सीख सकता है। OpenAI के एक पूर्व कर्मचारी डैनियल कोकोटाजलो ने कंपनी छोड़ने के अपने निर्णय को साझा किया, जो कंपनी के AGI उद्देश्यों के जिम्मेदार संचालन में विश्वास की कमी से उपजा है। कोकोटाजलो ने कहा कि "तेजी से आगे बढ़ें और चीजों को तोड़ें" सांस्कृतिक दृष्टिकोण प्रौद्योगिकी के साथ असंगत है जो एजीआई के रूप में शक्तिशाली और गलत समझा जाता है।
OpenAI की एक पूर्व निदेशक हेलेन टोनर ने 28 मई को टेड AI पॉडकास्ट में खुलासा किया कि OpenAI के सीईओ सैम ऑल्टमैन को बोर्ड से महत्वपूर्ण जानकारी वापस लेने के आधार पर कंपनी से बर्खास्त किए जाने की अफवाह थी।
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.