दुनिया भर में सरकारें विकसित जनरेटिव एआई प्रौद्योगिकी को विनियमित करने के लिए संघर्ष करती हैं
Summary:
जैसे-जैसे जनरेटिव एआई प्रौद्योगिकी का विकास तीव्र गति से आगे बढ़ रहा है, दुनिया भर की सरकारें नियमों को लागू करने के लिए दौड़ रही हैं। यूरोपीय संघ ने 27 सदस्य राज्यों को प्रभावित करने वाला पहला व्यापक एआई कानून लॉन्च किया है, जबकि अमेरिका, ब्रिटेन, चीन जैसे देश और जी 7 जैसे गठबंधन अपने नियामक सावधानियों को तेजी से ट्रैक कर रहे हैं। संभावित दुरुपयोग की आशंका के बीच, ऑस्ट्रेलिया ने "उच्च जोखिम" एआई उपकरणों के प्रबंधन पर सुझाव मांगे हैं। इस बीच, चीन ने अस्थायी नियमों को लागू किया है, जिससे एआई प्रदाताओं को सुरक्षा आकलन के बाद मंजूरी हासिल करने की आवश्यकता है। वैश्विक स्तर पर, देश एआई को छेड़छाड़ से बचाने के लिए 'सिक्योर-बाय-डिज़ाइन' मॉडल की वकालत कर रहे हैं।
जनरेटिव एआई प्रौद्योगिकी के तेजी से विकास ने दुनिया भर में एक संघर्ष को उकसाया है क्योंकि सरकारें इस नए तकनीकी मोर्चे के लिए नियमों को लागू करने में जल्दबाजी करती हैं। यह यूरोपीय संघ द्वारा विश्व स्तर पर पहला व्यापक कृत्रिम बुद्धिमत्ता कानून लागू करने की पहल को प्रतिबिंबित करता है। एआई अधिनियम, जिसमें सभी 27 सदस्य राज्यों को शामिल किया गया है, एक ग्राउंडब्रेकिंग नियामक संरचना का प्रतिनिधित्व करता है। 7 दिसंबर तक, वार्ताकारों ने एक लंबी बातचीत अवधि के बाद ओपनएआई इंक द्वारा चैटजीपीटी और गूगल के बार्ड जैसे जनरेटिव एआई टूल से संबंधित नियंत्रण और संतुलन के एक सेट पर समझौता किया है।
इस तकनीक के दुरुपयोग की संभावना ने अमेरिका, ब्रिटेन, चीन और जी 7 जैसे अंतर्राष्ट्रीय गठबंधनों जैसे देशों में नियामक उपायों की खोज को भी प्रेरित किया है, जो सभी तेजी से प्रगतिशील एआई प्रगति के साथ तालमेल रखने के लिए उत्सुक हैं।
जून में ऑस्ट्रेलियाई सरकार ने किसी भी "उच्च जोखिम" एआई उपकरणों पर प्रतिबंध ों की आवश्यकता की आठ सप्ताह की जांच शुरू करके स्थिति को संबोधित किया। परामर्श की यह अवधि 26 जुलाई तक बढ़ा दी गई है। यहां इरादा सुरक्षित और जिम्मेदार एआई एप्लिकेशन को प्रोत्साहित करने के तरीकों पर प्रतिक्रिया इकट्ठा करना था। सरकार ने नैतिक ढांचे जैसे स्वैच्छिक उपायों से लेकर विशिष्ट नियमों, या दोनों के संयोजन तक विभिन्न समाधानों की खोज की।
15 अगस्त को लागू अस्थायी नियमों के एक सेट में, चीन ने उत्पादक एआई उद्योग के लिए निरीक्षण उपायों की घोषणा की। इन नियमों के तहत एआई सेवा प्रदाताओं को सार्वजनिक उपभोग के लिए एआई उत्पादों को लॉन्च करने से पहले सुरक्षा मूल्यांकन से गुजरना और अनुमोदन प्राप्त करना आवश्यक है। 31 अगस्त को, चार प्रमुख चीनी तकनीकी फर्मों - जिनमें बायडू इंक और सेंसटाइम ग्रुप शामिल हैं- ने आवश्यक सरकारी अनुमति प्राप्त करने के बाद अपने एआई चैटबॉट को जनता के लिए पेश किया।
संबंधित समाचारों में, यह बताया गया था कि फ्रांस की गोपनीयता निगरानी, सीएनआईएल ने चैटजीपीटी के बारे में कई शिकायतों के बाद अप्रैल में एक जांच शुरू की थी। यह इटली में चैटबॉट पर एक संक्षिप्त प्रतिबंध के बाद हुआ, गोपनीयता उल्लंघन के संदेह पर। मानवाधिकार समूहों द्वारा जारी चेतावनियों की अनदेखी भी नोट की गई थी। 22 नवंबर को, इटली के डेटा संरक्षण प्राधिकरण, एक घरेलू गोपनीयता नियामक, ने एआई एल्गोरिदम के प्रशिक्षण के लिए उपयोग किए जाने वाले डेटा संग्रह विधियों की जांच के लिए एक साक्ष्य-एकत्रीकरण जांच शुरू की।
इस जांच का उद्देश्य सार्वजनिक और निजी दोनों वेबसाइटों पर उचित सुरक्षा उपायों के प्रवर्तन को सत्यापित करना है ताकि व्यक्तिगत डेटा के 'वेब स्क्रैपिंग' को रोका जा सके, जो अनधिकृत संस्थाओं द्वारा एआई प्रशिक्षण के लिए शोषण किया जाने वाला एक सामान्य अभ्यास है।
संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम, ऑस्ट्रेलिया और 15 अन्य जैसे देशों ने हाल ही में छेड़छाड़ के खिलाफ एआई मॉडल की सुरक्षा को बढ़ावा देने के लिए दुनिया भर में दिशानिर्देश जारी किए हैं। यह दृष्टिकोण दृढ़ता से सिफारिश करता है कि कंपनियां अपने मॉडल को 'डिजाइन द्वारा सुरक्षित' बनाती हैं।
संबंधित: कैसे जनरेटिव एआई आर्किटेक्ट्स को प्राचीन शहरों की फिर से कल्पना करने में सक्षम बना रहा है, इस पर अंतर्दृष्टि। क्रिप्टो में वास्तविक एआई अनुप्रयोगों का भी पता लगाएं: क्रिप्टो-केंद्रित एआई बाजार, और वित्तीय विश्लेषण में एआई की भूमिका।
Published At
12/7/2023 12:55:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.