Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

मेटा नाबालिगों के हेरफेर पर बहुराज्य मुकदमे का सामना करता है; एआई-जनित दुरुपयोग सामग्री में खतरनाक वृद्धि

Algoine News
Summary:
फेसबुक और इंस्टाग्राम की मूल कंपनी मेटा को अपने प्लेटफॉर्म पर कम उम्र के उपयोगकर्ताओं के अनुचित हेरफेर के लिए 34 अमेरिकी राज्यों से मुकदमे का सामना करना पड़ रहा है। आरोप मेटा के एल्गोरिदम के आसपास केंद्रित हैं जो नशे की लत व्यवहार को बढ़ावा देते हैं और नाबालिगों की मानसिक भलाई को नकारात्मक रूप से प्रभावित करते हैं। मुकदमा कृत्रिम बुद्धिमत्ता (एआई) में तेजी से प्रगति के बीच उभरता है, जिसका उपयोग मेटा सुरक्षा और विश्वास के मुद्दों को संबोधित करने के लिए कर रहा है। ब्रिटेन में, इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) ने एआई-जनित बाल यौन शोषण सामग्री में वृद्धि के बारे में चिंता व्यक्त की है और इस परेशान प्रवृत्ति को रोकने के लिए वैश्विक उपायों का आह्वान किया है।
सोशल मीडिया दिग्गज फेसबुक और इंस्टाग्राम के मालिक मेटा को 34 अमेरिकी राज्यों से मुकदमे का सामना करना पड़ रहा है। आरोप में आरोप लगाया गया है कि कंपनी अपने प्लेटफॉर्म पर कम उम्र के उपयोगकर्ताओं के साथ अनैतिक हेरफेर करती है। ऐसा प्रतीत होता है कि यह कानूनी कार्रवाई कृत्रिम बुद्धिमत्ता (एआई) में तेजी से प्रगति के बीच उभरी है, विशेष रूप से पाठ और जनन एआई जैसे क्षेत्रों में। कैलिफोर्निया, न्यूयॉर्क, ओहियो, साउथ डकोटा, वर्जीनिया और लुइसियाना सहित राज्यों ने मेटा पर "लाइक" बटन जैसी सुविधाओं के माध्यम से नशे की लत प्रवृत्तियों को प्रोत्साहित करने और युवा उपयोगकर्ताओं के मानसिक स्वास्थ्य को हानिकारक रूप से प्रभावित करने के लिए अपने एल्गोरिदम का फायदा उठाने का आरोप लगाया है। मेटा के मुख्य एआई वैज्ञानिक ने हाल ही में एआई प्रौद्योगिकी से जुड़े संभावित जोखिमों के बारे में चिंताओं को संबोधित करने के बावजूद, कंपनी ने अपने प्लेटफार्मों के भीतर सुरक्षा और विश्वास बढ़ाने के लिए एआई का उपयोग किया है। लेकिन विभिन्न राज्यों से कानूनी चुनौती बेरोकटोक जारी है। कोर्टलिसनर साइट पर फाइलिंग इमेज सोर्स से पता चला है कि राज्यों के कानूनी प्रतिनिधि अलग-अलग मात्रा में वित्तीय क्षतिपूर्ति का पीछा कर रहे हैं, जो प्रति कथित उल्लंघन $ 5,000 से $ 25,000 तक भिन्न है। इस लेख के समय तक, मेटा तक पहुंचने के बावजूद, Cointelegraph को कंपनी से कोई प्रतिक्रिया नहीं मिली है। इसके साथ ही, यूके स्थित इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) ने एआई-जनित बाल यौन शोषण सामग्री (सीएसएएम) की घातीय वृद्धि के बारे में चेतावनी जारी की है। आईडब्ल्यूएफ ने हाल ही में केवल 30 दिनों के भीतर एक डार्क वेब प्लेटफॉर्म पर एआई द्वारा निर्मित 20,254 सीएसएएम छवियों की खोज की। समूह ने चेतावनी दी है कि सामग्री की इस तरह की परेशान करने वाली बाढ़ से इंटरनेट की बाढ़ का खतरा है। सीएसएएम में वृद्धि से निपटने के लिए, यूके संगठन एक अंतरराष्ट्रीय एकीकृत दृष्टिकोण का आह्वान कर रहा है। वे मौजूदा कानून को संशोधित करने, कानून प्रवर्तन एजेंसियों के प्रशिक्षण में सुधार करने और एआई मॉडल के लिए नियामक निरीक्षण को लागू करने के संयोजन की सलाह देते हैं। बाल शोषण सामग्री निर्माण में एआई डेवलपर्स के योगदान को सीमित करने के लिए, आईडब्ल्यूएफ ने एआई-जनित हानिकारक सामग्री पर प्रतिबंध, संबंधित मॉडलों के बहिष्करण और एआई मॉडल से ऐसी सामग्री को खत्म करने पर जोर देने का प्रस्ताव दिया है। जनरेटिव एआई छवि जनरेटर की प्रगति के साथ, ठोस मानव समानता के प्रजनन में स्पष्ट रूप से सुधार हुआ है। मिडजर्नी, रनवे, स्टेबल डिफ्यूजन और ओपनएआई के डैल-ई जैसे प्लेटफॉर्म, जो अत्यधिक यथार्थवादी छवियां उत्पन्न करते हैं, इस प्रगति को प्रदर्शित करते हैं।

Published At

10/26/2023 10:11:58 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚧 Platform is in prototype mode — bot activations are currently unavailable, but you’re welcome to explore all other features!

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy