OpenAI और Microsoft भागीदार AI उपकरणों का शोषण करने वाले राज्य-संबद्ध साइबर हमलों को विफल करने के लिए
Summary:
OpenAI और Microsoft ने OpenAI के GPT-4 सहित बड़े भाषा मॉडल का शोषण करने वाले पांच राज्य-संबद्ध साइबर हमलों को विफल करने के लिए सहयोग किया। चीन, ईरान, उत्तर कोरिया और रूस से जुड़े हमलों का उद्देश्य विभिन्न साइबर गतिविधियों के लिए एआई का उपयोग करना था, जिससे ओपनएआई को अपने रक्षा उपायों को सुदृढ़ करने के लिए प्रेरित किया गया। OpenAI और अन्य द्वारा AI साइबर सुरक्षा को संबोधित करने के लिए चल रहे प्रयासों के बावजूद, खतरे बने हुए हैं, जिससे 200 से अधिक संगठन AI सुरक्षा को बढ़ावा देने और साइबर सुरक्षा मुद्दों को संबोधित करने पर केंद्रित पहल में शामिल हुए या बनाते हैं।
OpenAI, लोकप्रिय ChatGPT सॉफ़्टवेयर के पीछे का संगठन, ने सरकार समर्थित पांच साइबर हमलों को सफलतापूर्वक रोकने के लिए प्राथमिक निवेशक Microsoft के साथ मिलकर काम किया है। रूसी सैन्य खुफिया, ईरान के रिवोल्यूशनरी गार्ड, साथ ही चीनी और उत्तर कोरियाई सरकारों सहित विदेशी शक्तियों के चयन से जुड़े, हैकर्स ने बड़े भाषा मॉडल (एलएलएम), एआई पर आधारित परिष्कृत प्रणालियों का उपयोग करके अपने कौशल को सुधारने का लक्ष्य रखा है जो व्यापक पाठ्य डेटा के विश्लेषण के माध्यम से प्रभावशाली मानव जैसी प्रतिक्रियाएं उत्पन्न कर सकते हैं।
OpenAI ने साइबर घुसपैठ की पहचान दो चीनी समूहों से की है जिन्हें चारकोल टाइफून और सैल्मन टाइफून के रूप में जाना जाता है। अन्य घुसपैठ के प्रयास ईरान के साथ क्रिमसन सैंडस्टॉर्म, उत्तर कोरिया के माध्यम से एमराल्ड स्लीट और रूस के माध्यम से जुड़े थे वन बर्फ़ीला तूफ़ान. OpenAI के अनुसार, समूहों ने कॉर्पोरेट और साइबर सुरक्षा उपकरण अनुसंधान, स्क्रिप्ट जनरेशन, कोड डिबगिंग, फ़िशिंग अभियानों को ऑर्केस्ट्रेट करने, मैलवेयर का पता लगाने, जटिल तकनीकी पत्रों का अनुवाद करने और उपग्रह संचार और रडार प्रौद्योगिकी की खोज से लेकर विभिन्न कार्यों के लिए GPT-4 का उपयोग करने की मांग की। इन गतिविधियों का पता चलने के कारण इसमें शामिल खातों को निलंबित कर दिया गया।
यह खोज तब हुई जब OpenAI राज्य-प्रायोजित हैकिंग नेटवर्क द्वारा AI उत्पादों के उपयोग पर व्यापक प्रतिबंध लगाने के लिए आगे बढ़ रहा था। हालांकि इन विशिष्ट प्रयासों को विफल करने में सफल, कंपनी ने हर संभावित दुरुपयोग को रोकने की चल रही कठिनाई को पहचाना।
चैटजीपीटी की शुरुआत के बाद एआई-जनित डीपफेक और धोखाधड़ी की बढ़ती घटना के बाद, सांसदों ने जनरेटिव एआई डेवलपर्स की निगरानी बढ़ा दी है। एआई साइबर सुरक्षा के क्षेत्र में प्रगति का समर्थन करने के लिए, OpenAI ने जून 2023 में $1 मिलियन अनुदान कार्यक्रम की घोषणा की जिसका उद्देश्य एआई-आधारित साइबर सुरक्षा समाधानों के प्रभाव को मजबूत करना और उसकी मात्रा निर्धारित करना है।
इन रक्षात्मक उपायों और ChatGPT द्वारा हानिकारक या अनुपयुक्त सामग्री के निर्माण से बचने के निरंतर प्रयास के बावजूद, हैकर्स ने अभी भी इन बाधाओं को दूर करने के तरीके खोजे हैं, ऐसी सामग्री उत्पन्न करने के लिए चैटबॉट में हेरफेर किया है।
OpenAI, Microsoft, Anthropic और Google सहित 200 से अधिक संगठनों ने हाल ही में AI सुरक्षा संस्थान और U.S. AI सुरक्षा संस्थान कंसोर्टियम (AISIC) बनाने के लिए बिडेन प्रशासन के साथ भागीदारी की। सामूहिक प्रयास को कृत्रिम बुद्धिमत्ता के सुरक्षित विकास को बढ़ावा देने, एआई-उत्पादित डीपफेक का मुकाबला करने और साइबर सुरक्षा चुनौतियों में भाग लेने के लिए डिज़ाइन किया गया है। यह पहल यूएस एआई सेफ्टी इंस्टीट्यूट (यूएसएआईएसआई) के लॉन्च के मद्देनजर आई है, जिसे एआई सुरक्षा पर ध्यान केंद्रित करने वाले राष्ट्रपति जो बिडेन के अक्टूबर 2023 के अंत में कार्यकारी आदेश के बाद बनाया गया था।
Published At
2/15/2024 11:46:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.