Live Chat

Crypto News

Cryptocurrency News 3 months ago
ENTRESRUARPTDEFRZHHIIT

लियोपोल्ड असचेनब्रेनर ने नई निबंध श्रृंखला में 2027 तक एजीआई प्रभुत्व की भविष्यवाणी की

Algoine News
Summary:
पूर्व OpenAI सुरक्षा शोधकर्ता, लियोपोल्ड असचेनब्रेनर, अपनी नवीनतम "स्थितिजन्य जागरूकता" निबंध श्रृंखला में कृत्रिम सामान्य बुद्धिमत्ता (AGI) की क्षमता और वास्तविकता की पड़ताल करते हैं। वह अनुमान लगाता है कि एजीआई मानव संज्ञानात्मक क्षमताओं को पार कर जाएगा और 2027 तक महत्वपूर्ण राष्ट्रीय सुरक्षा निहितार्थ पैदा करेगा। श्रृंखला कथित सूचना लीक पर OpenAI से Aschenbrenner के प्रस्थान का अनुसरण करती है और AGI- केंद्रित निवेश में उनके वर्तमान उद्यम को भी चिह्नित करती है।
कृत्रिम बुद्धिमत्ता (AI) पर निबंधों की अपनी नवीनतम श्रृंखला में, पूर्व OpenAI सुरक्षा शोधकर्ता लियोपोल्ड असचेनब्रेनर कृत्रिम सामान्य बुद्धिमत्ता (AGI) पर बहुत अधिक ध्यान केंद्रित करते हैं। "सिचुएशनल अवेयरनेस" शीर्षक से, श्रृंखला वर्तमान एआई प्रौद्योगिकियों और आगामी दस वर्षों के लिए उनकी गहन क्षमता का अवलोकन प्रदान करती है। पूरी श्रृंखला, जो 165 पृष्ठों में फैली हुई है, को 4 जून को अपडेट किया गया था। निबंध विशेष रूप से एजीआई पर प्रकाश डालते हैं, एक प्रकार का एआई जिसमें विभिन्न प्रकार के संज्ञानात्मक कार्यों में मानव कार्यक्षमता को पूरा करने या उससे अधिक करने की क्षमता होती है। AGI आर्टिफिशियल नैरो इंटेलिजेंस (ANI) और आर्टिफिशियल सुपर-इंटेलिजेंस (ASI) सहित कई अलग-अलग AI श्रेणियों में से एक है। Aschenbrenner का कहना है कि 2027 तक AGI को देखना उल्लेखनीय रूप से प्रशंसनीय है। उनका अनुमान है कि एजीआई मशीनें 2025 या 2026 तक कॉलेज के स्नातकों की क्षमताओं को पार कर जाएंगी। जैसा कि वह कहते हैं, दशक के अंत तक एजीआई मशीनें लोगों की तुलना में अधिक बुद्धिमान हो जाएंगी, जिससे वास्तविक सुपर-इंटेलिजेंस हो जाएगा। एजीआई के लिए यह रास्ता, वह अनुमान लगाता है, महत्वपूर्ण राष्ट्रीय सुरक्षा निहितार्थ को जन्म देगा। Aschenbrenner के अनुसार, AI सिस्टम संभावित रूप से एक पेशेवर कंप्यूटर वैज्ञानिक के बराबर बौद्धिक क्षमता विकसित कर सकते हैं। वह साहसपूर्वक अनुमान लगाते हैं कि एआई प्रयोगशालाएं केवल मिनटों के भीतर एक सामान्यीकृत भाषा मॉडल को प्रशिक्षित करने में सक्षम होंगी। उनका दृष्टिकोण यह है कि 2027 में, एक अग्रणी AI लैब केवल एक मिनट में GPT-4-स्तरीय मॉडल को प्रशिक्षित कर सकती है। Aschenbrenner AGI की वास्तविकता को स्वीकार करने के लिए प्रोत्साहित करता है, इसकी सफलता की भविष्यवाणी करता है। उनकी राय में, एआई उद्योग में सबसे बुद्धिमान दिमागों ने संयुक्त राज्य अमेरिका की राष्ट्रीय सुरक्षा और एआई विकास से संबंधित तीन मुख्य सिद्धांतों के आधार पर 'एजीआई यथार्थवाद' का दृष्टिकोण अपनाया है। Aschenbrenner की AGI श्रृंखला सूचना लीक के कथित उदाहरणों का अनुसरण करती है जिसके कारण OpenAI से उनकी विदाई हुई। यह भी बताया गया है कि उन्हें OpenAI के मुख्य वैज्ञानिक, इल्या सुत्स्केवर के साथ जोड़ा गया था, जिन्होंने 2023 में OpenAI के सीईओ, सैम ऑल्टमैन को हटाने का प्रयास किया था। Aschenbrenner के नवीनतम कार्य Sutskever को समर्पित हैं। हाल ही में, Aschenbrenner ने AGI पर ध्यान केंद्रित करने वाली एक निवेश कंपनी की स्थापना की, जिसमें स्ट्राइप के सीईओ पैट्रिक कॉलिसन जैसे आंकड़ों से महत्वपूर्ण निवेश थे। अन्य समाचारों में, क्रिप्टोक्यूरेंसी मतदाता कथित तौर पर पहले से ही 2024 के चुनावों में हलचल पैदा कर रहे हैं, एक प्रवृत्ति जो जारी रहने का अनुमान है।

Published At

6/5/2024 5:15:28 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch