लियोपोल्ड असचेनब्रेनर ने नई निबंध श्रृंखला में 2027 तक एजीआई प्रभुत्व की भविष्यवाणी की
Summary:
पूर्व OpenAI सुरक्षा शोधकर्ता, लियोपोल्ड असचेनब्रेनर, अपनी नवीनतम "स्थितिजन्य जागरूकता" निबंध श्रृंखला में कृत्रिम सामान्य बुद्धिमत्ता (AGI) की क्षमता और वास्तविकता की पड़ताल करते हैं। वह अनुमान लगाता है कि एजीआई मानव संज्ञानात्मक क्षमताओं को पार कर जाएगा और 2027 तक महत्वपूर्ण राष्ट्रीय सुरक्षा निहितार्थ पैदा करेगा। श्रृंखला कथित सूचना लीक पर OpenAI से Aschenbrenner के प्रस्थान का अनुसरण करती है और AGI- केंद्रित निवेश में उनके वर्तमान उद्यम को भी चिह्नित करती है।
कृत्रिम बुद्धिमत्ता (AI) पर निबंधों की अपनी नवीनतम श्रृंखला में, पूर्व OpenAI सुरक्षा शोधकर्ता लियोपोल्ड असचेनब्रेनर कृत्रिम सामान्य बुद्धिमत्ता (AGI) पर बहुत अधिक ध्यान केंद्रित करते हैं। "सिचुएशनल अवेयरनेस" शीर्षक से, श्रृंखला वर्तमान एआई प्रौद्योगिकियों और आगामी दस वर्षों के लिए उनकी गहन क्षमता का अवलोकन प्रदान करती है। पूरी श्रृंखला, जो 165 पृष्ठों में फैली हुई है, को 4 जून को अपडेट किया गया था।
निबंध विशेष रूप से एजीआई पर प्रकाश डालते हैं, एक प्रकार का एआई जिसमें विभिन्न प्रकार के संज्ञानात्मक कार्यों में मानव कार्यक्षमता को पूरा करने या उससे अधिक करने की क्षमता होती है। AGI आर्टिफिशियल नैरो इंटेलिजेंस (ANI) और आर्टिफिशियल सुपर-इंटेलिजेंस (ASI) सहित कई अलग-अलग AI श्रेणियों में से एक है।
Aschenbrenner का कहना है कि 2027 तक AGI को देखना उल्लेखनीय रूप से प्रशंसनीय है। उनका अनुमान है कि एजीआई मशीनें 2025 या 2026 तक कॉलेज के स्नातकों की क्षमताओं को पार कर जाएंगी। जैसा कि वह कहते हैं, दशक के अंत तक एजीआई मशीनें लोगों की तुलना में अधिक बुद्धिमान हो जाएंगी, जिससे वास्तविक सुपर-इंटेलिजेंस हो जाएगा। एजीआई के लिए यह रास्ता, वह अनुमान लगाता है, महत्वपूर्ण राष्ट्रीय सुरक्षा निहितार्थ को जन्म देगा।
Aschenbrenner के अनुसार, AI सिस्टम संभावित रूप से एक पेशेवर कंप्यूटर वैज्ञानिक के बराबर बौद्धिक क्षमता विकसित कर सकते हैं। वह साहसपूर्वक अनुमान लगाते हैं कि एआई प्रयोगशालाएं केवल मिनटों के भीतर एक सामान्यीकृत भाषा मॉडल को प्रशिक्षित करने में सक्षम होंगी। उनका दृष्टिकोण यह है कि 2027 में, एक अग्रणी AI लैब केवल एक मिनट में GPT-4-स्तरीय मॉडल को प्रशिक्षित कर सकती है।
Aschenbrenner AGI की वास्तविकता को स्वीकार करने के लिए प्रोत्साहित करता है, इसकी सफलता की भविष्यवाणी करता है। उनकी राय में, एआई उद्योग में सबसे बुद्धिमान दिमागों ने संयुक्त राज्य अमेरिका की राष्ट्रीय सुरक्षा और एआई विकास से संबंधित तीन मुख्य सिद्धांतों के आधार पर 'एजीआई यथार्थवाद' का दृष्टिकोण अपनाया है।
Aschenbrenner की AGI श्रृंखला सूचना लीक के कथित उदाहरणों का अनुसरण करती है जिसके कारण OpenAI से उनकी विदाई हुई। यह भी बताया गया है कि उन्हें OpenAI के मुख्य वैज्ञानिक, इल्या सुत्स्केवर के साथ जोड़ा गया था, जिन्होंने 2023 में OpenAI के सीईओ, सैम ऑल्टमैन को हटाने का प्रयास किया था। Aschenbrenner के नवीनतम कार्य Sutskever को समर्पित हैं।
हाल ही में, Aschenbrenner ने AGI पर ध्यान केंद्रित करने वाली एक निवेश कंपनी की स्थापना की, जिसमें स्ट्राइप के सीईओ पैट्रिक कॉलिसन जैसे आंकड़ों से महत्वपूर्ण निवेश थे।
अन्य समाचारों में, क्रिप्टोक्यूरेंसी मतदाता कथित तौर पर पहले से ही 2024 के चुनावों में हलचल पैदा कर रहे हैं, एक प्रवृत्ति जो जारी रहने का अनुमान है।
Published At
6/5/2024 5:15:28 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.