Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

Leopold Aschenbrenner prevê domínio da AGI até 2027 em nova série de ensaios

Algoine News
Summary:
O ex-pesquisador de segurança da OpenAI, Leopold Aschenbrenner, explora o potencial e a realidade da inteligência artificial geral (AGI) em sua mais recente série de ensaios "Consciência Situacional". Ele prevê que a AGI supere as habilidades cognitivas humanas e cause implicações significativas para a segurança nacional até 2027. A série segue a saída de Aschenbrenner da OpenAI por supostos vazamentos de informações e também marca sua atual empreitada em investimentos focados em AGI.
Em sua última série de ensaios sobre inteligência artificial (IA), o ex-pesquisador de segurança da OpenAI Leopold Aschenbrenner se concentra fortemente na inteligência artificial geral (AGI). Intitulada "Consciência Situacional", a série fornece uma visão geral das tecnologias atuais de IA e seu profundo potencial para os próximos dez anos. Toda a série, que tem 165 páginas, foi atualizada no dia 4 de junho. Os ensaios destacam particularmente o AGI, um tipo de IA que tem a capacidade de cumprir ou até mesmo exceder a funcionalidade humana em uma variedade de tarefas cognitivas. A AGI é uma das várias categorias diferentes de IA, incluindo Inteligência Artificial Estreita (ANI) e Superinteligência Artificial (ASI). Aschenbrenner afirma que ver a AGI até 2027 é extremamente plausível. Ele prevê que as máquinas AGI superarão as capacidades dos graduados universitários até 2025 ou 2026. Como ele diz, as máquinas AGI se tornarão mais inteligentes do que as pessoas até o final da década, levando a uma verdadeira superinteligência. Esse caminho para a AGI, ele antecipa, levará a implicações significativas de segurança nacional. De acordo com Aschenbrenner, os sistemas de IA podem potencialmente desenvolver habilidades intelectuais iguais às de um cientista da computação profissional. Ele também especula corajosamente que os laboratórios de IA serão capazes de treinar um modelo de linguagem generalizada em poucos minutos. Sua perspectiva é que, em 2027, um laboratório pioneiro de IA poderia treinar um modelo de nível GPT-4 em apenas um minuto. Aschenbrenner encoraja a aceitação da realidade da AGI, prevendo seu sucesso. Em sua opinião, as mentes mais inteligentes da indústria de IA adotaram um ponto de vista de "realismo AGI", baseado em três princípios fundamentais relacionados à segurança nacional dos Estados Unidos e à evolução da IA. A série AGI de Aschenbrenner segue supostos casos de vazamentos de informações que levaram à sua saída da OpenAI. Também foi relatado que ele estava alinhado com o cientista-chefe da OpenAI, Ilya Sutskever, que tentou remover o CEO da OpenAI, Sam Altman, em 2023. Os mais recentes trabalhos de Aschenbrenner são dedicados a Sutskever. Mais recentemente, Aschenbrenner fundou uma empresa de investimentos com foco em AGI, com investimentos significativos de figuras como Patrick Collison, CEO da Stripe. Em outras notícias, os eleitores de criptomoedas já estariam causando um alvoroço nas eleições de 2024, uma tendência que deve persistir.

Published At

6/5/2024 5:15:28 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch