L'intelligenza artificiale generale è prevista entro il 2025, afferma Singularity.net fondatore
Summary:
Ben Goertzel, fondatore di Singularity.net e creatore del termine Artificial General Intelligence (AGI), prevede di avere un modello AGI di base operativo già nel 2025. Nel suo progetto, include stratagemmi per salvaguardare il beneficio universale dell'AGI, riducendo al minimo il controllo aziendale o governativo. Goertzel supporta in gran parte l'approccio di accelerazione difensiva di Vitalik Buterin alla creazione di un'intelligenza artificiale superintelligente, che bilancia i progressi con potenziali minacce esistenziali. Pur riconoscendo i rischi associati all'AGI, Goertzel ritiene che i potenziali benefici li superino in modo significativo.
Il creatore del termine Artificial General Intelligence (AGI), Ben Goertzel, non vede l'ora di avere un modello AGI operativo di base già il prossimo anno. Nel Beneficial AGI Summit di Panama, Goertzel ha condiviso un piano di creazione dell'AGI che può garantirne l'utilizzabilità per il bene comune, tenendolo lontano dalle strette morse di entità aziendali o governative. Il concetto di AGI raffigura un sistema di intelligenza artificiale in grado di completare qualsiasi compito cognitivo che gli esseri umani possono eseguire. Nel suo piano, Goertzel assicura l'inclusione di una serie di algoritmi AGI, una struttura cognitiva aperta, dati gestiti e ottenuti in modo etico, un'infrastruttura e una governance non centralizzate, utilizzando codice open source e una portata globale.
Come ha spiegato il fondatore di Singularity.net in un'intervista a Cointelegraph, questo piano supporta tutto ciò che fanno nell'ecosistema AI di Singularity.net. L'obiettivo è quello di creare sistemi di intelligenza artificiale in grado di accettare qualsiasi approccio di intelligenza artificiale, sperando che anche un "genio di 12 anni del Tagikistan" sia in grado di dare un contributo significativo. In qualità di ex capo scienziato di Hanson Robotics, l'azienda responsabile del robot umanoide "Sophia", Goertzel ritiene che un framework su cui ha lavorato, OpenCog Hyperon, potrebbe fare un passo avanti.
Hyperon, la cui versione alpha è prevista per aprile, è definita in un documento di ricerca collaborativa come "un framework per l'AGI a livello umano e oltre" che racchiude le metodologie, i software e le nozioni più recenti. Il software di Goertzel offre un set completo di strumenti per costruire l'AGI iniziale o "baby AGI", con l'intenzione di scalare massicciamente il sistema entro la fine dell'anno. Ha concluso che una forma semplice e precoce di AGI, che ha definito "AGI fetale", potrebbe essere pronta già nel 2025.
Goertzel concorda con la teoria dell'accelerazione difensiva (d/acc) di Vitalik Buterin nella creazione di un'IA altamente intelligente, un compromesso tra gli accelerazionisti che preferiscono uno sviluppo rapido a causa dei suoi vantaggi e i decelerazionisti che sostengono un ritmo più lento date le potenziali minacce esistenziali. Sostiene l'accelerazione dei progressi con l'AGI in quanto è probabilmente l'approccio più utile, ma sconsiglia di concentrare il potere sull'AGI in un'unica entità.
Nel suo libro "The Consciousness Explosion", Goertzel suggerisce che l'AGI potrebbe rivoluzionare la vita umana, eliminando la monotonia del lavoro ripetitivo, ponendo fine a tutti i disturbi fisici e mentali, mitigando gli effetti dell'invecchiamento e potenzialmente sradicando la morte involontaria. Riconoscendo gli alti rischi associati all'AGI, Goertzel sostiene che questi potenziali benefici superano i rischi. I rischi che ha menzionato includono lo sviluppo nazionale dell'AGI per gli interessi nazionali, l'implementazione di AGI non etiche che aumentano il divario di ricchezza, una significativa attività di lobbying da parte delle aziende per le normative AGI che le favoriscono e la remota possibilità che l'IA vada in tilt. Nonostante queste minacce, sostiene che non possiamo prevedere completamente ogni risultato, poiché stiamo attraversando un terreno completamente sconosciuto.
Published At
2/28/2024 3:07:05 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.