Buterin di Ethereum, facendo eco alla sensibilità di OpenAI, mette in guardia dai rischi dell'IA "superintelligente"
Summary:
Il co-fondatore di Ethereum, Vitalik Buterin, ha espresso preoccupazione per l'intelligenza artificiale (AI) "superintelligente" in relazione ai recenti cambiamenti di OpenAI. Le sue opinioni coincidono con quelle di Jan Leike, ex capo dell'allineamento di OpenAI, che ha criticato la mancanza di attenzione dell'azienda sui protocolli di sicurezza. Buterin ha enfatizzato l'uso di modelli aperti sull'hardware consumer come un modo per impedire il controllo da parte di un piccolo gruppo di aziende. Le sue dichiarazioni arrivano mentre il governo del Regno Unito esamina il crescente coinvolgimento delle Big Tech nel settore dell'intelligenza artificiale.
Il co-fondatore di Ethereum, Vitalik Butertin, ha recentemente espresso la sua preoccupazione per il potenziale pericolo dell'intelligenza artificiale (AI) "superintelligente", in coincidenza con i recenti scossoni alla leadership di OpenAI. Come indicato in un report di Cointelegraph del 19 maggio, la transizione ha fatto seguito alle dimissioni di Jan Leike, precedente responsabile dell'allineamento di OpenAI, che ha espresso il suo dissenso sull'obiettivo principale dell'azienda. Leike ha suggerito che i protocolli di sicurezza sono passati in secondo piano rispetto alle innovazioni competitive all'interno di OpenAI, un'affermazione che molti sospettano sia correlata ai progressi dell'intelligenza artificiale generale (AGI). L'AGI, una forma di IA che dovrebbe eguagliare o superare le capacità cognitive umane, solleva campanelli d'allarme tra gli esperti industriali che sostengono che la società è impreparata a gestire sistemi di IA così evoluti. Questo punto di vista è in linea con la posizione di Buterin. In un recente post su X, Buterin ha sottolineato un approccio cauto nei confronti di questo argomento emergente. Buterin promuove modelli aperti che operano sulla tecnologia di consumo, visti come protezione contro la potenziale monopolizzazione da parte di un piccolo gruppo di aziende che potrebbero potenzialmente controllare e filtrare la maggior parte della cognizione umana. "Modelli come questi pongono un rischio apocalittico significativamente inferiore rispetto ai giganti aziendali o alle forze armate", ha aggiunto Buterin. Buterin ha condiviso le sue opinioni per la seconda volta nell'ultima settimana sull'intelligenza artificiale e sulle sue capacità in rapida evoluzione. Il 16 maggio, ha suggerito che il modello GPT-4 di OpenAI ha superato il test di Turing, una misura della somiglianza di un modello di intelligenza artificiale con il comportamento umano. Ha citato studi recenti che affermano che la maggior parte delle persone non è in grado di distinguere tra l'interazione con una macchina e un essere umano. Tuttavia, Buterin non è un pioniere nel suo scetticismo. Il governo del Regno Unito ha anche esaminato da vicino la crescente influenza delle Big Tech nel panorama dell'IA, segnalando questioni relative alla concorrenza e al dominio del mercato. Gruppi di attivisti come 6079 AI stanno spuntando anche su Internet, facendo pressioni per l'IA decentralizzata per prevenire il dominio dei giganti della tecnologia. Ilya Sutskever, co-fondatore e capo scienziato di OpenAI, ha annunciato le sue dimissioni il 14 maggio. A differenza della sua controparte, Sutskever non ha sollevato alcuna preoccupazione sull'AGI nel suo post su X, esprimendo invece la sua fiducia nella capacità di OpenAI di creare un'AGI "sicura e vantaggiosa".
Published At
5/21/2024 5:01:33 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.