Yann LeCun smentisce l'hype dell'IA: l'IA a livello umano non è imminente, l'IA open source non è una minaccia
Summary:
Il Chief AI Scientist di Meta, Yann LeCun, respinge l'idea che i modelli di apprendimento linguistico (LLM) come ChatGPT e Claude raggiungeranno presto un'intelligenza artificiale equivalente a quella umana. In un'intervista, non è d'accordo con l'attenzione di Mark Zuckerberg sull'AGI (Artificial General Intelligence), preferendo il termine "IA a livello umano". Inoltre, ha minimizzato i timori che le IA open source mettano in pericolo l'umanità, affermando che qualsiasi "IA distruttiva" verrebbe abbattuta da IA più intelligenti e benigne.
Yann LeCun, Chief AI Scientist di Meta, ha recentemente espresso la sua opinione secondo cui i modelli linguistici ad alta capacità (LLM), tra cui ChatGPT e Claude, non sono sul punto di raggiungere un'intelligenza artificiale (AI) equivalente a quella umana. In un'intervista con Time Magazine, LeCun ha discusso il concetto di intelligenza artificiale generale (AGI), un termine ambiguo che si riferisce a un'ipotetica IA in grado di gestire qualsiasi compito se dotata di risorse sufficienti. Non esiste alcun accordo tra gli scienziati in merito ai criteri che un'IA dovrebbe soddisfare per qualificarsi come AGI. Eppure Mark Zuckerberg, CEO e fondatore di Meta, ha sollevato le sopracciglia quando ha rivelato che Meta ha spostato la sua attenzione verso lo sviluppo dell'AGI. Zuckerberg ha chiarito in un'intervista a Verge che l'obiettivo era quello di costruire "un'intelligenza generale" per facilitare i prodotti che intendevano creare.
Mentre Zuckerberg estende la sua attenzione all'AGI, una discrepanza sembra frapporsi tra lui e LeCun, in particolare, in termini di terminologia. Nel suo dialogo con Time, LeCun ha espresso la sua antipatia per il termine "AGI", preferendo invece "l'IA a livello umano", notando che gli esseri umani stessi non incarnano un'intelligenza generale completa. Per quanto riguarda gli LLM, una branca dell'intelligenza artificiale che comprende LLama-2 di Meta, ChatGPT di OpenAI e Gemini di Google, la posizione di LeCun è che tali modelli non sono nemmeno lontanamente vicini al livello di intelligenza di un gatto, per non parlare degli esseri umani. I compiti che svolgiamo ripetutamente senza pensarci due volte si rivelano molto intricati da replicare per i computer, rendendo così l'AGI o l'IA a livello umano non una prospettiva immediata, ma piuttosto un obiettivo a lungo termine che richiede significativi progressi concettuali.
LeCun ha anche riflettuto sul dibattito esistente sul fatto che i sistemi di intelligenza artificiale open source, come LLama-2 di Meta, possano potenzialmente mettere in pericolo l'umanità. Ha decisamente respinto l'idea che l'IA rappresenti un pericolo sostanziale. In risposta all'ipotetica situazione di un essere umano in cerca di dominio che programmi tali intenzioni in un'IA, l'argomentazione di LeCun è stata che se tali "IA distruttive" esistessero, esisterebbero anche "IA più intelligenti e benevole" in grado di neutralizzarle. Nelle notizie correlate, è stato notato che il valore totale di Bitcoin è pronto a superare quello di Meta mentre la criptovaluta continua a salire.
Published At
2/14/2024 7:22:51 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.