Il co-fondatore di Ethereum afferma che il modello GPT-4 di OpenAI supera il test di Turing
Summary:
Il co-fondatore di Ethereum, Vitalik Buterin, afferma che il modello GPT-4 di OpenAI ha superato il test di Turing, un punto di riferimento per valutare le capacità di conversazione di un'intelligenza artificiale simile a quella umana. Ha basato la sua dichiarazione su uno studio della UC San Diego in cui i partecipanti hanno erroneamente identificato GPT-4 come umano il 56% delle volte. Lo studio solleva un dibattito sull'interpretazione del Test di Turing e sul concetto di Intelligenza Artificiale Generale (AGI).
Secondo Vitalik Buterin, co-creatore della popolare criptovaluta Ethereum, il modello di intelligenza artificiale GPT-4 di OpenAI ha superato con successo il test di Turing. Il termine Test di Turing deriva dal famoso matematico Alan Turing, che suggerì la misura nel 1950 per valutare quanto un sistema di intelligenza artificiale possa emulare una conversazione simile a quella umana. Turing ha dichiarato che se un sistema di intelligenza artificiale è in grado di produrre in modo convincente un testo che inganna un essere umano facendogli credere che sta conversando con un'altra persona, mostra una forma di "pensiero".
Il co-fondatore di Ethereum interpreta i recenti risultati del preprint della UC San Diego come un'indicazione che, per la prima volta, un modello operativo ha superato il test di Turing. Il concetto proposto da un attore chiave nella creazione della seconda valuta digitale più utilizzata, si basa su prove derivate da un documento di ricerca redatto dai ricercatori dell'Università della California di San Diego intitolato "Le persone non possono distinguere GPT-4 da un essere umano in un test di Turing". In questo studio, circa 500 individui hanno partecipato a un esperimento alla cieca, interagendo con esseri umani e modelli di intelligenza artificiale, con l'obiettivo di decifrare le loro vere identità.
I partecipanti umani hanno erroneamente identificato GPT-4 come un essere umano il 56% delle volte, indicando che il sistema di intelligenza artificiale li ha ingannati facendogli credere che fosse un partner di interazione il più delle volte. Contrariamente alle percezioni errate comuni, il Test di Turing e l'Intelligenza Artificiale Generale (AGI) sono entità distinte, anche se spesso vengono scambiate in modo errato. Turing progettò il suo test utilizzando la sua genialità matematica, prevedendo un'eventualità in cui l'IA avrebbe potuto ingannare le persone attraverso il dialogo facendole credere che stessero interagendo con un altro essere umano.
Il punto da notare è che il test di Turing non ha un benchmark standard, manca di una base tecnica ed è più un costrutto concettuale. Non esiste un accordo scientifico unanime sul fatto che le macchine siano in grado di "pensare" in modo simile agli organismi viventi, o su come un tale risultato possa essere quantificato. In parole povere, la capacità dell'IA di "pensare" o AGI non è attualmente misurabile o definita dalle comunità scientifiche o tecniche.
Il concetto di AGI, che è spesso collegato al test di Turing, complica ulteriormente la questione. Da un punto di vista scientifico, una "intelligenza generale" è capace di qualsiasi impresa intellettuale. Nessun essere umano ha dimostrato abilità "generali" in tutte le attività intellettuali. Quindi, una "intelligenza artificiale generale" dovrebbe teoricamente possedere capacità intellettuali che superano di gran lunga qualsiasi essere umano conosciuto. Tuttavia, GPT-4 non soddisfa la rigorosa definizione scientifica di "intelligenza generale". Nonostante ciò, alcuni appassionati di IA etichettano erroneamente come "AGI" qualsiasi sistema di IA in grado di ingannare un numero considerevole di esseri umani.
Nel mondo di oggi, è comune sentire termini come "AGI", "simile all'uomo" e "supera il test di Turing" usati liberamente per riferirsi a qualsiasi sistema di intelligenza artificiale che produca contenuti simili a quelli prodotti dagli esseri umani.
Published At
5/16/2024 8:35:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.