Le cofondateur d’Ethereum affirme que le modèle GPT-4 d’OpenAI passe le test de Turing
Summary:
Le cofondateur d’Ethereum, Vitalik Buterin, affirme que le modèle GPT-4 d’OpenAI a passé le test de Turing, un point de référence pour évaluer les capacités de conversation d’une IA. Il a basé sa déclaration sur une étude de l’UC San Diego où les participants ont identifié par erreur GPT-4 comme humain 56% du temps. L’étude soulève un débat sur l’interprétation du test de Turing et le concept d’intelligence artificielle générale (AGI).
Selon Vitalik Buterin, co-créateur de la populaire crypto-monnaie Ethereum, le modèle d’IA GPT-4 d’OpenAI a passé avec succès le test de Turing. Le terme test de Turing est dérivé du célèbre mathématicien Alan Turing, qui a suggéré la mesure en 1950 pour évaluer à quel point un système d’IA peut imiter une conversation de type humain. Turing a déclaré que si un système d’IA pouvait produire de manière convaincante un texte qui trompe un humain en lui faisant croire qu’il converse avec une autre personne, il affiche une forme de « pensée ».
Le cofondateur d’Ethereum interprète les récentes conclusions de prépublication de l’UC San Diego comme une indication que, pour la première fois, un modèle opérationnel a passé le test de Turing. Le concept mis en avant par un acteur clé dans la création de la deuxième monnaie numérique la plus utilisée, est basé sur des preuves dérivées d’un document de recherche rédigé par des chercheurs de l’Université de Californie à San Diego intitulé « Les gens ne peuvent pas distinguer GPT-4 d’un humain dans un test de Turing ». Dans cette étude, environ 500 personnes ont participé à une expérience à l’aveugle, interagissant avec des humains et des modèles d’IA, visant à déchiffrer leur véritable identité.
Les participants humains ont identifié à tort GPT-4 comme un humain dans 56 % des cas, ce qui indique que le système d’IA les a trompés en leur faisant croire qu’il s’agissait d’un autre partenaire d’interaction la plupart du temps. Contrairement aux idées reçues, le test de Turing et l’intelligence artificielle générale (AGI) sont des entités distinctes, même si elles sont souvent incorrectement échangées. Turing a conçu son test en utilisant son génie mathématique, prévoyant une éventualité où l’IA pourrait embobiner les gens par le dialogue en leur faisant croire qu’ils interagissent avec un autre humain.
Il convient de noter que le test de Turing n’a pas de référence standard, qu’il manque de base technique et qu’il s’agit plutôt d’une construction conceptuelle. Il n’existe pas d’accord scientifique unanime sur la question de savoir si les machines sont capables de « penser » de la même manière que les organismes vivants, ou comment un tel accomplissement pourrait être quantifié. En termes simples, la capacité de l’IA à « penser » ou AGI n’est actuellement pas mesurable ou définie par les communautés scientifiques ou techniques.
Le concept d’IAG, qui est souvent lié au test de Turing, complique encore la question. D’un point de vue scientifique, une « intelligence générale » est une intelligence capable de n’importe quel exploit intellectuel. Aucun humain n’a démontré de capacités « générales » dans toutes ses activités intellectuelles. Par conséquent, une « intelligence artificielle générale » devrait théoriquement posséder des capacités intellectuelles qui dépassent de loin tout humain connu. Cependant, GPT-4 ne répond pas à la définition scientifique stricte d’une « intelligence générale ». Malgré cela, certains passionnés d’IA qualifient à tort d'« AGI » tout système d’IA capable de tromper un nombre important d’humains.
Dans le monde d’aujourd’hui, il est courant d’entendre des termes comme « AGI », « humain » et « réussit le test de Turing » utilisés de manière vague pour désigner tout système d’IA qui produit un contenu similaire à celui produit par les humains.
Published At
5/16/2024 8:35:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.