Buterin d’Ethereum, faisant écho à la sensibilité d’OpenAI, met en garde contre les risques de l’IA « superintelligente »
Summary:
Le cofondateur d’Ethereum, Vitalik Buterin, a exprimé ses inquiétudes concernant l’intelligence artificielle (IA) « superintelligente » en relation avec les récents changements chez OpenAI. Son point de vue coïncide avec celui de Jan Leike, ancien responsable de l’alignement chez OpenAI, qui a critiqué le manque d’attention de l’entreprise sur les protocoles de sécurité. Buterin a souligné l’utilisation de modèles ouverts sur le matériel grand public comme moyen d’empêcher le contrôle par un petit groupe d’entreprises. Ses déclarations interviennent alors que le gouvernement britannique examine l’implication croissante des Big Tech dans le secteur de l’IA.
Le cofondateur d’Ethereum, Vitalik Butertin, a récemment exprimé son inquiétude quant au danger potentiel de l’intelligence artificielle (IA) « superintelligente », coïncidant avec les récents remaniements de la direction d’OpenAI. Comme indiqué dans un rapport de Cointelegraph du 19 mai, la transition fait suite à la démission de Jan Leike, ancien responsable de l’alignement chez OpenAI, qui a exprimé son désaccord sur l’objectif principal de l’entreprise. Leike a suggéré que les protocoles de sécurité sont secondaires par rapport aux innovations concurrentielles au sein d’OpenAI, une affirmation que beaucoup soupçonnent d’être liée aux progrès de l’intelligence artificielle générale (AGI). L’IAG, une forme d’IA qui devrait égaler ou dépasser les capacités cognitives humaines, tire la sonnette d’alarme parmi les experts industriels qui affirment que la société n’est pas préparée à gérer de tels systèmes d’IA évolués. Ce point de vue s’aligne sur la propre position de Buterin. Dans un récent article de X, Buterin a souligné une approche prudente à l’égard de ce sujet émergent. Buterin promeut des modèles ouverts fonctionnant sur la technologie grand public, considérés comme une protection contre la monopolisation potentielle par un petit groupe d’entreprises qui pourraient potentiellement contrôler et filtrer la majorité de la cognition humaine. « Des modèles comme ceux-ci présentent beaucoup moins de risques apocalyptiques que les géants de l’entreprise ou les militaires », a ajouté Buterin. Buterin a partagé son point de vue pour la deuxième fois la semaine dernière sur l’IA et ses capacités en évolution rapide. Le 16 mai, il a suggéré que le modèle GPT-4 d’OpenAI avait dépassé le test de Turing, une mesure de la ressemblance d’un modèle d’IA avec le comportement humain. Il a cité des études récentes indiquant que la plupart des gens ne peuvent pas faire la distinction entre interagir avec une machine et un humain. Cependant, Buterin n’est pas un pionnier dans son scepticisme. Le gouvernement britannique a également examiné de près l’influence croissante des Big Tech dans le paysage de l’IA, signalant des problèmes concernant la concurrence et la domination du marché. Des groupes d’activistes comme 6079 AI poussent également sur Internet, faisant pression pour une IA décentralisée afin d’empêcher la domination des géants de la technologie. Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, a annoncé sa démission le 14 mai. Contrairement à son homologue, Sutskever n’a soulevé aucune inquiétude concernant l’AGI dans son post X, exprimant plutôt sa foi dans la capacité d’OpenAI à créer une IAG « sûre et bénéfique ».
Published At
5/21/2024 5:01:33 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.