Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI lance une initiative de « préparation » pour lutter contre les risques liés à l’IA et atténuer les menaces potentielles

Algoine News
Summary:
OpenAI lance une initiative appelée « Préparation » pour évaluer et atténuer les risques à large spectre associés à l’IA. L’initiative se concentrera sur les menaces potentielles de l’IA, notamment les menaces chimiques, biologiques, radiologiques et nucléaires, la persuasion individuelle, la cybersécurité et la réplication autonome. Dirigée par Aleksander Madry, l’équipe étudiera les dangers de l’utilisation abusive des systèmes d’IA de pointe. OpenAI a également lancé un défi de préparation à l’IA pour la prévention des abus catastrophiques, avec 25 000 $ de crédits API à attribuer pour les meilleures soumissions.
OpenAI, la société responsable du développement de technologies d’IA comme ChatGPT, lance un projet visant à évaluer divers dangers potentiels associés à l’IA. Dévoilé le 25 octobre, OpenAI est en train de structurer une équipe unique dont l’objectif principal sera d’étudier, de prédire et d’atténuer les dangers potentiels qui pourraient découler de l’utilisation de la technologie de l’IA. Cette équipe, appelée « Préparation », portera une attention particulière aux risques potentiels liés à l’IA, notamment les menaces chimiques, biologiques, radiologiques et nucléaires, la persuasion individuelle, la cybersécurité, ainsi que la réplication et les adaptations spontanées. L’équipe, guidée par Aleksander Madry, est chargée de comprendre des questions critiques telles que le niveau de danger qu’un système d’IA avancé peut poser lorsqu’il est mal utilisé ou si, en cas de vol, il pourrait être déployé par des éléments nuisibles. « Les modèles d’IA de pointe », a déclaré OpenAI, « ont le potentiel d’être bénéfiques pour l’humanité mondiale. » De même, ils ont soutenu que ces modèles d’IA pourraient également présenter des « risques de plus en plus graves ». Exposant le point de vue de l’entreprise, OpenAI a déclaré : « Nous reconnaissons et prenons sérieusement en considération toutes les formes de risques de sécurité associés à l’IA, des systèmes d’aujourd’hui aux extrêmes extrêmes de la superintelligence... Pour assurer la sécurité des systèmes d’IA hautement performants, nous affinons notre approche pour faire face à la préparation aux risques catastrophiques. En plus de créer la nouvelle division, OpenAI lance un défi visant à prévenir l’utilisation abusive catastrophique de l’IA, promettant 25 000 $ en crédits API aux 10 meilleures soumissions. L’entreprise a également annoncé qu’elle était à la recherche de talents issus de divers horizons techniques pour faire partie de l’équipe de préparation. OpenAI avait précédemment laissé entendre qu’il mettrait en place une équipe axée sur la lutte contre les dangers potentiels de l’IA en juillet 2023. Traditionnellement, les dangers potentiels associés à l’intelligence artificielle sont souvent soulignés, ce qui fait craindre que ces systèmes d’IA ne surpassent un jour l’intelligence humaine. Malgré ces craintes, des entreprises comme OpenAI ont activement poursuivi le développement de nouvelles technologies d’IA, suscitant par inadvertance plus de suspicion et d’anxiété. Dans un développement comparable, le Center for AI Safety, une organisation à but non lucratif, a publié en mai 2023 une lettre ouverte mettant l’accent sur les risques liés à l’IA. Le centre estime que les risques posés par l’IA doivent être sérieusement pris en compte à l’échelle mondiale, aux côtés d’autres risques à l’échelle sociétale, tels que les pandémies et la guerre nucléaire.

Published At

10/27/2023 10:03:56 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch