Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI présente une équipe de « préparation » pour contrer les catastrophes potentielles de l’IA

Algoine News
Summary:
OpenAI, la société de recherche et de développement en IA, a annoncé sa nouvelle initiative, « Preparedness », axée sur les menaces potentielles de l’IA. Cette équipe, dirigée par Aleksander Madry, surveillera, évaluera, anticipera et minimisera les risques catastrophiques potentiels découlant de l’IA. Les principaux domaines d’intérêt seront les menaces chimiques, biologiques, radiologiques et nucléaires, la persuasion individualisée, la cybersécurité et l’adaptation autonome à la réplication. En parallèle, OpenAI a lancé un défi de préparation à l’IA, offrant 25 000 $ en crédits API aux meilleures soumissions. Le cabinet sollicite également des candidats de diverses disciplines techniques pour se joindre à la nouvelle équipe.
OpenAI, l’organisation responsable du développement et de la recherche de la technologie de l’IA, y compris ChatGPT, lance un nouveau plan stratégique pour identifier et traiter un large éventail de dangers liés à l’IA. L’organisation a révélé le 25 octobre qu’elle mettait sur pied une équipe spécialisée pour identifier, évaluer, prévoir de manière proactive et se protéger contre les dangers désastreux potentiels résultant de l’application de la technologie de l’IA. Baptisée « Préparation », cette division d’OpenAI se concentrera principalement sur les risques potentiels de l’IA associés aux dommages chimiques, biologiques, radiologiques et nucléaires, ainsi que sur la persuasion personnalisée, la cybersécurité, la réplication et l’évolution autonomes. Dirigée par Aleksander Madry, l’équipe de préparation s’efforcera de déterminer l’étendue du danger que les systèmes d’IA frontaliers pourraient présenter lorsqu’ils sont mal utilisés et si ces systèmes pourraient être efficacement utilisés par des individus malveillants qui ont acquis des poids de modèles d’IA volés. OpenAI a déclaré : « Les modèles d’IA de pointe, avec leur potentiel de surpasser les capacités des modèles les plus sophistiqués actuellement existants, offrent la promesse d’être extrêmement bénéfiques pour l’humanité. » Pourtant, l’entreprise a également avoué les risques toujours croissants que présentent ces modèles. L’entreprise a ajouté : « Nous prenons au sérieux tous les risques de sécurité liés à l’IA, des systèmes actuels aux sommets imaginables de superintelligence. Pour assurer la sécurité des systèmes d’IA sophistiqués, nous affinons notre stratégie de préparation aux risques catastrophiques. OpenAI a expliqué dans son article de blog qu’elle est actuellement à la recherche de personnes qualifiées issues de divers horizons techniques pour rejoindre l’équipe de préparation. De plus, ils ont lancé le défi de préparation à l’IA pour encourager les initiatives visant à prévenir les abus catastrophiques, les 10 meilleures candidatures recevant 25 000 $ en crédits API. Il convient de noter que la société avait révélé son intention de mettre en place une équipe chargée de traiter les risques potentiels liés à l’IA en juillet 2023. L’accent a été mis sur les dangers liés à la technologie de l’IA, ainsi que sur le fait que l’IA pourrait potentiellement surpasser l’intellect humain. Bien qu’elles soient conscientes de ces risques, des entreprises telles qu’OpenAI ont continué à faire progresser activement la technologie de l’IA, alimentant ainsi de nouvelles appréhensions. En mai 2023, l’organisation à but non lucratif Center for AI Safety a publié une lettre publique mettant l’accent sur les risques liés à l’IA, exhortant à une action collective pour réduire le risque d’extinction humaine dû à l’IA, ainsi qu’à d’autres menaces à grande échelle telles que les pandémies et la guerre nucléaire.

Published At

10/27/2023 10:03:00 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch