Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI et Microsoft s’associent pour contrecarrer les cyberattaques affiliées à des États exploitant des outils d’IA

Algoine News
Summary:
OpenAI et Microsoft ont collaboré pour contrecarrer cinq cyberattaques affiliées à des États qui exploitaient de grands modèles de langage, y compris GPT-4 d’OpenAI. Les attaques, liées à la Chine, à l’Iran, à la Corée du Nord et à la Russie, visaient à utiliser l’IA pour diverses cyberactivités, ce qui a incité OpenAI à renforcer ses mesures de défense. Malgré les efforts continus d’OpenAI et d’autres pour lutter contre la cybersécurité de l’IA, les menaces persistent, ce qui a conduit plus de 200 organisations à rejoindre ou à former des initiatives axées sur la promotion de la sécurité de l’IA et la résolution des problèmes de cybersécurité.
OpenAI, l’organisation à l’origine du populaire logiciel ChatGPT, s’est associée à l’investisseur principal Microsoft pour parer avec succès cinq cyberattaques soutenues par le gouvernement. Liés à une sélection de puissances étrangères, dont les services de renseignement militaires russes, les Gardiens de la révolution iraniens, ainsi que les gouvernements chinois et nord-coréen, les pirates avaient pour objectif d’affiner leurs compétences à l’aide de grands modèles de langage (LLM), des systèmes sophistiqués basés sur l’IA qui peuvent générer des réponses impressionnantes de type humain grâce à l’analyse de nombreuses données textuelles. OpenAI a identifié les cyber-intrusions comme provenant de deux groupes chinois connus sous le nom de Charcoal Typhoon et Salmon Typhoon. D’autres tentatives d’infiltration ont été associées à l’Iran par le biais de Crimson Sandstorm, à la Corée du Nord par le biais d’Emerald Sleet et à la Russie par le biais de Forest Blizzard. Selon OpenAI, les groupes ont cherché à utiliser GPT-4 pour diverses tâches allant de la recherche d’outils d’entreprise et de cybersécurité, à la génération de scripts, au débogage de code, à l’orchestration de campagnes de phishing, à l’évasion de la détection de logiciels malveillants, à la traduction de documents techniques complexes et à l’exploration de la communication par satellite et de la technologie radar. La détection de ces activités a conduit à la suspension des comptes concernés. Cette découverte est intervenue alors qu’OpenAI s’apprêtait à imposer une interdiction complète de l’utilisation de produits d’IA par les réseaux de piratage parrainés par l’État. Bien qu’elle ait réussi à contrecarrer ces tentatives spécifiques, l’entreprise a reconnu qu’il était toujours difficile de prévenir toute utilisation abusive potentielle. À la suite d’une augmentation des deepfakes et des fraudes générés par l’IA à la suite de l’introduction de ChatGPT, les législateurs ont renforcé leur surveillance des développeurs d’IA générative. Pour soutenir les avancées dans le domaine de la cybersécurité de l’IA, OpenAI a annoncé un programme de subventions de 1 million de dollars en juin 2023 qui vise à renforcer et à quantifier l’influence des solutions de cybersécurité basées sur l’IA. Malgré ces mesures défensives et les efforts continus pour éviter la génération de contenu nuisible ou inapproprié par ChatGPT, les pirates ont toujours trouvé des moyens de contourner ces barrières, en manipulant le chatbot pour générer un tel contenu. Plus de 200 organisations, dont OpenAI, Microsoft, Anthropic et Google, se sont récemment associées à l’administration Biden pour former l’AI Safety Institute et l’U.S. AI Safety Institute Consortium (AISIC). L’effort collectif est conçu pour favoriser l’évolution sûre de l’intelligence artificielle, contrer les deepfakes produits par l’IA et relever les défis de la cybersécurité. Cette initiative fait suite au lancement de l’Institut américain de sécurité de l’IA (USAISI), créé à la suite du décret du président Joe Biden fin octobre 2023 axé sur la sécurité de l’IA.

Published At

2/15/2024 11:46:18 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch