OpenAI e Microsoft collaborano per contrastare gli attacchi informatici affiliati allo stato che sfruttano gli strumenti di intelligenza artificiale
Summary:
OpenAI e Microsoft hanno collaborato per contrastare cinque attacchi informatici affiliati allo stato che sfruttavano modelli linguistici di grandi dimensioni, tra cui GPT-4 di OpenAI. Gli attacchi, legati a Cina, Iran, Corea del Nord e Russia, miravano a utilizzare l'IA per varie attività informatiche, spingendo OpenAI a rafforzare le sue misure di difesa. Nonostante gli sforzi in corso da parte di OpenAI e di altri per affrontare la sicurezza informatica dell'IA, le minacce persistono, portando oltre 200 organizzazioni ad aderire o formare iniziative incentrate sulla promozione della sicurezza dell'IA e sull'affrontare i problemi di sicurezza informatica.
OpenAI, l'organizzazione dietro il popolare software ChatGPT, ha collaborato con l'investitore principale Microsoft per scongiurare con successo cinque attacchi informatici sostenuti dal governo. Collegati a una selezione di potenze straniere, tra cui l'intelligence militare russa, la Guardia Rivoluzionaria iraniana e i governi cinese e nordcoreano, gli hacker miravano ad affinare le loro abilità utilizzando modelli linguistici di grandi dimensioni (LLM), sofisticati sistemi basati sull'intelligenza artificiale in grado di generare risposte straordinariamente simili a quelle umane attraverso l'analisi di ampi dati testuali.
OpenAI ha identificato le intrusioni informatiche come provenienti da due gruppi cinesi noti come Charcoal Typhoon e Salmon Typhoon. Altri tentativi di infiltrazione sono stati associati all'Iran attraverso Crimson Sandstorm, alla Corea del Nord tramite Emerald Sleet e alla Russia attraverso Forest Blizzard. Secondo OpenAI, i gruppi hanno cercato di utilizzare GPT-4 per vari compiti che vanno dalla ricerca di strumenti aziendali e di sicurezza informatica, alla generazione di script, al debug del codice, all'orchestrazione di campagne di phishing, all'elusione del rilevamento di malware, alla traduzione di documenti tecnici complessi e all'esplorazione della comunicazione satellitare e della tecnologia radar. L'individuazione di tali attività ha comportato la sospensione degli account coinvolti.
Questa scoperta è arrivata mentre OpenAI si stava muovendo per imporre un divieto completo sull'uso di prodotti di intelligenza artificiale da parte di reti di hacking sponsorizzate dallo stato. Sebbene sia riuscita a sventare questi tentativi specifici, l'azienda ha riconosciuto la continua difficoltà di prevenire ogni potenziale uso improprio.
All'indomani di un aumento dei deepfake e delle frodi generate dall'intelligenza artificiale in seguito all'introduzione di ChatGPT, i legislatori hanno intensificato la sorveglianza degli sviluppatori di intelligenza artificiale generativa. Per sostenere i progressi nel campo della sicurezza informatica dell'intelligenza artificiale, OpenAI ha annunciato un programma di sovvenzioni da 1 milione di dollari nel giugno 2023 che mira a rafforzare e quantificare l'influenza delle soluzioni di sicurezza informatica basate sull'intelligenza artificiale.
Nonostante queste misure difensive e il continuo sforzo per evitare la generazione di contenuti dannosi o inadatti da parte di ChatGPT, gli hacker hanno comunque trovato il modo di superare queste barriere, manipolando il chatbot per generare tali contenuti.
Oltre 200 organizzazioni, tra cui OpenAI, Microsoft, Anthropic e Google, hanno recentemente collaborato con l'amministrazione Biden per formare l'AI Safety Institute e l'U.S. AI Safety Institute Consortium (AISIC). Lo sforzo collettivo è progettato per promuovere l'evoluzione sicura dell'intelligenza artificiale, contrastare i deepfake prodotti dall'intelligenza artificiale e affrontare le sfide della sicurezza informatica. Questa iniziativa arriva sulla scia del lancio dell'Istituto per la sicurezza dell'IA degli Stati Uniti (USAISI), creato a seguito dell'ordine esecutivo del presidente Joe Biden di fine ottobre 2023 incentrato sulla sicurezza dell'IA.
Published At
2/15/2024 11:46:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.