La US Space Force vieta temporaneamente gli strumenti di intelligenza artificiale per problemi di sicurezza dei dati
Summary:
La United States Space Force ha temporaneamente limitato i suoi membri dall'utilizzo di strumenti di intelligenza artificiale generativa (AI) tra problemi di sicurezza dei dati. La nota indirizzata alla forza lavoro del Guardian evidenzia le preoccupazioni per gli attuali standard di sicurezza informatica e gestione dei dati. La decisione ha avuto un impatto su circa 500 utenti della piattaforma di intelligenza artificiale, "Ask Sage". I critici sostengono che questa mossa potrebbe mettere gli Stati Uniti dietro la Cina in termini di applicazione dell'IA. Altre organizzazioni, tra cui giganti della tecnologia come Apple, Amazon e Samsung, hanno anche imposto restrizioni sull'utilizzo di strumenti di intelligenza artificiale, come ChatGPT, al lavoro.
Nel tentativo di salvaguardare le informazioni del governo, la Space Force degli Stati Uniti ha provvisoriamente vietato ai suoi dipendenti di utilizzare tecnologie di intelligenza artificiale generativa nei loro compiti, secondo recenti resoconti. Un annuncio è stato chiarito agli agenti della Space Force che non sono autorizzati a utilizzare utilità AI basate su Internet, progettate per generare testo, immagini e contenuti multimediali diversi, senza esplicita approvazione, come dettagliato in un articolo di Bloomberg del 12 ottobre che si riferisce a un memo del 29 settembre alla Guardian Workforce (il team della Space Force).
Lisa Costa, vice capo delle operazioni spaziali per la tecnologia e l'innovazione presso la Space Force, ha presumibilmente dichiarato nel memo: "L'IA generativa ha il potenziale per trasformare significativamente la nostra forza lavoro e rafforzare la capacità del Guardiano di condurre operazioni rapide". Tuttavia, Costa ha espresso disagio per l'attuale gestione dei dati e i protocolli di sicurezza informatica, spiegando che l'implementazione dell'intelligenza artificiale e dei modelli di linguaggio di grandi dimensioni (LLM) dovrebbe essere condotta con maggiore responsabilità.
La United States Space Force, la divisione del servizio spaziale delle forze armate statunitensi, è stata incaricata di difendere gli interessi degli Stati Uniti e dei suoi alleati nello spazio. La US Space Force ha imposto un divieto temporaneo sull'uso dell'IA basata sul web e dei sistemi LLM che li alimentano, a causa delle apprensioni sulla sicurezza dei dati e altre questioni, come affermato in una nota acquisita da Bloomberg News.
Almeno 500 individui hanno già sentito l'impatto della decisione della Space Force; avevano utilizzato un protocollo di intelligenza artificiale generativa noto come "Ask Sage", ha riferito Bloomberg, riferendosi alle osservazioni di Nick Chaillan, ex Chief Software Officer sia della United States Air Force che della Space Force. Secondo quanto riferito, Chaillan ha disapprovato la decisione della Space Force, affermando: "Ovviamente, questo ci farà tornare indietro di diversi anni rispetto alla Cina", in una e-mail offesa a Costa e ad altri alti funzionari della difesa a settembre. Chaillan ha descritto la decisione come "estremamente miope". Ha sottolineato che la Central Intelligence Agency degli Stati Uniti e molti dei suoi dipartimenti hanno costruito i propri strumenti di intelligenza artificiale generativa, che soddisfano i requisiti di sicurezza dei dati.
Le preoccupazioni per le LLM che rilasciano inavvertitamente informazioni riservate di dominio pubblico hanno turbato alcuni governi negli ultimi mesi. L'Italia ha brevemente vietato il chatbot AI, ChatGPT, a marzo, a causa di sospette violazioni delle leggi sulla privacy dei dati, prima di ritirare la sua decisione circa un mese dopo. Le aziende tecnologiche come Apple, Amazon e Samsung hanno anche limitato o vietato al loro personale di utilizzare strumenti di intelligenza artificiale simili a ChatGPT sul posto di lavoro.
Published At
10/13/2023 2:29:03 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.