Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Il NIST cerca il contributo del pubblico per uno sviluppo sicuro ed etico dei sistemi di IA

Algoine News
Summary:
Il National Institute of Standards and Technology (NIST) ha emesso una richiesta di informazioni (RFI) per raccogliere input pubblici sullo sviluppo e l'applicazione sicuri dell'intelligenza artificiale (AI). Sotto la direzione dell'ordine esecutivo del presidente Biden, il NIST sta cercando informazioni sulla gestione del rischio dell'IA generativa e sui modi per ridurre la disinformazione generata dall'IA. L'istituto sta anche sondando le aree efficaci per il red-teaming, una strategia utilizzata per identificare le vulnerabilità del sistema. La richiesta fa parte di un'iniziativa più ampia del NIST per sostenere la comunità dell'IA per lo sviluppo responsabile e affidabile di sistemi di IA, intensificando l'approccio incentrato sull'uomo verso la sicurezza e la governance dell'IA.
Il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti ha emesso una richiesta di informazioni (RFI) nell'ambito dei suoi doveri ai sensi dell'ultimo ordine esecutivo sullo sviluppo e l'implementazione sicuri ed etici dell'intelligenza artificiale (AI). L'istituto ha aperto un processo di input pubblico fino al 2 febbraio per raccogliere informazioni cruciali da utilizzare per testare la sicurezza dei sistemi di intelligenza artificiale. Il Segretario al Commercio Gina Raimondo ha affermato che la direttiva esecutiva di ottobre del presidente Joe Biden, che incarica il NIST di sviluppare linee guida, incoraggiare standard consensuali e costruire ambienti di test per la valutazione dell'IA, motiva questa iniziativa. Questo progetto mira ad aiutare il settore dell'IA nello sviluppo sicuro, affidabile ed etico dell'IA. La richiesta di informazioni da parte del NIST invita le aziende di IA e il pubblico a fornire approfondimenti sulla gestione del rischio dell'IA generativa e sulla riduzione dei rischi di disinformazione indotti dall'IA. L'intelligenza artificiale generativa, in grado di creare testo, immagini e video basati su prompt ambigui, ha suscitato sia entusiasmo che preoccupazioni. Ci sono timori per la perdita di posti di lavoro, per i disordini nelle elezioni e per il potenziale della tecnologia che supera la competenza umana, che potrebbe produrre risultati disastrosi. L'RFI cerca anche informazioni sulle aree ottimali per l'esecuzione del red-teaming durante l'esame del rischio dell'IA e la definizione delle migliori pratiche. Il termine "red-teaming", derivato dalle simulazioni della Guerra Fredda, è usato per riferirsi a un metodo in cui un gruppo, noto come "red team", imita possibili situazioni avverse o attacchi per scoprire i punti deboli e le vulnerabilità di un sistema, un processo o un'organizzazione. Questa tecnica è stata a lungo utilizzata nella sicurezza informatica per rilevare nuove minacce. Una nota correlata è che il primo evento pubblico di red-teaming negli Stati Uniti si è svolto ad agosto in occasione di una conferenza sulla sicurezza informatica organizzata da AI Village, SeedAI e Humane Intelligence. L'annuncio di un nuovo consorzio di IA da parte del NIST a novembre, insieme a un avviso ufficiale che invita a presentare candidature con qualifiche pertinenti, è stata un'importante pietra miliare. L'obiettivo di questo consorzio è quello di sviluppare ed eseguire politiche e misure specifiche per garantire che i responsabili politici statunitensi optino per un approccio incentrato sull'uomo alla sicurezza e all'amministrazione dell'IA.

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch