La Casa Bianca svela una politica completa sull'intelligenza artificiale per gestire i rischi e migliorare la reportistica
Summary:
La Casa Bianca ha introdotto la sua prima politica globale sull'IA che impone alle agenzie federali di riferire sull'uso dell'IA e di affrontare i suoi potenziali rischi entro 60 giorni. Ciò comporta la nomina di un Chief AI Officer e l'integrazione di misure di protezione per il pubblico. Alcuni usi del Dipartimento della Difesa saranno esenti da questa divulgazione. L'Office of Management and Budget cerca di guidare l'uso sicuro ed efficace dell'IA, sottolineando al contempo la necessità di sistemi di IA affidabili. Gli appaltatori governativi sono incoraggiati a rispettare le migliori pratiche. L'amministrazione prevede inoltre di assumere 100 esperti di intelligenza artificiale entro l'estate.
La Casa Bianca ha varato la prima politica onnicomprensiva riguardante la regolamentazione e la gestione del rischio dell'intelligenza artificiale (AI). Ciò richiede che le agenzie governative migliorino i loro rapporti sul suo utilizzo e contemporaneamente affrontino le potenziali minacce che la tecnologia potrebbe rappresentare. Pubblicato il 28 marzo, un memorandum della Casa Bianca ordina agli uffici federali di nominare un chief AI officer, divulgare le operazioni di IA e implementare misure di sicurezza entro i successivi 60 giorni. Questa istruzione è in linea con l'ordine esecutivo sull'IA firmato dal presidente Biden nell'ottobre 2023. La vicepresidente Kamala Harris, in una teleconferenza stampa, ha sottolineato che i leader di tutti i settori, compresi i governi, la società civile e l'industria, hanno la responsabilità di garantire che l'implementazione e lo sviluppo dell'IA siano condotti in modo da evitare danni pubblici massimizzandone i benefici. La nuova norma, un'iniziativa dell'Office of Management and Budget, è concepita per istruire l'intero governo federale su come utilizzare in modo sicuro ed efficiente l'IA alla luce della sua rapida crescita. Anche se il governo è ansioso di utilizzare i vantaggi dell'IA, l'amministrazione Biden è diffidente nei confronti dei rischi emergenti. Come implicito nel memorandum, alcuni casi di utilizzo dell'IA, in particolare all'interno del Dipartimento della Difesa, saranno esenti dalla divulgazione obbligatoria dell'inventario in quanto ciò si opporrebbe alle leggi vigenti e alle politiche governative. Prima del 1° dicembre, le agenzie sono tenute a ideare protezioni specifiche per gli usi dell'IA che potrebbero avere un impatto sulla sicurezza o sui diritti dei cittadini americani. Ad esempio, i viaggiatori dovrebbero essere in grado di rifiutare rapidamente il riconoscimento facciale TSA negli aeroporti. Le agenzie che non implementano queste caratteristiche di sicurezza devono smettere di utilizzare il sistema di IA, a meno che la direzione dell'agenzia non sia in grado di spiegare perché ciò aumenterebbe i rischi per la sicurezza o i diritti o ostacolerebbe le funzioni critiche dell'agenzia. Le attuali regole sull'IA dell'Office of Management and Budget coincidono con la Carta dei diritti sull'IA dell'amministrazione Biden dell'ottobre 2022 e con il quadro di gestione del rischio dell'IA del National Institute of Standards and Technology del gennaio 2023. L'obiettivo di queste iniziative è quello di sottolineare la necessità di creare sistemi di IA affidabili. L'OMB sta anche invitando suggerimenti su come imporre l'adesione alle migliori pratiche tra gli appaltatori governativi che forniscono tecnologia e sta pianificando di garantire la congruenza tra i contratti di IA delle agenzie e la sua politica nel corso dell'anno. Inoltre, l'amministrazione ha rivelato il suo piano per assumere 100 esperti di intelligenza artificiale per ruoli governativi entro l'estate, in linea con la disposizione "ondata di talenti" dell'ordine esecutivo di ottobre.
Published At
3/28/2024 3:12:01 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.