Il Parlamento europeo approva la storica legge dell'UE sull'IA, aprendo la strada a una regolamentazione globale dell'IA
Summary:
Il Parlamento europeo ha approvato l'EU AI Act, uno dei primi regolamenti completi sull'IA al mondo. La legge mira a garantire la sicurezza, il rispetto dei diritti fondamentali e il sostegno all'innovazione. Classifica i sistemi di IA in base al rischio che rappresentano, da "inaccettabile" a "minimo". La legislazione richiede agli sviluppatori di IA di fornire riepiloghi dettagliati dei loro dati di addestramento per lo sviluppo del sistema e di aderire alla legge dell'UE sul diritto d'autore. L'atto, inizialmente respinto dalle aziende tecnologiche, ha recentemente ricevuto elogi da IBM. Simboleggia un passo avanti nella promozione di ecosistemi di IA aperti e affidabili.
Il 14 marzo, l'AI Act dell'Unione Europea è diventato legge con l'approvazione esplicita del Parlamento Europeo, aprendo la strada a una regolamentazione completa dell'IA a livello globale. La legge, applicabile in 27 Stati membri dell'UE, mira a garantire che la tecnologia di IA sia sicura e rispetti i diritti fondamentali all'interno dell'UE, promuovendo allo stesso tempo l'innovazione, come affermato sul sito web del Parlamento europeo. L'approvazione legislativa ha ottenuto 523 voti a favore, 46 contrari e 49 astensioni.
Prima di esprimere il proprio voto, si è tenuta una conferenza stampa virtuale, in cui i membri del Parlamento europeo Brando Benifei e Dragos Tudorache hanno espresso le loro opinioni ai media, etichettandolo come un giorno importante nel viaggio verso la regolamentazione dell'IA. Benifei ha sottolineato che la legge consentirebbe lo sviluppo di un'IA che dia priorità alla sicurezza e a un approccio antropocentrico, secondo le aree prioritarie delineate dal Parlamento europeo.
Questa legislazione, inizialmente proposta cinque anni fa, ha guadagnato slancio nell'ultimo anno in coincidenza con lo sviluppo e la diffusione di massa di modelli di IA influenti. Dopo lunghi negoziati, il Parlamento è giunto a un accordo provvisorio nel dicembre 2023. Successivamente, l'accordo è stato approvato con 71 voti a favore e 8 contrari dalle commissioni per il mercato interno e le libertà civili il 13 febbraio. Durante la votazione finale, Tudorache ha sottolineato l'importanza della cooperazione internazionale nella governance dell'IA.
A seguito di questa azione legislativa, durante la fase di traduzione della legge saranno apportati piccoli adeguamenti linguistici che ne garantiranno la comprensione in tutte le lingue degli Stati membri. Una seconda procedura di voto per il disegno di legge avverrà quindi ad aprile, con la sua pubblicazione sulla gazzetta ufficiale dell'UE che probabilmente seguirà a maggio, come riportato da EuroNews. Da novembre in poi inizieranno ad essere applicati i divieti sulle pratiche vietate, come confermato da Benifei.
L'AI Act dell'UE classifica i modelli di apprendimento automatico in quattro categorie in base ai livelli di rischio sociale, con i modelli ad alto rischio soggetti a normative più severe. La categoria più alta, "rischio inaccettabile", vieta i sistemi di IA che rappresentano una minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone. Ciò include il punteggio sociale governativo per i giocattoli dell'assistente vocale che inducono comportamenti rischiosi.
Le applicazioni ad alto rischio comprendono, tra l'altro, le infrastrutture critiche, l'istruzione e la formazione professionale, i componenti per la sicurezza dei prodotti e le forze dell'ordine, che interferiscono con i diritti fondamentali delle persone. La categoria "rischio limitato" riguarda la trasparenza nell'uso dell'IA con esempi come l'interazione con i chatbot AI e l'identificazione obbligatoria dei contenuti generati dall'IA. Per assistere le organizzazioni nella conformità, l'UE ha sviluppato uno strumento, "The EU AI Act Compliance Checker".
La legge prevede inoltre l'"uso gratuito" di applicazioni di IA "a rischio minimo", compresi i videogiochi abilitati all'IA e i filtri antispam, che secondo l'UE costituiscono attualmente la stragrande maggioranza dei sistemi di IA in uso nell'UE.
I modelli di intelligenza artificiale generativa hanno ricevuto disposizioni aggiuntive grazie alla loro popolarità e all'accessibilità dei chatbot di intelligenza artificiale, tra cui ChatGPT, Grok e Gemini. Gli sviluppatori di modelli di IA generici sono tenuti a presentare riepiloghi dettagliati dei loro dati di addestramento utilizzati per lo sviluppo del sistema e a rispettare la legge dell'UE sul diritto d'autore.
Sebbene l'AI Act dell'UE abbia già affrontato il contraccolpo delle imprese locali e delle aziende tecnologiche che mettevano in guardia sull'eccessiva regolamentazione che ostacola l'innovazione, ha ricevuto recenti elogi dal gigante del settore IBM. Christina Montgomery, Vice President e Chief Privacy and Trust Officer di IBM, ha elogiato l'UE per aver approvato una legislazione intelligente e completa sull'IA che bilancia i rischi, si allinea con le pratiche etiche di IA di IBM e promuove ecosistemi di IA aperti e affidabili.
Published At
3/13/2024 2:57:48 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.