La Cina pubblica progetti di regolamento sulla sicurezza dell'IA; Mira a guidare l'IA entro il 2030
Summary:
La Cina ha emesso una bozza di regolamento in materia di sicurezza dei servizi di intelligenza artificiale generativa (AI). Le regole richiedono valutazioni sui dati utilizzati nell'addestramento dell'IA e i contenuti che promuovono comportamenti dannosi saranno inseriti nella lista nera. Queste restrizioni si applicano anche ai dati soggetti alla censura cinese su Internet. Le aziende devono ottenere consensi individuali per l'utilizzo dei dati personali, comprese le informazioni biometriche. Le recenti normative arrivano tra le ambizioni della Cina di diventare un leader globale nell'IA entro il 2030.
La Cina ha emesso progetti di regolamenti relativi alle misure di sicurezza per le aziende che offrono servizi di intelligenza artificiale generativa (AI), che includono limitazioni sulle fonti di dati utilizzate per l'educazione al modello di intelligenza artificiale. Le regole provvisorie sono state annunciate mercoledì 11 ottobre dal National Information Security Standardization Committee, che comprende delegati della Cyberspace Administration of China (CAC), del Ministero dell'Industria e dell'Information Technology e delle forze dell'ordine. L'IA generativa, vista nei risultati del chatbot ChatGPT di OpenAI, sviluppa la capacità di intraprendere operazioni attraverso lo studio di record storici, generando nuovi contenuti come testo e immagini da questa istruzione.
Secondo il comitato, le valutazioni di sicurezza dovrebbero essere effettuate sui contenuti utilizzati per educare modelli di IA generativa disponibili al pubblico. I contenuti con oltre "il 5% sotto forma di informazioni illegali e dannose" devono essere inseriti nella lista nera. Ciò include contenuti che promuovono il terrorismo, la violenza, la distruzione del sistema socialista, la diffamazione della posizione della nazione e il comportamento che mina l'unità nazionale e la stabilità sociale. I regolamenti suggeriti sottolineano inoltre che i dati sotto la censura cinese di Internet non dovrebbero essere utilizzati per addestrare questi modelli.
Questo annuncio arriva poco più di un mese dopo che i regolatori hanno permesso alle principali aziende tecnologiche cinesi, tra cui Baidu, leader dei motori di ricerca, di lanciare al pubblico i loro chatbot generativi integrati nell'intelligenza artificiale. Il CAC ha regolarmente espresso la necessità per le aziende di presentare rapporti di valutazione della sicurezza alle entità di regolamentazione prima di rendere pubblici i servizi generativi controllati dall'IA da aprile. A luglio, l'organismo di regolamentazione del cyberspazio ha emesso una serie di regolamenti che supervisionano questi servizi, che gli osservatori del settore hanno sottolineato essere considerevolmente meno rigorosi rispetto alle regole originali di aprile.
L'ultima bozza di disposizioni sulla sicurezza impone alle aziende impegnate nella formazione di questi modelli di IA di ottenere un chiaro consenso da parte di individui i cui dati specifici, che incorporano informazioni biometriche, vengono utilizzati a fini educativi. Inoltre, le regole contengono direttive approfondite su come evitare violazioni della proprietà intellettuale.
A livello internazionale, i paesi stanno affrontando la sfida di elaborare norme normative per questa tecnologia. La Cina considera l'IA come un'area in cui cerca di eguagliare gli Stati Uniti e mira ad affermarsi come leader mondiale in questo settore entro il 2030.
Published At
10/13/2023 10:12:34 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.