La FCC dichiara illegali le chiamate automatiche che utilizzano voci generate dall'intelligenza artificiale negli Stati Uniti
Summary:
La Federal Communications Commission (FCC) ha dichiarato che le chiamate automatiche che utilizzano voci generate dall'intelligenza artificiale sono ora illegali negli Stati Uniti. La decisione di questa FCC è stata influenzata da un incidente nel New Hampshire in cui sono stati utilizzati falsi messaggi vocali che impersonavano il presidente Joe Biden per dissuadere le persone dal votare. Le leggi esistenti considerano già illegali le truffe robocall ai sensi del Telephone Consumer Protection Act (TCPA) e la nuova sentenza include la "tecnologia di clonazione vocale" in questa illegalità. La FCC ha anche sottolineato che le chiamate supportate dall'intelligenza artificiale sono aumentate di recente, con il potenziale di fuorviare i consumatori imitando le voci di celebrità, personaggi politici e familiari.
A seguito di una nuova sentenza della Federal Communications Commission (FCC), le chiamate automatiche che utilizzano l'intelligenza artificiale per generare voci sono state ritenute illegali negli Stati Uniti. La FCC ha dichiarato l'8 febbraio che la decisione unanime classifica le chiamate facilitate attraverso voci guidate dall'intelligenza artificiale come "artificiali" secondo le linee guida del Telephone Consumer Protection Act (TCPA). Questo regolamento autorizza i procuratori generali dello Stato a perseguire le entità che partecipano a tali pratiche fraudolente. La sentenza è stata sollecitata poco dopo che il popolo del New Hampshire è stato ingannato da falsi messaggi vocali che replicavano la voce del presidente Joe Biden, esortandoli a non partecipare alle elezioni primarie prevalenti.
Le leggi esistenti classificano già le truffe robocall come illegali ai sensi del TCPA, una legislazione statunitense che monitora le pratiche di telemarketing. Il recente proclama identifica anche la "tecnologia di clonazione vocale" utilizzata in queste truffe come illegale. La FCC ha confermato che la norma entra in vigore immediatamente. La presidente della FCC Jessica Rosenworcel ha sottolineato che queste attività fraudolente, che includono l'estorsione di individui vulnerabili e la diffusione di informazioni false, abusano delle voci abilitate all'intelligenza artificiale. Con questa sentenza, le entità responsabili di tali pratiche scorrette dovranno affrontare le conseguenze.
In precedenza, il 31 gennaio, la FCC aveva suggerito di rendere illegali le truffe robocall abilitate all'intelligenza artificiale ai sensi del TCPA, una legge del 1991 che limita le chiamate politiche e di marketing automatizzate effettuate senza l'approvazione del destinatario. L'obiettivo principale è quello di proteggere i consumatori dalle comunicazioni indesiderate, limitando le chiamate di telemarketing, l'impiego di sistemi di composizione automatica e i messaggi vocali artificiali o preregistrati.
Le linee guida della FCC impongono inoltre agli operatori di telemarketing di chiedere il consenso scritto dei consumatori prima di qualsiasi attività di chiamate automatiche. La recente sentenza allineerà le chiamate vocali generate dall'intelligenza artificiale a questi standard. La FCC ha avvertito che le chiamate assistite dall'intelligenza artificiale sono aumentate negli ultimi anni, potenzialmente fuorviando i consumatori duplicando le voci di personaggi famosi, candidati politici o parenti stretti. La sentenza consente alle forze dell'ordine di addebitare ai truffatori l'utilizzo dell'intelligenza artificiale nella generazione di voci per le chiamate automatiche, al di là delle truffe o frodi previste.
Presumibilmente, la truffa che coinvolgeva le chiamate automatiche che emulavano la voce di Biden a metà gennaio è stata fatta risalire a una società con sede in Texas chiamata Life Corporation e a un individuo, Walter Monk. Nel 2022 l'Election Law Unit ha emesso un ordine di cessazione e desistenza nei confronti della Life Corporation per aver violato il Titolo LXIII degli statuti rivisti del New Hampshire, comunicando corruzione, intimidazione e soppressione. L'ordine richiede l'esecuzione immediata, consentendo all'unità di eseguire ulteriori azioni esecutive fondate su una condotta anteriore.
Published At
2/9/2024 4:44:49 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.