Consultor político indiciado por robocalls gerados por IA imitando o presidente Biden
Summary:
Steven Kramer, um consultor político democrata, foi indiciado pela Procuradoria-Geral de New Hampshire por empregar inteligência artificial para criar robocalls imitando o presidente Joe Biden durante as eleições primárias democratas. Os robocalls desencorajaram os moradores a votar. Kramer defende suas ações como um destaque para os perigos da IA na política. Ele enfrenta 13 acusações de supressão de eleitores, 13 acusações menores de falsificação de identidade e uma multa potencial de US$ 6 milhões da Comissão Federal de Comunicações. A Lingo Telecom, que transmitiu as ligações, pode receber uma multa de US$ 2 milhões da FCC.
Steven Kramer, um consultor político de Nova Orleans, foi acusado de envolvimento na criação e distribuição de telefonemas automatizados que retratavam falsamente o presidente Joe Biden. A Procuradoria-Geral de New Hampshire afirma que Kramer, que estava fazendo campanha para Dean Phillips, um candidato concorrente, está enfrentando acusações por se passar pelo presidente Biden durante as eleições primárias democratas em New Hampshire. O suposto esquema envolvia o uso de inteligência artificial para produzir inúmeras robocalls com uma voz simulada do presidente Biden, dissuadindo os moradores de votar.
Os telefonemas falsificados traziam uma mensagem pedindo aos destinatários que retivessem seus votos até as eleições de novembro, afirmando que só assim seus votos fariam diferença. O procurador-geral John Formella acusou Kramer, de 54 anos, de 13 crimes de supressão de eleitores e 13 contravenções por falsificação de identidade. Uma penalidade proposta de US$ 6 milhões pela Comissão Federal de Comunicações (FCC) também foi aplicada contra Kramer, que foi considerado culpado de violar as regras de identificação de chamadas por meio de seus robocalls deepfake.
A Lingo Telecom, empresa de telefonia responsável pela distribuição das chamadas, está potencialmente enfrentando uma multa de US$ 2 milhões da FCC por rotular indevidamente as chamadas com um atestado de identificação de chamadas de alto nível, tornando mais difícil para outros provedores de serviços identificar a probabilidade de as chamadas serem falsificadas. O procurador-geral Formella expressou sua esperança de que essas medidas punitivas atuem como um poderoso dissuasor contra a interferência eleitoral, envolvendo ou não o uso de inteligência artificial.
A NBC News informou em fevereiro que Kramer tolerou suas ações, defendendo-as como uma posição proativa contra as potenciais ameaças representadas pela IA na política. Ele alegou que os falsos robocalls eram um ato calculado de desobediência civil, projetado para chamar a atenção para os perigos da IA dentro da esfera política.
À luz da crescente apreensão sobre os riscos de conteúdo gerado por IA distorcer a visão dos eleitores às vésperas das eleições de 2024, a equipe de campanha do presidente Biden afirmou que tinha medidas em vigor contra ataques maliciosos de deepfake. A campanha havia criado uma equipe interdepartamental para lidar com possíveis interrupções relacionadas à IA durante as eleições, conforme relatado pela Reuters. O aumento da incidência de deepfakes gerados por IA também foi relatado pelo Cointelegraph em março, enfatizando a necessidade de vigilância dos eleitores. Além disso, vinte empresas de tecnologia de IA de primeira linha se comprometeram em fevereiro a impedir que sua tecnologia influenciasse os resultados eleitorais.
Published At
5/24/2024 6:12:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.