Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

Comissão Europeia busca detalhes de gerenciamento de risco de IA das principais plataformas online em meio a preocupações com segurança eleitoral

Algoine News
Summary:
A Comissão Europeia solicitou formalmente detalhes às principais plataformas online como Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube e X sobre sua gestão de potenciais riscos de inteligência artificial (IA) generativa que poderiam enganar os eleitores. Essa ação está alinhada às regulamentações da Lei de Serviços Digitais (DSA), que visa mitigar riscos sistêmicos. A segurança eleitoral é o foco principal, com diretrizes a serem finalizadas até 27 de março. A queda dos custos de produção de conteúdo sintético, levando a um risco maior de deepfakes políticos enganosos durante as eleições, é uma preocupação fundamental. Os pedidos, com vencimento até 3 de abril, podem resultar em multas ou penalidades por imprecisões ou falta de resposta.
A Comissão Europeia solicitou formalmente detalhes de várias plataformas, incluindo Bing, Facebook, Google Search, Instagram, SnapChat, TikTok, YouTube e X sobre suas estratégias para gerenciar potenciais riscos ligados ao uso indevido de inteligência artificial (IA) generativa que poderia enganar os eleitores. Em 14 de março, a Comissão declarou que está buscando mais informações sobre as salvaguardas que essas plataformas implementaram para mitigar perigos ligados à IA generativa, como "alucinações", a disseminação generalizada de deepfakes enganosos e manipulação automática de serviços que poderiam alterar as perspectivas dos eleitores. Estes inquéritos, emitidos ao abrigo da Lei dos Serviços Digitais (DSA), que atualiza os regulamentos da UE sobre comércio eletrónico e governação digital, aplicam-se às oito plataformas, uma vez que são identificadas como plataformas em linha muito grandes (VLOPs) necessárias para avaliar e mitigar riscos sistémicos de acordo com as disposições da Lei. "A Comissão procura conhecimento e documentos internos sobre avaliação de riscos e medidas de mitigação relacionadas com o efeito da IA generativa nos processos eleitorais, disseminação de conteúdos ilegais, salvaguarda dos direitos fundamentais, violência baseada no género, proteção das crianças e saúde mental", observou a Comissão, sublinhando que os inquéritos dizem respeito tanto à produção como à disseminação de material de IA generativa. A UE, encarregada de garantir que os VLOPs cumpram os regulamentos específicos do DSA relativos às Big Tech, destacou a segurança eleitoral como uma prioridade primária de aplicação. Recentemente, tem buscado feedback sobre os protocolos de segurança eleitoral para VLOPs, ao mesmo tempo em que cria orientações oficiais neste domínio. A intenção subjacente a estes inquéritos, tal como declarado pela Comissão, é contribuir para o desenvolvimento dessas orientações. Embora essas plataformas tenham até 3 de abril para fornecer dados relativos à segurança eleitoral - um pedido considerado "urgente", a UE aspira concluir as diretrizes de proteção eleitoral até 27 de março. A Comissão sublinhou que os custos de produção de conteúdos sintéticos estão a diminuir significativamente, aumentando assim o risco de deepfakes políticos enganosos serem amplamente partilhados durante as eleições. Isso levou a Comissão a aumentar seu foco em grandes plataformas que podem distribuir amplamente esses deepfakes. Nos termos do artigo 74.º, n.º 2, do DSA, a Comissão reserva-se o direito de impor sanções em caso de fornecimento de informações inexatas, incompletas ou falsas em resposta a esses inquéritos. A falta de resposta por VLOPs e VLOSEs poderia potencialmente acarretar sanções periódicas. Notavelmente, a solicitação de informações pela Comissão Europeia está em meio a um consenso dentro da indústria de tecnologia para lidar com o uso enganoso de IA durante as eleições, que emergiu da Conferência de Segurança de Munique em fevereiro e recebeu apoio de várias plataformas que agora receberam RFIs da Comissão.

Published At

3/15/2024 12:58:19 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch