Meta présente un plan pour freiner l’utilisation abusive de l’IA dans les élections avant les élections européennes de 2024
Summary:
Meta, la société mère de Facebook et Instagram, a détaillé ses plans pour empêcher l’utilisation abusive de l’IA et maintenir l’intégrité des élections sur ses plateformes, en particulier pour les prochaines élections parlementaires européennes de 2024. La société a l’intention d’appliquer ses politiques communautaires et publicitaires standard au contenu généré par l’IA, et développe des fonctionnalités pour étiqueter ce contenu, quel que soit l’outil utilisé pour la création. De nouvelles fonctionnalités devraient également permettre aux utilisateurs de divulguer lorsqu’ils partagent des médias produits par l’IA. L’entreprise, ainsi que d’autres géants de la technologie, reconnaît les risques d’ingérence électorale basée sur l’IA et prend des mesures pour les réduire.
Meta, la société propriétaire de Facebook et Instagram, a décrit son plan pour lutter contre les abus de l’IA dans le but de maintenir la crédibilité des élections sur ses plateformes, avant les élections parlementaires européennes de juin 2024. Dans un billet de blog publié le 25 février, le responsable des affaires européennes de Meta, Marco Pancini, a souligné que les « normes communautaires » et les « normes publicitaires » qui régissent la plateforme s’appliqueront également au contenu créé par l’IA. Il a poursuivi en disant que le contenu produit par l’IA peut être examiné et évalué par des vérificateurs de faits indépendants, et qu’une évaluation indiquera si le contenu a été « altéré », ce qui indique la modification ou la falsification de l’audio, de la vidéo ou de l’imagerie. À l’heure actuelle, les politiques de Meta stipulent que les images photoréalistes créées à l’aide des outils d’IA internes de Meta doivent être clairement marquées. Meta a également dévoilé son intention d’étiqueter le contenu créé par l’IA à l’aide d’autres plateformes telles que Google, OpenAI, Microsoft et Adobe que les utilisateurs publient sur l’une de ses plateformes.
Meta a également annoncé son intention d’introduire une fonctionnalité qui permet aux utilisateurs d’indiquer quand ils ont partagé de la vidéo ou de l’audio produit par l’IA. Le non-respect de cette consigne peut entraîner des pénalités. En particulier, les annonceurs qui utilisent l’IA pour modifier ou créer des publicités politiques, sociales ou électorales doivent le divulguer. Dans l’article de blog, il a été rapporté qu’entre juillet et décembre 2023, Meta a supprimé 430 000 publicités dans l’UE pour ne pas avoir inclus de clause de non-responsabilité.
Cette question a attiré l’attention alors que de nombreuses élections mondiales sont prévues pour 2024. Avant cette récente mise à jour, Meta et Google ont partagé leurs points de vue sur les réglementations concernant les publicités politiques construites par l’IA sur leurs plateformes. Le 19 décembre, Google a annoncé qu’il limiterait les réponses aux questions électorales sur son chatbot IA Gemini à l’approche de l’élection présidentielle américaine de 2024. OpenAI, le créateur du chatbot d’IA ChatGPT, a également cherché à apaiser les craintes concernant l’ingérence de l’IA dans les élections mondiales en établissant des normes internes pour superviser l’activité sur ses plateformes. Le 17 février, 20 entreprises, dont Microsoft, Google, Meta et OpenAI, ont signé un engagement à lutter contre l’ingérence électorale de l’IA, reconnaissant le risque potentiel s’il n’est pas géré.
Partout dans le monde, les gouvernements ont également pris des mesures pour lutter contre les abus de l’IA à l’approche des élections régionales. La Commission européenne a lancé une consultation publique sur les lignes directrices proposées en matière de sécurité électorale afin d’atténuer les menaces démocratiques que représentent l’IA générative et les deepfakes. Aux États-Unis, les voix produites par l’IA dans le cadre d’une fraude téléphonique automatisée ont été interdites et déclarées illégales à la suite de leur utilisation dans des appels automatisés frauduleux impliquant un deepfake du président Joe Biden, ce qui induisait le public en erreur.
Published At
2/26/2024 3:54:27 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.