Live Chat

Crypto News

Cryptocurrency News 6 months ago
ENTRESRUARPTDEFRZHHIIT

Menace croissante des deepfakes générés par l’IA en politique : le défi des élections de 2024

Algoine News
Summary:
À l’approche des élections de 2024, les États-Unis sont aux prises avec la montée des deepfakes politiques générés par l’IA, dont la fréquence a explosé de 1 740 % en Amérique du Nord. Cette nouvelle tendance à la fraude a conduit à des mesures législatives, telles que l’interdiction des voix générées par l’IA dans les appels automatisés. Cependant, les experts avertissent que les progrès technologiques pourraient bientôt rendre la détection par les yeux humains impossible sans technologies spécialisées. Les solutions suggérées incluent des vérifications obligatoires du contenu par l’IA et la vérification des utilisateurs sur les plateformes de médias sociaux. Les gouvernements du monde entier envisagent des mesures adéquates pour s’attaquer à ce problème, l’Inde cherchant à mettre en place des mécanismes d’approbation et l’Europe établissant des directives sur la désinformation de l’IA.
À l’approche du cycle électoral de 2024, les États-Unis, ainsi que d’autres pays du monde, se préparent à un autre type de défi que posent les nouvelles technologies. L’émergence d’outils d’IA à la disposition du public a déclenché une recrudescence des deepfakes politiques, obligeant les électeurs à aiguiser leurs compétences de discernement pour séparer les faits de la fiction. Mark Warner, le président du renseignement du Sénat, a déclaré le 27 février que les États-Unis étaient moins équipés pour faire face à la fraude électorale à l’approche des élections que lors des élections précédentes de 2020. Cette situation est principalement due à la prolifération des deepfakes générés par l’IA dans le pays au cours de l’année précédente. Les données du service de vérification d’identité SumSub révèlent que l’Amérique du Nord a connu une augmentation considérable de 1 740 % de l’occurrence des deepfakes, avec une augmentation mondiale de dix fois de la détection de ces cas en 2023. Dans un incident choquant, les habitants du New Hampshire ont reçu les 20 et 21 janvier des appels automatisés imitant la voix du président Joe Biden, leur demandant de ne pas voter lors de la primaire du 23 janvier. Cela a conduit les régulateurs américains une semaine plus tard à interdire l’utilisation de voix générées par l’IA dans les escroqueries téléphoniques automatisées, faisant de telles actions une violation des lois américaines sur le télémarketing. Cependant, ces mesures juridiques ne parviennent souvent pas à dissuader les fraudeurs. Alors que le pays se prépare pour le Super Tuesday du 5 mars, un jour où un nombre important d’États américains accueillent des élections primaires et des caucus, les inquiétudes concernant les fausses informations générées par l’IA et les deepfakes montent en flèche. Pavel Goldman Kalaydin, responsable de l’IA et de l’apprentissage automatique chez SumSub, a expliqué comment les électeurs pourraient s’entraîner à reconnaître les deepfakes et à gérer les cas potentiels de fraude à l’identité deepfake. Kalaydin a souligné la nécessité d’identifier les deepfakes créés par des groupes technologiques avancés utilisant des GPU haut de gamme et des modèles d’IA générative et ceux fabriqués par des fraudeurs moins sophistiqués à l’aide d’outils standard. Il a exhorté les électeurs à examiner le contenu et à valider les sources d’information, en différenciant les sources fiables et crédibles des sources ambiguës. Il a identifié plusieurs signes de présence de deepfake, tels que des mouvements incohérents des mains, des arrière-plans artificiels, des changements d’éclairage, des différences de teint de peau, des mouvements oculaires inhabituels, des incohérences de synchronisation des lèvres et des artefacts numériques. Mais il a averti que l’évolution rapide de la technologie pourrait bientôt rendre impossible l’identification humaine des deepfakes sans avoir besoin de technologies de détection spécialisées. Kalaydin a souligné que le problème croissant réside dans la génération de deepfake et sa diffusion ultérieure. Malgré les nombreuses opportunités qu’offre l’accessibilité de l’IA, elle est également responsable de l’augmentation des contenus frauduleux. Il a révélé : « N’importe qui peut accéder à des applications d’échange et transformer du contenu pour raconter de fausses histoires, grâce à la disponibilité de la technologie de l’IA ». Il a ajouté que l’absence de réglementations et de politiques juridiques solides facilitait la propagation de la désinformation en ligne, ce qui induisait les électeurs en erreur, intensifiant le risque de décisions non éclairées. Comme solution potentielle, il a proposé la nécessité de contrôles obligatoires pour les contenus d’IA ou de deepfake sur les plateformes de médias sociaux afin d’informer les utilisateurs. « Pour protéger les utilisateurs contre les fausses informations et les deepfakes, les plateformes doivent mettre en œuvre des technologies de détection des deepfakes et des images pour confirmer l’authenticité du contenu », a-t-il déclaré. Il a en outre suggéré de mettre en œuvre la vérification des utilisateurs sur les plateformes. Les gouvernements du monde entier ont également commencé à réfléchir à des mesures potentielles. Les entreprises technologiques locales en Inde ont été invitées à obtenir l’approbation avant de lancer de nouveaux outils d’IA publics « non fiables » avant les élections de 2024. La Commission européenne a formulé des lignes directrices sur la désinformation liée à l’IA pour les plateformes opérant sur son territoire. Suivant l’exemple de la Commission, Meta, Facebook et la société mère d’Instagram ont lancé leur stratégie pour que l’UE s’attaque à l’abus de l’IA générative dans le contenu de ses plateformes.

Published At

3/5/2024 4:45:25 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch