Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Un robot robotisé généré par l’IA a été retracé jusqu’à Life Corporation : une utilisation abusive suscite des inquiétudes à l’échelle mondiale

Algoine News
Summary:
Life Corporation et un individu, Walter Monk, ont été identifiés comme la source d’un appel automatisé généré par l’IA qui imitait la voix du président Joe Biden, demandant aux résidents du New Hampshire de ne pas voter lors de la primaire du 23 janvier. C’est l’Unité du droit électoral du bureau du procureur général qui a révélé cette information. Des outils d’IA deepfake ont été utilisés dans ce cas, ce qui a suscité des inquiétudes quant à l’utilisation abusive de cette technologie. Life Corporation et un fournisseur de télécommunications basé au Texas, Lingo, ont reçu des lettres de cessation et d’abstention. L’utilisation abusive de l’IA de cette manière a suscité des appréhensions à l’échelle mondiale, le Forum économique mondial et le Service canadien du renseignement de sécurité soulignant les dangers potentiels.
Life Corporation, ainsi qu’un individu nommé Walter Monk, ont été démasqués comme étant la source d’un appel automatisé généré par l’IA conçu pour induire en erreur les citoyens du New Hampshire. Mettant en vedette une voix reproduite de manière convaincante du président Joe Biden, l’appel automatisé a conseillé aux résidents du New Hampshire de ne pas participer à la primaire du 23 janvier. Cette divulgation est venue du ministère de la Justice du New Hampshire et a été annoncée par le procureur général John M. Formella. Life Corporation, une société basée au Texas précédemment impliquée dans des scandales de désinformation, ainsi que Walter Monk, ont été identifiés par l’unité de droit électoral du bureau du procureur général comme étant à l’origine de ces appels trompeurs, conçus pour influencer l’élection présidentielle de 2024. Le bureau du procureur général du New Hampshire a classé ces appels automatisés comme trompeurs et a demandé aux électeurs de ne pas tenir compte de leur contenu. En réponse à cela, la Federal Communications Commission (FCC) s’est exprimée sur son implication dans la protection des consommateurs contre ces appels automatisés facilités par l’IA, émettant une ordonnance de cessation et d’abstention à l’entreprise texane impliquée. Les outils d’IA deepfake sont des logiciels innovants qui utilisent des algorithmes d’IA avancés pour fabriquer et manipuler du contenu numérique comme des vidéos, des fichiers audio et des images à un degré très convaincant. Dans le New Hampshire, des appels visant à supprimer le vote ont été identifiés à la mi-janvier, ce qui a déclenché une enquête conjointe impliquant des partenaires de l’État et du gouvernement fédéral, le groupe de travail anti-Robocall Multistate Litigation Task Force et le Bureau de l’application de la loi de la Federal Communications Commission. Après avoir identifié Life Corporation comme responsable de cette activité illégale, l’Unité du droit électoral a imposé un arrêt immédiat en vertu de l’article 659 :40, III de la RSA, se réservant le droit d’intenter d’autres actions sur la base de précédents. Dans le cadre de ce scandale, les enquêteurs ont suivi des pistes reliant les appels trompeurs à un fournisseur de services de télécommunications texan, Lingo Telecom. La FCC s’est jointe à l’émission d’une ordonnance de cessation et d’abstention à l’encontre de Lingo pour son implication présumée dans le clonage vocal alimenté par l’IA conduisant à des appels automatisés illégaux, exigeant l’arrêt immédiat du soutien à de telles activités. Plus tôt le 31 janvier, Jessica Rosenworcel, présidente de la FCC, a suggéré de classer légalement les appels mettant en vedette des voix assistées par l’IA comme illicites, les soumettant aux réglementations et aux sanctions de la loi sur la protection des consommateurs de téléphone (TCPA). L’essor des deepfakes a suscité des inquiétudes à l’échelle mondiale quant à l’utilisation abusive potentielle des technologies d’IA. Le Forum économique mondial a souligné le potentiel néfaste de ces technologies dans son 19e rapport sur les risques mondiaux. Les deepfakes générés par l’IA ont également suscité la prudence du Service canadien du renseignement de sécurité, qui souligne la menace croissante des campagnes de désinformation en ligne propagées par cette application d’IA.

Published At

2/7/2024 1:59:08 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch