人工智能生成的深度伪造在政治中的威胁越来越大:2024 年选举挑战
Summary:
随着 2024 年大选的临近,美国正在努力应对人工智能生成的政治深度伪造的兴起,这些深度伪造在北美的频率激增了 1,740%。这种新的欺诈趋势导致了立法行动,例如禁止在机器人呼叫中使用人工智能生成的声音。然而,专家警告说,如果没有专门的技术,技术进步可能很快就会使人眼无法检测到。建议的解决方案包括强制性的人工智能内容检查和社交媒体平台上的用户验证。世界各国政府正在考虑采取适当措施来解决这个问题,印度寻求批准机制,欧洲制定了人工智能错误信息指南。
随着2024年大选周期的临近,美国和其他全球国家一起,为新技术带来的另一种挑战做准备。公众可用的人工智能工具的出现引发了政治深度伪造的激增,要求选民提高他们的辨别能力,以区分事实和虚构。2月27日,参议院情报委员会主席马克·华纳(Mark Warner)表示,与2020年的上一次选举相比,美国应对即将到来的选举舞弊的能力较差。这种情况主要是因为去年该国人工智能生成的深度伪造激增。身份验证服务 SumSub 的数据显示,北美的深度伪造事件激增了 1,740%,2023 年全球此类事件的检测量增加了 10 倍。在一个令人震惊的事件中,1月20日至21日,新罕布什尔州的居民收到了模仿乔·拜登总统声音的机器人电话,指示他们不要在1月23日的初选中投票。这导致美国监管机构在一周后禁止在自动电话诈骗中使用人工智能生成的声音,使此类行为违反了美国电话营销法。然而,这些法律措施往往无法阻止欺诈者。随着美国为3月5日的“超级星期二”做准备,这一天美国许多州将举行初选和预选会议,对虚假人工智能生成信息和深度伪造的担忧激增。SumSub 的人工智能和机器学习负责人 Pavel Goldman Kalaydin 阐明了选民如何训练自己识别深度伪造并管理潜在的深度伪造身份欺诈案件。Kalaydin 强调,需要识别由高级技术团队使用高端 GPU 和生成式 AI 模型创建的深度伪造,以及由不太复杂的欺诈者使用标准工具制造的深度伪造。他敦促选民仔细审查内容并验证信息来源,将可信、可信的来源与模棱两可的来源区分开来。他发现了一些深度伪造存在的迹象,例如不一致的手部动作、人造背景、光线变化、肤色差异、不寻常的眼球运动、嘴唇同步不一致和数字伪影。但他警告说,快速发展的技术可能很快就会使人类无法识别深度伪造,而不需要专门的检测技术。Kalaydin指出,日益严重的问题在于深度伪造的生成和随后的传播。尽管人工智能可访问性提供了许多机会,但它也是欺诈性内容增加的罪魁祸首。他透露:“由于人工智能技术的可用性,任何人都可以访问交换应用程序并变形内容来编造虚假故事”。他补充说,缺乏健全的法律法规和政策助长了错误信息在网上的传播,误导了选民,加剧了不知情决策的风险。作为一个潜在的解决方案,他提出有必要对社交媒体平台上的人工智能或深度伪造内容进行强制检查,以告知用户。“为了保护用户免受虚假信息和深度伪造的侵害,平台需要实施深度伪造和视觉检测技术来确认内容的真实性,”他说。他进一步建议在平台上实施用户验证。世界各国政府也开始考虑可能采取的措施。印度当地科技公司已被建议在2024年大选前推出新的“不可信”公共人工智能工具之前获得批准。欧洲欧盟委员会已经为在其领土内运营的平台制定了人工智能错误信息指南。在欧盟委员会的领导下,Meta、Facebook 和 Instagram 的母公司启动了欧盟战略,以解决其平台上内容中滥用生成式 AI 的问题。
Published At
3/5/2024 4:45:25 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.