人工智能助手的漏洞和日益严重的安全问题:我们的数据安全吗?
Summary:
本文讨论了人工智能 (AI) 助手领域日益增长的安全问题。它重点介绍了一系列研究,展示了与这些工具相关的潜在漏洞和违规风险。作者强调,开发人员需要优先考虑人工智能的安全方面,并迅速采取监管行动。这篇文章还建议用户限制与人工智能助手共享敏感信息,直到采取实质性的保护措施。
2022 年底 ChatGPT 的推出标志着人工智能 (AI) 进入主流的技术关键点。作为回应,无论是成熟的科技巨头还是崭露头角的初创企业,每个人都试图通过推出各种人工智能助手来利用这种人工智能趋势。这些虚拟辅助工具已经演变成我们在专业和个人生活中的顾问、同伴和保密知己;因此,我们信任他们提供微妙的信息。然而,他们承诺保护我们的信息提出了一个重要问题——我们真的受到保护吗?
贝尔古里安大学(University of Ber-Gurion)今年3月进行的一项研究揭示了一个令人不安的事实:我们的秘密可能并不像我们想象的那么安全。研究人员发现了一种攻击方法,可以以惊人的准确性解码人工智能助手的响应,这表明Microsoft的Copilot和OpenAI的ChatGPT-4等多个平台的系统设计存在严重缺陷,但谷歌的Gemini除外。
令人震惊的是,研究人员可以应用相同的解密工具(一旦为 ChatGPT 等服务创建)来解码其他平台,而无需额外的努力。人工智能助手系统中漏洞的类似启示已经有一段时间了。最近,在 2023 年,来自美国多所大学和 Google DeepMind 的研究人员组成的联盟表明,通过提示 ChatGPT 重复特定单词,它可能会泄露其记忆的部分训练数据,包括用户标识符、URL、比特币地址等。
这些安全问题在开源模型中变得更加明显。最近的一个案例研究强调了攻击者渗透 Hugging Face 转换服务并征用通过它提交的任何模型的能力。这构成了重大威胁,因为攻击者可能会替换或植入恶意模型,从而暴露私有数据集。
不可否认,人工智能助手日益增长的影响力具有吸引力。但随着功率的增加,对攻击的敏感性也随之增加。比尔·盖茨(Bill Gates)在最近的一篇博客文章中对此进行了反思,描绘了一个总体的人工智能助手或“代理”可以访问我们所有设备的画面,从而全面了解我们的生活。然而,由于未解决的安全问题困扰着人工智能领域,如果这些代理落入坏人之手,我们就有可能被劫持,包括任何相关个人或实体的生命。
尽管存在迫在眉睫的担忧,但我们并非无能为力。3月下旬,美国众议院严格禁止国会工作人员使用Microsoft的Copilot。此举是在网络安全审查委员会 4 月发布报告之后发布的,该报告认为 Microsoft 应对安全疏忽负责,这些疏忽导致 2023 年夏季邮件泄露影响了美国政府官员。
过去,苹果、亚马逊、三星和 Spotify 等科技巨头,以及摩根大通、花旗和高盛等金融巨头都禁止员工使用机器人。人工智能领域的知名参与者Microsoft和OpenAI去年公开承诺遵守负责任的人工智能实践;然而,具体行动仍有待观察。
承诺是一个良好的开端,但必须得到行动的支持。作为消费者,也许我们可以采取的最积极主动的步骤是在与人工智能机器人共享敏感信息时谨慎行事。在采取足够的保护措施之前,暂停使用这些机器人可能只是促使公司和开发人员优先考虑人工智能系统安全性所需的推动力。
Published At
4/10/2024 11:30:34 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.