Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

Уязвимости ИИ-помощников и растущие опасения по поводу безопасности: безопасны ли наши данные?

Algoine News
Summary:
В статье обсуждаются растущие проблемы безопасности в сфере искусственного интеллекта (ИИ). В нем освещается серия исследований, демонстрирующих потенциальные уязвимости и риски взлома, связанные с этими инструментами. Автор подчеркивает необходимость того, чтобы разработчики уделяли приоритетное внимание аспекту безопасности ИИ и оперативно принимали регулирующие меры. В статье также предлагается, чтобы пользователи ограничили обмен конфиденциальной информацией с помощниками ИИ до тех пор, пока не будут приняты существенные защитные меры.
Запуск ChatGPT в конце 2022 года ознаменовал собой решающий момент в технологиях, когда искусственный интеллект (ИИ) сделал значительный скачок в мейнстрим. В ответ на это, независимо от того, являются ли они признанными технологическими гигантами или подающими надежды стартапами, все попытались извлечь выгоду из этой тенденции ИИ, представив ассортимент ИИ-помощников. Эти виртуальные помощники превратились в наших советников, компаньонов и доверенных лиц как в профессиональных, так и в личных аспектах нашей жизни; Таким образом, мы доверяем им конфиденциальную информацию. Тем не менее, их обещание защитить нашу информацию поднимает важный вопрос – действительно ли мы защищены? Исследование, проведенное Университетом Бер-Гуриона в марте, выявило тревожную правду: наши секреты могут быть не так безопасны, как мы думаем. Исследователи обнаружили метод атаки, который может расшифровывать ответы помощников ИИ с пугающей точностью, демонстрируя критический недостаток в дизайне системы на нескольких платформах, таких как Microsoft Copilot и OpenAI ChatGPT-4, за исключением Google Gemini. Вызывает тревогу тот факт, что исследователи могут применить тот же инструмент дешифрования, когда-то созданный для такого сервиса, как ChatGPT, для декодирования других платформ без дополнительных усилий. Подобные откровения об уязвимостях в системах ИИ-помощников уже некоторое время ходят по кругу. Совсем недавно, в 2023 году, коалиция исследователей из различных американских университетов и Google DeepMind показала, что, побуждая ChatGPT повторять определенные слова, он может выдавать части своих заученных обучающих данных, включая идентификаторы пользователей, URL-адреса, биткойн-адреса и многое другое. Эти проблемы безопасности становятся еще более очевидными при использовании моделей с открытым исходным кодом. Недавнее исследование показало, что злоумышленник может проникнуть в сервис конвертации Hugging Face и завладеть любой моделью, отправленной через него. Это создает серьезные угрозы, поскольку злоумышленники потенциально могут подменять или внедрять вредоносные модели, раскрывая частные наборы данных. Растущее влияние ИИ-помощников, несомненно, привлекательно. Но с увеличением мощности приходит повышенная восприимчивость к атакам. Размышляя об этом в недавнем сообщении в блоге, Билл Гейтс нарисовал картину всеобъемлющего ИИ-помощника или «агента», имеющего доступ ко всем нашим устройствам, таким образом, получая всестороннее представление о нашей жизни. Тем не менее, из-за нерешенных проблем безопасности, преследующих ландшафт ИИ, мы рискуем быть украденными, в том числе жизни любого связанного с ними физического или юридического лица, если эти агенты попадут в чужие руки. Несмотря на надвигающиеся опасения, мы не бессильны. В конце марта Палата представителей США ввела строгий запрет на использование Microsoft Copilot сотрудниками Конгресса. Этот шаг последовал за отчетом Совета по кибербезопасности в апреле, в котором Microsoft была признана виновной в упущениях в области безопасности, которые привели к утечке почты летом 2023 года, затронувшей правительственных чиновников США. В прошлом технологические гиганты, такие как Apple, Amazon, Samsung и Spotify, а также финансовые титаны, такие как JPMorgan, Citi и Goldman Sachs, запрещали использование ботов для своих сотрудников. Известные игроки в сфере ИИ, Microsoft и OpenAI, публично заявили о своей приверженности ответственным практикам ИИ в прошлом году; Тем не менее, конкретные действия еще предстоит увидеть. Обязательства – это хорошее начало, но они должны быть подкреплены действиями. Как потребители, возможно, самый активный шаг, который мы можем предпринять, — это проявлять осмотрительность при обмене конфиденциальной информацией с ботами с искусственным интеллектом. Приостановка использования этих ботов до тех пор, пока не будут приняты адекватные меры защиты, может стать тем толчком, который побудит компании и разработчиков уделять приоритетное внимание безопасности в системах искусственного интеллекта.

Published At

4/10/2024 11:30:34 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch