OpenAI и Microsoft сотрудничают для предотвращения кибератак, связанных с государством, использующих инструменты искусственного интеллекта
Summary:
OpenAI и Microsoft объединили усилия, чтобы предотвратить пять связанных с государством кибератак, в которых использовались большие языковые модели, включая GPT-4 от OpenAI. Атаки, связанные с Китаем, Ираном, Северной Кореей и Россией, были направлены на использование ИИ для различных видов кибердеятельности, что побудило OpenAI усилить свои меры защиты. Несмотря на постоянные усилия OpenAI и других компаний по решению проблем кибербезопасности ИИ, угрозы сохраняются, что привело к тому, что более 200 организаций присоединились или сформировали инициативы, направленные на повышение безопасности ИИ и решение проблем кибербезопасности.
OpenAI, организация, стоящая за популярным программным обеспечением ChatGPT, объединилась с основным инвестором Microsoft, чтобы успешно отразить пять кибератак, поддерживаемых правительством. Связанные с рядом иностранных держав, включая российскую военную разведку, Корпус стражей исламской революции Ирана, а также правительства Китая и Северной Кореи, хакеры стремились отточить свои навыки с помощью больших языковых моделей (LLM), сложных систем, основанных на искусственном интеллекте, которые могут генерировать впечатляюще человекоподобные ответы путем анализа обширных текстовых данных.
OpenAI идентифицировала кибервторжения как исходящие от двух китайских групп, известных как Charcoal Typhoon и Salmon Typhoon. Другие попытки проникновения были связаны с Ираном через Crimson Sandstorm, Северной Кореей через Emerald Sleet и Россией через Forest Blizzard. По данным OpenAI, группы стремились использовать GPT-4 для различных задач, начиная от исследования корпоративных инструментов и инструментов кибербезопасности, генерации скриптов, отладки кода, организации фишинговых кампаний, уклонения от обнаружения вредоносного ПО, перевода сложных технических документов и изучения спутниковой связи и радиолокационных технологий. Обнаружение этих действий привело к блокировке соответствующих счетов.
Это открытие было сделано в тот момент, когда OpenAI собиралась наложить полный запрет на использование продуктов искусственного интеллекта спонсируемыми государством хакерскими сетями. Несмотря на то, что компания успешно пресекла эти конкретные попытки, она признала, что ей по-прежнему трудно предотвратить любое потенциальное злоупотребление.
После того, как после введения ChatGPT участились случаи возникновения дипфейков и мошенничества, генерируемых искусственным интеллектом, законодатели усилили надзор за разработчиками генеративного ИИ. Для поддержки достижений в области кибербезопасности ИИ в июне 2023 года OpenAI объявила о программе грантов в размере 1 миллиона долларов США, которая направлена на усиление и количественную оценку влияния решений кибербезопасности на основе ИИ.
Несмотря на эти защитные меры и постоянные усилия по предотвращению создания вредоносного или неподходящего контента ChatGPT, хакеры все же нашли способы обойти эти барьеры, манипулируя чат-ботом для создания такого контента.
Более 200 организаций, среди которых OpenAI, Microsoft, Anthropic и Google, недавно заключили партнерское соглашение с администрацией Байдена, чтобы сформировать Институт безопасности ИИ и Консорциум Института безопасности ИИ США (AISIC). Коллективные усилия призваны способствовать безопасной эволюции искусственного интеллекта, противодействию дипфейкам, созданным искусственным интеллектом, и решению проблем кибербезопасности. Эта инициатива появилась после запуска Института безопасности ИИ США (USAISI), созданного в соответствии с указом президента Джо Байдена в конце октября 2023 года, посвященным безопасности ИИ.
Published At
2/15/2024 11:46:18 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.