Британский институт безопасности искусственного интеллекта расширяется в США и раскрывает результаты тестов безопасности
Summary:
Британский институт безопасности искусственного интеллекта (ИИ) открывает свой первый международный офис в Сан-Франциско, чтобы привлечь технические таланты и взаимодействовать с ведущими лабораториями ИИ. Расширение направлено на укрепление отношений с крупными игроками США, способствуя глобальной безопасности ИИ. Институт также обнародовал результаты тестирования безопасности пяти передовых моделей искусственного интеллекта, демонстрирующих потенциал в решении проблем кибербезопасности и глубокие знания в области химии и биологии, а также демонстрирующие высокую уязвимость к простым джейлбрейкам и необходимость контроля со стороны человека для сложных задач.
Стремясь расширить свой глобальный охват, Институт безопасности искусственного интеллекта (ИИ) Соединенного Королевства создаст зарубежный филиал в Соединенных Штатах. Министр технологий Великобритании Мишель Донелан сообщила новость 20 мая, указав, что Сан-Франциско был выбран в качестве места для первого зарубежного офиса, который должен открыть свои двери этим летом. Стратегическое расположение института в Сан-Франциско дает возможность Великобритании использовать многочисленные технические таланты в районе залива Сан-Франциско и взаимодействовать с одной из крупнейших лабораторий искусственного интеллекта, расположенной между Лондоном и Сан-Франциско. Институт выразил надежду на укрепление отношений со значительными американскими игроками, поощряя глобальную безопасность ИИ, ориентированную на общественные интересы. Лондонский Институт безопасности ИИ может похвастаться штатом из 30 сотрудников, которые готовы расширяться и приобретать больше знаний, в первую очередь в области оценки рисков для передовых моделей ИИ. Донелан расценил продление как свидетельство новаторского и стратегического понимания Великобританией безопасности ИИ. Она подтвердила обязательства страны по изучению рисков и потенциальных преимуществ ИИ в глобальном масштабе, укреплению связей с США и прокладыванию пути для других стран, чтобы углубиться в их опыт. Объявление последовало за важным саммитом AI Safety Summit, состоявшимся в Лондоне еще в ноябре 2023 года. Саммит, первый в своем роде, был посвящен безопасности ИИ в мировом масштабе. На мероприятии присутствовали выдающиеся лидеры со всего мира, такие как президент Microsoft Брэд Смит, генеральный директор OpenAI Сэм Альтман, генеральный директор Google и DeepMind Демис Хассабисс, Илон Маск, а также лидеры из США и Китая. Великобритания также раскрыла некоторые из предыдущих результатов тестов безопасности института на пяти передовых моделях искусственного интеллекта, открытых для общественности. Модели были анонимизированы, и результаты дают представление о возможностях модели, а не считают их безрисковыми или опасными. Некоторые результаты показали, что, хотя некоторые модели были оснащены для решения проблем кибербезопасности, они боролись с более сложными проблемами. Несколько моделей продемонстрировали глубокие знания в области химии и биологии на уровне PhD. Тем не менее, все исследованные модели показали высокую восприимчивость к простым джейлбрейкам и необходимость контроля со стороны человека для сложных, трудоемких задач. Ян Хогхарт, председатель института, утверждает, что эти оценки помогут в эмпирической оценке возможностей моделей, напоминая нам, что безопасность ИИ остается зарождающейся и развивающейся областью, и что эти результаты представляют собой только сегмент глобального подхода к оценке, который AISI является пионером.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.