Борьба с вредоносным ИИ: призыв к совершенствованию поддерживаемых государством систем и управления вычислительными ресурсами
Summary:
Исследователи предполагают, что контроль над вредоносным искусственным интеллектом (ИИ) может потребовать постоянного совершенствования мощных поддерживаемых государством систем искусственного интеллекта. Их исследование предполагает необходимость контроля доступа к жизненно важным ресурсам ИИ, что требует внедрения «управления вычислениями». Эффективное ограничение злонамеренного использования ИИ может потребовать включения в аппаратное обеспечение «аварийных выключателей», позволяющих удаленно завершать незаконные операции. Они также предупреждают о возможных сложностях в управлении децентрализованными вычислениями. Исследователи предполагают, что обществам, возможно, придется разумно использовать более мощные, управляемые вычисления для противодействия возникающим рискам, связанным с неуправляемыми вычислительными системами.
Борьба с вредоносным искусственным интеллектом (ИИ) может заключаться в постоянном совершенствовании ИИ под руководством правительства. К такому выводу пришла группа исследователей в своей последней статье под названием «Вычислительная мощность и управление искусственным интеллектом». Исследование, в котором приняли участие интеллектуалы из таких институтов, как OpenAI, Кембриджа, Оксфорда и многих других, было попыткой изучить текущие и потенциальные проблемы, связанные с законодательством и развитием ИИ.
Основное утверждение документа подчеркивает потенциальную необходимость контроля доступа к ключевым системам ИИ в будущем путем управления аппаратным обеспечением, необходимым для их эксплуатации и моделирования. Как объясняют исследователи, политики могут использовать вычислительные мощности для достижения выгодных результатов, сдерживания безответственной разработки и использования ИИ, а также обеспечения прозрачности регулирования. Здесь под «вычислениями» понимается жизненно важное оборудование, необходимое для разработки ИИ, включая графические процессоры и центральные процессоры. Исследователи рекомендуют прекратить доступ к этим источникам в качестве оптимального способа предотвратить потенциальный вред, связанный с ИИ. Это подразумевает правительственные меры по надзору за созданием, продажей и функционированием любого оборудования, имеющего решающее значение для продвинутой разработки ИИ.
В некоторых аспектах «управление вычислениями» уже практикуется во всем мире. Например, США ограничивают продажу определенных моделей графических процессоров, обычно используемых в обучении ИИ, в таких странах, как Китай. Согласно исследованию, эффективное ограничение злонамеренного использования ИИ требует, чтобы производители включали в аппаратное обеспечение «аварийные выключатели». Такая мера позволит правительствам дистанционно прекращать незаконные усилия по обучению ИИ. Несмотря на это, ученые предупреждают, что такие меры управления сопряжены с неотъемлемыми рисками, связанными с конфиденциальностью, экономическими последствиями и концентрацией власти. Например, мониторинг аппаратного обеспечения в США может нарушить недавний билль о правах ИИ, принятый Белым домом, который гарантирует гражданам право на защиту данных.
В дополнение к этим опасениям, исследователи также указывают, что новые достижения в «эффективном обучении» могут привести к децентрализованным вычислениям для моделирования, создания и эксплуатации. Эта тенденция может осложнить задачу правительства по выявлению и ликвидации нелегального учебного аппарата. Исследователи предполагают, что такая возможность может не оставить правительствам иного выбора, кроме как адаптировать агрессивную стратегию против незаконного использования ИИ. Согласно их мнению, «обществу придется своевременно и разумно использовать более мощные, управляемые вычислительные ресурсы, чтобы разработать защиту от возникающих рисков, связанных с неуправляемыми вычислениями.
Published At
2/16/2024 10:12:59 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.