Китай выпустил проект нормативных актов по безопасности ИИ; Стремится стать лидером в области искусственного интеллекта к 2030 году
Summary:
Китай выпустил проект нормативных актов, касающихся безопасности услуг генеративного искусственного интеллекта (ИИ). Правила предусматривают оценку данных, используемых при обучении ИИ, и контент, пропагандирующий вредоносное поведение, будет занесен в черный список. Эти ограничения также распространяются на данные, находящиеся под китайской интернет-цензурой. Компаниям необходимо получать индивидуальные согласия на использование персональных данных, в том числе биометрических. Недавние правила были приняты на фоне амбиций Китая стать мировым лидером в области искусственного интеллекта к 2030 году.
Китай выпустил проект правил, касающихся мер безопасности для фирм, предлагающих услуги генеративного искусственного интеллекта (ИИ), который включает ограничения на источники данных, используемые для обучения моделям ИИ. Предварительные правила были объявлены в среду, 11 октября, Национальным комитетом по стандартизации информационной безопасности, в который входят делегаты от Администрации киберпространства Китая (CAC), Министерства промышленности и информационных технологий и правоохранительных органов. Генеративный ИИ, который можно увидеть в достижениях чат-бота OpenAI ChatGPT, развивает способность выполнять операции путем изучения исторических записей, генерируя новый контент, такой как текст и изображения, из этой инструкции.
По мнению комитета, оценка безопасности должна проводиться на контенте, используемом для обучения общедоступным моделям генеративного ИИ. Контент, содержащий более 5% незаконной и вредоносной информации, подлежит внесению в черный список. Это включает в себя контент, пропагандирующий терроризм, насилие, разрушение социалистического строя, клевету на репутацию нации и поведение, подрывающее национальное единство и социальную стабильность. В предлагаемых правилах также подчеркивается, что данные, находящиеся под китайской интернет-цензурой, не должны использоваться для обучения этих моделей.
Это объявление было сделано чуть более чем через месяц после того, как регулирующие органы разрешили ведущим китайским технологическим компаниям, включая Baidu, лидера поисковой системы, запустить свои чат-боты, интегрированные с генеративным искусственным интеллектом. С апреля CAC регулярно заявляет о необходимости для фирм предоставлять отчеты об оценке безопасности регулирующим органам, прежде чем делать общедоступными сервисы, управляемые генеративным искусственным интеллектом. В июле регулирующий орган киберпространства выпустил ряд правил, регулирующих эти услуги, которые, как отметили отраслевые наблюдатели, были значительно менее строгими по сравнению с первоначальным апрельским проектом правил.
Последний проект положений о безопасности требует, чтобы компании, занимающиеся обучением этих моделей ИИ, получали четкое согласие от лиц, чьи конкретные данные, включая биометрическую информацию, используются в образовательных целях. Кроме того, правила содержат подробные указания о том, как избежать нарушений прав интеллектуальной собственности.
На международном уровне страны сталкиваются с проблемой разработки нормативных норм для этой технологии. Китай рассматривает ИИ как область, в которой он стремится сравняться с Соединенными Штатами, и стремится утвердиться в качестве мирового лидера в этом секторе к 2030 году.
Published At
10/13/2023 10:12:34 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.