Специалисты по искусственному интеллекту выступают за усиление защиты информаторов на фоне проблем с безопасностью
Summary:
Бывшие сотрудники известных компаний, занимающихся ИИ, выступают за усиление защиты информаторов, чтобы позволить открыто высказывать опасения, связанные с рисками, связанные с развитием ИИ. Петиция «Право на предупреждение об ИИ» направлена на содействие открытости, которая приветствует критику и обеспечивает правовую защиту информаторов, которые указывают на серьезные риски, связанные с ИИ. Кампания отражает растущие опасения по поводу мер безопасности новых моделей ИИ, особенно тех, которые связаны с искусственным интеллектом общего назначения.
Бывшие сотрудники известных фирм, занимающихся ИИ, выступают за усиление мер защиты информаторов в этих компаниях, чтобы обеспечить прозрачность в отношении потенциальных рисков при эволюции сложных систем ИИ. Петиция под названием «Право на предупреждение ИИ» была инициирована 4 июня 13 бывшими и в настоящее время работающими профессионалами в OpenAI (ChatGPT), Anthropic (Клод) и DeepMind (Google). В эту прославленную группу также входили такие светила искусственного интеллекта, как Йошуа Бенджио, Джеффри Хинтон и Стюарт Рассел. Их цель состоит в том, чтобы убедить ведущие компании, занимающиеся ИИ, позволить своим сотрудникам делиться опасениями по поводу рисков, связанных с ИИ, внутри компании и с широкой общественностью.
Уильям Сондерс, бывший сотрудник OpenAI и сторонник кампании, заявил, что крайне важно иметь механизм раскрытия информации о рисках независимым экспертам, государственным органам и широкой общественности при работе с потенциальными опасными технологическими инновациями. Он отметил, что в настоящее время те, кто обладает наиболее глубоким пониманием передовых систем ИИ и связанных с ними рисков, могут не решаться выражать свои опасения из-за страха негативной реакции и строгих контрактов о конфиденциальности.
Предложение включает в себя четыре ключевых предложения. Во-первых, отменить положения о недопущении унижения, связанные с рисками, чтобы компании не могли затыкать рот сотрудникам или наказывать их за выражение опасений по поводу рисков, связанных с ИИ. Во-вторых, они предлагают создать анонимные каналы, по которым люди могли бы выражать свои опасения по поводу рисков, связанных с ИИ, тем самым способствуя созданию атмосферы, которая приветствует открытую критику. Их последний призыв заключается в правовой защите информаторов, гарантирующей, что компании не будут мстить сотрудникам, которые рискуют подвергнуться серьезным рискам ИИ. Сондерс описал эти принципы как «упреждающий подход», который будет стимулировать компании, занимающиеся ИИ, создавать ИИ, который будет не только полезным, но и безопасным.
Кампания является производной от растущих опасений по поводу того, что лаборатории ИИ пренебрегают мерами безопасности при разработке своих новых моделей, особенно при работе с общим искусственным интеллектом (AGI), который направлен на разработку программного обеспечения, имитирующего человеческий интеллект и способного к самостоятельному обучению. Даниэль Кокотайло, бывший сотрудник OpenAI, поделился, что его решение уйти из компании связано с потерей веры в ответственное отношение компании к целям AGI. Кокотайло высказал мнение, что культурный подход «двигайся быстро и ломай вещи» несовместим с такой мощной и неправильно понимаемой технологией, как AGI.
Хелен Тонер, бывший директор OpenAI, рассказала в подкасте Ted AI 28 мая, что Сэм Альтман, генеральный директор OpenAI, по слухам, был уволен из компании на основании сокрытия важной информации от совета директоров.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.