Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Соучредитель OpenAI планирует бороться с глобальной нехваткой чипов: необходим толчок к ответственному ИИ

Algoine News
Summary:
Соучредитель OpenAI Сэм Альтман (Sam Altman) планирует привлечь $7 трлн для проекта, направленного на решение проблемы резкого глобального дефицита полупроводниковых чипов, в первую очередь из-за растущего спроса на GenAI. Тем не менее, предлагаемые значительные инвестиции вызвали дебаты об этике, последствиях и ответственности растущей инфраструктуры ИИ. Несмотря на то, что ИИ несет в себе потенциал для пользы общества, риски, включая алгоритмическую предвзятость, конфиденциальность данных и потребление энергии, требуют срочного внимания. И администрация Байдена, и Европейский союз выступают за ответственный ИИ, подчеркивая необходимость обеспечения безопасности, защищенности и надежности. Поэтому перед таким массовым масштабированием систем ИИ внедрение ответственного ИИ имеет решающее значение.
Соучредитель OpenAI Сэм Альтман, как сообщается, надеется собрать огромную сумму в размере 7 триллионов долларов для усилий, направленных на решение очевидного глобального дефицита полупроводниковых чипов, проблемы, усугубляемой всплеском спроса на GenAI. По словам Альтмана, этот амбициозный проект имеет гораздо более масштабную цель: «Этому миру требуется больше инфраструктуры ИИ, чем предлагается в настоящее время для строительства. Создание инфраструктуры ИИ в колоссальных масштабах в сочетании с устойчивой цепочкой поставок является неотъемлемой частью экономической конкурентоспособности. OpenAI стремится внести свой вклад!» Если эти масштабные инвестиции подразумевают, что каждая структура будет склоняться к GenAI, то цель состоит в том, чтобы достичь общего искусственного интеллекта, систем, превосходящих человеческий, что является спорной темой. Читайте по теме: Биткоин может упасть до 30 000 долларов, и это неплохо. Вы, должно быть, задаетесь вопросом, зачем нам требуется такое масштабное масштабирование инфраструктуры ИИ. «Вы можете либо внести свой вклад в обеспечение нашего общего будущего, либо стать автором рассуждений о том, почему мы потерпим неудачу», — также поделился Альтман в более позднем посте. Действительно ли это предприятие посвящено сохранению нашего общего будущего? Или он специально направлен на обеспечение будущего OpenAI? В настоящее время OpenAI полагается на Microsoft в отношении большей вычислительной мощности и дополнительных центров обработки данных, чтобы преодолеть свои ограничения роста, особенно нехватку чипов, которая стоит на пути обучения больших языковых моделей (LLM), таких как ChatGPT. Возмутительный объем запрашиваемого капитала, который превосходит ВВП любой страны, за исключением Соединенных Штатов и Китая, поднимает определенные этические вопросы о требовании Альтмана. Технология – палка о двух концах; Искусственный интеллект обладает потенциалом принести огромную пользу обществу, его возможный вред и ущерб столь же велики. Как общество, мы должны настаивать на ответственном использовании ИИ и инноваций. Ответственные инновации должны гарантировать, что новые технологии принесут обществу больше решений, чем проблем. Эта идея применима ко всем технологиям, инновациям во всех секторах, регионах и организациях. Прежде чем масштабировать системы ИИ, не должны ли мы устранить риски и проблемы, которые они представляют, контролируя и снижая их риски, гарантируя, что они не увеличивают количество проблем, а не решают их? Системы искусственного интеллекта управляются данными, и GenAI потребует огромных их объемов. Такая сильная зависимость от данных сопряжена со значительными рисками и проблемами. Неверные или устаревшие данные могут привести к вводящим в заблуждение результатам - проблема, которая усиливается в мире LLM, когда они обрабатывают некачественную информацию. Кроме того, одной из ключевых проблем систем ИИ является алгоритмическая предвзятость, которая часто приводит к дискриминации. Этот вопрос остается нерешенным, несмотря на неоднократные просьбы законодателей о его решении. GenAI имеет свои проблемы: галлюцинации, дезинформация, отсутствие разъяснений, мошенничество, нарушение авторских прав, нарушение конфиденциальности и безопасности данных. Все эти проблемы не были должным образом признаны и смягчены. Кроме того, ИИ потребляет огромное количество энергии, которая питает компьютеры и центры обработки данных. Международное энергетическое агентство прогнозирует, что к 2026 году мировой спрос на электроэнергию, подстегиваемый ростом ИИ, удвоится. Администрация Байдена и Европейский союз выступают за ответственный ИИ — безопасный, надежный и заслуживающий доверия. Указ президента Джо Байдена, подписанный в сентябре, потребовал, чтобы компании разрабатывали инструменты искусственного интеллекта для отслеживания и устранения уязвимостей кибербезопасности, применяли методы сохранения конфиденциальности, защищали потребителей, сотрудников и студентов. Она подчеркнула важность борьбы с дискриминацией алгоритмической предвзятости на протяжении всей разработки и обучения этих систем. В июле 2023 года OpenAI согласилась работать над рисками, связанными с ИИ, и придерживаться ответственного ИИ с администрацией Байдена. Тем не менее, действия OpenAI в области ответственного ИИ до сих пор были незначительными. Как и EO, Закон об ИИ Европейского Союза делает акцент на прозрачности документации и аудита последующих разработок, в основном для базовых моделей и GenAI. В настоящее время системы ИИ не имеют возможности предоставлять эту информацию, и возникает потребность в проверяемом ответственном ИИ. Учитывая все эти соображения, было бы разумно внедрить ответственный ИИ, прежде чем радикально масштабировать эти системы. Ответственные инновации и обеспечение безопасности, надежности и надежности систем ИИ обеспечат наше общее будущее. Возможно, это не метод Сэма Альтмана, но это, безусловно, правильный путь.

Published At

2/21/2024 9:57:29 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch