Леопольд Ашенбреннер предсказывает доминирование AGI к 2027 году в новой серии эссе
Summary:
Бывший исследователь безопасности OpenAI Леопольд Ашенбреннер исследует потенциал и реальность общего искусственного интеллекта (AGI) в своей последней серии эссе «Ситуационная осведомленность». Он ожидает, что к 2027 году AGI превзойдет когнитивные способности человека и вызовет значительные последствия для национальной безопасности. Сериал рассказывает об уходе Ашенбреннера из OpenAI из-за предполагаемых утечек информации, а также отмечает его текущее предприятие по инвестициям, ориентированным на AGI.
В своей последней серии эссе об искусственном интеллекте (ИИ) бывший исследователь безопасности OpenAI Леопольд Ашенбреннер уделяет большое внимание общему искусственному интеллекту (AGI). В этой серии, озаглавленной «Ситуационная осведомленность», представлен обзор современных технологий ИИ и их огромный потенциал на ближайшие десять лет. Вся серия, насчитывающая 165 страниц, была обновлена 4 июня.
В эссе особое внимание уделяется ОИИ, типу ИИ, который способен соответствовать или даже превосходить человеческую функциональность в различных когнитивных задачах. AGI — это одна из нескольких различных категорий ИИ, включая искусственный узкий интеллект (ANI) и искусственный сверхинтеллект (ASI).
Ашенбреннер утверждает, что появление AGI к 2027 году удивительно правдоподобно. Он прогнозирует, что к 2025 или 2026 году машины AGI превзойдут возможности выпускников колледжей. По его словам, к концу десятилетия машины AGI станут умнее людей, что приведет к появлению настоящего сверхинтеллекта. Он ожидает, что этот путь к AGI, приведет к значительным последствиям для национальной безопасности.
По мнению Ашенбреннера, системы искусственного интеллекта потенциально могут развивать интеллектуальные способности, равные профессиональным компьютерщикам. Он также смело предполагает, что лаборатории искусственного интеллекта будут способны обучать обобщенную языковую модель за считанные минуты. По его мнению, в 2027 году новаторская лаборатория искусственного интеллекта сможет обучить модель уровня GPT-4 всего за одну минуту.
Ашенбреннер призывает принять реальность ОИИ, предсказывая его успех. По его мнению, самые умные умы в индустрии искусственного интеллекта заняли позицию «реализма AGI», основанную на трех основных принципах, связанных с национальной безопасностью Соединенных Штатов и эволюцией ИИ.
Серия AGI Ашенбреннера следует за предполагаемыми случаями утечки информации, которые привели к его уходу из OpenAI. Также сообщается, что он был связан с главным научным сотрудником OpenAI Ильей Суцкевером, который пытался сместить генерального директора OpenAI Сэма Альтмана в 2023 году. Последние работы Ашенбреннера посвящены Суцкеверу.
Совсем недавно Ашенбреннер основал инвестиционную компанию, специализирующуюся на AGI, со значительными инвестициями таких фигур, как Патрик Коллисон, генеральный директор Stripe.
Что касается других новостей, то, как сообщается, избиратели криптовалюты уже вызывают ажиотаж на выборах 2024 года, и ожидается, что эта тенденция сохранится.
Published At
6/5/2024 5:15:28 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.