Yann LeCun 揭穿 AI 炒作:人类水平的 AI 不是迫在眉睫的,开源 AI 不是威胁
Summary:
Meta 的首席 AI 科学家 Yann LeCun 驳斥了 ChatGPT 和 Claude 等语言学习模型 (LLM) 将很快实现与人类等效的 AI 的想法。在一次采访中,他不同意马克·扎克伯格(Mark Zuckerberg)对AGI(通用人工智能)的关注,更喜欢“人类水平的AI”一词。此外,他淡化了对开源人工智能危害人类的担忧,断言任何“破坏性人工智能”都会被更智能、更良性的人工智能击倒。
Meta 首席人工智能科学家 Yann LeCun 最近表示,包括 ChatGPT 和 Claude 在内的高容量语言模型 (LLM) 还没有达到实现人类等效人工智能 (AI) 的边缘。在接受《时代》杂志采访时,LeCun 讨论了通用人工智能 (AGI) 的概念,这是一个模棱两可的术语,指的是如果有足够的资源,能够处理任何任务的假设 AI。科学家之间没有就人工智能需要满足的标准达成一致,才有资格成为AGI。然而,Meta 首席执行官兼创始人马克·扎克伯格 (Mark Zuckerberg) 透露 Meta 将重点转向 AGI 开发时,引起了人们的注意。扎克伯格在接受Verge采访时澄清说,目标是建立“通用智能”,以促进他们计划创造的产品。
虽然扎克伯格将他的注意力扩展到了AGI,但他和LeCun之间似乎存在差异,特别是在术语方面。在与《时代》周刊的对话中,LeCun表达了他对“AGI”一词的厌恶,转而倾向于“人类水平的AI”,并指出人类本身并不体现完整的通用智能。关于 LLM,一个 AI 分支,包括 Meta 的 LLama-2、OpenAI 的 ChatGPT 和谷歌的 Gemini,LeCun 的立场是,这样的模型远不及猫的智力水平,更不用说人类了。事实证明,我们反复执行的任务对于计算机来说非常复杂,因此使AGI或人类水平的人工智能不是一个直接的前景,而是一个需要重大概念进步的长期目标。
LeCun 还反思了现有的关于开源 AI 系统(如 Meta 的 LLama-2)是否会潜在危害人类的辩论。他坚决拒绝了人工智能会带来重大危险的观点。针对寻求支配地位的人类将这种意图编程到人工智能中的假设情况,LeCun的论点是,如果这种“破坏性人工智能”确实存在,那么能够中和它们的“更聪明、更仁慈的人工智能”也会存在。在相关新闻中,有人指出,随着加密货币继续呈上升趋势,比特币的总价值有望超过 Meta。
Published At
2/14/2024 7:22:51 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.