本文是 Dwarkesh Patel 在自己博客发表的一篇文章。Dwarkesh Patel 是一位印度裔美籍播客主持人、作家和知识传播者。他以深度访谈著称,特别聚焦于人工智能、历史、经济和科技等领域。通过自己的播客平台,他连接学术界与公众,促使复杂思想更易理解

本文详细阐述了他对通用人工智能(AGI)发展时间表的看法。他认为,尽管当前的大语言模型(LLMs)能力令人印象深刻,但由于其存在根本性的能力缺陷,AGI 并不会在未来几年内迅速到来。然而,一旦这些关键瓶颈被突破,AI 的发展将迎来爆炸性增长。

主要观点

  • AGI 不会很快到来:作者的核心论点是,AGI 不会在短期内(未来 2-5 年)实现,主要原因是当前模型缺乏**持续学习(continual learning)**的能力。
  • 持续学习是关键瓶颈:与人类可以通过反馈和实践不断改进不同,目前的 LLMs 无法在工作中积累经验和上下文。这使得它们难以真正替代人类员工执行复杂的、需要适应性的白领工作。
  • 短期谨慎,长期乐观:基于上述瓶颈,作者对 AI 在未来几年的经济变革潜力持谨慎态度。但他预测,一旦持续学习问题在未来十年内被解决,AI 的能力将发生“不连续的”巨大飞跃,引发一场“智能爆炸”,因为届时所有 AI 副本的学习成果可以被整合。
  • AGI 时间线呈对数正态分布:作者认为 AGI 很可能在本十年(2030 年前)实现,因为当前由计算资源驱动的指数级增长无法持续到 2030 年之后。如果错过了这个窗口期,后续进展将大幅放缓。

关键细节

  • 当前 LLMs 的局限性

    • 作者以个人使用 LLMs 协助播客后期制作的经验为例,指出即使在语言处理这类核心任务上,模型的表现也仅为 5/10
    • 最大的问题是无法通过高级反馈让模型改进。用户只能不断调整提示词(prompt),但这远不及人类的学习和适应过程。作者用“教萨克斯风”作比喻:无法通过不断给新生写指示来教会他,而必须让他亲自练习和调整。
    • 因此,作者预测,如果 AI 发展从今天停滞,可能只有不到 25% 的白领工作会被取代。
  • 对“计算机使用代理”的怀疑

    • 作者对“到 2026 年底将出现可靠的计算机使用代理(能自动完成报税等复杂任务)”的预测表示怀疑。
    • 理由包括:1) 此类任务的训练反馈周期长;2) 缺乏大规模的、用于计算机使用的多模态预训练数据;3) 即使是看似简单的算法创新(如 o1 模型的推理能力)也需要数年时间才能完善。
  • 作者的 50/50 时间线预测

    • 2028 年:AI 能够像一个能干的人类经理一样,端到端地处理一家小公司的报税工作。作者认为,目前 AI 在计算机使用领域的能力,相当于语言模型领域的 GPT-2 阶段。
    • 2032 年:AI 能够像人类一样在工作中无缝、快速地学习。作者认为 7 年的时间足以在持续学习方面取得突破性进展。
  • 承认当前模型的强大之处

    • 尽管持谨慎态度,作者仍对 o3Gemini 2.5 等前沿模型的推理能力表示惊叹,称之为“婴儿版的通用智能”。他认为,那些对 AI 过于悲观的人,往往没有在模型最擅长的领域体验过它们的能力。

原文

“事情发生所需的时间总比你预想的要长,但当它们真正发生时,速度又比你想象的要快。” - 鲁迪格·多恩布什

我的播客中,我进行过许多次讨论,我们激烈地争论着通往通用人工智能(AGI)的时间线。有些嘉宾认为还需要20年——另一些人则认为只需2年。以下是我截至2025年6月的想法。

有时人们会说,即使所有AI进展完全停滞,今天的系统在经济上的变革性也远超互联网。我不同意。我认为今天的大语言模型(LLM)确实神奇。但财富500强公司之所以没有用它们来改造工作流程,并非因为管理层过于保守。相反,我认为要让LLM完成普通人那样的工作是真的很困难。这与这些模型所缺乏的一些基础能力有关。

在Dwarkesh播客,我自认为在AI方面是“先行者”。我可能花了超过一百个小时,试图为我的后期制作流程构建一些小型的LLM工具。而试图让它们变得有用的经历,反而拉长了我对AGI时间线的预期。我会尝试让LLM像人类一样重写自动生成的文字稿以提高可读性。或者,我会尝试让它们从文字稿中识别出适合发到推特上的片段。有时,我还会尝试让它们与我逐段合写一篇文章。这些任务都是简单的、独立的、短期的、语言输入语言输出型任务——本应是LLM的拿手好戏。而它们在这些任务上的表现只能打5/10分。别误会,这已经很了不起了。

但根本问题在于,LLM不会像人类一样随着时间推移而进步。缺乏持续学习能力是一个非常、非常大的问题。LLM在许多任务上的基准水平可能高于普通人。但你没有办法给模型提供高层次的反馈。你只能接受它开箱即用的能力。你可以不断调整系统提示词,但实际上,这根本无法产生与人类员工经历的那种学习和进步相提并论的效果。

人类之所以如此有用,主要不在于他们的原始智力。而在于他们建立背景知识、反思自身失败、以及在实践任务中不断发现并采纳微小改进和效率提升的能力。

你如何教一个孩子吹萨克斯?你会让她尝试对着乐器吹气,听听声音如何,然后进行调整。现在想象一下用这种方式教萨克斯:一个学生只尝试一次。一旦他们犯错,你就让他们离开,并写下详细的说明,指出哪里出了问题。下一个学生阅读你的笔记,然后尝试直接演奏查理·帕克的曲子。当他们失败时,你再为下一个学生完善这份说明。

这根本行不通。无论你的提示词打磨得多么精良,没有哪个孩子能仅凭阅读你的说明就学会吹萨克斯。但这是我们作为用户“教”LLM任何东西的唯一方式。

是的,有强化学习微调(RL fine tuning)。但它不像人类学习那样是一个深思熟虑的、适应性的过程。我的编辑们已经变得非常出色。如果我们必须为他们工作中的不同子任务构建定制的强化学习环境,他们是无法达到现在这个水平的。他们只是自己注意到了许多微小细节,并深入思考了什么能与观众产生共鸣,什么内容能让我兴奋,以及如何改进他们的日常工作流程。

当然,可以想象,未来更智能的模型可能会为自己构建一个专门的强化学习循环,从外部看这个过程会感觉非常有机。我给出一些高层次的反馈,模型就能想出一系列可验证的练习题进行强化学习——甚至可能创造一个完整的环境来演练它认为自己欠缺的技能。但这听起来真的非常困难。我不知道这些技术在不同类型的任务和反馈上的泛化效果会如何。最终,模型将能够像人类一样,以那种微妙而有机的方式在工作中学习。然而,我很难想象这会在未来几年内发生,因为目前还没有明显的方法能将在线的、持续的学习能力嵌入到LLM这类模型中。

LLM在一次会话的中途确实会变得挺聪明和有用。例如,有时我会和LLM合写一篇文章。我给它一个大纲,然后让它逐段起草。直到第四段,它所有的建议都很糟糕。于是我会从头重写整个段落,并告诉它:“嘿,你写的东西太烂了。这是我写的版本。”在那之后,它居然能为下一段提供不错的建议。但这种对我偏好和风格的微妙理解,在会话结束时就全部丢失了。

也许简单的解决方案是像Claude Code那样的长滚动上下文窗口,它会每30分钟将会话记忆压缩成一个摘要。但我认为,将所有这些丰富的隐性经验提炼成文本摘要,在软件工程(这是一个非常基于文本的领域)以外的领域会非常脆弱。再次想想那个用长篇文本摘要来教人吹萨克斯的例子。即使是Claude Code,也经常会在我按下/compact命令之前,把我俩共同设计出的一个来之不易的优化方案给撤销掉——因为做出这个优化的原因没能进入到摘要里。

这就是为什么我不同意Sholto和Trenton在我的播客上所说的话(这句话来自Trenton):

“即使AI的进展完全停滞(并且你认为这些模型能力非常不均衡,不具备通用智能),它的经济价值也是如此巨大,而且为所有这些不同的白领工作任务收集数据也足够容易,因此,正如Sholto所说,我们应该预期在未来五年内看到它们被自动化。”

如果AI的进展今天完全停滞,我认为<25%的白领工作岗位会消失。当然,许多任务会被自动化。Claude 4 Opus在技术上可以为我重写自动生成的文字稿。但由于我无法让它随着时间进步并学习我的偏好,我仍然会雇佣人类来做这件事。即使我们获得更多数据,如果在持续学习方面没有进展,我认为我们在白领工作领域的处境将大同小异——是的,AI在技术上或许能差强人意地完成许多子任务,但它们无法建立背景知识,这将使其无法在你公司里像真正的员工一样运作。

虽然这让我对未来几年的变革性AI持悲观态度,但它让我对未来几十年的AI格外乐观。当我们确实解决了持续学习问题时,我们将看到模型价值的巨大飞跃。即使没有一个纯软件的奇点(即模型迅速构建出越来越智能的后继系统),我们可能仍然会看到一种类似于广泛部署的智能爆炸。AI将被广泛部署到整个经济体系中,从事不同的工作,并像人类一样在工作中学习。但与人类不同的是,这些模型可以整合它们所有副本的学习成果。所以一个AI基本上就在学习如何完成世界上所有的工作。一个能够在线学习的AI,可能在没有任何进一步算法进步的情况下,迅速地在功能上成为一个超级智能。

然而,我并不指望会看到OpenAI的某个直播,宣布持续学习问题已完全解决。因为实验室有动机迅速发布任何创新,所以我们会先看到一个残缺的早期版本的持续学习(或者你叫它测试时训练也行),然后才能看到真正像人类一样学习的东西。我预计在这个重大瓶颈被完全解决之前,我们会收到很多预警信号。

当我采访Anthropic的研究员Sholto Douglas和Trenton Bricken时,他们说预计到明年年底会出现可靠的计算机使用代理。我们现在已经有计算机使用代理了,但它们相当糟糕。他们想象的是一种完全不同的东西。他们的预测是,到明年年底,你应该可以告诉一个AI:“去帮我报税。”然后它会浏览你的邮件、亚马逊订单和Slack消息,与所有你需要发票的人来回通信,整理你所有的收据,判断哪些是业务开支,在处理边缘情况时征求你的批准,然后向国税局提交1040税表。

我对此持怀疑态度。我不是AI研究员,所以没有资格在技术细节上反驳他们。但根据我所知的一点信息,以下是我不看好这个预测的原因:

  • 随着任务时间跨度的增加,单次运行(rollout)必须变得更长。AI需要完成两个小时的代理式计算机使用任务,我们才能判断它是否做对了。更不用说计算机使用需要处理图像和视频,这本身就更耗费计算资源,即便不考虑更长的运行时间。这似乎应该会减慢进展。

  • 我们没有一个庞大的、关于多模态计算机使用的预训练语料库。我喜欢Mechanize在关于自动化软件工程的文章中的这句话:“在过去十年的规模化发展中,我们被海量的、可免费使用的互联网数据宠坏了。这足以攻克自然语言处理,但不足以让模型成为可靠、能干的代理。想象一下,如果用1980年所有可用的文本数据来训练GPT-4——即使我们有必要的算力,数据量也远远不够。”

    同样,我不在实验室工作。也许仅靠文本训练就已经能让模型对不同用户界面的工作方式,以及不同组件之间的关系有一个很好的先验知识。也许强化学习微调的样本效率非常高,以至于你不需要那么多数据。但我没有看到任何公开证据让我相信,这些模型突然变得不那么依赖数据了,尤其是在这个它们实践经验少得多的领域。

    或者,也许这些模型是如此优秀的前端程序员,以至于它们可以为自己生成数以百万计的玩具UI来进行练习。对于这个想法的反应,请看下面的要点。

  • 即使是那些事后看来相当简单的算法创新,似乎也需要很长时间才能完善。DeepSeek在其R1论文中解释的强化学习流程,在宏观层面看似乎很简单。然而,从GPT-4的发布到o1的发布,花了整整2年时间。当然,我知道说R1/o1很简单是极其傲慢的——要达到这个解决方案需要大量的工程、调试、以及对替代方案的筛选。但这正是我要表达的观点!看到实现“训练模型解决可验证的数学和编程问题”这个想法花了这么长时间,让我觉得我们低估了解决计算机使用这个棘手得多的问题的难度,因为你是在一个完全不同的模态下,用少得多的数据进行操作。

好了,冷水泼得够多了。我不想像那些Hacker News上被宠坏的孩子一样,即使得到一只会下金蛋的鹅,也整天抱怨它的叫声太吵。

你读过o3或Gemini 2.5的推理轨迹吗?它真的在推理!它在分解问题,思考用户想要什么,对自己的内心独白做出反应,并在注意到自己正走向一个无效方向时进行自我纠正。我们怎么能就这样觉得,“哦,机器当然会去思考一番,想出一堆主意,然后带着一个聪明的答案回来。机器就是干这个的。”

一部分人之所以过于悲观,是因为他们没有在模型最擅长的领域里,去体验那些最聪明的模型。给Claude Code一个模糊的需求规格,然后坐等10分钟,看它零样本生成一个可用的应用程序,这是一种疯狂的体验。它是怎么做到的?你可以谈论电路、训练分布、强化学习等等,但最直接、最简洁、最准确的解释就是:它是由初级的通用智能驱动的。到了这个时候,你内心的一部分必然会想:“这真的行得通。我们正在创造有智能的机器。”

我的概率分布非常宽泛。我想强调,我确实相信概率分布。这意味着为2028年出现失控的ASI(人工超级智能)做准备仍然非常有意义——我认为这完全是一个可能的结果。

但以下是我愿意下50/50赌注的时间线:

  • AI能为我的小公司端到端地报税,水平相当于一个能干的总经理在一周内完成的程度:包括在不同网站上追查所有收据,找到所有缺失的部分,与需要催要发票的人来回发送邮件,填写表格,并将其提交给国税局:2028年

    • 我认为我们在计算机使用领域正处于GPT-2时代。但我们没有预训练语料库,而且模型是在一个更长的时间跨度上,使用它们不熟悉的行动基元,为一个更稀疏的奖励进行优化。话虽如此,基础模型相当聪明,可能对计算机使用任务有很好的先验知识,加上现在世界上有更多的算力和AI研究人员,所以情况可能会扯平。为小企业报税给我的感觉,就像GPT-4之于语言一样。从GPT-2到GPT-4花了4年时间。
    • 需要澄清的是,我不是说我们在2026年和2027年不会看到非常酷的计算机使用演示(GPT-3就非常酷,但不太实用)。我是说,这些模型将无法端到端地处理一个持续一周且相当复杂的、涉及计算机使用的项目。
  • AI能像人类一样轻松、有机、无缝且迅速地在岗学习,适用于任何白领工作。例如,如果我雇佣一个AI视频编辑,六个月后,它对我偏好、我们频道、观众喜好等方面的可操作的、深刻的理解能达到人类水平:2032年

    • 虽然我看不出有明显的方法能将持续的在线学习嵌入到当前模型中,但7年是很长的时间!7年前的这个时候,GPT-1才刚刚问世。在我看来,未来7年内我们找到某种方法让模型在岗学习,这并非天方夜谭。

你可能会反驳:“等等,你刚才大费周章地强调持续学习是多大的一个障碍。但你的时间线却预测,我们离一场至少是广泛部署的智能爆炸只有7年之遥。”是的,你说得对。我预测在一个相对较短的时间内,世界将变得相当疯狂。

AGI的时间线非常符合对数正态分布。它要么在这个十年内实现,要么就没戏了。(不完全是没戏,更像是之后每年的边际概率降低——但这说法不够吸引人)。过去十年AI的进展是由前沿系统的训练算力规模化驱动的(每年增长超过4倍)。无论从芯片、电力,还是用于训练的原始GDP占比来看,这种趋势都无法持续到这个十年之后。2030年后,AI的进展必须主要来自算法进步。但即便是在算法层面,低垂的果实也终将被摘取(至少在深度学习的范式下)。因此,AGI出现的年度概率将会骤降。

这意味着,如果我们最终落在我50/50赌注的较长一端,那么我们很可能看到一个相对正常的世界,直到2030年代甚至2040年代。但在所有其他可能的世界里,即使我们对AI当前的局限性保持清醒,我们也必须预见到一些真正疯狂的结果。