本文来自于 Youtube 博主 Dwarkesh Patel 对 Ilya Sutskever(SSI 创始人、前 OpenAI 首席科学家)的最新深度访谈。访谈中,Ilya 谈到为何 Scaling Law 遭遇瓶颈?什么是 AI 真正缺失的“泛化”能力?SSI 为何选择不发产品的“直通”路线?并给出了 AI 未来 5-20 年的终极推演。本文由我和 Gemini 3 Pro 共同整理完成。
身处旧金山湾区,有时候你会觉得这一切都很魔幻。我们正处在科幻小说变成现实的中心,但一切发生得又是如此“平淡”。这或许就是所谓的“缓慢起飞”(Slow Takeoff)——即使我们正把 GDP 的 1% 投入到 AI 中,对于大多数普通人来说,除了新闻里那些令人咋舌的融资数字,生活似乎并没有什么翻天覆地的变化。
但这种平静可能只是暴风雨前的宁静。
最近,Ilya Sutskever 对 AI 行业的现状、技术的瓶颈以及他新公司 SSI (Safe Superintelligence) 的路线图进行了一次极高密度的分享。如果你厌倦了市面上千篇一律的“Scaling Law(缩放定律)万岁”论调,这篇深度解读或许能给你通过迷雾的指引。
一、 悖论:为什么 AI 既聪明又“智障”?
我们现在面临一个非常令人困惑的现象:模型在各种高难度基准测试(Evals)中表现极其出色,看似智商爆表,但在实际经济应用中,甚至在一些简单任务上,却显得笨手笨脚。
举个很典型的“写代码”例子:你让 AI 修复一个 Bug,它说“好哒我修好了”,结果引入了一个新 Bug;你指出新 Bug,它说“哎呀我错了”,结果又把旧 Bug 改回来了。这种死循环在真实开发中并不罕见。
为什么会这样?Ilya 提出了两个解释:
- RL(强化学习)的副作用:现在的模型经过了大量的 RL 训练。这让它们变得像那种“钻牛角尖”的学生。如果预训练(Pre-training)是让模型通过阅读海量数据来“理解世界”,那么 RL 就像是为了应试而刷题。
- “做题家”与“天才”的区别:
- 现在的 AI 就像一个**“顶级竞赛选手”**,为了拿金牌,它刷了 1 万小时的题,背下了所有解题套路。如果你出的题在它的题库范围内,它秒杀全场。
- 但我们真正想要的是那种**“有天赋的学生”**,哪怕只学了 100 小时,但他真正“懂”了,具备了举一反三的泛化能力。
目前的业内做法是:为了让模型在编程竞赛中拿高分,就把所有的竞赛题都喂给它,甚至通过数据增强造出更多的题。结果我们得到了一堆“做题机器”,但当你把它放到真实世界那种从未见过的复杂代码库中时,它就因为缺乏真正的“泛化能力”而露馅了。
这就是为什么 Eval 分数很高,但实际落地的经济影响却滞后的根本原因——模型的泛化能力远不如人类。
二、 时代的拐点:从“Scale”回归“Research”
这是一个非常重要的判断:单纯的 Scaling(规模化)时代可能正在结束,我们正重新回到 Research(研究)时代。
- 2012 - 2020:研究时代。 大家都在试错,AlexNet 只有两块 GPU,Transformer 也没用多少算力。那是拼想法的年代。
- 2020 - 2025:规模化时代。 “Scaling”这个词吸干了房间里所有的空气。大家发现只要把数据和算力怼上去,效果就变好。于是变成了军备竞赛,比谁卡多、谁数据多。
- 2025 以后:新研究时代。
Ilya 认为,预训练的数据终究是有限的。现在算力已经大得惊人,但如果不改变方法,仅仅把算力再扩大 100 倍,并不会带来本质的质变。
正如当年的青少年学开车,大概只需要 10 个小时就能上路,不需要哪怕一次撞车(依靠强大的外部世界先验知识和极高的数据效率)。而现在的自动驾驶或 AI Agent 需要海量的试错。
真正的下一个突破口,在于找到那个“新配方”——让 AI 拥有人类那样的数据效率(Sample Efficiency),拥有真正的持续学习(Continual Learning)能力,而不只是在预训练阶段把知识“死记硬背”下来。
三、 情绪与价值函数:进化的遗产
如果不依赖海量数据死记硬背,AI 靠什么学习?
Ilya 提到了一个极具启发性的观点:情绪(Emotions)其实是生物进化出的一套极其鲁棒的“价值函数”(Value Function)。
如果你切除一个人的情感中枢,他的逻辑推理能力可能依然完好,但他会变成一个“决策瘫痪者”——因为他不知道穿这双袜子好,还是那双好,因为没有“感觉”告诉他哪个更重要。
人类之所以学习效率高,是因为我们内置了一套经过亿万年进化打磨的价值函数。比如对社会地位的渴望、对同伴认可的需求。这些高层级的欲望被写在基因里,指导我们在极其复杂的社会环境中快速学习。
未来的 AI,或许也需要这种“价值函数”的指引,才能从单纯的“预测下一个 token”进化为具有长远规划能力的智能体。
四、 SSI 的豪赌:直通超级智能(Straight Shot)
Ilya 离开 OpenAI 创立 SSI,最引人注目的就是他们的策略:不卷产品,直取超级智能。
现在的科技巨头(OpenAI, Anthropic, Google 等)都在走“渐进式发布”的路线:发布一个没那么强的模型,让社会适应,收集反馈,再迭代。这看似安全,但 Ilya 认为这会让人陷入商业竞争的“鼠赛”(Rat race)。
当公司不得不为了市场份额去优化每一个细微的产品功能时,它们就很难从根本上解决那个最核心的问题:如何构建一个安全的超级智能?
SSI 的逻辑是:
- 避开短期的商业厮杀,专注于那条通往“真正通用智能”的狭窄技术路径。
- 如果 SSI 成功了,他们构建的不仅是一个工具,而是一个能持续学习的系统。
- 这种系统不再是“出厂即固化”,而是像人类员工一样,进入公司后能在岗位上迅速学习、自我进化,最终汇聚成一个全知全能的超级智能体。
关于安全的终极思考: Ilya 提出了一点不同寻常的对齐(Alignment)思路。与其让 AI 爱“人类”,不如让 AI 爱**“有感知生命”(Sentient Life)**。
因为在未来,绝大多数的有感知个体可能不是人类,而是数以万亿计的 AI 智能体。如果 AI 具备同理心(也许源于类似镜像神经元的机制),懂得通过模拟他人来理解世界,那么一个关爱感知生命的 AI,或许是更稳健的解法。
五、 未来的图景:剧变与共生
当超级智能真的到来时,世界会变成什么样?
Ilya 预测,大约在 5 到 20 年内,我们将看到那种具备人类级别学习能力、进而迅速超越人类的系统。
但这并不意味着世界会被某一个“全能神”统治。更可能的情况是:
- 多极化竞争:会有多个大陆级规模的计算集群(Continent-sized clusters),运行着不同的超级智能。
- 专业化分工:就像人类社会和生态系统一样,竞争会导致分工。有的 AI 擅长科研,有的擅长法律,有的擅长经济调度。没有谁能垄断所有领域。
- 由点及面的爆发:一旦 AI 突破了“学习效率”的瓶颈,经济增长将以前所未有的速度爆发。
人类的位置在哪里? Ilya 给出了一个他不怎么喜欢、但可能不得不接受的“均衡解”:半机械人(Cyborgs)。
如果 AI 变得太强,单纯靠外部指令(哪怕它是听话的)来控制它,人类最终也会变成“宠物”或者完全的旁观者。为了不被甩在后面,人类可能需要通过脑机接口(Neuralink++)与 AI 融合,直接获得 AI 的认知和理解力。这可能是维持长久和平与人类主体性的唯一方式。
结语:关于“品味”
在访谈的最后,Ilya 谈到了什么是 AI 研究者的“品味(Taste)”。
对他来说,好的研究不仅仅是跑数据。它是一种审美:简单、美感、优雅,以及对生物大脑的正确借鉴。
当实验数据和你作对时(这经常发生),只有这种自上而下的、基于直觉和审美的信念,能支撑你继续修 Bug,直到找到那个通往真理的入口。
正如他所说:“现在,我们又回到了研究的时代。” 那些只会堆算力的人将在此止步,而那些拥有真正洞察力的人,将开启下一个十年。