告别暴力堆算力:Ilya Sutskever 深度解析 AI 的下一站与 SSI 的野心

本文来自于 Youtube 博主 Dwarkesh Patel 对 Ilya Sutskever(SSI 创始人、前 OpenAI 首席科学家)的最新深度访谈。访谈中,Ilya 谈到为何 Scaling Law 遭遇瓶颈?什么是 AI 真正缺失的“泛化”能力?SSI 为何选择不发产品的“直通”路线?并给出了 AI 未来 5-20 年的终极推演。本文由我和 Gemini 3 Pro 共同整理完成。 身处旧金山湾区,有时候你会觉得这一切都很魔幻。我们正处在科幻小说变成现实的中心,但一切发生得又是如此“平淡”。这或许就是所谓的“缓慢起飞”(Slow Takeoff)——即使我们正把 GDP 的 1% 投入到 AI 中,对于大多数普通人来说,除了新闻里那些令人咋舌的融资数字,生活似乎并没有什么翻天覆地的变化。 但这种平静可能只是暴风雨前的宁静。 最近,Ilya Sutskever 对 AI 行业的现状、技术的瓶颈以及他新公司 SSI (Safe Superintelligence) 的路线图进行了一次极高密度的分享。如果你厌倦了市面上千篇一律的“Scaling Law(缩放定律)万岁”论调,这篇深度解读或许能给你通过迷雾的指引。 一、 悖论:为什么 AI 既聪明又“智障”? 我们现在面临一个非常令人困惑的现象:模型在各种高难度基准测试(Evals)中表现极其出色,看似智商爆表,但在实际经济应用中,甚至在一些简单任务上,却显得笨手笨脚。 举个很典型的“写代码”例子:你让 AI 修复一个 Bug,它说“好哒我修好了”,结果引入了一个新 Bug;你指出新 Bug,它说“哎呀我错了”,结果又把旧 Bug 改回来了。这种死循环在真实开发中并不罕见。 为什么会这样?Ilya 提出了两个解释: RL(强化学习)的副作用:现在的模型经过了大量的 RL 训练。这让它们变得像那种“钻牛角尖”的学生。如果预训练(Pre-training)是让模型通过阅读海量数据来“理解世界”,那么 RL 就像是为了应试而刷题。 “做题家”与“天才”的区别: 现在的 AI 就像一个**“顶级竞赛选手”**,为了拿金牌,它刷了 1 万小时的题,背下了所有解题套路。如果你出的题在它的题库范围内,它秒杀全场。 但我们真正想要的是那种**“有天赋的学生”**,哪怕只学了 100 小时,但他真正“懂”了,具备了举一反三的泛化能力。 目前的业内做法是:为了让模型在编程竞赛中拿高分,就把所有的竞赛题都喂给它,甚至通过数据增强造出更多的题。结果我们得到了一堆“做题机器”,但当你把它放到真实世界那种从未见过的复杂代码库中时,它就因为缺乏真正的“泛化能力”而露馅了。...

November 26, 2025 · 1 min · fisherdaddy