DeepMind CEO Demis Hassabis:AGI 还差什么,AI 会怎样改变科学与创业
本文整理自 YC 总裁对 DeepMind CEO Demis Hassabis 的访谈,由有道龙虾总结和发布。 Demis Hassabis 对 AGI 的判断很直接:现在这套大模型路线不是死路,预训练、RLHF、思维链、强化学习和搜索,大概率都会出现在最终的 AGI 架构里。 但它还不完整。 在这场 YC 对谈里,他反复提到几个词:持续学习、长期推理、记忆、一致性、智能体、科学发现。这些词听起来像技术细节,但放在一起,其实是在回答一个更大的问题:AI 到底什么时候从“会回答问题的模型”,变成“能主动解决问题的系统”? Demis Hassabis 为什么值得听 Hassabis 的经历很少见。 他小时候是国际象棋神童,17 岁做出了热门游戏《Theme Park》。后来他又回到学校读认知神经科学博士,研究大脑中的记忆与想象机制。2010 年,他创办 DeepMind,给公司的使命定得非常大:solve intelligence,解决智能。 后来发生的事大家都知道了。 AlphaGo 击败围棋世界冠军,AlphaFold 破解蛋白质结构预测这个困扰生物学 50 年的难题,并把成果免费开放给全球科学家。Hassabis 也因此获得诺贝尔化学奖。如今他领导 Google DeepMind,继续推动 Gemini 和 AGI。 所以当他谈 AGI 缺什么、智能体到哪一步了、AI 会怎样改变科学时,他不是在聊概念,而是在复盘一条已经跑通过几次的路。 AGI 不是推倒重来,但还差一两块关键拼图 主持人问他:现在的大模型范式,包括大规模预训练、RLHF、思维链推理,离 AGI 的最终架构还有多远? Hassabis 的答案很克制: 这些组件大概率会是 AGI 最终架构的一部分。它们已经证明了太多能力,我不认为几年后我们会发现这是一条死路。 但他马上补了一句:还可能缺一两件大东西。 他点名了四个问题: 持续学习:模型不能只靠一次训练和临时上下文,它要能把新经验稳定地融入已有知识。 长期推理:不仅能做几步思考,还要能跨很长时间、复杂任务持续推进。 记忆机制:不是把所有东西塞进上下文窗口,而是知道什么该记、什么该忘、什么时候取出来。 稳定一致性:同一个模型不能一边解 IMO 金牌题,一边在简单算术或推理上翻车。 他认为,现有技术可能通过规模化和渐进创新解决这些问题,也可能还需要“一两个大想法”。他的判断大概是五五开。 这句话很重要。它既不是“AGI 明天就到”,也不是“大模型泡沫快破了”。更像是在说:主路已经很清楚,但最后几公里可能最难。 记忆不是更长上下文,而是更聪明的取舍 今天很多模型已经有百万 token 级别的上下文窗口。听起来很夸张,毕竟人类工作记忆也就几个数字。...