本文整理自 2026 年 1 月 10 日,在由清华大学基础模型北京市重点实验室、智谱 AI 发起的 AGI-Next 前沿峰会上的一场含金量极高的闭门会:唐杰/杨植麟/林俊旸/姚顺雨罕见同台,“基模四杰”开聊中国AGI。以下内容由我和 Gemini 3 Pro 共同整理完成。

由清华大学和智谱AI发起的AGI-Next前沿峰会上,当下中国大模型最核心的四股力量罕见地凑齐了:刚刚敲钟港股的智谱AI创始人唐杰、腾讯CEO办公室新任首席科学家姚顺雨(前OpenAI研究员)、拥有全球最强开源生态的阿里通义负责人林俊旸,以及刚拿了5亿美元融资的月之暗面CEO杨植麟

如果说2025年是中国大模型靠“快节奏迭代”和“疯狂开源”在国际上博得声量的一年,那么站在2026的开端,这四位掌舵人却显得格外冷静,甚至有些“悲观”。

唐杰一上来就给全场泼了盆冷水:“别觉得差距缩小了。美国还有大量闭源模型没放出来,中美大模型的差距,说不定并没有缩小。”

在这个定调下,这场对话没有客套的商业互吹,只有关于技术路线的真实分歧和对未来的硬核预判。

一、 Chat时代结束了,下一注押在哪?

对于过去的2025年,唐杰有一个断言:DeepSeek出来之后,关于“Chat(对话)”这一范式的探索已经结束了。

智谱的一年前的预判是Chat会替代搜索,但结果是谷歌自己革了自己的命。对于大模型公司而言,继续卷对话已经没有意义。智谱把新的筹码(Bet)全部押在Coding(代码)和Reasoning(推理)上。集推理、Agentic能力于一体的GLM-4.5,就是这一策略的产物。

而作为“Scaling Law(缩放定律)”的忠实信徒,杨植麟依然坚持Scaling是重点。但他眼中的Scaling不再是单纯的一力降十会,而是要讲究**“Taste(品味)”**。

“通过架构和数据层面的改进,我们要让模型拥有不同的Taste,这样才不会千篇一律。”杨植麟认为,未来的竞争不看谁的参数更大,而看**Token Efficiency(Token效率)Long Context(长文本)**的结合——即在长语境下,你的模型到底比别人强多少。

唐杰对此表示赞同。那种疯狂堆算力、堆RL(强化学习)就能获得巨大收益的日子已经过去了。他提出了一个新的衡量标准:Intelligence Efficiency(智能效率)。在这个新阶段,算这笔账很重要:投入多少算力,甚至能不能用更少的Scaling,换来同等的智力提升?

二、 To B 还是 To C?分化已经开始

前OpenAI研究员、现任腾讯核心科学家的姚顺雨,带来了极其敏锐的硅谷视角。他发现,大模型领域正在经历一场剧烈的分化。

“Chat”在To C端已经到了瓶颈。 姚顺雨举了个生动的例子:你今天问ChatGPT“我该吃什么”,和去年问它,体验差别并不大。因为对普通用户来说,模型的抽象代数能力变强了,你根本感知不到。C端用户需要的不是更强的模型,而是更丰富的Context(上下文)Environment(环境)——比如模型知道今天很冷,知道你老婆想吃辣,这才能给出好建议。

但在To B端,逻辑完全相反。“智能越高,生产力越高,赚的钱越多。”

姚顺雨观察到,美国企业愿意为最强的模型付溢价。一个月200美金的最强模型,和50美金的次强模型,企业会毫不犹豫选前者。因为OpenAI 4.5可能做对9个任务,差一点的模型只能做对6个,为了这3个的差距,企业还得雇人去监控,得不偿失。

阿里通义的林俊旸则认为,这种分化是自然发生的。他提到了Anthropic(Claude的开发商),这家公司之所以成功,不是因为为了做Coding而做Coding,而是因为他们频繁和企业客户交流,发现企业的真实需求就是Coding。

“现在美国API消耗量里,Coding占了绝对主导。但在中国,Coding的Token消耗量还没那么大。”林俊旸一针见血地指出。

三、 下一个圣杯:自主学习与“主动”AI

硅谷现在最火的词是什么?姚顺雨透露,大街小巷的咖啡馆都在聊**“自主学习”**。

这并不是什么科幻概念,而是正在发生的事实。Cursor每几个小时就用最新的用户数据训练;Claude 95%的代码已经是Claude自己写的了。

“这更像是一种渐变,而不是突变。”姚顺雨认为,2026年我们最大的挑战是想象力:如果AI真的实现了自主学习,它应该长什么样?是一个自动赚钱的交易系统,还是解决了一个人类未解的科学难题?

林俊旸则更关注AI的**“主动性”**。

现在的AI无论是ChatGPT还是各种Agent,都需要人类去Prompt(提示)才能启动。未来的AI,能不能环境就是Prompt?它看到环境变化,就自己决定去做事?

“但我最担心的不是AI说错话,而是它做错事。”林俊旸坦言,如果AI突然产生一个想法,觉得应该往会场扔个炸弹,这就是灾难。如何让AI既有主动性又安全,是比提升智力更难的课题。

四、 20%的胜率,与“穷人的创新”

在对话的最后,主持人李广密抛出了一个尖锐的问题:三五年后,全球最领先的AI公司是中国团队的概率有多大?

向来敢说的林俊旸给出了一个数字:20%

“这已经非常乐观了。”他解释道,中美在算力上的差距是客观存在的,甚至可能有1-2个数量级的差异。美国的巨头可以用大量的算力去探索下一代Research,而中国的团队光是做交付,可能就占用了绝大部分算力。

但他同时也提到了一个有趣的观点:“穷则思变”

正因为算力吃紧,中国团队必须要在算法和Infra(基础设施)的联合优化上下苦功夫。这种**“穷人的创新”**,反而可能在特定路径上跑出来。他回忆起2021年和做芯片的同事“鸡同鸭讲”的经历,大家都因为认知错位错失了机会,但现在,软硬结合的创新或许是打破僵局的关键。

姚顺雨则对中国的人才充满信心。他认为,只要一个技术路径被证明是可行的(比如预训练),中国团队能以极高的效率复现并局部优化。真正的挑战在于:我们是否有勇气去探索那些不确定性极高、没人做过的新范式?

“中国对于刷榜或者数字看得太重了。”姚顺雨提到DeepSeek的一个优点,就是他们不太关注榜单,只关注什么是正确的事。

结语

这场闭门会没有给出“中国AI必胜”的廉价鸡血,却展现了一种理性的韧性。

正如学术界代表杨强教授所言,AI的发展就像人类睡觉,需要清理噪音才能第二天学得更好。而唐杰的总结则更为从容:

“永远不要想着环境是最好的。我们恰恰是幸运的,经历了环境从没那么好到变好的过程。如果我们笨笨地坚持,也许走到最后的就是我们。”

2026,中国大模型正在告别盲目的“卷”,走向更务实的“深”。