本文来自腾讯科技对李开复的访谈。李开复在对话中探讨了美国主导的 AGI(通用人工智能)可能带来的霸权问题,特别是 OpenAI 及其 CEO Sam Altman 的垄断野心。他认为,中国应通过建立一个良性生态系统来抵抗 AGI 垄断。核心策略是降低推理成本(推理成本每年将下降 10 到 50 倍,从而推动应用的普及),使得更多应用能够快速落地,形成广泛的应用生态。虽然中国在 AGI 研发上可能落后,但在应用落地和成本控制方面具有优势,中国可以通过快速发展应用来抵抗 AGI 垄断。

良性的生态

一个良性生态,应该是芯片赚最少的钱,平台赚蛮多的钱,应用赚最多的钱;平台本身比任何一个应用都赚钱;但所有应用加起来比平台赚更多的钱。PC、互联网、移动互联网是这样,云也是这样。AI是不是?绝对不是。

今天 AI 生态是芯片 GPU 占 750 亿美金>云厂商 100 亿>应用商 ChatGPT 这类只有 50 亿——是一个倒三角。如果持续是倒三角,AI-first 的应用不会雨后春笋冒出来。用户不会得到福利,大家做应用不会那么快 PMF(Product Market Fit,产品市场契合度)、赚到钱、融到资,不能达到良性生态系统的正向循环。

AI 应用为什么没爆发

AI 应用为什么不爆发?是因为推理成本太贵了。

前一阵有一篇文章《Situational Awareness: the Decade Ahead》(《态势感知:未来十年》,OpenAI 前员工撰写),大胆说 AGI 三年会发生,有些假设值得商榷。我觉得 Epoch AI(一家非营利研究组织)说得更靠谱,他们在今年 8 月一篇文章《Can AI Scaling Continue Through 2030?》(《人工智能的规模定律能否持续到 2030 年?》)中,分析了四件事:

  • 数据还能多快增加?
  • 世界生产 GPU 的能力,还有 HBM(高带宽存储器),就是内存的能力,能多快增加?
  • 计算的耗损能多快增加?你作为一个神经网络,它的 forward backward 训练(前向传播和反向传播训练),使它不是 GPU 问题,而是传输问题。如果是一张变成两张传输还好,如果是 100 万张变成 200 万张,传输就会成为瓶颈。
  • 还有一个,世界上有多少电?

——最后它计算的结果大概是 2030 年。

他的说法是说从 GPT-2 到 4,从 2019 年到 2023 年,4 年时间提升的 level,和从 GPT-4 到 AGI 大概是一样的 level。也就是从幼儿园到高中生,从高中生到天才,是类似提升。如果第一个提升(幼儿园到高中生)花了 4 年;第二个提升(高中生到天才)需要 7 年,就表示有 diminishing return(边际效益递减)。

我们可以期待 Scaling Law(规模定律)继续往下走,但它不会像以前那么快,而且非常、非常贵。

做到 AGI 要花多少钱?它说了一个超级天文数字。不见得一个公司做得起。

OpenAI 的技术储备

OpenAI 手中还有很多牌没出

OpenAI 还藏了很多好东西没有放出来,我们千万不要低估它。

它手中还有很多牌,不急着出这些牌。因为它每次出一张牌,全球技术公司包括中国的,就会看它出了什么牌、去猜、去做。就算不能打平,也能做到八九成。所以,它并不想把牌打光。它想留到最后 AGI 有望的时候,再比较有信心地打出来。

所以,这是一个技术实力非常强大的公司。我觉得它跟 Google 的距离,不是 Google 在拉近,而是差得越来越远。当一个公司有这么多技术储备,可以战略性决定什么时候放出技术。比如,需要融资、需要 show muscle(显示实力)的时候。

GPT-5 与 o1

GPT-5 训练得不是很顺利,但是,为了融资,就丢了一个 o1 出来。

但是,GPT-5 训练碰到挑战,意味着 3 年达到 AGI 的预测可能过度乐观。本来 GPT-5 应该现在已经出来。现在看,即便出来,最快也是半年后了。不过,o1 能递补上来,把这次融资完成。

o1 本身并没有带来那么大推理和理解提升,但它把快思考、慢思考做成两套东西,以后相辅相成。对一个做技术的人来说,1 年半前把全部精力放在 pretrain(预训练),因为这个难度大,没人做过,只有一两家公司做过。现在,很多公司学会了。之后就发现,一个很难的硬骨头是要把 post train(后训练),尤其强化学习做好。今天强化学习做得好的公司非常少。

这次又抛出了第三个,是推理时的 Scaling Law。o1 最厉害的就是推理时的 Scaling-Law,推理花越多时间思考做得越好,这是之前 ChatGPT 没有的。开阔了很多人的思考。

标准硅谷共识

现在一个“标准硅谷共识”就是 Sequoia(红杉美国)那篇文章《Generative AI’s Act o1: The Agentic Reasoning Era Begins》(生成式 AI 的 o1 行动:代理推理时代的开启)。它以 o1 为 title,但要读到最后,投资逻辑写得很清楚。国内创业者朋友可以看一看。这符合我跟硅谷创业者、投资人的沟通。

英伟达、Meta、微软、OpenAI、xAI、Google 等巨头的动作

英伟达

英伟达肯定是现在最大获利者。之后它可能面临,随着大部分 GPU 不再做训练,而是做推理,优势能不能持续?这是它面临的一个问题。也许会持续,我不知道。

Meta

Meta 是最大搅局者——它什么事情赢不了,就开源,用开源来做卡位。

我蛮佩服他们放一大批人做广告。他们能靠广告赚一笔钱,然后开源来做一个卡位。他们技术比不上 OpenAI,但开源卡位,很多人用它的开源模型,以后看有什么机会再推进。虽然我觉得 Mark(扎克伯格)对 AI 不是很懂,但他就这么一招——打不过人家就开源——已经两次成功了。第一次是 TensorFlow 跟 PyTorch,这次也好像蛮成功。Meta 位置是 OK 的。

微软

微软是位置最好的。它一方面靠 AI 赚很多钱,虽然投资养着 OpenAI,但占了很多股,是可攻可守的一个位置。

它的挑战是自己的模型一直没做好。OpenAI 跟微软是合作,但这个蜜月期可能会结束。OpenAI 肯定做了 Plan B,微软如果没有 Plan B,到时候比较麻烦。但现在它处于非常好的短中期情况。长期如果做不出模型,跟 OpenAI 闹掰了,有挑战。现在微软和英伟达是最大获利者。

OpenAI

OpenAI 是特别强大、垄断型的公司,Sam Altman(OpenAI CEO)可能会是有史以来最大的垄断者。

我讲这个不是贬义,是陈述事实。他今天还没成为垄断者,但他的谋略,他的野心,他把一二三步棋都想清楚,这些我很佩服他。但从一个从业者的角度,也很担忧他。

xAI

xAI 执行力非常强,来自 Elon Musk(马斯克)管公司就跟中国公司一样。他公司一些小将我都认识,非常能干,玩命帮他干。他今天得到的成就是,复刻了 OpenAI 跟 Google 早期的一些技术,他能这么快复刻,在美国比较罕见。要看他以后能不能结合特斯拉的具身和自动驾驶,加上 xAI。无论如何,不能低估 Elon Musk,他现在是一匹黑马。

Google

Google 是比较伤感的。

理论上它应该最强——最厉害的大模型论文是 Google 做的,最厉害的 Reinforcement Learning(强化学习)是 DeepMind(Google 旗下)做的,这两个并在一起,没有产生很大杀伤力。

而它现在面临的是,搜索处于四面挑战的局面。

一方面大模型让一些用户有问题不先去搜索引擎,而先去 ChatGPT,带走了一些量。更严重的是,最近很多用户买东西直接去 Amazon。在中国大家觉得本来就这样,买东西去淘宝或拼多多,其他搜索去百度。但现在同样的情况在美国发生。很多人要做 commercial search(商品搜索)不在 Google 做了,直接在 Amazon 做。所以,它这两面受敌。

再加上它的两难是,到底放不放大模型到搜索里去?放的话,有三种方法:

  • 第一种是,取代你的搜索,就把所有广告业务都拆没了,公司可以关门了;
  • 第二种是,不放进去,做成两个入口,是掩耳盗铃嘛。明明是一件事,为什么放两边?
  • 第三种是,两者并存,就是你做一个 Google 搜索,看到有一个 Gemini Overview,再放搜索结果在旁边。这样你既会少收广告,用户体验也不极致,因为你给那么一点点 overview,不解决问题。我问一个问题,我要一个答案,你给我一个 overview 干什么?于是,它就是变成“四不像”——又有搜索结果,一大堆链接,又有广告,还给 overview,就不给我答案。这是它现在选择的做法。

另外有很多奇怪的事,比如 Google 的 Gemini 不能问大选的事,怎么会这样?还有之前碰到各种问题,什么吃胶水啊、吃石头啊,很多问题存在,理由是什么?我不太知道。

Google 短期不看好。但 Google 有很强技术积淀,能不能触底反弹?就不知道了。

Perplexity 是个很好的产品

Perplexity 是很好的产品。倒不是说 Google 做不出 Perplexity,Google 分分钟就可以做一个 Perplexity,可是基于刚才的考量——它不能做。

Perplexity 可以少赚钱甚至赔钱去弄一堆用户。Google 每个搜索产生的收入是 1.6 美分。今天 Perplexity Pro 的用户收 20 块钱,但搜索成本很高,不能 cover 所带来的搜索,它用 GPT-4o 嘛。但 Perplexity 不在乎啊,它说我就赔钱——免费用户我当然赔钱,付费用户我也赔一些钱——只要烧出用户来,我就基于用户成长得到投资。Google 呢?它不太能反击——这是 Perplexity 最大的优势,它产品做得不错,但没什么特别了不起的。

Perplexity 做得很好的是,把可信的问题,部分让用户以为化解了,其实并没有。它用 citation(引用)的模式,让你觉得这篇回答里有这么多 citation,我可以一个个点开,看是哪来的,大部分靠谱,就觉得你没有幻觉了。其实绝对不是——我们衡量过 Perplexity 的幻觉,还挺高的——但用户觉得有 citation,看到了放心。这是很有意思、很值得学习的一个用户体验的 trick(把戏)吧。

还有使用场景,你如果要做 research(研究)、得到 insight(洞察),Perplexity 的 UI 是正确的——它出各种图、视频、点击、文章、延伸、citation,像一个图书馆。Perplexity 自称,公司愿景是做一个“瑞士刀”。有一把小刀,你搬出来什么都有。开瓶的、剪刀、小刀、开信封的,一个工具可以做比如 12 样事。

但我更相信 Larry Page(Google 创始人之一)曾经说的。一次,我在 Google 早期一个会上,Larry Page 说:我们的搜索打几个字,出一堆链接是不对的;正确搜索形态应该是问一个问题,得到一个正确答案。

我们现在的技术更能贴近一个问题、一个答案,反而做非常复杂的 research tool(研究工具),未必是每个人需要的。但对分析师、研究员、教授、学生、记者,是好工具。

所以,Perplexity 我是认可的。但说它取代 Google,还是很困难。

但它也被内容生产商告,《纽约时报》最近告它了。这在美国是很严重的问题,《纽约时报》会一家、一家去告的。

模应一体,AI 时代技术专家是最优的总负责人

在 AI 2.0 时代,我们与时俱进地实践“模应一体”——模型和应用一体共创。在 AI-first 时代,一个应用的好与否,80% 看模型,20% 看其他点缀或用户体验的东西。所以,80% 要一个有一定用户理解的模型工程专家或 research 专家,来 drive(驱动)。现在我们设计的几个产品,都是核心技术人做总负责人。