AI 巨头牌局:当算力成本与价值捕获成为新的战场

本文来自于 A16Z 组织的一场圆桌论坛,本期节目中,Dylan Patel(SemiAnalysis 创始人兼首席执行官)将与 Erin Price-Wright(a16z 普通合伙人)、Guido Appenzeller(a16z 合伙人)以及主持人 Erik Torenberg 一同深入探讨 AI 芯片、数据中心和基础设施战略的现状。以下是视频精华。 “淘金热里,最先赚钱的永远是卖铲子和镐头的人。” 这句老话在今天的人工智能(AI)浪潮中,显得再贴切不过了。当我们谈论AI革命时,我们实际上在谈论一场由硬件、数据中心和芯片主导的军备竞赛。英伟达(Nvidia)已经成为地球上最有价值的公司,而AI云服务的IPO也屡创新高。这盘棋,远比我们想象的更复杂。 OpenAI的新算盘:从追求极致智能到精打细算 最近OpenAI发布的GPT-4o(被许多人戏称为GPT-4.5或GPT-5的预览版),让不少重度用户感到一丝“失望”。为什么?因为感觉模型不再像以前那样“深度思考”了。过去,像o1、o3这样的模型,可能会花上30秒甚至更长时间来处理一个复杂问题。而现在,即使开启“思考模式”,GPT-4o的响应时间也大大缩短,平均只有5到10秒。 这背后其实是OpenAI战略上的一次重要转向:从不计成本地追求智能,转向更高效、更经济的算力分配。 新模型的核心,是一个叫做**“路由器(Router)”**的机制。当你提出一个问题时,这个路由器会智能地判断: 这是个简单问题吗? 比如“天空为什么是蓝色的?”,那就交给轻量级的Mini模型,成本极低。 这是个需要深度思考的复杂问题吗? 那就调用更强大的“思考模型”。 用户是不是快没额度了? 也许可以降级到更基础的模型。 说白了,OpenAI现在能像一个精明的管家一样,动态地决定为你的每一次提问分配多少算力。这不仅极大地提升了他们的基础设施容量,更关键的是,为未来的商业模式铺平了道路。 过去,AI公司很难从免费用户身上赚钱,因为在对话中插广告会严重破坏用户体验。但有了路由器,一切都不同了。想象一下: 低价值查询:用户问作业题,用普通模型回答,成本可控。 高价值查询:用户问“我附近最好的律师是谁?”或者“帮我预订下周去纽约的机票”,路由器会立刻调用最顶级的模型和智能体(Agent),去搜索、比较、甚至完成预订。 在这种模式下,OpenAI可以从交易中抽取佣金,从而将免费用户转化为高价值的收入来源。这不仅仅是技术上的优化,更是商业模式上的一次“核聚变”。成本和性能的平衡,已经取代了单纯的跑分,成为了模型竞争的新战场。 英伟达的王座:价值捕获的终极赢家 聊完模型,我们必须把目光投向这一切的基石——英伟达。它的股价今年势如破竹,但未来的路会怎么走? 需求端依然火热。可以粗略地把英伟达的芯片需求分成三块: AI实验室:像OpenAI和Anthropic这样的公司,消耗了大约30%的芯片,用于训练下一代大模型。 广告与推荐系统:Meta、字节跳动等公司,为了优化广告投放,同样是芯片采购大户,这部分也占了大约三分之一。 其他玩家:剩下的三分之一,流向了各种云服务商和初创公司,其中不乏一些尚未找到稳定商业模式的“非经济性”买家。 目前来看,第一和第二部分的需求仍在增长,但真正有趣的是一个被称为“价值捕获”的问题。 一个有趣的现象是,AI已经创造了巨大的社会价值,但模型公司本身却很难将这些价值完全转化为收入。比如,一个四人开发团队,利用AI工具能自动化处理海量数据,创造出巨大的商业价值,但他们为此支付给模型公司的API费用却微乎其微。OpenAI可能连自己创造价值的10%都没能捕获到。 然而,作为“卖铲人”的英伟达,却稳稳地抓住了价值。AI软件开发能为全球GDP带来数万亿美元的增长潜力,这些价值最终都会层层传导,转化为对GPU的需求。 挑战者们的困境:一场注定艰难的“越级打怪” 既然英伟达这么赚钱,难道没人能挑战它吗?当然有,但这条路异常艰难。 1. 内部玩家:谷歌、亚马逊的定制芯片 谷歌的TPU、亚马逊的Trainium、Meta的MTIA,这些云巨头们都在大力发展自己的定制芯片。他们的优势在于: 拥有“ captive customer ”(专属客户):就是他们自己。芯片造出来不愁销路。 目标是压缩成本:他们不需要对外销售产生利润,只要能降低内部的算力成本,就是巨大的成功。 目前来看,谷歌的TPU利用率很高,而亚马逊的Trainium也随着Anthropic的使用逐渐成熟。这确实是英伟达面临的最大威胁之一。甚至有人提出,既然英伟达的市值已经超过了谷歌,谷歌为什么不干脆把TPU拿出来公开销售呢?这在理论上完全可行,但需要谷歌进行一次彻头彻尾的文化和组织架构重组,难度极大。 2. 外部玩家:芯片初创公司的“5倍定律” 市面上涌现了无数AI芯片初创公司,比如Etched、Revos、Grok、Cerebras等等,他们获得了数十亿美元的投资。但他们面临的挑战,比云巨头们大得多。 他们无法像云巨头那样只为自己服务,必须在公开市场上与英伟达竞争。而英伟达几乎在所有方面都占尽优势: 供应链:能最先拿到台积电的先进工艺、SK海力士的HBM内存,甚至在网线、机架等方方面面都有更强的议价能力。 生态系统:CUDA软件生态已经形成了一道深深的护城河。 迭代速度:每年都在快速推出性能更强的产品。 这就意味着,任何挑战者要想脱颖而出,就必须拿出比英伟达好上5倍的产品。为什么是5倍?因为你即使在架构上实现了5倍的理论优势,经过供应链成本、软件开销、市场营销等层层损耗,最终可能只剩下50%的实际优势。而这时,英伟达只要稍微压缩一下自己75%的毛利率,就能轻松抹平你的这点优势。 更要命的是,这是一个“移动靶”。当你花几年时间,针对当前的Transformer模型设计了一款完美的芯片,结果模型本身又进化了,变得更适合在英伟达的通用GPU上运行。这种“硬件软件协同进化”的循环,让专用芯片的赌注风险极高。 基础设施的瓶颈:当美国为电发愁 这场竞赛还有一个关键的制约因素:电力和数据中心。 在美国,AI的发展正面临着严重的电力瓶颈。这并不是说电费有多贵,而是电网容量、变电站建设、输电线路铺设这些基础设施的建设速度,远远跟不上AI算力的增长需求。谷歌、Meta等公司手上有大把已经买好的芯片,却因为数据中心没建好、电力没到位而闲置。为了抢时间,他们甚至开始搭建临时的“帐篷式”数据中心。 相比之下,中国拥有强大的基建能力,电力不是问题。但他们受限于无法获得最顶尖的AI芯片。即便如此,中国公司依然在想尽办法,比如在海外租用GPU云服务,或者通过新加坡等地的公司在海外建设数据中心。 这个现象揭示了AI竞赛的另一个层面:它不仅仅是公司之间的竞争,更是不同国家在基础设施、供应链和资本投入上的全面较量。 给科技巨头们的“逆耳忠言” 最后,不妨开个玩笑,如果能给这些科技巨头的CEO们提点建议,会是什么呢? 给英伟达的黄仁勋:你手握千亿现金,别只想着股票回购。利用这笔巨款,深入投资基础设施层,去加速整个生态的建设。这不仅能巩固你的王座,还能创造更大的市场。 给谷歌的皮查伊和布林:别再那么“佛系”了!把你们的TPU拿出来卖,把XLA软件栈彻底开源。你们正在流失最顶尖的人才,而搜索业务的根基正被AI动摇。再不拿出破釜沉舟的勇气,就晚了。 给Meta的扎克伯格:你对AI的愿景很宏大,但要更快地落地成产品。别只守着自己的社交花园,大胆地走出去,推出能和ChatGPT、Claude正面竞争的产品。 给苹果的蒂姆·库克:醒醒!计算的交互界面正在从“触摸”转向“AI”,这会从根本上颠覆你的生态。Siri已经落后太多了,再不投入数百亿美元到基础设施和模型研发上,苹果的护城河会越来越窄。 给微软的纳德拉:你们拥有全球最强的企业销售团队,但产品力却在下滑。GitHub Copilot起了个大早,却赶了个晚集;自家的AI产品反响平平;对OpenAI的掌控力也在减弱。是时候把重心从销售拉回到产品上了。 给特斯拉/xAI的埃隆·马斯克:你吸引顶尖人才的能力无人能及,但一些冲动的决定正在伤害你的公司和项目。少一些随性的决策,多一些对产品的持续专注,你的帝国会更稳固。 这场AI的牌局还远未到终局。战况瞬息万变,曾经的性能王者开始精打细算,沉默的基建狂魔手握重金,而挑战者们则在一条异常崎岖的道路上奋力追赶。谁能笑到最后,不仅取决于技术上的突破,更取决于在经济、生态和战略上的远见卓识。我们正亲眼见证一个时代的诞生。

August 20, 2025 · 1 min · fisherdaddy

扎克伯格摊牌了:百亿豪赌、个人超级智能与 AI 的终极形态

本文来自于 Meta CEO 马克·扎克伯格接受《The Information》杂志记者杰西卡·莱辛的采访视频,讨论了他对个人超级智能的愿景,以及这种愿景与当今世界对 AI 的理解有何不同。 采访还涵盖了扎克伯格部署资本的策略,以及他为何要将服务器安置在帐篷内。 扎克伯格摊牌了:我们的目标是“个人超级智能”,而且要不惜一切代价 最近,马克·扎克伯格似乎按下了AI军备竞赛的“狂暴”按钮。从疯狂招募顶尖AI人才、豪掷重金入股Scale AI,到宣布建造堪称巨无霸的超级计算机集群,Meta的一系列动作都在清晰地传递一个信号:他们要“All in” AI,而且是以前所未有的规模。 在与 The Information 的一次深度对话中,扎克伯格首次系统地阐述了Meta在这场AI终局之战中的独特愿景和激进打法。他不再满足于追赶,而是要定义一个全新的赛道——个人超级智能 (Personal Super Intelligence)。 不只是造工具,而是要给每个人一个“超强大脑” 当下的AI竞赛中,无论是OpenAI还是Google,大家似乎都更关注如何用AI解决“宏大问题”,比如自动化经济生产、赋能企业。但扎克伯格的思路显然不太一样。 他认为,AI就像早期的互联网,它的价值绝不限于生产力。人们生活中真正关心的,更多是人际关系、文化、创造力、娱乐和享受生活。这就是Meta想要聚焦的地方。 “我们的使命,是把个人超级智能带给世界上的每一个人,”扎克伯格说,“我们想把这种力量直接交到每个人的手中。” 这与竞争对手们想打造一个“中央超级智能”来解决宏大问题的思路形成了鲜明对比。扎克伯格描绘的未来是: AI是你的个人伙伴:它关心你生活中的琐事,而不仅仅是宏大的社会议题。 AI提升你的个人生活:它帮你维系人际关系,激发你的创造力,让生活更有趣。 AI增强你的认知能力:未来,不戴AI眼镜,可能就像近视眼不戴眼镜一样,处于一种“认知劣势”。 他举了一个生动的例子:我们每次和别人聊天,脑子里可能会闪过五件想后续跟进的事,但最后因为忙碌,能做一件就不错了。而在未来,你的AI眼镜会帮你记住这一切,甚至主动帮你跟进处理。 这种“个人化”的愿景,可以说是Meta这家以社交和连接起家的公司,在基因里就写好的。 弹药充足:用“钞能力”和极致算力吸引顶尖人才 要实现如此宏大的愿景,需要两样东西:顶级的人才和海量的算力。扎克伯格对此毫不含糊。 1. 人才争夺战:钱很重要,但不是全部 面对外界报道的数百万甚至上亿美元的“天价”薪酬包,扎克伯格虽然承认市场竞争激烈,但他透露了顶尖研究员们更看重的东西。 他说,现在招募这些顶级人才,他们想要的不再是管理多少人的“大团队”,而是恰恰相反——“最少的人,最多的GPU”。 这些天才希望在一个小而精悍的团队里,每个人都能将整个项目装进自己的脑袋,同时拥有几乎无限的计算资源来验证自己的疯狂想法。而这,正是Meta能够提供的核心吸引力。 “如果你要投入几千亿美元来构建计算集群,那么花点钱、不惜一切代价去争取那五六十个最顶尖的研究员,是完全说得通的。” 扎克伯格的逻辑很清晰:与庞大的硬件投入相比,人才招聘的成本反而是“小钱”。 2. 算力军备:不设上限的投入 当被问及资本支出(Capex)是否有上限时,扎克伯格的回答简单而霸气:“我们会看技术进展和结果再说。” 他认为,将资本转化为更优质的服务,是一种核心的竞争优势。Meta强大的业务模式能持续产生巨额现金流,这让他们有底气进行这种“可能长达数年,耗资数千亿”的投入,而许多竞争对手则需要为此不断融资。 为了在这场竞赛中跑得更快,Meta甚至颠覆了传统数据中心的建设方式。他们开创性地使用**“防飓风帐篷”**来快速搭建GPU集群,而不是等待耗时数年的钢筋混凝土建筑完工。 目前,Meta正在建设两个以希腊泰坦神命名的“泰坦”级数据中心——普罗米修斯(Prometheus)和许珀里翁(Hyperion)。其中,许珀里翁最终将扩展到惊人的5千兆瓦(5 GW),其占地面积甚至堪比一大部分曼哈顿。 扎克伯格的目标很明确:打造全球最庞大的计算集群,并实现“人均算力”的遥遥领先。 AI的终极形态:透过你的眼睛看世界 那么,这个“个人超级智能”最终会以什么形态出现呢?扎克伯格的答案,与他多年前就下注的另一项技术紧密相连——智能眼镜。 他坚信,智能眼镜是AI的最佳载体,因为: 它能看到你所见,听到你所闻,真正理解你所处的环境和上下文。 它能与你全天候对话,成为一个无缝的交互入口。 未来,它能直接在你眼前生成全息影像和交互界面,提供即时信息和帮助。 这让Meta在Reality Labs上的长期巨额投资,与当下的AI战略完美地串联起来,形成了一个从硬件到软件再到服务的闭环。 一场严肃的豪赌 在采访后的讨论中,记者Jessica Lessin敏锐地捕捉到了扎克伯格的变化。他当天穿着一件有领子的衬衫,虽然看似随意,但在熟悉他的人看来,这是一种“严肃”的信号——就像他曾在Facebook面临严峻挑战时,坚持每天打领带上班一样。 这次,扎克伯格是认真的。他不再是被动应对,而是主动出击,试图为Meta,也为整个科技行业,划定下一代计算平台的战场。 当然,一个巨大的问题仍然悬而未决:当“个人超级智能”真的实现时,它的商业模式是什么?如何为这项耗资千亿的服务买单? 这或许是这场“AI热夏”中最激动人心,也最充满未知的问题。但可以肯定的是,扎克伯格已经摆好棋局,押上重注。这不仅关乎Meta的未来,也可能从根本上改变我们每个人与技术互动的方式。我们都在拭目以待。

July 23, 2025 · 1 min · fisherdaddy

Meta 超级智能团队全解析:44 位 AI 精英背景、专长与成就

为了实现 Meta 的“超级智能”项目,扎克伯格亲自上阵,忙了几个月,终于凑齐了 Meta Superintelligence Labs(MSL)。其中的每个人都是精英中的精英,年薪从千万到上亿美元不等,大部分人来自于 OpenAI(40%) 和 Google DeepMind(20%),中国人占比 50%。上周末社交平台上曝光了 MSL 团队 44 人的详细名单,我用 OpenAI DeepResearch 对其中的每个人进行了深度调研,以下是团队中每个人的基本背景、目前在 Meta 的职位,以及个人成就亮点。 纳特·弗里德曼(Nat Friedman,美国) 纳特·弗里德曼是 Meta 超级智能团队的联合负责人,现任 Meta 超级智能部门副总裁,负责推进 AI 产品和应用研究。他加入 Meta 刚满 18 天,但在技术行业拥有约 20+ 年的丰富经验(他早在1999年就创办了开发者平台公司 Ximian)。在当前职位之前,弗里德曼曾联合创立风险投资公司 NFDG,并担任 GitHub 首席执行官。他在开发者工具和开源生态领域造诣颇深,善于将前沿技术产品化。学术方面,他获得了麻省理工学院计算机科学学士学位。弗里德曼以敏锐的产品洞察力和丰富的创业经验,带领团队将研究成果转化为实际产品。 丹尼尔·格罗斯(Daniel Gross,以色列) 丹尼尔·格罗斯是团队的产品方向领导,加入 Meta 仅 18 天,拥有约 15 年的从业经验,现任 Meta 超级智能部门产品负责人。在此之前,他是 AI 创业公司 Safe Superintelligence 的联合创始人兼 CEO,并与弗里德曼共同创立了投资机构 NFDG。格罗斯年少成名,18 岁即进入创业孵化器 Y Combinator,此后一直专注于人工智能产品的创业和投资,对 AI 产品设计与用户需求有深刻理解。他没有传统的高等学历背景(年轻时即投身创业),但其作为创业者和投资人的经历使他成为引领 Meta AI 产品战略的理想人选。 扬·勒坤(Yann LeCun,法国) 扬·勒坤是深度学习领域的开拓者,现任 Meta 首席 AI 科学家兼副总裁,在 Meta 工作已逾 10 年(自 2013 年起领导 Facebook AI Research)。他在学术和工业界拥有超过 35 年的资深经验,是卷积神经网络和深度学习革命的奠基人之一。当前他在 Meta 超级智能团队中负责总体科研方向,把关最前沿的 AI 技术研发。同时,勒坤也是纽约大学的教授,长期从事机器学习研究培养人才【75†】。他的专长涵盖计算机视觉、深度学习和强化学习等领域,曾荣获图灵奖等诸多荣誉。学术方面,勒坤在巴黎皮埃尔和玛丽·居里大学获得计算机科学博士学位。他的加盟为团队带来了顶尖的科研洞见和经验。...

July 21, 2025 · 5 min · fisherdaddy

Llama 4 综合评估:基准表现、实际能力与争议

Meta 作为人工智能领域的关键参与者,持续通过其 Llama 系列模型推动开源大语言模型的发展。继 Llama 3 取得显著成功后,Meta 于 2025 年 4 月 5 日推出了备受期待的 Llama 4 系列模型。Llama 4 引入了混合专家(MoE)架构和原生多模态等关键技术革新,Meta 公布的基准测试数据显示其在多个指标上表现优异,甚至超越了一些领先的闭源模型。然而,大量来自开发者社区和独立测试者的实际应用反馈却指出,Llama 4 在编码、推理等方面的实际表现并未达到预期,甚至不如一些参数量更小的模型。这种基准分数与实测能力之间的显著差异,引发了关于 Llama 4 是否存在针对性“刷榜”以及模型真实能力的广泛讨论和质疑。 今天正好 Google 更新了 DeepResearch:由原来基于 Gemini 2.0 Flash Thinking 模型,改为基于 Gemini 2.5 pro 模型(目前已公开的最强模型),结果准确率大幅提升。Google 放出来了和 OpenAI DeepResaerch 的对比评测,我也尝试了一些 case,确实比上个版本好很多。本篇文章大部分由 Gemini 的 DeepResearch 所写,我对结果进行了编排、校审和微调。 Llama 4 模型家族概览 Llama 4 系列是 Meta 推出的新一代 AI 模型,旨在支持整个 Llama 生态系统,并被 Meta 称为其迄今最先进的模型。该系列引入了混合专家(MoE)架构和原生多模态设计。目前已发布和预告的模型包括: Llama 4 Scout: 这是一款轻量级、高效率的模型,拥有 109B 总参数和 16 个专家,每次推理激活 17B 参数。Scout 的突出特点是其业界领先的 1000 万 token 上下文窗口,远超 Llama 3 的 128K。它被设计为可在单个 NVIDIA H100 GPU 上通过 Int4 量化高效运行,适用于通用 AI 任务,尤其擅长处理超长文档摘要、大规模代码库推理和个性化任务。Meta 称 Scout 是其同类产品中“世界上最好的多模态模型”。 Llama 4 Maverick: 这款模型同样拥有 17B 激活参数,但总参数量达到 400B,并配备了 128 个专家。Maverick 被定位为通用主力模型,特别适用于助手和聊天场景,在图像理解、创意写作和多语言处理方面表现出色。它支持 100 万 token 的上下文窗口,并可在单个 H100 主机(或多 GPU)上运行。Meta 称 Maverick 在多个基准测试中击败了 GPT-4o 和 Gemini 2....

April 9, 2025 · 6 min · fisherdaddy