告别演讲:亚马逊 CTO Werner Vogels 谈 AI 时代的“文艺复兴式开发者”

本文整理自Werner Vogels 在 AWS re:Invent 的最后一次主题演讲。在 Gemini 3 Pro 的帮助下,我把本次演讲中最核心的内容转成了一篇精彩的文章,以下为文章内容。 如果要用一个词来形容今年的 AWS re:Invent,那一定是“转折”。 这不仅仅是因为 AI 正在重塑我们的行业,更因为那个穿了 12 年 T 恤、在台上跑来跑去的亚马逊 CTO —— Werner Vogels 宣布,这是他最后一次在 re:Invent 发表主题演讲了。 别慌,他不是要离开亚马逊。他只是觉得,在这个风起云涌的时代,该把舞台留给更多年轻、鲜活的声音了。 但在这最后的谢幕演讲中,Werner 没有煽情,而是非常硬核地回答了那个悬在所有程序员头顶的达摩克利斯之剑:“AI 会抢走我的饭碗吗?” 答案是:绝不。前提是,你得进化。 我们正在步入一个新的“文艺复兴”时期,作为开发者,我们需要一套全新的生存哲学。 房间里的大象:AI 与我们的未来 我们先来聊聊那个“房间里的大象”。无论是在非洲、拉美还是亚洲,Werner 到访每一个城市时,大家都在问同一个问题:AI 会让我失业吗? 让我们换个角度问:AI 会让我变得过时(Obsolete)吗? 回想一下历史。当你还在学校里学 Pascal 和 COBOL 的时候,编译器出现了,汇编语言似乎不再那么重要了;后来有了结构化编程,有了面向对象,有了 Cloud……每一次工具的进化,都伴随着开发者角色的转变。 现在,即使有了像 Cursor 或 AWS 自家的 Q 这样的 AI 编程助手,它们依然无法拿走只有你才能做的事情。 这是你的工作,不是工具的工作。 我们正处于一个像历史上“文艺复兴”一样的时刻——艺术、科学、工程正在以前所未有的速度融合。为了在这个新时代生存并从一个单纯的“码农”进化为不可替代的构建者,Werner 提出了一个全新的框架:“文艺复兴式开发者”(The Renaissance Developer)。 这个框架包含五个核心特质。 1. 永不满足的好奇心 (Be Curious) 你是怎么学会编程的?是不是通过写出满是 Bug 的代码,然后盯着报错信息抓耳挠腮学会的? 学习新东西最快的方法,就是失败。 就像 Da Vinci 设计过永远飞不起来的飞机模型一样,只有愿意失败,才能真正学习。Werner 提到他在学外语时的体会:你背再多语法书也没用,真正的学习发生在当你跌跌撞撞地开口说话,然后被别人温和地纠正时。...

December 12, 2025 · 2 min · fisherdaddy

蔡崇信港大演讲实录 2025:中国AI并没有输,底牌是电力与开源

本文整理自蔡崇信在香港大学的演讲。在 Gemini 3 Pro 的帮助下,我把本次演讲中最核心的内容转成了一篇精彩的文章,以下为文章内容。 这几天香港大学最热闹的地方非陆佑堂莫属。不是因为有什么明星演唱会,而是阿里巴巴现任主席、也是曾经的“幕后英雄”蔡崇信(Joe Tsai)来了。 这是港大“陈坤耀杰出学人讲座”的现场,在这个有着历史沉淀的礼堂里,Joe 并没有照本宣科地念稿子,而是和港大经管学院副院长邓希炜教授来了一场非常实诚的“炉边谈话”。从NBA聊到阿里发家史,再到那个甚至有点敏感的话题——中美AI竞赛,中国到底能不能赢? 整场对话干货很多,逻辑很硬。我把其中最核心的观点嚼碎了整理出来,咱们聊聊这位顶级商界大脑是怎么看未来的。 一、 篮球:不只是生意,是最好的外交 咱们先不说冷冰冰的商业。大家都知道 Joe 是布鲁克林篮网队的老板,前阵子他还把球队带到了澳门打比赛。 对此 Joe 的态度特别坦诚:NBA 想回中国,中国也需要 NBA。这确实是一门好生意,毕竟中国有全球最大的篮球迷群体。但更重要的是,体育是一种不需要翻译的语言。 他特别提到了自己正在做的一个公益项目:每年挑选几位中国初二的学生,全额资助他们去美国读高中、打篮球。这不仅是为了培养下一个姚明,更是为了让美国的孩子看到真实的中国同龄人,也让中国孩子去体验外面的世界。这种“人与人”的连接,在这个地缘政治紧张的时代,比什么公关都管用。 二、 阿里“变形记”:活下来的秘密只有一条 回想 1999 年,中国的人均 GDP 只有 800 美元,现在是 13,000 美元。蔡崇信说他很幸运,刚好站在了中国制造业崛起和互联网爆发的交汇点上。 有人问阿里的“秘方”是什么?怎么能从一个简单的 B2B 网站,变出淘宝、支付宝,再变成现在的阿里云和 AI 巨头? Joe 的回答简单得让人意外:不要为了收购而收购,要为了解决客户痛点去就要自己造。 淘宝是为了解决什么? 是为了帮那些刚加入 WTO 的中国工厂和商家把货卖出去。 支付宝是怎么来的? 买家怕付了钱不发货,卖家怕发了货不给钱。为了解决“信任”危机,阿里才搞了个担保交易,这就是支付宝的前身。 为什么要搞云计算? 这是一个“逼上梁山”的故事。16 年前没人在乎云,但阿里数据量太大了。当时的 CTO 算了一笔账:如果不自己搞技术,继续买 Oracle、IBM 的设备,以后阿里赚的钱全得进这些美国公司的口袋。所以,阿里云最初是为了“自救”,是为了技术自主。 他说了一个给创业者的建议:凡是核心能力,尽量自己从内部长出来(Organic Growth),别总想着靠买别人的公司来拼凑。 自己的团队,才有那个 DNA。 三、 别被“产能过剩”忽悠了,这是中国的王牌 聊到宏观经济,Joe 的观点非常犀利。 现在外面有很多声音批评中国“产能过剩”(Overcapacity),试图向全球倾销。Joe 觉得这说法挺双标的。德国汽车出口全世界的时候,有人说德国产能过剩吗?没有。 所谓的“过剩”,本质上就是国内吃不下,通过出口换取外汇,再反哺国内经济。这不但不是坏事,反而是国家变富的必经之路。中国在新五年的规划里明确了要继续做强制造业,只不过这次不是做衬衫鞋子,而是电动车、电池、太阳能板。通过高端制造积累财富,老百姓腰包鼓了,消费自然就上来了。 他甚至给了一个惊人的数据:在淘宝上,年消费超过 6000 美元(约 4 万多人民币)的用户已经有 5600 万人。这个基数已经很大了,消费潜力就在那里。...

December 11, 2025 · 1 min · fisherdaddy

朱啸虎:2025年没有AI泡沫,只有更残酷的“入口之战”

本文整理自2025 年底张小珺对朱啸虎(金沙江创投主管合伙人)的最新访谈。朱啸虎是一个非常有意思的投资人,每次访谈中抛出的观点都非常的犀利且具有前瞻性。对于 AI 我们既要仰望星空,也要脚踏实地,如果说萨姆奥特曼和梁文锋是在仰望星空,目标是实现 AGI,而朱啸虎就是那个最佳脚踏实地的人。在 Gemini 3 Pro 的帮助下,我把本次采访中最核心的内容转成了一篇精彩的文章,以下为文章内容。 最近很多人都在问同一个问题:站在2025年的门槛上,AI是不是已经有泡沫了? 对此,我的回答很干脆:至少三年内,我看不到泡沫。 当菜市场的大妈都在聊泡沫的时候,泡沫肯定还没破;当大家都还是像现在这样将信将疑、甚至二级市场还在故意回调吓唬人的时候,这反而是进场的好时机。 为什么这么笃定?看数据。现在不仅是OpenAI,中国很多并不知名的创业公司,每天的Token消耗量都在几百亿的级别。这种十几倍的爆发式增长,说明应用端是真的有人在用,而且用的量极大。 这就是为什么这甚至不能被称为泡沫,我们现在的算力、GPU卡甚至电力都已经跟不上需求的爆发了。 在这场近46分钟的深度复盘中,我想和大家分享一下这一年来我的观察,以及在这个“如果不搞现实主义就要饿死”的当下,创业者该如何在巨头的夹缝中求生。 一、 Sam Altman 变现实了:AGI是梦,DAU才是命 今年最大的变化,就是大家越来越“现实”了。 你看OpenAI的Sam Altman,今年几乎不怎么提AGI(通用人工智能)那种宏大叙事了。为什么?因为AGI太难了,那个饼画得太远。现在的OpenAI像极了一个成熟的VC投资人做出来的公司——务实。 ChatGPT最近的动作非常清晰:做Search(搜索)、做Canvas(浏览器)、甚至推出了群聊功能。这一连串动作背后的逻辑只有一个:从周活(WAU)向日活(DAU)转型。 纯粹的AI对话很容易变成一种“周活”甚至“月活”工具(这也是为什么像Kimi这类产品其实很难防守),只有切入高频场景,哪怕是做个群聊里的“点赞氛围组”,也是在争夺流量入口。 OpenAI现在的野心不是取代人类,而是想成为下一个超级入口(Super App)。一旦群聊生态建立,它下一步就是要重构社交关系链。这才是Meta(Facebook)最害怕的事情。 所以,这不再是模型之争,而是类似当年移动互联网时代的微信、WhatsApp之争。 二、 中国市场的“六小龙”与“扫地僧” 回到国内,格局还处于早期,但我非常看好字节跳动(豆包)。他们的流量优势太明显,产品体验打磨得也极好。阿里的通义千问虽然动作稍微慢了点,在“既要电商又要AI”的双线作战中有点纠结,但底子很厚,模型能力绝对处于第一梯队。 这里必须要特别提一下DeepSeek(深度求索)。 如果在2024年初你问我,我也许还看不准,但现在回看,DeepSeek简直是中国AI界的“功臣”。如果没有他们的开源,人类的AI技术很可能就被几家美国私有公司垄断了。DeepSeek的存在,不仅让中国建立了独立的开源生态,也倒逼了模型价格的快速下降。 虽然这对做模型的商业化公司来说是个噩耗——当Token价格被大厂(如字节火山引擎、阿里云)打到地板价,甚至“送”的时候,创业公司靠卖API基本没戏了。 但对做应用的人来说,这简直是黄金时代。 三、 投资逻辑:偏离“共识”15度 现在的VC圈很卷,美国和中国的投资人都在盯着同样的几个赛道(比如人形机器人)。当一个赛道所有人都看明白、都想投的时候,我就不碰了。 我的策略是**“偏离共识15度”**。你要找那些大厂看不上、不想干、或者还没反应过来的“脏活累活”。 这一年我投了十几家公司,有些非常有意思: 不投人形机器人,投“牛马机器人”:大家都在卷那个双足行走的人形机器人,太贵且没场景。我投什么?海里洗船的机器人。这活儿人类干着危险,海水浑浊又腐蚀,但需求是刚性的;我还投了按摩机器人,不仅能按得舒服,还能一边按一边陪你聊天,甚至给你推销办卡,性价比极高。 AI陪伴与玩具:这是一个被严重低估的市场。成年人,特别是男性,其实非常需要情绪价值。我们投的一家AI陪伴公司,不到半年数据就爆了,用户粘性和付费意愿高得吓人。 垂直SaaS出海:不需要一定要做大模型,拿一个开源的7B或30B小模型,做私有化部署,去解决一个极度垂直的问题。比如我们投的给第三方做智能穿戴解决方案的公司,生意好得不得了。 四、 给创业者的忠告:活在夹缝里 如果你是创业者,现在不要再跟我讲什么“中国版OpenAI”或者“千亿美金”的故事了。讲这种宏大叙事的,我一般聊10分钟就结束了。 现在的机会在“夹缝”里。 当年的移动互联网,大厂看不上打车(滴滴)、看不上送外卖(美团/饿了么),所以给了创业者几年“猥琐发育”的时间。 但AI时代不同,大厂太焦虑了,反应速度极快。你做一个功能,如果是纯工具(比如修图、润色),大厂的模型升级一次你就没了。 生存法则: 离大厂三条马路:不要做大厂主业延伸线上的东西,要做大厂觉得苦、脏、累,或者数据极其封闭垂直的领域。 不要迷信SOTA(State Of The Art):现在的创业公司去刷榜、去搞模型排名没有任何意义。你花几千万美金训练出来的模型,可能也就领先大厂一个月。对于绝大多数应用场景,一个低成本的、响应快的开源小模型完全够用。 一定要有商业化能力:不要想着先烧钱再赚钱。今天的资本市场环境,如果你不能证明你的造血能力,不管是港股上市还是后续融资,都会非常困难。 五、 未来推演:2026年,中国有机会 如果不确定性是唯一的确定性,那么只有把时间拉长来看才清晰。 短期看,美国在模型层面的确还领先3-6个月。但是限制美国AI发展的最大瓶颈即将到来——电力和基础设施。 美国的电网建设、核电站审批极其缓慢。而中国在光伏、核电以及数据中心建设上的执行力是惊人的。未来拼的不是谁的模型参数大,而是谁能更便宜、更稳定地提供大规模算力。 我相信,凭借中国的开源生态和基础设施优势,三五年后,中国的AI应用完全有机会反超美国。 所以,别管那个所谓“泡沫”的争论了。对于中国创业者来说,现在的策略应该非常简单直接: 别想大故事,找到那个缝隙,全速前进。这是属于实干家的时代。

December 11, 2025 · 1 min · fisherdaddy

埃隆·马斯克深度访谈:给年轻人的建议、AI 的未来与战胜恐惧

本文整理自 9 年前也就是 2016 年萨姆奥特曼(当时还是 YC 的总裁)对埃隆·马斯克(Elon Musk)的一次非常经典的访谈,时至今日来看这次访谈依然不过时,且非常具有前瞻性。马斯克在采访中不仅谈到了年轻人该如何选择人生方向,还深入剖析了他对AI、火星殖民以及克服恐惧的底层逻辑。在 Gemini 3 Pro 的辅助下,我把本次采访的内容转成了一篇精彩的文章,以下为文章内容。 埃隆·马斯克给年轻人的建议:别总以此为目标去“改变世界” 如果你现在22岁,正站在人生的十字路口,马斯克并没有建议你上来就去挑战“改变世界”这种宏大叙事。 1. 重新定义“有用” 马斯克认为,判断一件事是否有价值,核心在于它是否对社会有用。这不一定非得是惊天动地的大事。哪怕你只是开发了一个小游戏,或者改进了照片分享的功能,只要它能给很多人带来一点点快乐或便利,这就是有价值的。 他提出了一个很有趣的计算方式:实用性的增量(Utility Delta) × 受众数量。 做一件对少数人有巨大改变的事是极好的。 做一件对无数人有微小改变的事,同样伟大。 两者的“曲线下面积”其实是相当的。所以,不要因为事情看起来微不足道就觉得没意义。 2. 只有这三件事值得现在的年轻人全力以赴 虽然马斯克年轻时有五个想解决的问题(多行星生存、可持续能源、互联网、以及接下来的两项),但他认为如果你现在入局,有三个领域最能影响人类未来: 人工智能(AI):这是近期内对人类影响最大的单一变量。现在的关键是确保它的发展方向是良性的。 基因工程:如果我们能通过基因重编程解决遗传疾病、治愈老年痴呆或失智症,那将是人类的福音。 脑机接口(高带宽人脑接口):这是马斯克非常看重的一点。他认为人类其实已经是“半机器人”了——我们的手机、电脑、邮件就是我们的“数字延伸”。但问题在于带宽。我们的大脑(皮层)和数字设备之间的连接太慢了(想想你用手指打字的速度)。解决这个“输入输出瓶颈”,是未来的关键。 3. 关于读博的建议 想要变得有用,非得读个博士吗?马斯克的回答很干脆:大多数情况下,不需要。 除非你研究的技术正处于爆发的临界点(inflection point),否则很多时候,在这个快速变迁的时代,学术研究可能会让你与实际应用脱节。 直面恐惧与“熵增”定律 很多人觉得马斯克是无所畏惧的,毕竟只有疯子才会同时搞火箭和电动车。但他在采访中坦白:“我其实经常感到恐惧,而且是很强烈的恐惧。” 即使只有10%的成功率,也要去做 不管是SpaceX还是Tesla,马斯克在起步时给自己估算的成功率都不到10%。他甚至已经做好了“最后会失去一切”的心理准备。 那为什么还要做?这时候**“宿命论”**反而帮了大忙。既然已经接受了大概率会失败的结果,恐惧感就减轻了。他的想法很简单:只要能把球往前推一点点,就算公司倒闭了,也许后来者能接过接力棒继续跑,那也是有意义的。 技术不会自动进步 这是一个非常深刻的历史观。马斯克提醒我们,“熵”也是站在我们对立面的。 很多人误以为技术会随着时间推移自动变好。大错特错。 古埃及人曾建造了金字塔,後來忘记了怎么建,甚至忘记了怎么读象形文字。 古罗马人曾拥有惊人的水道和道路系统,後來也都遗失了。 1969年我们能登月,后来只能飞近地轨道,航天飞机退役后,美国甚至一度无法载人上天。 如果没有一群聪明人发疯似地(work like crazy)去维护和创新,技术实际上是会倒退的。 火星殖民与AI的终局 火星:从“不可能”到“十年内” 几年前,马斯克自己都不确定火星殖民是否只是个幻想。但现在,他非常确定这是可行的。他预测在未来大概10年(甚至9年)内,我们有望把足够多的人送上火星。 有趣的小知识:去火星的“网速”会有延迟。地球到火星光速大概需要4到20分钟(取决于两者的位置),所以你在火星上跟地球视频通话会有明显的滞后。 AI的最佳结局:民主化与人机共生 关于AI的未来,马斯克最担心的不是AI这技术本身产生自我意识,而是权力的集中。如果超级AI掌握在某个独裁者、某个国家的情报机构或极少数人手中,那是极其危险的。 他提出的解决方案是:AI技术的民主化。 这也是OpenAI成立的初衷(尽管当时才成立六个月)——让技术尽可能普及,而不是被垄断。 更进一步,人类如何不被淘汰?答案还是回到脑机接口。 人类的大脑分两部分: 边缘系统(Limbic System):原始大脑,负责本能、情绪。 大脑皮层(Cortex):负责理性思考。 目前这两者在我们脑子里配合得还不错。未来的方向是将AI变成我们的“第三层大脑”。通过高带宽接口,让人类与AI共生。既然我们就是AI,就不存在“AI控制人类”的问题了。 真实的马斯克:我不是个“生意人” 很多外界的年轻人想成为“下一个埃隆·马斯克”,往往是看到了光鲜亮丽的一面。在采访的最后,马斯克透露了他真实的工作状态。 他根本不觉得自己在做传统意义上的“商业(Business)”。 在SpaceX,虽然他是CEO,但他把法务、财务、销售都交给了Gwynne Shotwell。 他80%的时间都花在了工程和设计上。 并不是坐在办公室签文件 如果你去SpaceX或Tesla找他,你大概率会在设计室或工厂产线上看到他。...

December 11, 2025 · 1 min · fisherdaddy

2025 AI 现状报告 • OpenRouter & a16z

这份报告基于 OpenRouter 平台超过 100 万亿 token 的数据,深入分析了截至 2025 年底的大型语言模型(LLM)使用现状。报告揭示了 AI 领域正从简单的文本生成向复杂的多步推理转变,开源模型正在重塑市场格局,且用户的使用习惯呈现出明显的全球化和多样化趋势。 主要观点 从模式匹配到多步推理的范式转变 随着 2024 年 12 月 5 日 OpenAI 发布 o1 模型,AI 领域迎来了转折点。行业重心从单次前向传递的模式生成,转移到了包含内部多步思考和规划的“推理”模型。这种转变加速了代理式(Agentic)工作流的部署。 开源模型与专有模型的双重生态 虽然专有模型(如 Anthropic 和 OpenAI 的产品)在高端任务中仍占主导,但开源模型(OSS)已占据约 30% 的市场份额。特别是来自中国的模型(如 DeepSeek 和 Qwen )增长迅速,不仅在成本上具有优势,在性能上也日益强劲,促使市场形成了多元化的竞争格局。 编程与角色扮演主导应用场景 与普遍认为 AI 主要用于生产力工具的印象不同,数据表明“创造性角色扮演”和“编程辅助”是两大核心用例。开源模型在角色扮演领域尤为流行,而编程任务则推动了长上下文和复杂推理的需求。 “灰姑娘水晶鞋”留存效应 用户留存率分析揭示了一种被称为“灰姑娘水晶鞋”的现象:当一个新模型首次完美解决某类用户的特定痛点(即“合脚”)时,这些早期用户群体会形成极高的忠诚度和长期留存,即使后续有新模型推出也不易流失。 关键细节 数据来源与规模 数据基础:研究基于 OpenRouter 平台上的真实交互元数据,涵盖超过 100 万亿 token 的流量,时间跨度主要集中在 2024 年底至 2025 年底。 隐私保护:分析仅基于元数据(如 token 数量、模型类型、地理位置标签),不涉及具体的提示词或生成内容。 开源模型的崛起与演变 市场份额:开源模型的使用量稳步上升,其中中国开发的开源模型在 2025 年下半年增长显著,部分周次占总流量的近 30% 。 竞争格局:市场不再由单一模型垄断。DeepSeek 曾占据主导,但目前 Qwen 、 Meta LLaMA 、 Mistral AI 等多家厂商均占有重要份额。 模型尺寸:市场出现了“中间地带”。用户不再只选择极小或极大的模型, 150 亿至 700 亿参数的“中等”模型因平衡了能力与效率而受到青睐。 代理式推理(Agentic Inference)的兴起 推理模型占比:到 2025 年底,经过推理优化的模型处理了超过 50% 的 token 流量。 序列长度增加:平均 Prompt(提示词)长度增加了约 4 倍,主要由编程任务驱动。编程任务的输入通常包含大量代码上下文,远超一般对话。 复杂性提升:用户不再只是进行单轮问答,而是越来越多地使用多步工具调用和长上下文交互。 应用类别深度分析 编程(Programming):是增长最快且最具战略意义的类别。 Anthropic 的 Claude 系列在此领域长期占据 60% 以上的份额,但正面临来自 OpenAI 和 MiniMax 等对手的激烈竞争。 角色扮演(Roleplay):在开源模型使用中占比超过 50% 。这表明开源模型因其灵活性和较少的限制,成为互动娱乐和创意写作的首选。 其他类别:科技、翻译和一般知识问答构成了长尾需求。 地理分布与全球化 亚洲崛起:亚洲地区的支出占比从早期的 13% 激增至 31% ,成为重要的 AI 消费和创新中心。 全球格局:虽然英语占主导( >80% ),但中文(简体)是第二大语言,占比近 5% 。北美以外的地区贡献了超过一半的使用量。 成本与使用量的关系 价格弹性弱:整体上,价格降低并未直接带来同比例的使用量激增。市场呈现两极分化: 高价高值:专有模型(如 GPT-4 )价格高昂,但因其在关键任务上的可靠性,需求依然强劲(缺乏弹性)。 低价高量:开源模型以极低的成本承接了海量的、对价格敏感的任务(如角色扮演)。 Jevons 悖论:在某些高效模型(如 Gemini Flash )上观察到了 Jevons 悖论,即成本降低反而导致总 token 消耗量大幅上升。 原文:AI 现状报告 一项基于 OpenRouter 的 100 万亿 Token 实证研究...

December 8, 2025 · 12 min · fisherdaddy

告别暴力堆算力:Ilya Sutskever 深度解析 AI 的下一站与 SSI 的野心

本文来自于 Youtube 博主 Dwarkesh Patel 对 Ilya Sutskever(SSI 创始人、前 OpenAI 首席科学家)的最新深度访谈。访谈中,Ilya 谈到为何 Scaling Law 遭遇瓶颈?什么是 AI 真正缺失的“泛化”能力?SSI 为何选择不发产品的“直通”路线?并给出了 AI 未来 5-20 年的终极推演。本文由我和 Gemini 3 Pro 共同整理完成。 身处旧金山湾区,有时候你会觉得这一切都很魔幻。我们正处在科幻小说变成现实的中心,但一切发生得又是如此“平淡”。这或许就是所谓的“缓慢起飞”(Slow Takeoff)——即使我们正把 GDP 的 1% 投入到 AI 中,对于大多数普通人来说,除了新闻里那些令人咋舌的融资数字,生活似乎并没有什么翻天覆地的变化。 但这种平静可能只是暴风雨前的宁静。 最近,Ilya Sutskever 对 AI 行业的现状、技术的瓶颈以及他新公司 SSI (Safe Superintelligence) 的路线图进行了一次极高密度的分享。如果你厌倦了市面上千篇一律的“Scaling Law(缩放定律)万岁”论调,这篇深度解读或许能给你通过迷雾的指引。 一、 悖论:为什么 AI 既聪明又“智障”? 我们现在面临一个非常令人困惑的现象:模型在各种高难度基准测试(Evals)中表现极其出色,看似智商爆表,但在实际经济应用中,甚至在一些简单任务上,却显得笨手笨脚。 举个很典型的“写代码”例子:你让 AI 修复一个 Bug,它说“好哒我修好了”,结果引入了一个新 Bug;你指出新 Bug,它说“哎呀我错了”,结果又把旧 Bug 改回来了。这种死循环在真实开发中并不罕见。 为什么会这样?Ilya 提出了两个解释: RL(强化学习)的副作用:现在的模型经过了大量的 RL 训练。这让它们变得像那种“钻牛角尖”的学生。如果预训练(Pre-training)是让模型通过阅读海量数据来“理解世界”,那么 RL 就像是为了应试而刷题。 “做题家”与“天才”的区别: 现在的 AI 就像一个**“顶级竞赛选手”**,为了拿金牌,它刷了 1 万小时的题,背下了所有解题套路。如果你出的题在它的题库范围内,它秒杀全场。 但我们真正想要的是那种**“有天赋的学生”**,哪怕只学了 100 小时,但他真正“懂”了,具备了举一反三的泛化能力。 目前的业内做法是:为了让模型在编程竞赛中拿高分,就把所有的竞赛题都喂给它,甚至通过数据增强造出更多的题。结果我们得到了一堆“做题机器”,但当你把它放到真实世界那种从未见过的复杂代码库中时,它就因为缺乏真正的“泛化能力”而露馅了。...

November 26, 2025 · 1 min · fisherdaddy

快速了解一下 Artificial Analysis 发布的 2025 年第三季度 AI 现状报告的核心内容

Artificial Analysis 发布了《2025 年第三季度 AI 状况报告》,以下是该报告的核心内容: 2025 年第三季度,人工智能行业呈现出空前激烈的竞争和加速创新的态势。各大 AI 实验室不仅在模型的智能、效率和速度上持续突破,竞争者的数量也在各个领域迅速增长。本季度的核心趋势表现为: 竞争全面加剧:领先的 AI 实验室在模型性能上的差距逐渐缩小,同时,新的参与者不断涌现,尤其是在中国。 智能体(Agent)成为焦点:AI 实验室的研发重点正转向提升模型的“智能体”能力,使其能够自主使用工具、执行更复杂的多步骤任务。 图像与视频生成技术普及:随着 Gemini 2.5 Flash 等模型的发布,图像编辑功能在质量和普及度上显著提升,视频生成技术也日益成熟。 开源模型加速发布:以 OpenAI 发布的 gpt-oss-20B 为代表,高质量的开源模型发布速度达到历史新高,与众多来自中国实验室的模型展开竞争。 语音技术成熟并投入应用:语音转录、语音生成以及原生的语音对语音(Speech to Speech)技术日趋成熟,为实现更自然的生产级语音智能体铺平了道路。 关键细节 行业概览 垂直整合:在 AI 价值链中,Google 凭借其从 TPU 芯片到 Gemini 应用的全面布局,成为垂直整合程度最高的公司。 资本支出:大型科技公司持续增加对 AI 基础设施的投资,预计这一趋势将持续到 2026 年。例如,xAI 计划为其数据中心采购 300,000 个 Nvidia GPU。 市场格局:中美的大型科技公司在语言、图像、视频等多个 AI 领域展开竞争,而规模较小的挑战者则倾向于专注于特定领域。 语言模型 (LLM) 智能水平:OpenAI 凭借 GPT-5 模型重新夺回智能指数榜首,但与 xAI 的 Grok 4、Anthropic 的 Claude 4.5 和 Google 的 Gemini 2.5 Pro 差距极小,竞争异常激烈。 成本与效率:尽管 GPT-4 级别的智能成本已降低了 100 倍,但智能体、长文本推理等新应用对计算资源的需求仍在急剧增加。同时,模型推理的价格在各个智能等级上持续下降。 开源模型:虽然性能最强的模型仍是闭源的,但 OpenAI 发布的 gpt-oss-120B 等模型正在推动开源模型接近性能前沿。 智能体(Agents):智能体被定义为由大语言模型驱动、能自主使用工具完成端到端任务的系统。Q3 2025 发布的新模型普遍针对工具使用和智能体任务进行了优化。 图像与视频模型 视频技术:视频模型的质量进步神速,中国实验室在视频生成领域处于领先地位,例如快手的 Kling 2....

November 12, 2025 · 1 min · fisherdaddy

六位人工智能先驱、2025年伊丽莎白女王工程奖得主罕见同台,分享他们的“顿悟时刻”,激辩 AI 泡沫论,并预测 AGI 的未来

Yoshua Bengio、Geoffrey Hinton、John Hopfield、 Yann LeCun、黄仁勋、比尔·戴利、李飞飞七人获得2025 年英国女王工程奖,以表彰他们在现代机器学习发展方面做出开创性贡献。 本文来自于 11 月 6 日黄仁勋 (Jensen Huang)、Yoshua Bengio、Geoffrey Hinton、李飞飞 (Fei-Fei Li)、杨立昆 (Yann LeCun) 和 Bill Dally 在伦敦举行的英国《金融时报》 人工智能 未来峰会上与英国《金融时报》 人工智能 编辑 Madhumita Murgia 进行的对话。他们共同回顾了数十年的开创性工作——从神经网络到 生成式 AI,并讨论了他们帮助创造的这项技术所带来的伦理、社会和经济影响。 想象一下,把当今人工智能领域最顶尖、最具影响力的大脑们聚在同一张桌子旁,会碰撞出怎样的火花? 最近,2025年伊丽莎白女王工程奖的六位获奖者——这个星球上最聪明、最举足轻重的一群人——就进行了一场这样的对话。他们是Geoffrey Hinton、Yann LeCun、Yoshua Bengio、Fei-Fei Li、Bill Dally和Jensen Huang(黄仁勋)。从奠定深度学习基石的理论家,到打造AI算力帝国的实干家,他们的工作共同塑造了我们今天所处的AI时代。 在这场难得的围炉夜话中,他们不仅分享了职业生涯中那些“灵光一闪”的时刻,还就当下的AI热潮、未来的技术走向,甚至是“机器何时超越人类”等终极问题,展开了坦诚而深刻的讨论。 灵光一闪:六位巨擘的AI觉醒时刻 每个伟大的征程都始于一个微小的起点。对于这些AI先驱来说,那些决定性的“啊哈!”时刻,不仅改变了他们个人的轨迹,也为整个科技世界埋下了伏笔。 Yoshua Bengio:从兴奋到警觉 Bengio分享了两个截然不同的时刻。第一次是在他还是研究生时,读到Geoffrey Hinton的早期论文,他兴奋地想:“哇!也许有几个简单的物理定律就能帮我们理解人类智能。”这颗种子让他投身AI研究。而第二次,则是在ChatGPT问世后,一种“我们到底在做什么?”的警觉感油然而生。他对拥有目标且可能比人类更聪明的机器感到担忧,这促使他彻底转变了研究方向,致力于解决AI安全问题。 Bill Dally:从“内存墙”到“找猫实验” 在90年代末,Bill Dally致力于解决“内存墙”问题——访问内存比计算本身更耗时耗能。他提出的“流处理”概念,为后来的GPU计算铺平了道路。而真正的转折点,是2010年他与吴恩达(Andrew Ng)的一次早餐会。那时,吴恩达正用16000个CPU和神经网络技术在互联网上“找猫”。Dally和同事用48块Nvidia GPU重复了这个实验,结果让他大为震撼。他立刻意识到,Nvidia应该全力投入深度学习,专门为AI优化GPU。 Geoffrey Hinton:40年前的“迷你”语言模型 早在1984年,Hinton就在尝试用反向传播算法来预测词语序列中的下一个词。他惊喜地发现,这个“迷你”语言模型仅仅通过预测,就能学习到词语的深层含义。这其实就是今天大语言模型(LLM)的雏形。那么,为什么花了40年才走到今天?Hinton坦言:“我们当时没有足够的算力,也没有足够的数据。” Jensen Huang:芯片设计与AI软件的惊人相似 作为Nvidia的掌门人,黄仁勋大约在2010年同时从多伦多大学、纽约大学和斯坦福大学的研究者那里,接触到了深度学习的早期形态。他发现,设计深度学习软件的模式,和他过去设计芯片的思路惊人地相似——都是通过高层次的表示和结构化设计来构建复杂系统。这种“可伸缩性”的洞察至关重要:一个算法如果能在一个GPU上高效运行,就能在多个GPU、多个系统,甚至多个数据中心上运行。这为Nvidia的算力帝国奠定了基础。 Fei-Fei Li(李飞飞):数据是那块缺失的拼图 2006年前后,作为一名年轻的助理教授,李飞飞痴迷于解决机器的视觉识别问题。她尝试了当时所有的算法,但都无法突破“泛化能力”的瓶颈。她和学生们意识到,机器和人类幼儿最大的区别在于——机器被“饿”着,缺乏足够的数据。于是,他们决定做一件当时看起来很“疯狂”的事:创建一个互联网规模的、手动标注的数据集——ImageNet。这个包含1500万张图片的数据集,成为了引爆深度学习革命的关键燃料。而她的第二个顿悟时刻是在谷歌担任首席科学家时,她意识到AI是一项“文明级技术”,必须将人文价值置于其核心,这也是她后来回到斯坦福创办“以人为本AI研究院”(Human-Centered AI Institute)的初衷。 Yann LeCun:从“仰慕者”到论战伙伴 LeCun年轻时就对“让机器自我学习”的想法着迷。他形容自己当时“要么太笨要么太懒”,不想从零开始编程一个智能机器。他希望能找到一种方法让机器自我组织和训练。在遍寻无果时,他发现了Hinton的论文,并视其为“1983年全世界最想见的人”。两年后,两人终于见面,在一次午餐上,他们发现彼此简直能补完对方的句子。LeCun早期痴迷于解决多层网络训练的难题,这正是反向传播的关键。后来,他与Hinton就“监督学习”和“无(自)监督学习”的路线展开了多年的辩论。有趣的是,ImageNet的巨大成功让监督学习大放异彩,整个社区都暂时“放弃”了自监督学习。但LeCun认为,LLM的成功恰恰证明了自监督学习的潜力,而下一个挑战,将是把这种能力应用到视频等更复杂的数据上。 是泡沫还是革命?顶级大脑激辩AI算力狂热 随着Nvidia成为全球市值最高的公司,一个问题盘旋在每个人心头:当前的AI热潮是可持续的革命,还是另一个即将破裂的科技泡沫?...

November 11, 2025 · 1 min · fisherdaddy

我们正身处AI泡沫中吗?顶尖投资人 Gavin Baker 的硬核解读

最近很多知名公司开始下场做高质量的访谈,包括 A16Z,YC 等等。本篇文章来自于 A16Z 的一个访谈。在 a16z 的 Runtime 栏目中的这段对话里,Atreides Management 的管理合伙人兼首席投资官 Gavin Baker 与 a16z 的普通合伙人 David George 一起探讨了 AI 的宏观前景:万亿美元的数据中心建设,GPU 的新经济模式,以及这场繁荣对投资者、创始人和全球经济的意义。 主要观点 核心论点是,当前我们并未处于 AI 泡沫之中。与 2000 年的互联网泡沫相比,如今的 AI 投资有着本质的不同。主要的区别在于,当年的投资(如“暗光纤”)利用率极低,而如今的 AI 基础设施(如 GPUs)则被充分利用,并为投资者带来了可观的资本回报率(ROIC)。 此外,进行大规模投资的公司是全球财务最稳健的科技巨头,它们拥有雄厚的现金流和资本储备,能够支撑当前的支出。虽然“往返投资”(round-tripping)现象确实存在,但其规模较小,主要是出于战略竞争的需要,而非财务驱动。 最后,报告认为,尽管 AI 将重塑软件和消费互联网行业,但目前仍处于技术发展的早期阶段,预测应用层的最终赢家为时尚早。 关键细节 与 2000 年科网泡沫的对比 基础设施利用率:2000 年的泡沫是“电信泡沫”,其标志是“暗光纤”(dark fiber),在泡沫顶峰时,高达 97% 的已铺设光纤未被点亮使用。相比之下,如今“没有暗 GPU”(no dark GPUs),所有 GPU 算力都被充分利用,甚至出现过热问题。 公司估值:2000 年,像 Cisco 这样的公司市盈率一度高达 150 到 180 倍。而如今,Nvidia 的市盈率大约在 40 倍左右,估值更为合理。 投资回报:目前在 GPU 上投入巨资的公司(如大型科技公司),其投资资本回报率(ROIC)平均提升了约 10 个百分点,证明了投资的积极回报。 市场竞争格局 芯片层面:主要的竞争发生在 Nvidia 和 Google 的 TPU 之间。Broadcom 和 AMD 正在联合,为市场提供一个基于以太网的开放标准替代方案,以抗衡 Nvidia 的专有系统。 模型与平台层面:大型科技公司(如 Google、Meta)在数据、算力资本和分发渠道上拥有巨大优势,AI 可能成为它们的“持续性创新”。由于算力成本高昂,AI 模型的毛利率将结构性地低于传统 SaaS 公司。 关于 “Round-tripping”:Nvidia 等公司对其生态伙伴进行投资,这些伙伴再用资金购买 Nvidia 的芯片。这被视为一种战略行为,目的是为了在与 Google (TPU) 的竞争中确保关键客户(如 OpenAI、XAI)的忠诚度。 对软件和商业模式的影响 SaaS 公司的转型:应用型 SaaS 公司必须接受因 AI 算力成本而导致的毛利率下降。这不应被视为负面信号,而应被看作是 AI 功能被用户实际使用的标志。 商业模式的演变:AI 将推动商业模式从传统的订阅制转向“按成果付费”。例如,在客户服务领域,可以根据问题解决率来收费。 消费互联网:拥有庞大现有用户基础的公司(如 Google)具有显著优势。模型的推理能力将创造一个“飞轮效应”,即更多用户带来更好的算法,从而改善产品,这将改变 OpenAI 等前沿模型公司的经济模型。 未来展望 机器人技术:机器人领域将是真实且重要的发展方向,未来的竞争格局很可能在 Tesla 和中国公司之间展开。人形机器人因其能通过观看人类视频进行学习,而被认为更具发展潜力。 原文 最近,几乎所有人都在问同一个问题:“我们是不是正处在一个AI泡沫里?”...

November 11, 2025 · 1 min · fisherdaddy

从 Transformer 到推理模型:OpenAI 核心科学家、Transformer 论文作者 Łukasz Kaiser 的 AI 前沿洞察

本文来自于 OpenAI 核心科学家、Transformer 论文作者 Łukasz Kaiser 的一篇访谈。内容涵盖了从 Transformer 模型到新一代推理模型的范式转变,探讨了 AI 发展的瓶颈、AGI 的概念以及 AI 对科学和社会可能产生的深远影响。 主要观点 AI 发展的范式转变:当前 AI 领域正在经历一次重大的范式转变,从仅仅通过扩大模型规模和数据量来提升性能(Transformer 范式),转向了更为先进的“推理模型”(Reasoning Models)范式。这种新范式正处于高速发展初期,预示着 AI 能力将迎来新一轮的飞跃。 推理模型是未来的关键:与传统的大语言模型(LLM)不同,推理模型通过内部“思考”过程、调用外部工具(如网络搜索、代码执行)来解决复杂问题。它们不仅更加强大,而且数据效率极高,能够从更少的数据中学习,并大幅减少“幻觉”现象。 AI 的发展瓶颈与未来趋势:AI 的发展速度并未放缓,未来一到两年内甚至可能出现“非常急剧的进步”。当前最主要的瓶颈是 GPU 计算资源和能源的短缺。未来,AI 将能够执行越来越多在计算机上完成的复杂任务,尤其是在编程领域,这将深刻影响就业市场。 对 AGI 和社会影响的思考:与其纠结于 AGI(通用人工智能)的定义,不如关注 AI 在现实世界中的实际影响和能力。AI 的发展为科学研究带来了巨大机遇,有望加速人类的科学发现进程。然而,这也带来了社会挑战,需要整个社会共同努力,确保技术被负责任地使用,避免重蹈社交媒体的覆辙。 关键细节 Transformer 的诞生:2017 年的论文《Attention Is All You Need》引入了 Transformer 架构,这是一个历史性的突破,为后来的生成式 AI 奠定了基础。Łukasz Kaiser 是该论文的八位作者之一。 推理模型的运作方式: 推理模型在生成最终答案前,会进行一系列不向用户展示的内部思考步骤(Chain of Thought)。 它们可以通过调用工具来获取实时信息或执行任务,例如使用网络搜索验证事实,或运行 Python 代码进行计算。 这种模型通过强化学习(Reinforcement Learning)进行训练,使其能够从错误中学习并优化解决问题的策略。 AI 发展的限制因素: 所有顶尖 AI 实验室都面临 GPU 资源不足的问题,这限制了更强大模型的训练和向公众提供服务的能力。 OpenAI 的 CEO Sam Altman 正在努力获取尽可能多的计算资源,因为研究人员确信能够有效利用这些资源来推动 AI 的进步。 AI 在任务自动化上的进展: AI 在编程领域的进步尤为惊人。像 OpenAI 的 Codex 和 Anthropic 的 Claude 这样的模型已经可以编写大型程序、进行代码审查、发现漏洞,极大地提升了开发效率。 预计在不久的将来,AI 将能胜任大部分在计算机上进行的任务。 AI 的社会责任与商业模式: Łukasz Kaiser 强调,OpenAI 致力于通过订阅模式而非广告模式来盈利,旨在避免优化“用户参与度”而带来的负面社会影响。 他认为,如何正确使用 AI 是整个社会的责任,需要政府、企业和公众共同参与,以确保其发展最终造福人类。 原文 如果你关注人工智能,2017年绝对是一个无法绕开的年份。那一年,一篇名为《Attention Is All You Need》的论文横空出世,介绍了后来引爆生成式AI革命的Transformer架构。这篇论文注定会载入史册,而Łukasz Kaiser,就是这篇论文的八位作者之一。...

November 11, 2025 · 1 min · fisherdaddy