👋 Welcome to fisherdaddy’s blog!
- 精心翻译的优质博客内容
- 前沿技术分享
- 认知分享
📚 博客内容:
- 翻译: 精选国外优质博客文章,涵盖编程、人工智能、产品、运营等多个领域。
- 分享: 探索各种前沿技术,从编程语言到软件开发,从云计算到人工智能。
- 认知: 结合自身经验和思考,分享对科技、生活、学习等方面的独到见解。
👋 Welcome to fisherdaddy’s blog!
📚 博客内容:
本文整理自 YouTube 视频《Box CEO on AI Agents & Why Enterprise Can’t Keep Up | a16z》,由有道龙虾总结和发布。 硅谷现在谈 AI,很容易把一切说得像已经解决了。 模型越来越强,agent 会用工具,会写代码,会操作电脑。于是很多人自然得出结论:企业里的知识工作很快会被自动化,SaaS 会被替代,工程师会变少,咨询公司和系统集成商也该退场。 但 Aaron Levie、Steven Sinofsky 和 Martin Casado 这场对话给了一个更贴近现实的版本:企业 AI 最大的阻碍,不是模型不会回答问题,而是系统太旧、权限太碎、数据太散、流程太复杂。 AI 可以让人更快地产生软件和信息,但它不会自动把一家运行了十年、几万人使用、堆满遗留系统的大公司变得清爽。 真正的企业 AI 落地,难在 integration。 硅谷和真实企业之间,有一道工作方式鸿沟 Aaron Levie 说,他现在的工作有点像“把现实带到硅谷,再把硅谷带回现实”。 这句话背后,是他在企业客户那里看到的巨大落差。 在硅谷,尤其是工程师群体里,人们使用 AI agent 的条件太好了:技术能力强,能读懂错误,能自己选工具,能调试环境,能接受新范式;更重要的是,代码任务天然适合模型,因为代码可验证,反馈循环清楚。 但企业里大多数知识工作不是这样。 普通员工技术门槛更低,数据分散在多个系统里,流程沉淀了多年,权限经常不清楚,历史系统很多,安全和合规要求也更重。你不能简单把 coding agent 的成功经验搬过去,然后期待财务、法务、客服、采购、人力都同样提速。 这不是政府和科技行业那种“互相听不懂”的差异,而是工作流和技术环境本身就不同。 所以 AI 从硅谷扩散到整个知识工作世界,会需要几年时间。不是因为模型不够酷,而是因为企业要把旧系统、旧流程、旧权限和新 agent 接起来。 “95% 企业 AI 项目失败”这类说法,问题出在定义 Martin Casado 提到,类似 MIT “95% 大公司 AI 项目失败”的统计,其实很容易误导。 如果说大公司里没人有效使用 AI,那显然不对。很多员工已经在用 ChatGPT、Claude、Copilot 这类工具提高个人效率。...
本文整理自 YouTube 视频《AI era skills: Why cultivating agency matters more than job titles | Max Schoening (Notion)》,由有道龙虾总结和发布。 AI 让很多人第一次意识到:以前挡在自己面前的,可能不是技能,而是行动力。 过去你可以说,“我不会写代码,所以我做不了这个产品”;“我不是设计师,所以我做不了这个界面”;“我不是工程师,所以我只能写 PRD”。但当模型把很多技能放到你手边,真正的差距就暴露出来了:你到底有没有把世界当成可改变的东西? Notion 产品负责人 Max Schoening 在这场访谈里,几乎一直围绕这个问题展开。他做过 Google 产品经理,带过 Heroku 设计团队,在 GitHub 做过设计和工程领导,也是两次创业者。现在,他在 Notion 负责产品,是少数真正把设计、工程、产品、AI 工作流混在一起实践过的人。 他对 AI 时代产品团队的判断很直接:角色会变,工具会变,第一版产品会越来越便宜。但最后能拉开差距的,不是你会不会“用 AI 写代码”,而是 agency、品味、质量意识,以及你能不能抓住产品里那个小到不能再小、却强到让人离不开的核心。 Notion 的起点:别在 Figma 里画一条死鱼 Max 刚加入 Notion 时,团队正在做很多聊天界面。问题是,他们一开始仍然用 Figma 设计这些聊天界面。 这听起来正常,但在 Max 看来,静态聊天界面像 Brett Victor 那个著名演讲《Stop Drawing Dead Fish》里说的“死鱼”。AI 不是静态页面,它的体验来自对话、流动、响应、失败、恢复和迭代。你只看一张图,很难真正感受到这个东西是否有效。 于是 Max 和两个设计师做了一个非常粗糙的 playground:一个小代码库,尽量 LLM-friendly,用模型擅长的技术栈,让设计师可以直接在里面原型 AI 聊天体验。 这不是为了让设计师马上给生产代码提 PR,而是为了让他们用“真正的材料”思考。...
本文整理自 YouTube 视频《How Math Unlocked AGI》,由有道龙虾总结和发布。 几年前,如果你让 ChatGPT 算一笔稍微复杂一点的露营 AA 账,或者帮三个不同时区的人找一个合适的 Zoom 会议时间,它大概率会翻车。 今天,OpenAI 的研究员已经在讨论另一个问题:模型能不能帮助 Fields Medalists 做日常研究?能不能解决 42 年没人解决的开放问题?能不能把数学家几个月甚至几年才能完成的思考,压缩成几天、几小时,甚至未来更长时间的自动研究? 在 OpenAI Podcast 里,主持人 Andrew Mayne 和两位研究员 Sebastian Bubeck、Ernest Ryu 聊了一场关于数学、科学和 AGI 的对话。Sebastian 曾在 Princeton 任教,长期研究优化和机器学习理论,后来加入 Microsoft,现在是 OpenAI 研究员。Ernest Ryu 也是应用数学家,曾在 UCLA 数学系任教授,研究优化和机器学习理论,最近加入 OpenAI。 这场对话最有意思的地方,不是简单说“AI 数学变强了”,而是把这件事放进了一个更大的框架里:数学为什么是衡量推理能力的最佳训练场?为什么模型会从几分钟推理走向几天、几周甚至几个月推理?为什么这条路和 AGI 密切相关?以及,为什么 AI 越强,越需要真正懂数学、懂科学的人类专家? 两年前还没有真正的推理模型,现在已经能帮数学家工作 Sebastian 对过去几年的变化用了一个很重的词:miraculous,近乎奇迹。 他提醒大家,两年前我们甚至还没有今天意义上的 reasoning model,更不用说证明困难数学定理。可现在,模型已经可以帮助 Fields Medalists 处理日常数学工作。 Ernest 说,这种进步连他们自己都被震到了。 一年前半,他参加过一个数学会议的 workshop。当时有一场辩论,主题是:只靠扩展 LLM,能不能帮助解决重大开放问题?现场一开始大约 80% 的数学家认为“不可能”。辩论结束后,比例变成大概 50-50,看起来已经是很大进展。 但回头看,这个争论本身都低估了速度。仅仅八个月后,模型就开始触及研究级数学。 这也是今天很多人还没完全反应过来的地方。我们对 AI 的印象更新得太慢了。很多人还记得早期 ChatGPT 算错小学题、搞错单位换算、不会安排时区会议,于是默认“语言模型不擅长数学”。但模型能力曲线并没有停在那里。...
本文整理自 YouTube 视频《AI’s Trillion-Dollar Opportunity: Sequoia AI Ascent 2025 Keynote》,由有道龙虾总结和发布。 Sequoia 的 AI Ascent 开场演讲,表面上是一场活动欢迎词,实际上更像一次给创业者和投资人的集体校准。 演讲由 Pat、Sonia 和 Constantine 三部分组成:先从宏观上解释 AI 这波浪潮为什么特殊,再讲 2026 年正在发生的核心变化,最后把 AI 放进更长的人类技术史里,讨论一个由机器承担大部分认知工作的未来。 他们的判断很明确:AI 不是又一个软件周期,也不是移动互联网的延长线。它是一场计算方式的革命,而且速度更快、市场更大、影响更深。 AI 不是凭空出现的,它站在过去所有浪潮之上 开场先把镜头拉得很远。 硅基晶体管给了硅谷名字;晶体管被做进系统,系统通过网络连接起来,互联网由此出现;互联网又孕育了社交媒体、云计算;云和移动设备进入每个人口袋,最后才有了今天看起来“像魔法一样”的 AI。 Sequoia 强调这一点,是因为技术浪潮不是互相替代,而是叠加的。 今天的 AI 能够爆发,靠的不是某一个单点奇迹,而是几十年积累下来的算力、带宽、数据、工程人才和用户习惯。没有云,就没有大规模训练和推理;没有移动和互联网,就没有足够丰富的数据和分发;没有半导体持续演进,就没有足够便宜的计算。 所以这波 AI 浪潮看起来突然,其实是很多层基础设施堆到临界点后的结果。 这波浪潮最大的不同:它同时吃软件和服务 Pat 给 AI 浪潮总结了三个特征:最大、最快、最不同。 第一,它可能是目前为止最大的技术浪潮。 过去 15 年,云计算推动软件市场从大约 3500 亿美元增长到 6500 亿美元,其中云软件成长到约 4000 亿美元规模。这个数字已经非常大,但 AI 的新变量在于,它不只进入软件市场,还开始进入服务市场。 演讲里用了一个很直观的例子:美国法律服务单一垂直、单一地区就是约 4000 亿美元市场,几乎相当于整个云软件规模。 如果 AI 能够承担一部分法律、医疗、金融、咨询、销售、运营、人力、教育等服务工作,那它面对的就不是几千亿美元的软件 TAM,而可能是数万亿美元级别的服务市场。 他们用了一个方便记忆的数字:10 万亿美元。这个数字不一定精确,可能是 5 万亿,也可能是 50 万亿,但方向很清楚:AI 第一次让软件公司有机会直接触碰传统服务收入。...
本文整理自 YouTube 视频《How GPT, Claude, and Gemini are actually trained and served – Reiner Pope》,由有道龙虾总结和发布。 现在很多 AI 产品都开始提供“快速模式”。Claude、Codex、Cursor 这类工具里,用户可以多付几倍的钱,换来更快的 token 输出速度。 这个现象表面上像是商业定价,背后其实是芯片、内存、模型架构和集群调度共同决定的结果。 MatX CEO Reiner Pope 很适合讲这件事。他以前在 Google 做过 TPU 架构,如今创业做 AI 芯片。和常规访谈不同,这次他几乎是站在黑板前,从 transformer 在一整架 GPU 上怎么跑开始,一步步推导出:为什么 AI API 会这么定价,为什么模型越来越稀疏,为什么长上下文这么贵,以及为什么 AI 进展看起来会被硬件形态牵着走。 Fast Mode 贵在哪里:核心不是“算得更快”,而是 batch size 访谈一开始的问题很直接:为什么用户多付 6 倍价格,模型就能以 2.5 倍速度输出?能不能继续加钱,100 倍价格换 100 倍速度?反过来,如果我愿意等很久,能不能有一个“Slow Mode”,价格便宜很多? Reiner 的答案很干脆:最大的因素是 batch size。 大模型推理不是一个用户来一次就单独跑一次。服务商会把很多用户的请求攒成一个 batch,一起送进 GPU 集群。这样做的原因也很朴素:模型权重太大了,每次推理都要从内存里把权重读出来。如果只服务一个用户,这次权重读取成本完全由一个 token 承担;如果同时服务两千个序列,这个成本就被两千份摊掉。 Reiner 用 roofline analysis 来估算推理时间。粗略说,推理时间由两个下限共同决定:...
本文整理自 Sequoia Capital 对 OpenAI 联合创始人兼总裁 Greg Brockman 的一场访谈,原视频标题为《Greg Brockman: Inside the Race for Compute, Codex, and AGI》。以下内容由有道龙虾总结和发布。 如果你想理解 OpenAI 现在到底在押注什么,Greg Brockman 这场访谈很值得看。 他不是只讲“AI 会改变世界”这种大话,而是把 OpenAI 的生意、技术路线、组织变化、创业公司的机会和风险,都摊开讲了一遍。 最直白的一句话是: OpenAI 的业务在某种意义上很简单:买算力、租算力、建算力,然后以一定利润卖出去。 听起来像云厂商,但背后卖的不是普通计算资源,而是越来越便宜、越来越强的“智能”。 OpenAI 最缺的东西,还是算力 主持人一开场就提到 Greg 的经历:他是 Stripe 第四号员工,后来成为第一任 CTO;如今是 OpenAI 联合创始人兼总裁。Stripe 处理的支付规模据说已经达到全球 GDP 的 1.6%,而 OpenAI 的周活用户也接近甚至超过 10 亿。 但 Greg 对这些成绩的回应很克制。他更关心的是一件事:算力够不够。 答案是:不够,远远不够。 他回忆 ChatGPT 刚发布时,团队问他应该买多少算力,他的回答是“全部”。团队以为他在开玩笑,又问了一遍,他还是说:全部。 原因很简单: 无论我们用多快的速度增加算力,都追不上需求。 OpenAI 对算力的渴求,不只是为了训练更大的模型,也是为了服务海量用户和越来越复杂的智能体任务。Greg 的判断是,人类对“解决问题”的需求,对“智能”的需求,几乎是无限的。只要边际利润为正,就应该继续扩大规模。 这也是为什么他会把 OpenAI 的商业模式讲得像一门朴素生意:采购、建设、租用计算资源,再把它转化成可用的智能服务卖出去。 Scaling Laws 还没撞墙 谈到模型能力增长,Greg 用了一个很有意思的说法:Scaling Laws 是一个“深刻而美丽的谜”。...
本文整理自 YC 总裁对 DeepMind CEO Demis Hassabis 的访谈,由有道龙虾总结和发布。 Demis Hassabis 对 AGI 的判断很直接:现在这套大模型路线不是死路,预训练、RLHF、思维链、强化学习和搜索,大概率都会出现在最终的 AGI 架构里。 但它还不完整。 在这场 YC 对谈里,他反复提到几个词:持续学习、长期推理、记忆、一致性、智能体、科学发现。这些词听起来像技术细节,但放在一起,其实是在回答一个更大的问题:AI 到底什么时候从“会回答问题的模型”,变成“能主动解决问题的系统”? Demis Hassabis 为什么值得听 Hassabis 的经历很少见。 他小时候是国际象棋神童,17 岁做出了热门游戏《Theme Park》。后来他又回到学校读认知神经科学博士,研究大脑中的记忆与想象机制。2010 年,他创办 DeepMind,给公司的使命定得非常大:solve intelligence,解决智能。 后来发生的事大家都知道了。 AlphaGo 击败围棋世界冠军,AlphaFold 破解蛋白质结构预测这个困扰生物学 50 年的难题,并把成果免费开放给全球科学家。Hassabis 也因此获得诺贝尔化学奖。如今他领导 Google DeepMind,继续推动 Gemini 和 AGI。 所以当他谈 AGI 缺什么、智能体到哪一步了、AI 会怎样改变科学时,他不是在聊概念,而是在复盘一条已经跑通过几次的路。 AGI 不是推倒重来,但还差一两块关键拼图 主持人问他:现在的大模型范式,包括大规模预训练、RLHF、思维链推理,离 AGI 的最终架构还有多远? Hassabis 的答案很克制: 这些组件大概率会是 AGI 最终架构的一部分。它们已经证明了太多能力,我不认为几年后我们会发现这是一条死路。 但他马上补了一句:还可能缺一两件大东西。 他点名了四个问题: 持续学习:模型不能只靠一次训练和临时上下文,它要能把新经验稳定地融入已有知识。 长期推理:不仅能做几步思考,还要能跨很长时间、复杂任务持续推进。 记忆机制:不是把所有东西塞进上下文窗口,而是知道什么该记、什么该忘、什么时候取出来。 稳定一致性:同一个模型不能一边解 IMO 金牌题,一边在简单算术或推理上翻车。 他认为,现有技术可能通过规模化和渐进创新解决这些问题,也可能还需要“一两个大想法”。他的判断大概是五五开。 这句话很重要。它既不是“AGI 明天就到”,也不是“大模型泡沫快破了”。更像是在说:主路已经很清楚,但最后几公里可能最难。 记忆不是更长上下文,而是更聪明的取舍 今天很多模型已经有百万 token 级别的上下文窗口。听起来很夸张,毕竟人类工作记忆也就几个数字。...
本文整理自Youtube 博主 Lenyy 对 Claude Code 和 Cowork 的产品负责人 Cat Wu 的访谈,由有道龙虾总结和发布。 如果你还在用半年、一年为单位规划 AI 产品,可能已经慢了。 Anthropic 的 Claude Code 和 Co-work 团队,现在很多产品功能的周期已经从过去的 6 个月,压缩到 1 个月、1 周,甚至有时候是 1 天。 这不是因为他们找到了某个神奇流程,也不只是因为他们能用最前沿的模型。更核心的变化是:AI 正在把“写代码”这件事变便宜,把真正贵的东西推到台前。 那就是:判断该写什么,为什么写,写成什么样。 这也是 Cat Woo 在这次访谈里反复强调的主线。她是 Anthropic 负责 Claude Code 和 Co-work 的产品负责人,和 Boris 一起站在 AI 原生产品构建的最前线。她看到的变化很直接:PM 的角色没有消失,但它正在被重新定义。 PM 的工作,不再是守着路线图开会 Cat Woo 对自己和 Boris 的分工有一个很有意思的描述。 Boris 更像技术负责人和产品愿景提出者,能看到 3 个月、6 个月之后产品该长成什么样,甚至是“AGI pilled”版本的产品该是什么样。 而她的工作,是把今天和那个愿景之间的路铺出来: 哪些功能先做,哪些后做 营销、销售、财务、容量、文档这些团队是否已经对齐 功能准备好时,还有没有阻碍发布的东西 团队是不是在朝同一个方向划船 但她也说,这条边界其实很模糊。他们大概 80% 是“心智同步”的,剩下 20% 里,有些事她更在意就由她推进,有些事 Boris 更在意就由 Boris 推进。...
本文整理自 Elon Musk 在瑞士达沃斯举行的 2026 年世界经济论坛上的分享:Elon Musk 对话贝莱德 CEO Larry Fink。这个会议中,马斯克讨论了人工智能的未来及其全球影响、太空探索、 SpaceX 任务和登月计划、Tesla 的创新和可持续能源解决方案、全球技术趋势、创业和创新等等。如果你关注科技,关注 AI 的未来,这个视频非常值得一看,本文是其内容的精华总结,由我和 Gemini 3 Pro 共同整理完成。 假如外星人真的不存在? 马斯克经常被问到一个问题:“到底有没有外星人?你是不是外星人?” 他的回答总是透着一种理工男的幽默:“如果有外星人,我肯定是第一个知道的。SpaceX 有 6000 多颗卫星在天上飞,我们从来没为了躲避外星飞船变过轨。” 但这背后藏着一个让他夜不能寐的假设:如果在浩瀚宇宙中,我们真的是唯一的生命呢?马斯克把人类意识比作“无尽黑暗中一只微弱的烛火”。这烛火太脆弱了,如果地球发生什么天灾人祸,光就灭了。 这就是为什么必须让生命多行星化。SpaceX 的终极目标不是去旅行,而是为了在这个充满不确定性的宇宙里,给人类文明做一个“异地备份”。 机器人数量将超过人类,我们将迎来“极致富足” 谈到地球上的事,马斯克对 AI 和机器人的未来极其乐观(当然要注意《终结者》那种风险)。 他抛出了一个简单的经济学公式:经济产出 = 人均生产力 × 人数。 当人形机器人(比如特斯拉的 Optimus)普及后,这个公式里的限制因素就没有了。马斯克预测,未来机器人的数量会超过人类。到时候,我们将进入通过 AI 和机器人实现的“无限富足”时代。 什么是无限富足?就是商品和服务的成本几乎归零。那时候大家甚至想不出还有什么需求是没被满足的。虽然这会带来“人类还需要做什么”的存在主义危机,但相比于贫穷,这显然是个幸福的烦恼。 至于时间表?特斯拉工厂里已经有一些简单的机器人在干活了。到明年(2025年)年底,这种高可靠性的人形机器人可能就会开始向公众发售。你会想要一个机器人帮你照顾老人、看孩子、遛狗,这很快就不再是科幻情节。 最大的瓶颈:缺电,缺很多电 AI 模型和机器人是美好的,但它们吃什么?吃算力。算力吃什么?吃电。 目前芯片产能是指数级增长的,但变压器和电网的扩容速度每年只有可怜的个位数。马斯克直言:“缺电将是扼住 AI 喉咙的最大危机。” 如果你把太阳系的所有质量——包括那个占了 0.1% 质量的木星——都扔进核聚变反应堆烧掉,产生的能量跟太阳比起来,还是约为零。太阳占据了太阳系 99.8% 的质量,提供了几乎 100% 的能量。 所以答案很简单:光伏+储能。 马斯克算了一笔账:只需要在这个地球上划出一个 100 英里 × 100 英里(约 160 公里见方)的小角落,铺满太阳能板,产生的电力就足够整个美国使用。这在地图上也就是犹他州或内华达州的一个不起眼的小角。 为什么没做到?虽然中国在疯狂铺设光伏(确实令人印象深刻),但美国受限于极高的关税壁垒,导致光伏成本居高不下。不过 SpaceX 和特斯拉不打算等,他们正在自建每年 100 吉瓦的产能。...
本文整理自最近爆火的 Clawdbot 的创造者 Peter Steinberger 在 TBPN 的一场访谈。因为其名字取的时候谐音了 Claude 的原由被 Anthropic 强制要求更换名称(商标问题),现已更名为 Moltbot。以下内容由我和 Gemini 3 Pro 共同整理而成。 退休大佬复出“搞事情”:我只是想在 WhatsApp 上跟我的电脑聊天,结果引爆了 GitHub 如果在过去的一周里,你看到了一张 GitHub Star 数像火箭一样垂直升空的图表(现在已经接近 90K stars),那主角多半就是 Peter Steinberger 的项目。 这个故事最离谱的地方在于:这是一个已经财富自由、退隐江湖的大佬,纯粹为了“找乐子”写出来的东西。没有虽然、但是,也没有商业计划书,只有纯粹的极客精神和无数个凌晨三点的代码狂欢。 并不是所有复出都是为了钱 Peter 曾在自己的软件公司拼了 13 年,四年前他把公司卖了。用他自己的玩笑话(实际上是引用)说,那是为了去享受“二十一点和花天酒地”。但实际上,那是彻底的职业倦怠。那之后,他过了三年甚至都不想碰代码的生活,感觉像是被《王牌大贱谍》里的反派吸走了“精气神(Mojo)”。 直到 2023 年 4 月,那股火苗又回来了。 他不想再搞老本行 iOS 开发,而是要把目光投向当时还处于起步阶段的 AI。最初的体验并不完美,直到 Anthropic 的 Cloud Code 测试版发布,那种久违的“上瘾”感甚至让他兴奋到失眠。他甚至在凌晨 4 点给朋友发消息安利,组建了一个叫“Cloud Code 匿名戒瘾会”(后来顺应潮流改名叫“Agents Anonymous”)的聚会。 他的宣言很简单:“我结束退休生涯,就是为了回来跟 AI 捣乱的。” “摩洛哥惊魂”:当 AI 学会自己修补 Bug 这个爆火项目的起因非常随意。去年 11 月,Peter 只是想:“既然我在厨房的时候电脑不在身边,为什么我不能在 WhatsApp 上跟我的电脑聊天呢?” 于是他花了一个小时“黑”出了一个原型:WhatsApp 收到消息 -> 发送给 AI -> AI 执行代码 -> 返回结果。...