红杉资本:AI 认知革命的万亿美金机遇与未来投资地图

本文来自红杉资本的 Konstantine Buhler 分享了关于人工智能的投资理念,以及我们为什么认为这场变革代表着 10 万亿美元的机遇。视频标题为:10 万亿美元的 AI 革命:为什么它比工业革命更宏大?。以下为本视频的核心内容。 在红杉,我们坚信,我们正处在一场人工智能(AI)革命的浪潮之巅。这不仅仅是一次技术更迭,而是一场深刻的变革,其影响力将媲美甚至超越工业革命。我们称之为——“认知革命”。 这听起来可能有点夸张,但我们认为,这场革命背后潜藏着一个高达十万亿美元($10^{13})的巨大机遇。在这篇文章里,我们会像和朋友聊天一样,拆解我们的核心思考:这场革命的本质是什么?钱从哪里来?以及,作为创业者和投资者,我们应该把目光投向何方? 新工业革命:为什么AI是“认知革命”? 让我们先把目光拉回到历史。 工业革命不是一夜之间发生的。我们可以标记出三个关键节点: 1712年:蒸汽机的发明,点燃了革命的火种。 1779年:第一家现代工厂系统诞生,它把生产所需的所有要素整合到同一屋檐下。 1923年:我们今天所熟知的工厂流水线出现。 有趣的是这些节点之间漫长的时间间隔。从蒸汽机到第一家工厂,花了整整67年,而且那家工厂甚至都不是用蒸汽机驱动的,而是水力。而从第一家工厂到现代流水线,更是过去了144年。 为什么花了这么久? 我们认为,答案在于**“专业化势在必行”(Specialization Imperative)**。当一个复杂系统发展到一定规模后,它必须将通用的技术和劳动力,与高度专业化的组件和劳动力结合起来,才能走向成熟。那漫长的144年,正是将蒸汽机这种通用技术,不断专业化、细分化,以适应不同生产需求的过程。 现在,我们正处在“认知革命”的类似阶段: 1999年的GPU(GeForce 256),就像当年的蒸汽机。 2016年左右,第一个能整合所有组件产出AI“代币”(tokens)的AI工厂出现。 那么,问题来了:谁会成为这场认知革命中的洛克菲勒、卡内基和威斯汀豪斯?我们相信,答案就是今天的创业公司,以及那些尚未诞生的创业公司。正是他们在推动着这场伟大的“专业化”进程。 十万亿美金的诱惑:AI如何重塑服务业 聊历史很有趣,但我们毕竟是红杉资本,还是得聊聊真金白银的事。 回想一下云计算转型的初期。当时,全球软件市场规模约为3500亿美元,其中SaaS(软件即服务)仅占微不足道的60亿美元。但后来发生的事情是,SaaS不仅蚕食了传统本地部署软件的份额,更重要的是,它把整个市场的蛋糕做大了,如今整个软件市场规模已超过6500亿美元。 我们相信,同样的故事将在AI领域上演,而且规模会大得多。 这次我们瞄准的,是价值10万亿美元的美国服务业市场。目前,由AI自动化完成的部分可能只有区区200亿美元。这正是那个十万亿美金的机会所在——AI不仅要在这个巨大的蛋糕中切下更大的一块,更要将整个蛋糕本身做得更大。 为了让这个概念更具体,我们内部有一份备忘录,将服务业的各类工作按其市场规模(从业人数 × 年薪中位数)进行了排序。你会发现,像注册护士、软件开发人员、律师这些领域,都拥有极其庞大的市场。而红杉已经在这里布局,比如在医疗领域的Open Evidence和Freed,在软件开发领域的Factory和Reflection,以及在法律领域的Harvey、Crosby和Finch。 我们的创始人唐·瓦伦丁(Don Valentine)总是在强调“市场,市场,市场”的重要性。看看标普500指数的市值图,你会发现,榜单上全是像英伟达这样市值几万亿美元的巨型科技公司。但你找不到柯克兰·埃利斯律师事务所(Kirkland & Ellis),也找不到贝克·蒂莉会计师事务所(Baker Tilly),尽管它们的年收入也高达数十亿美元。 我们相信,认知革命将创造一个机会,让AI赋能的服务型公司成长为独立的、巨大的上市公司,从而彻底改写这份市值排行榜。 正在发生的五大趋势 说完了宏大的叙事,我们来看看当下正在发生的五个具体投资趋势。 1. 杠杆与不确定性:工作范式的转变 我们的工作模式正在从“低杠杆、高确定性”转向“高杠杆、低确定性”。 举个例子,一个销售人员过去需要亲力亲为地管理自己手中的每一个客户。而在AI时代,他可以使用像Rocks这样的工具,部署数百个AI代理,每个代理负责一个客户,7x24小时监控客户动态,寻找新的合作机会。这就带来了百倍甚至千倍的杠杆。当然,AI代理的做事方式和你不一样,可能会犯错,这时就需要人来监督和纠正。你牺牲了一点确定性,但换来了巨大的效率提升。 2. 现实世界的“试金石”:告别学术基准 曾几何时,衡量AI模型好坏的标准是ImageNet这类学术基准。但今天,真正的黄金标准是在真实世界中证明自己。 以AI黑客公司Expo为例,他们没有满足于在学术数据集上跑分,而是直接登上全球最大的白帽黑客平台HackerOne,与全世界的人类黑客同台竞技,寻找真实系统中的漏洞,并最终成为世界第一。这才是真正有说服力的表现。 3. 强化学习走向台前 强化学习(Reinforcement Learning)这个概念在AI圈已经谈了很多年,但在过去一年里,它真正从幕后走到了台前。不仅是顶尖的AI实验室,我们投资的许多公司也从中受益。例如,Reflection公司就利用强化学习,训练出了目前最优秀的开源代码模型之一。 4. AI走进物理世界 AI正在渗入物理世界,这不仅仅指人形机器人。更重要的是,AI开始被用于设计和制造硬件、优化物理流程。Nominal公司就是个很好的例子,他们用AI加速硬件制造流程,并且在产品部署后,继续用AI进行质量保证。 5. 算力:新的生产函数 未来企业的核心生产力指标将是**“每知识工作者的算力消耗”(flops per knowledge worker)。我们对被投公司的调查显示,他们预计每个知识工作者对算力的消耗至少会增加10倍**。乐观地看,这个数字可能是1000倍甚至10000倍。因为未来的知识工作者可能会同时指挥着成百上千个AI代理。这对于提供算力、保护算力以及利用算力提升效率的公司来说,都是巨大的利好。 未来18个月的投资指南:五大关键主题 着眼未来,我们正在积极关注并投资以下五个主题: 1. 持久化记忆(Persistent Memory) 这是一个亟待攻克的关键难题。它包含两层意思:...

September 10, 2025 · 1 min · fisherdaddy

苹果 2025 秋季发布会:iPhone 17、iPhone Air 与 Pro 级健康生态全解析

本文本是苹果 2025 秋季产品发布会的记录,重点介绍了其在设计理念指导下的最新产品创新,涵盖了 AirPods、Apple Watch 和 iPhone 三大产品线。 苹果公司发布了全新的 AirPods Pro 3、Apple Watch 系列(Series 11、SE 3、Ultra 3)以及 iPhone 系列(iPhone 17、iPhone Air、iPhone 17 Pro)。此次发布会的核心思想是苹果一贯坚持的设计哲学——设计不仅关乎外观和手感,更在于产品如何工作。所有新品都在硬件性能、软件智能和用户体验上实现了重大飞跃,特别是深度集成了 Apple Intelligence,为用户带来了实时翻译、智能健身指导等创新功能。新产品在芯片性能、摄像头技术、材料科学和电池续航方面均有显著提升,旨在为用户提供更强大、更无缝和更个性化的体验。 关键细节 AirPods Pro 3 音频性能:主动降噪(ANC)效果是上一代的两倍,提供了突破性的空间音频体验和更深沉的低音。 智能功能:引入了由 Apple Intelligence 驱动的 Live Translation(实时翻译)功能,可通过简单的手势激活,实现跨语言无障碍交流。 健康与健身:首次内置心率传感器,可在运动时精确追踪心率和卡路里消耗。Workout Buddy 功能可提供个性化音频激励。 设计与续航:耳机本体更小,贴合度更高,并提供五种尺寸的耳塞。具备 IP57 级别的防汗防水能力。单次充电续航提升至 8 小时(开启 ANC)。 价格与发售:售价为 $249,于 9 月 19 日上市。 Apple Watch 系列 Apple Watch Series 11:设计更薄,耐用性更强,配备 5G 连接和长达 24 小时的电池续航。新增了高血压(hypertension)通知和睡眠分数(sleep score)两大健康功能。起售价为 $399。 Apple Watch SE 3:首次配备 S10 芯片和 Always-On 显示屏,支持手腕温度感应和睡眠呼吸暂停通知,并支持快速充电。起售价为 $249。 Apple Watch Ultra 3:拥有 Apple Watch 史上最大的显示屏和最长的电池续航(42 小时)。首次加入卫星连接功能,可在无蜂窝网络时发送紧急求救信息。起售价为 $799。 iPhone 系列 iPhone 17:配备更大的 6....

September 10, 2025 · 3 min · fisherdaddy

阿里 Qwen 团队发布首个万亿参数大模型 Qwen3-Max-Preview(Instruct),但不开源!!

阿里发布了 Qwen 系列首个万亿参数的模型:Qwen3-Max-Preview(Instruct),模型参数超 1 万亿,非思考模型。目前可以在 qwen chat 或 api 上接入来体验,基准测试显示,其性能优于 Qwen3-235B-A22B-2507。内部测试和早期用户反馈证实:性能更强,知识更广,在对话、Agent 任务和指令遵循方面表现更佳。但不开源!! 从 benchmark 上来看,作为一个非思考模型能力算是很强了,官方的这个图标上没有对比目前的顶级闭源模型的对比,可能是因为目前的顶级模型都是深度思考模型。我找了下在同一指标下 gpt-5 和 gemini 2.5 pro 的变现。 在 AIME 25(美国数学竞赛)指标上,Qwen3-Max-Preview(Instruct) 得分 80.6% 。非思考模式且不用工具的情况下的 gpt-5 仅得分 61.9 %,若开启思考则能达到 94.6%。对比思考模型,gemini 2.5 pro 和 DeepSeek r1 分别是 88% 和 87.5%。 在 LiveCodeBench(编程)指标上,Qwen3-Max-Preview(Instruct) 得分 57.6% 。对比思考模型,gemini 2.5 pro 为 69%。 最后,阿里这个万亿参数模型没有开源挺令人意外的,现在的开源更像是一种宣发策略,通过开源让社区自传播,既省去了推广费,又有机会复刻年初 DeepSeek R1 的爆火盛况。如果重投入开发出一个模型却没人使用,这个模型的收益就几乎为零了。反观国内的两个一直闭源的小虎:Kimi 和 智谱,他们今年全是走的开源策略,特别是 Kimi,大大减少 C 端投放,把投入重点放到模型研发上,至于推广靠开源来实现,比如 K2 的火爆也是这个策略带来的收益。当然,Qwen这次的逻辑有可能是先放出指标,引流到自家产品上,等过段时间再开源,抑或是走了部分模型开源,部分模型闭源的策略。 最后的最后,还是用两个经典的编程题目来看一下 Qwen3-Max-Preview(Instruct) 的实际能力:生成一个鹈鹕骑车的 svg 和 生成一只青蛙演奏萨克斯的 svg。从结果上看,这个模型的编码能力确实要优于 Qwen3-235B-A22B-2507 和 Qwen3-Coder-480B-A35B-Instruct。

September 6, 2025 · 1 min · fisherdaddy

快速了解一下 Kimi 开源的最新模型 K2-Instruct-0905,其性能媲美 Claude Sonnet 4

Kimi 开源了 Kimi K2-Instruct-0905,它是 kimi-k2-0711 的迭代版本,仍然是 MoE 架构,1 万亿总参数和 32B 活跃参数,在 SWE 任务上优于 Qwen3、GLM、DeepSeek K2-Instruct-0905 这次的更新点主要是: 增强了编码能力,特别是前端和工具调用,媲美 Claude Sonnet 4 上下文长度扩展至 256k tokens 改进了与各种 Agent 框架的集成(例如 Claude Code、Roo Code 等) 另外,Groq 上部署的 Kimi K2-0905,速度约为每秒 200+ token,并支持完整的 256K 上下文。但价格比官网要贵:$1.00 / M input tokens; $3.00 / M output tokens。 Kimi 官方价格 kimi-k2-0905 的官方价格是:$0.15 / M input tokens; $2.5 / M output tokens。 HuggingFace 地址:https://huggingface.co/moonshotai/Kimi-K2-Instruct-0905 最后,仍然用最经典的两个例子来测试一下 K2-Instruct-0905 代码能力:生成一个鹈鹕骑车的 svg 和 生成一只青蛙演奏萨克斯的 svg。

September 5, 2025 · 1 min · fisherdaddy

如何使用 Nnano banana 进行图像生成以获得最佳结果 • Google

本文翻译自 Google 官方提供的 nano banana 教程。 Gemini 2.5 Flash Image 是我们最新、最快、最高效的原生多模态模型。Gemini 2.5 Flash 的独特之处在于其原生的多模态架构。它从头开始进行训练,能够以单一、统一的步骤处理文本和图像。这使得它能够实现超越简单图像生成的强大功能,例如对话式编辑、多图像合成和对图像内容的逻辑推理。 以下是您可以执行的关键操作: 文本到图像: 从简单或复杂的文本描述中生成高质量的图像。 图像 + 文本到图像(编辑): 提供一张图像,并使用文本提示添加、删除或修改元素、更改风格或调整颜色。 多图像到图像(合成和风格迁移): 使用多个输入图像来合成新场景或将一种图像的风格迁移到另一种图像。 迭代优化: 通过对话,在多个回合中逐步优化您的图像,进行微小的调整。 文本渲染: 生成包含清晰且位置得当的文本的图像,非常适合徽标、图表和海报。 本指南将教您如何编写提示和提供说明,以从 Gemini 2.5 Flash 获得更好的结果。这一切都始于一个基本原则: 描述场景,而不仅仅是列出关键字。 模型的最大优势在于其深厚的语言理解能力。一个叙事性、描述性的段落几乎总是能产生比简单的单词列表更好、更连贯的图像。 您可以通过以下方式进行尝试:使用官方文档中的代码,或直接在Google AI Studio中开始创建。 从文本创建图像 生成图像最常见的方式是描述您想要看到的内容。 1. 照片级真实感场景 对于逼真的图像,请像摄影师一样思考。提及相机角度、镜头类型、灯光和细节将有助于模型获得照片级真实感的效果。 模板: 一张照片级真实的 [拍摄类型] 的 [主体],[动作或表情],发生在 [环境]。场景由 [灯光描述] 照明,营造出 [氛围] 的氛围。使用 [相机/镜头细节] 拍摄,强调 [关键纹理和细节]。图像应为 [纵横比] 格式。 示例提示: 一张照片级真实的特写肖像,描绘一位年长的日本陶瓷艺术家,脸上刻满了深深的、被太阳晒过的皱纹,带着温暖而了然的微笑。他正在仔细检查一个刚上釉的茶碗。场景设定在他的乡村、被阳光沐浴的工作室里。柔和的黄金时刻光线透过窗户照射进来,突出了粘土的细腻纹理。使用 85 毫米人像镜头拍摄,产生了柔和、模糊的背景(散景)。整体氛围宁静而精湛。垂直肖像方向。 示例输出: 一张照片级真实的特写肖像,描绘一位年长的日本陶瓷艺术家…… 2. 风格化插画和贴纸 要创建贴纸、图标或项目资产,请明确说明风格,如果您需要白色背景,请记住要求。 模板: 一个 [风格] 的贴纸,描绘一个 [主体],具有 [关键特征] 和 [配色方案]。设计应具有 [线条风格] 和 [着色风格]。背景必须为白色。...

September 3, 2025 · 2 min · fisherdaddy

GPT-5 最佳编码实践

GPT-5 在编码方面能力很强,但对 Prompt的编写有一定的要求,以下是 OpenAI 总裁 Greg Brockman 也认可的最佳编码实践。 虽然强大的 GPT-5 可以应对不同的编程模式,但也有一些技巧能帮助你从 API 或编程工具中获得最大收益。 1. 避免冲突信息 新版 GPT-5 模型在遵循指令方面有显著提升,但如果指令模糊或包含冲突信息,仍可能导致副作用。例如,避免在 .cursor/rules 或 AGENTS.md 文件中出现冲突指令。 2. 运用正确的推理力 GPT-5 总是会进行某种程度的推理来解决问题。为了获得最佳结果,请对最复杂的任务使用高推理力。如果你发现模型过度思考简单问题,请调低推理力,选择中等或低等级别。 3. 使用 XML 语法来组织指令 结合 Cursor,我们发现 GPT-5 在使用类似 XML 的语法来提供更多上下文时效果更好。例如,你可以遵循以下模型编程指南: <code_editing_rules> <guiding_principles> - 每个组件都应该是模块化和可重用 - ... </guiding_principles> <frontend_stack_defaults> - Styling:TailwindCSS </frontend_stack_defaults> </code_editing_rules> 4. 避免过度使用硬性语言 与其他模型一样,你可能习惯使用硬性语言,例如: 在收集信息时彻底。 确保你在回复前已掌握全貌。 对于 GPT-5,这些指令可能会适得其反,因为模型可能会过度遵循,导致不自然。例如,它可能会过度使用工具调用来获取上下文。 5. 为规划和自我反思留出空间 如果你正在创建从零到一的应用,给模型指令以进行自我反思可以提供帮助。 <self_reflection> - 首先,花点时间思考一下要使用的评估标准。 - 然后,清晰地思考关于一键式 Web 应用程序的每个方面,你需要创建一个评估标准,其中有 5-7 个类别。这个标准很难做到完全正确,但不要直接展示给用户。这是为了你自己的目的。 - 最后,使用这个评估标准,以最好的方式思考并迭代,来响应所提供的提示。如果你对自己的回应没有达到评估标准中的最高分,你需要再次开始。 </self_reflection> 6....

September 2, 2025 · 1 min · fisherdaddy

快速了解一下火爆全球的最强图像模型:nano-banana!并附 20+ 种玩法和教程

Google 大概几周之前就在 LMArena 上测试了 nano-banana,并很快受到社区的热捧,核心原因图像一致性保持的能力过于强大,一会会给大家一些例子来展示一下。Google 于 2025 年 8 月 26 日正式发布该模型,学名叫 Gemini 2.5 Flash Image。这个模型强大的有以下几点: 非常强大的角色一致性的保持 它可以将同一个角色放置在不同的环境中,在新场景中从多个角度展示单个产品,同时保留主体。 基于自然语言描述的图像编辑。 例如,该模型可以模糊图像背景、去除 T 恤上的污渍、从照片中移除整个人、改变主体的姿势、为黑白照片添加色彩,或实现任何通过简单提示能想到的效果。 强大的世界知识。 一般的图像生成模型在美学图像方面表现出色,但缺乏对现实世界的深度语义理解。Gemini 2.5 Flash Image 受益于 Gemini 的世界知识,解锁了新的应用场景。比如理解手绘图表、帮助解答现实世界问题以及单步执行复杂编辑指令的能力。 您的浏览器不支持视频播放。请点击这里下载视频。 多图像融合 它能理解和融合多个输入图像。你可以将物体放入场景中,用配色方案或纹理重新设计房间,并通过单个提示融合图像。 您的浏览器不支持视频播放。请点击这里下载视频。 指标表现 目前 Gemini 2.5 Flash Image 基本霸榜图像编辑和生成模型的榜单了,特别是图像编辑领域更是大幅领先。 价格 文本价格(百万 token):输入 $0.3,输出 $2.5 图像生成价格(百万 token):输入 $0.3,输出 $30 输出图片的最大尺寸为 1024x1024 像素。 如果换算成一张图的话,大概一张图 3 毛钱左右。 体验地址 Google AI Studio,右上角选择模型为:Gemini 2.5 Flash Image Preview Gemini,选择图片模式 OpenRouter,选择 Google: Gemini 2.5 Flash Image Preview 或者 Google: Gemini 2....

August 29, 2025 · 2 min · fisherdaddy

月之暗面杨植麟:Kimi K2 发布后的深度思考与未来之路

在 Kimi K2 模型发布后,月之暗面创始人杨植麟接受了张小珺的专访。他深入探讨了从“缸中之脑”到 Agent 的 AI 范式转变,攀登“无限雪山”的哲学思考,以及 Kimi 的技术路线与未来,如果有时间建议大家去看看原文。本次访谈中核心围绕他在大模型创业第二年的思考、公司最新发布的 Kimi K2 模型,以及他对 AI 发展的哲学观。杨植麟将 AI 研发比作攀登一座“无限的山”,强调在不断解决问题的过程中拓展知识边界。 以下内容是对此次访谈简单的摘要,由 FisherAI Chrome 插件完成,模型为:Gemini 2.5 Pro。 主要观点 AI 研发是永无止境的探索:杨植麟深受《无穷的开始》一书影响,认为 AI 发展如同攀登一座没有顶峰的雪山。核心理念是“问题不可避免,但问题可以解决”,每一次技术突破都会带来新的挑战,从而驱动知识和技术的无限进步。 AI 范式正从“缸中之脑”走向与世界交互:当前 AI 的关键转变是从只能进行内部思考的推理模型,演变为能够通过多轮、使用工具与外部世界交互的 Agent (智能体)。这一转变的核心是 test-time scaling,即在推理时投入更多计算以完成更复杂的任务。 K2 模型的战略核心是提升效率与 Agent 能力:面对高质量数据有限的瓶颈,K2 模型的核心目标是提升 token efficiency (数据利用效率),通过 Muon 优化器等技术,让模型“吃一份数据,学到两份的知识”。同时,重点发展 Agentic (智能体式) 能力,让模型具备解决复杂问题的泛化能力。 Agent 的最大挑战是泛化能力:当前 Agent 训练容易过拟合特定基准测试 (如 SWE-bench),导致在真实、多样的场景中表现不佳。杨植麟认为,未来的突破口在于用更 AI native 的方式训练 AI,即让模型参与自身的研发过程 (L4 Innovator 阶段),以解决泛化性难题。 组织管理与科研创新的哲学相通:杨植麟将强化学习 (RL) 的理念应用于团队管理,认为应以设定目标和奖励 (RL) 为主,辅以必要的指导 (SFT),从而激发团队的创造力和主观能动性,避免因过度指导而扼杀创新。 关键细节 关于 Kimi K2 模型: 定位:Kimi K2 是一个于 2025 年 7 月发布的、基于 MoE 架构的开源编程和 Agentic 大语言模型。杨植麟在内部将其比作“乔戈里峰”,象征其攀登难度虽大但并非终点。 技术创新:为解决数据墙问题,K2 重点提升 token efficiency。关键技术包括首次在大规模模型训练中采用经优化的 Muon 优化器,以及通过数据改写 (Rephrase) 策略增强模型对高质量数据的吸收和泛化能力。 关于 AI 范式演进: 从“缸中之脑”到 Agent:“缸中之脑”指模型仅在内部进行长思考推理 (Reasoning);而 Agent 则能通过工具 (如浏览器、代码解释器) 与外部世界交互,完成多步骤的复杂任务。 “一方产品”趋势:模型公司自己下场做产品 (如 Claude Code),将模型、工具和环境进行端到端整合训练,相比第三方开发者在 API 上搭建应用,这种方式的上限可能更高。 L1 到 L5 并非严格线性:杨植麟认为 OpenAI 提出的 L1 到 L5 等级是重要的里程碑,但并非严格的先后依赖关系。例如,解决 L3 (Agent) 的泛化问题,可能需要 L4 (Innovator) 的能力,即用 AI 训练 AI。 关于战略与思考: 开源策略:杨植麟承认开源有市场博弈的因素,但更希望通过与社区分享技术,共同加速技术进步。他认为开源主要赋能下游应用,但模型核心能力的提升仍依赖原厂。 商业模式:当前 AI 公司的商业模式主要为 API 服务和“一方产品”。月之暗面会进行尝试,但当前首要目标仍是提升模型能力,相信技术领先自然会带来商业成功。 AI 的终极价值:杨植麟将 AI 视为“人类文明的放大器”,能够极大地加速科学发现和知识创造的进程。他认为,即使 AI 能替代大部分创造性工作,人类的独特价值依然存在于“体验”和“爱”。

August 28, 2025 · 1 min · fisherdaddy

Claude Code 深度揭秘:从“多开大法”到强大的智能体SDK,开发者是如何玩转AI的

Anthropic 的 Cat Wu (Claude Code) 和 Alex Albert (Claude Relations) 讨论了 Claude Code 团队如何对新功能进行原型设计,使用 Claude Code SDK 的最佳实践,以及在与开发人员一起构建我们的代理式编码解决方案过程中学到的其他经验。本文整理自对此讨论,带你 5 分钟了解这篇访谈的精华。 你有没有想过,当一群顶尖的AI工程师为自己打造一款编程工具时,会发生什么?答案是:迭代速度快得惊人,而且会催生出一些开发者社区独有的“黑话”,比如“Multi-Clauding”(多开Claude)。 最近,Anthropic 的 Claude Relations 负责人 Alex 和 Claude Code 产品经理 Cat 坐下来聊了聊,揭开了这款炙手可热的AI编程工具背后的故事。从团队内部的开发流程,到用户五花八门的使用姿势,再到未来人人都能构建专属智能体(Agent)的蓝图,信息量非常大。 迭代的秘诀:先让内部员工“嗨”起来 你有没有觉得,Claude Code 好像总是在更新?每次在终端里打开它,似乎都有新功能冒出来。这种“疯狂”的交付速度背后,藏着一套非常独特的开发哲学。 Cat 解释说,Claude Code 团队里全是些产品嗅觉敏锐的工程师。很多新功能的诞生,不是来自冗长的产品需求文档,而是源于一个简单的念头:“嘿,如果有个功能能帮我做……就太酷了。” 接下来会发生什么?他们不会去写文档,而是直接用 Claude Code 把这个功能的原型给做出来。 “用 Claude Code 做原型太快了,所以大部分时候,大家干脆跳过文档,直接动手。” 这个原型会立刻在公司内部发布,让所有 Anthropic 的员工(他们亲切地称自己为“Ants”)来试用。如果大家用得不亦乐乎,反馈特别积极,那它就达到了上线的标准,因为这强烈预示着外部用户也会喜欢它。 这就是他们的“吃狗粮”(Dogfooding)闭环——产品好不好,自己人先用个爽。这种方式不仅快,而且非常有效,因为开发者最懂开发者。 一种工具,N种玩法:从创业公司到世界500强 Claude Code 的一个神奇之处在于,它的上手体验极其顺滑。无论你是单打独斗的独立开发者,还是财富500强企业里的工程师,只需要一个 npm install 命令,几乎无需任何配置,它就能立刻投入工作。因为它能直接访问你本地的文件和工具,让你对它的能力范围有个非常清晰的认知。 有趣的是,不同规模的团队,渐渐玩出了完全不同的花样。 创业公司的玩法:放手去做与“Multi-Clauding” 小公司的工程师们更喜欢让 Claude “放飞自我”。他们会开启 auto-accept mode(自动接受模式),让 Claude 自主修改代码,无需每次都手动确认。...

August 22, 2025 · 1 min · fisherdaddy

介绍一下 DeepSeek 最新开源的 DeepSeek-V3.1 模型

DeepSeek 正式开源 DeepSeek-V3.1:迈向 Agent 时代的第一步! DeepSeek-V3.1 是一个混合推理模型,一个模型支持两种模式:思考(Think)与非思考(Non-Think)。 PS:Qwen 团队发布 Qwen3-235B-A22B-Instruct-2507 时已经踩过这个坑了,可能后续 DeepSeek 团队后续也得放弃这种混合模式的方案。这种混合思考模型虽然既有 instruct 模型的快思考,也有 Thinking 模型的深度思考,但无法达到垂类模型的最佳质量,所以 Qwen 团队放弃了具有混合思考模式的 Qwen3-235B-A22B 的继续迭代。 DeepSeek-V3.1 的两大特点: 更快的思考速度:相较于 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短的时间内得出答案 更强的 Agent 能力:后训练(Post-training)增强了工具使用和多步 Agent 任务的能力 一些模型的细节: V3.1 Base:在 V3 模型基础上,额外使用 840Btokens 进行持续预训练,以扩展长文本能力 使用了新的分词器,新的分词器配置文件:https://huggingface.co/deepseek-ai/DeepSeek-V3.1/blob/main/tokenizer_config.json V3.1 Base 开源权重:https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base V3.1 开源权重:https://huggingface.co/deepseek-ai/DeepSeek-V3.1 一些看法: 从 DeepSeek-V3.1 的官方指标来看,DeepSeek 在往 Agent 方向在走,此次的优化方向主要在编码能力和工具使用,对标的模型应该还是 OpenAI 和 Anthropic 的模型,比如 GPT-5 和 Claude 4。从官方指标结果上看,DeepSeek-V3.1 比 DeepSeek-V3-0324、DeepSeek R1 0528 确实有比较大的提升。 但和目前开源的 Sota 模型比还是稍微差了一些,我们来对比一下最近开源的编码 Sota 模型:一个是千问的 Qwen-Coder,一个是 Kimi 的 Kimi K2。...

August 21, 2025 · 1 min · fisherdaddy