介绍一下 GPT-5.1 API 对开发者的一些特色

2025 年 11 月 13 日 OpenAI 面向开发者发布 GPT-5.1 模型。GPT-5.1 是一款更快速、更高效、更智能的 AI 模型,专为开发者设计。它通过动态调整思考深度来优化简单任务的速度和成本,同时在复杂任务上保持强大的性能。该模型还增强了编码能力,并引入了两个新工具,旨在帮助开发者更可靠、更高效地构建复杂的代理工作流。 关键细节 效率与推理 动态推理:GPT-5.1 能根据任务复杂性动态调整其“思考”时间。对于简单任务,它使用更少的 token,响应速度更快(例如,一个 npm 命令的查询从 10 秒缩短到 2 秒);对于复杂任务,它会投入更多资源以确保可靠性。 无推理模式:新增了 reasoning_effort 设置为 'none' 的模式,适用于对延迟敏感的应用场景。该模式在保持高智能的同时,能实现更快的响应和更高效的并行工具调用。 性能提升:与 GPT-5 及其他竞品相比,GPT-5.1 在速度和 token 效率上均有显著提升。Balyasny Asset Management 发现其速度是 GPT-5 的 2-3 倍,而 token 消耗仅为竞品的一半。 扩展缓存:引入了长达 24 hour 的提示缓存(prompt caching)功能,显著降低了在多轮对话或编码会话等长交互场景中的延迟和成本。 编码能力 性能增强:GPT-5.1 在编码方面更具可控性,代码质量更高,并且减少了不必要的“过度思考”。在 SWE-bench Verified 基准测试中,其准确率达到了 76.3%。 业界好评:多家公司如 Cognition、Warp 和 JetBrains 对其给予了高度评价,认为它在理解用户意图、响应速度和自主性方面表现出色。 新增工具: apply_patch 工具:允许模型通过生成结构化的 diff 来可靠地创建、更新或删除代码文件,使多步骤代码编辑更加流畅。 shell 工具:允许模型通过受控的命令行界面与本地计算机交互,执行检查系统、运行程序等任务。 定价与可用性 可用性:GPT-5.1 和 gpt-5....

November 14, 2025 · 3 min · fisherdaddy

快速了解一下 GPT-5.1:一个更智能、更健谈的 ChatGPT

2025年 11 月 12 日,OpenAI 宣布了对 GPT-5 系列的重大升级,推出了 GPT-5.1。这次更新的核心目标是让 ChatGPT 不仅更智能,而且在对话交流上更令人愉悦。新版本引入了两个升级模型:GPT-5.1 Instant 和 GPT-5.1 Thinking,它们在智能、沟通风格和指令遵循方面都有显著提升。此外,本次更新还提供了更直观、更有效的工具,让用户可以轻松定制 ChatGPT 的语调和风格,使其更符合个人偏好。 核心内容 GPT-5.1 Instant: 作为最常用的模型,其默认风格变得更热情、更具对话感。 提升了指令遵循能力,能更可靠地回答用户提出的问题。 首次引入了“自适应推理” (adaptive reasoning) 功能,使其在处理数学(如 AIME 2025)和编程(如 Codeforces)等复杂问题时,能花更多时间思考,从而提供更准确的答案,同时对简单问题保持快速响应。 GPT-5.1 Thinking: 作为高级推理模型,它在效率和易用性上得到提升,能根据问题难度精确调整思考时间。 回答变得更清晰,减少了专业术语,使其更易于理解。 默认语调也变得更热情和富有同理心。 发布与过渡计划 推出时间: GPT-5.1 将从即日开始向付费用户(Pro, Plus, Go, Business)推出,随后覆盖免费用户。企业和教育版用户将获得为期七天的提前体验权限。 API 集成: GPT-5.1 Instant 和 GPT-5.1 Thinking 将在本周晚些时候登陆 API。 旧版模型: 原有的 GPT-5 模型将在付费用户的下拉菜单中保留三个月,以便用户比较和适应。 个性化定制功能 语调预设: 更新并优化了语调选项,保留了 Default、Friendly 和 Efficient,并新增了 Professional、Candid 和 Quirky 等选项。 精细化控制: 正在试验一项新功能,允许用户在个性化设置中直接微调 ChatGPT 的特征,如简洁度、热情度或表情符号使用频率。 即时生效: 个性化设置的更改将立即在所有对话(包括正在进行的对话)中生效,确保体验的一致性。 命名与未来 命名原因: 本次更新命名为 GPT-5....

November 13, 2025 · 4 min · fisherdaddy

快速了解一下 Artificial Analysis 发布的 2025 年第三季度 AI 现状报告的核心内容

Artificial Analysis 发布了《2025 年第三季度 AI 状况报告》,以下是该报告的核心内容: 2025 年第三季度,人工智能行业呈现出空前激烈的竞争和加速创新的态势。各大 AI 实验室不仅在模型的智能、效率和速度上持续突破,竞争者的数量也在各个领域迅速增长。本季度的核心趋势表现为: 竞争全面加剧:领先的 AI 实验室在模型性能上的差距逐渐缩小,同时,新的参与者不断涌现,尤其是在中国。 智能体(Agent)成为焦点:AI 实验室的研发重点正转向提升模型的“智能体”能力,使其能够自主使用工具、执行更复杂的多步骤任务。 图像与视频生成技术普及:随着 Gemini 2.5 Flash 等模型的发布,图像编辑功能在质量和普及度上显著提升,视频生成技术也日益成熟。 开源模型加速发布:以 OpenAI 发布的 gpt-oss-20B 为代表,高质量的开源模型发布速度达到历史新高,与众多来自中国实验室的模型展开竞争。 语音技术成熟并投入应用:语音转录、语音生成以及原生的语音对语音(Speech to Speech)技术日趋成熟,为实现更自然的生产级语音智能体铺平了道路。 关键细节 行业概览 垂直整合:在 AI 价值链中,Google 凭借其从 TPU 芯片到 Gemini 应用的全面布局,成为垂直整合程度最高的公司。 资本支出:大型科技公司持续增加对 AI 基础设施的投资,预计这一趋势将持续到 2026 年。例如,xAI 计划为其数据中心采购 300,000 个 Nvidia GPU。 市场格局:中美的大型科技公司在语言、图像、视频等多个 AI 领域展开竞争,而规模较小的挑战者则倾向于专注于特定领域。 语言模型 (LLM) 智能水平:OpenAI 凭借 GPT-5 模型重新夺回智能指数榜首,但与 xAI 的 Grok 4、Anthropic 的 Claude 4.5 和 Google 的 Gemini 2.5 Pro 差距极小,竞争异常激烈。 成本与效率:尽管 GPT-4 级别的智能成本已降低了 100 倍,但智能体、长文本推理等新应用对计算资源的需求仍在急剧增加。同时,模型推理的价格在各个智能等级上持续下降。 开源模型:虽然性能最强的模型仍是闭源的,但 OpenAI 发布的 gpt-oss-120B 等模型正在推动开源模型接近性能前沿。 智能体(Agents):智能体被定义为由大语言模型驱动、能自主使用工具完成端到端任务的系统。Q3 2025 发布的新模型普遍针对工具使用和智能体任务进行了优化。 图像与视频模型 视频技术:视频模型的质量进步神速,中国实验室在视频生成领域处于领先地位,例如快手的 Kling 2....

November 12, 2025 · 1 min · fisherdaddy

斯坦福 AI 俱乐部:Jason Wei 谈 2025 年 AI 领域的 3 个关键理念

文本来自于 Jason Wei 在斯坦福 AI 俱乐部上的分享。Jason Wei 是一位杰出的 AI 研究员,目前在 Meta Superintelligence 实验室工作。在加入 Meta 之前,Jason 帮助在 OpenAI 共同创建了 o1 模型和 Deep Research 产品。他也是思维链 (Chain of Thought) 推理的发明者之一,并在 Google Brain 记录了关于涌现现象的重要研究。 当我们谈论AI将如何改变世界时,常常会听到两种截然不同的声音。一边是我那位做量化交易的朋友,他觉得ChatGPT虽然酷,但离他工作中真正需要的复杂技能还差得远。另一边,一位顶尖AI实验室的研究员却告诉我,他觉得我们人类“打工人”的好日子可能只剩下两三年了。 巨大的认知差异背后,是我们对AI本质理解的偏差。 Jason Wei,这位曾在Google Brain推动了“思维链(Chain of Thought)”、在OpenAI共同创造了Q*和深度研究(Deep Research)、如今在Meta超级智能实验室工作的AI大牛,为我们提供了一个更清晰的思考框架。他认为,要看清2025年乃至未来的AI图景,你只需要理解三个简单又深刻的观点。 这三个观点,就像三把钥匙,能帮我们打开对AI未来的认知大门,看清哪些是触手可及的现实,哪些又是遥远的幻想。 趋势一:智能将变得像水电一样,随取随用 想象一下,AI的发展有两个阶段。 第一阶段是“开疆拓土”。在这个阶段,AI还无法很好地完成某项任务,研究人员的目标是努力解锁新能力。就像我们在过去几年看到的,AI在MMLU(一个衡量多任务语言理解能力的通用基准)上的得分逐年攀升,这就是在不断拓展能力的边界。 第二阶段则是“商品化”。一旦某个能力被AI攻克,获取这项能力的成本就会急剧下降,最终趋近于零。我们可以看到一个清晰的趋势:要达到MMLU某个固定的分数,每一年所需要花费的计算成本(美元)都在断崖式下跌。 为什么这个趋势会持续下去?一个关键原因是**“自适应计算”(Adaptive Compute)**的成熟。在过去,无论问题多简单(比如“加州的首都是哪里?”)还是多复杂(比如一道奥数题),模型处理它花费的计算量基本是固定的。但现在,我们可以根据任务的难度动态调整计算资源。简单的任务用小模型或少量的计算就能解决,这使得“智能”的成本可以无限逼近于零。 这个趋势最直接的体现,就是**“即时知识”**的实现。获取公开信息的门槛正在被彻底踏平。 不妨用一个例子来感受一下: 问题1:1983年釜山的人口是多少? 前互联网时代:你可能得花几小时开车去图书馆,翻阅一堆百科全书。 互联网时代:几分钟的搜索和网页浏览。 聊天机器人时代:几乎是瞬间得到答案。 问题2:1983年釜山有多少对新人结婚? 前互联网时代:这可能需要你飞到韩国,去政府档案馆翻阅几十本尘封的记录簿,耗时数周。 互联网时代:如果你不懂韩语,可能要在无数网站中大海捞针,花上好几个小时。 AI智能体时代:像OpenAI的Operator这样的工具,可以通过访问KOSIS(韩国统计信息服务)数据库,经过一系列点击和查询,在几分钟内找到答案。 问题3:1983年,亚洲人口最多的30个城市,按当年的结婚数量排序? 前互联网时代:这几乎是个不可能完成的任务,可能需要耗费数月甚至几年。 AI智能体时代:虽然现在可能还需要几小时,但已经从“不可能”变成了“可能”。 这对我们意味着什么? 知识壁垒的消融:像编程、个人健康管理这些过去因知识门槛而显得“高大上”的领域,将被大众化。以前你想搞点“生物黑客”实验,医生可能只会给你一些标准建议;现在,ChatGPT能给你提供不亚于一个优秀医生的专业信息。 私人信息的价值提升:当所有公开信息的获取成本都趋近于零时,那些未公开的、私人的、内幕的信息(比如市场上还没挂出来的待售房源)的相对价值就会飙升。 个性化互联网的到来:未来,我们访问的可能不再是千人一面的公共互联网,而是一个为你量身定制的、能即时解答你任何疑问的“私人互联网”。 趋势二:验证者定律——AI能做什么,取决于我们能多容易地评判它 在计算机科学中,有一个很经典的概念叫**“验证不对称性”**(Asymmetry of Verification),说白了就是:对于某些任务,验证一个答案是否正确,远比从零开始找出这个答案要容易得多。 我们可以把各种任务放到一个二维坐标系里,X轴代表“生成难度”,Y轴代表“验证难度”: 数独:生成(解决)很难,但验证(检查)非常容易。 编写Twitter的代码:生成极其困难(需要数千工程师),但验证相对简单(打开网站点几下看看功能是否正常)。 奥数题:有时生成和验证的难度差不多。 写一篇充满事实的论文:生成一篇看起来煞有其事的文章很容易,但要逐一核实每个事实(Fact-checking)却极其耗时和困难。 提出一种新的饮食法:我花10秒钟就能声称“只吃野牛是最好的饮食法”,但要科学地验证这个说法的真伪,可能需要长达数十年的大规模、低噪音的实验。 基于此,Jason提出了一个他称之为**“验证者定律”(Verifier’s Law)**的观点:...

November 11, 2025 · 1 min · fisherdaddy

六位人工智能先驱、2025年伊丽莎白女王工程奖得主罕见同台,分享他们的“顿悟时刻”,激辩 AI 泡沫论,并预测 AGI 的未来

Yoshua Bengio、Geoffrey Hinton、John Hopfield、 Yann LeCun、黄仁勋、比尔·戴利、李飞飞七人获得2025 年英国女王工程奖,以表彰他们在现代机器学习发展方面做出开创性贡献。 本文来自于 11 月 6 日黄仁勋 (Jensen Huang)、Yoshua Bengio、Geoffrey Hinton、李飞飞 (Fei-Fei Li)、杨立昆 (Yann LeCun) 和 Bill Dally 在伦敦举行的英国《金融时报》 人工智能 未来峰会上与英国《金融时报》 人工智能 编辑 Madhumita Murgia 进行的对话。他们共同回顾了数十年的开创性工作——从神经网络到 生成式 AI,并讨论了他们帮助创造的这项技术所带来的伦理、社会和经济影响。 想象一下,把当今人工智能领域最顶尖、最具影响力的大脑们聚在同一张桌子旁,会碰撞出怎样的火花? 最近,2025年伊丽莎白女王工程奖的六位获奖者——这个星球上最聪明、最举足轻重的一群人——就进行了一场这样的对话。他们是Geoffrey Hinton、Yann LeCun、Yoshua Bengio、Fei-Fei Li、Bill Dally和Jensen Huang(黄仁勋)。从奠定深度学习基石的理论家,到打造AI算力帝国的实干家,他们的工作共同塑造了我们今天所处的AI时代。 在这场难得的围炉夜话中,他们不仅分享了职业生涯中那些“灵光一闪”的时刻,还就当下的AI热潮、未来的技术走向,甚至是“机器何时超越人类”等终极问题,展开了坦诚而深刻的讨论。 灵光一闪:六位巨擘的AI觉醒时刻 每个伟大的征程都始于一个微小的起点。对于这些AI先驱来说,那些决定性的“啊哈!”时刻,不仅改变了他们个人的轨迹,也为整个科技世界埋下了伏笔。 Yoshua Bengio:从兴奋到警觉 Bengio分享了两个截然不同的时刻。第一次是在他还是研究生时,读到Geoffrey Hinton的早期论文,他兴奋地想:“哇!也许有几个简单的物理定律就能帮我们理解人类智能。”这颗种子让他投身AI研究。而第二次,则是在ChatGPT问世后,一种“我们到底在做什么?”的警觉感油然而生。他对拥有目标且可能比人类更聪明的机器感到担忧,这促使他彻底转变了研究方向,致力于解决AI安全问题。 Bill Dally:从“内存墙”到“找猫实验” 在90年代末,Bill Dally致力于解决“内存墙”问题——访问内存比计算本身更耗时耗能。他提出的“流处理”概念,为后来的GPU计算铺平了道路。而真正的转折点,是2010年他与吴恩达(Andrew Ng)的一次早餐会。那时,吴恩达正用16000个CPU和神经网络技术在互联网上“找猫”。Dally和同事用48块Nvidia GPU重复了这个实验,结果让他大为震撼。他立刻意识到,Nvidia应该全力投入深度学习,专门为AI优化GPU。 Geoffrey Hinton:40年前的“迷你”语言模型 早在1984年,Hinton就在尝试用反向传播算法来预测词语序列中的下一个词。他惊喜地发现,这个“迷你”语言模型仅仅通过预测,就能学习到词语的深层含义。这其实就是今天大语言模型(LLM)的雏形。那么,为什么花了40年才走到今天?Hinton坦言:“我们当时没有足够的算力,也没有足够的数据。” Jensen Huang:芯片设计与AI软件的惊人相似 作为Nvidia的掌门人,黄仁勋大约在2010年同时从多伦多大学、纽约大学和斯坦福大学的研究者那里,接触到了深度学习的早期形态。他发现,设计深度学习软件的模式,和他过去设计芯片的思路惊人地相似——都是通过高层次的表示和结构化设计来构建复杂系统。这种“可伸缩性”的洞察至关重要:一个算法如果能在一个GPU上高效运行,就能在多个GPU、多个系统,甚至多个数据中心上运行。这为Nvidia的算力帝国奠定了基础。 Fei-Fei Li(李飞飞):数据是那块缺失的拼图 2006年前后,作为一名年轻的助理教授,李飞飞痴迷于解决机器的视觉识别问题。她尝试了当时所有的算法,但都无法突破“泛化能力”的瓶颈。她和学生们意识到,机器和人类幼儿最大的区别在于——机器被“饿”着,缺乏足够的数据。于是,他们决定做一件当时看起来很“疯狂”的事:创建一个互联网规模的、手动标注的数据集——ImageNet。这个包含1500万张图片的数据集,成为了引爆深度学习革命的关键燃料。而她的第二个顿悟时刻是在谷歌担任首席科学家时,她意识到AI是一项“文明级技术”,必须将人文价值置于其核心,这也是她后来回到斯坦福创办“以人为本AI研究院”(Human-Centered AI Institute)的初衷。 Yann LeCun:从“仰慕者”到论战伙伴 LeCun年轻时就对“让机器自我学习”的想法着迷。他形容自己当时“要么太笨要么太懒”,不想从零开始编程一个智能机器。他希望能找到一种方法让机器自我组织和训练。在遍寻无果时,他发现了Hinton的论文,并视其为“1983年全世界最想见的人”。两年后,两人终于见面,在一次午餐上,他们发现彼此简直能补完对方的句子。LeCun早期痴迷于解决多层网络训练的难题,这正是反向传播的关键。后来,他与Hinton就“监督学习”和“无(自)监督学习”的路线展开了多年的辩论。有趣的是,ImageNet的巨大成功让监督学习大放异彩,整个社区都暂时“放弃”了自监督学习。但LeCun认为,LLM的成功恰恰证明了自监督学习的潜力,而下一个挑战,将是把这种能力应用到视频等更复杂的数据上。 是泡沫还是革命?顶级大脑激辩AI算力狂热 随着Nvidia成为全球市值最高的公司,一个问题盘旋在每个人心头:当前的AI热潮是可持续的革命,还是另一个即将破裂的科技泡沫?...

November 11, 2025 · 1 min · fisherdaddy

科技圈的疯狂一周:OpenAI 求政府“兜底”,马斯克拿万亿薪酬包,亚马逊发起对 Perplexity 的诉讼

本文来自于 Youtube 知名博主 Alex Kantrowitz 每周一次的最新科技新闻讨论。 这周的科技圈,简直比好莱坞大片还精彩。OpenAI似乎在暗示,如果玩脱了,希望美国政府能来“兜底”;特斯拉的股东们大手一挥,批准了马斯克那份价值可能高达一万亿美元的薪酬计划,只为让他打造一个“全新的特斯拉”;而另一边,亚马逊已经把AI新贵Perplexity告上了法庭。 这些看似孤立的事件,背后其实都指向了同一个问题:在这场狂飙突进的AI革命中,我们究竟身在何处?是泡沫破裂的前夜,还是新纪元的黎明? OpenAI想要的“政府兜底”:一场公关灾难的诞生 “这周最大的‘社会主义’新闻,居然来自OpenAI。”播客一开场,主持人就忍不住调侃道。 事情的起因是OpenAI的首席财务官Sarah Friar在《华尔街日报》的科技大会上的一番言论。当被问及如何为庞大的AI基础设施融资时,她直白地表示,公司正在寻求政府的“支持(backstop)”或“担保(guarantee)”,以便在出现问题时,能有政府来兜底。 “……也就是政府能提供的支持……比如担保,这能让融资顺利进行。” 记者追问:“所以是某种形式的芯片投资支持?” Friar肯定地回答:“正是如此。” 她将此举包装成国家战略安全的需要,声称为了在与中国的AI竞赛中保持领先,美国需要不惜一切代价加速AI生态系统的发展。 站在OpenAI的角度,这个请求虽然听起来疯狂,却有其扭曲的逻辑。毕竟,这家公司近来予取予求,几乎没有什么是他们得不到的。既然AI是国家战略资产,那让纳税人为这个“国家冠军”的债务做担保,又何乐而不为呢? 然而,互联网并不买账。消息一出,舆论瞬间爆炸。人们的反应很直接:凭什么要让普通纳税人为一家估值可能高达5000亿美元的私营公司承担风险? 紧接着,更戏剧性的一幕发生了。面对汹涌的舆论,OpenAI开始了笨拙的“危机公关”。Sarah Friar在LinkedIn上发文,称自己用了“支持(backstop)”这个词“混淆了视听”,说自己的本意是强调公私合作的重要性。CEO萨姆·奥特曼(Sam Altman)也赶紧在推特上澄清: “我们没有、也不想要政府为OpenAI的数据中心提供担保。政府不应该挑选赢家和输家,纳税人也不应该为那些做出错误商业决策的公司买单。” 这番操作让人啼笑皆非。明明是自己亲口说出的话,被记者反复确认,现在却矢口否认。这已经不是简单的“口误”,而是一次暴露了公司沟通策略混乱的公关灾难。 这场风波为何如此引人注目? 这不仅仅是因为“向政府要钱”这个行为本身。更深层次的原因在于,整个市场对OpenAI的依赖和担忧。 不匹配的数字游戏:不久前,当被问及如何用130亿美元的年收入支撑起1.4万亿美元的支出承诺时,奥特曼显得相当不耐烦。现在,CFO又公开“求兜底”,这让外界不得不怀疑:OpenAI的财务状况是不是真的像看上去那么光鲜?他们描绘的宏伟蓝图,是不是一个无法兑现的空头支票? 系统性风险:如今,OpenAI几乎成了整个AI浪潮,乃至全球股市的“金字塔尖”。从英伟达、微软到甲骨文,无数公司的命运都与OpenAI的成功息息相关。如果OpenAI的根基不稳,其引发的连锁反应将是灾难性的。 不成熟的领导层:Sarah Friar并非新手,她曾在高盛工作十余年,担任过上市公司CFO。但在OpenAI,她的言行却像个初入职场的菜鸟。这不禁让人怀疑,是不是OpenAI内部那种混乱、缺乏纪律的文化,正在侵蚀着这些经验丰富的职业经理人? 这场闹剧暴露出的,是一家在技术上飞速前进,但在公司治理和沟通上却极度不成熟的“巨婴”形象。当一家公司的体量和影响力达到如此规模时,每一个公开表态都应慎之又慎。显然,OpenAI还没学会这一点。 马斯克的万亿薪酬与人形机器人大军 就在OpenAI焦头烂额之际,埃隆·马斯克却迎来了自己的高光时刻。 在德州奥斯汀总部,伴随着跳舞的人形机器人和炫目的灯光,特斯拉股东大会通过了那份备受争议的薪酬方案。这份方案如果完全实现,将为马斯克带来近万亿美元的财富。 但这钱也不是白拿的。马斯克得把特斯拉的市值从现在的5000亿美元左右,一路推高到惊人的8.5万亿美元,同时还要达成一系列近乎疯狂的营收和利润目标。 这究竟意味着什么? 这标志着特斯拉作为一家“汽车公司”的时代可能已经结束了。马斯克的目标不再是多卖几辆电动车,他的野心是RoboTaxi(自动驾驶出租车)和人形机器人。他直言不讳地表示,需要拥有公司25%的股份,以确保他正在创造的“机器人大军”不会落入坏人之手。 这番话听起来像是一种威胁,又像是一种承诺。他仿佛在对股东们说:“把控制权给我,否则这支强大的机器人军队可能会失控,只有我能驾驭它。” 从某种意义上说,如果马斯克真的能实现这个科幻般的愿景,那这份万亿薪酬或许是值得的。毕竟,相较于已经略显拥挤的电动车市场,一个由机器人提供无尽劳力的未来,其想象空间要大得多。 所以,别再盯着特斯拉的汽车销量看了。这家公司的未来,藏在那尚未成形的机器人大军里。 亚马逊 vs. Perplexity:互联网经济的未来之战 当我们在讨论万亿市值和机器人军队时,一场更接地气、却可能决定互联网未来的战斗已经打响。 亚马逊正式起诉了AI搜索创业公司Perplexity。原因是Perplexity推出了一项名为“Comet”的AI代理功能,它可以代替用户在亚马逊等网站上自动完成购物流程。 亚马逊认为,Perplexity的机器人没有表明自己的“非人类”身份,这是“计算机欺诈”。 这起诉讼的背后,是新旧两种互联网模式的根本冲突。 亚马逊的“万物商店”模式:亚马逊的成功,在于它将自己打造成了用户购物的唯一入口。你想买任何东西,第一个想到的就是去亚马逊。它通过锁定用户,控制了整个购物流程,并在此基础上建立了庞大的广告业务。 AI代理的“新万物商店”模式: 而Perplexity这样的AI代理,则彻底颠覆了这个逻辑。用户不再需要访问亚马逊,他们只需对AI说:“帮我买最好的纸巾。”AI就会自动浏览全网,比较价格,然后直接下单。在这个模式下,聊天机器人本身就成了新的“万物商店”。 亚马逊的护城河瞬间被夷为平地。它从一个用户离不开的平台,降级成了AI代理的一个可选项。这才是亚马逊真正恐惧并必须反击的原因。 这场诉讼引出了一个更宏大的问题:如果AI代理可以自动化人类在互联网上的一切行为,那么现有的商业模式将如何维系? 一个依赖广告的地图应用,如果用户只是通过AI获取路线,从不看页面上的广告,它还能生存吗? 一个内容网站,如果流量都来自不产生广告价值的AI爬虫,它还有动力创作吗? 这不禁让人联想到马斯克的机器人。如果亚马逊可以合法地禁止Perplexity的机器人流量,那么,线下的沃尔玛能不能禁止我的人形机器人进店购物呢?“机器人不得入内”的牌子会成为常态吗? 我们玩笑般讨论的“机器人权利”,或许在不远的将来,真的会成为一个严肃的法律和社会问题。 写在最后:当科幻照进现实 回顾这一周,充满了荒诞与现实的交织。 OpenAI内部“政变”的法庭文件被披露,我们看到的不是“为了全人类”的高尚情怀,而是一场充满谎言、背叛和权力斗争的办公室政治,甚至连双方律师都在庭上互呛“管好你自己(Check yourself)”。 可与此同时,一位接受采访的普通农民却告诉记者:“我现在用Claude,Google太难用了。” 这或许就是AI时代的真相:一边是精英们不成熟的权谋和资本市场的狂热泡沫,另一边是这项技术正以不可阻挡之势,渗透到我们生活的每一个角落,并确实在创造价值。 至于未来,它可能既混乱又充满希望。我们或许终将要为这些AI公司的疯狂买单,但我们也确实站在一场前所未有的技术革命的门槛上。正如播客里开的玩笑,也许我们的未来,就是去竞选一个“USGPT”(美国政府版GPT)平台,然后领导我们的人形机器人大军,去定义下一个时代。 毕竟,掌控机器人军队的人,才能掌控未来,不是吗?

November 11, 2025 · 1 min · fisherdaddy

我们正身处AI泡沫中吗?顶尖投资人 Gavin Baker 的硬核解读

最近很多知名公司开始下场做高质量的访谈,包括 A16Z,YC 等等。本篇文章来自于 A16Z 的一个访谈。在 a16z 的 Runtime 栏目中的这段对话里,Atreides Management 的管理合伙人兼首席投资官 Gavin Baker 与 a16z 的普通合伙人 David George 一起探讨了 AI 的宏观前景:万亿美元的数据中心建设,GPU 的新经济模式,以及这场繁荣对投资者、创始人和全球经济的意义。 主要观点 核心论点是,当前我们并未处于 AI 泡沫之中。与 2000 年的互联网泡沫相比,如今的 AI 投资有着本质的不同。主要的区别在于,当年的投资(如“暗光纤”)利用率极低,而如今的 AI 基础设施(如 GPUs)则被充分利用,并为投资者带来了可观的资本回报率(ROIC)。 此外,进行大规模投资的公司是全球财务最稳健的科技巨头,它们拥有雄厚的现金流和资本储备,能够支撑当前的支出。虽然“往返投资”(round-tripping)现象确实存在,但其规模较小,主要是出于战略竞争的需要,而非财务驱动。 最后,报告认为,尽管 AI 将重塑软件和消费互联网行业,但目前仍处于技术发展的早期阶段,预测应用层的最终赢家为时尚早。 关键细节 与 2000 年科网泡沫的对比 基础设施利用率:2000 年的泡沫是“电信泡沫”,其标志是“暗光纤”(dark fiber),在泡沫顶峰时,高达 97% 的已铺设光纤未被点亮使用。相比之下,如今“没有暗 GPU”(no dark GPUs),所有 GPU 算力都被充分利用,甚至出现过热问题。 公司估值:2000 年,像 Cisco 这样的公司市盈率一度高达 150 到 180 倍。而如今,Nvidia 的市盈率大约在 40 倍左右,估值更为合理。 投资回报:目前在 GPU 上投入巨资的公司(如大型科技公司),其投资资本回报率(ROIC)平均提升了约 10 个百分点,证明了投资的积极回报。 市场竞争格局 芯片层面:主要的竞争发生在 Nvidia 和 Google 的 TPU 之间。Broadcom 和 AMD 正在联合,为市场提供一个基于以太网的开放标准替代方案,以抗衡 Nvidia 的专有系统。 模型与平台层面:大型科技公司(如 Google、Meta)在数据、算力资本和分发渠道上拥有巨大优势,AI 可能成为它们的“持续性创新”。由于算力成本高昂,AI 模型的毛利率将结构性地低于传统 SaaS 公司。 关于 “Round-tripping”:Nvidia 等公司对其生态伙伴进行投资,这些伙伴再用资金购买 Nvidia 的芯片。这被视为一种战略行为,目的是为了在与 Google (TPU) 的竞争中确保关键客户(如 OpenAI、XAI)的忠诚度。 对软件和商业模式的影响 SaaS 公司的转型:应用型 SaaS 公司必须接受因 AI 算力成本而导致的毛利率下降。这不应被视为负面信号,而应被看作是 AI 功能被用户实际使用的标志。 商业模式的演变:AI 将推动商业模式从传统的订阅制转向“按成果付费”。例如,在客户服务领域,可以根据问题解决率来收费。 消费互联网:拥有庞大现有用户基础的公司(如 Google)具有显著优势。模型的推理能力将创造一个“飞轮效应”,即更多用户带来更好的算法,从而改善产品,这将改变 OpenAI 等前沿模型公司的经济模型。 未来展望 机器人技术:机器人领域将是真实且重要的发展方向,未来的竞争格局很可能在 Tesla 和中国公司之间展开。人形机器人因其能通过观看人类视频进行学习,而被认为更具发展潜力。 原文 最近,几乎所有人都在问同一个问题:“我们是不是正处在一个AI泡沫里?”...

November 11, 2025 · 1 min · fisherdaddy

从 Transformer 到推理模型:OpenAI 核心科学家、Transformer 论文作者 Łukasz Kaiser 的 AI 前沿洞察

本文来自于 OpenAI 核心科学家、Transformer 论文作者 Łukasz Kaiser 的一篇访谈。内容涵盖了从 Transformer 模型到新一代推理模型的范式转变,探讨了 AI 发展的瓶颈、AGI 的概念以及 AI 对科学和社会可能产生的深远影响。 主要观点 AI 发展的范式转变:当前 AI 领域正在经历一次重大的范式转变,从仅仅通过扩大模型规模和数据量来提升性能(Transformer 范式),转向了更为先进的“推理模型”(Reasoning Models)范式。这种新范式正处于高速发展初期,预示着 AI 能力将迎来新一轮的飞跃。 推理模型是未来的关键:与传统的大语言模型(LLM)不同,推理模型通过内部“思考”过程、调用外部工具(如网络搜索、代码执行)来解决复杂问题。它们不仅更加强大,而且数据效率极高,能够从更少的数据中学习,并大幅减少“幻觉”现象。 AI 的发展瓶颈与未来趋势:AI 的发展速度并未放缓,未来一到两年内甚至可能出现“非常急剧的进步”。当前最主要的瓶颈是 GPU 计算资源和能源的短缺。未来,AI 将能够执行越来越多在计算机上完成的复杂任务,尤其是在编程领域,这将深刻影响就业市场。 对 AGI 和社会影响的思考:与其纠结于 AGI(通用人工智能)的定义,不如关注 AI 在现实世界中的实际影响和能力。AI 的发展为科学研究带来了巨大机遇,有望加速人类的科学发现进程。然而,这也带来了社会挑战,需要整个社会共同努力,确保技术被负责任地使用,避免重蹈社交媒体的覆辙。 关键细节 Transformer 的诞生:2017 年的论文《Attention Is All You Need》引入了 Transformer 架构,这是一个历史性的突破,为后来的生成式 AI 奠定了基础。Łukasz Kaiser 是该论文的八位作者之一。 推理模型的运作方式: 推理模型在生成最终答案前,会进行一系列不向用户展示的内部思考步骤(Chain of Thought)。 它们可以通过调用工具来获取实时信息或执行任务,例如使用网络搜索验证事实,或运行 Python 代码进行计算。 这种模型通过强化学习(Reinforcement Learning)进行训练,使其能够从错误中学习并优化解决问题的策略。 AI 发展的限制因素: 所有顶尖 AI 实验室都面临 GPU 资源不足的问题,这限制了更强大模型的训练和向公众提供服务的能力。 OpenAI 的 CEO Sam Altman 正在努力获取尽可能多的计算资源,因为研究人员确信能够有效利用这些资源来推动 AI 的进步。 AI 在任务自动化上的进展: AI 在编程领域的进步尤为惊人。像 OpenAI 的 Codex 和 Anthropic 的 Claude 这样的模型已经可以编写大型程序、进行代码审查、发现漏洞,极大地提升了开发效率。 预计在不久的将来,AI 将能胜任大部分在计算机上进行的任务。 AI 的社会责任与商业模式: Łukasz Kaiser 强调,OpenAI 致力于通过订阅模式而非广告模式来盈利,旨在避免优化“用户参与度”而带来的负面社会影响。 他认为,如何正确使用 AI 是整个社会的责任,需要政府、企业和公众共同参与,以确保其发展最终造福人类。 原文 如果你关注人工智能,2017年绝对是一个无法绕开的年份。那一年,一篇名为《Attention Is All You Need》的论文横空出世,介绍了后来引爆生成式AI革命的Transformer架构。这篇论文注定会载入史册,而Łukasz Kaiser,就是这篇论文的八位作者之一。...

November 11, 2025 · 1 min · fisherdaddy

介绍一下 OpenAI 推出的一款由 GPT-5 驱动的代理式安全研究工具—— Aardvark

2025 年 10 月 30 号,OpenAI 推出了一款由 GPT-5 驱动的代理式安全研究工具 —— Aardvark。它旨在帮助开发者和安全团队大规模地发现并修复软件中的安全漏洞,从而在网络安全攻防战中为防御方提供优势。 Aardvark 是一款自主运行的 AI 代理,它能够像人类安全专家一样,通过分析代码、理解其行为并利用工具来主动发现和修复漏洞。它的核心目标是改变当前软件安全领域的格局,将天平向防御方倾斜。通过自动化漏洞的发现、验证和修复流程,Aardvark 能够帮助团队在不拖慢开发速度的前提下,持续提升代码的安全性。目前,该产品已进入私有测试阶段。 关键细节 工作原理与流程 Aardvark 的工作流程分为四个主要阶段,不依赖于模糊测试等传统技术,而是利用大语言模型的推理能力: 分析 (Analysis): 首先,Aardvark 会分析整个代码仓库,生成一个威胁模型,以理解项目的安全目标和设计。 提交扫描 (Commit scanning): 当有新的代码提交时,它会根据威胁模型检查代码变更,以发现潜在漏洞。它会用易于理解的方式逐步解释漏洞,并对代码进行注释。 验证 (Validation): 在发现潜在漏洞后,Aardvark 会在一个隔离的沙盒环境中尝试触发该漏洞,以确认其可利用性,从而确保提供给用户的洞察是准确且低误报的。 修补 (Patching): Aardvark 与 OpenAI Codex 集成,为发现的每个漏洞生成建议的修复补丁,供开发人员审查和一键应用。 实际影响与表现 内部应用与测试: Aardvark 已在 OpenAI 内部代码库和外部合作伙伴中运行数月,成功发现了多个重要漏洞。 基准测试: 在包含已知和人为引入漏洞的“黄金”代码库测试中,Aardvark 成功识别了 92% 的漏洞,展示了其高效性和实用性。 解决的问题: 软件漏洞已成为系统性风险,仅 2024 年就报告了超过 40,000 个 CVE。测试表明,约 1.2% 的代码提交会引入新的错误。 对开源社区的贡献 Aardvark 已被应用于开源项目,并成功发现了多个漏洞,其中 10 个已获得 CVE (通用漏洞披露) 编号。 OpenAI 承诺回馈开源社区,计划为部分非商业开源项目提供免费扫描服务。 公司还更新了其对外协调披露政策,采取了对开发者更友好的协作方式。 当前状态 Aardvark 目前已开放私有测试版,OpenAI 邀请感兴趣的组织或开源项目申请加入,以帮助团队进一步优化其性能和用户体验。...

November 3, 2025 · 1 min · fisherdaddy

深度解读微软 CEO 萨提亚·纳德拉与 OpenAI CEO 山姆·奥特曼的对话

本文来自于 OpenAI 重组后 OpenAI CEO 山姆·奥特曼和微软 CEO 萨提亚·纳德拉的播客。内容涵盖了双方的战略合作关系、OpenAI 的独特组织架构、对算力的巨大需求、AI 技术的未来发展方向以及其对经济和社会的深远影响。 关键细节 合作关系与财务条款 投资与股权:Microsoft 自 2019 年起向 OpenAI 投资约 134 亿美元,目前持有其约 27% 的股份。 独特的组织架构:OpenAI 采用了一种创新结构,顶层是一个非营利组织,其使命是确保 AGI (通用人工智能) 惠及全人类。该非营利组织已获得价值 1300 亿美元的 OpenAI 股票,成为全球最大的非营利组织之一。 商业协议: 模型独占性:OpenAI 的核心模型(Stateless APIs)在 2032 年前将独家在 Microsoft Azure 平台上提供。 收入分成:OpenAI 需要向 Microsoft 支付一定比例的收入分成,该协议同样持续到 2032 年或 AGI 被验证实现为止。 财务状况:Sam Altman 透露,OpenAI 的收入远超外界报道的 130 亿美元,并且正在以极快的速度增长。公司计划在未来四到五年内投入 1.4 万亿美元用于算力建设。 算力挑战与未来展望 当前瓶颈:增长的主要限制是算力不足。Satya Nadella 指出,目前的瓶颈已从芯片供应转向电力供应和数据中心建设速度。 未来供需:双方都认为算力市场未来某个时间点会出现供过于求的“算力过剩(compute glut)”情况,但对于这一情况出现的时间点(2-3 年或 5-6 年)看法不一。 成本与效率:AI 智能单位成本的快速下降,以及软件层面的优化(如推理堆栈的改进),将是推动 AI 普及的关键。 AI 的未来发展与社会影响 技术前沿:Sam Altman 预测,到 2026 年,AI 将能在编码(Codex)、科学发现(即使是微小的发现)、机器人技术和新型消费电子设备等领域取得重要进展。 监管问题:两位 CEO 都对美国各州制定不同 AI 法规的“碎片化(patchwork)”做法表示担忧,认为这会阻碍初创企业的发展,并呼吁建立统一的联邦层面监管框架。 对就业和生产力的影响:AI 将改变人们的工作方式,使员工能借助 AI 工具获得更高的生产力。公司虽然会增加员工数量,但人均产出的杠杆效应会远超以往。 美国再工业化:科技公司在数据中心和半导体领域的巨额投资(数万亿美元级别),被视为推动美国“再工业化”的重要力量,不仅能吸引外国资本,还能创造大量本地就业和供应链机会。 原文 一场重量级的对话,一边是微软的掌舵人萨提亚·纳德拉(Satya Nadella),另一边是OpenAI的创始人山姆·奥特曼(Sam Altman)。这场看似轻松的炉边谈话,却揭开了当今科技界最重要、也最被外界好奇的合作关系的神秘面纱。...

November 3, 2025 · 1 min · fisherdaddy