又一次,我们没能理解指数增长

本文是 Anthropic AI 研究院 Julian Schrittwieser 所写,其主要观点是当前公众和许多评论员未能认识到人工智能(AI)正处于指数级增长阶段。人们常常因为当前 AI 模型的局限性而错误地断定其发展已停滞或影响有限,而忽略了其能力在极短时间内取得的飞跃式进步。 主要观点 普遍的误解:人们普遍低估了 AI 发展的指数级速度。他们关注于当前 AI 模型的错误和不完美之处,从而得出其发展已达瓶颈的错误结论,而忽视了其背后持续且迅速的能力增长趋势。 指数级增长是现实:作者引用多项研究证明,AI 在软件工程和跨行业通用任务上的能力正遵循着清晰的指数级增长曲线,并且这种趋势没有放缓的迹象。 未来预测:基于当前的发展趋势进行推断,AI 将在未来几年内对经济产生颠覆性影响。作者预测,到 2026 年中,AI 将能自主完成长达 8 小时的工作任务,并在 2026 年底在多个行业中达到人类专家的水平。 关键细节 METR 研究: 一项名为 “Measuring AI Ability to Complete Long Tasks” 的研究,专注于衡量 AI 模型自主完成软件工程任务的能力。 研究结果显示出一条明显的指数增长曲线,能力的“倍增”周期约为 7 个月。 最新的模型如 Grok 4、Opus 4.1 和 GPT-5 的表现不仅验证了这一趋势,甚至略高于预期,已能处理超过 2 小时的任务。 GDPval 评估: 由 OpenAI 发起,旨在评估 AI 在更广泛经济领域中的应用能力,涵盖了 9 个行业的 44 个职业。 评估任务由平均拥有 14 年经验的行业专家提供,总计 1320 项任务。 结果再次显示了类似的增长趋势。值得注意的是,Claude Opus 4....

October 5, 2025 · 1 min · fisherdaddy

强化学习之父 Richard Sutton 开炮:LLM 走偏了,真正的 AI 要从经验中学习

本文来自于 Youtube 博主 Dwarkesh Patel 对强化学习(Reinforcement Learning)先驱 Richard Sutton 的访谈,核心内容围绕强化学习与大语言模型(Large Language Models)在构建人工智能(AI)方面的根本性差异,以及对 AI 未来的展望。 主要观点 强化学习与大语言模型的根本区别:Richard Sutton 认为,强化学习 (RL) 是关于智能体通过与世界互动、从经验中学习以实现目标的“基础 AI”。相比之下,大语言模型 (LLM) 本质上是模仿人类生成的文本,它们缺乏真实的世界模型、实质性的目标以及从实时互动中学习的能力。 “经验”是智能的核心:Sutton 强调,真正的学习来自于“经验”——即采取行动并观察后果。动物和人类主要通过这种试错法学习,而非模仿。他认为,当前 AI 系统普遍缺乏这种哺乳动物都具备的持续学习能力。 “惨痛的教训” (The Bitter Lesson) 的启示:Sutton 指出,AI 发展的历史表明,那些利用海量计算和从经验中学习的通用方法,最终会胜过依赖人类知识构建的系统。他认为,尽管 LLM 规模庞大,但它们严重依赖人类数据,未来可能被能直接从经验中学习的、更具可扩展性的系统所超越。 对 AI 继承的积极展望:Sutton 认为,人类向数字智能或增强人类的“继承”是不可避免的。他将此视为宇宙从“复制”智能(如生物)到“设计”智能的重大转变,并认为人类应为此感到自豪,视其为我们的“后代”。 关键细节 强化学习 (RL) 与大语言模型 (LLM) 的对比 世界模型:Sutton 反对 LLM 拥有真正世界模型的观点。他认为 LLM 只是在模仿人类如何谈论世界,而不是理解世界本身。它们预测的是“一个人会说什么”,而不是“世界会发生什么”。 目标与奖励:真正的智能需要有目标。RL 中的“奖励”为智能体提供了明确的目标和判断行动好坏的“基本事实” (ground truth)。而 LLM 的“下一个词元预测”并非一个与外部世界交互的实质性目标,因此缺乏学习的根本依据。 学习方式:LLM 从固定的训练数据中学习,这在它们的“正常生命”中是无法获得的。而 RL 智能体则在与环境的持续互动中学习,能够不断调整和优化其行为。Sutton 认为,将 LLM 作为 RL 的“先验知识”起点是错误的方法,因为它会使研究者陷入“人类知识”的思维定式中。 “惨痛的教训” (The Bitter Lesson) 与可扩展性 Sutton 在 2019 年的文章《The Bitter Lesson》中指出,利用大规模计算的通用学习方法最终会胜出。 他认为 LLM 依赖于有限的互联网文本数据,而能够直接从经验中获取数据的系统拥有无限的潜力,因此更具可扩展性。最终,后者将超越前者,成为“惨痛的教训”的又一个例证。 对未来的展望 持续学习智能体:未来的通用 AI 应该是一个持续学习的智能体,它拥有四个关键组成部分:策略(policy)、价值函数(value function)、状态表征(state representation)和世界转换模型(transition model)。 AI 继承的必然性:Sutton 提出了一个四步论证来支持 AI 继承的必然性:1) 人类缺乏统一的全球共识;2) 我们终将理解智能的原理;3) AI 的发展不会止步于人类水平;4) 最智能的存在最终会获得资源和权力。 从“复制”到“设计”:他将这一转变视为宇宙演化的一个重要阶段,即从通过繁殖进行“复制”的智能,演变为我们能够理解并主动“设计”的智能。他鼓励人们以积极的心态看待这一未来,并将其视为人类文明的延续和成就。 文章原文 如果你关注人工智能,你一定会被大语言模型(LLM)的惊人能力所震撼。但就在整个行业为生成式AI狂欢时,一位“AI领域的奠基人”却冷静地提出了截然不同的看法。...

September 28, 2025 · 1 min · fisherdaddy

AI 是否是泡沫? • Azeem Azhar

本文来自于 Azeem Azhar 写的一篇文章: Is AI a bubble?。这里也介绍一下 Azeem Azhar,他是《指数时代》畅销书作者、前 BBC 与《经济学人》科技记者,创立了全球知名科技与未来趋势智库 Exponential View。 本文探讨了当前的人工智能(AI)热潮是否构成投资泡沫。作者没有直接给出“是”或“否”的答案,而是建立了一个包含五个关键指标的分析框架,通过与历史上的铁路、电信和互联网(dot-com)泡沫进行比较,来评估当前 genAI 领域的健康状况。 主要观点 作者的核心论点是,尽管 AI 领域的投资规模巨大且增长迅速,但目前它更像一个由强劲需求驱动的“资本密集型繁荣期”,而非一个即将破裂的“泡沫”。当前的繁荣主要由资金实力雄厚的科技巨头(hyperscalers)推动,其估值和收入增长等关键指标尚未达到历史上泡沫破裂前的极端水平。然而,作者也指出了几个潜在的风险点,如果这些风险恶化,繁荣可能会迅速演变成泡沫。 关键细节 作者使用了一个包含五个“仪表盘”的框架来衡量 AI 繁荣的健康度,每个仪表盘都有绿色(健康)、琥珀色(警告)和红色(危险)三个状态。 经济压力 (Economic Strain) - 状态:绿色 指标:投资额占 GDP 的比重。 现状:预计 2025 年全球投入数据中心的资金约 3700 亿美元,其中美国约占 0.9% 的 GDP。 历史对比:这个比例低于 1872 年铁路泡沫时期的 4%,与 1990 年代末的电信泡沫(约 1%)相当。 特殊风险:与铁路或光纤不同,GPU 等 AI 硬件的折旧速度极快(约 3 年),这要求投资在更短时间内获得回报。 行业压力 (Industry Strain) - 状态:琥珀色 指标:资本支出(capex)与行业收入的比率。 现状:genAI 领域的资本支出约为收入的 6 倍(3700 亿美元资本支出 vs. 约 600 亿美元收入),这是三个历史案例中最高的。 历史对比:铁路泡沫时期该比率约为 2 倍,电信泡沫时期约为 4 倍。 收入增长 (Revenue Growth) - 状态:绿色...

September 24, 2025 · 2 min · fisherdaddy

OpenAI CEO Sam Altman 深夜发文,启动史上最酷基建项目,目标“充裕智能”

OpenAI CEO 奥特曼在其个人博客发布最新文章《充裕智能》,算是对今早OpenAI 官宣与英伟达战略合作共同部署至少 10 吉瓦的 NVIDIA 系统(数百万个 GPU)的回应,也是为了进一步融资做好铺垫,当然 10月的 OpenAI 开发者大会发布的产品大概率也有一部分原因是为融资做准备。现在硅谷有一个共识:算力=智力,所以 OpenAI以及马斯克的 xAI 都在疯狂的融资建大型 GPU 集群。 奥特曼的这篇文章有一些核心的信息值得关注: OpenAI 希望创建一个每周能生产一吉瓦新人工智能基础设施的工厂。要达到每周能生产一吉瓦这个里程碑,需要从芯片到电力,再到建筑和机器人技术的每一层技术栈的创新。 未来几个月,OpenAI 将会公布一些具体实现计划以及新的合作的伙伴。现在已经有微软、软银、ORACLE 和英伟达了,还得继续引入更多伙伴,继续要钱。 奥特曼认为增加算力是增加收入的直接关键。这句话额意思是 OpenAI 因为算力限制了发布新的产品或模型,进而限制了收入的增加,所以他们计划发布一些计算密集型的新东西。这里说的应该就是 Sora2 和获得IMO、IOI 和 ICPC 金牌的新版推理模型,也可能有类似于谷歌 Genie 3 一样的世界模型的发布。 原文:充裕智能 人工智能服务的使用增长一直令人惊叹;我们预计未来的增长将更加惊人。 随着人工智能变得越来越智能,获取人工智能将成为经济的根本驱动力,并最终可能被我们视为一项基本人权。几乎每个人都希望有更多的人工智能为他们服务。 为了能够提供世界所需——用于运行这些模型的推理算力,以及用于不断改进模型的训练算力——我们正在奠定基础,以便能够大幅扩展我们建设人工智能基础设施的雄心。 如果人工智能继续沿着我们认为的轨迹发展,那么惊人的事情将成为可能。也许用 10 吉瓦的算力,人工智能可以找到治愈癌症的方法。或者用 10 吉瓦的算力,人工智能可以为地球上的每个学生提供定制化的辅导。如果我们的算力有限,我们将不得不选择优先发展哪一个;没有人想做出这种选择,所以让我们开始建设吧。 我们的愿景很简单:我们希望创建一个每周能生产一吉瓦新人工智能基础设施的工厂。实现这一目标将极其困难;我们需要数年时间才能达到这个里程碑,并且需要在技术栈的每一层进行创新,从芯片到电力,再到建筑和机器人技术。但我们一直在为此努力,并相信这是可能实现的。在我们看来,这将是有史以来最酷、最重要的基础设施项目。我们特别高兴能将其中大部分建在美国;目前,其他国家在芯片工厂和新能源生产等方面的建设速度比我们快得多,我们希望帮助扭转这一趋势。 在接下来的几个月里,我们将讨论我们的一些计划以及为实现这一目标而合作的伙伴。今年晚些时候,我们将讨论如何为其融资;鉴于增加算力是增加收入的直接关键,我们有一些有趣的新想法。

September 24, 2025 · 1 min · fisherdaddy

红杉资本:AI 认知革命的万亿美金机遇与未来投资地图

本文来自红杉资本的 Konstantine Buhler 分享了关于人工智能的投资理念,以及我们为什么认为这场变革代表着 10 万亿美元的机遇。视频标题为:10 万亿美元的 AI 革命:为什么它比工业革命更宏大?。以下为本视频的核心内容。 在红杉,我们坚信,我们正处在一场人工智能(AI)革命的浪潮之巅。这不仅仅是一次技术更迭,而是一场深刻的变革,其影响力将媲美甚至超越工业革命。我们称之为——“认知革命”。 这听起来可能有点夸张,但我们认为,这场革命背后潜藏着一个高达十万亿美元($10^{13})的巨大机遇。在这篇文章里,我们会像和朋友聊天一样,拆解我们的核心思考:这场革命的本质是什么?钱从哪里来?以及,作为创业者和投资者,我们应该把目光投向何方? 新工业革命:为什么AI是“认知革命”? 让我们先把目光拉回到历史。 工业革命不是一夜之间发生的。我们可以标记出三个关键节点: 1712年:蒸汽机的发明,点燃了革命的火种。 1779年:第一家现代工厂系统诞生,它把生产所需的所有要素整合到同一屋檐下。 1923年:我们今天所熟知的工厂流水线出现。 有趣的是这些节点之间漫长的时间间隔。从蒸汽机到第一家工厂,花了整整67年,而且那家工厂甚至都不是用蒸汽机驱动的,而是水力。而从第一家工厂到现代流水线,更是过去了144年。 为什么花了这么久? 我们认为,答案在于**“专业化势在必行”(Specialization Imperative)**。当一个复杂系统发展到一定规模后,它必须将通用的技术和劳动力,与高度专业化的组件和劳动力结合起来,才能走向成熟。那漫长的144年,正是将蒸汽机这种通用技术,不断专业化、细分化,以适应不同生产需求的过程。 现在,我们正处在“认知革命”的类似阶段: 1999年的GPU(GeForce 256),就像当年的蒸汽机。 2016年左右,第一个能整合所有组件产出AI“代币”(tokens)的AI工厂出现。 那么,问题来了:谁会成为这场认知革命中的洛克菲勒、卡内基和威斯汀豪斯?我们相信,答案就是今天的创业公司,以及那些尚未诞生的创业公司。正是他们在推动着这场伟大的“专业化”进程。 十万亿美金的诱惑:AI如何重塑服务业 聊历史很有趣,但我们毕竟是红杉资本,还是得聊聊真金白银的事。 回想一下云计算转型的初期。当时,全球软件市场规模约为3500亿美元,其中SaaS(软件即服务)仅占微不足道的60亿美元。但后来发生的事情是,SaaS不仅蚕食了传统本地部署软件的份额,更重要的是,它把整个市场的蛋糕做大了,如今整个软件市场规模已超过6500亿美元。 我们相信,同样的故事将在AI领域上演,而且规模会大得多。 这次我们瞄准的,是价值10万亿美元的美国服务业市场。目前,由AI自动化完成的部分可能只有区区200亿美元。这正是那个十万亿美金的机会所在——AI不仅要在这个巨大的蛋糕中切下更大的一块,更要将整个蛋糕本身做得更大。 为了让这个概念更具体,我们内部有一份备忘录,将服务业的各类工作按其市场规模(从业人数 × 年薪中位数)进行了排序。你会发现,像注册护士、软件开发人员、律师这些领域,都拥有极其庞大的市场。而红杉已经在这里布局,比如在医疗领域的Open Evidence和Freed,在软件开发领域的Factory和Reflection,以及在法律领域的Harvey、Crosby和Finch。 我们的创始人唐·瓦伦丁(Don Valentine)总是在强调“市场,市场,市场”的重要性。看看标普500指数的市值图,你会发现,榜单上全是像英伟达这样市值几万亿美元的巨型科技公司。但你找不到柯克兰·埃利斯律师事务所(Kirkland & Ellis),也找不到贝克·蒂莉会计师事务所(Baker Tilly),尽管它们的年收入也高达数十亿美元。 我们相信,认知革命将创造一个机会,让AI赋能的服务型公司成长为独立的、巨大的上市公司,从而彻底改写这份市值排行榜。 正在发生的五大趋势 说完了宏大的叙事,我们来看看当下正在发生的五个具体投资趋势。 1. 杠杆与不确定性:工作范式的转变 我们的工作模式正在从“低杠杆、高确定性”转向“高杠杆、低确定性”。 举个例子,一个销售人员过去需要亲力亲为地管理自己手中的每一个客户。而在AI时代,他可以使用像Rocks这样的工具,部署数百个AI代理,每个代理负责一个客户,7x24小时监控客户动态,寻找新的合作机会。这就带来了百倍甚至千倍的杠杆。当然,AI代理的做事方式和你不一样,可能会犯错,这时就需要人来监督和纠正。你牺牲了一点确定性,但换来了巨大的效率提升。 2. 现实世界的“试金石”:告别学术基准 曾几何时,衡量AI模型好坏的标准是ImageNet这类学术基准。但今天,真正的黄金标准是在真实世界中证明自己。 以AI黑客公司Expo为例,他们没有满足于在学术数据集上跑分,而是直接登上全球最大的白帽黑客平台HackerOne,与全世界的人类黑客同台竞技,寻找真实系统中的漏洞,并最终成为世界第一。这才是真正有说服力的表现。 3. 强化学习走向台前 强化学习(Reinforcement Learning)这个概念在AI圈已经谈了很多年,但在过去一年里,它真正从幕后走到了台前。不仅是顶尖的AI实验室,我们投资的许多公司也从中受益。例如,Reflection公司就利用强化学习,训练出了目前最优秀的开源代码模型之一。 4. AI走进物理世界 AI正在渗入物理世界,这不仅仅指人形机器人。更重要的是,AI开始被用于设计和制造硬件、优化物理流程。Nominal公司就是个很好的例子,他们用AI加速硬件制造流程,并且在产品部署后,继续用AI进行质量保证。 5. 算力:新的生产函数 未来企业的核心生产力指标将是**“每知识工作者的算力消耗”(flops per knowledge worker)。我们对被投公司的调查显示,他们预计每个知识工作者对算力的消耗至少会增加10倍**。乐观地看,这个数字可能是1000倍甚至10000倍。因为未来的知识工作者可能会同时指挥着成百上千个AI代理。这对于提供算力、保护算力以及利用算力提升效率的公司来说,都是巨大的利好。 未来18个月的投资指南:五大关键主题 着眼未来,我们正在积极关注并投资以下五个主题: 1. 持久化记忆(Persistent Memory) 这是一个亟待攻克的关键难题。它包含两层意思:...

September 10, 2025 · 1 min · fisherdaddy

阿里 Qwen 团队发布首个万亿参数大模型 Qwen3-Max-Preview(Instruct),但不开源!!

阿里发布了 Qwen 系列首个万亿参数的模型:Qwen3-Max-Preview(Instruct),模型参数超 1 万亿,非思考模型。目前可以在 qwen chat 或 api 上接入来体验,基准测试显示,其性能优于 Qwen3-235B-A22B-2507。内部测试和早期用户反馈证实:性能更强,知识更广,在对话、Agent 任务和指令遵循方面表现更佳。但不开源!! 从 benchmark 上来看,作为一个非思考模型能力算是很强了,官方的这个图标上没有对比目前的顶级闭源模型的对比,可能是因为目前的顶级模型都是深度思考模型。我找了下在同一指标下 gpt-5 和 gemini 2.5 pro 的变现。 在 AIME 25(美国数学竞赛)指标上,Qwen3-Max-Preview(Instruct) 得分 80.6% 。非思考模式且不用工具的情况下的 gpt-5 仅得分 61.9 %,若开启思考则能达到 94.6%。对比思考模型,gemini 2.5 pro 和 DeepSeek r1 分别是 88% 和 87.5%。 在 LiveCodeBench(编程)指标上,Qwen3-Max-Preview(Instruct) 得分 57.6% 。对比思考模型,gemini 2.5 pro 为 69%。 最后,阿里这个万亿参数模型没有开源挺令人意外的,现在的开源更像是一种宣发策略,通过开源让社区自传播,既省去了推广费,又有机会复刻年初 DeepSeek R1 的爆火盛况。如果重投入开发出一个模型却没人使用,这个模型的收益就几乎为零了。反观国内的两个一直闭源的小虎:Kimi 和 智谱,他们今年全是走的开源策略,特别是 Kimi,大大减少 C 端投放,把投入重点放到模型研发上,至于推广靠开源来实现,比如 K2 的火爆也是这个策略带来的收益。当然,Qwen这次的逻辑有可能是先放出指标,引流到自家产品上,等过段时间再开源,抑或是走了部分模型开源,部分模型闭源的策略。 最后的最后,还是用两个经典的编程题目来看一下 Qwen3-Max-Preview(Instruct) 的实际能力:生成一个鹈鹕骑车的 svg 和 生成一只青蛙演奏萨克斯的 svg。从结果上看,这个模型的编码能力确实要优于 Qwen3-235B-A22B-2507 和 Qwen3-Coder-480B-A35B-Instruct。

September 6, 2025 · 1 min · fisherdaddy

AI 巨头牌局:当算力成本与价值捕获成为新的战场

本文来自于 A16Z 组织的一场圆桌论坛,本期节目中,Dylan Patel(SemiAnalysis 创始人兼首席执行官)将与 Erin Price-Wright(a16z 普通合伙人)、Guido Appenzeller(a16z 合伙人)以及主持人 Erik Torenberg 一同深入探讨 AI 芯片、数据中心和基础设施战略的现状。以下是视频精华。 “淘金热里,最先赚钱的永远是卖铲子和镐头的人。” 这句老话在今天的人工智能(AI)浪潮中,显得再贴切不过了。当我们谈论AI革命时,我们实际上在谈论一场由硬件、数据中心和芯片主导的军备竞赛。英伟达(Nvidia)已经成为地球上最有价值的公司,而AI云服务的IPO也屡创新高。这盘棋,远比我们想象的更复杂。 OpenAI的新算盘:从追求极致智能到精打细算 最近OpenAI发布的GPT-4o(被许多人戏称为GPT-4.5或GPT-5的预览版),让不少重度用户感到一丝“失望”。为什么?因为感觉模型不再像以前那样“深度思考”了。过去,像o1、o3这样的模型,可能会花上30秒甚至更长时间来处理一个复杂问题。而现在,即使开启“思考模式”,GPT-4o的响应时间也大大缩短,平均只有5到10秒。 这背后其实是OpenAI战略上的一次重要转向:从不计成本地追求智能,转向更高效、更经济的算力分配。 新模型的核心,是一个叫做**“路由器(Router)”**的机制。当你提出一个问题时,这个路由器会智能地判断: 这是个简单问题吗? 比如“天空为什么是蓝色的?”,那就交给轻量级的Mini模型,成本极低。 这是个需要深度思考的复杂问题吗? 那就调用更强大的“思考模型”。 用户是不是快没额度了? 也许可以降级到更基础的模型。 说白了,OpenAI现在能像一个精明的管家一样,动态地决定为你的每一次提问分配多少算力。这不仅极大地提升了他们的基础设施容量,更关键的是,为未来的商业模式铺平了道路。 过去,AI公司很难从免费用户身上赚钱,因为在对话中插广告会严重破坏用户体验。但有了路由器,一切都不同了。想象一下: 低价值查询:用户问作业题,用普通模型回答,成本可控。 高价值查询:用户问“我附近最好的律师是谁?”或者“帮我预订下周去纽约的机票”,路由器会立刻调用最顶级的模型和智能体(Agent),去搜索、比较、甚至完成预订。 在这种模式下,OpenAI可以从交易中抽取佣金,从而将免费用户转化为高价值的收入来源。这不仅仅是技术上的优化,更是商业模式上的一次“核聚变”。成本和性能的平衡,已经取代了单纯的跑分,成为了模型竞争的新战场。 英伟达的王座:价值捕获的终极赢家 聊完模型,我们必须把目光投向这一切的基石——英伟达。它的股价今年势如破竹,但未来的路会怎么走? 需求端依然火热。可以粗略地把英伟达的芯片需求分成三块: AI实验室:像OpenAI和Anthropic这样的公司,消耗了大约30%的芯片,用于训练下一代大模型。 广告与推荐系统:Meta、字节跳动等公司,为了优化广告投放,同样是芯片采购大户,这部分也占了大约三分之一。 其他玩家:剩下的三分之一,流向了各种云服务商和初创公司,其中不乏一些尚未找到稳定商业模式的“非经济性”买家。 目前来看,第一和第二部分的需求仍在增长,但真正有趣的是一个被称为“价值捕获”的问题。 一个有趣的现象是,AI已经创造了巨大的社会价值,但模型公司本身却很难将这些价值完全转化为收入。比如,一个四人开发团队,利用AI工具能自动化处理海量数据,创造出巨大的商业价值,但他们为此支付给模型公司的API费用却微乎其微。OpenAI可能连自己创造价值的10%都没能捕获到。 然而,作为“卖铲人”的英伟达,却稳稳地抓住了价值。AI软件开发能为全球GDP带来数万亿美元的增长潜力,这些价值最终都会层层传导,转化为对GPU的需求。 挑战者们的困境:一场注定艰难的“越级打怪” 既然英伟达这么赚钱,难道没人能挑战它吗?当然有,但这条路异常艰难。 1. 内部玩家:谷歌、亚马逊的定制芯片 谷歌的TPU、亚马逊的Trainium、Meta的MTIA,这些云巨头们都在大力发展自己的定制芯片。他们的优势在于: 拥有“ captive customer ”(专属客户):就是他们自己。芯片造出来不愁销路。 目标是压缩成本:他们不需要对外销售产生利润,只要能降低内部的算力成本,就是巨大的成功。 目前来看,谷歌的TPU利用率很高,而亚马逊的Trainium也随着Anthropic的使用逐渐成熟。这确实是英伟达面临的最大威胁之一。甚至有人提出,既然英伟达的市值已经超过了谷歌,谷歌为什么不干脆把TPU拿出来公开销售呢?这在理论上完全可行,但需要谷歌进行一次彻头彻尾的文化和组织架构重组,难度极大。 2. 外部玩家:芯片初创公司的“5倍定律” 市面上涌现了无数AI芯片初创公司,比如Etched、Revos、Grok、Cerebras等等,他们获得了数十亿美元的投资。但他们面临的挑战,比云巨头们大得多。 他们无法像云巨头那样只为自己服务,必须在公开市场上与英伟达竞争。而英伟达几乎在所有方面都占尽优势: 供应链:能最先拿到台积电的先进工艺、SK海力士的HBM内存,甚至在网线、机架等方方面面都有更强的议价能力。 生态系统:CUDA软件生态已经形成了一道深深的护城河。 迭代速度:每年都在快速推出性能更强的产品。 这就意味着,任何挑战者要想脱颖而出,就必须拿出比英伟达好上5倍的产品。为什么是5倍?因为你即使在架构上实现了5倍的理论优势,经过供应链成本、软件开销、市场营销等层层损耗,最终可能只剩下50%的实际优势。而这时,英伟达只要稍微压缩一下自己75%的毛利率,就能轻松抹平你的这点优势。 更要命的是,这是一个“移动靶”。当你花几年时间,针对当前的Transformer模型设计了一款完美的芯片,结果模型本身又进化了,变得更适合在英伟达的通用GPU上运行。这种“硬件软件协同进化”的循环,让专用芯片的赌注风险极高。 基础设施的瓶颈:当美国为电发愁 这场竞赛还有一个关键的制约因素:电力和数据中心。 在美国,AI的发展正面临着严重的电力瓶颈。这并不是说电费有多贵,而是电网容量、变电站建设、输电线路铺设这些基础设施的建设速度,远远跟不上AI算力的增长需求。谷歌、Meta等公司手上有大把已经买好的芯片,却因为数据中心没建好、电力没到位而闲置。为了抢时间,他们甚至开始搭建临时的“帐篷式”数据中心。 相比之下,中国拥有强大的基建能力,电力不是问题。但他们受限于无法获得最顶尖的AI芯片。即便如此,中国公司依然在想尽办法,比如在海外租用GPU云服务,或者通过新加坡等地的公司在海外建设数据中心。 这个现象揭示了AI竞赛的另一个层面:它不仅仅是公司之间的竞争,更是不同国家在基础设施、供应链和资本投入上的全面较量。 给科技巨头们的“逆耳忠言” 最后,不妨开个玩笑,如果能给这些科技巨头的CEO们提点建议,会是什么呢? 给英伟达的黄仁勋:你手握千亿现金,别只想着股票回购。利用这笔巨款,深入投资基础设施层,去加速整个生态的建设。这不仅能巩固你的王座,还能创造更大的市场。 给谷歌的皮查伊和布林:别再那么“佛系”了!把你们的TPU拿出来卖,把XLA软件栈彻底开源。你们正在流失最顶尖的人才,而搜索业务的根基正被AI动摇。再不拿出破釜沉舟的勇气,就晚了。 给Meta的扎克伯格:你对AI的愿景很宏大,但要更快地落地成产品。别只守着自己的社交花园,大胆地走出去,推出能和ChatGPT、Claude正面竞争的产品。 给苹果的蒂姆·库克:醒醒!计算的交互界面正在从“触摸”转向“AI”,这会从根本上颠覆你的生态。Siri已经落后太多了,再不投入数百亿美元到基础设施和模型研发上,苹果的护城河会越来越窄。 给微软的纳德拉:你们拥有全球最强的企业销售团队,但产品力却在下滑。GitHub Copilot起了个大早,却赶了个晚集;自家的AI产品反响平平;对OpenAI的掌控力也在减弱。是时候把重心从销售拉回到产品上了。 给特斯拉/xAI的埃隆·马斯克:你吸引顶尖人才的能力无人能及,但一些冲动的决定正在伤害你的公司和项目。少一些随性的决策,多一些对产品的持续专注,你的帝国会更稳固。 这场AI的牌局还远未到终局。战况瞬息万变,曾经的性能王者开始精打细算,沉默的基建狂魔手握重金,而挑战者们则在一条异常崎岖的道路上奋力追赶。谁能笑到最后,不仅取决于技术上的突破,更取决于在经济、生态和战略上的远见卓识。我们正亲眼见证一个时代的诞生。

August 20, 2025 · 1 min · fisherdaddy

AI 正在“吃掉”互联网,而内容创作者却颗粒无收?Cloudflare CEO 揭示背后的危机与反击战

本文来自于 Alex Kantrowitz 对Cloudflare CEO Matthew Prince 的访谈,以下是视频精华。 我们正处在一个奇怪的十字路口。一方面,生成式AI以前所未有的速度为我们提供答案、生成内容,带来了极大的便利;另一方面,这些AI模型的“饲料”——也就是整个互联网上由无数创作者辛辛苦苦生产的内容——正在被无偿地、大规模地吞噬。 这个正在悄然改变互联网底层逻辑的现象,已经引起了网络安全巨头Cloudflare的警觉。其联合创始人兼CEO,Matthew Prince,最近便站了出来,详细剖析了这场危机,并宣布了一项旨在“纠正航向”的大胆计划。 互联网的“旧契约”正在失灵 过去三十年,互联网内容生态的运转依赖于一个不成文的“契约”,特别是以谷歌为代表的搜索引擎所建立的模式: 创作者发布内容。 搜索引擎抓取内容,并将其编入索引。 用户搜索,搜索引擎提供链接,将流量导向创作者的网站。 在这个模式下,创作者通过获得的流量,可以通过三种方式变现: 付费订阅:卖内容本身。 广告:卖用户的注意力。 精神满足:知道有人在看自己的作品,获得影响力。 这个“我让你抓取,你给我流量”的交易,是整个网络内容生态繁荣的基石。 然而,AI的崛起正在打破这个平衡。当你在AI聊天框里输入问题,它不再是给你十个蓝色链接让你自己点击,而是直接生成一个综合性的答案。这听起来很棒,对吗?但问题随之而来:用户得到了答案,就不会再去访问原始的内容来源了。 没有了访问量,创作者就无法再卖订阅、挂广告,甚至连自己的内容是否被使用了都不知道。Matthew Prince一针见血地指出:“如果创造内容的激励消失了,那么在AI驱动的未来,谁还会去创造内容呢?” 温水煮青蛙:正在恶化的数据 你可能会觉得,这个问题以前就有了。谷歌搜索结果页面的“答案框”不也是直接给答案吗?没错,这正是问题所在。Matthew Prince用Cloudflare掌握的十年数据,描绘了一幅“温水煮青蛙”的图景: 十年前:谷歌抓取2次网页,就能为网站带去1次点击。 半年前(AI Overviews推出前):由于“答案框”的普及,这个比例恶化到了抓取6次,才带来1次点击。 现在(AI Overviews推出后):这个数字飙升到了抓取18次,才有1次点击! 获取流量的难度在十年间增加了近10倍。而这还只是谷歌。如果你觉得这已经够糟了,看看新生代的AI公司: OpenAI:平均要抓取 1500页 内容,才会给你带去1次点击。(获取流量的难度是十年前谷歌的750倍) Anthropic:这个数字更是达到了惊人的 60,000页 换1次点击。(难度是30,000倍) 这不仅仅是流量损失的问题。每一次AI爬虫的抓取,都在消耗网站的服务器资源,这些都是内容发布者真金白银的成本。维基百科等网站就已经公开表示,AI爬虫导致他们的服务器成本指数级增长,而这些都不是人类访客。 “这就像,AI公司拿走了你的面包去喂养他们的金鹅,不仅没付钱,连你做面包的面粉钱都让你自己掏。” 别以为这只是内容创作者的烦恼 有人可能会说,这是市场演进的必然结果,更好的用户体验就该胜出。Matthew Prince并不反对AI是未来的趋势,他反而坚信AI将成为互联网未来的主要交互界面。但他提出了一个更深层次的担忧: “所有这些AI系统赖以运行的燃料,正是那些原创内容。如果我们扼杀了这些内容的商业模式,我们最终也会扼杀AI系统本身。” 他用了一个生动的比喻:每个大语言模型都像一块瑞士奶酪(Swiss Cheese),虽然看起来很完整,但里面充满了大大小小的知识空洞。而高质量的原创内容,就是用来填补这些空洞的。 如果未来网络上充斥的都是AI生成、相互借鉴的二手内容,就像迈克尔·基顿的老电影《丈夫一箩筐》(Multiplicity)里那样,每一次复制都会让质量变得更差。最终,AI模型将因为缺乏新鲜、高质量的“养料”而变得“愚蠢”,陷入一个自我循环的怪圈。 是走向“美第奇时代”,还是让机器人为知识付费? 如果放任现状发展下去,未来会是怎样?Prince描绘了一种颇具“黑镜”色彩的反乌托邦景象: 我们可能不会看到内容创作的消亡,而是会退回到类似文艺复兴时期的**“美第奇时代”**。届时,世界上可能只剩下几家巨型AI公司,它们各自雇佣一批记者、研究员和学者,成为知识的赞助人和唯一权威。一家可能是“保守派AI”,另一家是“自由派AI”。所有知识的生产都将整合到这些巨头内部,独立的声音将不复存在。 这显然不是我们想要的未来。互联网的魅力在于其信息的民主化和多元化。 因此,Prince提出了一个充满理想主义色彩的愿景: “在我的乌托邦未来里,机器人应该为内容付一大笔钱,而人类应该再次免费获取内容。” 因为机器人每一次抓取内容,都是在为成千上万甚至数百万的人类用户服务,理应为此付费。 技术反击:不只是屏蔽,更是构建一个新市场 空谈无益,Cloudflare已经采取了行动。他们意识到,传统的robots.txt协议(网站用来告知爬虫哪些内容不应抓取的君子协定)已经不够用了,因为它既可以被无视,也不够精细。 Cloudflare的解决方案分为两步: 筑起高墙:从7月1日开始,Cloudflare为客户提供了一项新功能,默认屏蔽已知的AI爬虫访问那些带有商业意图的页面(比如有付费墙或挂有广告的页面)。这不再是君子协定,而是真正的技术壁垒。 开启市场:他们重新启用了互联网协议里一个长期被忽视的状态码——402 Payment Required (需要付款)。当AI爬虫试图访问被保护的内容时,它会收到这个响应,从而开启一个协商和交易的可能性。 这个机制旨在创造一个市场: 大型玩家可以像Reddit、纽约时报已经做的那样,与AI公司达成大规模的内容授权协议。 小型创作者也可以动态地为自己的内容定价。Cloudflare可以帮助评估某条内容对特定AI模型的价值(比如填补了哪个“奶酪洞”),AI公司则可以决定是否值得为此付费。也许是一笔几分钱的微交易,也许是一篇独家重磅文章的数百万美元授权。 这个计划得到了包括康泰纳仕(Condé Nast)、《时代周刊》、《大西洋月刊》等众多主流出版商的支持。他们一同按下了象征性的红色按钮,开启了这场反击战。 未来的路与未解的谜题 当然,这个方案也面临挑战。比如,会不会影响网站的SEO?Matthew Prince表示,他们正与各方合作,推动robots....

August 18, 2025 · 1 min · fisherdaddy

“我们有点被吓到了”:OpenAI科学家揭秘AI进步的真实速度与未来

当我们在谈论人工智能(AI)时,我们到底在谈些什么?是那些不断被刷新的基准分数,还是那些听起来遥远又模糊的术语,比如通用人工智能(AGI)? 在一期 OpenAI 的播客中,公司的首席科学家Jakub Pachocki和研究员Szymon Sidor坐下来,分享了一些来自一线的、不那么广为人知的看法。他们不仅聊了聊如何衡量AI的真正进步,还透露了一些让他们自己都感到“有点被吓到”的内部故事。有趣的是,这两位顶尖的AI研究者,其实是来自波兰同一所高中的校友。 一切始于波兰的一间教室 Jakub和Szymon的缘分,始于一位名叫Ryszard Dubrawski的计算机科学老师。这位老师对编程竞赛和追求极致的热爱,深深地影响了他们。在那个还不存在ChatGPT的年代,想要深入学习图论、矩阵这些远超高中课程的知识,一位好的导师和极大的热情是必不可少的。 “他(老师)能提供的情感支持和空间,是AI很难单独做到的,”Jakub回忆道。这或许也回答了那个老问题:AI会取代老师吗?答案可能是否定的。AI可以成为一个强大的教学伴侣,帮助老师创造出互动式的“蒙提霍尔问题”演示,但它无法替代老师内心的关怀和信念。一个好老师,即使偶尔记错事实,他的热情和鼓励也足以点亮学生的世界。 AGI到底是什么?我们该如何衡量? 几年前,AGI还是一个听起来很抽象、很遥远的概念。但现在,情况已经大不相同。 Jakub解释说,我们曾经模糊地认为“能自然交谈”、“能解决数学难题”、“能做科学研究”都差不多是同一回事。但随着技术的发展,我们发现这些其实是相当不同的能力。如今的AI,无疑已经能就广泛的话题进行自然对话,也刚刚跨过了那个被讨论已久的里程碑——在国际数学奥林匹克(IMO)竞赛中获得金牌。 然而,这些“单点”的衡量标准正变得越来越不够用。为什么? 基准饱和了:在很多标准化测试上,模型已经达到了顶尖人类的水平。当一个模型能在全球顶尖学生参与的竞赛中名列前茅时,用这种方式再来衡量它的进步就变得很困难了。 模型可以“偏科”:现在的技术可以训练出一个在数学上表现超群、但在写作上可能平平的模型。它在数学基准上得分很高,但这并不完全代表它的“整体智力”。一个好的“考生”不一定是一个有用的“同事”。 那么,什么才是更有意义的衡量标准?Jakub提出了一个更宏大的视角:AI自动化科学研究和技术发现的能力。 “当我思考AI如何真正深刻地影响世界时,我首先想到的是它自动化发现和生产新技术的潜力……我们习惯于将新思想、基础技术进步与人类的创造力联系在一起。但要真正理解‘一个大型计算机能够提出颠覆我们对世界理解的想法’这件事,其实是相当困难的。而我认为,我们离那一天并不遥远。” “AI正在放缓”?十年来的惊人飞跃 你可能看到过一些新闻标题,说AI对经济的贡献只有3%,然后评论区就会有人说“AI被过度炒作了”或者“AI的发展撞墙了”。 每当看到这些,Szymon都会回想起十年前的经历。那时他正在研究自然语言处理,但模型的效果可以说是一塌糊涂。 “Jakub来测试我们当时的技术,一个情感分析模型,” Szymon笑着说,“输入‘这部电影很烂’,模型正确识别为负面。输入‘这部电影很好’,正确识别为正面。然后他输入‘这部电影还不赖’(This movie is not bad),模型回答:‘哦,负面。’” 这就是十年前的起点。从那时起,我们经历了GPT-2能写出连贯的段落(当时这感觉像个奇迹!),到GPT-4的出现——Szymon称之为他“个人的AGI时刻”,因为它有时会说出让他都感到惊讶的东西。再到如今,模型可以在编程竞赛中与顶尖人类选手一较高下。 “所以当你看到那个3%的数字时,” Szymon强调,“我告诉你,十年前这个数字可能是0.00001%。从这个角度看,我们没有理由不相信,一年后它会是10%,两年后是20%。” 进步的速度快得惊人。Szymon坦言,当他们第一次在内部看到“推理能力”相关的模型取得突破性进展时——也就是让模型花更多时间去“思考”一个问题,而不是立即给出答案——整个团队都受到了巨大的震撼。 “那是一个令人震惊的时刻。我们开始非常、非常严肃地问自己:作为一个组织,我们为这种令人难以置信的快速进步做好准备了吗?我记得有一个晚上11点,我们和Sam(Altman)、Mira(Murati)还在通话,我们……有时真的会被这些结果吓到。” 下一个突破口在哪里? AI的进步并非凭空而来。那么,下一波浪潮会从何而来? 持续的规模化(Scaling):这是AI发展不变的基石。更大的模型、更多的数据,依然是提升能力的核心驱动力。 复合效应:新的技术(比如推理能力)会和规模化产生复合效应,1 > 1 + 1。 模型的“持久性”:这是最令人兴奋的方向之一。想象一下,今天的模型用几秒钟回答你的问题。但如果我们愿意花费多出成千上万倍的计算资源,让一个模型持续工作数小时、甚至数天,去攻克一个真正重要的难题,比如一个医学研究课题,或者设计下一代AI模型本身,会发生什么?这将是通往自动化科学研究的必经之路。 Jakub分享了一个有趣的故事。在日本有一场非常著名的长达10小时的编程竞赛(AtCoder),考验的是选手的持久专注和启发式解决问题的能力。Jakub的朋友兼同事Sihun是一位顶尖选手,他曾开玩笑说Jakub擅长的那种短时竞赛会先被AI自动化。结果,在最近一次比赛中,OpenAI的模型和Sihun展开了激烈角逐。最终,Sihun赢得了冠军,而AI模型拿下了第二名。 人类,暂时还领先一步。但Sihun在赛后精疲力尽,而AI模型,可以不知疲倦地继续跑下去。 给年轻人的建议:在这个时代,你该学什么? 面对一个变化如此之快的世界,今天的年轻人应该怎么做? Jakub和Szymon的建议出奇地一致:去学编程。 “绝对要去学编程,”Szymon斩钉截铁地说,“有一种技能现在是、并且未来将继续是稀缺品,那就是拥有结构化的思维,能将复杂问题拆解成小部分。编程是掌握这种技能的绝佳方式。” 这并不是说你未来一定会成为一个传统意义上的程序员。而是,理解了系统是如何工作的,你才能更好地驾驭它。就像一个优秀的飞行员需要懂空气动力学,一个优秀的“AI使用者”也需要理解其背后的逻辑。 Jakub则分享了自己从一个波兰小城走向硅谷的经历,他鼓励年轻人要敢于打破思维的桎梏,敢于梦想。无论是Paul Graham的《黑客与画家》,还是电影《钢铁侠》,这些看似遥远的东西,都可能成为点燃一个人雄心壮志的火花。 从一间教室里的编程竞赛,到与顶尖人类棋手和程序员的同台竞技,再到那些让开发者自己都心跳加速的深夜突破。AI的故事,远比冰冷的基准数字要精彩和深刻。它关乎的不是机器是否能“通过考试”,而是我们作为人类,将如何利用这股前所未有的力量,去加速探索、创造和理解我们所处的世界。

August 18, 2025 · 1 min · fisherdaddy

与 OpenAI 联合创始人 Greg Brockman 深度对话:揭秘 GPT-5、智能的本质与AGI的未来

本文整理自 Latent Space 对 OpenAI 总裁的访谈,Greg Brockman 谈 OpenAI 通往通用人工智能(AGI)之路,以下为本视频精华。 就在最近,OpenAI像一阵旋风,接连发布了GPT-5和其开源模型GPT-OSS,整个科技圈为之震动。在这场风暴的中心,OpenAI的联合创始人兼总裁Greg Brockman坐下来,与我们进行了一场深度对话。他不仅分享了这些重磅产品背后的故事,更深入地探讨了关于推理、计算、以及人工智能未来的思考。这不仅仅是一次产品发布的复盘,更像是一次对智能本质的哲学探索。 第一章:从“为什么还不是AGI?”到GPT-5的诞生 故事要从GPT-4的诞生说起。当GPT-4训练完成,并经过指令微调后,团队惊讶地发现,它竟然能进行流畅的多轮对话——尽管它从未被专门训练过“聊天”。 “我们当时开了一个研究会议,Ilya、Jakub、Wojciech这些人都在,” Greg回忆道,“我们问了一个核心问题:为什么这个模型还不是AGI(通用人工智能)?” 它能回答你提出的几乎所有问题,但它不够可靠,会犯错,会“跑偏”。这个差距到底在哪?答案指向了一个OpenAI并不陌生的领域:强化学习(Reinforcement Learning, RL)。 模型需要一个能“在现实世界中检验自己想法”的机制。它需要尝试,需要获得反馈,然后变得可靠。这让人想起了2017年的Dota项目,那个项目完全通过强化学习,从一个随机初始化的神经网络,学会了极其复杂和精准的行为。大家意识到,语言模型也需要这种可靠性。 “从GPT-4训练完成的那一刻起,我们就知道,推理(Reasoning)是下一站。” Greg说。团队提出了十几个想法和假设,大部分都失败了。但这就是AI研究的常态:你得对一个方向有坚定的信念,然后不断尝试,即使前十次都失败了,只要有一次成功,就能看到微弱的希望之光,然后不断放大它。 正是这种坚持,经历了无数人的努力和数年的探索,最终孕育出了GPT-5的推理范式。 第二章:计算,智能的“终极燃料” 在整个对话中,Greg反复强调一个核心观点:“瓶颈永远是计算(Compute)。” 他把这个过程描绘成一幅美丽的图景:能量转化为计算,计算最终结晶为智能。 这个过程有点像炼金术。我们投入大量的计算,就像投入燃料,去“塑造”一个神经网络。这个过程的产物——模型,就像一块储存了巨大“势能”的晶体。而最美妙的地方在于,这块晶体可以被反复使用,它的价值会被无数次的调用所摊销。 那么,学习到底发生在哪里?我们正从一个“一次性训练,海量推理”的时代,走向一个“推理-再训练”的循环。Ilya Sutskever曾有一个精辟的观点:当模型能力弱时,它生成的每个token价值很低;当模型能力极强时,它生成的每个token则蕴含着巨大的价值。 强化学习正是利用了这一点。模型通过与现实(或模拟环境)的接触,产生大量的数据,然后从这些数据中学习。与需要海量数据进行预训练不同,RL可以让模型从少数高质量的人类策划任务中,通过成千上万次的尝试,学到非常复杂的行为。 “如果你给我们10倍的计算力,我们会用在哪?”Greg笑着说,“我们总能找到用掉它的地方。” 这就像当年的Dota项目,团队每周都将核心数量加倍,然后眼看着AI的水平一路飙升,直到最后也没撞到真正的“墙”。大多数所谓的“墙”,其实只是工程上的bug或可以优化的细节。 第三章:当AI学会解决“不可能”的任务 如果说计算是燃料,那么“泛化能力”就是引擎的效率。GPT-5的推理能力,已经开始在一些曾经被认为是人类智力巅峰的领域展现出惊人的泛化性。 最典型的例子就是国际数学奥林匹克(IMO)竞赛。OpenAI的模型达到了金牌水平。更让人吃惊的是,同一个核心模型,在几乎没有进行额外针对性训练的情况下,也达到了国际信息学奥林匹克(IOI)竞赛的金牌水平。 “这对我来说简直太疯狂了,” Greg感叹道,“解决IOI曾经是一个宏大的挑战,需要一个大团队。但我们的IMO核心团队其实只有三个人,IOI项目更像是一个几个人的‘副业’。” 这证明了一个深刻的道理:学习如何解决难题,本身就是一种可以迁移的元技能。 学会如何解决复杂的数学问题和编写证明,竟然能直接迁移到解决编程竞赛问题上。 当然,泛化并非没有边界。一个模型如果从未接触过物理实验,它不可能凭空成为物理学家。但即便如此,现有模型的潜力也已远超想象。Greg提到,一些湿实验室的科学家用GPT-3来提出实验假设,五个想法里可能只有一个可行,但那个可行的成果,已经足以发表在“中等水平的学术期刊”上,相当于一个三、四年级博士生的水平。 “这就是GPT-3的水平,而我们清楚地知道在所有维度上改进它的路径。” Greg说,“我们只需要计算、高质量的任务,以及团队倾注心血的爱与劳动。” 第四章:GPT-5时代:智能的飞跃与人机协作新范式 如果说GPT-3是文本时代的开启,GPT-4是多模态和商业化的普及,那么GPT-5的旗舰标签是什么? Greg的回答很简单:“聪明(Smart)”。 GPT-5的智能已经达到了一个新高度,它能够执行“伟大的智力壮举”。它不再只是一个有用的工具,而是一个真正的智力伙伴。 “我曾经尝试教GPT-3排序一个7个数字的列表,无论我怎么用few-shot prompting教它,它都学不会。但现在,我敢肯定GPT-5能轻松完美地完成这个任务,甚至都不用借助它的Python工具。” 专业数学家和物理学家在使用GPT-5后反馈,它能在短时间内重新推导出他们花费数月研究才得到的见解。这正是GPT-5带来的变革:它将成为顶尖科研人员和创造者的“伙伴”,一个可以深入理解你的想法、并在此基础上提出新洞见的不知疲倦的合作者,极大地加速创新的步伐。 如何释放GPT-5的潜力? Greg给出的建议是: 给它难题:不要用简单的聊天来测试它,它在复杂问题上更能展现与旧模型的差距。 成为“智能体管理者”:将大任务分解成多个自包含的小任务,让多个模型实例并行工作,你则扮演管理者的角色。 了解它的“脾性”:像了解一个同事一样,熟悉它的长处和短板,在思考核心难题时,可以把一些非关键路径的、低风险的任务交给它并行处理,不断获得反馈。 第五章:揭开面纱:混合模型、开源与AI的未来 GPT-5的混合模型之谜 GPT-5的一大特点是它是一个“混合模型”,背后有一个路由器(router)根据用户请求的复杂性、意图等因素,自动选择调用“推理模型”或“非推理模型”。 推理模型:更强大,思考更深入,但延迟更高,成本也更高。 非推理模型:速度快,成本低,适合快速、简单的任务。 这种设计,本质上是一种**自适应计算(Adaptive Compute)**的实现。与其强迫用户在几十个令人困惑的模型名称(比如4o, 4-turbo, 0301…)中选择,不如将复杂性内部化,给用户一个简单、统一的入口。这是从“模型切换器是未来”到“集成化体验是未来”的转变。 GPT-OSS:构建美国技术生态 OpenAI为什么要推出开源模型?Greg坦言,这背后有战略考量。当开发者基于你的开源模型构建应用时,他们实际上是在融入你的技术栈。未来当他们需要更强大的能力时,他们会自然而然地转向你的闭源API。 更深层次地,这是为了构建一个以美国技术为核心的生态系统,确保AI的发展与美国的价值观和领导地位保持一致。 连生物学也是一种语言 Greg在Arc Institute的休假期间,研究用神经网络处理DNA。他最震惊的发现是:“它们(DNA和人类语言)完全是一回事!” DNA就像一门外星语言,但对于神经网络来说,人类语言何尝不也是一门需要从零学习的语言?它的词汇表甚至更简单,只有4个字母。团队用字符级(character-level)的方法处理DNA序列,发现其学习规律与语言模型惊人地相似。...

August 18, 2025 · 1 min · fisherdaddy