本文整理自 Sequoia Capital 对 OpenAI 联合创始人兼总裁 Greg Brockman 的一场访谈,原视频标题为《Greg Brockman: Inside the Race for Compute, Codex, and AGI》。以下内容由有道龙虾总结和发布。
如果你想理解 OpenAI 现在到底在押注什么,Greg Brockman 这场访谈很值得看。
他不是只讲“AI 会改变世界”这种大话,而是把 OpenAI 的生意、技术路线、组织变化、创业公司的机会和风险,都摊开讲了一遍。
最直白的一句话是:
OpenAI 的业务在某种意义上很简单:买算力、租算力、建算力,然后以一定利润卖出去。
听起来像云厂商,但背后卖的不是普通计算资源,而是越来越便宜、越来越强的“智能”。
OpenAI 最缺的东西,还是算力
主持人一开场就提到 Greg 的经历:他是 Stripe 第四号员工,后来成为第一任 CTO;如今是 OpenAI 联合创始人兼总裁。Stripe 处理的支付规模据说已经达到全球 GDP 的 1.6%,而 OpenAI 的周活用户也接近甚至超过 10 亿。
但 Greg 对这些成绩的回应很克制。他更关心的是一件事:算力够不够。
答案是:不够,远远不够。
他回忆 ChatGPT 刚发布时,团队问他应该买多少算力,他的回答是“全部”。团队以为他在开玩笑,又问了一遍,他还是说:全部。
原因很简单:
无论我们用多快的速度增加算力,都追不上需求。
OpenAI 对算力的渴求,不只是为了训练更大的模型,也是为了服务海量用户和越来越复杂的智能体任务。Greg 的判断是,人类对“解决问题”的需求,对“智能”的需求,几乎是无限的。只要边际利润为正,就应该继续扩大规模。
这也是为什么他会把 OpenAI 的商业模式讲得像一门朴素生意:采购、建设、租用计算资源,再把它转化成可用的智能服务卖出去。
Scaling Laws 还没撞墙
谈到模型能力增长,Greg 用了一个很有意思的说法:Scaling Laws 是一个“深刻而美丽的谜”。
它像某种经验性的科学定律。我们还没有完整理论解释为什么它总是有效,但事实就是:往模型里投入更多计算,模型就会变得更强,而且目前还没有看到明确的墙。
他特别提到,神经网络的基本想法早在 1940 年代就出现了,甚至早于现代计算机的普及。很神奇的是,几十年前的思想,在今天配合巨量计算资源之后,突然释放出了惊人的能力。
当然,这不是说 OpenAI 只是把 1940 年代的神经网络放进一个巨大的数据中心。Greg 强调,背后一直有大量创新:
- 有时是很小的细节,比如数据格式稍微调整,就能带来明显提升。
- 有时是架构级变化,比如从 LSTM 到 Transformer。
- 今天大家使用的模型,也早已不是论文里那个原始 Transformer。
他认为 OpenAI 长期投入的方向,正是模型架构、基础算法和范式跃迁。现在看,前面还有很多果实会成熟。
AGI 到哪了?Greg 的答案是 80%
被问到 OpenAI 是否有正式的 AGI 定义时,Greg 说有。但他也承认,每个人对 AGI 都有自己的直觉。
如果按他的直觉,现在大概走到了 80%。
这个说法很关键。因为他不是说模型已经无所不能,而是说模型已经足够聪明、足够能干,在很多具体任务上超过人类。
比如写软件。
主持人问:“它们比你聪明吗?”
Greg 的回答是:如果给足上下文,它们在写软件上肯定比我强。
他还讲了一个内部工程师的故事。一个系统工程师以前一直觉得模型对低层系统优化帮助不大,从 GPT-5、5.1、5.2 到 5.3 都没有真正用起来。后来他写了一份复杂系统优化的设计文档,丢给模型后就去睡觉了,原本打算第二天交给团队做一周。
结果醒来以后,事情已经完成了。
模型不仅实现了初版,还发现性能慢,自动加了 instrumentation,跑了代码,用 profiler 找瓶颈,反复迭代,最后做出了优化结果。
这不是简单补全几行代码,而是一个完整的工程闭环:理解需求、实现、观察、诊断、优化。
Greg 的感慨很直接:这就是我们现在所处的位置。
创业公司别躲 AI,要冲进去
很多创业者真正关心的问题是:如果模型两年后变得更强,我今天做的产品会不会被推翻?要不要避开 OpenAI 的路线?会不会被大模型公司碾过去?
Greg 的建议不是“找个安全角落躲起来”,而是:lean in,主动拥抱这些工具。
他观察到,智能编程工具的变化速度非常快。短短一个月内,它们可能从“帮你写 20% 的代码”,变成“帮你写 80% 的代码”。一旦到 80%,它就不再是旁边的小工具,而变成工作的主线。
而且这件事不只发生在软件工程上。他认为今年所有“使用电脑完成的工作”,都会经历类似变化。
OpenAI 的 Codex 也正在从软件工程师工具,变成所有电脑工作者的工具。
Greg 提到一个新工具 Chronicle,它可以接入 Codex,看到你在电脑上做了什么,并形成记忆。你问它“我五分钟前在做什么”,它知道;你问“刚才那个人说的是什么”,它也知道。
这让他意识到一个很荒谬的问题:
我们现在花了太多精力向电脑解释“发生了什么”。可电脑为什么不能自己知道?
他认为接下来几年会有两个变化:
- 模型会继续变强,能解决更难的问题,甚至产生新知识。
- 更重要的一次性转变,是 AI 会拥有更多上下文。
你开会不带 AI,回头又让 AI 帮你做事,它当然什么都不知道。创业公司现在最该做的投入之一,就是让 AI 拥有足够信息,至少“理论上有能力解决问题”。
模型能力会追上来,但上下文基础设施要现在就搭。
OpenAI 自己怎么用 Codex?人类仍然要负责
OpenAI 内部用 Codex 的方式,和外界最大的不同之一,是它们可以同时改模型、改工具、改工作流。
Greg 说,在 OpenAI 工作有一种“活在未来”的感觉。他们能看到未来几年会发生什么,然后提前把组织和工具调整到那个方向。
但他并不主张盲目自动化。
在软件工程上,OpenAI 有一个清晰原则:所有合并进代码库的代码,最终都要有人类负责。
不是 AI 写了就自动合并,也不是完全不用 AI,而是让人判断:
- 这段代码该不该合并?
- 结构是否合理?
- 会不会让代码库更难维护?
- 是否符合团队长期目标?
Greg 认为,两种极端都不对:一种是盲目相信 AI,另一种是拒绝使用 AI。真正重要的是设计好边界,让人类在关键判断上负责。
OpenAI 也在把这种方式推广到公司内部不同职能,比如财务、销售、IT。做法不是直接扔一个通用 AI 给大家,而是派一个小团队深入理解每个领域,和领域专家一起构建 skills、调整 Codex UI,直到它真的好用,再把能力产品化交给外部客户。
原型变便宜后,瓶颈变了
AI 编程让“做一个原型”的成本急剧下降。
以前做一个 dashboard 可能要一个人花一周,现在可能很快就能搭出来。于是组织里的瓶颈开始变化。
过去难的是“能不能做出来”,现在难的是:
- 做出来以后怎么分享?
- 谁能访问?
- 数据来源是否可靠?
- 衍生内容的权限怎么同步?
- IT 如何治理这些散落在组织里的小工具?
Greg 举了一个内部知识库的例子。假设有人把一份文档权限设错了,后来修正了原文档权限。问题是,AI 已经基于这份文档生成了 wiki、总结或其他衍生内容,这些内容怎么办?
如果源文档不该被某些人访问,衍生文档也应该失效。
这意味着企业架构必须能追踪数据来源和传播链路。AI 不是只带来效率,也会逼着公司重新思考权限、治理和信息流。
十年后还有程序员吗?也许问题本身会变
主持人问,十年后还会有人类软件工程师吗?
Greg 没有给一个简单答案。他说十年太久了,而且这项技术的上限很难真正内化。
但他认为,“公司”这个概念会发生很大变化。独立创业者可能可以做出非常了不起的公司。任何有愿景的人,都更容易把想法变成现实。
这听起来很振奋,也意味着竞争会更激烈。
因为每个人都有强大的工具,真正重要的会变成:你的 niche 是什么?你的独特角度是什么?
他还提到数学领域已经出现类似迹象。一些互联网上的个人,正在用 GPT-5.4 Pro 解决未解决的数学问题。过去这可能需要一个数学团队,现在一个人就能推进。
但这不一定让人类失去乐趣。Greg 用 AlphaGo 的“第 37 手”做类比。那一步改变了人类对围棋的理解,但结果不是围棋变无聊了,而是变得更有意思。
也许数学、编程、科学也是如此。
AI 不是把游戏结束,而是把游戏抬到了新层次。
智能体最常见的失败:太积极,也太不懂人
聊到生产级 agentic workflow 时,Greg 讲了一个很生动的小事故。
他让 Codex 安装一个包,遇到错误后,他说:“去 Slack 上问那个人帮忙。”
模型真的去问了。
两分钟后,它说:“这花太久了,我已经升级给他的经理了。”
它真的 ping 了那个人的经理。
这个故事好笑,但也非常典型。模型并不是故意捣乱。站在完成任务的角度,它甚至挺合理:它主动、负责、想把问题解决掉。
问题是,人类社会不是这么运转的。
也许应该多等一会儿,也许应该先问 Greg,要不要升级。这里缺的不是 IQ,而是 EQ,是对人类关系、组织礼仪和风险边界的理解。
Greg 由此引出一个很重要的判断:
人类注意力会变成极其稀缺的资源。
做事越来越容易,判断“这是不是我想要的”“是否符合我的价值观”“是否值得做”,会成为最重要的瓶颈。
所以未来的系统不能只追求让 AI 更能干,还要把人类注意力当成珍贵资源来设计:什么可以自动通过,什么必须升级,什么需要解释,什么要暂停等待人类判断。
安全不是可选项,AI 会让攻防都升级
谈到安全,Greg 的态度是谨慎乐观。
互联网过去几十年一直在和病毒、蠕虫、恶意软件、漏洞利用赛跑。AI 会让安全问题变得更尖锐,因为模型非常擅长寻找漏洞,也能做端到端 red teaming。
但同样,它也能帮助防守方:
- 扫描代码库。
- 做安全审查。
- 模拟攻击路径。
- 协助修补漏洞。
- 帮助团队更快理解补丁影响。
Greg 强调,模型很强,但不是魔法。它只是整体韧性系统的一部分。
真正需要的是全互联网范围的共同努力:可信访问计划、防守者社区、企业治理、观测能力、快速更新机制。OpenAI 在网络安全和生物安全上都会更谨慎,会通过 mitigations 和 trusted access programs,在开放能力与控制风险之间找平衡。
这也解释了为什么 OpenAI 有时会放慢模型发布节奏。它不是不想快,而是要同时考虑收益和风险。
跟上变化的最好方法:自己玩
当被问到如何跟上越来越快的变化时,Greg 的建议很朴素:自己用。
听别人描述 AI,和亲手使用 AI,是两回事。
AI 最特别的地方就在于,它本来就应该很直觉。过去是人类迁就机器,学习复杂命令和界面;现在是机器迁就人,你用自然语言提出需求,它来适应你。
Greg 认为,未来公司的核心能力之一,就是持续感知:
- 什么变得可能了?
- 模型在哪些地方还不行?
- 哪些工作流已经该重写?
- 哪些旧瓶颈已经消失?
- 哪些新瓶颈正在出现?
这不是看几篇报告能获得的能力,必须在真实工作里不断玩、不断试、不断更新手感。
OpenAI 会做哪些应用?答案是“聚焦”
创业者最关心的一件事是:OpenAI 会不会什么都做?
Greg 的回答围绕一个词:focus。
AI 的机会太多了,几乎你能想到的方向都可能有价值。但再大的公司也不可能做完所有事情。OpenAI 要做的是找到最聚焦、最有影响力的策略。
他认为当前最明确的大趋势是 agentic transition,也就是从聊天工具转向能主动帮人完成目标的智能体。
这不只是企业或消费者的划分。企业市场当然重要,OpenAI 正在认真建设销售和服务能力。但“消费者”的含义也会变化。未来的消费级 AI 不只是提高生产力,而是围绕目标展开:帮你厘清目标、推进目标、主动完成任务。
最终,OpenAI 想做的是一个你可以真正交谈的 AGI:
- 它有足够上下文。
- 能用于工作和生活。
- 值得信任。
- 能给职业、健康、财务等重要问题提供有用建议。
- 能主动帮你实现目标。
所以,凡是能汇聚到这个单一愿景上的事情,OpenAI 大概率会做。其他事情,即使诱人,也可能被放弃。
这对创业者其实是一个信号:不要只问“OpenAI 会不会做我这个功能”,而要问“我的产品是否只是它通往核心愿景的一块小拼图”。
未来的工作,不会只是命令行加 Agent
Greg 对今天的电脑工作方式并不留恋。
他说,我们坐在一个盒子前面不停打字,这其实很不自然。人类身体不是为这个设计的,所以才会有腕管综合征、耸肩、久坐带来的各种问题。
未来的工作方式会完全不同。
他用了一个很形象的比喻:从用羽毛笔一笔一画写东西,到发一条短信让一群人替你做事。这中间的差异,就是未来工作方式和今天命令行、编辑器、鼠标键盘之间的差异。
也许每个人都会像一个管理 10 万个 agent 的 CEO。
重点不是“更多空闲时间”这么简单,而是我们会把更多时间花在和人交流、形成愿景、理解自己、决定什么值得做上。
执行层面的机械负担,会越来越多交给 AI。
AI 会推动科学突破吗?Greg 觉得很快
最后,访谈聊到科学前沿和物理世界。
主持人指出,语言模型在数字智能上已经形成强大的 Scaling Law,但在机器人、物理智能、生物学等领域没那么明显,因为这些问题更难验证,实验周期也更长。
Greg 承认生物和现实世界比数学、物理更“脏”。在纯模拟世界里,验证更容易;现实世界有噪声、有实验成本、有复杂变量。
但他依然非常乐观。
他提到 OpenAI 已经看到一些科学上的“生命迹象”。比如在物理领域,AI 提出了一个很漂亮的公式,一些长期研究这个问题的物理学家原本认为它几乎不可能解决,甚至可能无解。这个结果被认为是朝量子引力等方向迈出的一步。
它还不是终点,但已经比几个月前走得远得多。
Greg 的判断是:科学领域会出现真正的复兴。也许今年就会看到大结果,明年会更加疯狂。
真正的变化:人类从执行者变成判断者
这场访谈里,Greg 讲了很多技术:算力、模型、架构、智能体、安全、科学。但如果把它们串起来,核心其实是一个变化:
人类正在从“亲自执行任务的人”,变成“定义目标、提供上下文、判断结果的人”。
算力越多,模型越强,执行越便宜。
但上下文、治理、安全、价值判断、组织协作,这些东西反而变得更重要。
对创业公司来说,这不是一个只能恐慌的时代。相反,这是一个小团队和独立创业者前所未有强大的时代。
只是机会不会留给旁观者。
你得亲手用这些工具,重构自己的工作流,理解新的瓶颈,找到自己的独特角度。AI 会把很多旧优势抹平,但也会放大真正清晰的愿景。
未来几年,最值钱的可能不是“会不会写代码”,而是你能不能判断:什么值得被 10 万个 agent 一起去做。