本文整理自 OpenAI CEO Sam Altman 今早面向开发者举办的一场交流会的在线直播。以下为本场直播的精华内容,由我和 Gemini 3 Pro 共同整理而成。

软件工程师的未来:不是消亡,而是爆发

很多人担心 AI 会让程序员失业,Sam 引用了**杰文斯悖论(Jevons paradox)**来反驳这个观点:当某种资源(这里是代码)的生产效率极速提高、成本极速降低时,需求反而会呈指数级增长。

未来的软件工程师是什么样的?Sam 认为,“写代码”本身将不再是工作的核心。未来的工程师不需要把大量时间花在敲击键盘或调试 Bug 上。

相反,工程师的定义将通过以下方式被重塑:

  • 价值捕捉者:利用计算机完成自己想要的任务,或者通过计算机为他人创造有用的体验。
  • 宏观调控者:你会看到更多人能独自完成以前需要整个团队才能做到的事。

Sam 预测,世界对软件的需求丝毫没有减弱。未来,我们使用的软件将不再是千人一面的通用版本,而是**“为你一人定制”**的。你会习惯于软件根据你的使用习惯不断自我微调,甚至在此时此刻为你即时生成一个小程序来解决当下的问题。这将创造出比现在大得多的 GDP 总量。

给创业者的冷水:构建变得容易,但卖出去更难了

对于开发者来说,技术门槛的降低是一把双刃剑。

Sam 分享了他以前在 Y Combinator 的观察:曾经,创始人们认为“做产品”是最难的;现在,随着 Cursor、Codex 等工具的普及,构建产品变得极其容易,真正的瓶颈变成了 GTM(Go-To-Market,推向市场)

即使在那个“极大丰富”的 AI 未来,人类的注意力仍然是稀缺资源

Sam 给出的建议很务实:

  1. 即便 AI 可以自动化销售和营销,你依然要面对激烈的竞争。
  2. 不要指望技术红利能自动解决获客问题,生意的本质逻辑(提供差异化价值、建立网络效应)没有变。
  3. 终极测试:问问你自己,如果 GPT-6 发布了,且性能惊人地强,你的初创公司会感到开心还是难过?你应该去做那些极度渴望模型变得更强的业务,而不是做那些“修补模型缺陷”的套壳生意,后者会极其痛苦。

关于 GPT-6 与未来的模型:我们要修好“偏科”

坦白说,Sam 承认目前的模型有点“偏科”。例如 GPT-5 在某些方面很强,但在写作风格上可能还不如以前的版本讨喜。

对于未来的模型演进(以 GPT-6 为代表的下一代),OpenAI 的目标非常明确:

  • 全能型选手:未来的模型将在推理、编程、写作等所有维度上同时变强。智能是可互换的,一个能进行复杂科学推理的模型,理应也能写出清晰甚至有见地的文章。
  • 速度与成本:Sam 做了一个大胆的预测——不管是到 2027 年还是更早,高端智能的成本至少会降低 100 倍。同时,OpenAI 正在努力平衡“推理深度”和“响应速度”,让复杂的输出能在 1/100 的时间内完成。
  • 学习能力:你不必担心今天基于旧框架构建的应用会被淘汰。未来的模型将具备“看一眼就会”的能力——给它展示一个新的环境或工具,它就能像最聪明的人类一样迅速掌握并可靠地使用。

AI Agent(智能体)的形态:不仅仅是聊天

关于 Agent,至今没有一个标准答案。Sam 认为未来会有两种极端的用户画像:

  1. 极客型:像科幻电影里那样,面前有 30 个屏幕,指挥着无数 Agent 多线程作战。
  2. 极简型:通过语音模式和计算机对话,一小时只说一句话,但每一句话都经过深思熟虑,计算机在后台默默处理海量任务。

对于开发者来说,现在最大的机会在于填补“模型能力”与“用户实际应用”之间的巨大鸿沟。构建工具来帮助普通人驾驭这些超级模型,是一个被严重低估的方向。

科学研究与“无限博后”

AI 对科学界的改变是 Sam 最兴奋的领域之一。OpenAI 内部已经在观察到,科学家们开始把 AI 当作**“无限数量的研究生”甚至“无限数量的博士后”**来使用。

现在的用法是:科学家给出 20 个新的研究方向,让 AI 进行广度优先搜索,快速验证,然后人类再介入深入挖掘。虽然目前 AI 还缺乏人类那种顶级的直觉和创造力判断(类似深蓝击败卡斯帕罗夫后的那段“人机结合”过渡期),但 AI 实现完全闭环的自主研究只是时间问题。

关于生物安全:从“封堵”到“防火” 针对 AI 可能被用于制造生物武器的担忧,Sam 提出了一种思维转变。就像人类发明火之后,虽然火灾频发,但我们没有禁止用火,而是建立了消防队、制定了防火规范、使用了阻燃材料。AI 安全也应如此——不能只靠“禁止模型回答某些问题”这种脆弱的防御,而是要建立社会层面的韧性(Resilience)

教育、艺术与“人的味道”

面对学生提问“AI 时代该学什么”,Sam 的回答很直接:不再是学编程这类具体技能,而是更软性的素质——高主体性(High Agency)、适应力、以及产生好点子的能力。

关于教育体系,他用计算器的普及做类比:学校曾经禁止学生用计算器和 Google,这在现在看来很荒谬。未来的教育评估体系必须改变,重点不再是记忆,而是如何利用 AI 进行思考。

但在艺术创作领域,Sam 指出了一个有趣的现象:人类在乎人类。 即便是对于那些极其完美的 AI 生成图像(被戏称为“Clanker 生成的”),一旦人们知道它纯粹由机器完成,欣赏度会大打折扣。就像读完一本好书,你会想去了解作者的生平。这种对“人味”的追求,是 AI 无法取代的护城河。

OpenAI 内部是如何运作的?

为了应对未来,OpenAI 自己也在经历剧变:

  1. 放缓招聘:即使业务在增长,他们也有意放缓人员扩张。因为他们相信 AI 能极大地通过自动化提高人效。这不仅是 OpenAI 的策略,也是给所有企业的建议——不积极拥抱 AI 流程的公司,最后会被那些“几乎全是 GPU、没有员工”的新型公司淘汰。
  2. 面试改革:传统的软件工程面试(考算法题)已经过时了。OpenAI 现在更想看的是:把你放到一个哪怕是一年前看来无论如何也不可能由单人完成的任务面前,看你能不能利用 AI 工具在 20 分钟内搞定它。
  3. 隐私观的改变:Sam 坦言自己已经变“懒”了,他甚至愿意让 ChatGPT 访问他电脑上的所有数据,只要能带来极大的便利。他认为未来的趋势是 AI 深刻理解你的工作与生活边界,自动判断什么该分享,什么该保密。

写在最后

Sam Altman 最后向开发者们承诺:OpenAI 正在全力以赴。请假设他们终将交付一个比现在强 100 倍、快 100 倍、便宜 100 倍、且拥有完美工具调用能力的模型。

对于开发者而言,现在要做的不是去赌模型做不到什么,而是去赌如果模型真的变得像神一样强,你能用它创造什么?