最近,OpenAI开启了他们的官方播客,首期嘉宾便是CEO Sam Altman。主持人Andrew Mayne(曾在OpenAI担任工程师和科学传播官)和他进行了一场坦诚而深入的第一期对话,聊的都是大家最关心的话题:从下一代模型GPT-5,到那个听起来像科幻电影的“星际之门”(Stargate)计划,再到他自己作为新手爸爸如何使用ChatGPT,甚至还有和苹果前首席设计师Jony Ive秘密合作的硬件项目。

这不像是一场官方发布会,更像是一次朋友间的闲聊,信息量巨大,也足够真诚。让我们一起看看,Sam Altman为我们描绘了一幅怎样的AI未来图景。

当CEO成为新手奶爸:AI是育儿神器还是潜在麻烦?

话题从一个非常接地气的问题开始:作为一名新手爸爸,Sam Altman用ChatGPT多吗?

“非常多,”Sam坦言,“说实话,我真不知道没有ChatGPT我该怎么带娃。”

他笑着说,尤其是在孩子出生的头几周,他几乎是“持续不断”地在向ChatGPT提问。现在,孩子大一些了,他会问更多关于“发育阶段”的问题,比如“宝宝这样做正常吗?”。

这引出了一个更有趣的思考:我们的下一代将如何与AI共存?Sam对此非常乐观。他甚至开玩笑说,尽管“我的孩子永远不会比AI更聪明”,但这根本不重要。

“他们将成长得比我们这一代能力强大得多,能够做到我们无法想象的事情。他们会非常擅长使用AI。”

Sam分享了一个经典的视频:一个蹒跚学步的幼儿,把一本光滑的纸质杂志当作“坏掉的iPad”来滑动。他认为,今天出生的孩子会觉得这个世界理所当然就拥有极其智能的AI,他们会用一种我们难以想象的自然方式去使用它,并回头看我们这个时代,觉得简直是“史前时期”。

当然,他也承认这并非全是好处。有人让ChatGPT语音模式扮演托马斯小火车,陪孩子聊了一个小时。这背后可能隐藏着形成“拟社会关系”(parasocial relationships)的风险。但Sam相信,人类社会总能找到办法设立新的“护栏”,在享受巨大红利的同时,去减轻这些负面影响。一个有力的佐证是:OpenAI内部的许多员工,这些最了解AI的人,都在非常乐观地组建家庭、迎接新生命。

AGI的定义?我们可能问错了问题

聊到AI,绕不开“AGI”(通用人工智能)这个词。但Sam认为,我们可能有点钻牛角尖了。

“如果你在五年前问我AGI的定义,很多人给出的标准,今天的模型早就远远超过了。”

他觉得,AGI的定义会随着技术进步而不断“退后”,标准会越来越高。所以,一个更好的问题或许是:什么才算“超级智能”(Superintelligence)?

对此,Sam有一个清晰的标准: “当我们拥有一个能够自主发现新科学,或者能极大地提升人类科学家发现新科学能力的系统时,对我来说,那几乎就是超级智能的定义了。”

他坚信,提升人们生活质量的关键,始终在于科学的进步。无论是找到治愈癌症的新方法,还是发现新的药物,这才是AI能带来的最激动人心的里程碑。

而这种迹象已经开始显现。比如,AI辅助编程已经让程序员和科研人员的效率大幅提升。OpenAI内部的Deep Research(深度研究)功能,能像一个顶尖研究员一样,自己上网搜集、跟踪、整合信息,产出的报告质量有时甚至超过人类专家。这些都是通往那个“科学大发现”时代的坚实步伐。

GPT-5要来了,但命名方式可能会让你头疼

“所以,GPT-5什么时候发布?” 主持人问出了所有人都想知道的问题。

Sam的回答有些模糊但又透露了关键信息:“可能在今年夏天某个时候吧,具体时间我也不确定。”

更有趣的是,OpenAI内部正在纠结一个“甜蜜的烦恼”:未来的模型该如何命名?

过去很简单,训练一个大模型,发布,比如GPT-3、GPT-4。但现在,他们可以在一个基础模型上持续进行“事后训练”(post-train),让它变得越来越好,就像GPT-4o一样。

这就带来了问题:

  • 当一个模型被持续优化,它应该一直叫GPT-5,还是叫GPT-5.1、5.2、5.3?
  • 用户有时会更喜欢某个特定时间的“快照”版本,我们该如何满足这种需求?

Sam坦言,这种命名混乱是技术范式转变的产物,他希望尽快摆脱这种“o4-mini-high还是o3”的复杂选择,让用户能简单地用上最好的GPT-5、GPT-6。

隐私是底线:《纽约时报》的要求“疯了”

随着AI越来越多地融入个人生活,隐私问题变得至关重要。ChatGPT最近推出的“记忆”(Memory)功能,能让AI记住用户的上下文,提供更个性化的回答,Sam自己就很喜欢这个功能。

但这也引发了外界的担忧。最近,《纽约时报》在与OpenAI的诉讼中,要求法院强制OpenAI保留超出常规30天期限的用户数据。

对此,Sam的态度异常坚决:

“我们当然会抗争到底,而且我希望并相信我们能赢。我认为《纽约时报》提出这种要求是疯狂的越权行为。我希望这能成为一个契机,让整个社会意识到隐私在AI时代是多么重要,它必须成为核心原则。”

他强调,用户与ChatGPT的对话可能非常私密,这些数据极其敏感,必须得到最高级别的保护。

那么,OpenAI会用这些数据做广告吗?Sam表示,他对广告模式并不完全排斥(他甚至觉得Instagram的广告不错),但对于ChatGPT,他极为谨慎。

“人们对ChatGPT有很高的信任度。如果我们为了谁付钱多就去修改模型返回的内容,那会感觉非常糟糕,是摧毁信任的时刻。”他认为,任何商业化尝试,都必须建立在对用户极度坦诚、不损害模型输出中立性的基础之上。目前,他更喜欢“用户为优质服务付费”这种清晰直接的模式。

“星际之门”计划:为了AI,我们需要建一颗“新地球”吗?

要让AI变得更强、更便宜、更普及,有一个巨大的瓶颈——算力(Compute)

为了解决这个问题,OpenAI启动了一个雄心勃勃的项目:“星际之门”(Project Stargate)

用Sam的话简单解释就是:“一个旨在筹集资金并建造前所未有规模算力的计划。

这个计划的规模有多大?报道中提到的数字是数千亿甚至上万亿美元。Sam没有否认,并确认他们将在未来几年内部署这笔资金。他最近刚参观了位于Abilene的第一个站点,那里的景象让他深受震撼。

“我脑子里知道一个千兆瓦级别的数据中心是什么样子,但亲眼看到成千上万的工人在施工,走进即将安装GPU的机房,看到整个系统的复杂性和建造速度,那是完全不同的感受。”

他动情地提到了“I, Pencil”的故事——一支小小的铅笔,背后是全球无数人协作的奇迹。而一个AI数据中心,更是这种全球复杂协作的顶峰。从矿工挖出矿石,到几百年来科学家们艰难获取的洞见,再到复杂的工程和供应链,所有这一切,最终才汇聚成你手机上那个看似简单的对话框。

这也引出了一个尖锐的问题:能源从哪里来?Sam的答案是“所有选项都要”。天然气、太阳能、核能(包括先进的裂变和聚变),AI的巨大能源需求,会促使我们在全球范围内寻找更多样、更廉价的能源。一个有趣的想法是,能源难以跨国运输,但可以就地把能源转化为“智能”,再通过互联网把智能输送到世界各地。

下一代AI设备:与Jony Ive联手,重新定义“计算机”

聊到最后,一个重磅炸弹被抛出:OpenAI正在和传奇设计师、苹果公司的前灵魂人物Jony Ive合作,打造全新的AI硬件。

“它现在在你身上吗?”主持人打趣道。 “没有,还需要一段时间。”Sam笑着回答,“我们想做出质量极高的东西,这快不了。”

为什么要自己做硬件?Sam的逻辑很简单:

“我们现在使用的计算机,无论是硬件还是软件,都是为没有AI的世界设计的。现在世界变了,你对软硬件的需求也正在快速变化。”

未来的设备可能是什么样的?

  • 更强的环境感知和个人情境理解:它能完全理解你生活的上下文。
  • 全新的交互方式:不再局限于打字和看屏幕。
  • 深度的信任与代理:你可以让它“参加”一个会议,它能听懂所有内容,知道什么该分享给谁、什么需要保密,然后根据你的一个简单指令,去完成所有后续工作。

这听起来像是科幻电影里的场景,但Sam认为,这就是我们正在走向的未来。虽然还需要很长时间,但他承诺“值得等待”。

给年轻人的建议:除了学AI,更要学什么?

在对话的结尾,Sam给出了他对当下年轻人的建议。

对于战术层面,答案很明显:“学习如何使用AI工具。” 他开玩笑说,世界从“快去学编程”到“编程不重要了,快去学用AI”变得太快了。

但更重要的是战略层面,那些不会被轻易取代的“软技能”:

  • 韧性(Resilience)
  • 适应性(Adaptability)
  • 创造力(Creativity)
  • 洞察他人需求的能力

他相信,这些能力虽然不像学软件那么直接,但同样是可以后天习得的,并且会在未来几十年带来巨大的回报。

这场对话,让我们看到了一个不只关心技术,更在深入思考技术与人类社会关系的Sam Altman。他乐观,但也清醒;他野心勃勃,但也深知责任重大。AI的浪潮已经扑面而来,而像OpenAI这样的掌舵者,他们的每一次思考和决策,都可能定义我们未来的生活方式。