本文是 OpenAI 完成重组后, Sam Altman 和 OpenAI 首席科学家 Jakub Pachocki、OpenAI 联合创始人 Wojciech Zaremba 谈论 OpenAI 的未来的直播,以下是 Sam Altman 对本次直播核心内容的总结:
我们设立了内部目标,即到2026年9月拥有一个在数十万个GPU上运行的自动化AI研究实习生,到2028年3月拥有一个真正的自动化AI研究员。我们可能完全无法实现这个目标,但鉴于其非凡的潜在影响,我们认为对此保持透明符合公众利益。
我们的安全策略依赖于5个层面:价值对齐、目标对齐、可靠性、对抗性鲁棒性和系统安全。思维链的忠实性是我们特别兴奋的一个工具,但它有些脆弱,需要划定一个边界和清晰的抽象。
在产品方面,我们正努力转向一个真正的平台,让基于我们产品构建的个人和公司将捕获大部分价值。今天,人们可以在ChatGPT中使用我们的API和应用程序进行构建;最终,我们希望提供一个能够赋能大型企业的人工智能云。
我们目前已承诺投入约30吉瓦的算力,多年来的总拥有成本约为1.4万亿美元。鉴于我们所看到的模型能力增长和收入增长的前景,我们对此感到坦然。我们希望做得更多——我们希望建立一个AI工厂,能以远低于今天的成本每周制造1吉瓦的新容量——但这将需要对未来的模型、收入以及技术/金融创新有更多信心。
我们的新结构比旧结构简单得多。我们有一个名为OpenAI基金会的非营利组织,它管理着一个名为OpenAI集团的公益公司(PBC)。该基金会最初拥有PBC 26%的股份,但如果PBC表现超级出色,它可以通过认股权证随时间增加持股。PBC可以吸引实现使命所需的资源。
我们的非营利组织和PBC的使命保持不变:确保通用人工智能造福全人类。
该非营利组织最初承诺投入250亿美元用于健康和治愈疾病,以及AI韧性(所有能帮助社会成功过渡到后AGI世界的事物,包括技术安全,也包括经济影响、网络安全等等)。与以前不同,该非营利组织现在有能力相对迅速地实际部署资本。
我们预计到2026年,我们的AI系统或许能够做出一些小型的新发现;到2028年,我们可能看到重大的发现。这是一件非常重要的事情;我们认为科学,以及那些让我们能广泛分享科学成果的机构,是生活质量随时间推移而改善的最重要途径。
原文:
“Hello,我是Sam。”
伴随着这句简单的开场白,OpenAI的CEO Sam Altman和他的首席科学家Jakub Pachocki,以前所未有的透明度,向世界揭示了他们关于人工智能未来的宏伟蓝图。这不仅仅是一次常规的更新,更像是一场关于技术、社会和人类未来的坦诚对话。他们分享了内部的研究目标、庞大的基础设施计划,以及一个旨在“确保通用人工智能(AGI)惠及全人类”的全新公司架构。
让我们一起深入这场信息量爆炸的分享会,看看OpenAI到底在谋划些什么。
重新定义AGI:从“神谕”到赋能人类的“工具”
在OpenAI的早期,团队曾想象AGI会像一个高悬于天空的“神谕”,自动为人类创造各种奇迹。但随着研究的深入,他们的看法变得更加清晰和务实。
“我们想创造工具,然后让人们用这些工具去创造未来。” Sam Altman解释道。
这个观点的转变至关重要。未来的AGI不再是一个包办一切的“神”,而是一个强大的赋能者。OpenAI的愿景是为每个人打造一个“个人AGI”(Personal AGI),这个智能体可以随时随地调用各种工具和服务,帮助人们处理工作与个人生活中的大小事务。
想象一下,当AI甚至能够帮助我们发现新的科学知识时,普通人能用它创造出什么?这正是OpenAI所期待的,一个由无数个体用AI工具共同构建的、更加美好的未来。
直面超级智能:一个大胆到令人咋舌的时间表
接下来,首席科学家Jakub Pachocki接过了话筒,分享了更令人震撼的研究进展。他坦言,AGI这个词甚至可能低估了深度学习所带来的变革。
“我们相信,深度学习系统离**超级智能(Superintelligence)**可能不到十年。”
超级智能,即在许多关键领域都比全人类更聪明的系统。这是一个严肃的命题,而OpenAI的整个研究计划,正是围绕着利用这种力量来加速科学发现和技术发展而展开的。
Jakub用一个非常直观的指标来衡量模型的进步:人类完成同样任务所需的时间。
- 当前模型(如GPT-5):已经能处理需要人类顶尖专家花费约5个小时才能完成的任务,比如在国际信息学奥林匹克竞赛中取得优异成绩。
- 未来的可能性:模型的“思考时间”(即测试时计算量,Test-Time Compute)还有巨大的提升空间。如果为了攻克科学难题,我们可以让模型动用整个数据中心的算力去“思考”,那会发生什么?
基于这种预期,Open-AI罕见地公开了他们的内部研究时间表(并强调这只是目标,可能会有偏差):
- 到2026年9月:开发出“AI研究实习生”(AI Research Interns),能够通过大量计算,显著加速研究人员的工作。
- 到2028年3月:实现一个“全自动AI研究员”(Fully Automated AI Researcher),能够独立完成大型研究项目。
这听起来像是科幻电影,但它正是OpenAI正在全力冲刺的方向。
安全的基石:五层防御与“思想链忠诚度”
拥有如此强大的力量,安全自然是重中之重。Jakub详细介绍了OpenAI的五层安全框架,从模型内部到外部系统,层层递进:
- 价值对齐 (Value Alignment):最核心也最困难的一环。它要确保AI从根本上“关心”人类的福祉,当面对模糊或冲突的指令时,能遵循高层原则。简单说,就是“AI爱人类吗?”
- 目标对齐 (Goal Alignment):确保AI能正确理解并遵循人类的指令。
- 可靠性 (Reliability):AI能正确评估自己的能力,在简单任务上保持可靠,在困难任务上表达不确定性。
- 对抗性鲁棒性 (Adversarial Robustness):系统能抵御来自人类或AI的恶意攻击。
- 系统性安全 (Systemic Safety):不依赖于AI自身智能或对齐性的外部保障,例如数据访问权限、物理设备控制等。
在这些层面中,Jakub特别深入地讲解了一个前沿且充满希望的技术方向:思想链忠诚度 (Chain-of-Thought Faithfulness)。
这个概念有点精妙。它的核心思想是:在训练模型时,刻意不去监督或干涉模型内部的“思考过程”。就像我们不强迫一个孩子必须按某种“正确”的方式思考,而是让他自由推理,我们只看最终结果。这样一来,模型暴露出的“思想链”就更有可能代表其真实的内部逻辑,而不是为了取悦监督者而“表演”出来的。
这为我们提供了一个窥探超级智能“内心世界”的窗口,对解决最核心的“价值对齐”问题至关重要。不过Jakub也强调,这项技术很“脆弱”,需要非常小心地设计,避免其思考过程被外界无意中“污染”。
产品进化论:从聊天机器人到AI云平台
“我们希望OpenAI成为一个人们和企业可以依赖的平台。”Sam说道。
他引用了比尔·盖茨关于平台的定义:当人们在你的平台上创造的价值超过平台本身时,你才真正建立了一个平台。 这正是OpenAI明年的目标。
为了实现这一目标,OpenAI提出了两大平台原则:
- 用户自由 (User Freedom):AI将成为人们生活的基础设施,不同文化、不同需求的人们需要极大的灵活性。Sam坦率地提到了自己之前用“情色文学”(erotica)举例引发的争议,他想表达的重点是,平台需要给予成年用户足够的自由度和控制权,让他们可以根据自己的意愿使用AI(当然,是在合法的边界内)。
- 隐私保护 (Privacy):人们与AI的交流将变得前所未有的私密,如同与医生、律师甚至伴侣对话。因此,除了技术层面的保护,OpenAI呼吁建立类似“AI特权”(AI Privilege)的强有力的政策法规,保护用户数据的私密性。
1.4万亿的豪赌:为AI世界构建基础设施
要实现这一切,算力是基础。Sam Altman首次以惊人的透明度披露了OpenAI的基础设施投入:
- 当前承诺:已投入建设总计超过 30吉瓦 (Gigawatts) 的基础设施,这在未来数年将产生约 1.4万亿美元 的财务承诺。
- 远大抱负:他们的终极目标是建立一个“基础设施工厂”,能够以每周1吉瓦的速度生产算力,并希望将每吉瓦的5年生命周期成本大幅降低到200亿美元。
1.4万亿美元是什么概念?Sam用一段正在德州阿比林建设的“星际之门”(Stargate)数据中心的视频来具象化这个规模:成千上万的工人在现场施工,背后是数百万人的供应链,涉及芯片设计、制造、能源、土地等方方面面。
这是一个需要与AMD、谷歌、微软、英伟达、Oracle、软银等众多伙伴紧密合作的庞大工程,而这,仅仅是个开始。
全新架构:OpenAI基金会与250亿美元的承诺
为了支撑如此宏大的愿景,OpenAI简化并重组了其复杂的公司结构。新的结构清晰明了:
- OpenAI基金会 (OpenAI Foundation):一个非营利组织,作为最高管理机构。
- OpenAI集团 (OpenAI Group):一个公共利益公司(PBC),由基金会控制和治理。
基金会初始将拥有集团约26%的股权(未来可能增加),其目标是成为“有史以来最大的非营利组织”。而基金会的第一个重大项目,就是一项高达 250亿美元 的承诺:
利用AI帮助治愈疾病。
同时,基金会还将推动一个名为“AI韧性”(AI Resilience)的新项目。联合创始人Wojciech Zaremba解释说,这超越了传统的“AI安全”。
- 安全 (Safety) 是预防,比如阻止模型生成制造生物武器的方法。
- 韧性 (Resilience) 是应对,即承认风险无法完全杜绝,我们需要建立一个生态系统(类似网络安全行业),以便在问题(如人为大流行病、大规模失业)发生时,能够快速响应和恢复。
展望未来:当AI加速科学发现
如果这一切都成功了,未来会是什么样子?
- 2026年:AI模型开始做出一些较小的科学发现。
- 2028年:AI模型能做出中等甚至重大的科学发现。
- 2030年以后:……?
Sam用Sora生成的视频展示了科学发展的滚雪球效应。过去200年的科学进步,如果能在AI的帮助下压缩到20年甚至2年内完成,世界的面貌将被彻底改变。
一个数据中心在研究癌症的疗法,另一个在创作前所未有的娱乐内容,旁边的在帮你寻找灵魂伴侣,远处的在设计飞船殖民太空……这幅由AI驱动的未来图景,虽然遥远,但已不再是纯粹的幻想。
从研发超级智能的时间表,到万亿级别的资金投入,再到造福全人类的基金会,OpenAI的这次分享,与其说是一次发布会,不如说是一份面向未来的宣言。它充满了雄心、挑战,也饱含着对技术力量的敬畏和对人类命运的深思。前路漫漫,但方向已然清晰。