OpenAI 的未来蓝图:从超级智能到万亿投资,Sam Altman 的透明宣言
本文是 OpenAI 完成重组后, Sam Altman 和 OpenAI 首席科学家 Jakub Pachocki、OpenAI 联合创始人 Wojciech Zaremba 谈论 OpenAI 的未来的直播,以下是 Sam Altman 对本次直播核心内容的总结: 我们设立了内部目标,即到2026年9月拥有一个在数十万个GPU上运行的自动化AI研究实习生,到2028年3月拥有一个真正的自动化AI研究员。我们可能完全无法实现这个目标,但鉴于其非凡的潜在影响,我们认为对此保持透明符合公众利益。 我们的安全策略依赖于5个层面:价值对齐、目标对齐、可靠性、对抗性鲁棒性和系统安全。思维链的忠实性是我们特别兴奋的一个工具,但它有些脆弱,需要划定一个边界和清晰的抽象。 在产品方面,我们正努力转向一个真正的平台,让基于我们产品构建的个人和公司将捕获大部分价值。今天,人们可以在ChatGPT中使用我们的API和应用程序进行构建;最终,我们希望提供一个能够赋能大型企业的人工智能云。 我们目前已承诺投入约30吉瓦的算力,多年来的总拥有成本约为1.4万亿美元。鉴于我们所看到的模型能力增长和收入增长的前景,我们对此感到坦然。我们希望做得更多——我们希望建立一个AI工厂,能以远低于今天的成本每周制造1吉瓦的新容量——但这将需要对未来的模型、收入以及技术/金融创新有更多信心。 我们的新结构比旧结构简单得多。我们有一个名为OpenAI基金会的非营利组织,它管理着一个名为OpenAI集团的公益公司(PBC)。该基金会最初拥有PBC 26%的股份,但如果PBC表现超级出色,它可以通过认股权证随时间增加持股。PBC可以吸引实现使命所需的资源。 我们的非营利组织和PBC的使命保持不变:确保通用人工智能造福全人类。 该非营利组织最初承诺投入250亿美元用于健康和治愈疾病,以及AI韧性(所有能帮助社会成功过渡到后AGI世界的事物,包括技术安全,也包括经济影响、网络安全等等)。与以前不同,该非营利组织现在有能力相对迅速地实际部署资本。 我们预计到2026年,我们的AI系统或许能够做出一些小型的新发现;到2028年,我们可能看到重大的发现。这是一件非常重要的事情;我们认为科学,以及那些让我们能广泛分享科学成果的机构,是生活质量随时间推移而改善的最重要途径。 原文: “Hello,我是Sam。” 伴随着这句简单的开场白,OpenAI的CEO Sam Altman和他的首席科学家Jakub Pachocki,以前所未有的透明度,向世界揭示了他们关于人工智能未来的宏伟蓝图。这不仅仅是一次常规的更新,更像是一场关于技术、社会和人类未来的坦诚对话。他们分享了内部的研究目标、庞大的基础设施计划,以及一个旨在“确保通用人工智能(AGI)惠及全人类”的全新公司架构。 让我们一起深入这场信息量爆炸的分享会,看看OpenAI到底在谋划些什么。 重新定义AGI:从“神谕”到赋能人类的“工具” 在OpenAI的早期,团队曾想象AGI会像一个高悬于天空的“神谕”,自动为人类创造各种奇迹。但随着研究的深入,他们的看法变得更加清晰和务实。 “我们想创造工具,然后让人们用这些工具去创造未来。” Sam Altman解释道。 这个观点的转变至关重要。未来的AGI不再是一个包办一切的“神”,而是一个强大的赋能者。OpenAI的愿景是为每个人打造一个“个人AGI”(Personal AGI),这个智能体可以随时随地调用各种工具和服务,帮助人们处理工作与个人生活中的大小事务。 想象一下,当AI甚至能够帮助我们发现新的科学知识时,普通人能用它创造出什么?这正是OpenAI所期待的,一个由无数个体用AI工具共同构建的、更加美好的未来。 直面超级智能:一个大胆到令人咋舌的时间表 接下来,首席科学家Jakub Pachocki接过了话筒,分享了更令人震撼的研究进展。他坦言,AGI这个词甚至可能低估了深度学习所带来的变革。 “我们相信,深度学习系统离**超级智能(Superintelligence)**可能不到十年。” 超级智能,即在许多关键领域都比全人类更聪明的系统。这是一个严肃的命题,而OpenAI的整个研究计划,正是围绕着利用这种力量来加速科学发现和技术发展而展开的。 Jakub用一个非常直观的指标来衡量模型的进步:人类完成同样任务所需的时间。 当前模型(如GPT-5):已经能处理需要人类顶尖专家花费约5个小时才能完成的任务,比如在国际信息学奥林匹克竞赛中取得优异成绩。 未来的可能性:模型的“思考时间”(即测试时计算量,Test-Time Compute)还有巨大的提升空间。如果为了攻克科学难题,我们可以让模型动用整个数据中心的算力去“思考”,那会发生什么? 基于这种预期,Open-AI罕见地公开了他们的内部研究时间表(并强调这只是目标,可能会有偏差): 到2026年9月:开发出“AI研究实习生”(AI Research Interns),能够通过大量计算,显著加速研究人员的工作。 到2028年3月:实现一个“全自动AI研究员”(Fully Automated AI Researcher),能够独立完成大型研究项目。 这听起来像是科幻电影,但它正是OpenAI正在全力冲刺的方向。 安全的基石:五层防御与“思想链忠诚度” 拥有如此强大的力量,安全自然是重中之重。Jakub详细介绍了OpenAI的五层安全框架,从模型内部到外部系统,层层递进: 价值对齐 (Value Alignment):最核心也最困难的一环。它要确保AI从根本上“关心”人类的福祉,当面对模糊或冲突的指令时,能遵循高层原则。简单说,就是“AI爱人类吗?” 目标对齐 (Goal Alignment):确保AI能正确理解并遵循人类的指令。 可靠性 (Reliability):AI能正确评估自己的能力,在简单任务上保持可靠,在困难任务上表达不确定性。 对抗性鲁棒性 (Adversarial Robustness):系统能抵御来自人类或AI的恶意攻击。 系统性安全 (Systemic Safety):不依赖于AI自身智能或对齐性的外部保障,例如数据访问权限、物理设备控制等。 在这些层面中,Jakub特别深入地讲解了一个前沿且充满希望的技术方向:思想链忠诚度 (Chain-of-Thought Faithfulness)。...