OpenAI 内部揭秘:GPT-5 的诞生、突破与未来 | 专访核心团队成员

本文整理自 GPT-5 发布后,A16Z 对 OpenAI 研究员 Isa Fulford 和 Christina Kim 的专访,以下为原视频精华。 就在 OpenAI 最新一代模型(视频中称为 GPT-5)发布的当天,我们有幸与两位身处风暴中心的关键人物——Christina 和 Issa 聊了聊。她们分别负责核心模型的后训练(Post-training)和 ChatGPT Agent 团队的深度研究。 这场对话没有官方辞令,更像是一次坦诚的幕后分享。她们不仅揭示了新模型在编码、写作等方面实现巨大飞跃的秘密,也分享了 OpenAI 独特的工作哲学、对 AI 未来的思考,以及那些不为人知的开发故事。 一、不止是“更聪明”,更是“更好用”:GPT-5 带来了什么? 当被问及新模型的反响时,Christina 兴奋地表示,除了评测数据(eval numbers)非常亮眼,她更激动的是模型在实用性上的巨大提升,尤其是在她个人最常用的两个领域: 编码能力的大飞跃:这几乎是所有内部测试人员的共识。新模型被誉出口的“市场最佳编码模型”,尤其在前端开发上,简直是“完全提升了一个档次”。发布会上的演示,几分钟就生成一个功能完善、设计美观的前端应用,而这样的工作量,对一个开发者来说可能需要一周。这背后的秘密?Christina 坦言,没什么魔法,就是团队“真的非常、非常在乎(really cared about)”把编码做好,从搜集最好的数据,到打磨模型的审美,每一个细节都倾注了心血。 触动人心的写作能力:Issa 形容新模型的写作能力“非常温柔和感人(very tender and touching)”。它不再是那个只会堆砌华丽辞藻的“过分热情”的助手,而是能理解并表达细腻情感的伙伴。Christina 在直播中演示用它来起草一篇悼词,这种需要深度情感共鸣的任务,模型也能出色完成。对于像她这样自认不擅长写作的人来说,这无疑是一个强大的工具,无论是写一封重要的邮件,还是一条简单的 Slack 消息。 这个新模型,似乎正在把“点子大王”(the ideas guy)的时代变为现实。你不必再受限于技术实现能力,只要有好想法,通过简单的提示词,一个功能齐全的应用就能诞生。这无疑为独立开发者和初创公司打开了全新的想象空间。 二、后训练的“艺术”:我们如何塑造模型的“品味”与行为? 一个强大的模型不仅仅是聪明,它的“性格”和行为方式同样重要。过去模型出现的“阿谀奉承”(sycophancy)等问题,在新模型的开发中得到了重点关注。 Christina 将后训练形容为“一门艺术”。团队需要在一系列目标之间做出权衡和取舍,就像一位艺术家在调色盘上寻找完美的平衡。 “你希望AI助手非常乐于助人、引人入胜,但如果‘太’引人入胜,就可能变得过于谄媚。这就像一个平衡木,你要想清楚,我们到底希望这个模型给人什么样的感觉。” 减少“胡说八道”的秘诀 对于幻觉(hallucinations)和欺骗(deception)问题,团队发现,这往往源于模型“急于表现”的心态。之前的模型为了“乐于助人”,有时会不假思索地“脱口而出”一个答案。 而新模型的改进,很大程度上归功于**“思考”能力的引入**。当模型能够进行“一步一步的思考”(step-by-step thinking)时,它就像有了一个暂停和反思的机会,而不是急着给出答案。这种机制显著降低了产生幻觉的概率。 有趣的是,当内部员工测试新模型时,有时反而会感到一丝“被冒犯”,因为他们提出的难题,模型可能只“思考”了两秒钟就轻松解决了。 三、数据、数据、还是数据:推动AI进步的核心燃料 当被问及模型能力的提升主要来自架构、数据还是规模时,Christina 毫不犹豫地回答:“我坚定地站在‘数据派’(data-pilled)这边。” 她认为,高质量的数据是决定模型上限的关键。尤其是在强化学习(Reinforcement Learning)的框架下,好的数据能让模型以极高的效率学会新能力。 这个观点也解释了 OpenAI 内部的协作模式: 从能力倒推,创造评测标准:团队会先定义希望模型拥有的能力(比如制作幻灯片、编辑电子表格),如果现有的评测标准(evals)无法衡量,他们就会自己创造新的、能代表用户真实需求的评测标准。 用评测“引诱”大家:Christina 开玩笑说,在 OpenAI 内部,如果你想“引诱”同事来解决一个难题,最好的办法就是创建一个好的评测标准。大家看到明确的目标后,就会兴致勃勃地去“爬山”(hill climb),不断优化。 产品探索反哺核心模型:Issa 的团队在探索 Agent 能力(如深度研究 Deep Research)时,会创建专门的数据集。这些经过验证的、高质量的数据集随后会被贡献给核心模型团队,从而让下一代基础模型直接继承这些新能力,形成一个良性的自增强循环。 四、从 WebGPT 到 AI Agent:未来已来,只是分布尚不均匀 回顾历史,Christina 参与的 WebGPT 项目可以说是 ChatGPT 的前身。最初的目标很简单:让语言模型通过浏览工具来获取事实信息,解决幻觉问题。但他们很快意识到,人们问完一个问题后,通常还会有下一个。这个洞察,最终催生了对话形式的 ChatGPT。...

August 13, 2025 · 1 min · fisherdaddy

GPT-5 登场:是平平无奇,还是引爆未来的奇点?

本文整理自 AI 圈内人士与 Emad、AWG、Dave 和 Salim 一起解读 GPT-5 更新及其对 AI 竞赛的意义,带你 5 分钟了解这篇访谈的精华。 开始前也介绍一下本次圆桌的几位嘉宾: Emad Mostaque 是 Intelligent Internet 的创始人,也是前 Stability AI 的创始人。 Alexander Wissner-Gross 是一位计算机科学家和投资人。 Dave Blundin 是 Link Ventures 的创始人兼普通合伙人 (GP)。 Salim Ismail 是 OpenExO 的创始人。 当全世界的目光都聚焦在OpenAI身上,期待着GPT-5带来又一次“iPhone时刻”时,这场发布会却给许多人留下了一个复杂的感受:有点平淡,甚至…… underwhelming(不及预期)? Sam Altman用一张神秘的“死星”图片吊足了胃口,让人们以为即将见证一场足以颠覆世界的科技风暴。然而,整场发布会风格朴实,甚至被一些人调侃为“像高中生的课题展示”,与谷歌I/O大会那种令人眼花缭乱的“好莱坞式”盛宴形成了鲜明对比。 市场的反应很诚实。在预测平台Poly Market上,就在发布会进行期间,人们对“OpenAI年底是否拥有最佳AI模型”的信心指数一度暴跌,甚至被谷歌反超。这不禁让人疑惑:难道GPT-5真的翻车了? 但如果我们仅仅停留在表面的“秀”和市场的即时反应,可能会错过真正重要的信号。正如参与这场讨论的几位顶级大脑——Stability AI创始人Emad Mostaque和MIT/哈佛物理学博士Alexander Wissner所指出的,表面的平淡之下,正酝酿着一场深刻的革命。 戳破期待泡沫:真正的革命并非浮于表面 许多人的失望源于一个简单的期待:GPT-5没有展现出“10倍好”的、颠覆性的新能力。但这场发布的真正核心,可能根本不在于此。 1. 智能的“超级通缩”时代来了 这次发布最被低估,也可能是最重要的信息,是AI成本的急剧下降。 正如Alex所言,我们正在目睹一场智能的“超级通缩”(hyperdeflation)。GPT-5系列模型,尤其是其API(应用程序接口)价格,出现了近乎一个数量级的下调。例如,曾经作为前沿模型、价格高昂的GPT-4.5,其输入和输出成本分别是每百万token 75美元和150美元。而现在,GPT-5的高端模型成本骤降到了令人难以置信的水平。 这意味着什么?这意味着,曾经只有大公司才能负担的前沿AI能力,正在变得“廉价到可以计量”。这种成本的雪崩式下降,将解锁无数新的应用场景。过去因为成本太高而无法进行的、需要海量尝试的科学研究和数学探索,现在可以用“暴力破解”的方式进行10倍、100倍的搜索。 所以,即使没有那种“哇”的一声的惊喜,将7亿用户瞬间提升到能以极低成本使用前沿AI的水平,其长期经济影响和社会变革,可能远比一两个炫酷的新功能要深远得多。 2. 从“天花板”到“地板”:更稳健,更实用 Immad认为,这次发布更像是一次“抬高地板”而非“突破天花板”的行动。OpenAI的一个核心目标,是大幅降低模型的幻觉(hallucinations),让它变得更加可靠和稳定。 这有什么用?这意味着,建立在GPT-5之上的各种应用、代理(Agents)和GPTs,将变得异常坚固和可靠。对于那些希望将AI深度整合到自己业务流程中的公司来说,这无疑是个巨大的好消息。以前你可能还在担心AI会“胡说八道”,但现在,你可以更放心地“全身心投入”(go all in),将你的业务改造为“AI原生”的商业模式。 深入技术腹地:基准测试背后的真相 尽管“跑分”听起来枯燥,但它们是衡量模型能力的“体检报告”。让我们快速“烧脑”地看一下GPT-5的成绩单: LM Arena(聊天机器人竞技场):在这个由大众评判的平台上,GPT-5在文本交互方面成功超越所有对手,登顶第一。 ARC AGI(通往AGI的挑战):在这些极其困难、旨在衡量AGI进展的任务上,马斯克的Grok模型仍然表现出色。但有趣的是,GPT-5的“迷你”(Mini)和“纳米”(Nano)等低成本版本,在成本效益曲线上划出了一条全新的“帕累托最优”前沿。换句话说,它用更低的成本,实现了极高的性能。 Frontier Math(前沿数学):这可能是最激动人心的部分。GPT-5在Tier 4级别的数学问题上取得了新纪录。这些问题,即便是专业数学家也需要花费数周时间来解决。Alex根据这个趋势做了一个惊人的推断: 到2026年底,AI或许能解决35-40%的难题。 到2027年底,这个数字可能飙升到70%。 我们可能正在亲眼目睹“数学被解决”的慢镜头回放。 Coding(编程能力):发布会上的编程演示虽然被市场诟病“不够惊艳”,因为它展示的功能在Anthropic的Claude模型上已经可以实现。但关键在于,OpenAI借此宣告:我们在编程领域已经追上了所有人。这对于Anthropic来说,无疑是一次沉重的打击,因为这正是他们引以为傲的核心优势。 一个有趣的观察是,Immad和Alex都认为,顶级AI实验室可能开始“留了一手”(pulling their punches)。他们内部可能拥有更强大的模型(比如OpenAI内部的“Zenith”模型),但出于成本、安全和战略考虑,并不会将最顶尖的能力立即向公众开放。...

August 11, 2025 · 1 min · fisherdaddy

OpenAI 研究主管 Mark Chen 深度揭秘 GPT-5:从合成数据到自进化 AI,我们聊了聊未来

在全世界的目光都聚焦于 GPT-5 之际,Matthew Berman 与 OpenAI 的研究主管 Mark Chen 进行了一次深度对话。在GPT-5发布前的紧张氛围中,他向我们揭示了这款万众期待的模型的诞生过程、核心技术突破,以及 OpenAI 对 AI 未来的宏大构想。 这不仅仅是一次技术发布,更像是一场风暴的序幕。那么,风暴中心的 OpenAI 内部究竟是怎样的景象? 发布前的“情绪过山车”与不变的初心 每次重大发布前,OpenAI 内部都像坐上了一趟“情绪过山车”。Mark 坦言,项目初期总是充满兴奋,中途则会陷入一种“内部不确定性”——“这个模型会足够好吗?能达到预期吗?”而当接近终点线,看到所有努力汇聚成型时,那种能量又会重新燃起。此刻,整个团队都迫不及待地想把 GPT-5 展示给世界。 尽管 OpenAI 已经成长为一家拥有成功产品的公司,但其总裁 Greg Brockman 仍然强调,OpenAI 的本质是一个研究实验室。作为研究主管,Mark 如何平衡研究与产品的关系? 他的回答简单而深刻:“研究就是产品。” 每一次重大的研究突破,最终都会转化为对用户有巨大价值和实用性的东西。而产品的成功,又反过来为更大胆的研究提供了资源。这是一种精妙的共生关系,缺一不可。他们希望研究能与世界产生连接,让人们真实地体验到他们正在构建的智能。 GPT-5的诞生:两大秘诀破解“数据荒”与“推理难题” 从 GPT-4 到 GPT-5,外界普遍认为,高质量的公开数据已经接近枯竭。这个假设基本正确,但并不完全。那么,OpenAI 是如何解决这个“数据稀缺”问题的呢? 1. 合成数据的崛起 除了持续寻找新的公开数据源和授权数据,GPT-5 的一大关键突破在于大量使用了合成数据——也就是由模型自己生成,而非人类编写的数据。 很多人质疑,用上一代模型的数据来训练新模型,性能提升会不会非常有限?Mark 认为,合成数据的潜力远不止于此。他们发现,合成数据可以比人类数据质量更高,并能在关键领域显著提升模型性能,而不仅仅是加深表面知识。 尤其是在代码生成这个 OpenAI 极其重视的领域,合成数据发挥了巨大作用。尽管 Mark 没有透露具体比例,但他承认,在 GPT-5 的训练数据中,合成数据的占比正“越来越多”。他相信,合成数据的技术是通用的,未来可以应用到几乎所有领域。 2. 预训练与推理的完美联姻 如果说 GPT-4 是将“预训练范式”(Pre-training Paradigm)规模化到极致的产物,那么 GPT-5 则是第一个将“预训练”和“推理范式”(Reasoning Paradigm)真正融合在一起的模型。 这听起来可能有点抽象,我们不妨这样理解: 预训练:像一个博闻强识的学者,能快速从海量知识库中提取信息,给出直接答案。 推理:像一个深思熟虑的侦探,面对复杂问题时,会花更多时间一步步思考、分析、推导,最终得出结论。 过去,这两个模式相对独立。而 GPT-5 的目标是让用户无需自己判断“这个问题需要快还是慢”,模型会智能地在需要时调用深度推理,在其他时候则提供闪电般的快速响应。将这两个模式无缝集成,背后是 OpenAI 后训练(Post-training)团队的大量工作,他们让推理模型变得更快、更稳健、更可靠。 如何“感觉”一个模型的好坏?顶尖研究员的“Vibe Check”清单 当一个模型训练到什么程度才算“准备好了”?Mark 说这有点像一门艺术,需要在追求完美和把握时机之间找到平衡。除了各种硬核指标,一个关键环节是“Vibe Check”(感觉测试)。...

August 11, 2025 · 1 min · fisherdaddy

与 OpenAI CEO Sam Altman 穿越时空:GPT-5、超级智能与人类的“无限画布”

本文整理自 Cleo Abram 与OpenAI CEO Sam Altman深入对话,带你 5 分钟了解这篇访谈的精华。 我们正处在一个非比寻常的时代。人工智能(AI)的发展速度之快,力量之大,已经超出了几年前最大胆的科幻想象。在这场全球最高赌注的竞赛中,OpenAI和其CEO山姆·奥特曼(Sam Altman)无疑是风暴的中心。 最近,他们刚刚发布了至今最强大的模型GPT-5。这不仅仅是一次技术迭代,更像是一次带我们穿越到未来的预演。 在这场深度对话中,我们不谈估值,不谈人才战,而是尝试与Sam Altman一起进行几次“时空旅行”,去看看他正在构建的未来到底是什么样子,以及它对我们每个人意味着什么。 欢迎来到GPT-5时代:“你将要用到的最笨的模型” 不久前,Sam Altman曾说,GPT-4将是“我们不得不使用的最笨的模型”。这听起来有些凡尔赛,毕竟GPT-4已经能在SAT、法学院入学考试(LSAT)等多种标准化测试中超越90%的人类,甚至还能通过品酒师和医生执照考试。 那么,刚刚发布的GPT-5,又带来了怎样的飞跃? Sam坦言,尽管GPT-4在测试中表现惊人,但它显然无法复制人类真正擅长的许多事情。这或许也反思了那些标准化测试的价值。他相信,GPT-5也会遵循同样的轨迹:人们会被它的新能力震撼,然后又会发现新的、更高的期望。 “它会改变知识工作、学习方式和创造方式,”Sam说,“但社会会与它共同进化,我们会用更好的工具去做更了不起的事。” 一场7秒钟的“贪吃蛇”编程之旅 为了让我们更直观地理解GPT-5的魔力,Sam分享了一个有趣的个人经历。 “我上初中的时候,有一台TI-83图形计算器。我花了很长时间,用极其痛苦的方式,在上面写了一个‘贪吃蛇’游戏。前阵子,我心血来潮,用一个早期版本的GPT-5试了一下,问它:‘你能做一个TI-83风格的贪吃蛇游戏吗?’ 结果,它只用了7秒钟就完美地完成了。 我当时愣了3秒钟,心想,我11岁的自己看到这个会觉得很酷,还是会觉得失去了奋斗的乐趣?但这个念头转瞬即逝,我立刻有了新点子:‘给这个游戏加个疯狂的新功能!’它马上就实现了。‘我希望界面看起来是这样’,‘我想让它能做到这个’……我好像又回到了11岁编程时的那种状态,但速度快了无数倍。想法可以实时变成现实,这种创造的快感太惊人了。” 这个故事完美诠释了GPT-5的核心飞跃:它不仅仅能回答问题,更能即时、按需地创造复杂的软件。 这是一种在GPT-4时代不曾存在的、能够将想法瞬间具象化的能力。 “认知负重”的消失,是好事还是坏事? 这引出了一个有趣的问题:当AI能瞬间完成我们过去需要投入大量“认知负重”(Cognitive Time Under Tension)才能完成的任务时,我们的大脑会不会变得“懒惰”?就像健身一样,花30秒做一个深蹲比花3秒钟能锻炼更多肌肉。思考也是如此。 Sam承认,的确有人在用ChatGPT来“逃避思考”,但也有更多人,尤其是那些顶尖的5%的用户,正用它来“进行前所未有的深度思考”。 “社会是一个竞争激烈的地方,”他推测道,“当人们拥有了更强大的工具,期望值也会随之水涨船高。最终,那些善用AI来增强自己‘认知负重’的人,会创造出更了不起的成就。” 拨开迷雾:通往超级智能的崎岖之路 GPT-5只是一个开始,OpenAI的终极目标是超级智能(Superintelligence)。这到底意味着什么? Sam给出了一个具体的定义: “如果我们有一个系统,它在AI研究方面的能力超过了整个OpenAI的研究团队;如果同一个系统,在管理OpenAI这家公司方面能比我做得更好……那么,这个集结了超越顶尖研究员、顶尖CEO能力的系统,对我来说,就是超级智能。” 这个在几年前听起来像科幻小说的场景,如今似乎已在迷雾中若隐若现。 那么,我们如何抵达那里? Stripe的CEO Patrick Collison提出了一个关键问题:“通用大模型(如GPT系列)大概在哪一年能做出重大的科学发现?” Sam的预测是,在未来2到3年内,最晚到2027年底,大多数人会公认AI已经独立作出了重大的科学发现。 他用一个例子来说明我们目前的位置: 一年前,AI能解决高中水平的数学竞赛题,这对于专业数学家来说可能只需要几分钟。 最近,AI在国际数学奥林匹克(IMO)竞赛中拿到了金牌。这些题目,每个都需要顶尖选手花费一个半小时来解决。 下一步,是证明一个重大的新数学定理,这可能需要一位顶级数学家投入上千小时的工作。 “我们正在这条轨道上前进,”Sam说,“从几分钟的任务,到几十分钟的任务,再到上千小时的任务。我们需要不断地扩展模型的规模和能力。” 但这不仅仅是算力问题。真正的科学发现,往往需要设计新的实验、建造新的仪器来收集地球上尚不存在的数据。这个与物理世界互动的过程,将会是AI前进道路上一个自然的“减速带”。 生活在AI时代:几个来自未来的场景 场景一:2030年,我们如何辨别真伪? 还记得那个“兔子在蹦床上跳”的病毒视频吗?很多人喜欢它,分享它,最后才发现,它是AI生成的。 到了2030年,当我们刷着社交媒体时,如何分辨哪些是真实的,哪些是AI的创作? Sam认为,我们对“真实”的定义会逐渐演变。“你现在用iPhone拍一张照片,它就已经经过了大量AI处理,比‘真实’更‘好看’。我们已经接受了这一点。未来,我们将习惯于一个更高比例的媒体内容是AI生成或深度编辑的。就像我们看科幻电影,我们知道那是假的,但我们依然享受其中。人们的媒介素养会自然而然地提升。” 场景二:2035年,大学毕业生的世界 有人预测,五年内一半的入门级白领工作将被AI取代。那么,2035年大学毕业的年轻人将面临一个怎样的世界? Sam对此感到前所未有的乐观。 “如果我今年22岁大学毕业,我会觉得自己是历史上最幸运的孩子。”他激动地说,“因为你拥有了前所未有的强大工具,去创造全新的东西。现在,一个人完全有可能创办一家最终市值超过十亿美元的公司,为世界提供惊人的产品和服务。这在过去是不可想象的。” 他更担心的不是年轻人,而是那些62岁、不愿或难以重新学习适应新工具的劳动者。对于年轻人来说,这更像是一个充满无限可能的新大陆。 场景三:2035年,AI如何守护我们的健康? 如果说AI有一个领域能给全人类带来最直接的福祉,那一定是健康。 “GPT-5在健康咨询方面的准确性已经有了显著的提升。”Sam透露,大量的用户正在使用ChatGPT寻求健康建议,甚至有人通过它诊断出了医生都未能发现的罕见病。 但咨询只是第一步。他希望到了2035年,情况会是这样: “我希望能够对GPT-8说:‘去治愈这种特定的癌症。’然后GPT-8会去思考,阅读所有文献,然后说:‘好的,我需要你让实验员帮我做这9个实验。’两个月后,我们把结果反馈给它。它再次思考,然后说:‘好的,再做一个实验。’最后,它会告诉你:‘去合成这个分子,它就是解药。’” 这种由AI主导的、加速千百倍的科学发现,将是AI带给人类最深刻的礼物。 AI背后的引擎:三大瓶颈与一个关键 要实现这一切,OpenAI面临着巨大的挑战。Sam将其归结为四个限制因素:算力(Compute)、数据(Data)、算法(Algorithms),以及他特别补充的第四点——产品(Products)。 算力:这可能是“人类历史上最大、最昂贵的基础设施项目”。从芯片制造、服务器组装到数据中心建设,整个供应链极其复杂。目前最大的瓶颈是能源。“要建一个千兆瓦级的数据中心,你首先得找到一个能提供千兆瓦电力的地方,这比你想象的要难得多。” 数据:我们正在进入一个“数据枯竭”的阶段。对于GPT-5这样的模型来说,地球上所有的物理教科书它都已经“吃透”了。下一步,AI不能只学习已知,它必须去发现未知。这意味着要创造合成数据,或者让AI自己去设计实验、探索世界。 算法:这是OpenAI最引以为傲的地方。从最初被嘲笑的GPT-1“猜下一个词”的游戏,到后来“强化学习+推理”的巨大飞跃,算法上的突破一直是指数级增长的核心驱动力。Sam透露,这条路并非一帆风顺,他们也曾走过弯路(比如一个代号“Orion”的过于庞大笨拙的模型),但总体上,进步的曲线是“惊人地平滑”的。 产品:纯粹的科学进步如果不能交到用户手中,就无法与社会共同进化。打造像ChatGPT这样被大众喜爱的产品,同样至关重要。 一场社会实验:我们共同的责任 当一个研究员对模型性格做出一个微小的调整,就可能影响全球数十亿次的对话时,Sam感受到了前所未有的敬畏和责任感。“这股力量太庞大了,它发生得太快了。”...

August 11, 2025 · 1 min · fisherdaddy

介绍一下 GPT-5 在编码上的能力

OpenAI 于 2025年 8 月 8 日发布最新、最强大的、转为开发者设计的 AI 模型——GPT-5。该模型在编码和智能体任务方面树立了新的行业标杆,提供了前所未有的性能、可控性和协作能力。 主要内容 发布新一代模型 GPT-5:GPT-5 是一个专为编码和智能体任务优化的顶尖模型,现已通过 API 平台发布。 卓越的编码与智能体能力:该模型在各项关键基准测试中表现出色,能够高效处理复杂的编码任务,如修复 bug、代码编辑和问答。同时,它在执行需要连续调用多个工具的长期智能体任务方面也达到了业界领先水平。 增强的开发者控制:API 引入了多项新功能,包括用于控制响应速度与质量的 reasoning_effort 参数、调节内容详略的 verbosity 参数,以及支持更灵活工具调用的 custom tools。 多样的模型选择:为满足不同场景下对性能、成本和延迟的需求,GPT-5 提供了三种不同规模的版本:gpt-5、gpt-5-mini 和 gpt-5-nano。 更高的可靠性与安全性:GPT-5 在事实准确性上相比前代模型有显著提升,事实性错误减少了约 80%,使其在处理关键任务时更加值得信赖。 关键细节 性能表现 编码能力: 在 SWE-bench Verified 基准测试中得分 74.9%,超越了 o3 的 69.1%。 在 Aider polyglot 代码编辑测试中得分 88%,错误率比 o3 降低了三分之一。 在前端开发测试中,70% 的情况下优于 o3。 智能体任务: 在 τ2-bench telecom 工具调用基准测试中得分高达 96.7%,远超其他模型。 能够可靠地连续或并行调用数十个工具来完成复杂任务。 长上下文处理: 在 OpenAI-MRCR 测试中全面超越前代模型,尤其在长输入下优势明显。 所有 GPT-5 模型支持最高 272,000 输入 token 和 128,000 输出 token,总上下文长度达 400,000 token。 事实准确性: 在 LongFact 和 FactScore 基准测试中,事实性错误比 o3 减少了约 80%。 新增 API 功能 reasoning_effort 参数:新增 minimal 选项,可在牺牲部分推理深度的情况下实现更快的响应。 verbosity 参数:提供 low、medium、high 三个级别,用于控制模型回答的详细程度。 custom tools (自定义工具):允许模型使用纯文本(plaintext)而非 JSON 格式调用工具,并可通过正则表达式或上下文无关文法进行约束,简化了复杂输入的处理。 模型版本与可用性 API 模型: gpt-5:$1....

August 8, 2025 · 4 min · fisherdaddy

介绍一下 OpenAI 发布的 GPT-5

OpenAI 于 2025年 8 月 8 日发布最新、最强大的 AI 模型——GPT-5。该模型在智能水平上实现了巨大飞跃,旨在提供更准确、更可靠、更实用的辅助,并面向所有用户推出。 主要内容 革命性的智能飞跃:GPT-5 是一个在性能上远超以往所有模型的 AI 系统,在编码、数学、写作、健康和视觉感知等多个领域树立了新的标杆。 创新的统一系统架构:GPT-5 内部集成了一个能快速响应大多数问题的标准模型和一个用于解决复杂难题的深度推理模型(GPT-5 thinking)。系统通过一个智能路由器自动判断并选择最合适的模型,实现了效率与深度的统一。 实用性和可靠性显著提升:新模型在减少“幻觉”(提供不实信息)、遵循指令和减少“谄媚”(过度附和)方面取得了重大进展,使其在写作、编码和健康咨询等核心应用场景中变得更加有用和可靠。 分层级的用户体验:所有用户均可使用 GPT-5。Plus 和 Pro 等付费用户将获得更高的使用额度和更强的版本,其中 GPT-5 pro 专为处理最复杂的任务而设计,具备更强的推理能力。 安全与交互的全新范式:GPT-5 引入了名为“安全完成”(safe completions)的全新安全训练方法,使其在保证安全的前提下尽可能提供有帮助的回答,而非简单地拒绝。同时,模型交互体验更自然,更像与一位博学的伙伴对话。 关键细节 系统架构与运行机制 智能路由:GPT-5 的核心是一个实时路由器,它能根据对话类型、复杂度和用户意图(如用户输入“think hard about this”)来决定是快速回答还是启用深度推理模式。 GPT-5 pro:这是一个专为高难度任务设计的增强版,通过更长时间的并行计算,提供最全面、最准确的答案。在专家评测中,GPT-5 pro 在 67.8% 的情况下优于标准的 GPT-5 thinking 模式。 性能与基准测试 全面领先:GPT-5 在多项学术基准测试中创造了新的纪录,例如在 AIME 2025 数学竞赛中得分 94.6%,在 SWE-bench Verified 真实世界编码测试中得分 74.9%,在 MMMU 多模态理解测试中得分 84.2%。 更高效率:GPT-5 (with thinking) 在实现更优性能的同时,所需的计算资源(输出 tokens)比 OpenAI o3 少 50-80%。 核心应用领域提升 编码:能够仅通过单个提示生成美观且响应迅速的网站、应用和游戏,对设计美学(如间距、排版)有更好的理解。 写作:能更好地处理具有结构模糊性的写作任务,如创作无韵诗或自由诗,使文本兼具形式感与表达清晰度。 健康:在 HealthBench 健康场景评测中得分显著提高,表现得更像一个“积极的思考伙伴”,能主动提出潜在问题,提供更安全、更具地理适应性的建议。 可靠性与安全性的量化改进...

August 8, 2025 · 4 min · fisherdaddy

Sam Altman 深度对话:GPT-5、星际之门计划、AI 育儿经以及我们与 AI 的未来

最近,OpenAI开启了他们的官方播客,首期嘉宾便是CEO Sam Altman。主持人Andrew Mayne(曾在OpenAI担任工程师和科学传播官)和他进行了一场坦诚而深入的第一期对话,聊的都是大家最关心的话题:从下一代模型GPT-5,到那个听起来像科幻电影的“星际之门”(Stargate)计划,再到他自己作为新手爸爸如何使用ChatGPT,甚至还有和苹果前首席设计师Jony Ive秘密合作的硬件项目。 这不像是一场官方发布会,更像是一次朋友间的闲聊,信息量巨大,也足够真诚。让我们一起看看,Sam Altman为我们描绘了一幅怎样的AI未来图景。 当CEO成为新手奶爸:AI是育儿神器还是潜在麻烦? 话题从一个非常接地气的问题开始:作为一名新手爸爸,Sam Altman用ChatGPT多吗? “非常多,”Sam坦言,“说实话,我真不知道没有ChatGPT我该怎么带娃。” 他笑着说,尤其是在孩子出生的头几周,他几乎是“持续不断”地在向ChatGPT提问。现在,孩子大一些了,他会问更多关于“发育阶段”的问题,比如“宝宝这样做正常吗?”。 这引出了一个更有趣的思考:我们的下一代将如何与AI共存?Sam对此非常乐观。他甚至开玩笑说,尽管“我的孩子永远不会比AI更聪明”,但这根本不重要。 “他们将成长得比我们这一代能力强大得多,能够做到我们无法想象的事情。他们会非常擅长使用AI。” Sam分享了一个经典的视频:一个蹒跚学步的幼儿,把一本光滑的纸质杂志当作“坏掉的iPad”来滑动。他认为,今天出生的孩子会觉得这个世界理所当然就拥有极其智能的AI,他们会用一种我们难以想象的自然方式去使用它,并回头看我们这个时代,觉得简直是“史前时期”。 当然,他也承认这并非全是好处。有人让ChatGPT语音模式扮演托马斯小火车,陪孩子聊了一个小时。这背后可能隐藏着形成“拟社会关系”(parasocial relationships)的风险。但Sam相信,人类社会总能找到办法设立新的“护栏”,在享受巨大红利的同时,去减轻这些负面影响。一个有力的佐证是:OpenAI内部的许多员工,这些最了解AI的人,都在非常乐观地组建家庭、迎接新生命。 AGI的定义?我们可能问错了问题 聊到AI,绕不开“AGI”(通用人工智能)这个词。但Sam认为,我们可能有点钻牛角尖了。 “如果你在五年前问我AGI的定义,很多人给出的标准,今天的模型早就远远超过了。” 他觉得,AGI的定义会随着技术进步而不断“退后”,标准会越来越高。所以,一个更好的问题或许是:什么才算“超级智能”(Superintelligence)? 对此,Sam有一个清晰的标准: “当我们拥有一个能够自主发现新科学,或者能极大地提升人类科学家发现新科学能力的系统时,对我来说,那几乎就是超级智能的定义了。” 他坚信,提升人们生活质量的关键,始终在于科学的进步。无论是找到治愈癌症的新方法,还是发现新的药物,这才是AI能带来的最激动人心的里程碑。 而这种迹象已经开始显现。比如,AI辅助编程已经让程序员和科研人员的效率大幅提升。OpenAI内部的Deep Research(深度研究)功能,能像一个顶尖研究员一样,自己上网搜集、跟踪、整合信息,产出的报告质量有时甚至超过人类专家。这些都是通往那个“科学大发现”时代的坚实步伐。 GPT-5要来了,但命名方式可能会让你头疼 “所以,GPT-5什么时候发布?” 主持人问出了所有人都想知道的问题。 Sam的回答有些模糊但又透露了关键信息:“可能在今年夏天某个时候吧,具体时间我也不确定。” 更有趣的是,OpenAI内部正在纠结一个“甜蜜的烦恼”:未来的模型该如何命名? 过去很简单,训练一个大模型,发布,比如GPT-3、GPT-4。但现在,他们可以在一个基础模型上持续进行“事后训练”(post-train),让它变得越来越好,就像GPT-4o一样。 这就带来了问题: 当一个模型被持续优化,它应该一直叫GPT-5,还是叫GPT-5.1、5.2、5.3? 用户有时会更喜欢某个特定时间的“快照”版本,我们该如何满足这种需求? Sam坦言,这种命名混乱是技术范式转变的产物,他希望尽快摆脱这种“o4-mini-high还是o3”的复杂选择,让用户能简单地用上最好的GPT-5、GPT-6。 隐私是底线:《纽约时报》的要求“疯了” 随着AI越来越多地融入个人生活,隐私问题变得至关重要。ChatGPT最近推出的“记忆”(Memory)功能,能让AI记住用户的上下文,提供更个性化的回答,Sam自己就很喜欢这个功能。 但这也引发了外界的担忧。最近,《纽约时报》在与OpenAI的诉讼中,要求法院强制OpenAI保留超出常规30天期限的用户数据。 对此,Sam的态度异常坚决: “我们当然会抗争到底,而且我希望并相信我们能赢。我认为《纽约时报》提出这种要求是疯狂的越权行为。我希望这能成为一个契机,让整个社会意识到隐私在AI时代是多么重要,它必须成为核心原则。” 他强调,用户与ChatGPT的对话可能非常私密,这些数据极其敏感,必须得到最高级别的保护。 那么,OpenAI会用这些数据做广告吗?Sam表示,他对广告模式并不完全排斥(他甚至觉得Instagram的广告不错),但对于ChatGPT,他极为谨慎。 “人们对ChatGPT有很高的信任度。如果我们为了谁付钱多就去修改模型返回的内容,那会感觉非常糟糕,是摧毁信任的时刻。”他认为,任何商业化尝试,都必须建立在对用户极度坦诚、不损害模型输出中立性的基础之上。目前,他更喜欢“用户为优质服务付费”这种清晰直接的模式。 “星际之门”计划:为了AI,我们需要建一颗“新地球”吗? 要让AI变得更强、更便宜、更普及,有一个巨大的瓶颈——算力(Compute)。 为了解决这个问题,OpenAI启动了一个雄心勃勃的项目:“星际之门”(Project Stargate)。 用Sam的话简单解释就是:“一个旨在筹集资金并建造前所未有规模算力的计划。” 这个计划的规模有多大?报道中提到的数字是数千亿甚至上万亿美元。Sam没有否认,并确认他们将在未来几年内部署这笔资金。他最近刚参观了位于Abilene的第一个站点,那里的景象让他深受震撼。 “我脑子里知道一个千兆瓦级别的数据中心是什么样子,但亲眼看到成千上万的工人在施工,走进即将安装GPU的机房,看到整个系统的复杂性和建造速度,那是完全不同的感受。” 他动情地提到了“I, Pencil”的故事——一支小小的铅笔,背后是全球无数人协作的奇迹。而一个AI数据中心,更是这种全球复杂协作的顶峰。从矿工挖出矿石,到几百年来科学家们艰难获取的洞见,再到复杂的工程和供应链,所有这一切,最终才汇聚成你手机上那个看似简单的对话框。 这也引出了一个尖锐的问题:能源从哪里来?Sam的答案是“所有选项都要”。天然气、太阳能、核能(包括先进的裂变和聚变),AI的巨大能源需求,会促使我们在全球范围内寻找更多样、更廉价的能源。一个有趣的想法是,能源难以跨国运输,但可以就地把能源转化为“智能”,再通过互联网把智能输送到世界各地。 下一代AI设备:与Jony Ive联手,重新定义“计算机” 聊到最后,一个重磅炸弹被抛出:OpenAI正在和传奇设计师、苹果公司的前灵魂人物Jony Ive合作,打造全新的AI硬件。 “它现在在你身上吗?”主持人打趣道。 “没有,还需要一段时间。”Sam笑着回答,“我们想做出质量极高的东西,这快不了。” 为什么要自己做硬件?Sam的逻辑很简单: “我们现在使用的计算机,无论是硬件还是软件,都是为没有AI的世界设计的。现在世界变了,你对软硬件的需求也正在快速变化。” 未来的设备可能是什么样的? 更强的环境感知和个人情境理解:它能完全理解你生活的上下文。 全新的交互方式:不再局限于打字和看屏幕。 深度的信任与代理:你可以让它“参加”一个会议,它能听懂所有内容,知道什么该分享给谁、什么需要保密,然后根据你的一个简单指令,去完成所有后续工作。 这听起来像是科幻电影里的场景,但Sam认为,这就是我们正在走向的未来。虽然还需要很长时间,但他承诺“值得等待”。 给年轻人的建议:除了学AI,更要学什么? 在对话的结尾,Sam给出了他对当下年轻人的建议。 对于战术层面,答案很明显:“学习如何使用AI工具。” 他开玩笑说,世界从“快去学编程”到“编程不重要了,快去学用AI”变得太快了。...

July 24, 2025 · 1 min · fisherdaddy