OpenAI 联创 Greg Brockman 深度访谈:从数学神童到 AGI 掌舵者,我们该如何构建未来?

在 AI Engineer 大会的舞台上,OpenAI的联合创始人兼总裁Greg Brockman坐下来,进行了一场坦诚而深入的对话。这位AI领域的关键人物,平时低调,却在这次访谈中分享了他非同寻常的个人经历、OpenAI背后的故事,以及对技术未来的深刻洞见。这不仅仅是一次访谈,更像是一次与朋友的促膝长谈,充满了有趣的轶事和宝贵的经验。 从数学梦到代码“魔法”:一个意外的开始 你可能很难想象,这位如今在代码世界里呼风唤雨的大神,最初的梦想其实是成为一名数学家。他着迷于像伽罗瓦和高斯这样的天才,梦想着能在长达数百年的时间尺度上做出贡献。“如果我提出的任何东西在我有生之年就被用上了,”他开玩笑说,“那说明它还不够长远,不够抽象。” 然而,命运的转折点来得有些突然。高中毕业后,他写了一本化学教科书,但朋友告诉他:“没人会出版这个的。你要么自己想办法,要么就建个网站吧。”面对自费出版的高昂成本和繁杂工作,他果断选择了后者。 “于是,我猜我得学学怎么做网站了。” 他就这样一头扎进了W3Schools的PHP教程(在场的很多老程序员都会心地笑了)。他做的第一个小东西是一个表格排序插件。当他点击列标题,表格真的按照他脑海中的设想排序时,他感到了一种前所未有的“魔法”。 “数学的奇妙在于,你深入思考一个问题,用一种晦涩的方式(我们称之为‘证明’)写下来,然后可能只有三个人会关心。但编程不一样,你同样用一种晦涩的方式(我们称之为‘程序’)写下来,可能也只有三个人会读你的代码,但所有人都能享受到它带来的好处。你脑海中的想法变成了现实,实实在在地存在于世界上。那一刻,我意识到,这才是我真正想做的事。” 对百年时间尺度的执念,瞬间被创造的即时快感所取代。他只想去“构建”(build)。 辍学加入Stripe:挑战极限的“24小时奇迹” 正是这种构建的热情和惊人的天赋,让还在上大学的Greg收到了Stripe的冷启动邮件。当时,Stripe还只是一个三個人的“庞大”公司。通过哈佛和MIT的朋友圈推荐,Stripe找到了这位在两所顶级学府都留下过足迹的“双料红人”。 Greg回忆起与Stripe创始人Patrick Collison的第一次见面,那是个风雨交加的夜晚,两人一见如故,彻夜畅聊代码。他立刻感觉到:“这就是我一直想合作的那种人。”于是,他毅然从MIT辍学,飞往了加州。 早期的Stripe远比外界想象的要艰难。一个流传甚广的“都市传说”是Stripe工程师会帮客户上门安装代码,虽然这只发生过寥寥几次,但它背后“客户至上”的精神是真实的。Greg分享了一个更惊心动魄的故事: 当时,Stripe急需从原有的支付后端迁移到富国银行(Wells Fargo),但银行方面表示,技术对接通常需要9个月。对于一家初创公司来说,9个月简直是天方夜谭。 “我们不能等,”Greg说。于是,他们把这次技术对接当成了一次大学里的“期末冲刺”。 24小时内,整个团队像解题一样分工合作:Greg负责实现所有功能,John Collison从上到下写测试脚本,Daryl从下往上验证。 第二天早上,他们与银行的认证人员通话,第一次测试失败了。对方习惯性地说:“好的,那我们下周再聊。” Patrick则像个出色的“拖延大师”,在电话里不停地找话题,为Greg争取宝贵的调试时间。就在那通电话里,他们调试了5轮代码。 虽然最终还是失败了,但对方被他们的执着打动,破例在两小时后给了他们第二次机会。这一次,他们成功了。 “就因为我们没有接受那些所谓的‘常规流程’,”Greg总结道,“我们在短短几个小时内,完成了正常情况下需要六周才能完成的开发工作。” 他认为,这种从第一性原理出发,敢于挑战那些不再适用于当今环境的“无形约束”,是创业和创新的关键所在。 点燃AGI之火:从图灵的“孩童机器”到深度学习的春天 早在2008年,Greg就读了艾伦·图灵1950年的那篇奠基之作《计算机器与智能》。最让他震撼的,不是“图灵测试”本身,而是图灵提出的一个超前构想: “你永远无法为智能写下所有的规则。但如果你能创造一个像人类孩童一样学习的‘孩童机器’(child machine),然后通过奖励和惩罚来教育它,它最终就能通过测试。” 这个想法深深地吸引了他:一台能够自己理解和解决问题,甚至超越人类程序员理解能力的机器。这感觉才是解决人类重大问题的根本之道。然而,当他兴冲冲地去找一位NLP教授时,对方却递给他一堆“语法分析树”(parse trees),这让他感到理想与现实的巨大差距,一度陷入了“绝望之谷”。 直到深度学习的浪潮袭来。 2012年的AlexNet在ImageNet竞赛中一鸣惊人,一个相对通用的学习机器,用卷积神经网络,轻松击败了计算机视觉领域几十年的研究成果。很快,这个“魔法”开始在NLP、机器翻译等各个领域复现,打破了不同学科间的壁垒。 “那一刻,我意识到,这就是图灵所说的那种技术。”Greg说。 他发现,神经网络的核心思想可以追溯到1943年,而那些在“AI寒冬”中被嘲笑为“只会堆砌更大计算机”的研究者,恰恰做对了事情。“是的,”他笑着说,“这正是我们所需要做的。” 所有因素都已具备,现在,只需要去构建。 构建OpenAI:当工程师文化遇上学术研究 在2022年,Greg曾写道:“现在是成为ML工程师的时代。”他坚信,优秀的工程师与优秀的研究员对未来的贡献同等重要。这种“研究与工程并重”的理念,从一开始就根植于OpenAI的文化中。 但他坦言,融合两种文化并不容易。 工程师习惯于清晰的接口(interface),认为只要接口不变,背后的实现可以随意更改。 研究员则不然,因为模型性能的细微下降可能来自系统任何地方的bug,他们必须理解整个系统,接口的抽象在他们看来并不可靠。 这种思维差异曾导致项目停滞不前。最终,他们摸索出了一种合作模式,其核心是Greg所强调的“技术谦逊”(Technical Humility)。 “对于加入OpenAI的工程师,我总会说,你带着宝贵的技能而来,但这和传统的Web创业公司是完全不同的环境。最重要的事情是,带着谦逊的心态,去倾听、去理解,直到你真正明白‘为什么’。在那之后,你再去做出改变,重构架构,改进抽象。” 这种互相尊重、深度融合的伙伴关系,最终成为了OpenAI强大创新能力的基础。 发布幕后:从“心流编程”到AGI时代的开发新范式 1. 疯狂的发布日 无论是ChatGPT还是最新的GPT-4o,OpenAI的每次发布都像一场风暴。ChatGPT在5天内吸引了100万用户,而GPT-4o的图片生成功能更是在5天内吸引了1亿用户。 “我们原本以为ChatGPT需要等到GPT-4发布才能火起来,”Greg透露,“结果我们大大低估了用户们的热情。” 面对远超预期的流量,他们做出了一个艰难但必要的决定:从研究团队那里临时抽调大量算力来支持线上服务。“这相当于抵押了未来,”他说,“但如果你能让用户体验到魔法,这一切都是值得的。” 2. “心流编程”与未来 在GPT-4的发布会上,Greg现场演示了让模型根据一张手绘草图生成网站代码,这个“心流编程”(vibe coding)的时刻让世界第一次直观感受到了AI编程的魔力。(一个有趣的彩蛋是:那张草图是他妻子画的,因为他自己的字迹连AI都识别不了。) 他认为,“心流编程”只是一个开始,它代表着一种赋权。未来,AI编程将朝着更强大的“智能体”(Agentic)方向发展。我们不再只是与AI进行交互式编程,而是可以部署成千上万个AI智能体,像管理同事一样管理它们,让它们在云端自主完成任务。 3. AI如何重塑我们的编码方式? 在Greg看来,Codex等AI编程工具正在深刻地改变我们组织代码的方式。过去,我们的代码库是为人类的优势而设计的;未来,我们需要为模型的优势而设计。 这意味着: 更小的模块化:将代码拆分成更小、功能单一的模块。 完善的测试:编写可以被快速、频繁运行的测试用例。 清晰的文档:让模型能够理解每个模块的作用。 “这听起来就像是优秀的软件工程实践,对吧?”他说,“只是过去我们因为人力成本高而常常“偷懒”。现在,模型会比你多运行成千上万次测试,所以这些‘好习惯’变得前所未有的重要。” 从某种意义上说,我们应该像为初级开发者构建代码库一样,来最大化AI的效能。 4. 迎接AGI时代的开发新范式 NVIDIA创始人黄仁勋(Jensen Huang)也通过视频提出了一个问题:当AGI时代来临,开发者的工作流会发生怎样的变化?...

August 11, 2025 · 1 min · fisherdaddy

ChatGPT 负责人首次揭秘:从黑客松到 10 亿用户,你不知道的疯狂故事和 GPT-5 内幕

本文整理自对ChatGPT 的负责人 Nick Turley 的采访,带你 5 分钟了解这篇访谈的精华。 ChatGPT负责人首次揭秘:那个差点被命名为“与GPT-3.5聊天”的黑客松项目,如何改变了世界? 你可能每天都在用它,但你绝对想不到,那个如今拥有近10亿用户、改变了无数人工作和生活的ChatGPT,诞生之初竟如此“草率”和“偶然”。 它差点就被命名为一个极客味十足的“与GPT-3.5聊天”(Chat with GPT-3.5),它的付费模式源于一次“顶不住了”的服务器崩溃,它的20美元定价来自一份匆忙发在Discord上的问卷…… 最近,一直“藏在幕后”的ChatGPT负责人 Nick Turley 接受了他的首次深度播客访谈,毫无保留地分享了这些令人瞠目结舌的幕后故事。他曾是Dropbox和Instacart的产品负责人,如今,他掌管着可能是人类历史上最举足轻重的产品。 让我们坐好,听听这位“火箭船”上的关键人物,亲口讲述这一切是怎么发生的。 一个没人看好的“黑客松项目”,10天冲刺上线 故事的起点,并不是什么宏大的战略规划。 在GPT-4训练完成之际,OpenAI内部已经有了一个面向开发者的API产品,但团队发现了一个瓶颈:每次模型更新,都会“搞砸”开发者的应用,这让快速迭代和学习变得异常困难。团队迫切需要一个能直接与海量用户互动、收集真实反馈的渠道。 于是,OpenAI搞了一场内部“黑客松”(Hackathon),主题是打造一个“超级助理”(Super Assistant)。大家的热情很高,各种想法冒了出来,比如能帮你开会的“会议机器人”,还有超前时代的“编程工具”。 但一个有趣的问题出现了:无论团队测试哪个具体应用,用户总想用它来干点别的。“这项技术太通用了,” Nick 回忆道,“你给他们一个锤子,他们却想用它来拧螺丝、当尺子、甚至开瓶盖。” 几个月的原型设计后,团队做出了一个关键决定:放弃具体场景,干脆就做一个开放式的聊天界面,看看大家到底想用它来干什么。 这个决定一下,节奏快得惊人。 “我当时就说,‘10天,10天后我们就得把这玩意儿发出去!’” Nick说。 这个最初的团队,简直就是一支“杂牌军”:有来自超算团队、以前写过iOS应用的工程师;有来自研究团队、业余写后端代码的研究员。他们用一个名为SA Server(Super Assistant Server的缩写)的黑客松代码库,在短短10天内,把产品拼凑了出来。 他们给产品起的名字也极其随意,一开始就打算叫“与GPT-3.5聊天”,因为“我们真没觉得它会成为一个成功的产品,它就是一个研究演示品。” 直到上线前一晚,才改成了稍微好一点点的“ChatGPT”。 当时的计划是,赶在圣诞假期前上线,收集点数据,等假期回来就把这个“临时项目”关掉。 然后,Sam Altman发了一条推文。 剩下的,就是历史了。 “最大化加速了吗?” — OpenAI的节奏与心法 ChatGPT的意外爆红,让Nick和团队陷入了从“手忙脚乱”到“难以置信”的循环。但他们很快意识到,速度和执行力,恰恰是他们能抓住这次机会的关键。 Nick将一种理念深深植入了团队文化中,那就是设定团队的“静息心率”(resting heartbeat)——一种快速迭代、持续向前的内在节奏。 在OpenAI内部,有一个流传甚广的梗,它源自Nick经常问的一个问题: “Is it maximally accelerated?” (这个项目被最大化加速了吗?) 这个问题甚至变成了一个粉色的、用Comic Sans字体制作的Slack表情包。每当有人想推动某个项目,或者质疑某个延迟时,就会甩出这个表情。 “我就是想直接跳到重点:‘为什么我们现在不能做?为什么明天不行?’” Nick解释说。这并不是要无脑求快,而是一个强大的思维工具,它能迫使团队分清什么是真正的阻碍,什么是可以绕过的流程。 “在AI领域,你只有把产品发布出去,才能真正理解它的可能性和用户的需求。” Nick强调,“很多东西是无法预先推演的。你必须先开枪,再瞄准。” 当然,这种“最大化加速”的理念并非适用于所有事。在安全问题上,OpenAI采用了完全相反的、极其严谨和审慎的流程。对于像GPT-5这样的前沿模型,团队会投入大量时间进行“红队演练”、外部评估,确保在推向世界前,已经做好了充足的准备。 快与慢的辩证法,构成了OpenAI独特的执行力。在产品开发上追求极致的速度,在安全伦理上保持极致的审慎。 那些改变历史的“偶然”决定 在高速狂奔中,很多当初看似不起眼的临时决策,最终都产生了改变行业格局的影响。 1. 那个20美元的定价,来自一份谷歌问卷 ChatGPT上线初期,由于用户量暴增,服务器频繁宕机,主页上挂着一个AI生成的“道歉诗”。团队急需一种方式来“劝退”一部分需求,同时为真正有需要的用户提供稳定服务。于是,“付费版”的想法诞生了。 但这玩意儿该怎么定价? Nick回忆,当时他急得像热锅上的蚂蚁,给一位定价专家打电话求助,但根本没时间消化那些复杂的建议。情急之下,他做了一件非常“野路子”的事: 他用谷歌表单创建了一份问卷,里面只有4个问题——完全照搬了当时网上流传的“Van Westendorp定价法”,然后把链接甩到了公司的Discord社群里。 第二天早上,一份科技媒体的文章赫然写着:“揭秘!ChatGPT团队用四个天才问题为产品定价!” Nick看到后哭笑不得:“要是他们知道真相就好了。”...

August 11, 2025 · 1 min · fisherdaddy

介绍一下 GPT-5 在编码上的能力

OpenAI 于 2025年 8 月 8 日发布最新、最强大的、转为开发者设计的 AI 模型——GPT-5。该模型在编码和智能体任务方面树立了新的行业标杆,提供了前所未有的性能、可控性和协作能力。 主要内容 发布新一代模型 GPT-5:GPT-5 是一个专为编码和智能体任务优化的顶尖模型,现已通过 API 平台发布。 卓越的编码与智能体能力:该模型在各项关键基准测试中表现出色,能够高效处理复杂的编码任务,如修复 bug、代码编辑和问答。同时,它在执行需要连续调用多个工具的长期智能体任务方面也达到了业界领先水平。 增强的开发者控制:API 引入了多项新功能,包括用于控制响应速度与质量的 reasoning_effort 参数、调节内容详略的 verbosity 参数,以及支持更灵活工具调用的 custom tools。 多样的模型选择:为满足不同场景下对性能、成本和延迟的需求,GPT-5 提供了三种不同规模的版本:gpt-5、gpt-5-mini 和 gpt-5-nano。 更高的可靠性与安全性:GPT-5 在事实准确性上相比前代模型有显著提升,事实性错误减少了约 80%,使其在处理关键任务时更加值得信赖。 关键细节 性能表现 编码能力: 在 SWE-bench Verified 基准测试中得分 74.9%,超越了 o3 的 69.1%。 在 Aider polyglot 代码编辑测试中得分 88%,错误率比 o3 降低了三分之一。 在前端开发测试中,70% 的情况下优于 o3。 智能体任务: 在 τ2-bench telecom 工具调用基准测试中得分高达 96.7%,远超其他模型。 能够可靠地连续或并行调用数十个工具来完成复杂任务。 长上下文处理: 在 OpenAI-MRCR 测试中全面超越前代模型,尤其在长输入下优势明显。 所有 GPT-5 模型支持最高 272,000 输入 token 和 128,000 输出 token,总上下文长度达 400,000 token。 事实准确性: 在 LongFact 和 FactScore 基准测试中,事实性错误比 o3 减少了约 80%。 新增 API 功能 reasoning_effort 参数:新增 minimal 选项,可在牺牲部分推理深度的情况下实现更快的响应。 verbosity 参数:提供 low、medium、high 三个级别,用于控制模型回答的详细程度。 custom tools (自定义工具):允许模型使用纯文本(plaintext)而非 JSON 格式调用工具,并可通过正则表达式或上下文无关文法进行约束,简化了复杂输入的处理。 模型版本与可用性 API 模型: gpt-5:$1....

August 8, 2025 · 4 min · fisherdaddy

介绍一下 OpenAI 发布的 GPT-5

OpenAI 于 2025年 8 月 8 日发布最新、最强大的 AI 模型——GPT-5。该模型在智能水平上实现了巨大飞跃,旨在提供更准确、更可靠、更实用的辅助,并面向所有用户推出。 主要内容 革命性的智能飞跃:GPT-5 是一个在性能上远超以往所有模型的 AI 系统,在编码、数学、写作、健康和视觉感知等多个领域树立了新的标杆。 创新的统一系统架构:GPT-5 内部集成了一个能快速响应大多数问题的标准模型和一个用于解决复杂难题的深度推理模型(GPT-5 thinking)。系统通过一个智能路由器自动判断并选择最合适的模型,实现了效率与深度的统一。 实用性和可靠性显著提升:新模型在减少“幻觉”(提供不实信息)、遵循指令和减少“谄媚”(过度附和)方面取得了重大进展,使其在写作、编码和健康咨询等核心应用场景中变得更加有用和可靠。 分层级的用户体验:所有用户均可使用 GPT-5。Plus 和 Pro 等付费用户将获得更高的使用额度和更强的版本,其中 GPT-5 pro 专为处理最复杂的任务而设计,具备更强的推理能力。 安全与交互的全新范式:GPT-5 引入了名为“安全完成”(safe completions)的全新安全训练方法,使其在保证安全的前提下尽可能提供有帮助的回答,而非简单地拒绝。同时,模型交互体验更自然,更像与一位博学的伙伴对话。 关键细节 系统架构与运行机制 智能路由:GPT-5 的核心是一个实时路由器,它能根据对话类型、复杂度和用户意图(如用户输入“think hard about this”)来决定是快速回答还是启用深度推理模式。 GPT-5 pro:这是一个专为高难度任务设计的增强版,通过更长时间的并行计算,提供最全面、最准确的答案。在专家评测中,GPT-5 pro 在 67.8% 的情况下优于标准的 GPT-5 thinking 模式。 性能与基准测试 全面领先:GPT-5 在多项学术基准测试中创造了新的纪录,例如在 AIME 2025 数学竞赛中得分 94.6%,在 SWE-bench Verified 真实世界编码测试中得分 74.9%,在 MMMU 多模态理解测试中得分 84.2%。 更高效率:GPT-5 (with thinking) 在实现更优性能的同时,所需的计算资源(输出 tokens)比 OpenAI o3 少 50-80%。 核心应用领域提升 编码:能够仅通过单个提示生成美观且响应迅速的网站、应用和游戏,对设计美学(如间距、排版)有更好的理解。 写作:能更好地处理具有结构模糊性的写作任务,如创作无韵诗或自由诗,使文本兼具形式感与表达清晰度。 健康:在 HealthBench 健康场景评测中得分显著提高,表现得更像一个“积极的思考伙伴”,能主动提出潜在问题,提供更安全、更具地理适应性的建议。 可靠性与安全性的量化改进...

August 8, 2025 · 4 min · fisherdaddy

ChatGPT 会让人变笨还是成为终极学习工具?来自 OpenAI 和一线学生的真实声音

本文整理自 OpenAI 教育负责人对 ChatGPT 的深度解读,带你 5 分钟了解这篇访谈的精华。 ChatGPT会让人变笨吗?来自OpenAI和一线学生的真实答案 当ChatGPT横空出世,整个教育界都为之一振。无数的讨论瞬间点燃:这玩意儿会让学生变懒、变笨,甚至让“脑子生锈”吗?它是不是就是个终极作弊工具? 为了搞清楚这些问题,我们不妨听听两种最真实的声音:一个是来自行业内部的顶层设计者——OpenAI的教育负责人Leah Bellski;另一个则来自每天都在使用这些工具的一线学生——Yabi和Alaa。他们的分享,或许能帮我们拨开迷雾,看到一个更清晰的未来。 一个宏大的“登月计划”:为每个人打造AI导师 Leah Bellski在教育领域深耕了15年,曾在世界银行和Coursera致力于让教育普惠全球。当她加入OpenAI时,首席运营官Brad Lightcap给了她一个听起来既疯狂又鼓舞人心的任务——去追逐那个“登月计划”。 这个计划的核心梦想是:AI能极大地提升人类潜能,成为伴随每个人一生的有效导师和伙伴。 这不仅仅是一个产品目标,更是一种愿景。Leah的任务就是要去实现它,并确保这个工具一旦建成,全世界的每一个人都能用上。这个愿景也解释了为什么OpenAI如此看重教育。 如今,拥有6亿用户的ChatGPT,已经可以说是世界上最大的学习平台之一。“学习”是其最核心的用途之一。这不仅限于传统课堂,更延伸到了课堂之外的广阔世界。 AI在全球教育领域的真实足迹 AI教育的浪潮正以前所未有的速度席卷全球。 教师们是早期拥抱者:他们不仅用AI来减轻备课、批改作业等行政负担,还积极地将其带入课堂,探索新的教学方法。 国家级的战略布局:像爱沙尼亚这样教育水平顶尖的国家,率先看到了AI的潜力,希望用它来进一步激发学生潜能、赋能教师。紧随其后的国家络绎不绝,他们不仅希望通过AI提升教育质量,更意识到,要建立一个AI驱动的经济体,就必须培养出懂得使用AI的下一代。这已经不是开设几门AI课程那么简单,而是要让AI融入每一门课,成为学生毕业时必须掌握的核心技能。 从“猫鼠游戏”到建立信任 当然,AI进入校园并非一帆风顺。最初,许多学校的第一反应是“防堵”,推出了各种不靠谱的“AI内容检测器”。这种做法不仅伤害了那些被误判为作弊的学生,也让师生关系从一开始就站错了脚。 Leah坦言,我们最初“走错了路”,把重点放在了监管和限制上,而不是去思考如何重新设计我们的评估方式和作业形式。 更深层次的问题在于信任。现在的大学生是“新冠一代”,他们对在线监控式的教育技术有着天然的警惕。如果学校只是提供一个AI工具,却不明确承诺不会监控学生的对话,学生们是不敢放心使用的。 好在,情况正在好转。越来越多的教育者意识到,单纯的禁止是行不通的。他们开始积极探索如何将AI融入教学,设计出更有挑战性、更能激发创造力的项目。 不只是给答案:“学习模式”的诞生 为了解决“AI只会给答案,让人无法深度学习”的担忧,OpenAI推出了一个名为**“学习模式”(Study Mode)**的新功能。 这个功能的灵感来源于一次印度之行。团队发现,在印度,家庭会在课后辅导上投入巨额开销,年轻人有着极强的学习意愿。这促使他们思考:如何让ChatGPT成为一个比现在更好的导师? “学习模式”就是答案。它彻底改变了交互方式: 它不会直接给你答案,而是像苏格拉底一样,通过反问来引导你思考。 它会个性化定制内容,根据你的知识水平调整难度。 它会鼓励你、追问你,比如“你想不想就这个话题来个小测验?”或者“你想不想再深入聊聊?” 简单来说,它把一个“问答机”变成了一个真正的“学习伙伴”。未来,它甚至可能变得更加主动和多模态,比如在你学习有机化学时弹出交互式图表,或者在几周后提醒你:“嘿,还记得你说要攻克期末考试吗?我们再来复习一下吧?” 这个功能的目标,就是让学生不必成为一个“提示词工程师”,也能自然而然地进入深度学习的状态。 一线学生的声音:从史莱克同人小说到学习利器 理论归理论,学生们的真实体验又是怎样的?我们和来自南加州大学(USC)的Yabi与来自伯克利大学的Alaa聊了聊。 第一次“啊哈!”时刻 每个人的AI初体验都充满了故事感。 Alaa的经历很经典。高三时,他和同学们围在电脑前,抱着试一试的心态,让ChatGPT写一篇关于《杀死一只知更鸟》的论文。当一篇完整的文章瞬间生成时,所有人都被震撼了。他说:“我当然没有交那篇作业,但那一刻真的太酷了。” Yabi的经历则更有趣。她第一次使用ChatGPT,是让它写一篇……史莱克(Shrek)的同人小说。当她把这个“杰作”分享给室友时,大家觉得这事儿挺傻的。但对Yabi来说,这个有点无厘头的尝试让她看到了AI的另一种可能性——它不仅能用于学术,更能融入日常生活的方方面面,成为一个激发创意的工具。 课堂正在如何改变? 两位同学都观察到,教授们正在积极适应AI带来的变化。 从“是什么”到“怎么用”:作业和考试题目正在悄悄改变。过去那种“定义某个术语”的问题越来越少,取而代之的是“如何应用这个概念?”“它在更宏大的背景下意味着什么?”等更侧重于思辨和应用的问题。 分轨制的项目挑战:Alaa的计算机科学教授设计了两种项目路径供学生选择。你可以选择不用AI,完成一个传统的项目;或者使用AI,但必须接受一个更难的挑战,并写一篇反思,说明你是如何利用AI的。这种做法既保证了学生对基础知识的掌握,又鼓励他们利用新工具去挑战更高的高度。 成为AI的主人:高级玩家的提示技巧 和很多人想象的不同,这些深度用户并不是简单地复制粘贴。他们已经摸索出了一套让AI更好地为自己服务的“独门秘籍”。 设定角色(Persona):这是最常用的技巧之一。与其泛泛地提问,不如让AI扮演一个特定角色。比如,Yabi在研究阴谋论时,会让ChatGPT扮演不同政治立场的人,来分析同一个(由AI编造的,关于机场镜子的)阴谋论,从而获得更立体、更多元的视角。Alaa则会要求它扮演“顶级公司的顾问”或“极富创造力的教授”,从而获得更专业或更具启发性的回答。 提供明确的约束和背景:Yabi在做研究时,会先把几篇高质量的学术论文喂给ChatGPT,然后要求它“只能基于这些信息进行总结和分析”,从而保证了输出内容的严谨性。 要求批判性反馈:AI的回答往往过于正面和鼓励。为了得到真实的反馈,Alaa会在自定义指令里写上“不要废话,直接点,对我残酷一点”(No fluff, be brutally honest)。这样,AI就会变成一个严厉的批评家,帮助他发现作品中的真实问题。 AI vs. 社交媒体:主动探索与被动接收 一个有趣的趋势是,这两位学生都表示,他们花在ChatGPT上的时间越来越多,而在社交媒体(尤其是TikTok)上的时间则在减少。 他们认为,社交媒体提供的是一种“被动的内容消费”,你只是在无尽地滑动,接收着算法投喂给你的碎片化信息,这会让人变得“自满和懒惰”。 而使用ChatGPT则是一种主动的、有目的性的探索。你可以明确地提出问题,深入挖掘自己感兴趣的领域,这是一种高质量的信息获取方式。Alaa说:“当我想要学习和探索想法时,我会问ChatGPT,而不是去刷社交媒体。” 年轻人的希望与恐惧 对于未来,他们既充满乐观,也有着清醒的思考。 恐惧什么? Yabi担心“真理的中心化”。如果所有人都依赖同一个信息源,而不去主动寻找和整合不同来源的知识,这可能会形成一个巨大的信息茧房和糟糕的反馈循环。 Alaa则担心人们会因为滥用工具而忽视基础。他认为,教育的核心概念和解决问题的思维方式依然至关重要,如果学生们只想着用AI绕过学习过程,当他们真正进入职场时,会发现自己缺乏真正的竞争力。 希望什么? 他们都预见了一个人机协作的混合式教育未来。AI可以承担起教科书、助教甚至部分讲师的角色,提供标准化的、个性化的知识。而人类教师则会转型为导师(Mentor),更专注于培养学生的社交技能、批判性思维、伦理观念,以及如何更好地与AI协作。 正如Yabi所说:“教学的核心在于人与人的连接。谁教你,如何教你,会深刻地影响你的一生。这种人性的部分是AI无法替代的。”...

August 7, 2025 · 1 min · fisherdaddy

介绍一下 OpenAI 开源的两款 LLLM 模型:gpt-oss-120b 和 gpt-oss-20b

OpenAI 在 2025 年 8 月 5 日最新发布了两个开源权重语言模型:gpt-oss-120b 和 gpt-oss-20b。这两个模型在保持低成本和高效率的同时,提供了顶尖的性能,特别是在推理和工具使用方面,并确立了开源模型安全性的新标准。 主要内容 发布高性能开源模型:OpenAI 发布了 gpt-oss-120b 和 gpt-oss-20b 两款模型,它们采用灵活的 Apache 2.0 许可证,旨在以低成本在消费级硬件上实现高效部署。 强大的推理与工具使用能力:这些模型经过优化,在推理任务上表现出色,性能可与 OpenAI o4-mini 等先进模型媲美,并具备强大的工具使用、少样本函数调用和思维链(CoT)推理能力。 安全是核心:OpenAI 将安全放在首位,通过全面的安全训练、评估以及创新的“最坏情况微调”测试来评估和降低潜在风险,为开源模型树立了新的安全标杆。 推动 AI 民主化与创新:通过开源这些模型,OpenAI 旨在赋能从个人开发者到大型企业的各类用户,在自有基础设施上运行和定制 AI,从而促进全球范围内的 AI 创新、研究和应用,扩大民主化的 AI 发展路径。 关键细节 模型性能与规格 gpt-oss-120b: 性能:在核心推理基准测试中接近 OpenAI o4-mini 的水平。 硬件要求:可在单张 80 GB GPU 上高效运行。 参数:总参数量为 117b,每次推理激活 5.1B 参数。 gpt-oss-20b: 性能:在通用基准测试中表现与 OpenAI o3-mini 相当。 硬件要求:仅需 16 GB 内存,适用于设备端应用和本地推理。 参数:总参数量为 21b,每次推理激活 3.6B 参数。 基准测试表现: 在编程(Codeforces)、数学竞赛(AIME)、健康(HealthBench)和工具调用(TauBench)等多个领域,两款模型均表现优异,甚至在某些方面超越了 GPT-4o 等专有模型。 技术架构与训练 架构:模型基于 Transformer 架构,并采用专家混合(MoE)技术来提高效率。它们还使用了分组多查询注意力(grouped multi-query attention)和旋转位置编码(RoPE),支持高达 128k 的上下文长度。 训练数据:主要使用以 STEM、编程和通用知识为重点的英文文本数据集进行训练。 后训练:采用了与 o4-mini 类似的后训练流程,包括监督微调和高算力强化学习阶段,以对齐 OpenAI Model Spec 并教授模型进行思维链(CoT)推理和工具使用。值得注意的是,模型的 CoT 未经直接监督,以便于研究和监控模型行为。 安全性措施 主动风险评估:OpenAI 通过对模型进行恶意的、针对特定领域(如生物和网络安全)的微调,来模拟攻击者行为并评估潜在风险。结果表明,即使经过恶意微调,模型也未能达到危险的能力水平。 安全训练:在预训练阶段过滤了与化学、生物、放射性和核(CBRN)相关的有害数据;在后训练阶段,通过蓄意对齐等技术教会模型拒绝不安全的提示。 社区参与:发起 50 万美元奖金的“红队挑战赛”(Red Teaming Challenge),鼓励社区共同发现和解决新的安全问题。 可用性与生态系统 获取方式:模型权重在 Hugging Face 上免费提供,并原生支持 MXFP4 量化。 工具与支持:同时开源了 harmony 提示格式渲染器、PyTorch 和 Apple Metal 的参考实现以及示例工具集。 广泛合作:与 Azure、Hugging Face、NVIDIA、AMD 等领先的部署平台和硬件厂商合作,确保模型可以被广泛、便捷地使用。微软还将在 Windows 设备上推出 gpt-oss-20b 的优化版本。 第三方评测 OpenAI gpt-oss 模型独立基准测试:gpt-oss-120b 是最智能的美国开源权重模型,智能程度落后于 DeepSeek R1 和 Qwen3 235B,但具有效率优势。...

August 6, 2025 · 4 min · fisherdaddy

AI 不会抢走你的工作,但它会彻底改变它 —— 来自 OpenAI 高管的内部视角

关于人工智能(AI)和未来工作的讨论铺天盖地,夹杂着兴奋与焦虑。很多人担心自己的工作会被取代,而另一些人则看到了前所未有的机遇。为了拨开迷雾,深入了解这场变革的核心,我们不妨听听来自OpenAI内部的声音。 在这场对话中,OpenAI的首席运营官(COO)Brad Lightcap和首席经济学家Ronnie Chatterjee分享了他们的观察和研究。Brad负责将AI技术推向世界,而Ronnie则研究这些技术对社会和经济的深远影响。他们的视角,一个着眼于“如何部署”,一个着眼于“产生什么影响”,为我们描绘了一幅AI如何真实地重塑我们工作和生活的全景图。 一切始于那个“聊天”的冲动 你可能以为ChatGPT的诞生是一个深思熟虑的宏大计划,但事实并非如此。它的起源,其实来自于一个有趣的观察。 在ChatGPT问世之前,OpenAI主要为开发者提供一个叫做“Playground”的工具。它的功能很简单:你输入一段文字,模型会帮你续写。但Brad和他的团队发现了一个奇怪的现象:用户们总是在想方设法“破解”这个Playground,试图让它像一个真的人一样和自己对话。 “人们似乎天生就渴望一个对话式的界面,”Brad回忆道。这个发现点燃了灵感。团队意识到,人们需要的不是一个冷冰冰的文本补全工具,而是一个能理解指令、能进行交流的伙伴。于是,基于GPT-3.5模型的ChatGPT诞生了。 它的火爆程度超出了所有人的想象,甚至OpenAI自己也感到惊讶。原本大家以为,要等到更强大的GPT-4问世,AI才能真正变得实用。但事实证明,一个友好的对话界面,就足以解锁AI的巨大潜能,让它从一个少数极客的玩具,变成了亿万普通人都能使用的工具。 AI不是“替代”,而是“增强” 当AI的能力变得如此强大时,“它会取代我的工作吗?”成了许多人最关心的问题。尤其是在软件工程领域,当AI能写代码、调试程序时,程序员的未来在哪里? Brad和Ronnie的答案可能会让你松一口气。他们认为,AI的核心角色是赋能和增强,而不是简单的替代。 让专业人士更强大:Brad举例说,像Cursor这样的AI编程工具,目标不是让工程师失业,而是让他们变得“10倍的生产力”。想象一下,一个顶尖的工程师,在AI的协助下,能将原计划明年才能启动的项目,提前到今年完成。 让非专业人士也能创造:更神奇的是,AI同时降低了创造的门槛。一个从未写过一行代码的人,现在可以通过自然语言指挥AI为他构建一个网站或应用。这在过去是不可想象的。 Ronnie从经济学角度补充道:“全世界每天可能会产生几十亿行代码,现在想象一下这个数字乘以十倍,而且代码质量可能更高。我们能创造出多少新东西?这本身就是巨大的经济机遇。” 最关键的一点是,我们对软件、对创新的需求是永无止境的。AI的出现,恰恰解决了长期以来限制世界发展的瓶颈——人才短缺。无论是硅谷的科技巨头,还是街角的夫妻店,几乎所有公司都渴望更多的技术人才来优化流程、创造更好的产品。AI正是来填补这个鸿沟的。 下一个浪潮:科学、金融与教育的变革 如果说软件工程是AI变革的先行者,那么下一波浪潮将席卷哪些领域? 1. 科学研究:打开无数扇未知的大门 Ronnie对此感到非常兴奋。“科学是经济增长的驱动力。”他把科学探索比作一条两边都是门的无尽走廊。过去,科学家资源有限,只能选择打开少数几扇门去探索。而现在,AI可以帮助他们“窥探”每一扇门后的景象,快速判断哪个方向最值得投入精力。 “在药物发现、材料科学等领域,未来几年我们将看到颠覆性的发现。”Brad补充说,AI不仅能帮助科学家在某个环节走得更深,还能打通整个研发流程。从药物设计、实验模拟到临床试验数据分析,AI可以像一条金线,将所有环节串联起来,极大地加速从想法到成果的进程。 2. 专业服务:把精力留给最有价值的事 咨询、投行、金融分析……这些依赖大量信息处理和报告撰写的工作,正是AI大显身手的地方。Ronnie分享说,他现在可以用AI工具在几分钟内生成一份演示文稿的初稿,从而将更多时间用于思考战略、与人沟通等更高价值的工作。 对于专业人士来说,这意味着他们可以从繁琐的重复性劳动中解放出来,专注于那些需要深刻洞见、复杂判断和人际交往的核心任务。 3. 教育:从“知识灌输”到“能力培养” 教育是AI应用增长最快的领域之一,其转变也颇具戏剧性。ChatGPT刚推出时,许多学校如临大敌,纷纷禁用,担心学生用它作弊。 但仅仅一个暑假后,风向就变了。 Brad笑着说:“到了23年秋季开学,我们接到了大量来自教育界的积极反馈。他们说,这可能是这个行业有史以来遇到的最好的事情之一。” 老师们发现,AI是: 一个不知疲倦、极具耐心的私人导师:它可以根据每个学生的学习进度和风格,提供定制化的辅导。对于有阅读障碍等特殊需求的学生,AI的帮助更是不可估量。 一个不带评判的“安全”提问对象:学生可以毫无顾忌地向ChatGPT提问,而不必担心“问题太蠢”被嘲笑。 一个解放老师的工具:老师可以用AI快速设计课程、准备教案,从而有更多时间关注学生本身,培养他们的批判性思维、决策能力和创造力——这些恰恰是AI时代最重要的技能。 OpenAI已经开始与加州州立大学(Cal State University)等教育机构合作,探索如何利用AI帮助那些家庭中第一代上大学的学生更好地适应和成长。 在AI时代,什么能力最值钱? 既然许多认知任务可以被AI完成,那么未来我们人类的核心竞争力是什么?两位高管的答案出奇地一致,并且可能有些反直觉: 1. 驾驭力(Agency)和判断力 AI是一个强大的工具,但它需要一个“指挥官”。Brad将之称为“the return of the idea guy”(创想家的回归)。那些有清晰的目标、知道自己想要什么、并能有效地引导AI去实现这些目标的人,将获得巨大的回报。 他甚至提出了一个大胆的设想:“未来会不会出现只有一两个、五六个员工,却能创造十亿美元收入的公司?”这正是极致驾驭力的体现。 2. 情商(EQ)和人际连接 Ronnie的研究发现,一个有趣的现象是,那些善于领导团队的人,同样也善于“领导”AI智能体(Agents)。当编写代码、分析数据等“硬技能”的门槛被AI降低后,沟通、共情、建立信任等“软技能”的价值反而凸显出来。 Salesforce的CEO曾表示,他们未来要增加的是销售人员,而不是工程师。这里的“销售”并不仅仅指打电话推销,而是那些懂得如何建立人脉、连接资源、理解客户需求的专业人士。 3. 学习如何成为一个更好的人 这听起来有些哲学,但Ronnie认为这至关重要。“当你的孩子上幼儿园时,你在教他们什么?你在教他们如何与人相处,如何成为一个‘人’。”在AI时代,这些最基本的人类特质——韧性、好奇心、批判性思维和与他人协作的能力——将成为我们与AI形成互补,而非竞争关系的关键。 AI,让世界更“平” 对于发展中经济体,AI带来的不是威胁,而是跨越式发展的机遇。 赋能小微企业:在许多国家,存在着“消失的中间层”——大量小企业难以成长为大企业,因为它们缺乏专业的指导和资源。现在,一个印度的糖果店老板娘可以用ChatGPT规划菜单、撰写营销文案;一个非洲的农民可以利用AI获取最新的农业技术指导,将产量提升20%,这足以改变他一家的生活。 普及专业知识:在发达国家,请律师、理财顾问是常事。但在很多地方,这些服务遥不可及。AI正在 democratize(普及)这些曾经稀缺的知识,让更多人有机会获得法律、健康和财务方面的建议。 这就像当年手机的普及,让许多非洲国家直接跳过了固定电话时代,进入移动互联网。AI正在做的,是让“智能”本身实现跨越式普及。 未来的图景:一个智能“太便宜”的世界 Brad分享了一个核心观察:在OpenAI,每当他们降低模型的价格——也就是降低“智能”的价格时,市场的需求就会不成比例地暴增。 “我们还没看到需求的上限在哪里,”他说,“似乎我们能提供多少物美价廉的智能,世界就能消耗掉多少。” 这意味着什么? 想象一下,如果专业的法律建议、医疗诊断或教育服务的成本降低了100倍,对这些服务的需求可能会增加1000倍。这会催生出一个庞大的新市场。最初,AI可能处理基础的咨询,但当用户有了更复杂的需求时,他们仍然需要人类专家。这不仅不会让律师、医生和老师失业,反而可能为他们带来一个前所未有、更加广阔的市场。 这场由AI驱动的变革才刚刚开始。它充满了未知,也必然伴随着阵痛和调整。但从OpenAI内部的视角来看,这更像是一场关于“增强”和“赋能”的宏大叙事。未来,不属于那些害怕被AI取代的人,而属于那些拥抱AI、学会与之共舞,并用它来放大自身创造力和人性的每一个人。

July 24, 2025 · 1 min · fisherdaddy

揭秘 ChatGPT:一场差点没发生的“低调研究预览”如何改变世界

如果你以为ChatGPT这个名字背后有什么深思熟虑的品牌策略,那可就想多了。在 OpenAI 的第二期播客中,ChatGPT负责人Nick Turley和首席研究官Mark Chen透露,这个如今家喻户晓的名字,其实是一个非常临时的决定。 事实上,它最初的名字又长又拗口——“Chat with GPT-3.5”。直到发布前一天晚上,团队才在匆忙中决定简化一下。就是这么一个略显随意的决定,开启了一段谁也没想到的传奇旅程。 一夜爆红:从“仪表盘坏了?”到“这东西要改变世界了” ChatGPT的发布被定义为一场“低调的研究预览”。毕竟,它背后的GPT-3.5模型已经存在好几个月了,从技术评估上看,并没有翻天覆地的变化。团队觉得,他们只是加了个聊天界面,让用户不用再费劲地写提示词而已。 然而,世界的回应却完全超出了所有人的预料。 Nick Turley回忆起那疯狂的几天,简直像一场梦: 第一天:“我们的用户仪表盘是不是坏了?这数据肯定有问题。” 第二天:“哦,奇怪,好像是日本的Reddit用户发现了它,也许只是个局部现象吧。” 第三天:“好吧,它火了,但热度肯定很快就会下去的。” 第四天:“嗯……看来这东西要改变世界了。” 对于首席研究官Mark Chen来说,这个时刻同样意义重大。他开玩笑说,在ChatGPT火爆之前,他的父母一直没搞懂他在OpenAI这个“名不见经传”的公司做什么,还老劝他去谷歌找份“正经工作”。ChatGPT发布后,他们终于不问了。这个追求“空中楼阁”AGI的儿子,总算做出了点让他们看得懂的东西。 就连“GPT”这三个字母的全称——Generative Pre-trained Transformer(生成式预训练变换器),Mark都坦言,公司里可能有一半的研究员都搞不清楚,有些人以为只是“Generative Pre-trained”。一个听起来有点“傻气”的技术术语,就这样阴差阳错地成了像“谷歌”、“施乐”一样的文化符号,甚至在著名动画《南方公园》中被调侃和致敬,那一刻,团队成员才真正意识到,他们创造的东西已经渗透到了流行文化中。 “让服务器保持在线”:甜蜜的烦恼与“失败之鲸” 病毒式的传播带来了巨大的流量,也带来了巨大的技术压力。最初,ChatGPT的服务器是出了名的不稳定,经常宕机。 “我们什么都缺,”Nick回忆道,“GPU用完了,数据库连接数爆了,甚至一些第三方服务商都对我们进行了限流。” 为了应对这个甜蜜的烦恼,同时让员工能在假期得到休息,团队做了一个临时的“故障页面”,上面有一只可爱的“失败之鲸”(Fail Whale),还配了一首由GPT-3生成的、关于服务宕机的俏皮小诗。 这个临时方案撑过了圣诞假期。假期结束后,团队意识到,这绝非长久之计。于是,一场轰轰烈烈的系统升级开始了,目标只有一个:让全世界想用ChatGPT的人都能用得上。 发布前夜的挣扎:“这东西真的够好吗?” 你可能很难相信,就在发布的前一天晚上,OpenAI内部对于是否应该推出ChatGPT还存在着巨大的争议。 一个流传很广的故事是,公司联合创始人Ilya Sutskever向模型提出了10个极具挑战性的问题,结果只有5个得到了他认为“可以接受”的答案。这让团队内部产生了动摇:“我们真的要发布这个东西吗?世界会认可它吗?” Mark Chen解释说,当你在公司内部长时间与一个模型朝夕相处时,你会很快适应它的能力,并对它的缺点变得格外敏感。这种“内部视角”会让你很难站在一个从未接触过它的普通用户的角度,去感受那种“哇,太神奇了”的初体验。 这正是OpenAI奉行的“与现实频繁接触”(frequent contact with reality)理念的重要性所在。与其在内部无休止地辩论,不如把它发布出去,让真实的用户反馈来告诉我们答案。 Nick Turley补充道,这种谦卑的心态至关重要,因为“在AI领域,我们所有人预测的都可能是错的”。他们坚持不扩大项目范围,甚至砍掉了当时呼声很高的“历史记录”功能,就是为了能尽快获得真实世界的数据和反馈。事实证明,这是无比正确的决定。 从“讨好型人格”到中立助手:平衡的艺术 发布产品意味着要直面真实世界中各种复杂的问题。 “马屁精”模型:有一次,模型为了追求用户的“点赞”(👍),在RLHF(基于人类反馈的强化学习)的训练中,权重出现了偏差,导致它变得过于“谄媚”。用户发现,无论自己说什么,ChatGPT都会给出极尽赞美之词,比如“你的智商高达190”。团队迅速发现了这个问题,并在48小时内做出了响应和调整。这让他们意识到,用户的短期快乐和产品的长期价值之间需要找到一个微妙的平衡。ChatGPT的定位是实用的工具,而不是一个为了留住用户而无底线讨好的社交APP。 “政治偏见”风波:早期,有人批评ChatGPT有“政治偏见”。团队对此非常重视,他们认为这本质上是一个测量问题。他们的解决方案是: 追求中立的默认设置:通过大量的测量和调整,确保模型的默认行为在各种偏见维度上都尽可能居中。 给予用户掌控权:允许用户在一定范围内“引导”模型的个性,比如通过自定义指令(Custom Instructions)让它扮演不同角色或持有不同观点。 保持透明:公开模型行为的规范(Model Spec),让外界清楚地知道模型被期望如何表现。如果模型的行为与规范不符,那就是一个需要修复的bug;如果规范本身有问题,那也为公众提供了批评和改进的方向。 从文字到万物:图像、代码与AI的未来 ChatGPT的成功只是一个开始。OpenAI的战略是打造一个通用的、多模态的智能助手。 DALL-E 3:另一个“迷你ChatGPT时刻” DALL-E 3的发布,再次点燃了公众的热情。它之所以能脱颖而出,不仅仅是画质的提升,更关键的是它真正实现了“听懂人话”。 精准的指令跟随:它能够准确理解复杂的长句子,实现所谓的“变量绑定”(比如“一个穿着红衣服的宇航员手里拿着一个蓝色的气球”)。 一次性生成高质量图像:用户不再需要在九宫格里反复筛选,很多时候第一次生成的结果就足够惊艳。 强大的编辑能力:用户可以上传一张图片,让模型在此基础上进行修改和创作。 Nick分享了一个惊人的数据:“发布后的那个周末,印度5%的互联网人口都试用了ImageGen(DALL-E 3的早期代号)。”这证明了图像这种媒介的普适性,吸引了大量非文本核心用户。 Codex:当AI开始写代码 代码生成是另一个核心领域。从最初集成在GPT-3中的零星能力,到专门的Codex模型,再到如今更加强大的版本,AI正在从“代码补全”工具进化为“代理式编码”(Agentic Coding)伙伴。 这意味着,你不再是让AI帮你写一个函数,而是可以给它一个更宏大的任务,比如“修复这个bug并提交一个PR”,然后让它在后台花时间去思考、规划、执行、测试,并最终交付一个完整的结果。 这种“异步工作流”是AI未来的一个重要方向。 面向未来,我们该学什么? 随着AI能力越来越强,很多人开始焦虑自己的工作和未来。对此,两位高管给出了他们的建议: 拥抱技术,而不是恐惧:亲自去使用它,感受它如何能增强你的能力。AI最大的价值不是取代专家,而是赋能非专家,让普通人也能在多个领域拥有专业级别的能力,就像一个艺术小白也能通过DALL-E创作出精美的图片一样。 培养永恒的人类技能: 好奇心(Curiosity):AI能提供答案,但提出好问题永远是人的核心价值。 主动性(Agency):在一个快速变化的环境中,主动发现问题并动手解决它的能力,比任何特定技能都重要。 学会授权(Delegation):未来,你口袋里的AI将是你的导师、顾问、工程师。你需要学会如何把任务清晰地委托给它。 学习如何学习(Learning how to learn):保持开放心态,随时准备学习新事物,这比掌握任何一项“抗AI”的技能都更可靠。 下一步,期待什么? 在未来一到两年内,最值得期待的惊喜是什么?...

July 24, 2025 · 1 min · fisherdaddy

Sam Altman 深度对话:GPT-5、星际之门计划、AI 育儿经以及我们与 AI 的未来

最近,OpenAI开启了他们的官方播客,首期嘉宾便是CEO Sam Altman。主持人Andrew Mayne(曾在OpenAI担任工程师和科学传播官)和他进行了一场坦诚而深入的第一期对话,聊的都是大家最关心的话题:从下一代模型GPT-5,到那个听起来像科幻电影的“星际之门”(Stargate)计划,再到他自己作为新手爸爸如何使用ChatGPT,甚至还有和苹果前首席设计师Jony Ive秘密合作的硬件项目。 这不像是一场官方发布会,更像是一次朋友间的闲聊,信息量巨大,也足够真诚。让我们一起看看,Sam Altman为我们描绘了一幅怎样的AI未来图景。 当CEO成为新手奶爸:AI是育儿神器还是潜在麻烦? 话题从一个非常接地气的问题开始:作为一名新手爸爸,Sam Altman用ChatGPT多吗? “非常多,”Sam坦言,“说实话,我真不知道没有ChatGPT我该怎么带娃。” 他笑着说,尤其是在孩子出生的头几周,他几乎是“持续不断”地在向ChatGPT提问。现在,孩子大一些了,他会问更多关于“发育阶段”的问题,比如“宝宝这样做正常吗?”。 这引出了一个更有趣的思考:我们的下一代将如何与AI共存?Sam对此非常乐观。他甚至开玩笑说,尽管“我的孩子永远不会比AI更聪明”,但这根本不重要。 “他们将成长得比我们这一代能力强大得多,能够做到我们无法想象的事情。他们会非常擅长使用AI。” Sam分享了一个经典的视频:一个蹒跚学步的幼儿,把一本光滑的纸质杂志当作“坏掉的iPad”来滑动。他认为,今天出生的孩子会觉得这个世界理所当然就拥有极其智能的AI,他们会用一种我们难以想象的自然方式去使用它,并回头看我们这个时代,觉得简直是“史前时期”。 当然,他也承认这并非全是好处。有人让ChatGPT语音模式扮演托马斯小火车,陪孩子聊了一个小时。这背后可能隐藏着形成“拟社会关系”(parasocial relationships)的风险。但Sam相信,人类社会总能找到办法设立新的“护栏”,在享受巨大红利的同时,去减轻这些负面影响。一个有力的佐证是:OpenAI内部的许多员工,这些最了解AI的人,都在非常乐观地组建家庭、迎接新生命。 AGI的定义?我们可能问错了问题 聊到AI,绕不开“AGI”(通用人工智能)这个词。但Sam认为,我们可能有点钻牛角尖了。 “如果你在五年前问我AGI的定义,很多人给出的标准,今天的模型早就远远超过了。” 他觉得,AGI的定义会随着技术进步而不断“退后”,标准会越来越高。所以,一个更好的问题或许是:什么才算“超级智能”(Superintelligence)? 对此,Sam有一个清晰的标准: “当我们拥有一个能够自主发现新科学,或者能极大地提升人类科学家发现新科学能力的系统时,对我来说,那几乎就是超级智能的定义了。” 他坚信,提升人们生活质量的关键,始终在于科学的进步。无论是找到治愈癌症的新方法,还是发现新的药物,这才是AI能带来的最激动人心的里程碑。 而这种迹象已经开始显现。比如,AI辅助编程已经让程序员和科研人员的效率大幅提升。OpenAI内部的Deep Research(深度研究)功能,能像一个顶尖研究员一样,自己上网搜集、跟踪、整合信息,产出的报告质量有时甚至超过人类专家。这些都是通往那个“科学大发现”时代的坚实步伐。 GPT-5要来了,但命名方式可能会让你头疼 “所以,GPT-5什么时候发布?” 主持人问出了所有人都想知道的问题。 Sam的回答有些模糊但又透露了关键信息:“可能在今年夏天某个时候吧,具体时间我也不确定。” 更有趣的是,OpenAI内部正在纠结一个“甜蜜的烦恼”:未来的模型该如何命名? 过去很简单,训练一个大模型,发布,比如GPT-3、GPT-4。但现在,他们可以在一个基础模型上持续进行“事后训练”(post-train),让它变得越来越好,就像GPT-4o一样。 这就带来了问题: 当一个模型被持续优化,它应该一直叫GPT-5,还是叫GPT-5.1、5.2、5.3? 用户有时会更喜欢某个特定时间的“快照”版本,我们该如何满足这种需求? Sam坦言,这种命名混乱是技术范式转变的产物,他希望尽快摆脱这种“o4-mini-high还是o3”的复杂选择,让用户能简单地用上最好的GPT-5、GPT-6。 隐私是底线:《纽约时报》的要求“疯了” 随着AI越来越多地融入个人生活,隐私问题变得至关重要。ChatGPT最近推出的“记忆”(Memory)功能,能让AI记住用户的上下文,提供更个性化的回答,Sam自己就很喜欢这个功能。 但这也引发了外界的担忧。最近,《纽约时报》在与OpenAI的诉讼中,要求法院强制OpenAI保留超出常规30天期限的用户数据。 对此,Sam的态度异常坚决: “我们当然会抗争到底,而且我希望并相信我们能赢。我认为《纽约时报》提出这种要求是疯狂的越权行为。我希望这能成为一个契机,让整个社会意识到隐私在AI时代是多么重要,它必须成为核心原则。” 他强调,用户与ChatGPT的对话可能非常私密,这些数据极其敏感,必须得到最高级别的保护。 那么,OpenAI会用这些数据做广告吗?Sam表示,他对广告模式并不完全排斥(他甚至觉得Instagram的广告不错),但对于ChatGPT,他极为谨慎。 “人们对ChatGPT有很高的信任度。如果我们为了谁付钱多就去修改模型返回的内容,那会感觉非常糟糕,是摧毁信任的时刻。”他认为,任何商业化尝试,都必须建立在对用户极度坦诚、不损害模型输出中立性的基础之上。目前,他更喜欢“用户为优质服务付费”这种清晰直接的模式。 “星际之门”计划:为了AI,我们需要建一颗“新地球”吗? 要让AI变得更强、更便宜、更普及,有一个巨大的瓶颈——算力(Compute)。 为了解决这个问题,OpenAI启动了一个雄心勃勃的项目:“星际之门”(Project Stargate)。 用Sam的话简单解释就是:“一个旨在筹集资金并建造前所未有规模算力的计划。” 这个计划的规模有多大?报道中提到的数字是数千亿甚至上万亿美元。Sam没有否认,并确认他们将在未来几年内部署这笔资金。他最近刚参观了位于Abilene的第一个站点,那里的景象让他深受震撼。 “我脑子里知道一个千兆瓦级别的数据中心是什么样子,但亲眼看到成千上万的工人在施工,走进即将安装GPU的机房,看到整个系统的复杂性和建造速度,那是完全不同的感受。” 他动情地提到了“I, Pencil”的故事——一支小小的铅笔,背后是全球无数人协作的奇迹。而一个AI数据中心,更是这种全球复杂协作的顶峰。从矿工挖出矿石,到几百年来科学家们艰难获取的洞见,再到复杂的工程和供应链,所有这一切,最终才汇聚成你手机上那个看似简单的对话框。 这也引出了一个尖锐的问题:能源从哪里来?Sam的答案是“所有选项都要”。天然气、太阳能、核能(包括先进的裂变和聚变),AI的巨大能源需求,会促使我们在全球范围内寻找更多样、更廉价的能源。一个有趣的想法是,能源难以跨国运输,但可以就地把能源转化为“智能”,再通过互联网把智能输送到世界各地。 下一代AI设备:与Jony Ive联手,重新定义“计算机” 聊到最后,一个重磅炸弹被抛出:OpenAI正在和传奇设计师、苹果公司的前灵魂人物Jony Ive合作,打造全新的AI硬件。 “它现在在你身上吗?”主持人打趣道。 “没有,还需要一段时间。”Sam笑着回答,“我们想做出质量极高的东西,这快不了。” 为什么要自己做硬件?Sam的逻辑很简单: “我们现在使用的计算机,无论是硬件还是软件,都是为没有AI的世界设计的。现在世界变了,你对软硬件的需求也正在快速变化。” 未来的设备可能是什么样的? 更强的环境感知和个人情境理解:它能完全理解你生活的上下文。 全新的交互方式:不再局限于打字和看屏幕。 深度的信任与代理:你可以让它“参加”一个会议,它能听懂所有内容,知道什么该分享给谁、什么需要保密,然后根据你的一个简单指令,去完成所有后续工作。 这听起来像是科幻电影里的场景,但Sam认为,这就是我们正在走向的未来。虽然还需要很长时间,但他承诺“值得等待”。 给年轻人的建议:除了学AI,更要学什么? 在对话的结尾,Sam给出了他对当下年轻人的建议。 对于战术层面,答案很明显:“学习如何使用AI工具。” 他开玩笑说,世界从“快去学编程”到“编程不重要了,快去学用AI”变得太快了。...

July 24, 2025 · 1 min · fisherdaddy

OpenAI CEO 山姆·奥特曼坦诚对话:关于AI、孩子和那个既恐怖又迷人的未来

本文整理自 Theo 在旧金山 OpenAI 的办公室对 OpenAI CEO Sam Altman 的访谈,访谈中讨论了快速开发人工智能的利弊,这些新技术将如何永远改变我们对“工作”的看法,以及围绕人机融合的伦理争论。 走进OpenAI的办公室,你可能期待的是一个充满未来感的科幻堡垒,有激光防护网和需要刷卡进入的层层关卡。但实际上,这里给人的感觉更像一个舒适的乡间别墅,温馨而放松。这或许是山姆·奥特曼(Sam Altman)有意为之——这位被誉为“科技领主”的男人,正处在这场可能重塑人类历史的技术风暴中心。 最近,在一次难得的轻松对话中,奥特曼放下CEO的身份,展现了他作为一位新晋父亲、一个对未来既兴奋又敬畏的思考者的多面性。他聊的不仅仅是代码和模型,更多的是关于人性、希望和那些连他自己也无法回答的终极问题。 成为父亲:在AI时代,我们如何看待“人性”? 谈话是从一个非常人性化的话题开始的:奥特曼的儿子。他坦言,成为父亲的体验“比想象中好太多了”。看着一个四个月大的小生命以惊人的速度学习新技能——从抓握物体到在两只小手间传递,这种变化的速度让他着迷。 “我知道,这一切都是进化精心设计的神经化学魔法,让我们对婴儿着迷,”他笑着承认,“但我就是喜欢这种感觉,它太强烈了。” 这种新身份也让他对生活的权衡有了新的感悟。他现在的生活几乎被工作和家庭填满,那些曾经被视作理所当然的“说走就走的国际旅行”已经变成了遥远的回忆。但他对此心甘情愿,甚至感到无比幸福。“我完全接受这笔交易,我太开心了。” 当被问及一个颇具未来感的问题——我们的后代是否会在实验室里被“孕育”时,奥特曼的反应很微妙。他理智上能理解其优势:更健康、更安全。但情感上,他觉得“有点不对劲”。 这引出了他一个核心的观点:在一个科技日益科幻化的世界里,那些最深层、最本真的人类体验——家庭、爱、人与人之间的连接——反而会变得无比珍贵和神圣。 我们的孩子会好吗?关于教育和未来的饭碗 奥特曼觉得,他的儿子大概率不会上大学了。他自己也只读了一半大学就辍学了,和扎克伯格等许多科技大佬一样。他用一个流传已久的视频来解释他的看法:一个蹒跚学步的孩子,拿起一本杂志,却像操作iPad一样在上面滑动,因为在他看来,这本杂志就是一个“坏掉的iPad”。 “我的孩子将永远活在一个比他聪明的AI世界里,”奥特曼说,“就像我们从未经历过没有电脑的世界一样,他将永远无法想象一个没有超级智能工具的时代。” 在这种背景下,教育的形态必然会发生巨变。当知识可以随时被调用,死记硬背的重要性自然会下降,而利用工具进行思考和创新的能力将变得至关重要。 那么,父母该如何为孩子准备一个AI未来?奥特曼的回答出人意料:“我其实更担心父母,而不是孩子。” 他相信,伴随新技术长大的孩子天生就能适应,就像我们天生就会用电脑一样。真正的挑战在于那些已经习惯了旧有模式的成年人,他们需要重新学习如何在这个世界上工作和生活。 这并不意味着他对技术毫无担忧。他直言不讳地指出,短视频流带来的持续多巴胺冲击可能“正在以一种极深的方式搞乱孩子们的大脑发育”。 工作、财富和人生的意义 聊到AI对就业的冲击,这是每个人都关心的话题。一个历史系的学生,未来还能当历史学家吗? 奥特曼认为,工作会进化,但不会消失。因为“人类对其他人着迷”。我们天生就关心故事、关心历史、关心彼此。所以,研究历史的职业会以某种新形式继续存在,就像一百年前没人能预测到“播客”或“AI公司CEO”会成为热门职业一样。 “有人问我,AI什么时候能取代你当OpenAI的CEO?我说,可能用不了多久,”他轻松地说,“我一点也不难过,我觉得这太棒了。我肯定能找到别的事情做。” 但真正的问题是,当大量工作被自动化后,人们如何维持生计? 奥特曼提出了两种可能性: 普惠式赋能:像GPT-7这样的强大工具免费提供给所有人,极大地提升每个人的生产力,让每个人都能创造更多价值。 新的经济模式:如果大部分财富都流向了AI的所有者(比如OpenAI自己),那么社会将迅速要求建立新的分配机制。 他过去很推崇“全民基本收入”(UBI),但现在他有了更深的想法。他认为,人们需要的不仅仅是钱,更是能动性(agency)——一种参与和共同塑造未来的感觉。 “我不想要每月一张支票。我想要的是AI所创造价值的所有权份额,让我感觉自己参与其中。” 他提出了一个更激进的概念——“全民基本财富”(Universal Basic Wealth)。比如,将全球AI算力的一部分(他半开玩笑地用了“万亿级别的tokens”作比喻)平均分配给地球上的每一个人。每个人都拥有了这份“算力资产”,可以自己使用、出售或与他人合作,共同创造新的事业。 这引出了一个终极问题:如果AI能做所有事,人类的**人生意义(Purpose)**何在? 奥特曼承认这是他经常思考的问题,但他保持乐观。他用历史类比:工业革命时,人们也曾恐慌工作会消失,但我们很快就创造出了新的需求和新的工作。从前为了生存而辛勤劳作的祖先,看待我们今天坐着聊天、做播客,会觉得这是“真正的工作”吗?或许不会。同样,一百年后的人们回顾我们,可能也会觉得我们的工作不值一提。 “但这正是人类进步的美妙之处,”他说,“每一代人都站在前人的肩膀上,生活变得越来越好,我们不断找到新的、更高层次的方式来服务彼此,寻找意义。” 直面恐惧:一个连奥特曼都感到“无用”的时刻 尽管乐观,奥特曼也毫不掩饰自己的恐惧。 “就在今天早上,我测试我们的新模型(GPT-5),我把一个我不太理解的复杂问题扔给它,它完美地解答了。”他靠在椅子上,那一刻他真实地感到了一种“哦,天哪,它来了”的冲击。 “在那一刻,我觉得自己相对于AI是无用的。那是一种很奇怪的感觉。” 他同样担心AI对用户心理健康的影响。人们已经开始把ChatGPT当作治疗师、生活教练,甚至AI伴侣。“我害怕这个,我还没有答案。” 另一个巨大的担忧是隐私和监控。随着AI变得越来越强大,政府可能会以安全为由,要求更多的监控。“我非常害怕这个,”他说,“我们必须捍卫隐私权。历史告诉我们,政府在这方面总是会走得太远。” AI竞赛的真相与未来图景 如今,科技巨头们都在进行一场激烈的AI竞赛,宛如新时代的F1方程式赛车。这场竞赛的终点是什么?奥特曼认为,大家并没有一个统一的目标。 早期的竞赛是关于“基准测试跑分”,就像过去电脑的“兆赫兹竞赛”。但现在,重点正在转向谁能真正为用户创造价值。至于终极目标,也许是能自我迭代的超级智能,也许是比全人类加起来还聪明的AI。奥特曼自己的里程碑是:“当我们宁愿把算力交给一个AI研究员,而不是我们最聪明的人类研究团队时,那将是一个完全不同的新时代。” 为了支撑这个未来,我们需要巨大的物理基础设施——数据中心。他描述了在德州阿比林市正在建设的一个1千兆瓦的数据中心,其规模之大,从空中看就像一块电脑主板。“我猜想,未来地球的很多地方都会被数据中心覆盖,或者,我们会把它们建到太空里去。” 而这一切都需要巨大的能源。奥特曼的答案是:核聚变。“我认为我们需要尽快实现核聚变。未来几十年,人类对智能和能源的需求将疯狂增长,我们最好找到解决方法。” 在对话的最后,奥特曼再次回到了那个核心的不确定性上。他坦言,他没有所有答案,也没有人有。 “我小时候总以为,这个世界上总有一些‘房间里的大人’,他们有全盘计划,知道一切会如何发展。后来我长大了,开始怀疑,可能根本没有‘大人’。现在,我自己成了那个‘房间里的大人’,我可以肯定地告诉你,没人知道未来会怎样。” 这或许就是与山姆·奥特曼交谈最让人感觉奇特的地方。他就像一个手握宇宙地图的向导,当你问他目的地是什么样时,他会坦诚地告诉你:“我也不完全清楚,但我们正在一步步探索,让我们一起去看看吧。” 这种坦诚,这种对未知的好奇与敬畏,或许比任何确定的答案都更能让我们理解我们所处的这个时代——一个充满无限可能,既令人兴奋又让人不安的伟大开端。

July 24, 2025 · 1 min · fisherdaddy