OpenAI 联创 Greg Brockman 深度访谈:从数学神童到 AGI 掌舵者,我们该如何构建未来?

在 AI Engineer 大会的舞台上,OpenAI的联合创始人兼总裁Greg Brockman坐下来,进行了一场坦诚而深入的对话。这位AI领域的关键人物,平时低调,却在这次访谈中分享了他非同寻常的个人经历、OpenAI背后的故事,以及对技术未来的深刻洞见。这不仅仅是一次访谈,更像是一次与朋友的促膝长谈,充满了有趣的轶事和宝贵的经验。 从数学梦到代码“魔法”:一个意外的开始 你可能很难想象,这位如今在代码世界里呼风唤雨的大神,最初的梦想其实是成为一名数学家。他着迷于像伽罗瓦和高斯这样的天才,梦想着能在长达数百年的时间尺度上做出贡献。“如果我提出的任何东西在我有生之年就被用上了,”他开玩笑说,“那说明它还不够长远,不够抽象。” 然而,命运的转折点来得有些突然。高中毕业后,他写了一本化学教科书,但朋友告诉他:“没人会出版这个的。你要么自己想办法,要么就建个网站吧。”面对自费出版的高昂成本和繁杂工作,他果断选择了后者。 “于是,我猜我得学学怎么做网站了。” 他就这样一头扎进了W3Schools的PHP教程(在场的很多老程序员都会心地笑了)。他做的第一个小东西是一个表格排序插件。当他点击列标题,表格真的按照他脑海中的设想排序时,他感到了一种前所未有的“魔法”。 “数学的奇妙在于,你深入思考一个问题,用一种晦涩的方式(我们称之为‘证明’)写下来,然后可能只有三个人会关心。但编程不一样,你同样用一种晦涩的方式(我们称之为‘程序’)写下来,可能也只有三个人会读你的代码,但所有人都能享受到它带来的好处。你脑海中的想法变成了现实,实实在在地存在于世界上。那一刻,我意识到,这才是我真正想做的事。” 对百年时间尺度的执念,瞬间被创造的即时快感所取代。他只想去“构建”(build)。 辍学加入Stripe:挑战极限的“24小时奇迹” 正是这种构建的热情和惊人的天赋,让还在上大学的Greg收到了Stripe的冷启动邮件。当时,Stripe还只是一个三個人的“庞大”公司。通过哈佛和MIT的朋友圈推荐,Stripe找到了这位在两所顶级学府都留下过足迹的“双料红人”。 Greg回忆起与Stripe创始人Patrick Collison的第一次见面,那是个风雨交加的夜晚,两人一见如故,彻夜畅聊代码。他立刻感觉到:“这就是我一直想合作的那种人。”于是,他毅然从MIT辍学,飞往了加州。 早期的Stripe远比外界想象的要艰难。一个流传甚广的“都市传说”是Stripe工程师会帮客户上门安装代码,虽然这只发生过寥寥几次,但它背后“客户至上”的精神是真实的。Greg分享了一个更惊心动魄的故事: 当时,Stripe急需从原有的支付后端迁移到富国银行(Wells Fargo),但银行方面表示,技术对接通常需要9个月。对于一家初创公司来说,9个月简直是天方夜谭。 “我们不能等,”Greg说。于是,他们把这次技术对接当成了一次大学里的“期末冲刺”。 24小时内,整个团队像解题一样分工合作:Greg负责实现所有功能,John Collison从上到下写测试脚本,Daryl从下往上验证。 第二天早上,他们与银行的认证人员通话,第一次测试失败了。对方习惯性地说:“好的,那我们下周再聊。” Patrick则像个出色的“拖延大师”,在电话里不停地找话题,为Greg争取宝贵的调试时间。就在那通电话里,他们调试了5轮代码。 虽然最终还是失败了,但对方被他们的执着打动,破例在两小时后给了他们第二次机会。这一次,他们成功了。 “就因为我们没有接受那些所谓的‘常规流程’,”Greg总结道,“我们在短短几个小时内,完成了正常情况下需要六周才能完成的开发工作。” 他认为,这种从第一性原理出发,敢于挑战那些不再适用于当今环境的“无形约束”,是创业和创新的关键所在。 点燃AGI之火:从图灵的“孩童机器”到深度学习的春天 早在2008年,Greg就读了艾伦·图灵1950年的那篇奠基之作《计算机器与智能》。最让他震撼的,不是“图灵测试”本身,而是图灵提出的一个超前构想: “你永远无法为智能写下所有的规则。但如果你能创造一个像人类孩童一样学习的‘孩童机器’(child machine),然后通过奖励和惩罚来教育它,它最终就能通过测试。” 这个想法深深地吸引了他:一台能够自己理解和解决问题,甚至超越人类程序员理解能力的机器。这感觉才是解决人类重大问题的根本之道。然而,当他兴冲冲地去找一位NLP教授时,对方却递给他一堆“语法分析树”(parse trees),这让他感到理想与现实的巨大差距,一度陷入了“绝望之谷”。 直到深度学习的浪潮袭来。 2012年的AlexNet在ImageNet竞赛中一鸣惊人,一个相对通用的学习机器,用卷积神经网络,轻松击败了计算机视觉领域几十年的研究成果。很快,这个“魔法”开始在NLP、机器翻译等各个领域复现,打破了不同学科间的壁垒。 “那一刻,我意识到,这就是图灵所说的那种技术。”Greg说。 他发现,神经网络的核心思想可以追溯到1943年,而那些在“AI寒冬”中被嘲笑为“只会堆砌更大计算机”的研究者,恰恰做对了事情。“是的,”他笑着说,“这正是我们所需要做的。” 所有因素都已具备,现在,只需要去构建。 构建OpenAI:当工程师文化遇上学术研究 在2022年,Greg曾写道:“现在是成为ML工程师的时代。”他坚信,优秀的工程师与优秀的研究员对未来的贡献同等重要。这种“研究与工程并重”的理念,从一开始就根植于OpenAI的文化中。 但他坦言,融合两种文化并不容易。 工程师习惯于清晰的接口(interface),认为只要接口不变,背后的实现可以随意更改。 研究员则不然,因为模型性能的细微下降可能来自系统任何地方的bug,他们必须理解整个系统,接口的抽象在他们看来并不可靠。 这种思维差异曾导致项目停滞不前。最终,他们摸索出了一种合作模式,其核心是Greg所强调的“技术谦逊”(Technical Humility)。 “对于加入OpenAI的工程师,我总会说,你带着宝贵的技能而来,但这和传统的Web创业公司是完全不同的环境。最重要的事情是,带着谦逊的心态,去倾听、去理解,直到你真正明白‘为什么’。在那之后,你再去做出改变,重构架构,改进抽象。” 这种互相尊重、深度融合的伙伴关系,最终成为了OpenAI强大创新能力的基础。 发布幕后:从“心流编程”到AGI时代的开发新范式 1. 疯狂的发布日 无论是ChatGPT还是最新的GPT-4o,OpenAI的每次发布都像一场风暴。ChatGPT在5天内吸引了100万用户,而GPT-4o的图片生成功能更是在5天内吸引了1亿用户。 “我们原本以为ChatGPT需要等到GPT-4发布才能火起来,”Greg透露,“结果我们大大低估了用户们的热情。” 面对远超预期的流量,他们做出了一个艰难但必要的决定:从研究团队那里临时抽调大量算力来支持线上服务。“这相当于抵押了未来,”他说,“但如果你能让用户体验到魔法,这一切都是值得的。” 2. “心流编程”与未来 在GPT-4的发布会上,Greg现场演示了让模型根据一张手绘草图生成网站代码,这个“心流编程”(vibe coding)的时刻让世界第一次直观感受到了AI编程的魔力。(一个有趣的彩蛋是:那张草图是他妻子画的,因为他自己的字迹连AI都识别不了。) 他认为,“心流编程”只是一个开始,它代表着一种赋权。未来,AI编程将朝着更强大的“智能体”(Agentic)方向发展。我们不再只是与AI进行交互式编程,而是可以部署成千上万个AI智能体,像管理同事一样管理它们,让它们在云端自主完成任务。 3. AI如何重塑我们的编码方式? 在Greg看来,Codex等AI编程工具正在深刻地改变我们组织代码的方式。过去,我们的代码库是为人类的优势而设计的;未来,我们需要为模型的优势而设计。 这意味着: 更小的模块化:将代码拆分成更小、功能单一的模块。 完善的测试:编写可以被快速、频繁运行的测试用例。 清晰的文档:让模型能够理解每个模块的作用。 “这听起来就像是优秀的软件工程实践,对吧?”他说,“只是过去我们因为人力成本高而常常“偷懒”。现在,模型会比你多运行成千上万次测试,所以这些‘好习惯’变得前所未有的重要。” 从某种意义上说,我们应该像为初级开发者构建代码库一样,来最大化AI的效能。 4. 迎接AGI时代的开发新范式 NVIDIA创始人黄仁勋(Jensen Huang)也通过视频提出了一个问题:当AGI时代来临,开发者的工作流会发生怎样的变化?...

August 11, 2025 · 1 min · fisherdaddy

AGI 离我们还有多远?Google DeepMind CEO 的坦率预测与未来蓝图

本文整理自 WIRED 资深编辑 Steven Levy 对 Google DeepMind CEO 戴密斯·哈萨比斯的最新专访,以下为视频精选内容。 在这个人工智能(AI)浪潮席卷全球的时代,我们每个人都感受到了那股既兴奋又不安的复杂情绪。一方面,我们对AI的潜力充满期待——它或许能为我们找到治愈顽疾的良方,发现可持续的新能源,为人类社会带来不可思议的福祉。这是AI许诺给我们的光明未来。但另一方面,担忧也如影随形:如果第一代强大的AI系统被植入了错误的价值观,或者其本身存在安全隐患,后果可能不堪设想。 在这场机遇与挑战并存的变革中,Google DeepMind的CEO,同时也是诺贝尔奖得主和被授予爵士头衔的戴密斯·哈萨比斯(Demis Hassabis),无疑是站在风暴中心的关键人物。在一次深度访谈中,他坦诚地分享了自己对于通用人工智能(AGI)、未来工作以及人类社会终极命运的看法。 AGI倒计时:5到10年,但我们还没到那一步 哈萨比斯创立DeepMind的初衷,是一个充满雄心的两步走计划:“首先解决智能,然后用智能解决其他一切问题。”这个最初设定的20年计划,如今已走过15年。他觉得,他们基本还在正轨上。 这意味着什么?这意味着我们距离被人们称为AGI的时代,可能只剩下5年了。 “我觉得,在未来5到10年内,我们有大约50%的可能会实现我们所定义的AGI。”哈萨比斯给出了一个听起来相当惊人的时间表。 当然,关于AGI的定义,行业内一直争论不休。哈萨比斯和他的团队从一开始就有一个清晰的标准:一个具备人类所有认知能力的系统。为什么以人类为参照?因为人类心智是我们在宇宙中唯一已知的、证明了“通用智能”可能存在的范例。 所以,要宣称自己实现了AGI,就必须证明一个系统能在所有领域都表现出色。而现实是,我们还差得远。 哈萨比斯直言不讳地指出了当前AI(尤其是大语言模型)的软肋: 能力缺失:它们在推理、规划、记忆等方面存在明显短板。 缺乏真正的创造力:它们无法进行真正的发明,也无法提出全新的科学假说。 最关键的问题:不一致性。他举了一个绝佳的例子:DeepMind的系统(如AlphaProof)可以解决国际奥数金牌水平的难题,但同一个系统有时却会在高中数学,甚至是“数一个单词里有几个字母”这种简单问题上翻车。 “这种表现上的巨大差异,说明这些系统还没有实现真正的‘通用化’。”哈萨比斯总结道。在所有这些能力被稳定地填补之前,我们还不能说AGI已经到来。 AGI的到来:是温和的过渡,还是剧烈的风暴? 那么,当我们真的迎来AGI的那一天,世界会发生“砰”的一声巨变吗? 哈萨比斯更倾向于认为,这将是一个渐进式的转变,而非一个瞬间完成的“阶跃函数”。即便我们拥有了那样的数字智能,物理世界依然遵循着它自己的法则,工厂、机器人、基础设施的改造都需要时间。 不过,他也提到了一个令人不安的可能性,即所谓的**“硬起飞”(hard takeoff)**场景。这个理论认为,一旦某个AGI系统具备了自我改进的能力——比如自己编写下一代更强的自己——那么领先者哪怕只领先了“十分钟”,也可能在极短时间内把这点优势变成一道无法逾越的鸿沟。 “这是一个巨大的未知数,”哈萨比斯承认,“我们不知道自我改进的速度会不会那么快。”但正是这个未知数,让当下的AI竞赛变得异常激烈和关键。因为AI系统不可避免地会带有其创造者所在文化环境的价值观和规范烙印。这使得“谁先造出来”这个问题,带上了沉重的地缘政治色彩。 一场高风险牌局:安全、监管与竞争 “现在是这个领域非常紧张的时期,”哈萨比斯说。巨大的资源投入、商业和国家的双重压力,以及对未知的探索,交织在一起。 他坦言自己主要担心两类风险: 恶意行为者:个人或流氓国家将通用AI技术用于有害目的。 技术失控风险:随着AI变得越来越强大、越来越具有“主体性”(agentic),我们能否确保它的护栏足够安全,不会被自己绕过? 正因为风险如此之高,监管问题便浮出水面。几年前,科技公司们还在呼吁“请监管我们”。但如今,地缘政治的紧张空气,让一些政府的态度从“监管”转向了“加速”,生怕在竞赛中落后。 哈萨比斯依然坚持,“聪明的监管”是必要的,但他强调,这种监管必须是国际性的。“AI是数字化的,它会影响每一个人。只在一个地方限制它,对于全球整体安全而言,帮助不大。” 然而,国际合作在当下举步维艰。更棘手的是,即便西方几个主要AI实验室的负责人彼此熟悉、经常沟通,但大家对于“到底发展到哪一步就该停下来”并没有一个公认的标准。 “我们现在的时间不多了,”他承认。因此,他们正投入越来越多的资源研究AI的安全、可控性和可解释性,希望用科学的方法,小心翼翼地走向AGI。在他看来,技术难题最终或许都能解决,但地缘政治问题可能会更棘手。 你的饭碗还好吗?AI时代的生存指南 聊到对工作的影响,哈萨比斯认为,目前AI更多扮演的是“辅助”和“增强”的角色,就像AlphaFold帮助科学家加速研究一样。它暂时是“加法”,而非“替代”。 但他预言,未来5到10年,我们将迎来一个**“黄金时代”**。AI工具将极大地增强我们的生产力,让个人变得有点“超人”的感觉。那些能熟练运用这些工具的人,生产力可能会提升十倍。 如果AGI能做所有人类的工作,那新创造出来的工作不也一样能被它做吗?对于这个终极问题,哈萨比斯认为,有些事情,即使机器能做,我们可能也不希望它来做。 “想想医生和护士,”他举例说,“诊断或许可以由AI辅助甚至完成,但护理工作呢?那种人与人之间的关怀和共情,我不认为你希望由一个机器人来提供。” 那么,对于即将踏入社会的毕业生,他有什么建议? “我的建议是,全身心地投入去学习和理解这些新系统。学习STEM和编程依然重要,这能让你明白它们是如何构建的。然后,去精通如何使用它们——无论是微调模型、系统提示词工程还是其他。让你自己成为一个能最大限度发挥这些新工具潜力的人。” 20年后的世界:一个“彻底富足”的乌托邦? 如果一切顺利,20到30年后,世界会是什么样子? 哈萨比斯描绘了一个他称之为**“彻底富足”(radical abundance)**的时代。他相信,AGI能够解决一些人类社会面临的根源性问题,比如: 攻克疾病,让人类活得更长久、更健康。 找到终极能源方案,比如可控核聚变或室温超导体。 当这些问题被解决后,人类将进入一个“最大程度繁荣”的时期,甚至可能开始探索星辰大海。 然而,访谈者提出了一个尖锐的质疑:我们现在已经拥有巨大的财富,但分配极其不公;我们知道如何应对气候变化,却迟迟不愿行动。一个更强大的工具,真能改变这一切吗? 哈萨比斯的回应直指问题的核心:人类之所以难以合作,是因为我们一直生活在“零和博弈”的心态中,因为地球的资源相对有限。 他用一个绝妙的例子来说明: “水资源获取。这在未来会是巨大的冲突源头。我们有解决方案——海水淡化,但它需要消耗巨量的能源,所以只有极富裕的国家才用得起。但如果,AI帮我们实现了近乎免费的清洁能源(比如核聚变),那海水淡化的成本就几乎为零。到那时,谁控制了河流就不再那么重要,因为每个人都能轻易获得淡水。一个重大的冲突源头就消失了。” 他认为,AI带来的“彻底富足”将从根本上改变游戏规则,有望将人类社会的心态从“零和”转变为“非零和”。当然,如何公平分配这种富足,依然需要伟大的哲学家和社会科学家来共同探讨。 通往未来的道路 在谈话的最后,哈萨比斯坚信,尽管目前资本主义和民主体系是推动进步的最有效引擎,但在后AGI时代,连经济学的基础、价值和金钱的概念都可能被重塑。 面对公众对AI的普遍焦虑和愤怒,他表示完全理解。但他总是尝试通过具体的例子,比如用AlphaFold帮助设计新药、治愈疾病,来解释他工作的激情所在。“如果这在我们的能力范围之内,那么不去实现它,才是不道德的。” “我经常说,”哈萨比斯在结尾留下了这样一句意味深长的话,“如果我不知道像AI这样革命性的技术即将来临,来帮助我们应对所有其他挑战,我会对我们的未来感到非常担忧。当然,AI本身也是一个挑战,但它是一个有潜力帮助我们解决其他所有挑战的挑战——前提是,我们能把它做对。”

August 3, 2025 · 1 min · fisherdaddy

前谷歌 CEO 埃里克·施密特:我们正处在一个新纪元的黎明,而大多数人还没准备好

本文来自于是谷歌前首席执行官、Relativity Space 执行主席兼首席执行官 埃里克·施密特在 2025 年巴黎 RAISE 峰会上的炉边谈话。访谈中施密特谈论的内容从 AGI 的时间表到硅谷地缘政治,从递归自我改进到万亿美元的资本支出竞赛等。 埃里克·施密特:我们正处在一个新纪元的黎明,而大多数人还没准备好 当埃里克·施密特(Eric Schmidt)——这位前谷歌CEO,科技界的重量级人物——登台时,他带来的不是又一个关于AI如何提升效率的商业演讲。他带来的是一个更宏大、也更令人不安的宣告:我们正站在一个全新纪元的门槛上,其深刻程度堪比“启蒙运动”,而绝大多数人,尤其是各国领导者,对此毫无准备。 这个观点并非一时兴起。施密特与已故的外交巨擘亨利·基辛格(Henry Kissinger)合著了《AI世纪》(The Age of AI)一书,书中早已埋下伏笔。基辛格曾将我们现在所经历的,与人类从信仰神明转向运用理性的“启蒙运动”相提并论。而现在,我们迎来的,是一种全新的、非人类的智能。 施密特认为,人们对AI最大的误解,就是还停留在两年前ChatGPT刚问世时的印象里。他直言不讳地对各国政府说:“第一,这玩意儿已经不是那个ChatGPT了,一切都变了。第二,你们根本没准备好。第三,你们最好赶紧围绕它组织起来,无论是好的方面,还是坏的方面。” “旧金山共识”:三年内,世界将天翻地覆 施密特最近提出了一个新词——“旧金山共识”(The San Francisco Consensus)。这听起来像个圈内黑话,但背后却是硅谷核心圈子里一群人的共同信念。 这个共识的核心观点是:在未来两到四年内(平均说法是三年),整个世界将被彻底改变。 听起来有点夸张?让我们看看这个论证是如何展开的: 第一步:智能体革命(The Agentic Revolution) 我们已经有了大型语言模型(LLM),比如ChatGPT。但真正的变革在于,当这些模型被赋予记忆和推理能力时,它们就变成了“智能体”(Agents)。 施密特用一个生动的例子解释了这一点:假设你想在加州建一栋新房子。你可以部署一系列智能体: 智能体A:负责寻找合适的地皮。 智能体B:研究当地所有的建筑法规。 智能体C:设计建筑蓝图。 智能体D:挑选并雇佣承包商。 (施密特开玩笑说)智能体E:如果房子建砸了,负责起诉承包商。 这个看似简单的流程,其实可以套用到任何商业、政府乃至个人活动中。这就是“智能体革命”,它将重塑我们作为人类的工作方式。 第二步:推理革命(The Reasoning Revolution) 这才是更令人震撼的部分。最新的AI模型(如GPT-4o)已经展示出惊人的推理能力,你甚至可以看它在解决一个复杂问题时来回思考、自我纠正。谷歌的一个数学模型,其解题能力已经达到了数学专业研究生的前10%水平。 可以毫不夸张地说,我们现在的AI系统,在许多高等学科(数学、物理等)上的能力,已经能媲美90%的人类顶尖学者。 从 AGI 到超级智能:我们离“魔法”还有多远? 当“智能体革命”和“推理革命”结合,并引入一个关键概念——递归式自我完善(Recursive Self-Improvement)时,一切就变得不可预测了。 这指的是系统开始自我学习、自我改进,其进步速度会以一种我们人类无法理解的组合方式爆炸式增长。 这引出了两个关键的未来阶段: 通用人工智能 (AGI):这是指AI拥有了像人一样的“自由意志”和通用智能。它早上“醒来”,可以自己决定去学什么、探索什么。施密特个人预测,这将在未来四到六年内实现。 超级智能 (Superintelligence):这是指AI的智能超越了所有人类智慧的总和。如何判断我们是否达到了这个阶段?施密特给出了一个绝妙的测试标准:当AI能够证明一个我们已知为真、但任何人类(哪怕是全人类加起来)都无法理解其证明过程的命题时,超级智能就到来了。 基辛格曾问过一个深刻的问题:那是什么?是魔法吗?当人们亲眼目睹这种自己无法理解的力量时,很可能会因为恐惧而拿起武器反对它。施密特认为,这一天在十年内就可能到来。 这也带来了严峻的国家安全问题。想象一下,如果一个国家拥有了一百万个不知疲倦、不吃不喝、24小时工作的AI研究员,它的创新速度将呈指数级增长。这会让它的对手感到,一旦落后,就再也无法追赶,从而可能引发先发制人的冲突。 算力即战略:一场全球性的 AI 权力游戏 要实现这一切,背后需要的是天文数字般的算力投入和资本支出(Capex)。很多人觉得这像一场泡沫,行业高管们嘴上也说着“我们在过度建设”,但私下里都认为“倒霉的会是别人,我的投资没问题”。 施密特认为这可能不是泡沫。他引用了一句硅谷的老话:“格鲁夫给予的,盖茨会带走。”(Grove giveth and Gates taketh away),意思是硬件(英特尔的安迪·格鲁夫)性能的提升,总会被软件(微软的比尔·盖茨)无尽的新功能所消耗掉。历史上,硬件的容量从未被浪费过。 这场算力竞赛,也正在重塑全球的AI权力格局。 美国模式:资本雄厚,公司倾向于建立庞大的数据中心,提供功能强大的闭源服务。 中国模式:恰恰相反,在Deepseek等项目的引领下,中国正大力发展开源、开放权重的模型,背后很可能有政府资金的支持。 这会带来一个非常有趣的局面:未来,西方国家可能拥有最先进的AI模型,但世界上大多数国家和用户使用的,却可能是来自中国的开源模型。这其中蕴含的地缘政治风险,我们才刚刚开始思考。 唯一会让你失败的,是行动太慢 回顾过去,施密特坦言,他在谷歌领导安卓系统应对移动互联网浪潮时,犯下的每一个错误,归根结底都是时间的错误。...

July 23, 2025 · 1 min · fisherdaddy

我不认为通用人工智能 (AGI) 即将到来 • Dwarkesh Patel

本文是 Dwarkesh Patel 在自己博客发表的一篇文章。Dwarkesh Patel 是一位印度裔美籍播客主持人、作家和知识传播者。他以深度访谈著称,特别聚焦于人工智能、历史、经济和科技等领域。通过自己的播客平台,他连接学术界与公众,促使复杂思想更易理解 本文详细阐述了他对通用人工智能(AGI)发展时间表的看法。他认为,尽管当前的大语言模型(LLMs)能力令人印象深刻,但由于其存在根本性的能力缺陷,AGI 并不会在未来几年内迅速到来。然而,一旦这些关键瓶颈被突破,AI 的发展将迎来爆炸性增长。 主要观点 AGI 不会很快到来:作者的核心论点是,AGI 不会在短期内(未来 2-5 年)实现,主要原因是当前模型缺乏**持续学习(continual learning)**的能力。 持续学习是关键瓶颈:与人类可以通过反馈和实践不断改进不同,目前的 LLMs 无法在工作中积累经验和上下文。这使得它们难以真正替代人类员工执行复杂的、需要适应性的白领工作。 短期谨慎,长期乐观:基于上述瓶颈,作者对 AI 在未来几年的经济变革潜力持谨慎态度。但他预测,一旦持续学习问题在未来十年内被解决,AI 的能力将发生“不连续的”巨大飞跃,引发一场“智能爆炸”,因为届时所有 AI 副本的学习成果可以被整合。 AGI 时间线呈对数正态分布:作者认为 AGI 很可能在本十年(2030 年前)实现,因为当前由计算资源驱动的指数级增长无法持续到 2030 年之后。如果错过了这个窗口期,后续进展将大幅放缓。 关键细节 当前 LLMs 的局限性: 作者以个人使用 LLMs 协助播客后期制作的经验为例,指出即使在语言处理这类核心任务上,模型的表现也仅为 5/10。 最大的问题是无法通过高级反馈让模型改进。用户只能不断调整提示词(prompt),但这远不及人类的学习和适应过程。作者用“教萨克斯风”作比喻:无法通过不断给新生写指示来教会他,而必须让他亲自练习和调整。 因此,作者预测,如果 AI 发展从今天停滞,可能只有不到 25% 的白领工作会被取代。 对“计算机使用代理”的怀疑: 作者对“到 2026 年底将出现可靠的计算机使用代理(能自动完成报税等复杂任务)”的预测表示怀疑。 理由包括:1) 此类任务的训练反馈周期长;2) 缺乏大规模的、用于计算机使用的多模态预训练数据;3) 即使是看似简单的算法创新(如 o1 模型的推理能力)也需要数年时间才能完善。 作者的 50/50 时间线预测: 2028 年:AI 能够像一个能干的人类经理一样,端到端地处理一家小公司的报税工作。作者认为,目前 AI 在计算机使用领域的能力,相当于语言模型领域的 GPT-2 阶段。 2032 年:AI 能够像人类一样在工作中无缝、快速地学习。作者认为 7 年的时间足以在持续学习方面取得突破性进展。 承认当前模型的强大之处:...

July 9, 2025 · 1 min · fisherdaddy

三个观察 • Sam Altman

本文是 OpenAI 的联合创始人兼 CEO Sam Altman 在今早刚发表的一篇文章,核心观点是,人工通用智能 (AGI) 的发展正快速推进,预示着社会和经济将发生巨大变革。Altman 认为, AGI 不仅仅是又一项技术工具,而是一个划时代的转折点,它将极大地提升人类的生产力,并有可能解决许多全球性难题。 AGI 的定义与愿景: AGI 被定义为一种能够在多个领域以人类水平解决复杂问题的系统。AGI 是人类不断进步的阶梯上又一个工具,但这次有所不同,它将带来惊人的经济增长,并有望实现治愈疾病、增加休闲时间、充分发挥创造潜能等愿景。 AI 发展的三个经济学观察: 智能与资源成对数关系: AI 模型的智能水平大致与训练和运行它所使用的资源 (计算资源、数据、推理计算) 的对数成正比。这意味着持续投入资源可以持续且可预测地提升 AI 智能。 AI 使用成本快速下降: AI 的使用成本大约每 12 个月下降 10 倍。例如, GPT-4 的 token 成本从 2023 年初到 2024 年中发布的 GPT-4o 下降了约 150 倍。这种成本下降速度远超摩尔定律。 智能线性增长的社会经济价值超指数级增长: 线性增长的智能所带来的社会经济价值呈超指数级增长。因此,对 AI 的指数级增长投资在可预见的未来不会停止。 AI 智能体 (AI agents) 的出现: AI 智能体,例如软件工程智能体,将逐渐普及,并像虚拟同事一样工作。它们能够完成资深软件工程师在数天内完成的大部分任务,尽管需要人类的监督和指导,并且在某些方面表现出色,在另一些方面则可能表现不佳。 AGI 对社会和经济的长期影响: AGI 可能会像晶体管一样渗透到经济的各个角落,广泛分布其收益,并深刻改变人们的生活。虽然短期内生活变化不大,但长期来看,社会和经济将发生巨大变革。 个人能力提升与价值重塑: AGI 将极大地提升个人能力,使个人能够产生比以往更大的影响力。意志力、目标明确性和适应不断变化的世界的能力将变得极其重要。 AGI 影响的不均衡性: AGI 对不同行业的影响程度不同,科学进步可能会加速,某些商品的价格将大幅下降,而奢侈品和稀缺资源的价格可能会上涨。 AGI 的社会融合与安全: 作者强调,需要社会各界共同思考如何将 AGI 融入社会, 原文 我们的使命是确保通用人工智能 (AGI) 惠及全人类。...

February 10, 2025 · 1 min · fisherdaddy

幻方量化、DeepSeek 与创始人梁文锋

2025年 1 月 20 号 DeepSeek 因开源了 o1 级别的深度推理模型 DeepSeek-R1 而在全球爆火,同时也登顶了中国、美国、英国等多个国家的 App Store 的下载榜榜首,甚至一度让英伟达的股价暴跌 17%,核心原因有两点: 模型权重和技术细节完全公开,可复现; R1 的能力水平与 OpenAI 的 o1 相媲美,但通过创新算法和优化训练流程其成本仅为o1的3%-5%,训练成本仅为560万美元。 DeepSeek R1 的发布引爆了硅谷,在其发布一周后,微软云 Azure、亚马逊云 AWS、NVIDIA NIM、HuggingFace、Ceberus、Groq、Perplexity、Cursor、Windsurf、Krea 等各云厂商和 AI 产品陆续部署或接入 DeepSeek R1 和 V3 模型。更引来一众大佬的点评,有的大为赞赏,有的阴阳怪气,如 OpenAI CEO Sam Altman 表示"DeepSeek 的 R1 模型令人印象深刻,尤其考虑到其定价和性能表现。我们显然会推出更优秀的模型,而且看到新的竞争者加入也真的令人鼓舞!我们将很快发布一些新成果。",果然在 2025年1 月 31 号 OpenAI o3-mini 发布了。 OpenAI 高级研究副总裁 Mark Chen 表示“DeepSeek R1 论文中的发现和 o1有着相似的核心思想”。 Anthropic CEO Dario Amodei 发布长文表示“DeepSeek 的技术进步,实际上是在预期的 AI 成本降低趋势之内,而非颠覆性的突破。尽管 中国 AI 公司 DeepSeek 在降低 AI 模型成本和提升性能方面取得了显著进展,但这非但没有削弱,反而更加强调了美国对华芯片出口管制的重要性”。 Groq 联合创始人兼 CEO Jonathan Ross 表示:“DeepSeek 的出现被认为是 AI 领域的 “Sputnik 2....

February 2, 2025 · 2 min · fisherdaddy

导引 - 形势感知 (Situational Awareness):未来十年 • Leopold Aschenbrenner

本文讨论了未来十年内人工智能(AI)领域的重大变革,尤其是通用人工智能(AGI)和超级智能的快速发展。作者认为,随着计算能力和算法效率的提升,AGI 可能在 2027 年前实现,并在此后迅速进化为超级智能。这场技术竞赛将引发全球范围的工业动员,特别是在美国,涉及数万亿美元的投资和国家安全力量的介入。本文还探讨了超级智能带来的挑战,包括安全问题、对抗中国的竞争,以及如何确保“自由世界”在这场竞赛中胜出。 AGI 竞赛的启动:目前,全球尤其是美国,正加速推进 AGI 的研发。预计到 2025/26 年,AI 的能力将超过许多大学毕业生,并在 2027 年前实现真正的 AGI。随着技术的快速发展,超级智能的出现也变得不可避免。 工业动员与电力扩张:为了支持 AGI 和超级智能的发展,美国将大规模扩展电力生产,预计未来十年内电力产量将增长数十个百分点。成百上千万的 GPU 将投入使用,推动工业的全面动员。 超级智能的潜力与风险:超级智能不仅将推动 AI 研究的自动化,还可能在极短时间内实现巨大的算法进步。然而,控制远超人类智能的系统仍是一个未解决的技术难题,处理不当可能导致灾难性后果。 国家安全的介入:随着 AGI 竞赛的加剧,美国政府将逐渐介入,预计到 2027/28 年会有一个正式的国家 AGI 项目启动。此时,国家安全力量将全面投入,确保 AGI 技术不落入敌对国家手中。 中美竞争与自由世界的存亡:超级智能将赋予拥有它的国家巨大的经济和军事优势。美国及其盟友必须在这场竞赛中保持领先地位,否则“自由世界”的生存将面临威胁。 安全与对抗中国:目前,许多 AI 实验室对安全问题重视不足,关键技术可能落入中国等国家之手。确保 AGI 的安全和防止技术外泄将是未来的关键任务。 导引 - 形势感知 (Situational Awareness):未来十年 Leopold Aschenbrenner,2024 年 6 月 想窥见未来?那就来旧金山 (San Francisco) 吧。 在过去一年里,城中热议的话题已经从百亿美元级的算力集群一路飙升到千亿美元级,再到万亿美元级。每六个月,企业规划的金额就翻十倍。在你看不到的地方,一场争夺战正激烈上演,目标是未来十年所有可用的电力合同和所有能采购到的电压变压器。美国各大企业正准备投入数万亿美元,开启一场久违的工业动员。到这个十年结束时,美国的电力产量将增长数十个百分点;从宾夕法尼亚州 (Pennsylvania) 的页岩气田到内华达州 (Nevada) 的太阳能农场,数亿个 GPU 将日夜轰鸣。 通用人工智能 (AGI) 的竞赛已经打响。我们正在建造能够思考和推理的机器。到 2025/26 年,这些机器的能力将超过许多大学毕业生。到这个十年结束时,它们将比你我都聪明;我们将迎来真正的超级智能 (Superintelligence) 时代。与此同时,沉寂了半个世纪的国家安全力量将被释放,不久之后,“The Project” (一个意义重大的项目)也将启动。如果我们幸运,我们将与中国 (CCP) 展开全面的竞争;如果我们不走运,那将是一场全面的战争。 现在人人都在谈论人工智能 (AI),但很少有人真正理解即将到来的变革。英伟达 (Nvidia) 的分析师仍然认为 2024 年可能接近峰值。主流评论员仍抱着“人工智能只是在预测下一个词”的观点,对即将到来的巨变视而不见。他们看到的只是炒作和商业活动,最多认为这只是又一次互联网规模的技术变革。...

November 6, 2024 · 1 min · fisherdaddy