前谷歌 CEO 埃里克·施密特:我们正处在一个新纪元的黎明,而大多数人还没准备好

本文来自于是谷歌前首席执行官、Relativity Space 执行主席兼首席执行官 埃里克·施密特在 2025 年巴黎 RAISE 峰会上的炉边谈话。访谈中施密特谈论的内容从 AGI 的时间表到硅谷地缘政治,从递归自我改进到万亿美元的资本支出竞赛等。 埃里克·施密特:我们正处在一个新纪元的黎明,而大多数人还没准备好 当埃里克·施密特(Eric Schmidt)——这位前谷歌CEO,科技界的重量级人物——登台时,他带来的不是又一个关于AI如何提升效率的商业演讲。他带来的是一个更宏大、也更令人不安的宣告:我们正站在一个全新纪元的门槛上,其深刻程度堪比“启蒙运动”,而绝大多数人,尤其是各国领导者,对此毫无准备。 这个观点并非一时兴起。施密特与已故的外交巨擘亨利·基辛格(Henry Kissinger)合著了《AI世纪》(The Age of AI)一书,书中早已埋下伏笔。基辛格曾将我们现在所经历的,与人类从信仰神明转向运用理性的“启蒙运动”相提并论。而现在,我们迎来的,是一种全新的、非人类的智能。 施密特认为,人们对AI最大的误解,就是还停留在两年前ChatGPT刚问世时的印象里。他直言不讳地对各国政府说:“第一,这玩意儿已经不是那个ChatGPT了,一切都变了。第二,你们根本没准备好。第三,你们最好赶紧围绕它组织起来,无论是好的方面,还是坏的方面。” “旧金山共识”:三年内,世界将天翻地覆 施密特最近提出了一个新词——“旧金山共识”(The San Francisco Consensus)。这听起来像个圈内黑话,但背后却是硅谷核心圈子里一群人的共同信念。 这个共识的核心观点是:在未来两到四年内(平均说法是三年),整个世界将被彻底改变。 听起来有点夸张?让我们看看这个论证是如何展开的: 第一步:智能体革命(The Agentic Revolution) 我们已经有了大型语言模型(LLM),比如ChatGPT。但真正的变革在于,当这些模型被赋予记忆和推理能力时,它们就变成了“智能体”(Agents)。 施密特用一个生动的例子解释了这一点:假设你想在加州建一栋新房子。你可以部署一系列智能体: 智能体A:负责寻找合适的地皮。 智能体B:研究当地所有的建筑法规。 智能体C:设计建筑蓝图。 智能体D:挑选并雇佣承包商。 (施密特开玩笑说)智能体E:如果房子建砸了,负责起诉承包商。 这个看似简单的流程,其实可以套用到任何商业、政府乃至个人活动中。这就是“智能体革命”,它将重塑我们作为人类的工作方式。 第二步:推理革命(The Reasoning Revolution) 这才是更令人震撼的部分。最新的AI模型(如GPT-4o)已经展示出惊人的推理能力,你甚至可以看它在解决一个复杂问题时来回思考、自我纠正。谷歌的一个数学模型,其解题能力已经达到了数学专业研究生的前10%水平。 可以毫不夸张地说,我们现在的AI系统,在许多高等学科(数学、物理等)上的能力,已经能媲美90%的人类顶尖学者。 从 AGI 到超级智能:我们离“魔法”还有多远? 当“智能体革命”和“推理革命”结合,并引入一个关键概念——递归式自我完善(Recursive Self-Improvement)时,一切就变得不可预测了。 这指的是系统开始自我学习、自我改进,其进步速度会以一种我们人类无法理解的组合方式爆炸式增长。 这引出了两个关键的未来阶段: 通用人工智能 (AGI):这是指AI拥有了像人一样的“自由意志”和通用智能。它早上“醒来”,可以自己决定去学什么、探索什么。施密特个人预测,这将在未来四到六年内实现。 超级智能 (Superintelligence):这是指AI的智能超越了所有人类智慧的总和。如何判断我们是否达到了这个阶段?施密特给出了一个绝妙的测试标准:当AI能够证明一个我们已知为真、但任何人类(哪怕是全人类加起来)都无法理解其证明过程的命题时,超级智能就到来了。 基辛格曾问过一个深刻的问题:那是什么?是魔法吗?当人们亲眼目睹这种自己无法理解的力量时,很可能会因为恐惧而拿起武器反对它。施密特认为,这一天在十年内就可能到来。 这也带来了严峻的国家安全问题。想象一下,如果一个国家拥有了一百万个不知疲倦、不吃不喝、24小时工作的AI研究员,它的创新速度将呈指数级增长。这会让它的对手感到,一旦落后,就再也无法追赶,从而可能引发先发制人的冲突。 算力即战略:一场全球性的 AI 权力游戏 要实现这一切,背后需要的是天文数字般的算力投入和资本支出(Capex)。很多人觉得这像一场泡沫,行业高管们嘴上也说着“我们在过度建设”,但私下里都认为“倒霉的会是别人,我的投资没问题”。 施密特认为这可能不是泡沫。他引用了一句硅谷的老话:“格鲁夫给予的,盖茨会带走。”(Grove giveth and Gates taketh away),意思是硬件(英特尔的安迪·格鲁夫)性能的提升,总会被软件(微软的比尔·盖茨)无尽的新功能所消耗掉。历史上,硬件的容量从未被浪费过。 这场算力竞赛,也正在重塑全球的AI权力格局。 美国模式:资本雄厚,公司倾向于建立庞大的数据中心,提供功能强大的闭源服务。 中国模式:恰恰相反,在Deepseek等项目的引领下,中国正大力发展开源、开放权重的模型,背后很可能有政府资金的支持。 这会带来一个非常有趣的局面:未来,西方国家可能拥有最先进的AI模型,但世界上大多数国家和用户使用的,却可能是来自中国的开源模型。这其中蕴含的地缘政治风险,我们才刚刚开始思考。 唯一会让你失败的,是行动太慢 回顾过去,施密特坦言,他在谷歌领导安卓系统应对移动互联网浪潮时,犯下的每一个错误,归根结底都是时间的错误。...

July 23, 2025 · 1 min · fisherdaddy

我不认为通用人工智能 (AGI) 即将到来 • Dwarkesh Patel

本文是 Dwarkesh Patel 在自己博客发表的一篇文章。Dwarkesh Patel 是一位印度裔美籍播客主持人、作家和知识传播者。他以深度访谈著称,特别聚焦于人工智能、历史、经济和科技等领域。通过自己的播客平台,他连接学术界与公众,促使复杂思想更易理解 本文详细阐述了他对通用人工智能(AGI)发展时间表的看法。他认为,尽管当前的大语言模型(LLMs)能力令人印象深刻,但由于其存在根本性的能力缺陷,AGI 并不会在未来几年内迅速到来。然而,一旦这些关键瓶颈被突破,AI 的发展将迎来爆炸性增长。 主要观点 AGI 不会很快到来:作者的核心论点是,AGI 不会在短期内(未来 2-5 年)实现,主要原因是当前模型缺乏**持续学习(continual learning)**的能力。 持续学习是关键瓶颈:与人类可以通过反馈和实践不断改进不同,目前的 LLMs 无法在工作中积累经验和上下文。这使得它们难以真正替代人类员工执行复杂的、需要适应性的白领工作。 短期谨慎,长期乐观:基于上述瓶颈,作者对 AI 在未来几年的经济变革潜力持谨慎态度。但他预测,一旦持续学习问题在未来十年内被解决,AI 的能力将发生“不连续的”巨大飞跃,引发一场“智能爆炸”,因为届时所有 AI 副本的学习成果可以被整合。 AGI 时间线呈对数正态分布:作者认为 AGI 很可能在本十年(2030 年前)实现,因为当前由计算资源驱动的指数级增长无法持续到 2030 年之后。如果错过了这个窗口期,后续进展将大幅放缓。 关键细节 当前 LLMs 的局限性: 作者以个人使用 LLMs 协助播客后期制作的经验为例,指出即使在语言处理这类核心任务上,模型的表现也仅为 5/10。 最大的问题是无法通过高级反馈让模型改进。用户只能不断调整提示词(prompt),但这远不及人类的学习和适应过程。作者用“教萨克斯风”作比喻:无法通过不断给新生写指示来教会他,而必须让他亲自练习和调整。 因此,作者预测,如果 AI 发展从今天停滞,可能只有不到 25% 的白领工作会被取代。 对“计算机使用代理”的怀疑: 作者对“到 2026 年底将出现可靠的计算机使用代理(能自动完成报税等复杂任务)”的预测表示怀疑。 理由包括:1) 此类任务的训练反馈周期长;2) 缺乏大规模的、用于计算机使用的多模态预训练数据;3) 即使是看似简单的算法创新(如 o1 模型的推理能力)也需要数年时间才能完善。 作者的 50/50 时间线预测: 2028 年:AI 能够像一个能干的人类经理一样,端到端地处理一家小公司的报税工作。作者认为,目前 AI 在计算机使用领域的能力,相当于语言模型领域的 GPT-2 阶段。 2032 年:AI 能够像人类一样在工作中无缝、快速地学习。作者认为 7 年的时间足以在持续学习方面取得突破性进展。 承认当前模型的强大之处:...

July 9, 2025 · 1 min · fisherdaddy

三个观察 • Sam Altman

本文是 OpenAI 的联合创始人兼 CEO Sam Altman 在今早刚发表的一篇文章,核心观点是,人工通用智能 (AGI) 的发展正快速推进,预示着社会和经济将发生巨大变革。Altman 认为, AGI 不仅仅是又一项技术工具,而是一个划时代的转折点,它将极大地提升人类的生产力,并有可能解决许多全球性难题。 AGI 的定义与愿景: AGI 被定义为一种能够在多个领域以人类水平解决复杂问题的系统。AGI 是人类不断进步的阶梯上又一个工具,但这次有所不同,它将带来惊人的经济增长,并有望实现治愈疾病、增加休闲时间、充分发挥创造潜能等愿景。 AI 发展的三个经济学观察: 智能与资源成对数关系: AI 模型的智能水平大致与训练和运行它所使用的资源 (计算资源、数据、推理计算) 的对数成正比。这意味着持续投入资源可以持续且可预测地提升 AI 智能。 AI 使用成本快速下降: AI 的使用成本大约每 12 个月下降 10 倍。例如, GPT-4 的 token 成本从 2023 年初到 2024 年中发布的 GPT-4o 下降了约 150 倍。这种成本下降速度远超摩尔定律。 智能线性增长的社会经济价值超指数级增长: 线性增长的智能所带来的社会经济价值呈超指数级增长。因此,对 AI 的指数级增长投资在可预见的未来不会停止。 AI 智能体 (AI agents) 的出现: AI 智能体,例如软件工程智能体,将逐渐普及,并像虚拟同事一样工作。它们能够完成资深软件工程师在数天内完成的大部分任务,尽管需要人类的监督和指导,并且在某些方面表现出色,在另一些方面则可能表现不佳。 AGI 对社会和经济的长期影响: AGI 可能会像晶体管一样渗透到经济的各个角落,广泛分布其收益,并深刻改变人们的生活。虽然短期内生活变化不大,但长期来看,社会和经济将发生巨大变革。 个人能力提升与价值重塑: AGI 将极大地提升个人能力,使个人能够产生比以往更大的影响力。意志力、目标明确性和适应不断变化的世界的能力将变得极其重要。 AGI 影响的不均衡性: AGI 对不同行业的影响程度不同,科学进步可能会加速,某些商品的价格将大幅下降,而奢侈品和稀缺资源的价格可能会上涨。 AGI 的社会融合与安全: 作者强调,需要社会各界共同思考如何将 AGI 融入社会, 原文 我们的使命是确保通用人工智能 (AGI) 惠及全人类。...

February 10, 2025 · 1 min · fisherdaddy

幻方量化、DeepSeek 与创始人梁文锋

2025年 1 月 20 号 DeepSeek 因开源了 o1 级别的深度推理模型 DeepSeek-R1 而在全球爆火,同时也登顶了中国、美国、英国等多个国家的 App Store 的下载榜榜首,甚至一度让英伟达的股价暴跌 17%,核心原因有两点: 模型权重和技术细节完全公开,可复现; R1 的能力水平与 OpenAI 的 o1 相媲美,但通过创新算法和优化训练流程其成本仅为o1的3%-5%,训练成本仅为560万美元。 DeepSeek R1 的发布引爆了硅谷,在其发布一周后,微软云 Azure、亚马逊云 AWS、NVIDIA NIM、HuggingFace、Ceberus、Groq、Perplexity、Cursor、Windsurf、Krea 等各云厂商和 AI 产品陆续部署或接入 DeepSeek R1 和 V3 模型。更引来一众大佬的点评,有的大为赞赏,有的阴阳怪气,如 OpenAI CEO Sam Altman 表示"DeepSeek 的 R1 模型令人印象深刻,尤其考虑到其定价和性能表现。我们显然会推出更优秀的模型,而且看到新的竞争者加入也真的令人鼓舞!我们将很快发布一些新成果。",果然在 2025年1 月 31 号 OpenAI o3-mini 发布了。 OpenAI 高级研究副总裁 Mark Chen 表示“DeepSeek R1 论文中的发现和 o1有着相似的核心思想”。 Anthropic CEO Dario Amodei 发布长文表示“DeepSeek 的技术进步,实际上是在预期的 AI 成本降低趋势之内,而非颠覆性的突破。尽管 中国 AI 公司 DeepSeek 在降低 AI 模型成本和提升性能方面取得了显著进展,但这非但没有削弱,反而更加强调了美国对华芯片出口管制的重要性”。 Groq 联合创始人兼 CEO Jonathan Ross 表示:“DeepSeek 的出现被认为是 AI 领域的 “Sputnik 2....

February 2, 2025 · 2 min · fisherdaddy

导引 - 形势感知 (Situational Awareness):未来十年 • Leopold Aschenbrenner

本文讨论了未来十年内人工智能(AI)领域的重大变革,尤其是通用人工智能(AGI)和超级智能的快速发展。作者认为,随着计算能力和算法效率的提升,AGI 可能在 2027 年前实现,并在此后迅速进化为超级智能。这场技术竞赛将引发全球范围的工业动员,特别是在美国,涉及数万亿美元的投资和国家安全力量的介入。本文还探讨了超级智能带来的挑战,包括安全问题、对抗中国的竞争,以及如何确保“自由世界”在这场竞赛中胜出。 AGI 竞赛的启动:目前,全球尤其是美国,正加速推进 AGI 的研发。预计到 2025/26 年,AI 的能力将超过许多大学毕业生,并在 2027 年前实现真正的 AGI。随着技术的快速发展,超级智能的出现也变得不可避免。 工业动员与电力扩张:为了支持 AGI 和超级智能的发展,美国将大规模扩展电力生产,预计未来十年内电力产量将增长数十个百分点。成百上千万的 GPU 将投入使用,推动工业的全面动员。 超级智能的潜力与风险:超级智能不仅将推动 AI 研究的自动化,还可能在极短时间内实现巨大的算法进步。然而,控制远超人类智能的系统仍是一个未解决的技术难题,处理不当可能导致灾难性后果。 国家安全的介入:随着 AGI 竞赛的加剧,美国政府将逐渐介入,预计到 2027/28 年会有一个正式的国家 AGI 项目启动。此时,国家安全力量将全面投入,确保 AGI 技术不落入敌对国家手中。 中美竞争与自由世界的存亡:超级智能将赋予拥有它的国家巨大的经济和军事优势。美国及其盟友必须在这场竞赛中保持领先地位,否则“自由世界”的生存将面临威胁。 安全与对抗中国:目前,许多 AI 实验室对安全问题重视不足,关键技术可能落入中国等国家之手。确保 AGI 的安全和防止技术外泄将是未来的关键任务。 导引 - 形势感知 (Situational Awareness):未来十年 Leopold Aschenbrenner,2024 年 6 月 想窥见未来?那就来旧金山 (San Francisco) 吧。 在过去一年里,城中热议的话题已经从百亿美元级的算力集群一路飙升到千亿美元级,再到万亿美元级。每六个月,企业规划的金额就翻十倍。在你看不到的地方,一场争夺战正激烈上演,目标是未来十年所有可用的电力合同和所有能采购到的电压变压器。美国各大企业正准备投入数万亿美元,开启一场久违的工业动员。到这个十年结束时,美国的电力产量将增长数十个百分点;从宾夕法尼亚州 (Pennsylvania) 的页岩气田到内华达州 (Nevada) 的太阳能农场,数亿个 GPU 将日夜轰鸣。 通用人工智能 (AGI) 的竞赛已经打响。我们正在建造能够思考和推理的机器。到 2025/26 年,这些机器的能力将超过许多大学毕业生。到这个十年结束时,它们将比你我都聪明;我们将迎来真正的超级智能 (Superintelligence) 时代。与此同时,沉寂了半个世纪的国家安全力量将被释放,不久之后,“The Project” (一个意义重大的项目)也将启动。如果我们幸运,我们将与中国 (CCP) 展开全面的竞争;如果我们不走运,那将是一场全面的战争。 现在人人都在谈论人工智能 (AI),但很少有人真正理解即将到来的变革。英伟达 (Nvidia) 的分析师仍然认为 2024 年可能接近峰值。主流评论员仍抱着“人工智能只是在预测下一个词”的观点,对即将到来的巨变视而不见。他们看到的只是炒作和商业活动,最多认为这只是又一次互联网规模的技术变革。...

November 6, 2024 · 1 min · fisherdaddy