Yoshua Bengio、Geoffrey Hinton、John Hopfield、 Yann LeCun、黄仁勋、比尔·戴利、李飞飞七人获得2025 年英国女王工程奖,以表彰他们在现代机器学习发展方面做出开创性贡献。
本文来自于 11 月 6 日黄仁勋 (Jensen Huang)、Yoshua Bengio、Geoffrey Hinton、李飞飞 (Fei-Fei Li)、杨立昆 (Yann LeCun) 和 Bill Dally 在伦敦举行的英国《金融时报》 人工智能 未来峰会上与英国《金融时报》 人工智能 编辑 Madhumita Murgia 进行的对话。他们共同回顾了数十年的开创性工作——从神经网络到 生成式 AI,并讨论了他们帮助创造的这项技术所带来的伦理、社会和经济影响。
想象一下,把当今人工智能领域最顶尖、最具影响力的大脑们聚在同一张桌子旁,会碰撞出怎样的火花?
最近,2025年伊丽莎白女王工程奖的六位获奖者——这个星球上最聪明、最举足轻重的一群人——就进行了一场这样的对话。他们是Geoffrey Hinton、Yann LeCun、Yoshua Bengio、Fei-Fei Li、Bill Dally和Jensen Huang(黄仁勋)。从奠定深度学习基石的理论家,到打造AI算力帝国的实干家,他们的工作共同塑造了我们今天所处的AI时代。
在这场难得的围炉夜话中,他们不仅分享了职业生涯中那些“灵光一闪”的时刻,还就当下的AI热潮、未来的技术走向,甚至是“机器何时超越人类”等终极问题,展开了坦诚而深刻的讨论。
灵光一闪:六位巨擘的AI觉醒时刻
每个伟大的征程都始于一个微小的起点。对于这些AI先驱来说,那些决定性的“啊哈!”时刻,不仅改变了他们个人的轨迹,也为整个科技世界埋下了伏笔。
Yoshua Bengio:从兴奋到警觉 Bengio分享了两个截然不同的时刻。第一次是在他还是研究生时,读到Geoffrey Hinton的早期论文,他兴奋地想:“哇!也许有几个简单的物理定律就能帮我们理解人类智能。”这颗种子让他投身AI研究。而第二次,则是在ChatGPT问世后,一种“我们到底在做什么?”的警觉感油然而生。他对拥有目标且可能比人类更聪明的机器感到担忧,这促使他彻底转变了研究方向,致力于解决AI安全问题。
Bill Dally:从“内存墙”到“找猫实验” 在90年代末,Bill Dally致力于解决“内存墙”问题——访问内存比计算本身更耗时耗能。他提出的“流处理”概念,为后来的GPU计算铺平了道路。而真正的转折点,是2010年他与吴恩达(Andrew Ng)的一次早餐会。那时,吴恩达正用16000个CPU和神经网络技术在互联网上“找猫”。Dally和同事用48块Nvidia GPU重复了这个实验,结果让他大为震撼。他立刻意识到,Nvidia应该全力投入深度学习,专门为AI优化GPU。
Geoffrey Hinton:40年前的“迷你”语言模型 早在1984年,Hinton就在尝试用反向传播算法来预测词语序列中的下一个词。他惊喜地发现,这个“迷你”语言模型仅仅通过预测,就能学习到词语的深层含义。这其实就是今天大语言模型(LLM)的雏形。那么,为什么花了40年才走到今天?Hinton坦言:“我们当时没有足够的算力,也没有足够的数据。”
Jensen Huang:芯片设计与AI软件的惊人相似 作为Nvidia的掌门人,黄仁勋大约在2010年同时从多伦多大学、纽约大学和斯坦福大学的研究者那里,接触到了深度学习的早期形态。他发现,设计深度学习软件的模式,和他过去设计芯片的思路惊人地相似——都是通过高层次的表示和结构化设计来构建复杂系统。这种“可伸缩性”的洞察至关重要:一个算法如果能在一个GPU上高效运行,就能在多个GPU、多个系统,甚至多个数据中心上运行。这为Nvidia的算力帝国奠定了基础。
Fei-Fei Li(李飞飞):数据是那块缺失的拼图 2006年前后,作为一名年轻的助理教授,李飞飞痴迷于解决机器的视觉识别问题。她尝试了当时所有的算法,但都无法突破“泛化能力”的瓶颈。她和学生们意识到,机器和人类幼儿最大的区别在于——机器被“饿”着,缺乏足够的数据。于是,他们决定做一件当时看起来很“疯狂”的事:创建一个互联网规模的、手动标注的数据集——ImageNet。这个包含1500万张图片的数据集,成为了引爆深度学习革命的关键燃料。而她的第二个顿悟时刻是在谷歌担任首席科学家时,她意识到AI是一项“文明级技术”,必须将人文价值置于其核心,这也是她后来回到斯坦福创办“以人为本AI研究院”(Human-Centered AI Institute)的初衷。
Yann LeCun:从“仰慕者”到论战伙伴 LeCun年轻时就对“让机器自我学习”的想法着迷。他形容自己当时“要么太笨要么太懒”,不想从零开始编程一个智能机器。他希望能找到一种方法让机器自我组织和训练。在遍寻无果时,他发现了Hinton的论文,并视其为“1983年全世界最想见的人”。两年后,两人终于见面,在一次午餐上,他们发现彼此简直能补完对方的句子。LeCun早期痴迷于解决多层网络训练的难题,这正是反向传播的关键。后来,他与Hinton就“监督学习”和“无(自)监督学习”的路线展开了多年的辩论。有趣的是,ImageNet的巨大成功让监督学习大放异彩,整个社区都暂时“放弃”了自监督学习。但LeCun认为,LLM的成功恰恰证明了自监督学习的潜力,而下一个挑战,将是把这种能力应用到视频等更复杂的数据上。
是泡沫还是革命?顶级大脑激辩AI算力狂热
随着Nvidia成为全球市值最高的公司,一个问题盘旋在每个人心头:当前的AI热潮是可持续的革命,还是另一个即将破裂的科技泡沫?
黄仁勋给出了坚定的回答:这不是泡沫。
他用一个生动的对比来解释:在互联网泡沫时期,部署的大部分光纤都是“暗”的,未被使用;而今天,几乎每一块你能找到的GPU都在“亮着”,满负荷运转。
他认为,人们对AI最大的误解在于,把它看作传统的软件。
“过去的软件是预编译的,计算需求不高。但AI不同,智能必须在当下、结合上下文实时生成,你无法预先生成再检索。我们实际上创造了一个需要‘工厂’的行业,这些‘AI工厂’(数据中心)生产着‘智能’(tokens)。”
他断言,为了服务于价值数万亿美元的各行各业,我们需要价值数千亿美元的AI工厂。AI第一次将计算与劳动直接挂钩,它是在“做功”。我们正处于这个庞大基建的开端,因为今天大多数人还并未使用AI,而未来AI将无处不在。
Bill Dally也同意这个观点,他认为我们正处在三个指数级增长的交汇点:
- 模型效率越来越高:用更少的计算获得更好的结果。
- 模型能力越来越强:无论架构如何演进,模型只会越来越好。
- 应用场景刚刚开始:我们可能只触及了最终需求的1%。
然而,Yann LeCun提出了一个更具思辨性的观点。他认为,在某种意义上确实存在泡沫。
“泡沫可能存在于人们的期望中——即期望当前的大语言模型(LLM)范式能够直接通往人类水平的通用人工智能(AGI)。我个人不相信这一点。”
LeCun强调,我们距离拥有猫一样聪明的机器人还很遥远,AI的进步不仅仅是堆砌算力和数据,更需要基础科学的突破。
AGI还有多远?一场关于“机器超越人类”的时间预测
当被问及“我们距离通用人工智能(AGI)还有多远”时,几位巨擘的回答充满了差异和碰撞,精彩纷呈:
- Yann LeCun 认为,未来5到10年可能会出现新的技术范式,但真正的AGI会比我们想象的要长。
- Fei-Fei Li 则表示,这个问题本身就有误导性。机器智能和人类智能就像飞机和鸟,为不同目的而生。在某些方面(如翻译100种语言),机器早已“超越”人类;但在另一些方面,它们永远无法等同于人类智能。
- Jensen Huang 的回答最直接:“这个问题不重要。” 他认为,我们已经拥有了足够的通用智能去解决大量社会问题,技术会持续进步,我们应该关注应用,而不是纠结于一个学术定义。
- Geoffrey Hinton 给出了一个更具体的定义:如果AGI意味着“一台在辩论中总能赢过你的机器”,那么“我们很可能在20年内实现它”。
- Bill Dally 呼应了黄仁勋的观点,认为这是个“错误的问题”。他强调:“我们的目标不是取代人类,而是增强人类,让AI去做我们不擅长的事,让人类专注于创造力、同理心等独一无二的品质。”
- Yoshua Bengio 立刻表示不同意Bill的看法。他坦言:“我看不出有任何理由,我们最终无法制造出能做人类所有事情的机器。”他引用数据显示,AI在规划能力上的进步呈指数级增长,并预测,“AI研究AI”的能力可能在未来五年内改变游戏规则。但他最后也谨慎地补充,未来充满不确定性,我们不应过早下定论。
这场对话没有给出一个终极答案,但这或许正是其魅力所在。它揭示了AI领域内部丰富的思想光谱:既有对当前技术红利的乐观主义,也有对未来科学突破的冷静期待;既有“工具论”的务实,也有对“终极智能”的哲学思考。
可以肯定的是,我们正处在一场史无前例的变革之中。而指引我们前行的,正是这些先行者的智慧、远见,以及他们对未知永不停歇的探索。一年后再看,世界又会是另一番景象。