本文整理自 WIRED 资深编辑 Steven Levy 对 Google DeepMind CEO 戴密斯·哈萨比斯的最新专访,以下为视频精选内容。

在这个人工智能(AI)浪潮席卷全球的时代,我们每个人都感受到了那股既兴奋又不安的复杂情绪。一方面,我们对AI的潜力充满期待——它或许能为我们找到治愈顽疾的良方,发现可持续的新能源,为人类社会带来不可思议的福祉。这是AI许诺给我们的光明未来。但另一方面,担忧也如影随形:如果第一代强大的AI系统被植入了错误的价值观,或者其本身存在安全隐患,后果可能不堪设想。

在这场机遇与挑战并存的变革中,Google DeepMind的CEO,同时也是诺贝尔奖得主和被授予爵士头衔的戴密斯·哈萨比斯(Demis Hassabis),无疑是站在风暴中心的关键人物。在一次深度访谈中,他坦诚地分享了自己对于通用人工智能(AGI)、未来工作以及人类社会终极命运的看法。

AGI倒计时:5到10年,但我们还没到那一步

哈萨比斯创立DeepMind的初衷,是一个充满雄心的两步走计划:“首先解决智能,然后用智能解决其他一切问题。”这个最初设定的20年计划,如今已走过15年。他觉得,他们基本还在正轨上。

这意味着什么?这意味着我们距离被人们称为AGI的时代,可能只剩下5年了。

“我觉得,在未来5到10年内,我们有大约50%的可能会实现我们所定义的AGI。”哈萨比斯给出了一个听起来相当惊人的时间表。

当然,关于AGI的定义,行业内一直争论不休。哈萨比斯和他的团队从一开始就有一个清晰的标准:一个具备人类所有认知能力的系统。为什么以人类为参照?因为人类心智是我们在宇宙中唯一已知的、证明了“通用智能”可能存在的范例

所以,要宣称自己实现了AGI,就必须证明一个系统能在所有领域都表现出色。而现实是,我们还差得远。

哈萨比斯直言不讳地指出了当前AI(尤其是大语言模型)的软肋:

  • 能力缺失:它们在推理、规划、记忆等方面存在明显短板。
  • 缺乏真正的创造力:它们无法进行真正的发明,也无法提出全新的科学假说。
  • 最关键的问题:不一致性。他举了一个绝佳的例子:DeepMind的系统(如AlphaProof)可以解决国际奥数金牌水平的难题,但同一个系统有时却会在高中数学,甚至是“数一个单词里有几个字母”这种简单问题上翻车。

“这种表现上的巨大差异,说明这些系统还没有实现真正的‘通用化’。”哈萨比斯总结道。在所有这些能力被稳定地填补之前,我们还不能说AGI已经到来。

AGI的到来:是温和的过渡,还是剧烈的风暴?

那么,当我们真的迎来AGI的那一天,世界会发生“砰”的一声巨变吗?

哈萨比斯更倾向于认为,这将是一个渐进式的转变,而非一个瞬间完成的“阶跃函数”。即便我们拥有了那样的数字智能,物理世界依然遵循着它自己的法则,工厂、机器人、基础设施的改造都需要时间。

不过,他也提到了一个令人不安的可能性,即所谓的**“硬起飞”(hard takeoff)**场景。这个理论认为,一旦某个AGI系统具备了自我改进的能力——比如自己编写下一代更强的自己——那么领先者哪怕只领先了“十分钟”,也可能在极短时间内把这点优势变成一道无法逾越的鸿沟。

“这是一个巨大的未知数,”哈萨比斯承认,“我们不知道自我改进的速度会不会那么快。”但正是这个未知数,让当下的AI竞赛变得异常激烈和关键。因为AI系统不可避免地会带有其创造者所在文化环境的价值观和规范烙印。这使得“谁先造出来”这个问题,带上了沉重的地缘政治色彩。

一场高风险牌局:安全、监管与竞争

“现在是这个领域非常紧张的时期,”哈萨比斯说。巨大的资源投入、商业和国家的双重压力,以及对未知的探索,交织在一起。

他坦言自己主要担心两类风险:

  1. 恶意行为者:个人或流氓国家将通用AI技术用于有害目的。
  2. 技术失控风险:随着AI变得越来越强大、越来越具有“主体性”(agentic),我们能否确保它的护栏足够安全,不会被自己绕过?

正因为风险如此之高,监管问题便浮出水面。几年前,科技公司们还在呼吁“请监管我们”。但如今,地缘政治的紧张空气,让一些政府的态度从“监管”转向了“加速”,生怕在竞赛中落后。

哈萨比斯依然坚持,“聪明的监管”是必要的,但他强调,这种监管必须是国际性的。“AI是数字化的,它会影响每一个人。只在一个地方限制它,对于全球整体安全而言,帮助不大。”

然而,国际合作在当下举步维艰。更棘手的是,即便西方几个主要AI实验室的负责人彼此熟悉、经常沟通,但大家对于“到底发展到哪一步就该停下来”并没有一个公认的标准。

“我们现在的时间不多了,”他承认。因此,他们正投入越来越多的资源研究AI的安全、可控性和可解释性,希望用科学的方法,小心翼翼地走向AGI。在他看来,技术难题最终或许都能解决,但地缘政治问题可能会更棘手。

你的饭碗还好吗?AI时代的生存指南

聊到对工作的影响,哈萨比斯认为,目前AI更多扮演的是“辅助”和“增强”的角色,就像AlphaFold帮助科学家加速研究一样。它暂时是“加法”,而非“替代”。

但他预言,未来5到10年,我们将迎来一个**“黄金时代”**。AI工具将极大地增强我们的生产力,让个人变得有点“超人”的感觉。那些能熟练运用这些工具的人,生产力可能会提升十倍。

如果AGI能做所有人类的工作,那新创造出来的工作不也一样能被它做吗?对于这个终极问题,哈萨比斯认为,有些事情,即使机器能做,我们可能也不希望它来做。

“想想医生和护士,”他举例说,“诊断或许可以由AI辅助甚至完成,但护理工作呢?那种人与人之间的关怀和共情,我不认为你希望由一个机器人来提供。”

那么,对于即将踏入社会的毕业生,他有什么建议?

“我的建议是,全身心地投入去学习和理解这些新系统。学习STEM和编程依然重要,这能让你明白它们是如何构建的。然后,去精通如何使用它们——无论是微调模型、系统提示词工程还是其他。让你自己成为一个能最大限度发挥这些新工具潜力的人。”

20年后的世界:一个“彻底富足”的乌托邦?

如果一切顺利,20到30年后,世界会是什么样子?

哈萨比斯描绘了一个他称之为**“彻底富足”(radical abundance)**的时代。他相信,AGI能够解决一些人类社会面临的根源性问题,比如:

  • 攻克疾病,让人类活得更长久、更健康。
  • 找到终极能源方案,比如可控核聚变或室温超导体。

当这些问题被解决后,人类将进入一个“最大程度繁荣”的时期,甚至可能开始探索星辰大海。

然而,访谈者提出了一个尖锐的质疑:我们现在已经拥有巨大的财富,但分配极其不公;我们知道如何应对气候变化,却迟迟不愿行动。一个更强大的工具,真能改变这一切吗?

哈萨比斯的回应直指问题的核心:人类之所以难以合作,是因为我们一直生活在“零和博弈”的心态中,因为地球的资源相对有限。

他用一个绝妙的例子来说明:

“水资源获取。这在未来会是巨大的冲突源头。我们有解决方案——海水淡化,但它需要消耗巨量的能源,所以只有极富裕的国家才用得起。但如果,AI帮我们实现了近乎免费的清洁能源(比如核聚变),那海水淡化的成本就几乎为零。到那时,谁控制了河流就不再那么重要,因为每个人都能轻易获得淡水。一个重大的冲突源头就消失了。”

他认为,AI带来的“彻底富足”将从根本上改变游戏规则,有望将人类社会的心态从“零和”转变为“非零和”。当然,如何公平分配这种富足,依然需要伟大的哲学家和社会科学家来共同探讨。

通往未来的道路

在谈话的最后,哈萨比斯坚信,尽管目前资本主义和民主体系是推动进步的最有效引擎,但在后AGI时代,连经济学的基础、价值和金钱的概念都可能被重塑。

面对公众对AI的普遍焦虑和愤怒,他表示完全理解。但他总是尝试通过具体的例子,比如用AlphaFold帮助设计新药、治愈疾病,来解释他工作的激情所在。“如果这在我们的能力范围之内,那么不去实现它,才是不道德的。”

“我经常说,”哈萨比斯在结尾留下了这样一句意味深长的话,“如果我不知道像AI这样革命性的技术即将来临,来帮助我们应对所有其他挑战,我会对我们的未来感到非常担忧。当然,AI本身也是一个挑战,但它是一个有潜力帮助我们解决其他所有挑战的挑战——前提是,我们能把它做对。”