Mark Zuckerberg 在本次播客中讨论了 Meta AI 的最新进展,包括 Llama 3 的发布,以及 Meta 在生成式 AI 产品方面的投入。他强调了开源对 AI 发展的意义,并表达了对 AI 未来发展的乐观态度。Zuckerberg 还谈到了他对元宇宙的愿景,以及他认为 AI 和元宇宙将如何改变人类社会。

  • Meta 发布了 Llama 3,一个开源的 AI 模型,并将其整合到 Meta AI 中,使其成为最智能的免费 AI 助手。
  • Llama 3 在编码、推理等方面取得了显著进步,其 80 亿参数版本与 Llama 2 的最大版本性能相当。
  • Meta 在 AI 方面的投入巨大,已投资数十亿美元用于训练模型和构建基础设施。
  • Zuckerberg 认为 AI 将像计算机的出现一样,彻底改变人类社会,并带来新的应用和体验。
  • Zuckerberg 对 AI 的开源持积极态度,但认为在某些情况下,例如当模型能力发生质变时,可能需要限制开源。
  • Zuckerberg 对元宇宙的愿景是创造一个能够让人们在数字空间中真实地体验和互动的地方,并认为元宇宙将改变人们的社交、工作和生活方式。
  • Zuckerberg 认为,AI 和元宇宙的成功需要强大的技术基础和持续的创新,并强调了专注和资源分配的重要性。
  • Zuckerberg 认为,开源 AI 可以帮助防止 AI 技术被少数公司或机构垄断,并促进 AI 技术的快速发展和普及。
  • Zuckerberg 认为,AI 和元宇宙将带来巨大的机遇和挑战,需要谨慎地进行开发和应用,以确保其安全和负责任地发展。

原文

Llama 3

Dwarkesh Patel 00:00:00

Mark,欢迎来到播客。

Mark Zuckerberg 0:00:01

谢谢邀请。我是你的粉丝。

Dwarkesh Patel 00:00:03

谢谢你,太客气了。我们先来聊聊这次采访发布时会发布的新内容吧。给我们介绍一下最新的模型和 Meta AI 吧。有什么新鲜有趣的东西吗?

Mark Zuckerberg 00:00:15

我觉得世界上大多数人会关注的是新版的 Meta AI。我们正在做的最重要的事情是对模型进行升级,我们正在推出 Llama-3。我们会把它作为开源项目提供给开发者社区,现在它还将为 Meta AI 提供支持。我相信我们会深入探讨 Llama-3 的很多内容,但关键是,我们现在认为 Meta AI 是世界上最智能的、可免费使用的 AI 助手。我们还集成了 Google 和 Bing 来获取实时知识。

我们会在我们的应用程序中更显著地展示它。在 Facebook 和 Messenger 的顶部,您可以直接使用搜索框来提出任何问题。我们添加了一些新的创作功能,我觉得非常酷,大家会喜欢。我觉得动画是一个很不错的功能。您可以把任何图片动画化。

有一个功能大家会觉得特别惊艳,因为它现在可以非常快速地生成高质量的图像,甚至在你输入时就能实时生成并更新图像。比如你输入“给我看一张奶牛在山脚下的田野里吃澳洲坚果、喝啤酒的图片”,它会实时更新图像。这真的很狂野,我觉得大家会喜欢。所以我认为这是大多数人会看到的内容。我们正在逐步推出这项服务,虽然不是所有地方都有,但我们会在几个国家开始推广,并将在接下来的几周和几个月内逐步扩展。我对此非常兴奋,迫不及待想让大家使用。这是 Meta AI 的一大进步。

但如果你想深入了解一下,Llama-3 显然是最有技术含量的。我们正在训练三个版本:一个是 80 亿参数模型,今天发布一个是 700 亿参数模型,还有一个 4050 亿参数的密集模型仍在训练中。所以今天我们不会发布那个,但我对 8B 和 70B 的表现感到非常满意。它们在各自的规模上都处于领先地位。我们将发布一篇博客文章,列出所有基准测试,供大家自行查看。显然它是开源的,所以人们可以有机会使用它。

我们有一个新的发布路线图,将带来多模态功能、更强的多语言能力以及更大的上下文窗口。希望在今年晚些时候我们能够推出 405B。就目前的训练情况来看,它已经达到了约 85 MMLU,我们预计它将在许多基准测试中取得领先。我对此非常兴奋。70 亿参数的模型也非常棒。我们今天发布它。它大约有 82 MMLU,并且在数学和推理方面得分领先。我认为将它交到大家手中将是非常惊艳的。

Dwarkesh Patel 00:03:42

哦,真有趣。这是我第一次听到它作为基准测试。非常令人印象深刻。

Mark Zuckerberg 00:03:45

8B 几乎和我们发布的最大的 Llama-2 一样强大。所以最小的 Llama-3 基本上和最大的 Llama-2 一样强大。

Dwarkesh Patel 00:03:59

在我们深入探讨这些模型之前,我想回到过去。我猜 2022 年是你开始购买这些 H100 的时候,或者你可以告诉我是什么时候。股价暴跌。人们问这些资本支出到底发生了什么。人们不买元宇宙的账。大概你是花这些资本支出来买这些 H100 吧。当时你怎么知道要买 H100?你怎么知道你需要 GPU?

Mark Zuckerberg 00:04:22

我觉得这是因为我们在研究 Reels。我们总是希望有足够的能力来构建一些我们还看不到的东西。我们进入了这样一个境地,我们需要更多的 GPU 来训练模型。这是我们服务的一大进化。我们不再只是对你关注的人或页面的内容进行排名,而是开始大力推荐我们称之为未关联内容的内容,即来自你未关注的人的或页面的内容。

我们可以展示给你的内容候选集从数千扩展到了数亿。这需要一个完全不同的基础设施。我们开始努力实现这一目标,我们在基础设施方面受到了限制,无法以我们希望的速度赶上 TikTok 的步伐。我基本上看着这情况,我就像“嘿,我们必须确保我们再也不会处于这种境地。所以让我们订购足够的 GPU 来处理 Reels 的需求和内容排序。但让我们也翻倍。”我们的正常原则是总会有一些我们看不到的东西在地平线上。

Dwarkesh Patel 00:05:51

你知道这会是 AI 吗?

Mark Zuckerberg 00:05:52

我们认为这可能与训练大型模型有关。当时我认为这可能与内容有关。经营公司的模式匹配总会有另一件事。当时我非常专注于让 Reels 和其他内容的推荐工作。这对于 Instagram 和 Facebook 现在来说是一个非常大的解锁,能够展示给人们他们感兴趣的内容,即使他们没有关注这些人。

但回过头来看,这个决定是非常正确的。它来自于落后。这不是说“哦,我当时想得很远。”其实,大多数时候我们做出一些看起来不错的决定,是因为之前犯过错,不想再重蹈覆辙。

Dwarkesh Patel 00:06:47

这完全是个插曲,但我想趁机问一下这个问题。我们马上回到 AI。在 2006 年,你没有以 10 亿美元的价格卖掉公司,但大概会有一个金额是你愿意卖掉的,对吗?你有没有在心里写下“我认为 Facebook 当时的实际估值是这样,他们没有真正得到估值的准确性”?如果他们给你 5 万亿美元的报价,你当然会卖掉。那么你是如何思考这个选择的?

Mark Zuckerberg 00:07:08

我觉得有些事情只是个人问题。我不知道当时我是否足够成熟去进行那样的分析。我周围有很多人,他们为 10 亿美元提出了各种各样的论点,比如“这是我们需要赚的钱,这是我们需要达到的规模。这显然是未来很多年的事情。”当时这远远超出了我们的实际情况。我没有足够的财务成熟度来真正参与那种辩论。

内心深处我相信我们正在做的事情。我做了一些分析,比如“如果我不做这件事,我会做什么?嗯,我真的喜欢构建东西,我喜欢帮助人们交流。我喜欢了解人们的情况和人们之间的动态。所以我认为如果我卖掉这家公司,我会去建立另一家类似的公司,我有点喜欢我现在的这家公司。所以为什么?”我认为人们做出的一些最大的赌注往往是基于信念和价值观的。这实际上通常很难通过分析来连接未来的点。

Coding on path to AGI

Dwarkesh Patel 00:08:32

你们有很长时间的 Facebook AI 研究。现在它似乎已经成为你们公司核心的一部分。从什么时候开始,将 AGI(通用人工智能)或你如何定义的任务成为 Meta 关键优先事项的?

Mark Zuckerberg 00:08:49

这已经是很重要的事情了。我们大约在 10 年前开始了 FAIR(Facebook AI Research)。想法是,在通用智能或你想称之为什么的过程中,会有各种各样的创新,这将改善我们所做的一切。所以我们最初并没有把它视为产品。它更像是一个研究小组。在过去的 10 年里,它创造了很多不同的东西,改善了我们所有的产品。它推动了这个领域的发展,也让该领域的其他人创造的东西改善了我们的产品。我认为这很棒。

过去几年,随着 ChatGPT 和图像生成扩散模型的出现,显然发生了很大的变化。这些非常狂野的东西显然将影响人们与每个应用程序的交互。于是我们启动了第二个小组,即生成式 AI 小组,目的是将这些东西引入我们的产品,构建领先的基础模型,以支持这些不同的产品。

当我们开始这样做时,最初的理论是我们所做的很多东西都是非常社交的。它帮助人们与创作者互动,帮助人们与企业互动,帮助企业销售产品或提供客户支持。还有一些基本的助手功能,无论是用于我们的应用程序、智能眼镜还是 VR。因此,最初并不完全清楚你是否需要完整的 AGI 来支持这些用例。但通过工作的各个方面,实际上变得清楚你确实需要。例如,当我们在研究 Llama-2 时,我们没有优先考虑编码,因为人们不会在 WhatsApp 中向 Meta AI 提出很多编码问题。

Dwarkesh Patel 00:10:59

现在他们会问了,对吗?

Mark Zuckerberg 00:11:00

我不知道。我不确定 WhatsApp、Facebook 或 Instagram 是人们会提出很多编码问题的用户界面。也许是我们即将推出的网站 meta.ai。但是在过去 18 个月里,一个有点令人惊讶的结果是,事实证明,编码对很多领域来说很重要,不仅仅是编码。即使人们不提出编码问题,在编码上训练模型也有助于它们在回答问题时变得更严谨,并有助于它们在各种不同领域中进行推理。这是一个例子,在 Llama-3 上我们真的专注于用大量编码来训练它,因为即使人们不是主要提出编码问题,这也会使它在所有这些方面表现得更好。

推理是另一个例子。也许你想与创作者聊天,或者你是企业并试图与客户互动。这种互动不仅仅是“好吧,发送消息,然后回复。”这是一种多步骤的互动,你试图思考“如何实现此人的目标?”很多时候,当客户来找你时,他们不一定知道自己在寻找什么或如何提问。所以 AI 的工作不只是回答问题。

你需要更全面地思考。这真的变成了一个推理问题。因此,如果其他人在推理方面取得了进展,而我们在这里仍然使用一个基本的聊天机器人,那么我们的产品相对于其他人正在构建的东西来说就显得很差劲。最终,我们意识到我们必须解决通用智能问题,并提高了赌注和投资,以确保我们能够做到这一点。

Dwarkesh Patel 00:12:48

所以将解决所有这些用户用例的 Llama 版本,是不是也将强大到足以取代你们公司里的程序员?

Mark Zuckerberg 00:13:03

我认为所有这些东西都会随着时间的推移逐渐实现。

Dwarkesh Patel 00:13:05

但最终版本:Llama-10。

Mark Zuckerberg 00:13:10

我认为这个问题里包含了很多内容。我不确定我们是在取代人,而是在给人们提供工具,让他们能够做更多的事情。

Dwarkesh Patel 00:13:18

Llama-10 之后,你们公司的程序员的生产力会提高 10 倍吗?

Mark Zuckerberg 00:13:20

我希望更多。我不相信人类智能有一个单一的门槛,因为每个人都有不同的技能。我认为在某个时候,AI 可能会在大多数事情上超过人类,具体取决于模型的强大程度。但我认为这是一个渐进的过程,我不认为 AGI 是一种单一的事物。你基本上是在添加不同的能力。多模态是我们现在关注的一个关键点,最初是照片、图像和文字,但最终是视频。因为我们非常关注元宇宙,所以 3D 类的东西也很重要。我非常关注的一种模态是情感理解。我没有看到其他行业中的许多人关注这一点。人类大脑中有很多部分专门用于理解人、理解表情和情感。我认为这是一个独特的模态。你可以说它可能只是视频或图像,但显然这是一个非常专门化的版本。

因此,你想要训练模型关注的不同能力很多,除了在推理和记忆方面的显著提升,记忆本身就是一个全新的领域。我认为未来我们不会主要把事情塞进查询上下文窗口来提出更复杂的问题。会有不同的记忆存储或不同的定制模型,更加个性化。这些都是不同的能力。显然,还有大与小的问题。我们关注这两者。如果你在运行像 Meta AI 这样的东西,那基本上是基于服务器的。我们也希望它能在智能眼镜上运行,而智能眼镜的空间非常有限。所以你希望它非常高效。

Dwarkesh Patel 00:15:16

如果你进行数百亿美元甚至数千亿美元的推理,如果你在工业规模上使用智能,应用场景是什么?是模拟吗?是将在元宇宙中的 AI 吗?我们将如何使用这些数据中心?

Mark Zuckerberg 00:15:32

我们的赌注是它将基本上改变所有产品。我认为将会有一种 Meta AI 通用助手产品。我认为它会从一种聊天机器人的形式转变为一种感觉更像是给它更复杂任务的助手,然后它会去完成这些任务。这将需要大量的推理,并且还需要大量的计算。

然后我认为与其他人的 AI 代理互动将成为我们工作的一个重要部分,无论是企业还是创作者。我对此的一个大理论是,不会只有一个单一的 AI 供你互动。每个企业都希望有一个代表他们利益的 AI。他们不会希望主要通过一个将卖他们竞争对手产品的 AI 与你互动。

我认为创作者是一个大领域。在我们的平台上有大约 2 亿创作者。他们基本上都有一种模式:他们希望与他们的社区互动,但受到时间的限制。社区通常希望与他们互动,但不知道他们的时间有限。如果你能创造一个 AI,让创作者能够拥有,按照他们的意愿训练,并与他们的社区互动,我认为这将非常强大。会有大量的互动。

这些只是消费者用例。我和我妻子运营我们的基金会 Chan Zuckerberg Initiative。我们在科学领域做了很多事情,显然 AI 在推动科学和医疗方面将有很多应用。因此,它将影响到基本上每个领域的产品和经济。

Dwarkesh Patel 00:17:41

你提到 AI 能够为你执行多步骤任务。这是一个更大的模型吗?例如 Llama-4,它会有 70B 的版本,但你会在正确的数据上训练它,这将非常强大?这种进展看起来如何?是规模化吗?还是只是同样大小但不同的架构?

Mark Zuckerberg 00:18:02

我不知道我们是否知道答案。我认为一个显而易见的模式是你有 Llama 模型,然后你在其上构建一些其他应用程序特定的代码。一部分是为了用例的微调,但一部分是,比如说 Meta AI 如何使用工具如 Google 或 Bing 来获取实时知识。这不是 Llama 模型的一部分。对于 Llama-2,我们有一些类似的东西,它有点手工编写。我们 Llama-3 的目标之一是将更多的东西集成到模型本身。对于 Llama-3,当我们开始进入更多这些类似智能体的行为时,我认为一部分是会更多手工编写的。我们的目标是将更多的东西集成到 Llama-4 模型中。

每一步的过程中,你都有一个即将实现的可能性的感觉。你开始尝试和测试它。我认为这有助于你形成直觉,了解你希望在下一版本模型中训练的内容。这样它会更通用,因为显然对于你手工编码的任何东西,你可以解锁一些用例,但它本质上是脆弱和不通用的。

Dwarkesh Patel 00:20:35

当你说“集成到模型本身”时,你是说你会训练它以获得你想要的东西吗?你说“集成到模型本身”是什么意思?

Mark Zuckerberg 00:20:42

对于 Llama-2,工具使用非常具体,而 Llama-3 具有更好的工具使用。我们不需要手工编码所有的东西来使用 Google 进行搜索。它可以自己做。类似的,对于编码和运行代码等事情也是一样。一旦你拥有那种能力,你就会看到我们可以开始做什么。我们不一定要等到 Llama-4 出现才开始构建这些能力,所以我们可以开始测试。这会有很多手工编码,使产品在过渡期内变得更好。这有助于指引我们下一版本模型的发展方向。

Dwarkesh Patel 00:21:37

在 Llama-3 中,你最期待社区微调的是什么?可能不是对你最有用的,但你最喜欢玩的是什么。他们微调了古代,你就可以和维吉尔聊天之类的。你期待什么?

Mark Zuckerberg 00:21:50

我认为这种东西的本质是会让你感到惊讶。我认为任何我认为有价值的具体东西,我们可能会自己构建。我认为你会得到精炼版本。我认为你会得到更小的版本。一个事情是我认为 8B 对很多用例来说还不够小。随着时间的推移,我希望得到一个 1-2B 参数的模型,甚至是 500M 参数的模型,看看能做些什么。

如果 8B 参数几乎和最大的 Llama-2 模型一样强大,那么 10 亿参数的模型应该能做一些有趣的事情,而且更快。这对于分类或者很多人们在理解用户查询意图并将其传递给最强大的模型以微调提示之前的基本操作来说是很好的。我认为这是社区可能帮助填补的一个空白。我们也在考虑自己精炼一些东西,但目前 GPU 都在忙于训练 405B。

Dwarkesh Patel 00:23:12

所以你有这么多的 GPU。你说到年底会有 35 万个。

Mark Zuckerberg 00:23:18

这是整个集群。我们建立了两个,我认为是 22000 或 24000 的集群,这些是我们用于训练大模型的单个集群,显然是我们做的很多事情的一部分。我们的大部分计算资源都用于训练 Reels 模型、Facebook 新闻推送和 Instagram 推送。推理对于我们来说是一个巨大的事情,因为我们为大量的人提供服务。我们的推理计算需求与训练的比率可能比其他公司要高得多,因为我们服务的社区量非常大。

Dwarkesh Patel 00:23:56

在他们与我分享的材料中,非常有趣的是你们在更多数据上训练它,超出了计算优化的范围。推理对你们和社区来说都非常重要,因此使其具有海量数据是有意义的。

Mark Zuckerberg 00:24:08

虽然有趣的一点是,即使是 70B 模型,我们认为它会更饱和。我们训练了大约 15 万亿个 token。我猜我们的预测是它会逐渐趋于平稳,但即使到最后它仍在学习。我们可能可以喂给它更多 token,它会变得更好。

在某种程度上,你在经营公司,你需要进行这些元推理问题。我是否想花我们的 GPU 进一步训练 70B 模型?我们是否希望继续前进以开始测试 Llama-4 的假设?我们需要做出这个决定,我认为我们为这个版本的 70B 找到了一个合理的平衡。将来会有更多的版本,未来的一段时间将会有多模态的 70B 模型。但这很有趣,这些架构目前可以处理这么多数据。

Dwarkesh Patel 00:25:11

这很有趣。这对未来模型意味着什么?你提到 Llama-3 8B 比 Llama-2 70B 更强。

Mark Zuckerberg 00:25:19

不,不,它几乎一样强大。我不想夸大其词。它们是同一个数量级的。

Energy bottlenecks

Dwarkesh Patel 00:25:24

这是否意味着 Llama-4 70B 将和 Llama-3 405B 一样强大?未来会是什么样子?

Mark Zuckerberg 00:25:30

这是一个很大的问题,对吧?我认为没有人知道。世界上最难规划的事情之一是指数曲线。它会持续多久?我认为它继续下去的可能性足够大,值得投资数百亿甚至上千亿美元来建设基础设施,假设它继续下去,你将获得一些非常惊人的东西,能够创造出令人惊叹的产品。但我认为业内没有人能真正告诉你它会继续以这样的速度扩展。历史上总会有瓶颈。在某些点上,你会遇到瓶颈。现在有这么多精力投入到这一领域,可能这些瓶颈会很快被打破。我认为这是一个有趣的问题。

Dwarkesh Patel 00:26:24

如果没有这些瓶颈,世界会是什么样子?假设进展继续保持这个速度,这似乎是有可能的。放大一下,忘掉 Llamas…

Mark Zuckerberg 00:26:33

嗯,总会有不同的瓶颈。在过去几年里,我认为存在 GPU 生产的问题。即使是有钱支付 GPU 的公司,也不一定能得到他们想要的数量,因为有各种供应限制。现在我认为这类问题正在减少。所以你会看到很多公司现在在考虑投资大量资金来建立这些东西。我认为这会持续一段时间。然后有一个资本问题。什么时候停止值得投入资本?

实际上,在我们遇到资本问题之前,你会遇到能源限制。我认为目前还没有人建立一个千兆瓦级的单一训练集群。你会遇到这些事情,这些事情在现实世界中进展较慢。获取能源许可是一个非常受政府监管的过程。你从某种程度上受监管的软件转向了另一个方面。建设大规模的新电厂或大规模扩展,然后建设跨越私人或公共土地的输电线路,这只是一个非常受监管的过程。你说的时间跨度是几年。如果我们想要建立一个庞大的设施,为其提供电力是一个非常长期的项目。我认为人们会这样做,但我不认为这可以像获得一个 AI 级别的魔法一样,只需获得大量资本并投入进去,然后模型就会出现…在这过程中,你会遇到不同的瓶颈。

Dwarkesh Patel 00:29:00

有没有什么东西,即使是像 Meta 这样的大公司也没有资源去做?如果你的研发预算或资本支出预算是现在的十倍,你可以追求它?有些什么在你心里,但即使是现在的 Meta,你也无法发行股票或债券来完成的事情?它比你的预算大十倍?

Mark Zuckerberg 00:29:19

我认为能源是一方面。如果我们可以获得所需的能源,我们可能会建立比目前更大的集群。

Dwarkesh Patel 00:29:34

从根本上说,这还是资金限制的问题吗?如果你有一万亿美元…

Mark Zuckerberg 00:29:39

我认为这是时间问题。这取决于指数曲线能延续多久。目前很多数据中心的功率在 50 兆瓦或 100 兆瓦左右,一个大数据中心可能是 150 兆瓦。你拿一个完整的数据中心,把你需要的一切装进去,以建立最大的集群。我认为很多公司都在做类似的事情。

但是当你开始建设一个 300 兆瓦或 500 兆瓦或 1 吉瓦的数据中心时,还没有人建立过 1 吉瓦的数据中心。我认为这会发生。只是时间问题,但这不会是明年。要建造这些东西需要几年时间。为了给大家一个参照,1 吉瓦大概相当于一个有意义的核电站,仅用于训练模型。

Dwarkesh Patel 00:30:51

亚马逊不是已经做了这个吗?他们有一个 950 兆瓦的…

Mark Zuckerberg 00:30:55

我不太清楚他们做了什么。你得去问他们。

Dwarkesh Patel 00:31:00

但这不需要在同一个地方,对吗?如果分布式训练可行,它可以分布在多个地方。

Mark Zuckerberg 00:31:03

嗯,我认为这是一个大问题,这将如何运作。很可能在未来,我们所谓的训练这些大模型更多地是像推理生成合成数据,然后去喂给模型。我不知道那种比例会是什么,但我认为生成合成数据更多是推理而不是训练。显然,如果你是为了训练模型而这样做的,它是更广泛训练过程的一部分。所以这是一个开放的问题,这种平衡如何发挥作用。

Dwarkesh Patel 00:31:44

这种情况是否也可能发生在 Llama-3 和未来的 Llama-4 之类的模型中?你发布这个模型,如果有人有大量的计算能力,他们可以使用你发布的模型让这些东西变得更智能。比如某个随机国家,像科威特或阿联酋,他们有大量的计算能力,他们实际上可以使用 Llama-4 做出更智能的东西。

Mark Zuckerberg 00:32:08

我确实认为会有这样的动态,但我也认为模型架构有一个基本的限制。我认为一个我们用 Llama-3 架构训练的 70B 模型可以变得更好,它可以继续下去。正如我所说,我们认为如果继续喂给它更多的数据或重新训练高价值的 token,它会继续变得更好。我们看到世界各地的一些公司基本上拿着 Llama-2 70B 模型架构,然后构建一个新模型。但事实仍然是,当你对类似 Llama-3 70B 或 Llama-3 405B 进行代际改进时,今天没有类似的开源模型。我认为这是一个巨大的阶跃函数。人们在此基础上能够构建的东西不可能无限增长。有一些优化,直到你达到下一个阶跃函数。

Is AI the most important technology ever?

Dwarkesh Patel 00:33:20

让我们放大一点,从具体模型和多年的能源审批周期来看。大局来看,AI 在接下来的几十年里会发生什么?它感觉像另一种技术,比如元宇宙或社交,还是在人类历史进程中一种根本不同的东西?

Mark Zuckerberg 00:33:43

我认为它会非常基本。我认为它更像是计算机本身的发明。你会得到所有这些新的应用程序,就像你得到了网络或手机。人们基本上重新思考所有的体验,因为很多以前不可能的事情变得可能了。所以我认为这将会发生,但我认为这是一个更低级的创新。我的感觉是它会更像是从没有计算机到有计算机。

很难推理这些东西如何发展。从宇宙尺度来看显然它会很快发生,在几十年内。有一些人担心它真的会失控,从某种程度的智能突然变得极其智能。我只是认为有很多物理限制使得这种情况不太可能发生。我真的看不到那种情况的发生。我认为我们会有时间去适应。但它会真的改变我们的工作方式,并给人们提供各种创造性的工具去做不同的事情。我认为这将真正使人们能够更好地做他们想做的事情。

Dwarkesh Patel 00:35:18

也许不会一夜之间,但你的看法是,从宇宙尺度来看,我们可以这样思考这些里程碑吗?人类进化,然后 AI 出现,然后他们走向银河系。可能需要几十年,可能需要一个世纪,但这是历史上正在发生的宏大图景吗?

Mark Zuckerberg 00:35:38

抱歉,怎么理解?

Dwarkesh Patel 00:35:40

从这样的意义上来说,人类进化了,然后 AI 出现了,然后他们走向银河系。即使这需要几十年,也在整个历史的背景下具有这样的意义。

Mark Zuckerberg 00:35:48

我认为这很复杂。人类历史一直是人们认为人类某些方面非常独特,然后逐渐理解到这并不完全正确,但人类仍然非常特别。我们曾经认为地球是宇宙的中心,但它不是,但人类仍然非常棒,非常独特,对吧?

我认为人们往往有一个偏见,认为智能和生命有某种根本的联系。实际上,这并不清楚。我们没有一个足够清晰的意识或生命定义来全面探讨这个问题。存在很多关于创建智能的科幻小说,其中智能开始展现出各种人类行为和特点。当前所有这些东西的呈现形式感觉是,智能可以与意识、代理等东西分离。这使得它成为一个非常有价值的工具。

Dangers of open source

显然,很难预测这些东西随着时间的推移会朝哪个方向发展,这就是为什么我认为没有人应该教条地发展或规划他们的工作。你需要在每次发布时进行评估。我们显然非常支持开源,但我没有承诺我们会发布我们所做的每一件事。我非常倾向于认为开源对社区是有益的,对我们也是有益的,因为我们会受益于创新。但如果某个时候出现某种质的变化,使得我们觉得开源是不负责任的,那我们就不会开源。这一切都很难预测。

Dwarkesh Patel 00:38:07

是什么具体的质的变化让你在训练 Llama-5 或 Llama-4 时看到后觉得“你知道吗,我不确定是否要开源它”?

Mark Zuckerberg 00:38:17

在抽象层面上回答这个问题有点困难,因为任何产品都可能表现出负面行为,只要你能缓解它,就可以了。社交媒体有不好的方面,我们努力缓解这些问题。Llama-2 也有不好的地方,我们花了很多时间确保它不会帮助人们实施暴力行为或类似的事情。但这并不意味着它是一种自主或智能的代理。它只是学到了很多关于世界的知识,能够回答一组我们认为不应该回答的问题。我认为问题不是它表现出什么行为,而是我们无法缓解它表现出来的行为。

我认为事情可以是好是坏的方式很多,很难提前列举清楚。看看我们在社交媒体上处理的问题和不同类型的伤害。我们基本上有 18 或 19 类有害行为,并建立了 AI 系统来识别这些行为,并尽可能确保它们不会在我们的网络上发生。随着时间的推移,我认为你也可以将这些问题分解成更多的分类。我认为这是我们研究的一个领域,因为我们想确保我们理解这些问题。

Dwarkesh Patel 00:41:04

这似乎是个好主意。如果 AI 系统未能得到广泛部署,人人无法访问这些系统,我会感到失望。同时,我想更好地理解缓解措施。如果缓解措施是微调,关于开源权重的一切都是你可以去掉微调,因为它通常是浮于表面的。在模型的这些能力上,如果它能与生物学研究人员在 Slack 上对话…我认为模型还远远达不到这种程度。现在它们就像 Google 搜索一样。但如果我能展示我的培养皿并解释为什么我的天花样本没有生长以及需要改变什么,怎么缓解这个问题?因为有人可以通过微调将其引入,对吗?

Mark Zuckerberg 00:41:44

那是真的。我认为很多人会基本上使用现成的模型,一些怀有恶意的人会试图去掉所有的不良内容。所以我确实认为这是一个问题。另一方面,我哲学上非常支持开源的一个原因是,我确实认为未来 AI 的集中化可能和它的广泛传播一样危险。我认为很多人都在考虑“如果我们能做到这些,放出这些东西到野外并广泛传播是否有害?”的这个问题。我认为另一个版本是,一个机构拥有比其他所有人都强大的 AI 可能也非常糟糕。

这里有一个安全的类比。我认为有很多系统存在很多安全漏洞。如果你能回到一两年前,假设你只比现在提前一两年了解这些漏洞。你几乎可以破解任何系统。这不是 AI。所以相信一个非常智能的 AI 可能会识别一些漏洞,并且像一个比现在提前一两年的黑客一样,可能会妥协所有这些系统。

我们作为一个社会是如何处理这个问题的呢?一个重要部分是开源软件,这使得当软件得到改进时,不仅仅局限于一个公司的产品,而是可以广泛部署到许多系统,无论是银行、医院还是政府。当软件变得更加坚固,这种情况发生是因为更多人可以看到它并测试它,有关于这方面的标准。世界可以快速一起升级。

我认为一个非常广泛部署的 AI 世界,其中它随着时间推移变得坚固,是一个所有系统能够互相制衡的世界。这看起来从根本上比集中化更健康。这两者都有风险,但我认为这是一个人们没有经常谈论的风险。AI 系统做坏事的风险我理解。但我更担心一个不可信的行为者拥有超级强大的 AI,不管是敌对政府还是不可信的公司。我认为这是一个更大的风险。

Dwarkesh Patel 00:44:59

他们可能推翻我们的政府,因为他们有一种没人有的武器?

Mark Zuckerberg 00:45:06

或者只是制造很多混乱。我认为直觉是这些东西在经济和安全等方面非常重要和有价值。如果你不信任的人或对手拥有更强大的东西,我认为那可能是一个问题。可能最好的缓解方法是拥有良好的开源 AI,使其成为标准,在很多方面成为领导者。这确保了一个更加均衡和公平的竞争环境。

Dwarkesh Patel 00:45:49

这对我来说似乎是有道理的。如果这行得通,那将是我更喜欢的未来。我想了解的是机制上的方面,开源 AI 系统在世界上如何防止有人用他们的 AI 系统制造混乱?用生物武器的具体例子,是我们将在其他地方进行大量 R&D 以快速找到疫苗吗?这是怎么发生的?

Mark Zuckerberg 00:46:13

如果你看我提到的安全问题,我认为一个拥有较弱 AI 试图破解一个由更强 AI 保护的系统会成功较少。在软件安全方面——

Dwarkesh Patel 00:46:28

我们怎么知道世界上的每样东西都是这样的呢?如果生物武器不是这样呢?

Mark Zuckerberg 00:46:32

我不知道每样东西都是这样的。生物武器是一个人们非常关注的领域,我认为这是很有道理的。有一些缓解措施。你可以尝试不将某些知识训练进模型。有不同的事情可以做,但在某种程度上,如果你有一个足够坏的行为者,而你没有其他 AI 能够平衡它们,理解威胁,那可能是一个风险。这是我们需要关注的一个方面。

Dwarkesh Patel 00:47:19

是否有一些你在部署这些系统时可以看到的东西,你在训练 Llama-4 时它撒谎了,因为它认为你没有注意到或类似的东西,你会觉得“哇,这是什么情况?”这可能不会出现在 Llama-4 类型的系统中,但有没有什么你能想象的,看到它的欺骗性和数十亿个副本在野外时你会非常担心?

Mark Zuckerberg 00:47:46

目前我们看到很多幻觉。更多是这类问题。我认为一个有趣的问题是,你如何区分幻觉和欺骗?有很多风险和需要考虑的事情。在管理我们的公司时,我试图在这些长远的理论风险与我认为今天实际上存在的非常真实的风险之间取得平衡。所以当你谈论欺骗时,我最担心的形式是人们使用它生成虚假信息,然后通过我们的网络或其他网络传播。这是我们如何应对这种有害内容的方式,通过建立比对手更智能的 AI 系统。

这构成了我对这个问题的一部分看法。如果你看看人们通过社交网络做或试图做的不同类型的有害行为,有些行为不是特别对抗性的。例如,仇恨言论在对抗性上不是特别强。人们不会变得越来越种族主义。这是一个我认为 AI 通常比人在这些问题上进步得更快的问题。我们有两方面的问题。人们做坏事,无论是试图煽动暴力还是其他事情,但我们也有很多误报的情况,错误地审查了一些东西。我认为这让很多人不满。所以我认为拥有一个越来越精确的 AI 是好的。

但让我给你另一个例子:国家试图干涉选举。这绝对是他们拥有最前沿的技术,并且每年都在进步的一个例子。因此,我们阻止了一种技术,他们学习了我们做了什么,然后用另一种技术来对付我们。这不像某个人试图说些刻薄的话。他们有一个目标。他们很聪明。他们拥有很多技术。在这些情况下,我仍然考虑我们的 AI 系统是否能以比他们更快的速度发展。这是一场军备竞赛,但我认为我们目前在这场军备竞赛中占据优势。这是我花时间思考的很多事情之一。

是的,无论是 Llama-4 还是 Llama-6,我们需要考虑我们观察到的行为,不只是我们,部分原因是你使其开源,很多其他人也会研究。所以我们想看看其他人观察到什么,我们观察到什么,我们能缓解什么,然后我们做出评估,是否可以开源。在可预见的未来,我对我们能够这样做持乐观态度。在短期内,我不想忽视我们实际看到的今天人们试图使用模型做的坏事。即使它们不是存在性的,但确实是我们在运营服务时熟悉的日常有害行为。这实际上也是我们需要花时间思考的很多问题之一。

Dwarkesh Patel 00:51:24

我对合成数据这个问题感到非常好奇。以目前的模型来看,为什么不断使用合成数据会出现渐近线是有道理的。但假设它们变得更智能,你使用你在论文或博客文章中提到的技术,它会找到最正确的思路。为什么你认为这不会导致一个循环,使它变得更智能,产生更好的输出,然后更智能,等等。当然,这不会是一夜之间发生的,但可能会在多月或多年的训练过程中逐渐实现。

Mark Zuckerberg 00:52:00

我认为在任何模型架构的参数范围内,它是可能的。只是在目前的 8B 参数模型中,我认为你不会得到与结合新研究的多百亿参数的最先进模型一样的效果。

Dwarkesh Patel 00:52:28

但那些也会是开源的,对吗?

Mark Zuckerberg 00:52:31

是的,考虑到我们刚才讨论的所有问题,但对。我们希望这是可能的。但我认为在每个阶段,当你在构建软件时,你可以做很多事情,但在某种程度上,你受限于运行它的芯片。所以总会有不同的物理限制。模型的大小受限于推理所需的能源量。我同时对这些东西会继续快速改进感到乐观,同时也比一些人更冷静。我不认为快速失控的情况是特别可能的。

Dwarkesh Patel 00:53:32

我认为保持选项开放是有道理的。还有很多我们不知道的情况。有一种情况下,保持权力平衡是非常重要的,这样没有人成为独裁者。还有一种情况下,你不希望开源架构,因为中国可以利用它赶上美国的 AI,并且可能出现智能爆炸,他们赢得那场比赛。很多情况都是可能的。考虑所有这些保持选项开放是合理的。

Mark Zuckerberg 00:53:57

是的。

Caesar Augustus and metaverse

Dwarkesh Patel 00:53:57

让我们谈谈其他事情。元宇宙。你最想去哪个历史时期?从公元前 100,000 年到现在,你想看看那是什么样子?

Mark Zuckerberg 00:54:09

必须是过去吗?

Dwarkesh Patel 00:54:12

是的,必须是过去。

Mark Zuckerberg 00:54:13

我对美国历史和古典历史非常感兴趣。我对科学史也非常感兴趣。我实际上认为看到并尝试了解一些重大进步是如何发生的会非常有趣。我们只有关于这些事情的有限记录。我不确定元宇宙会让你做到这一点,因为很难回到我们没有记录的时代。我实际上不确定回到过去会是那么重要的事情。我认为这对历史课来说会很酷,但这可能不是我对元宇宙整体最感兴趣的用例。

主要的事情是能够与人们感觉在一起,无论你在哪里。我认为这将是一个杀手锏。在我们关于 AI 的对话中,很多都涉及到所有这些的物理限制。我认为技术的一个教训是你希望尽可能多地将事情从物理限制领域转移到软件领域,因为软件更容易构建和演变。你可以更民主化,因为不是每个人都会有数据中心,但很多人可以编写代码,使用开源代码并修改它。元宇宙的版本是实现真实的数字存在。这将是一个巨大的不同,使人们不觉得他们必须为很多事情在一起。现在我认为有些事情实际在一起会更好。这些事情不是二元的。这不是“好吧,现在你不需要那样了。”但总体来说,我认为这对社交、与人们感觉联系、工作、工业、医疗等很多方面来说将非常强大。

Dwarkesh Patel 00:56:32

我想回到你在对话开始时说的事情。你没有以 10 亿美元的价格卖掉公司。对于元宇宙,你知道你会这样做,尽管市场对你打击很大。我很好奇。这种优势的来源是什么?你说“哦,价值观,我有这个直觉”,但每个人都这么说。如果你要说一些具体的东西,那会是什么?你怎么那么确信元宇宙?

Mark Zuckerberg 00:57:02

我认为这些是不同的问题。驱动我的是什么?我们谈到了很多主题。我真的喜欢构建东西。我特别喜欢围绕人们如何交流的东西,理解人们如何表达自己以及如何工作。当我在大学时,我学习了计算机科学和心理学。我认为很多行业中的其他人都学习了计算机科学。所以,这一直是这两者的交汇点。

这也是一种非常深的驱动力。我不知道怎么解释,但我只是觉得如果我不在构建新东西,我就是在做错事。即使我们在为投资一千亿美元在 AI 或一些元宇宙的巨大金额做商业计划,我们有计划,我认为这些计划非常清楚地表明,如果我们的东西奏效,这将是一个好的投资。但你无法从一开始就确定。有很多人与顾问或不同的人在讨论的论点是“你怎么那么有信心去做这个?”好吧,我停下来不尝试构建新东西的那一天,我就完蛋了。我会去其他地方构建新东西。我从根本上不能只运营一些东西,或者在我自己的生活中,而不尝试构建我认为有趣的新东西。这对我来说不是一个问题,我们是否会去尝试构建下一个东西。我根本不能不去做这些。我不知道。

在我生活的各个方面,我都是这样。我们的家人在夏威夷建了一个牧场,我参与了所有建筑的设计。我们开始养牛,我想“好吧,我想养出世界上最好的牛,所以我们如何架构这一切以便我们可以弄清楚并建立所有我们需要的东西来尝试做到这一点。”我不知道,这就是我。问题的另一部分是什么?

Dwarkesh Patel 01:00:54

我不确定,但我实际上对另一个问题感兴趣。所以一个 19 岁的 Mark 在高中和大学读了很多古典文学。你从中学到了什么重要的教训?不仅是你发现的有趣的东西,因为你在 19 岁之前阅读的内容不多。很多内容是关于经典文学的。显然这是非常重要的。

Mark Zuckerberg 01:01:15

你在 19 岁之前阅读的内容不多…这是一个好问题。这里有一个我认为非常有趣的事情。奥古斯都成为皇帝,他试图建立和平。当时没有真正的和平概念。人们对和平的理解是敌人不可避免地攻击你之间的短暂时间。所以你可以短暂休息一下。他有这种改变经济从雇佣兵和军事化转向实际正和的想法。当时这是一个非常新颖的想法。

这是一个非常基本的事情:人们对某些事情的理性工作方式的理解的界限。这适用于元宇宙和 AI。很多投资者和其他人无法理解我们为什么会开源。他们会说“我不明白,这只是你们把东西做成专有之前的暂时阶段,对吧?”我认为在技术上这是一个非常深刻的事情,它实际上创造了很多赢家。

我不想把类比拉得太远,但我确实认为很多时候,有些构建事物的模型,人们通常无法理解它们是如何有价值的,或者为什么这会是一个合理的状态。我认为比人们想象的有更多合理的事情。

Dwarkesh Patel 01:03:36

那非常有趣。我可以告诉你我在想的可能与你从中得到的东西完全不同吗?这可能完全错误,但我认为只是这些人在年轻时的重要角色。例如,奥古斯都在 19 岁时已经是罗马政治中最重要的人之一。他领导战斗,建立了第二次三头同盟。我想知道你在 19 岁时是否在想“我可以做到这个,因为奥古斯都做到了这个。”

Mark Zuckerberg 01:04:01

这是一个有趣的例子,无论是很多历史还是美国历史。我的一个最喜欢的名言是毕加索说的“所有孩子都是艺术家,挑战在于长大后仍然是艺术家。”年轻时,提出疯狂的想法更容易。存在很多关于创新者困境的类比,存在于你的生活中以及你公司或你建立的任何东西中。你处于早期阶段,所以更容易转向并吸收新的想法,而不会破坏其他承诺。经营一家公司的一个有趣部分是,如何保持动态?

Open sourcing the $10b model & custom silicon

Dwarkesh Patel 01:04:53

让我们回到投资者和开源。十亿美元的模型,假设它完全安全。你进行了这些评估,并且与现在不同的是评估者也可以微调模型,希望未来的模型会这样。你会开源十亿美元的模型吗?

Mark Zuckerberg 01:05:11

只要它对我们有帮助,那是的。

Dwarkesh Patel 01:05:13

但它会吗?十亿美元的研发,现在它是开源的。

Mark Zuckerberg 01:05:17

这是一个问题,我们随着时间的推移需要评估。我们有很长的开源软件历史。我们通常不会开源我们的产品代码。我们不会把 Instagram 的代码做成开源。我们开源很多底层基础设施。可能我们历史上最大的一个是 Open Compute 项目,我们把所有服务器、网络交换机和数据中心的设计做成开源,结果非常有帮助。尽管很多人可以设计服务器,但行业现在标准化了我们的设计,这意味着供应链基本上都围绕我们的设计建立。因此,量上升了,对每个人都变得更便宜,这为我们节省了数十亿美元,这是很棒的。

因此,开源对我们有很多方式是有帮助的。一种方式是人们找到了更便宜地运行模型的方法。我们将在这些东西上花费数十亿甚至上千亿美元。如果我们能以更高的效率运行它们,这可能会为我们节省数十亿或数十亿美元。仅此一项可能就非常值得。尤其是如果存在其他竞争模型,你不会因此放弃什么巨大的优势。

Dwarkesh Patel 01:06:38

所以你认为训练将会商品化?

Mark Zuckerberg 01:06:44

我认为这可能会以多种方式发展,这是其中之一。商品化意味着它会变得非常便宜,因为有很多选择。另一种方向是定性的改进。你提到微调。目前很有限,你能用其他主要模型进行微调。对于最大的模型来说有一些选择,但一般来说没有。能够做这件事,针对不同的应用特定的东西或用例特定的东西或将它们构建到特定的工具链中。我认为这不仅能带来更高效的开发,还可能带来定性不同的东西。

这是一个类比。移动生态系统有一个问题是,你有这两个门槛公司,苹果和谷歌,可以告诉你可以构建什么。他们的经济版本是,当我们构建一些东西,他们就拿走你很多钱。但更让人恼火的是有时我们想发布功能,苹果说“不,你不能发布这个。”这很糟糕。所以问题是,AI 是否也会这样?你会得到几家公司运行这些封闭的模型,控制 API 并告诉你可以构建什么?

对我们来说,我可以说值得构建自己的模型以确保我们不处于那种情况。我不想那些公司告诉我们可以构建什么。从开源角度来说,我认为很多开发者也不想那些公司告诉他们可以构建什么。问题是,生态系统是什么样子?会有什么有趣的新东西?这对我们的产品有多大改进?有很多情况,如果它像我们的数据库或缓存系统或架构一样,我们会从社区得到有价值的贡献,使我们的东西更好。我们做的特定应用工作仍然如此有区别,以至于这不会真的重要。我们的系统和社区的系统都会因为开源变得更好。

有一个世界,可能不是这样。可能模型更像是产品本身。我认为这是一个更复杂的经济计算,是否开源它。你确实在商品化自己。但从目前来看,我认为我们不在那个区域。

Dwarkesh Patel 01:09:42

你预计会从许可模型给云提供商赚取显著收入吗?他们必须支付费用才能提供模型。

Mark Zuckerberg 01:09:49

我们希望有这样的安排,但我不知道会有多显著。这是我们对 Llama 的许可。很多方面这是一种非常宽松的开源许可,除了我们对最大的公司有一个限制。这是我们设定这个限制的原因。我们不是在试图阻止他们使用它。我们只是想如果他们要拿我们构建的东西去转售赚钱,我们应该有一些收入分成。所以如果你是微软 Azure 或亚马逊,如果你要转售模型,来和我们谈谈。这就是我们如何处理这个问题。

对于 Llama-2,我们基本上与所有主要云公司都有协议,Llama-2 在所有这些云上可作为托管服务。我猜随着我们发布更大的模型,这会成为一个更大的事情。这不是我们主要在做的事情,但我认为如果那些公司要转售我们的模型,我们应该以某种方式分享这部分收入。

Dwarkesh Patel 01:10:55

关于其他开源的危险,我认为你在权力平衡和潜在伤害的缓解方面有合理的观点。我希望 Meta 有某种框架。其他实验室有这个,他们说“如果我们看到这个具体的东西,这就是开源或甚至部署的禁区。”写下来公司准备好,大家有预期。

Mark Zuckerberg 01:11:25

这是关于存在性风险的一个公平点。我们目前更多关注今天看到的风险,即这些内容风险。我们不希望模型在帮助人们实施暴力或欺诈或其他伤害人们的事情。虽然讨论存在性风险可能更有知识趣味,但我认为今天需要更多精力去缓解的实际伤害是人们拿模型去做对他人有害的事情。实际上,目前模型,以及我猜未来几代模型,甚至再下一代,都是这些今天我们看到的更世俗的伤害,人与人之间的欺诈之类的。我不想轻视这个。我认为我们有责任确保我们在这些方面做得好。

Dwarkesh Patel 01:12:33

Meta 是个大公司,你们可以兼顾两者。

关于开源,我真的好奇你认为开源的影响,比如 PyTorch、React、Open Compute 和其他东西,对世界的影响是否比 Meta 的社交媒体方面还要大。我和使用这些服务的人交谈,他们认为这有可能,因为互联网很大一部分依赖这些东西。

Mark Zuckerberg 01:12:55

这是个有趣的问题。世界上几乎一半的人使用我们的消费产品,所以很难打败这个。但我认为开源作为一种新的构建方式非常强大。这是可能的。这可能是像贝尔实验室的事情,他们在研究晶体管,因为他们想实现长途通话。晶体管实现了,长途通话变得很有利可图。五到十年后,如果你问他们最有用的发明是什么,他们会说“我们实现了长途通话,现在很多人都在长途通话。”但如果你问一百年后,答案可能不同。

我认为我们构建的很多东西,无论是现实实验室,还是一些 AI 东西,一些开源东西,具体的产品会演变,某种程度上来来去去,但对人类的进步是持久的,这是我们都能做的一个很酷的部分。

Dwarkesh Patel 01:14:14

到什么时候 Llama 模型会在你们自己的定制硅上进行训练?

Mark Zuckerberg 01:14:19

很快,但不是 Llama-4。我们采取的方法是首先构建定制硅以处理我们的排序和推荐之类的推理,比如 Reels、新闻推送广告等。这占用了很多 GPU。当我们能够将这些迁移到自己的硅上,我们现在能够将更昂贵的 NVIDIA GPU 仅用于训练。在某个时候,我们希望有自己的硅可以用于训练一些更简单的东西,然后最终训练这些非常大的模型。与此同时,我会说这个计划进行得非常好,我们正在有条不紊地推出,我们有一个长期的路线图。

Zuck as CEO of Google+

Dwarkesh Patel 01:15:19

最后一个问题。这完全是出乎意料的。如果你被任命为 Google+ 的 CEO,你能让它成功吗?

Mark Zuckerberg 01:15:24

Google+?哦,我不知道。这是一个非常困难的反事实。

Dwarkesh Patel 01:15:35

好吧,真正的最后一个问题是:当 Gemini 发布时,有没有可能办公室里有人说:“迦太基必须被毁灭。”

Mark Zuckerberg 01:15:43

没有,我认为我们现在更温和。这是一个好问题。问题是 Google+ 没有 CEO。它只是公司内的一个部门。你之前问了关于最稀缺的资源的问题,但你问的是资金。我认为对于大多数公司,至少这个规模的公司,约束更多的是焦点。当你是一个初创公司,你可能更多地受到资本约束。你只是专注于一个想法,可能没有所有资源。你在某个时候跨过一个门槛,你做的事情更多,你在它们之间创造了更多价值,但你在某种程度上受到 CEO 和管理团队能够监督和管理的能力的约束。这是我们主要关注的一个方面。正如 Ben Horowitz 所说,“保持主要任务为主要任务”,尽量专注于关键优先事项。

Dwarkesh Patel 01:17:14

太棒了,这非常棒,Mark。非常感谢。这很有趣。

Mark Zuckerberg 01:17:17

是的,很有趣。谢谢邀请。

Dwarkesh Patel 01:17:19

绝对的。