Mark Zuckerberg 认为开放源代码的人工智能(AI)是未来发展的关键。他将开放源代码与早期的 Unix 操作系统进行比较,指出 Linux 的成功是因为其开放性和可修改性。Zuckerberg 预见,开放源代码的 AI 将在未来发展得更快、更安全,并且能够满足不同组织的需求。他强调 Meta 正在积极推动开放源代码 AI 的标准化,特别是通过推出 Llama 3.1 系列模型,以便更广泛地支持开发者和企业。

  1. 开放源代码的优势

    • 开放源代码允许开发者根据自身需求训练和调整模型,避免被锁定在封闭的供应商生态中。
    • 组织可以在本地运行模型,保护敏感数据,提升安全性。
    • Llama 3.1 405B 模型的运行成本约为封闭模型(如 GPT-4o)的 50%,使其在经济性上具有竞争力。
  2. Meta 的战略

    • Meta 通过开放源代码 AI 确保技术的可获取性,避免被竞争对手的封闭生态系统限制。
    • 开放源代码的 Llama 模型将促进生态系统的发展,包括与 Amazon、Databricks 和 Nvidia 等公司的合作。
  3. 开放源代码对世界的影响

    • 开放源代码 AI 可以更广泛地分配技术利益,减少权力集中在少数公司手中。
    • Zuckerberg 认为开放源代码的透明性使其在安全性上优于封闭模型f,能够更好地应对潜在的意图和非意图的危害。
  4. 未来展望

    • Meta 计划通过构建内部团队和合作伙伴关系,推动 Llama 模型的广泛应用,期望在行业内引发开放源代码 AI 的广泛使用。
    • Zuckerberg 强调,开放源代码 AI 是促进经济机会和安全的最佳途径,呼吁大家共同参与这一进程。

开源 AI 是未来的发展方向

在高性能计算的早期,主要的科技公司都大力投资开发各自的封闭源代码版本的 Unix。当时很难想象有其他方法能开发出如此先进的软件。然而,后来开源的 Linux 逐渐受到欢迎——最初是因为它允许开发者随意修改代码且成本更低,随着时间的推移,它变得更加先进、安全,并拥有更广泛的生态系统,支持的功能比任何封闭的 Unix 都要多。今天,Linux 已成为云计算和大多数移动设备操作系统的行业标准基础——我们都因此受益,享受到更优质的产品。

我相信 AI 将以类似的方式发展。今天,几家科技公司正在开发领先的封闭模型,但开源正在迅速缩小差距。去年,Llama 2 仅相当于前沿后面的一代模型。今年,Llama 3 已经能够与最先进的模型竞争,并在某些领域中表现出色。从明年开始,我们预计未来的 Llama 模型将成为行业中最先进的模型。但即使在此之前,Llama 已经在开放性、可修改性和成本效益方面处于领先地位。

今天,我们正在采取下一步措施,使开源 AI 成为行业标准。我们发布了 Llama 3.1 405B,这是首个顶尖级开源 AI 模型,以及改进版的 Llama 3.1 70B 和 8B 模型。这些模型在成本/性能方面相对封闭模型有显著改善,而且 405B 模型的开放性将使其成为微调和优化小型模型的最佳选择。

除了发布这些模型,我们还在与多家公司合作以扩大更广泛的生态系统。Amazon、Databricks 和 Nvidia 正在推出全套服务来支持开发者微调和优化他们自己的模型。像 Groq 这样的创新者已经为所有新模型构建了低延迟、低成本的推理服务。这些模型将在包括 AWS、Azure、Google、Oracle 等在内的所有主要云平台上可用。公司如 Scale.AI、Dell、Deloitte 等公司已经准备好帮助企业采用 Llama 并用自己的数据训练定制模型。随着社区的成长和更多公司开发新服务,我们可以共同使 Llama 成为行业标准,并将 AI 的好处带给所有人。

Meta 致力于开源 AI。我将概述为什么我认为开源是最好的开发堆栈,为什么开源 Llama 对 Meta 有好处,以及为什么开源 AI 对世界有好处,因此它将是一个长期存在的平台。

为什么开源 AI 对开发者有好处

当我与世界各地的开发者、CEO 和政府官员交谈时,我通常会听到几个主题:

• 我们需要训练、微调和优化我们自己的模型。每个组织都有不同的需求,这些需求最好通过不同大小的模型来满足,这些模型使用他们的特定数据进行训练或微调。设备上的任务和分类任务需要小模型,而更复杂的任务需要大模型。现在,你可以采用最先进的 Llama 模型,继续用自己的数据训练它们,然后将它们优化到你理想的大小——我们或其他任何人都看不到你的数据。

• 我们需要掌控自己的命运,而不是被锁定在封闭的供应商中。许多组织不希望依赖他们无法自己运行和控制的模型。他们不希望封闭模型提供商能够更改他们的模型,改变他们的使用条款,甚至完全停止服务。他们也不希望被锁定在拥有模型专有权的单一云平台中。开源使得公司间的工具链兼容,可以轻松切换。

• 我们需要保护我们的数据。许多组织处理需要保护的敏感数据,不能通过云 API 发送到封闭模型。其他组织则不信任封闭模型提供商。开源解决了这些问题,使你可以在任何你想要的地方运行模型。众所周知,开源软件往往更安全,因为它的开发更透明。

• 我们需要一个高效且经济实惠的模型。开发者可以在他们自己的基础设施上以大约封闭模型如 GPT-4o 50% 的成本运行 Llama 3.1 405B,用于用户面对面和离线推理任务。

• 我们希望投资于一个长期的行业标准生态系统。很多人看到开源比封闭模型进步得更快,他们希望在长期给他们带来最大优势的架构上构建他们的系统。

为什么开源 AI 对 Meta 有好处

Meta 的商业模式是为人们构建最佳体验和服务。为此,我们必须确保始终能够访问最好的技术,并且不会被锁定在竞争对手的封闭生态系统中,从而限制我们所能构建的内容。

我个人的一次重要经历是构建受限于苹果平台上的服务。无论是他们对开发者的收费方式,他们施加的任意规则,还是他们阻止发布的所有产品创新,都显而易见,如果 Meta 和许多其他公司能够自由构建我们的最佳版本的产品,并且竞争对手不能限制我们构建的内容,我们将能够为人们提供更好的服务。在哲学层面上,这是我如此坚信构建 AI 和 AR/VR 开放生态系统的一个主要原因。

人们常常问我是否担心通过开源 Llama 放弃技术优势,但我认为这忽视了几个关键原因:

首先,为了确保我们长期能够访问最好的技术,并且不被锁定在封闭的生态系统中,Llama 需要发展成一个完整的工具、效率改进、硅优化和其他集成的生态系统。如果我们是唯一使用 Llama 的公司,这个生态系统就不会发展,我们将和封闭的 Unix 变种一样不成功。

其次,我预计 AI 发展将继续非常具有竞争力,这意味着在任何给定时间点开源某个模型不会给下一最好的模型带来巨大优势。Llama 成为行业标准的路径是通过一代又一代地保持竞争力、高效和开放。

第三,Meta 和封闭模型提供商之间的一个关键区别是,销售 AI 模型的访问权限不是我们的商业模式。这意味着公开发布 Llama 不会削弱我们的收入、可持续性或投资研究的能力,正如它对封闭提供商所做的那样(这是几个封闭提供商一致游说政府反对开源的一个原因)。

最后,Meta 有着长期的开源项目和成功的历史。通过发布我们的服务器、网络和数据中心设计与 Open Compute Project,并让供应链标准化我们的设计,我们节省了数十亿美元。通过开源领先的工具如 PyTorch、React 和许多其他工具,我们受益于生态系统的创新。当我们在长期坚持这种方法时,这种方法一直对我们有效。

为什么开源 AI 对世界有好处

我相信开源是实现 AI 美好未来的必要条件。AI 比任何其他现代技术更有潜力提高人类的生产力、创造力和生活质量——并在加速经济增长的同时推动医疗和科学研究的进步。开源将确保世界各地的更多人能够获得 AI 的好处和机会,权力不会集中在少数公司的手中,并且技术可以更均衡和安全地在社会中部署。

关于开源 AI 模型的安全性存在着持续的辩论,我的观点是开源 AI 将比替代方案更安全。我认为政府会得出支持开源是符合其利益的结论,因为这将使世界更繁荣和安全。

我理解安全性的框架是我们需要防范两类伤害:无意伤害和故意伤害。无意伤害是指 AI 系统可能在没有意图造成伤害的情况下造成伤害。例如,现代 AI 模型可能会无意中提供错误的健康建议。或者,在更未来的场景中,有些人担心模型可能会无意中自我复制或过度优化目标而损害人类。故意伤害是指坏人使用 AI 模型故意造成伤害。

值得注意的是,无意伤害涵盖了人们对 AI 的大部分担忧——从 AI 系统对数十亿使用者的影响,到大部分真正灾难性的科幻场景。在这一方面,开源应该显著更安全,因为系统更加透明,可以被广泛审查。从历史上看,开源软件正是因为这个原因而更安全。同样,使用 Llama 及其如 Llama Guard 这样的安全系统可能比封闭模型更安全和可靠。因此,大多数关于开源 AI 安全性的讨论集中在故意伤害上。

我们的安全过程包括严格的测试和红队测试,以评估我们的模型是否有可能造成重大伤害,目标是在发布前降低风险。由于这些模型是开源的,任何人都可以自己进行测试。我们必须记住,这些模型是由已经在互联网上的信息训练的,因此考虑伤害时的起点应该是模型是否能比从 Google 或其他搜索结果中快速检索到的信息更有可能造成更多伤害。

在考虑故意伤害时,区分个体或小规模行为者可能能够做的事情与像国家这样拥有庞大资源的大规模行为者可能能够做的事情是有帮助的。

在未来的某个时候,个别坏人可能会利用 AI 模型的智能从互联网上的信息中制造出全新的伤害。在这一点上,权力的平衡对于 AI 安全至关重要。我认为生活在一个 AI 被广泛部署的世界里会更好,这样大型行为者可以检查小型坏行为者的权力。这就是我们在社交网络上管理安全性的方式——我们更强大的 AI 系统识别和阻止那些通常使用小规模 AI 系统的较不复杂的行为者。更广泛地说,大型机构部署大规模 AI 将促进社会的安全和稳定。只要每个人都能访问相似代的模型——开源推动了这一点——那么拥有更多计算资源的政府和机构将能够制止计算资源较少的坏人。

下一个问题是美国和民主国家应如何应对拥有巨大资源的国家(如中国)的威胁。美国的优势是分散和开放的创新。一些人认为我们必须关闭我们的模型以防止中国获得它们,但我的看法是这行不通,只会使美国及其盟友处于不利地位。我们的对手非常擅长间谍活动,窃取能装在拇指驱动器上的模型相对容易,而且大多数科技公司远未达到使这一点变得更加困难的操作方式。最有可能的情况是,只有封闭模型的世界会导致少数大公司和我们的地缘政治对手能够访问领先模型,而初创公司、大学和小企业将错失机会。此外,限制美国创新到封闭开发增加了我们根本不领先的机会。相反,我认为我们最好的策略是构建一个强大的开放生态系统,让我们的领先公司与我们的政府和盟友紧密合作,以确保他们能够最好地利用最新的进展,并在长期内获得可持续的先发优势。

考虑到未来的机会,记住今天大多数领先的科技公司和科学研究都建立在开源软件的基础上。下一代公司和研究将使用开源 AI,如果我们共同投资于它。这包括刚起步的初创公司以及那些没有资源从头开发自己最先进 AI 的大学和国家的人。

底线是,开源 AI 代表了世界上最好的一次机会,能够利用这一技术为每个人创造最大的经济机会和安全性。

让我们一起构建这个未来

在过去的 Llama 模型中,Meta 为我们自己开发了它们然后发布,但没有太关注构建更广泛的生态系统。这次发布我们采取了不同的方式。我们正在内部组建团队,使尽可能多的开发者和合作伙伴能够使用 Llama,并且我们正在积极建立合作伙伴关系,使生态系统中的更多公司能够为他们的客户提供独特的功能。

我相信 Llama 3.1 的发布将成为行业的一个转折点,大多数开发者将开始主要使用开源,我预计这种方法将从这里不断增长。我希望你能加入我们,共同努力将 AI 的好处带给世界上的每一个人。

💪