本文是吴恩达对 2024年 AI 的总结。2024 年是人工智能(AI)领域快速发展的一年,技术和应用均取得了显著进步。AI 模型变得更快、更便宜、更小,且多模态和推理能力更强。AI 应用的普及速度超过了技术本身的发展,特别是在自动化、客户服务和问答等领域。与此同时,生成式视频、代理系统(agentic systems)和小型模型成为焦点,价格战加剧了竞争,技术巨头通过创新合作模式获取技术和人才。

关键细节

1. 代理系统崛起

  • 发展概况:代理系统(agentic systems)通过迭代提示大语言模型(LLMs),显著提升了任务执行能力。多个工具和框架支持代理工作流,例如:
    • 微软 Autogen 和后续衍生的 AG2。
    • CrewAI 提供多代理系统的开源框架。
    • LangChain 的 LangGraph 通过循环图优化代理行为。
    • Meta 的 Llama Stack 提供记忆、对话和道德约束。
  • 技术进步:新技术如链式思维(Chain of Thought)、自我一致性(Self-consistency)和反思机制(Reflexion)推动了代理 AI 的发展。
  • 现状:代理系统已成为主流,显著提高了 AI 的效率和个性化服务能力。

2. 价格下降

  • 价格战:从 2023 年 3 月到 2024 年 11 月,OpenAI 的模型使用价格下降了近 90%。其他公司如 Google、Meta、亚马逊和中国企业也纷纷降价。
    • 开源模型的影响:Meta 的 Llama 3 和 3.1 系列显著降低了高性能模型的价格门槛。
    • 闭源模型竞争:OpenAI 推出更便宜的 GPT-4o 和 mini 版本,Google 降价 Gemini 系列,亚马逊推出 Nova 系列以低价竞争。
  • 背后原因:开源模型和更高效的计算硬件(如 Cerebrus 和 SambaNova)推动了价格下降。
  • 意义:价格下降反映了健康的技术生态,但高需求模型仍维持较高价格。

3. 生成式视频的兴起

  • 新模型:多家公司推出或改进了文本生成视频(text-to-video)模型:
    • OpenAI 的 Sora,支持 1 分钟高质量视频生成。
    • Runway Gen 3 Alpha 提升了分辨率和生成速度。
    • Adobe 将 Firefly Video 集成到 Premiere Pro 中。
    • Meta 的 Movie Gen 提供视频生成与音效配合能力。
    • 中国企业如 ByteDance 推出面向社交媒体的视频生成模型。
  • 行业影响:生成式视频已被电影和娱乐行业采用,但仍面临一致性和生成效率的挑战。

4. 小型模型的崛起

  • 发展趋势:小型模型因技术改进(如知识蒸馏、参数剪枝、量化和高质量数据训练)而性能大幅提升。
    • 微软、谷歌、Meta 等公司推出多种参数规模的模型家族。
    • Nvidia 使用蒸馏和剪枝技术缩小模型尺寸,同时保持高精度。
  • 意义:小型模型降低了硬件需求,扩大了 AI 应用的可能性,尤其是在边缘设备上的部署。

5. 技术获取的新模式

  • 合作案例:科技巨头通过非收购合作模式获取技术和人才:
    • 微软与 Inflection AI 合作,投资 6.5 亿美元并聘用其核心团队。
    • 亚马逊与 Adept 和 Covariant 合作,获取其技术和团队。
    • 谷歌与 Character.ai 合作,雇佣其创始人并获得技术授权。
  • 背景:传统收购面临反垄断审查压力,新模式降低了监管风险,同时保留了初创公司的独立性。
  • 现状:这种模式成为获取前沿技术和人才的新常态,但仍需面对潜在的监管审查。

原文

亲爱的朋友们,

人工智能 (AI) 的发展速度快吗?当然!尽管底层 AI 技术的进步在过去两年确实有所加速,但应用领域的进步速度是最快的。

想想看:GPT-4 于 2023 年 3 月发布。从那时起,模型变得更快、更便宜,有时也更小,而且具备更强的多模态能力和推理能力。此外,市面上也涌现了更多开源模型版本——所以说,进步是巨大的! (那些声称 AI 发展 “撞墙” 的说法,显然是缺乏依据的)。更重要的是,许多在理论上,使用 2023 年 3 月发布的 GPT-4 就已经可以实现的应用,例如客户服务、问题解答和流程自动化等领域,现在已经有了显著的早期进展。

我确信,2025 年在 AI 技术和应用上的进步会比 2024 年更快,更令人兴奋。回顾过去,唯一能阻碍 AI 发展的是那些糟糕的、反竞争的监管措施,这些措施会给开发者,特别是开源模型的开发者带来沉重的负担。只要我们保持警惕,抵制这些反创新的力量,我们就能够保持甚至进一步加快进步的步伐。

我还发现,走在技术前沿的人们(包括许多《The Batch》的读者!)和那些甚至一次都没尝试过 ChatGPT 的人(是的,还有很多人属于这一类!)之间的差距正在扩大。随着技术不断发展,我们都需要不断学习,保持竞争力,才能做出更大的贡献。我致力于确保 DeepLearning.AI 能继续帮助大家学习最实用、最重要的 AI 技术。如果你正在制定新年计划,我希望你能把我们加入你的学习清单!

AI 是当今世界正在发生的最重要的技术变革。我很高兴能和大家一起在这个激动人心的领域工作,并且感谢大家为学习和应用 AI 以改善自己和他人的生活所做出的努力。

节日快乐!

安德鲁

进步的浪潮

多么精彩的一年!2024 年,AI 取得了巨大的进步。AI 智能体系统在推理、使用工具和控制桌面应用程序等方面的能力都有所提高。更小的模型大量涌现,其中许多模型比它们的前辈更强大、更便宜。虽然有些发展引起了担忧,但更多的是激发了人们的惊叹和乐观。就像逐渐消逝日子早些时候几年一样,我们邀请您喝上一杯热可可,一起回顾过去 12 个月的重要进展。


AI 智能体崛起

AI 社区为那些可以通过迭代提示大语言模型来执行操作的系统奠定了基础,从而在各种应用中实现了更高的性能。

发生了什么:AI 领域出现了一个新的流行词——“智能体”——随着研究人员、工具供应商和模型构建者为大语言模型 (LLM) 配备了做出选择和采取行动以实现目标的能力。这些发展为未来一年及以后 AI 智能体活动的激增奠定了基础。

推动因素:一些工具的出现帮助开发者构建 AI 智能体工作流程。

  • 微软在 2023 年末推出了 Autogen,这是一个开源对话框架,用于协调多个 AI 智能体之间的协作,从而为 AI 智能体的开发做好了准备。(在我们的短期课程 “使用 Autogen 的 AI 智能体设计模式” 中学习如何利用它。)2024 年末,Autogen 团队的一部分拆分出来,基于该代码库的一个分支构建了 AG2
  • 2023 年 10 月,CrewAI 发布了其开源 Python 框架,用于构建和管理多智能体系统。AI 智能体可以被分配角色和目标,获得网络搜索等工具的访问权限,并相互协作。(DeepLearning.AI 的短期课程 “使用 crewAI 的多智能体系统” 和 “使用 crewAI 的实用多 AI 智能体和高级用例” 可以帮助你快速入门。)
  • 1 月,开发工具提供商 LangChain 推出了 LangGraph,它使用循环图来协调 AI 智能体的行为。该框架使大语言模型驱动的 AI 智能体能够接收输入、对其进行推理、决定采取的操作、使用工具、评估结果,并重复这些步骤以改进结果。(我们的短期课程 “LangGraph 中的 AI 智能体” 提供了一个入门介绍。)
  • 9 月,元公司 (Meta) 推出了 Llama Stack,用于构建基于 Llama 模型的 AI 智能体应用程序。Llama Stack 提供内存、对话技能、编排服务和道德保障。
  • 在过去一年中,集成开发环境实现了用于生成代码的 AI 智能体工作流程。例如,Devin 和 OpenHands 接受自然语言指令来生成原型程序。Replit Agent、Vercel 的 V0 和 Bolt 通过自动编写代码、修复错误和管理依赖项来简化项目。
  • 与此同时,许多大语言模型制造商通过实现工具使用和函数调用来支持 AI 智能体工作流程。Anthropic 增加了计算机使用功能,使 Claude 3.5 Sonnet 可以直接控制用户的计算机。
  • 在今年晚些时候,OpenAI 发布o1 模型和处理密集型的 o1 pro 模式,该模式使用 AI 智能体循环逐步处理提示。DeepSeek-R1 和 Google Gemini 2.0 Flash 的 “思考模式” 也采用了类似的 AI 智能体推理。在 2024 年的最后几天,OpenAI 宣布了 o3 和 o3-preview,它们通过令人印象深刻的结果进一步扩展了 o1 的 AI 智能体推理能力。

新闻背后:以更复杂的方式提示大语言模型的技术在 2022 年开始兴起。这些技术在今年早些时候逐渐发展成 AI 智能体。这项工作的基础性示例包括:

  • 思维链 (Chain of Thought) 提示,它要求大语言模型逐步思考。
  • 自洽性 (Self-consistency),它提示模型生成多个响应,并选择与其它响应最一致的那个。
  • ReAct,它交错进行推理和操作步骤,以完成目标。
  • Self-Refine,它使 AI 智能体能够反思自己的输出。
  • Reflexion,它使模型能够执行操作、评估、反思和重复。
  • 测试时计算,它增加了分配给推理的计算能力。

现状:AI 智能体时代已经到来!无论规模化法则如何继续推动基础模型性能的提高,AI 智能体工作流程都在使 AI 系统变得越来越实用、高效和个性化。


价格暴跌

模型制造商和云服务提供商之间的激烈竞争,导致了访问最先进模型的价格大幅下降。

发生了什么:为了吸引付费客户,AI 提供商之间爆发了一场价格战。一个主要指标是:从 2023 年 3 月到 2024 年 11 月,OpenAI 将其模型云访问的每个 Token 价格降低了近 90%,即便与此同时,模型的性能有所提高,输入上下文窗口扩大,而且模型也能够处理图像和文本。

推动因素:价格下降的因素包括开源、计算效率更高的模型,以及围绕 AI 智能体工作流程的日益高涨的热情,这些工作流程在推理时会消耗更多的 Token。OpenAI 的 GPT-4 Turbo 在 2023 年末首次亮相时设定了一个基准,输入/输出的每百万 Token 价格为 10.00 美元/30.00 美元。顶级的模型制造商纷纷降低了价格:谷歌 (Google) 和 OpenAI 位于市场的高端,中国公司位于低端,而亚马逊则在两端都有布局。与此同时,拥有专用硬件的初创公司以远低于行业巨头的价格提供开源模型。

  • 具有开源权重的竞争模型通过使云服务提供商能够提供高性能模型而无需承担开发或授权成本,从而帮助压低了价格。元公司 (Meta) 在 4 月份发布了 Llama 3 70B,各种云服务提供商以平均每百万输入/输出 Token 0.78 美元/0.95 美元的价格提供该模型。Llama 3.1 405B 随后于 2024 年 7 月发布;微软 Azure 将其定价为 GPT-4 Turbo 价格的几乎一半(5.33 美元/16.00 美元)。
  • 在中国,开源模型的每 Token 价格大幅下降。5 月,DeepSeek 发布了 DeepSeek V2,并很快将价格降至每百万输入/输出 Token 0.14 美元/0.28 美元。阿里巴巴、百度和字节跳动分别大幅降低了 Qwen-Long(0.06 美元/0.06 美元)、Ernie-Speed 和 Ernie-Lite (免费) 以及 Doubau (0.11 美元/0.11 美元) 的价格。
  • 封闭模型的制造商们也在竞相提供越来越低的价格。5 月,OpenAI 推出了 GPT-4o,每百万输入/输出 Token 的价格为 5.00 美元/15.00 美元,是 GPT-4 Turbo 的一半。到 8 月,GPT-4o 的价格为 2.50 美元/10.00 美元,而较新的 GPT-4o mini 的价格为 0.15 美元/0.60 美元(对于周转时间较慢的任务,价格减半)。
  • 谷歌最终将 Gemini 1.5 Pro 的价格降至每百万输入/输出 Token 1.25 美元/5.00 美元 (对于超过 128,000 个 Token 的提示,价格翻倍),并将 Gemini 1.5 Flash 的价格降至每百万输入/输出 Token 0.075 美元/0.30 美元 (对于超过 128,000 个 Token 的提示,价格翻倍)。在撰写本文时,Gemini 2.0 Flash 可免费用作实验预览,尚未公布 API 价格。
  • 12 月,亚马逊推出了 Nova 系列大语言模型。在发布时,Nova Pro (每百万输入/输出 Token 0.80 美元/3.20 美元) 的成本远低于 OpenAI 或谷歌的顶级模型,而 Nova Lite (0.06 美元/0.24 美元) 和 Nova Micro (分别为 0.035 美元/0.14 美元) 的成本远低于 GPT-4o mini。(声明:吴恩达是亚马逊董事会成员。)
  • 即使模型提供商纷纷降价,Cerebrus、Groq 和 SambaNova 等初创公司也设计了专用芯片,使它们能够更快、更便宜地服务开源模型。例如,SambaNova 以每百万输入/输出 Token 5.00 美元/10.00 美元的价格提供 Llama 3.1 405B,处理速度高达每秒 132 个 Token。DeepInfra 以较低的速度提供相同的模型,价格低至 2.70 美元/2.70 美元。

但需要注意的是:对处理密集型模型的趋势仍面临挑战,但并未消亡。9 月,OpenAI 推出了 Token 消耗量大且价格相对较高的模型:o1-preview(每百万输入/输出 Token 15.00 美元/60.00 美元)和 o1-mini(3.00 美元/12.00 美元)。12 月,o1 推出了一种更精确的 pro 模式,该模式仅提供给愿意每月支付 200 美元的订阅者。

新闻背后:AI 社区的杰出成员公开反对那些威胁要限制开源模型的法规,这些模型在降低价格方面发挥了重要作用。开发人员的反对帮助阻止了加利福尼亚州 SB 1047 法案,该法案拟议将超过一定规模限制的模型的开发人员对其模型造成的意外损害承担责任,并要求一个 “终止开关” 以使开发人员能够禁用它们——对于任何人都可以修改和部署的开源模型来说,这是一个有问题的要求。加利福尼亚州州长加文·纽瑟姆在 10 月份否决了该法案。

现状:价格下跌是健康技术生态系统的标志。很可能,需求旺盛的模型总是会获得相对较高的价格,但市场的定价越来越多的是每百万 Token 几美分,而不是几美元。


生成式视频起飞

随着大量强大模型的涌现,视频生成技术出现了爆炸式增长。

发生了什么:各种规模的公司都推出了新的或更新的文本到视频生成器。一些公司还添加了图像到视频和/或视频到视频的功能。虽然大多数模型都专注于生成电影片段,但一些模型专门用于社交媒体的视频。

推动因素:即使以最近 AI 的惊人发展速度来看,过去一年中视频生成器的成熟速度也快得惊人。几乎所有主要模型都能生成令人信服、高度详细的场景,无论是真实的还是虚构的,同时还能提高图像分辨率、速度、输出长度,以及用户控制输出的能力。

  • OpenAI Sora 在今年年初就设定了很高的标准。该模型于 2 月份推出,并私下向好莱坞创作者展示,尽管仅向选定的用户开放,但仍然引起了巨大的轰动。未经授权的用户在 11 月份获得了访问权限,而 OpenAI 在下个月提供了该模型。Sora 基于 扩散 Transformer 构建,可以生成长达 1 分钟的连贯(尽管有些梦幻)的场景。
  • Runway Gen 3 Alpha 和 Gen 3 Alpha Turbo 在其前代产品的基础上进行了改进,生成了更高分辨率的视频(高达 1280x768 像素分辨率),并引入了 API。Runway 与电影制片厂狮门影业达成了一项 协议,后者将使用在其档案上进行微调的定制版本,用于视觉效果和预可视化。
  • Adobe 通过其 Firefly Video 模型采用了不同的 方法。除了提供 Web 应用程序之外,该公司还将该模型直接集成到其最畅销的 Adobe Premiere Pro 视频编辑套件中。这种集成使视频艺术家可以在程序中生成剪辑、扩展或增强现有剪辑,以及添加效果。
  • 元公司 (Meta) 推出了 Movie Gen,一套四个系统。虽然它的视频输出可以与竞争对手相媲美,但它尤其以生成配乐的能力而著称。其中一个系统生成与视频匹配的声音效果和音乐。另一个系统专门制作角色面部保持一致的视频,另一个系统执行视频到视频的更改。Movie Gen 将于 2025 年在 Instagram 上推出。
  • 中国的模型构建者为其社交媒体量身定制模型。Kling AI 强调制作 TikTok 和 Instagram Reels。PixVerse 和 Jimeng AI 也推出了专为社交媒体用户设计的视频生成器。10 月,TikTok 的母公司字节跳动增加了两个视频生成模型,PixelDance 和 Seaweed,分别生成 10 秒和 30 秒的剪辑。

新闻背后:视频生成已经开始重塑电影行业。2 月份,在看到 Sora 的预览后,美国电影制作人泰勒·佩里 暂停了他计划扩建的制片厂,认为在几年内,AI 视频可能会使传统制片厂倒闭。斯蒂芬·科尔伯特晚间秀的视频图形团队的成员 使用 Runway 的技术为传统的数字视频添加特殊效果,从而将编辑时间从几小时缩短到几分钟。

现状:视频生成在 2024 年取得了长足的进步,但仍有很大的改进空间。由于大多数模型一次只生成少量帧,因此它们可能难以跟踪物理和几何形状,并且难以随着时间的推移生成一致的角色和场景。在帧之间保持一致性的计算需求意味着生成的剪辑很短。即使是短的输出也需要大量的时间和资源来生成:Sora 可能需要 10 到 20 分钟来渲染短至 3 秒的片段。OpenAI 和 Runway 发布了更快的版本——Sora Turbo 和 Gen-3 Alpha Turbo——以应对这一挑战。


小即是美

多年来,最好的人工智能模型变得越来越大。但在 2024 年,一些流行的大语言模型已经足够小,可以在智能手机上运行。

发生了什么:顶级的 AI 公司并没有将所有资源投入到构建大型模型中,而是推广了提供小型、中型和大型选择的大语言模型系列。例如,微软 Phi-3 模型系列(版本约为 38 亿、70 亿和 140 亿参数)、谷歌 (Google) Gemma 2 模型系列(20 亿、90 亿和 270 亿参数)以及 Hugging Face SmolLM 模型系列(1.35 亿、3.6 亿和 17 亿参数)都专注于小型模型。

推动因素:由于知识蒸馏(其中较大的 “教师” 模型用于训练较小的 “学生” 模型,以匹配其输出)、参数修剪(删除影响力较小的参数)、量化(通过使用较少的位来表示每个参数来减少神经网络的大小)以及更加关注为数据质量策划训练集等技术,较小的模型变得更加强大。除了性能、速度和价格之外,在相对低功耗硬件上运行的能力对于各种用途来说都是一个竞争优势。

  • 自 2019 年以来,模型构建者就提供了包含各种大小成员的模型系列,当时谷歌 (Google) 推出了 T5 系列(五个模型,参数约为 7700 万到 110 亿)。OpenAI 的 GPT 系列的成功(随着时间的推移,从 1.17 亿个参数增长到据推测的 1.76 万亿个参数)证明了较大模型的强大功能。OpenAI 的研究人员制定了 规模化法则,该法则似乎保证了较大的模型、训练集和计算预算将导致性能的可预测改进。这一发现刺激了竞争对手构建越来越大的模型。
  • 在 2023 年初,趋势开始转变。元公司 (Meta) 的 Llama 2 提供了参数数量约为 70 亿、130 亿和 700 亿的开源权重版本。
  • 2023 年 12 月,谷歌 (Google) 推出了 Gemini 系列,包括 Gemini Nano (18 亿个参数)。2 月,它发布了小型、开源的 Gemma 1 系列 (20 亿和 70 亿个参数),随后是 Gemma 2 (90 亿和 270 亿个参数)。
  • 微软在 2023 年 12 月推出了 Phi-2 (27 亿个参数),并在 4 月推出了 Phi-3 (38 亿、70 亿和 140 亿个参数)。
  • 8 月,英伟达 (Nvidia) 发布了其 Minitron 模型。它使用蒸馏和修剪相结合的方法,将 Llama 3.1 从 80 亿个参数缩小到 40 亿个参数,并将 Mistral NeMo 从 120 亿个参数缩小到 80 亿个参数,从而在保持几乎相同精度的同时提高了速度并降低了计算成本。

新闻背后:蒸馏、修剪、量化和数据策划是长期存在的实践。但是,这些技术以前从未产生过如此大小和能力比率的模型,这可能是因为被蒸馏、修剪或量化的大型模型从未如此强大。

  • 1989 年,Yann LeCun 和贝尔实验室的同事发表了《最优大脑损伤》,该论文表明,有选择地删除权重可以减小模型的大小,并且在某些情况下可以提高其泛化能力。
  • 量化可以追溯到 1990 年,当时阿拉巴马大学的 E. Fiesler 及其同事在《用于光学神经网络的权重离散化范例》中演示了表示神经网络参数的各种方法。随着神经网络的普及和规模的扩大,它在 2010 年代重新兴起,这刺激了量化感知训练训练后量化的改进。
  • 2006 年,康奈尔大学的 Rich Caruana 及其同事发表了《模型压缩》,展示了如何训练单个模型来模仿多个模型的性能。谷歌大脑 (Google Brain) 的 Geoffrey Hinton 及其同事在 2015 年发表了《在神经网络中提炼知识》,该论文改进了 Caruana 等人的工作,并引入了术语 “蒸馏” 来描述一种更通用的压缩模型的方法。
  • 目前大多数较小的模型都是在精心策划和清理的数据集上训练的。更高质量的数据使得从更少的参数中获得更高的性能成为可能。这是以数据为中心的人工智能的一个示例,即通过提高训练数据的质量来提高模型性能的实践。

现状:较小的模型大大拓宽了成本、速度和部署的选择范围。随着研究人员找到在不牺牲性能的情况下缩小模型的方法,开发人员正在获得构建盈利应用程序、交付及时服务以及将处理分配到互联网边缘的新方法。


收购的替代方案

大型 AI 公司找到了在不收购初创公司的情况下获得尖端技术和人才的创新方法。

发生了什么:在 2024 年,一些科技巨头与 AI 初创公司达成了新的合作安排,聘请了高管并获得了技术访问权限,而没有直接收购这些公司。这些协议使巨头能够以较低的风险快速获得精英人才和经过验证的技术,而监管机构可能会阻碍此类行动。初创公司失去了其领导团队和对关键技术发展的控制权。作为回报,它们获得了现金(在某些情况下,至少如此),奖励了投资者,并且能够从构建尖端模型的费用中抽身出来。

推动因素:微软、亚马逊和谷歌 (Google) 分别利用其雄厚的财力和云基础设施与 Inflection AI、Adept AI 和 Covariant 以及 Character.ai 达成了交易。(声明:吴恩达是亚马逊董事会成员。)

  • 微软在 3 月份开辟了道路。这家科技巨头向 Inflection AI 投资了 6.5 亿美元,获得了这家初创公司的模型许可,集成了其对话式 AI 技术,并聘请了其大部分员工,包括联合创始人穆斯塔法·苏莱曼和卡伦·西蒙尼安。微软任命苏莱曼为新的 AI 部门的 CEO,负责微软自己的模型构建工作以及面向消费者的产品,如必应和 Copilot 产品线。Inflection 的其余部分专注于为商业客户定制 AI 模型。
  • 7 月,亚马逊与 Adept 达成了一项类似的协议,具体条款未公开。Adept 是一家为自动化数据输入和管理客户支持工单等任务构建 AI 智能体的初创公司。亚马逊聘请了 Adept AI 的大部分员工,包括首席执行官 David Luan 和其他来自谷歌 (Google) 和 OpenAI 的联合创始人校友,并获得了 Adept 的模型、数据集和其他技术的非独家许可。Adept 停止开发内部模型,转而专注于构建 AI 智能体。
  • 10 月,亚马逊通过与 AI 驱动的仓库机器人制造商 Covariant 达成协议,进一步加强了其物流能力,具体条款也未公开。亚马逊聘请了这家初创公司的大部分员工,包括首席执行官/联合创始人 Peter Chen 和首席科学家/联合创始人 Pieter Abbeel,并获得了其机器人模型的许可。12 月,亚马逊将 Abbeel 和前 Adept 首席执行官 Luan 配对,运营一个致力于开发 AI 智能体和通用人工智能的新实验室。Covariant 继续为配送中心和其他行业的客户提供服务。
  • 8 月,谷歌 (Google) 和对话式 AI 初创公司 Character.ai 达成了一项类似的交易。谷歌 (Google) 聘请了 Character.ai 的联合创始人 Noam Shazeer 和 Daniel De Freitas 以及关键团队成员,并签署了对其技术的非独家许可。Shazeer 加入了谷歌 (Google) 的深度学习研究团队,其他新员工开始致力于谷歌 (Google) 的聊天服务。谷歌 (Google) 向 Character.ai 提供了一笔未公开的金额,以收购其投资者并继续开发个性化 AI 产品。

新闻背后:科技巨头长期以来一直依赖传统的收购来获得新的人才和能力,通常专门收购初创公司是为了其熟练的团队(称为收购性招聘)和/或其产品或底层技术,这在市场上开发和测试可能既昂贵又耗时。但是,传统的收购越来越受到反垄断监管机构的审查,他们担心大公司通过收购较小的公司来减少竞争。例如,美国联邦贸易委员会试图阻止亚马逊收购 iRobot,促使这两家公司在 2024 年 1 月 放弃了该交易。

现状:为初创公司提供一笔总付费用和/或许可费以换取顶尖人才和技术,这看起来像是科技巨头在努力跟上快速发展的研究和市场的步伐的新常态。但是,即使是表面上的安排也不能使科技巨头和初创公司免受监管调查。微软对 Inflection AI 的投资在欧洲曾短暂地受到 审查,并且仍然受到美国监管机构的 评估。即使是微软对 OpenAI 的更传统的投资以及亚马逊和谷歌 (Google) 在 Anthropic 中的利益也面临监管障碍。但是,到目前为止,监管机构尚未得出任何这些协议违反反垄断法的结论。