2025 年 10 月 30 号,OpenAI 推出了一款由 GPT-5 驱动的代理式安全研究工具 —— Aardvark。它旨在帮助开发者和安全团队大规模地发现并修复软件中的安全漏洞,从而在网络安全攻防战中为防御方提供优势。

Aardvark 是一款自主运行的 AI 代理,它能够像人类安全专家一样,通过分析代码、理解其行为并利用工具来主动发现和修复漏洞。它的核心目标是改变当前软件安全领域的格局,将天平向防御方倾斜。通过自动化漏洞的发现、验证和修复流程,Aardvark 能够帮助团队在不拖慢开发速度的前提下,持续提升代码的安全性。目前,该产品已进入私有测试阶段。

关键细节

工作原理与流程

Aardvark 的工作流程分为四个主要阶段,不依赖于模糊测试等传统技术,而是利用大语言模型的推理能力:

  1. 分析 (Analysis): 首先,Aardvark 会分析整个代码仓库,生成一个威胁模型,以理解项目的安全目标和设计。
  2. 提交扫描 (Commit scanning): 当有新的代码提交时,它会根据威胁模型检查代码变更,以发现潜在漏洞。它会用易于理解的方式逐步解释漏洞,并对代码进行注释。
  3. 验证 (Validation): 在发现潜在漏洞后,Aardvark 会在一个隔离的沙盒环境中尝试触发该漏洞,以确认其可利用性,从而确保提供给用户的洞察是准确且低误报的。
  4. 修补 (Patching): AardvarkOpenAI Codex 集成,为发现的每个漏洞生成建议的修复补丁,供开发人员审查和一键应用。

实际影响与表现

  • 内部应用与测试: Aardvark 已在 OpenAI 内部代码库和外部合作伙伴中运行数月,成功发现了多个重要漏洞。
  • 基准测试: 在包含已知和人为引入漏洞的“黄金”代码库测试中,Aardvark 成功识别了 92% 的漏洞,展示了其高效性和实用性。
  • 解决的问题: 软件漏洞已成为系统性风险,仅 2024 年就报告了超过 40,000CVE。测试表明,约 1.2% 的代码提交会引入新的错误。

对开源社区的贡献

  • Aardvark 已被应用于开源项目,并成功发现了多个漏洞,其中 10 个已获得 CVE (通用漏洞披露) 编号。
  • OpenAI 承诺回馈开源社区,计划为部分非商业开源项目提供免费扫描服务。
  • 公司还更新了其对外协调披露政策,采取了对开发者更友好的协作方式。

当前状态

Aardvark 目前已开放私有测试版,OpenAI 邀请感兴趣的组织或开源项目申请加入,以帮助团队进一步优化其性能和用户体验。

原文:介绍 Aardvark:OpenAI 的代理式安全研究员

现已进入私测阶段:一个像安全研究员一样思考、可扩展以满足现代软件需求的 AI 代理。

今天,我们宣布推出 Aardvark,一个由 GPT-5 驱动的代理式安全研究员。

软件安全是技术领域最关键且最具挑战性的前沿之一。每年,在企业和开源代码库中都会发现数以万计的新漏洞。防御者面临着艰巨的任务,即在对手之前发现并修补漏洞。在 OpenAI,我们正努力扭转这种平衡,使其有利于防御者。

Aardvark 代表了 AI 和安全研究领域的一项突破:一个能够帮助开发者和安全团队大规模发现并修复安全漏洞的自主代理。Aardvark 现已推出私测版,以在实际应用中验证和完善其功能。

Aardvark 的工作原理

Aardvark 持续分析源代码仓库,以识别漏洞、评估可利用性、排定严重性优先级,并提出针对性的补丁。

Aardvark 的工作方式是监控代码库的提交 (commits) 和变更,识别漏洞、它们可能被利用的方式,并提出修复建议。Aardvark 不依赖于传统的程序分析技术,如模糊测试 (fuzzing) 或软件成分分析 (software composition analysis)。相反,它利用 LLM 驱动的推理和工具使用来理解代码行为并识别漏洞。Aardvark 像人类安全研究员一样寻找错误:通过阅读代码、分析代码、编写并运行测试、使用工具等。

xxx

Aardvark 依靠一个多阶段流水线来识别、解释和修复漏洞:

  • 分析:它首先分析完整的仓库,生成一个威胁模型,反映其对项目安全目标和设计的理解。
  • 提交扫描:在新代码提交时,它通过对照整个仓库和威胁模型检查提交级别的变更来扫描漏洞。当仓库首次连接时,Aardvark 将扫描其历史记录以识别现有问题。Aardvark 会逐步解释它发现的漏洞,并注释代码以供人工审查。
  • 验证:一旦 Aardvark 识别出潜在漏洞,它将尝试在一个隔离的沙盒 (sandboxed) 环境中触发它,以确认其可利用性。Aardvark 会描述所采取的步骤,以帮助确保向用户返回准确、高质量和低误报率的洞察。
  • 修补:Aardvark 与 OpenAI Codex 集成,以帮助修复它发现的漏洞。它为每个发现附加一个由 Codex 生成并经 Aardvark 扫描的补丁,供人工审查和高效的一键式修补。

Aardvark 与工程师协同工作,与 GitHub、Codex 和现有工作流程集成,以提供清晰、可操作的洞察,而不会减慢开发速度。虽然 Aardvark 是为安全而构建的,但在我们的测试中,我们发现它还可以发现诸如逻辑缺陷、不完整的修复和隐私问题等错误。

今天的实际影响

Aardvark 已经投入使用几个月,持续在 OpenAI 的内部代码库和外部 alpha 合作伙伴的代码库上运行。在 OpenAI 内部,它已经发现了一些有意义的漏洞,并为 OpenAI 的防御态势做出了贡献。合作伙伴强调了其分析的深度,Aardvark 发现了仅在复杂条件下才会出现的问题。

在对“黄金”仓库进行的基准测试中,Aardvark 识别出了 92% 的已知和人工引入的漏洞,展示了高召回率和现实世界的有效性。

Aardvark 助力开源

Aardvark 也已被应用于开源项目,在这些项目中它发现了许多漏洞,我们已负责任地披露了这些漏洞——其中十个已获得通用漏洞披露 (CVE) 标识符。

作为几十年来开放研究和负责任披露的受益者,我们致力于回馈社会——贡献工具和发现,使数字生态系统对每个人都更安全。我们计划为选定的非商业开源仓库提供公益扫描,为开源软件生态系统和供应链的安全做出贡献。

我们最近 更新了⁠ 我们的 对外协调披露政策⁠,该政策采取了对开发者友好的立场,专注于协作和可扩展的影响,而不是可能给开发者带来压力的僵化披露时间表。我们预计像 Aardvark 这样的工具将导致发现越来越多的错误,并希望可持续地协作以实现长期的韧性。

为什么这很重要

软件现在是每个行业的支柱——这意味着软件漏洞对企业、基础设施和社会构成系统性风险。仅 2024 年就报告了超过 40,000 个 CVE。我们的测试表明,大约 1.2% 的提交会引入错误——这些小变更可能会产生巨大的后果。

Aardvark 代表了一种新的防御者优先模型:一个代理式安全研究员,通过在代码演进过程中提供持续保护来与团队合作。通过及早发现漏洞、验证真实世界的可利用性并提供清晰的修复方案,Aardvark 可以在不减慢创新的前提下加强安全性。我们相信应扩大安全专业知识的获取渠道。我们正从私测版开始,并将随着学习的深入而扩大可用范围。

私测现已开放

我们邀请部分合作伙伴加入 Aardvark 私测版。参与者将获得早期访问权限,并直接与我们的团队合作,以完善检测准确性、验证工作流程和报告体验。

我们希望在各种环境中验证性能。如果您的组织或开源项目有兴趣加入,您可以在 此处申请⁠

作者

OpenAI

贡献者

Akshay Bhat, Andy Nguyen, Dave Aitel, Harold Nguyen, Ian Brelinsky, Tiffany Citra, Xin Hu, Matt Knight