Qwen 团队在 2025 年 7 月 31 号开源 30B 的编码模型 Qwen3-Coder-30B-A3B-Instruct。该模型经过精简,旨在保持卓越性能的同时提高效率,特别是在 Agentic 编程和长上下文处理方面表现突出。

Qwen3-Coder-30B-A3B-Instruct 是一款高效且功能强大的开源代码语言模型。其核心优势在于卓越的 Agentic 编程能力、对超长上下文的原生支持以及在各类代码任务中的顶尖性能。该模型专为处理代码库级别的复杂任务而设计,并通过特殊的函数调用格式,为开发者提供了强大的工具集成能力。

xxx

模型亮点

  • 卓越性能: 在 Agentic Coding (智能体编程)、Agentic Browser-Use (智能体浏览器使用) 及其他基础编码任务中,该模型在开源模型中表现出众。
  • 长上下文能力: 原生支持 256K tokens 的上下文长度,并可通过 Yarn 技术扩展至 1M tokens,能够轻松理解和处理整个代码库。
  • Agentic 编程支持: 支持 Qwen CodeCLINE 等多种平台,并设计了专门的函数调用 (function call) 格式,便于工具集成和自动化任务。

模型规格

  • 模型类型: 因果语言模型 (Causal Language Models)。
  • 参数量: 总参数量为 30.5B,激活参数量为 3.3B
  • 架构: 包含 48 个层,采用分组查询注意力 (GQA) 机制,其中查询 (Q) 有 32 个注意力头,键/值 (KV) 有 4 个。模型采用专家混合 (MoE) 架构,共有 128 位专家,每次激活 8 位。
  • 上下文长度: 原生支持 256K 上下文。
  • 特别说明: 此模型仅支持非思考模式,不会在输出中生成 <think></think> 标记。

使用与部署

  • 环境要求: 强烈建议使用 transformers 库的最新版本(低于 4.51.0 的版本会引发错误)。
  • 本地部署: 支持通过 OllamaLMStudiollama.cpp 等多种工具在本地运行。
  • 内存优化: 如果遇到内存不足(OOM)问题,建议将上下文长度缩短(例如 32,768)。

功能与实践

  • 代理式编码: 模型支持 Qwen CodeCLINE 等平台,并提供了专门的函数调用格式。用户可以定义自己的工具,并通过与 OpenAI API 兼容的接口进行调用。
  • 最佳实践: 为获得最佳性能,推荐的采样参数为 temperature=0.7, top_p=0.8, top_k=20, repetition_penalty=1.05。同时,建议为大多数查询设置 65,536 tokens 的输出长度。