阿里巴巴推出的最先进开源AI编程大模型,专为智能代理编程任务设计

PythonQwen3-CoderQwenLM 10.4k Last Updated: July 30, 2025

Qwen3-Coder 项目详细介绍

项目概览

Qwen3-Coder 是阿里巴巴 Qwen 团队开发的最先进开源AI编程大模型,专为智能代理编程任务而设计。该模型采用混合专家(MoE)架构,拥有4800亿总参数,其中350亿参数在每次推理时激活。

核心特性

🚀 卓越性能

  • 在开源模型中于智能代理编程、智能代理浏览器使用和智能代理工具使用方面创下了最新性能记录,可与Claude Sonnet-4媲美
  • 在SWE-Bench等真实世界软件工程任务基准测试中,超越了国内竞争对手如DeepSeek和Moonshot AI的K2模型

📚 长上下文能力

  • 原生支持256K token的上下文长度,通过外推方法可扩展至100万token
  • 专为代码库规模的理解而优化,能够在单次会话中处理庞大的代码库

🛠 智能代理编程

  • 支持大多数平台如Qwen Code、CLINE,具有专门设计的函数调用格式
  • 开发者可以定义自定义工具,让Qwen3-Coder在对话或代码生成任务中动态调用这些工具

🌍 广泛语言支持

  • 支持358种编程语言,包括从ABAP到Zig的各种主流和小众编程语言
  • 保持了基础模型在数学和通用能力方面的优势

技术架构

模型架构

  • 架构类型: 混合专家(MoE)模型
  • 总参数: 4800亿参数
  • 激活参数: 每次查询激活350亿参数
  • 专家配置: 160个专家中激活8个

训练数据

  • 训练数据规模达7.5万亿token,其中70%为代码数据
  • 利用Qwen2.5-Coder清理和重写噪声数据,显著提升整体数据质量

强化学习优化

  • 采用代码强化学习训练,覆盖更广泛的真实世界编程任务
  • 引入长期强化学习(Agent RL)鼓励模型通过多轮交互使用工具解决真实世界任务

使用方式

基本对话示例

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-Coder-480B-A35B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "write a quick sort algorithm."
messages = [
    {"role": "user", "content": prompt}
]

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=65536
)

generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

代码填充(Fill-in-the-Middle)

input_text = """<|fim_prefix|>def quicksort(arr):
    if len(arr) <= 1:
        return arr
    pivot = arr[len(arr) // 2]
    <|fim_suffix|>
    middle = [x for x in arr if x == pivot]
    right = [x for x in arr if x > pivot]
    return quicksort(left) + middle + quicksort(right)<|fim_middle|>"""

messages = [
    {"role": "system", "content": "You are a code completion assistant."},
    {"role": "user", "content": input_text}
]

# 处理代码填充任务
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

配套工具

Qwen Code CLI工具

阿里巴巴同时开源了Qwen Code,这是一个功能强大的命令行界面(CLI)工具,让开发者能够使用自然语言将工程任务委托给AI。

主要功能:

  • 代码理解与编辑: 查询和编辑超出传统上下文窗口限制的大型代码库
  • 工作流自动化: 自动化操作任务,如处理拉取请求和复杂的重新基础操作
  • 增强解析器: 专门为Qwen-Coder模型优化的解析器

安装和配置

确保安装Node.js 20或更高版本,然后设置Qwen API密钥:

# 在项目根目录创建.env文件
echo "QWEN_API_KEY=your_api_key_here" > .env

性能基准

在开源模型中的表现

  • 在SWE-Bench基准测试中表现优异,超越了Moonshot AI和DeepSeek的竞争模型
  • 在智能代理编程、智能代理浏览器使用和智能代理工具使用方面创下开源模型新纪录

与商业模型对比

  • 与Anthropic的Claude Sonnet-4和OpenAI的GPT-4.1相比,在某些领域表现相当或略有差距
  • 在特定领域与领先的美国模型(包括Anthropic的Claude和OpenAI的GPT-4)表现相当

访问方式

模型获取

API访问

  • 可通过阿里云模型工作室直接访问Qwen3-Coder的API
  • Qwen3-Coder API已在阿里云的百炼平台上线

企业应用场景

对于企业而言,Qwen3-Coder提供了闭源专有模型的开放、高性能替代方案。凭借在代码执行和长上下文推理方面的出色表现,它特别适用于:

  • 代码库级理解: 适用于必须理解大型代码库、技术文档或架构模式的AI系统
  • 智能代理开发: 支持构建能够自主处理编程挑战的AI代理
  • 大规模软件开发: 处理复杂的多步骤编程工作流

技术文档

详细的性能介绍和技术文档可在以下位置找到:

Qwen3-Coder代表了开源AI编程模型的最新突破,为开发者和企业提供了强大的智能编程工具,推动了AI辅助软件开发的发展前沿。

Star History Chart