QwenLM/Qwen3-CoderView GitHub Homepage for Latest Official Releases
阿里巴巴推出的最先进开源AI编程大模型,专为智能代理编程任务设计
PythonQwen3-CoderQwenLM 10.4k Last Updated: July 30, 2025
Qwen3-Coder 项目详细介绍
项目概览
Qwen3-Coder 是阿里巴巴 Qwen 团队开发的最先进开源AI编程大模型,专为智能代理编程任务而设计。该模型采用混合专家(MoE)架构,拥有4800亿总参数,其中350亿参数在每次推理时激活。
核心特性
🚀 卓越性能
- 在开源模型中于智能代理编程、智能代理浏览器使用和智能代理工具使用方面创下了最新性能记录,可与Claude Sonnet-4媲美
- 在SWE-Bench等真实世界软件工程任务基准测试中,超越了国内竞争对手如DeepSeek和Moonshot AI的K2模型
📚 长上下文能力
- 原生支持256K token的上下文长度,通过外推方法可扩展至100万token
- 专为代码库规模的理解而优化,能够在单次会话中处理庞大的代码库
🛠 智能代理编程
- 支持大多数平台如Qwen Code、CLINE,具有专门设计的函数调用格式
- 开发者可以定义自定义工具,让Qwen3-Coder在对话或代码生成任务中动态调用这些工具
🌍 广泛语言支持
- 支持358种编程语言,包括从ABAP到Zig的各种主流和小众编程语言
- 保持了基础模型在数学和通用能力方面的优势
技术架构
模型架构
- 架构类型: 混合专家(MoE)模型
- 总参数: 4800亿参数
- 激活参数: 每次查询激活350亿参数
- 专家配置: 160个专家中激活8个
训练数据
- 训练数据规模达7.5万亿token,其中70%为代码数据
- 利用Qwen2.5-Coder清理和重写噪声数据,显著提升整体数据质量
强化学习优化
- 采用代码强化学习训练,覆盖更广泛的真实世界编程任务
- 引入长期强化学习(Agent RL)鼓励模型通过多轮交互使用工具解决真实世界任务
使用方式
基本对话示例
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-Coder-480B-A35B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "write a quick sort algorithm."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=65536
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
代码填充(Fill-in-the-Middle)
input_text = """<|fim_prefix|>def quicksort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
<|fim_suffix|>
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quicksort(left) + middle + quicksort(right)<|fim_middle|>"""
messages = [
{"role": "system", "content": "You are a code completion assistant."},
{"role": "user", "content": input_text}
]
# 处理代码填充任务
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
配套工具
Qwen Code CLI工具
阿里巴巴同时开源了Qwen Code,这是一个功能强大的命令行界面(CLI)工具,让开发者能够使用自然语言将工程任务委托给AI。
主要功能:
- 代码理解与编辑: 查询和编辑超出传统上下文窗口限制的大型代码库
- 工作流自动化: 自动化操作任务,如处理拉取请求和复杂的重新基础操作
- 增强解析器: 专门为Qwen-Coder模型优化的解析器
安装和配置
确保安装Node.js 20或更高版本,然后设置Qwen API密钥:
# 在项目根目录创建.env文件
echo "QWEN_API_KEY=your_api_key_here" > .env
性能基准
在开源模型中的表现
- 在SWE-Bench基准测试中表现优异,超越了Moonshot AI和DeepSeek的竞争模型
- 在智能代理编程、智能代理浏览器使用和智能代理工具使用方面创下开源模型新纪录
与商业模型对比
- 与Anthropic的Claude Sonnet-4和OpenAI的GPT-4.1相比,在某些领域表现相当或略有差距
- 在特定领域与领先的美国模型(包括Anthropic的Claude和OpenAI的GPT-4)表现相当
访问方式
模型获取
- 🤗 Hugging Face
- 🤖 ModelScope
- 💜 Qwen Chat
API访问
- 可通过阿里云模型工作室直接访问Qwen3-Coder的API
- Qwen3-Coder API已在阿里云的百炼平台上线
企业应用场景
对于企业而言,Qwen3-Coder提供了闭源专有模型的开放、高性能替代方案。凭借在代码执行和长上下文推理方面的出色表现,它特别适用于:
- 代码库级理解: 适用于必须理解大型代码库、技术文档或架构模式的AI系统
- 智能代理开发: 支持构建能够自主处理编程挑战的AI代理
- 大规模软件开发: 处理复杂的多步骤编程工作流
技术文档
详细的性能介绍和技术文档可在以下位置找到:
Qwen3-Coder代表了开源AI编程模型的最新突破,为开发者和企业提供了强大的智能编程工具,推动了AI辅助软件开发的发展前沿。