Le modèle de programmation d'IA open source le plus avancé d'Alibaba, conçu spécifiquement pour les tâches de programmation d'agents intelligents.

PythonQwen3-CoderQwenLM 10.4k Last Updated: July 30, 2025

Présentation détaillée du projet Qwen3-Coder

Aperçu du projet

Qwen3-Coder est un grand modèle de programmation IA open-source de pointe, développé par l'équipe Qwen d'Alibaba, spécialement conçu pour les tâches de programmation d'agents intelligents. Ce modèle utilise une architecture de mélange d'experts (MoE), avec un total de 480 milliards de paramètres, dont 35 milliards sont activés à chaque inférence.

Caractéristiques principales

🚀 Performances exceptionnelles

  • Établit de nouveaux records de performance parmi les modèles open-source pour la programmation d'agents intelligents, l'utilisation de navigateurs par des agents intelligents et l'utilisation d'outils par des agents intelligents, rivalisant avec Claude Sonnet-4.
  • Surpasse les concurrents nationaux tels que DeepSeek et le modèle K2 de Moonshot AI sur des benchmarks de tâches d'ingénierie logicielle du monde réel comme SWE-Bench.

📚 Capacité de contexte long

  • Prend en charge nativement une longueur de contexte de 256K tokens, extensible à 1 million de tokens grâce à des méthodes d'extrapolation.
  • Optimisé pour la compréhension à l'échelle des bases de code, capable de traiter de vastes dépôts de code en une seule session.

🛠 Programmation d'agents intelligents

  • Prend en charge la plupart des plateformes comme Qwen Code, CLINE, avec un format d'appel de fonction spécialement conçu.
  • Les développeurs peuvent définir des outils personnalisés, permettant à Qwen3-Coder d'appeler dynamiquement ces outils dans des conversations ou des tâches de génération de code.

🌍 Prise en charge étendue des langues

  • Prend en charge 358 langages de programmation, y compris une variété de langages grand public et de niche, d'ABAP à Zig.
  • Maintient les avantages du modèle de base en matière de capacités mathématiques et générales.

Architecture technique

Architecture du modèle

  • Type d'architecture: Modèle de mélange d'experts (MoE)
  • Paramètres totaux: 480 milliards de paramètres
  • Paramètres activés: 35 milliards de paramètres activés par requête
  • Configuration des experts: 8 experts activés sur 160

Données d'entraînement

  • La taille des données d'entraînement atteint 7,5 billions de tokens, dont 70% sont des données de code.
  • Utilise Qwen2.5-Coder pour nettoyer et réécrire les données bruyantes, améliorant significativement la qualité globale des données.

Optimisation par apprentissage par renforcement

  • Utilise l'entraînement par apprentissage par renforcement de code, couvrant un éventail plus large de tâches de programmation du monde réel.
  • Introduit l'apprentissage par renforcement à long terme (Agent RL) pour encourager le modèle à résoudre des tâches du monde réel en utilisant des outils via des interactions multi-tours.

Mode d'emploi

Exemple de conversation de base

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-Coder-480B-A35B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "write a quick sort algorithm."
messages = [
    {"role": "user", "content": prompt}
]

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=65536
)

generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

Complétion de code (Fill-in-the-Middle)

input_text = """<|fim_prefix|>def quicksort(arr):
    if len(arr) <= 1:
        return arr
    pivot = arr[len(arr) // 2]
    <|fim_suffix|>
    middle = [x for x in arr if x == pivot]
    right = [x for x in arr if x > pivot]
    return quicksort(left) + middle + quicksort(right)<|fim_middle|>"""

messages = [
    {"role": "system", "content": "You are a code completion assistant."},
    {"role": "user", "content": input_text}
]

# Traitement de la tâche de complétion de code
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

Outils complémentaires

Outil Qwen Code CLI

Alibaba a également rendu open-source Qwen Code, un puissant outil d'interface en ligne de commande (CLI) qui permet aux développeurs de déléguer des tâches d'ingénierie à l'IA en utilisant le langage naturel.

Fonctionnalités principales :

  • Compréhension et édition de code: Interroger et éditer de grandes bases de code au-delà des limites des fenêtres de contexte traditionnelles.
  • Automatisation des flux de travail: Automatiser les tâches opérationnelles telles que le traitement des requêtes de tirage (pull requests) et les opérations de rebasage complexes.
  • Analyseur amélioré: Un analyseur spécialement optimisé pour le modèle Qwen-Coder.

Installation et configuration

Assurez-vous d'avoir Node.js 20 ou une version ultérieure installée, puis configurez la clé API Qwen :

# Créez un fichier .env dans le répertoire racine du projet
echo "QWEN_API_KEY=your_api_key_here" > .env

Benchmarks de performance

Performances parmi les modèles open-source

  • Excellentes performances sur le benchmark SWE-Bench, surpassant les modèles concurrents de Moonshot AI et DeepSeek.
  • Établit de nouveaux records pour les modèles open-source en matière de programmation d'agents intelligents, d'utilisation de navigateurs par des agents intelligents et d'utilisation d'outils par des agents intelligents.

Comparaison avec les modèles commerciaux

  • Performances comparables ou légèrement inférieures à celles de Claude Sonnet-4 d'Anthropic et de GPT-4.1 d'OpenAI dans certains domaines.
  • Performances comparables à celles des principaux modèles américains (y compris Claude d'Anthropic et GPT-4 d'OpenAI) dans des domaines spécifiques.

Accès

Acquisition du modèle

Accès API

  • L'API de Qwen3-Coder est directement accessible via le studio de modèles d'Alibaba Cloud.
  • L'API de Qwen3-Coder est désormais disponible sur la plateforme BaiLian d'Alibaba Cloud.

Scénarios d'application en entreprise

Pour les entreprises, Qwen3-Coder offre une alternative open-source, performante aux modèles propriétaires à code source fermé. Grâce à ses excellentes performances en exécution de code et en inférence à long contexte, il est particulièrement adapté pour :

  • Compréhension à l'échelle des bases de code: Convient aux systèmes d'IA qui doivent comprendre de grandes bases de code, des documents techniques ou des modèles d'architecture.
  • Développement d'agents intelligents: Prend en charge la construction d'agents IA capables de relever de manière autonome des défis de programmation.
  • Développement logiciel à grande échelle: Gérer des flux de travail de programmation complexes en plusieurs étapes.

Documentation technique

Des présentations détaillées des performances et de la documentation technique sont disponibles aux emplacements suivants :

Qwen3-Coder représente la dernière percée dans les modèles de programmation IA open-source, offrant aux développeurs et aux entreprises un puissant outil de programmation intelligente, faisant avancer la frontière du développement logiciel assisté par l'IA.

Star History Chart