أحدث نموذج برمجة مفتوح المصدر للذكاء الاصطناعي تم إطلاقه بواسطة علي بابا، مصمم خصيصًا لمهام برمجة الوكيل الذكي.
نظرة عامة مفصلة على مشروع Qwen3-Coder
نظرة عامة على المشروع
Qwen3-Coder هو أحدث نموذج برمجة ذكاء اصطناعي كبير مفتوح المصدر تم تطويره بواسطة فريق Qwen في Alibaba، وهو مصمم خصيصًا لمهام برمجة الوكلاء الأذكياء. يعتمد النموذج على هندسة الخبراء المختلطة (MoE)، ويمتلك إجمالي 480 مليار معلمة، منها 35 مليار معلمة يتم تفعيلها في كل عملية استدلال.
الميزات الأساسية
🚀 أداء متميز
- حقق أحدث سجلات الأداء بين النماذج مفتوحة المصدر في برمجة الوكلاء الأذكياء، واستخدام متصفح الوكلاء الأذكياء، واستخدام أدوات الوكلاء الأذكياء، ويمكن مقارنته بـ Claude Sonnet-4.
- تفوق على المنافسين المحليين مثل DeepSeek ونموذج K2 من Moonshot AI في اختبارات الأداء لمهام هندسة البرمجيات الواقعية مثل SWE-Bench.
📚 قدرة السياق الطويل
- يدعم أصلاً طول سياق يصل إلى 256 ألف رمز (token)، ويمكن توسيعه إلى مليون رمز عبر طرق الاستقراء.
- مُحسّن خصيصًا لفهم بحجم قاعدة الأكواد، وقادر على معالجة قواعد أكواد ضخمة في جلسة واحدة.
🛠 برمجة الوكلاء الأذكياء
- يدعم معظم المنصات مثل Qwen Code و CLINE، مع تنسيق استدعاء دالة مصمم خصيصًا.
- يمكن للمطورين تعريف أدوات مخصصة، مما يسمح لـ Qwen3-Coder باستدعاء هذه الأدوات ديناميكيًا في مهام المحادثة أو توليد الكود.
🌍 دعم واسع للغات
- يدعم 358 لغة برمجة، بما في ذلك مجموعة متنوعة من لغات البرمجة الشائعة وغير الشائعة من ABAP إلى Zig.
- يحافظ على مزايا النموذج الأساسي في القدرات الرياضية والعامة.
البنية التقنية
بنية النموذج
- نوع البنية: نموذج الخبراء المختلطة (MoE)
- إجمالي المعلمات: 480 مليار معلمة
- المعلمات النشطة: 35 مليار معلمة يتم تفعيلها لكل استعلام
- تكوين الخبراء: تفعيل 8 خبراء من أصل 160
بيانات التدريب
- حجم بيانات التدريب يصل إلى 7.5 تريليون رمز (token)، 70% منها بيانات كود.
- تم استخدام Qwen2.5-Coder لتنظيف وإعادة كتابة البيانات المشوشة، مما أدى إلى تحسين جودة البيانات الإجمالية بشكل كبير.
تحسين التعلم المعزز
- يعتمد تدريب التعلم المعزز للكود، ويغطي نطاقًا أوسع من مهام البرمجة الواقعية.
- يقدم التعلم المعزز طويل الأمد (Agent RL) لتشجيع النموذج على حل المهام الواقعية باستخدام الأدوات عبر تفاعلات متعددة الجولات.
طريقة الاستخدام
مثال محادثة أساسي
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-Coder-480B-A35B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "write a quick sort algorithm."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=65536
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
إكمال الكود (Fill-in-the-Middle)
input_text = """<|fim_prefix|>def quicksort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
<|fim_suffix|>
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quicksort(left) + middle + quicksort(right)<|fim_middle|>"""
messages = [
{"role": "system", "content": "You are a code completion assistant."},
{"role": "user", "content": input_text}
]
# معالجة مهمة إكمال الكود
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
الأدوات المصاحبة
أداة Qwen Code CLI
قامت Alibaba أيضًا بفتح مصدر Qwen Code، وهي أداة قوية لواجهة سطر الأوامر (CLI) تمكن المطورين من تفويض المهام الهندسية إلى الذكاء الاصطناعي باستخدام اللغة الطبيعية.
الميزات الرئيسية:
- فهم الكود وتحريره: استعلام وتحرير قواعد أكواد كبيرة تتجاوز حدود نافذة السياق التقليدية.
- أتمتة سير العمل: أتمتة المهام التشغيلية، مثل معالجة طلبات السحب وعمليات إعادة الأساس المعقدة.
- محلل معزز: محلل مُحسّن خصيصًا لنموذج Qwen-Coder.
التثبيت والتكوين
تأكد من تثبيت Node.js 20 أو إصدار أحدث، ثم قم بإعداد مفتاح Qwen API:
# أنشئ ملف .env في الدليل الجذر للمشروع
echo "QWEN_API_KEY=your_api_key_here" > .env
معايير الأداء
الأداء بين النماذج مفتوحة المصدر
- أظهر أداءً ممتازًا في اختبار SWE-Bench، متفوقًا على النماذج المنافسة من Moonshot AI و DeepSeek.
- حقق سجلات جديدة بين النماذج مفتوحة المصدر في برمجة الوكلاء الأذكياء، واستخدام متصفح الوكلاء الأذكياء، واستخدام أدوات الوكلاء الأذكياء.
مقارنة بالنماذج التجارية
- مقارنةً بـ Claude Sonnet-4 من Anthropic و GPT-4.1 من OpenAI، أظهر أداءً مكافئًا أو بفارق طفيف في بعض المجالات.
- أظهر أداءً مكافئًا للنماذج الأمريكية الرائدة (بما في ذلك Claude من Anthropic و GPT-4 من OpenAI) في مجالات محددة.
طرق الوصول
الحصول على النموذج
- 🤗 Hugging Face
- 🤖 ModelScope
- 💜 Qwen Chat
الوصول عبر API
- يمكن الوصول مباشرة إلى واجهة برمجة تطبيقات Qwen3-Coder عبر استوديو نماذج Alibaba Cloud.
- تم إطلاق واجهة برمجة تطبيقات Qwen3-Coder على منصة BaiLian من Alibaba Cloud.
سيناريوهات الاستخدام المؤسسي
بالنسبة للمؤسسات، يوفر Qwen3-Coder بديلاً مفتوحًا وعالي الأداء للنماذج الاحتكارية مغلقة المصدر. بفضل أدائه المتميز في تنفيذ الكود والاستدلال السياقي الطويل، فهو مناسب بشكل خاص لـ:
- فهم على مستوى قاعدة الأكواد: مناسب لأنظمة الذكاء الاصطناعي التي يجب أن تفهم قواعد أكواد كبيرة، وثائق فنية، أو أنماط معمارية.
- تطوير الوكلاء الأذكياء: يدعم بناء وكلاء ذكاء اصطناعي قادرين على التعامل مع تحديات البرمجة بشكل مستقل.
- تطوير البرمجيات على نطاق واسع: معالجة سير عمل البرمجة المعقدة ومتعددة الخطوات.
الوثائق الفنية
يمكن العثور على وصف الأداء المفصل والوثائق الفنية في المواقع التالية:
يمثل Qwen3-Coder أحدث اختراق في نماذج برمجة الذكاء الاصطناعي مفتوحة المصدر، ويوفر للمطورين والمؤسسات أدوات برمجة ذكية قوية، مما يدفع حدود تطوير البرمجيات بمساعدة الذكاء الاصطناعي.