إطار عمل مفتوح المصدر لتطبيقات الذكاء الاصطناعي متعددة الوكلاء تم تطويره بواسطة Microsoft، يدعم تعاون العديد من وكلاء الذكاء الاصطناعي لحل المهام المعقدة.
نموذج BERT مُدرَّب مسبقًا باللغة الصينية يعتمد على تقنية إخفاء الكلمات الكاملة، ويوفر مجموعة متنوعة من نماذج التدريب المسبق لمعالجة اللغة الطبيعية الصينية.
مجموعة أدوات واسعة النطاق وقابلة للتوسيع ومريحة وفعالة لضبط دقيق واستنتاج النماذج الأساسية الكبيرة، مصممة لتكون سهلة الاستخدام وسريعة وموثوقة، ومفتوحة للمجتمع بأكمله.
إطار عمل لضبط وتوزيع نماذج اللغة الكبيرة بدون تعليمات برمجية أو بتعليمات برمجية منخفضة، يدعم الضبط الدقيق الموحد والفعال لأكثر من 100 نموذج لغة كبير/نموذج لغة مرئية.