ncnn هو إطار عمل عالي الأداء لحسابات الشبكات العصبية الأمامية، مُحسَّن خصيصًا للأجهزة المحمولة. تم تصميم ncnn مع مراعاة النشر والاستخدام على الأجهزة المحمولة بعمق. لا توجد تبعيات خارجية، وهو متعدد المنصات، وسرعته على وحدة المعالجة المركزية (CPU) للأجهزة المحمولة أسرع من جميع الأطر مفتوحة المصدر المعروفة حاليًا.
عنوان المشروع: https://github.com/Tencent/ncnn
فريق التطوير: مشروع مفتوح المصدر من شركة Tencent
النظام الأساسي/الأجهزة | Windows | Linux | Android | macOS | iOS |
---|---|---|---|---|---|
Intel CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
Intel GPU | ✔️ | ✔️ | ❔ | ❔ | / |
AMD CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
AMD GPU | ✔️ | ✔️ | ❔ | ❔ | / |
NVIDIA GPU | ✔️ | ✔️ | ❔ | ❔ | / |
Qualcomm | ❔ | ✔️ | ✅ | / | / |
ARM CPU | ❔ | ❔ | ✅ | / | / |
Apple CPU | / | / | / | ✔️ | ✅ |
✅ = معروف أنه يعمل وأداء ممتاز؛ ✔️ = معروف أنه يعمل؛ ❔ = ممكن نظريًا ولكن لم يتم تأكيده؛ / = غير قابل للتطبيق
يتم استخدام ncnn حاليًا في العديد من تطبيقات Tencent الأساسية، بما في ذلك:
يدعم ncnn البناء على الأنظمة الأساسية التالية:
يوصى بالبدء ببرنامج استخدام ncnn لتشغيل AlexNet، والذي يوفر إرشادات تفصيلية خطوة بخطوة، وهو مناسب بشكل خاص للمبتدئين.
ncnn هو الخيار الأمثل لتطوير تطبيقات الذكاء الاصطناعي للأجهزة المحمولة، وهو مناسب بشكل خاص للمطورين والشركات الذين يحتاجون إلى نشر نماذج التعلم العميق على الأجهزة المحمولة.