ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。ncnn 从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。
项目地址: https://github.com/Tencent/ncnn
开发团队: 腾讯公司开源项目
平台/硬件 | Windows | Linux | Android | macOS | iOS |
---|---|---|---|---|---|
Intel CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
Intel GPU | ✔️ | ✔️ | ❔ | ❔ | / |
AMD CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
AMD GPU | ✔️ | ✔️ | ❔ | ❔ | / |
NVIDIA GPU | ✔️ | ✔️ | ❔ | ❔ | / |
Qualcomm | ❔ | ✔️ | ✅ | / | / |
ARM CPU | ❔ | ❔ | ✅ | / | / |
Apple CPU | / | / | / | ✔️ | ✅ |
✅ = 已知可运行且性能优秀;✔️ = 已知可运行;❔ = 理论可行但未确认;/ = 不适用
ncnn目前已在腾讯多款核心应用中使用,包括:
ncnn支持在以下平台上构建:
推荐从使用ncnn运行AlexNet教程开始,该教程提供了详细的步骤说明,特别适合初学者。
ncnn是移动端AI应用开发的理想选择,特别适合需要在移动设备上部署深度学习模型的开发者和企业。