ncnnは、モバイル端末向けに徹底的に最適化された、高性能なニューラルネットワーク順伝播計算フレームワークです。ncnnは、設計当初からモバイル端末への実装と使用を深く考慮しています。サードパーティの依存関係がなく、クロスプラットフォームであり、モバイル端末のCPUでの速度は、現在知られているすべてのオープンソースフレームワークよりも高速です。
プロジェクトアドレス: https://github.com/Tencent/ncnn
開発チーム: テンセント社オープンソースプロジェクト
プラットフォーム/ハードウェア | Windows | Linux | Android | macOS | iOS |
---|---|---|---|---|---|
Intel CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
Intel GPU | ✔️ | ✔️ | ❔ | ❔ | / |
AMD CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
AMD GPU | ✔️ | ✔️ | ❔ | ❔ | / |
NVIDIA GPU | ✔️ | ✔️ | ❔ | ❔ | / |
Qualcomm | ❔ | ✔️ | ✅ | / | / |
ARM CPU | ❔ | ❔ | ✅ | / | / |
Apple CPU | / | / | / | ✔️ | ✅ |
✅ = 既知の動作可能かつ優れたパフォーマンス;✔️ = 既知の動作可能;❔ = 理論的には可能だが未確認;/ = 該当なし
ncnnは現在、QQ、QZone(QQ空間)、WeChat、天天P图、その他のテンセントアプリケーションを含む、テンセントの多くの主要アプリケーションで使用されています。
ncnnは、Linux / Windows / macOS、Raspberry Pi 3/4、Android、iOS、WebAssembly、NVIDIA Jetson、全志D1、龙芯2K1000などのプラットフォームでのビルドをサポートしています。
ncnnでAlexNetを実行するチュートリアルから始めることをお勧めします。このチュートリアルでは、詳細な手順が説明されており、特に初心者の方に適しています。
ncnnは、モバイル端末AIアプリケーション開発の理想的な選択肢であり、特にモバイルデバイスに深層学習モデルを実装する必要がある開発者や企業に適しています。