ncnn은 모바일 환경에 최적화된 고성능 신경망 순방향 계산 프레임워크입니다. ncnn은 설계 초기부터 모바일 환경에서의 배포 및 사용을 깊이 고려했습니다. 타사 종속성이 없으며, 크로스 플랫폼을 지원하고, 모바일 CPU에서 현재 알려진 모든 오픈소스 프레임워크보다 빠른 속도를 제공합니다.
프로젝트 주소: https://github.com/Tencent/ncnn
개발팀: 텐센트 회사 오픈소스 프로젝트
플랫폼/하드웨어 | Windows | Linux | Android | macOS | iOS |
---|---|---|---|---|---|
Intel CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
Intel GPU | ✔️ | ✔️ | ❔ | ❔ | / |
AMD CPU | ✔️ | ✔️ | ❔ | ✔️ | / |
AMD GPU | ✔️ | ✔️ | ❔ | ❔ | / |
NVIDIA GPU | ✔️ | ✔️ | ❔ | ❔ | / |
Qualcomm | ❔ | ✔️ | ✅ | / | / |
ARM CPU | ❔ | ❔ | ✅ | / | / |
Apple CPU | / | / | / | ✔️ | ✅ |
✅ = 알려진 실행 가능 및 성능 우수; ✔️ = 알려진 실행 가능; ❔ = 이론적으로 가능하지만 확인되지 않음; / = 해당 없음
ncnn은 현재 텐센트의 여러 핵심 애플리케이션에서 사용되고 있습니다.
ncnn은 다음 플랫폼에서 빌드를 지원합니다.
ncnn을 사용하여 AlexNet 실행하기 튜토리얼부터 시작하는 것을 추천합니다. 이 튜토리얼은 자세한 단계별 설명을 제공하며, 특히 초보자에게 적합합니다.
ncnn은 모바일 AI 애플리케이션 개발에 이상적인 선택이며, 특히 모바일 장치에 딥러닝 모델을 배포해야 하는 개발자 및 기업에 적합합니다.