Adresse du projet : https://github.com/ggml-org/llama.cpp
llama.cpp
est un moteur d'inférence pour les modèles LLaMA (Large Language Model Meta AI) conçu pour être entièrement écrit en C/C++. Son objectif est d'atteindre des performances élevées, une faible empreinte de ressources et une facilité de déploiement sur diverses plateformes matérielles, y compris les CPU et les GPU.
llama.cpp
pour l'inférence.llama.cpp
.git clone https://github.com/ggml-org/llama.cpp
make
pour compiler le projet.llama.cpp
.llama.cpp
est un projet très prometteur qui offre la possibilité de déployer le modèle LLaMA sur diverses plateformes matérielles. Si vous avez besoin d'exécuter le modèle LLaMA localement ou sur des appareils aux ressources limitées, llama.cpp
est un bon choix.