Dirección del proyecto: https://github.com/ggml-org/llama.cpp
llama.cpp
es un motor de inferencia para modelos LLaMA (Large Language Model Meta AI) diseñado para ser escrito completamente en C/C++. Su objetivo es lograr un alto rendimiento, bajo consumo de recursos y fácil despliegue en diversas plataformas de hardware, incluyendo CPU y GPU.
llama.cpp
para la inferencia.llama.cpp
.git clone https://github.com/ggml-org/llama.cpp
make
para compilar el proyecto.llama.cpp
.llama.cpp
es un proyecto muy prometedor que ofrece la posibilidad de desplegar el modelo LLaMA en diversas plataformas de hardware. Si necesita ejecutar el modelo LLaMA localmente o en dispositivos con recursos limitados, llama.cpp
es una buena opción.