Endereço do Projeto: https://github.com/ggml-org/llama.cpp
llama.cpp
é um motor de inferência para modelos LLaMA (Large Language Model Meta AI) projetado para ser escrito inteiramente em C/C++. Seu objetivo é alcançar alto desempenho, baixo consumo de recursos e fácil implantação em diversas plataformas de hardware, incluindo CPU e GPU.
llama.cpp
para inferência.llama.cpp
.git clone https://github.com/ggml-org/llama.cpp
make
para compilar o projeto.llama.cpp
.llama.cpp
é um projeto muito promissor, que oferece a possibilidade de implantar o modelo LLaMA em várias plataformas de hardware. Se você precisa executar o modelo LLaMA localmente ou em dispositivos com recursos limitados, llama.cpp
é uma boa escolha.