项目地址: https://github.com/ggml-org/llama.cpp
llama.cpp
是一个旨在完全用 C/C++ 编写的 LLaMA(Large Language Model Meta AI)模型的推理引擎。它的目标是实现高性能、低资源占用,并易于部署在各种硬件平台上,包括 CPU 和 GPU。
llama.cpp
进行推理。llama.cpp
支持的格式。git clone https://github.com/ggml-org/llama.cpp
make
命令编译项目。llama.cpp
支持的格式。llama.cpp
是一个非常有前景的项目,它为 LLaMA 模型在各种硬件平台上部署提供了可能。如果您需要在本地或资源受限的设备上运行 LLaMA 模型,llama.cpp
是一个不错的选择。