專案地址: https://github.com/ggml-org/llama.cpp
llama.cpp
是一個旨在完全用 C/C++ 編寫的 LLaMA(Large Language Model Meta AI)模型的推理引擎。它的目標是實現高性能、低資源佔用,並易於部署在各種硬體平台上,包括 CPU 和 GPU。
llama.cpp
進行推理。llama.cpp
支持的格式。git clone https://github.com/ggml-org/llama.cpp
make
命令編譯專案。llama.cpp
支持的格式。llama.cpp
是一個非常有前景的專案,它為 LLaMA 模型在各種硬體平台上部署提供了可能。如果您需要在本地或資源受限的設備上運行 LLaMA 模型,llama.cpp
是一個不錯的選擇。