總而言之:
xcode-select --install # Make sure git & clang are installed
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
curl -L https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin --output ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin
LLAMA_METAL=1 make
./main -m ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin -n 1024 -ngl 1 -p "Give me a list of things to do in NYC"
注意:7B 型號重量約為 4GB,請確保您的機器上有足夠的空間。
這是在做什么?
這是使用 Georgi Gerganov 令人驚嘆的llama.cpp項目來運行 Llama 2。它通過TheBloke的 Huggingface 存儲庫為 Llama 7B Chat 下載一組 4 位優(yōu)化的權重,將其放入 llama.cpp 中的模型目錄中,然后使用 Apple 的 Metal 優(yōu)化構(gòu)建 llama.cpp。
這允許您以最少的工作在本地運行 Llama 2。7B 權重應該適用于具有 8GB RAM 的機器(如果您有 16GB 則更好)。13B 或 70B 等較大型號將需要更多的 RAM。文章來源:http://www.zghlxwxcb.cn/news/detail-613229.html
請注意,Llama 2文章來源地址http://www.zghlxwxcb.cn/news/detail-613229.html
到了這里,關于用 7 行代碼在本地運行 Llama 2?。ㄌO果silicon-mac m1 m2)項目源碼含模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!