大家好,像LLaMA 2這樣的新開源模型已經(jīng)變得相當(dāng)先進,并且可以免費使用??梢栽谏虡I(yè)上使用它們,也可以根據(jù)自己的數(shù)據(jù)進行微調(diào),以開發(fā)專業(yè)版本。憑借其易用性,現(xiàn)在可以在自己的設(shè)備上本地運行它們。
本文將介紹如何下載所需的文件和LLaMA 2模型,以運行CLI程序并與AI助手進行交互。設(shè)置非常簡單,即使是非技術(shù)用戶或?qū)W生也可以按照這幾個基本步驟進行操作。
1.下載Llama.cpp用于GPU機器
要在本地安裝llama.cpp,最簡單的方法是從llama.cpp releases中下載預(yù)編譯的可執(zhí)行文件。
要在配備有NVIDIA GPU的Windows 11上安裝它,我們首先需要下載llama-master-eb542d3-bin-win-cublas-[version]-x64.zip
文件。下載完成后,將其解壓縮到你選擇的目錄中。建議創(chuàng)建一個新文件夾并將所有文件提取到其中。
接下來,我們將下載cuBLAS驅(qū)動程序cudart-llama-bin-win-[version]-x64.zip
,并將其解壓縮到主目錄中。要使用GPU加速,你有兩個選項:NVIDIA GPU的cuBLAS
和AMD GPU的clBLAS
。
注意:[version]是指本地系統(tǒng)上安裝的CUDA版本??梢酝ㄟ^在終端中運行
nvcc --version
來檢查它。
2.下載模型
首先,在主目錄中創(chuàng)建一個名為“Models”的文件夾。在Models文件夾中,創(chuàng)建一個名為“l(fā)lama2_7b”的新文件夾。接下來,從Hugging Face hub下載LLaMA 2模型文件。大家可以選擇任何喜歡的版本,本指南將下載llama-2-7b-chat.Q5_K_M.gguf
文件。下載完成后,將文件移動到剛剛創(chuàng)建的“l(fā)lama2_7b”文件夾中。
注意:為了避免出現(xiàn)任何錯誤,請確保在運行模型之前只下載
.gguf
模型文件。
?3.啟動AI助手CLI程序
現(xiàn)在可以在主目錄中打開終端。通過右鍵單擊并選擇“Open in Terminal”選項,也可以打開PowerShell并使用“cd”來更改目錄。
復(fù)制并粘貼下面的命令,然后按“Enter”鍵,正在執(zhí)行帶有模型目錄位置、gpu、顏色和系統(tǒng)提示參數(shù)的main.exe
文件。
./main.exe?-m?.\Models\llama2_7b\llama-2-7b-chat.Q5_K_M.gguf?-i?--n-gpu-layers?32?-ins?--color?-p?"<<SYS>>?As?an?AI?assistant,?your?core?values?include?being?supportive,?considerate,?and?truthful,?ensuring?that?every?interaction?is?guided?by?clarity?and?helpfulness.?<</SYS>>"
llama.ccp CLI程序已成功初始化并附帶了系統(tǒng)提示,這是一個有用的AI助手,并顯示了各種可用的命令。
4.在PowerShell中本地使用LLaMA 2
通過提供提示在PowerShell中測試LLaMA 2,提出了一個關(guān)于地球年齡的簡單問題。
答案非常準(zhǔn)確,接著問一個關(guān)于地球的后續(xù)問題。
正如所看到的,該模型提供了有關(guān)我們星球的多個有趣事實。
可以要求AI助手在終端中生成代碼和解釋,然后可以很輕松地復(fù)制并在集成開發(fā)環(huán)境(IDE)中使用。
在本地運行LLaMA 2提供了一個功能強大且易于使用的定制化聊天機器人體驗。通過按照這個簡單的指南操作,可以快速學(xué)習(xí)如何建立、設(shè)置自己的私人聊天機器人,而不需要依賴付費服務(wù)。
在本地運行LLaMA 2的主要優(yōu)勢是對數(shù)據(jù)和對話的完全控制,以及沒有使用限制,可以與機器人進行無限次數(shù)的聊天,甚至可以對其進行微調(diào)以改善回答。文章來源:http://www.zghlxwxcb.cn/news/detail-799312.html
雖然與即時可用的云AI API相比時不太方便,但本地設(shè)置可以保護數(shù)據(jù)隱私,數(shù)據(jù)將完全存儲在自己的設(shè)備上,無需擔(dān)心泄露。文章來源地址http://www.zghlxwxcb.cn/news/detail-799312.html
到了這里,關(guān)于本地運行LlaMA 2的簡易指南的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!