国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

llama.cpp LLM模型 windows cpu安裝部署踩坑記錄

這篇具有很好參考價(jià)值的文章主要介紹了llama.cpp LLM模型 windows cpu安裝部署踩坑記錄。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一直想在自己的筆記本上部署一個(gè)大模型驗(yàn)證,早就聽(tīng)說(shuō)了llama.cpp,可是一直沒(méi)時(shí)間弄。

今天終于有時(shí)間驗(yàn)證了。首先本機(jī)安裝好g++,cmake.我下載的cmake版本是cmake-3.27.0-rc4-windows-x86_64.msi。安裝時(shí)選擇增加系統(tǒng)變量。接著GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++

執(zhí)行以下步驟:

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
mkdir build
cd build
cmake ..
cmake --build . --config Release

好像看上去很簡(jiǎn)單,其實(shí)坑一堆。首先我執(zhí)行第三步的時(shí)候cmake說(shuō)命令不存在。我。。。查看環(huán)境變量已經(jīng)設(shè)置了,無(wú)語(yǔ)。到處找各種方案,都是喊設(shè)置環(huán)境變量,無(wú)意中想著在powershell環(huán)境下試一下。執(zhí)行powershell,在這個(gè)環(huán)境下可以執(zhí)行cmake。執(zhí)行完以后,退出powershell,可以在命令行執(zhí)行cmake了,真是怪事。估計(jì)我以前做過(guò)啥子環(huán)境設(shè)置,先不管。

繼續(xù)執(zhí)行cmake ..,報(bào)CMake Error: CMAKE_C_COMPILER not set, after EnableLanguage
CMake Error: CMAKE_CXX_COMPILER not set, after EnableLanguage
-- Configuring incomplete, errors occurred!。

網(wǎng)上找了一堆解決方案,都不適合,最后自己摸索。先刪除build目錄下的文件,執(zhí)行cmake -G"MinGW Makefiles" ..成功。注意這里的..不能少。

生成了make文件。興匆匆的執(zhí)行cmake --build . --config Release,又報(bào)錯(cuò):

collect2.exe: error: ld returned 1 exit status
examples\server\CMakeFiles\server.dir\build.make:101: recipe for target 'bin/server.exe' failed
mingw32-make.exe[2]: *** [bin/server.exe] Error 1
CMakeFiles\Makefile2:1751: recipe for target 'examples/server/CMakeFiles/server.dir/all' failed
mingw32-make.exe[1]: *** [examples/server/CMakeFiles/server.dir/all] Error 2
Makefile:99: recipe for target 'all' failed
mingw32-make.exe: *** [all] Error 2

真是欲哭無(wú)淚。又在網(wǎng)上找了各種方案,其中比較靠譜的是增加#pragma comment(lib,"ws2_32.lib")與g++ server.cpp -o server -lws2_32??墒且或?yàn)證,pragma comment(lib,"ws2_32.lib")是vs用法。g++不支持。g++ server.cpp -o server -lws2_32又是在各種互相串聯(lián)的makefile文件中引用,根本無(wú)法找到。一下子進(jìn)入了死結(jié)。不死心,又各種makefile看,終于找到了一個(gè)思路link_libraries。試著在CMakeLists.txt增加link_libraries(-lws2_32),再次執(zhí)行cmake --build . --config Release,完美成功。截圖如下:

llama.cpp LLM模型 windows cpu安裝部署踩坑記錄,llama,chatgpt

?后面基本就是下載模型,放到指定目錄,執(zhí)行main.exe即可。四個(gè)小時(shí),終于搞定了。記錄一下,供大家參考。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-606916.html

到了這里,關(guān)于llama.cpp LLM模型 windows cpu安裝部署踩坑記錄的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【LLM】Windows本地CPU部署民間版中文羊駝模型踩坑記錄

    【LLM】Windows本地CPU部署民間版中文羊駝模型踩坑記錄

    目錄 前言 準(zhǔn)備工作 Git? Python3.9? Cmake 下載模型? 合并模型 部署模型? 想必有小伙伴也想跟我一樣體驗(yàn)下部署大語(yǔ)言模型, 但礙于經(jīng)濟(jì)實(shí)力, 不過(guò)民間上出現(xiàn)了大量的量化模型, 我們平民也能體驗(yàn)體驗(yàn)啦~, 該模型可以在筆記本電腦上部署, 確保你電腦至少有16G運(yùn)行內(nèi)存 開(kāi)原地址

    2023年04月27日
    瀏覽(28)
  • llama.cpp一種在本地CPU上部署的量化模型(超低配推理llama)

    llama.cpp一種在本地CPU上部署的量化模型(超低配推理llama)

    前不久,Meta前腳發(fā)布完開(kāi)源大語(yǔ)言模型LLaMA, 隨后就被網(wǎng)友“泄漏”,直接放了一個(gè)磁力鏈接下載鏈接。 然而那些手頭沒(méi)有頂級(jí)顯卡的朋友們,就只能看看而已了 但是 Georgi Gerganov 開(kāi)源了一個(gè)項(xiàng)目llama.cpp ggerganov/llama.cpp: Port of Facebook’s LLaMA model in C/C++ (github.com) 次項(xiàng)目的牛逼

    2023年04月23日
    瀏覽(22)
  • 大模型在cpu上使用llama_cpp部署無(wú)法加載模型的問(wèn)題

    大模型在cpu上使用llama_cpp部署無(wú)法加載模型的問(wèn)題

    錯(cuò)誤:gguf_init_from_file: invalid magic characters \\\'tjgg\\\'等,也就是無(wú)法加載模型 因?yàn)樽钚掳娴膌lama-cpp-python不支持ggml文件格式了 解決方案: 1、降低版本(最簡(jiǎn)單): pip install llama-cpp-python==0.1.78 2、直接下載對(duì)應(yīng)GGUF的模型 3、利用llama.cpp內(nèi)部轉(zhuǎn)換函數(shù)進(jìn)行轉(zhuǎn)換 參考出處:TheBloke/Llam

    2024年01月20日
    瀏覽(27)
  • 使用Llama.cpp在CPU上快速的運(yùn)行LLM

    使用Llama.cpp在CPU上快速的運(yùn)行LLM

    大型語(yǔ)言模型(llm)正變得越來(lái)越流行,但是它需要很多的資源,尤其時(shí)GPU。在這篇文章中,我們將介紹如何使用Python中的llama.cpp庫(kù)在高性能的cpu上運(yùn)行l(wèi)lm。 大型語(yǔ)言模型(llm)正變得越來(lái)越流行,但是它們的運(yùn)行在計(jì)算上是非常消耗資源的。有很多研究人員正在為改進(jìn)這個(gè)缺點(diǎn)

    2024年02月16日
    瀏覽(30)
  • Llama2通過(guò)llama.cpp模型量化 Windows&Linux本地部署

    Llama2通過(guò)llama.cpp模型量化 Windows&Linux本地部署

    LLaMA ,它是一組基礎(chǔ)語(yǔ)言模型,參數(shù)范圍從7B到65B。在數(shù)萬(wàn)億的tokens上訓(xùn)練的模型,并表明可以專(zhuān)門(mén)使用公開(kāi)可用的數(shù)據(jù)集來(lái)訓(xùn)練最先進(jìn)的模型,而無(wú)需求助于專(zhuān)有和不可訪問(wèn)的數(shù)據(jù)集。特別是, LLaMA-13B在大多數(shù)基準(zhǔn)測(cè)試中都優(yōu)于GPT-3(175B) ,并且LLaMA65B與最好的型號(hào)Chinch

    2024年02月05日
    瀏覽(18)
  • 大模型部署手記(8)LLaMa2+Windows+llama.cpp+英文文本補(bǔ)齊

    大模型部署手記(8)LLaMa2+Windows+llama.cpp+英文文本補(bǔ)齊

    組織機(jī)構(gòu):Meta(Facebook) 代碼倉(cāng):https://github.com/facebookresearch/llama 模型:llama-2-7b 下載:使用download.sh下載 硬件環(huán)境:暗影精靈7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 內(nèi)存 32G GPU顯卡:Nvidia GTX 3080 Laptop (16G) 下載llama.cpp的代碼倉(cāng): git clone https://github.com/ggergan

    2024年02月03日
    瀏覽(50)
  • AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    生成的文件在 .buildbin ,我們要用的是 main.exe , binmain.exe -h 查看使用幫助 本項(xiàng)目基于Meta發(fā)布的可商用大模型Llama-2開(kāi)發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開(kāi)源了中文LLaMA-2基座模型和Alpaca-2指令精調(diào)大模型。這些模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用

    2024年04月25日
    瀏覽(34)
  • 大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對(duì)話

    大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對(duì)話

    組織機(jī)構(gòu):Meta(Facebook) 代碼倉(cāng):GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:LIama-2-7b-hf、Chinese-LLaMA-Plus-2-7B ? 下載:使用huggingface.co和百度網(wǎng)盤(pán)下載 硬件環(huán)境:暗影精靈7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 內(nèi)存 32G GPU顯卡:Nvidia GTX 3080 Laptop (1

    2024年02月03日
    瀏覽(26)
  • 基于llama.cpp學(xué)習(xí)開(kāi)源LLM本地部署

    目錄 前言 一、llama.cpp是什么? 二、使用步驟 1.下載編譯llama.cpp 2. 普通編譯 3. BLAS編譯 3.1、OpenBLAS 編譯 CPU版 3.2?cuBLAS 編譯GPU版本 4. 模型量化 4.1、模型文件下載:

    2024年01月21日
    瀏覽(31)
  • 大模型部署手記(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本補(bǔ)齊

    大模型部署手記(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本補(bǔ)齊

    組織機(jī)構(gòu):Meta(Facebook) 代碼倉(cāng):GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:llama-2-7b、Chinese-LLaMA-Plus-7B(chinese_llama_plus_lora_7b) ? 下載:使用download.sh下載 硬件環(huán)境:暗影精靈7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 內(nèi)存 32G GPU顯卡:Nvidia GTX 3080 La

    2024年02月03日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包