国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

這篇具有很好參考價(jià)值的文章主要介紹了【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

關(guān)于 ollama 項(xiàng)目

https://github.com/ollama/ollama/tree/main/docs

https://www.bilibili.com/video/BV1oS421w7aM/

【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

1,下載代碼和子模塊

git clone --recurse-submodules https://github.com/ollama/ollama.git
正克隆到 'ollama'...
remote: Enumerating objects: 11260, done.
remote: Counting objects: 100% (494/494), done.
remote: Compressing objects: 100% (263/263), done.
remote: Total 11260 (delta 265), reused 357 (delta 190), pack-reused 10766
接收對(duì)象中: 100% (11260/11260), 6.92 MiB | 57.00 KiB/s, 完成.
處理 delta 中: 100% (6984/6984), 完成.
子模組 'llama.cpp'(https://github.com/ggerganov/llama.cpp.git)已對(duì)路徑 'llm/llama.cpp' 注冊(cè)
正克隆到 '/data/home/test/go/src/ollama/llm/llama.cpp'...
fatal: 無(wú)法訪問(wèn) 'https://github.com/ggerganov/llama.cpp.git/':GnuTLS recv error (-110): The TLS connection was non-properly terminated.

要是失敗執(zhí)行,子模塊更新:

$ git submodule update
正克隆到 '/data/home/test/go/src/ollama/llm/llama.cpp'...
remote: Enumerating objects: 12802, done.
remote: Counting objects: 100% (12802/12802), done.
remote: Compressing objects: 100% (3561/3561), done.
remote: Total 12483 (delta 9258), reused 12045 (delta 8826), pack-reused 0
接收對(duì)象中: 100% (12483/12483), 10.19 MiB | 679.00 KiB/s, 完成.
處理 delta 中: 100% (9258/9258), 完成 260 個(gè)本地對(duì)象.
來(lái)自 https://github.com/ggerganov/llama.cpp
 * branch            c2101a2e909ac7c08976d414e64e96c90ee5fa9e -> FETCH_HEAD
子模組路徑 'llm/llama.cpp':檢出 'c2101a2e909ac7c08976d414e64e96c90ee5fa9e'

2,然后就可以編譯了

go build
llm/payload_linux.go:7:12: pattern llama.cpp/build/linux/*/*/lib/*: no matching files found

需要編譯 llama.cpp 的代碼,

test@thinkPadE15:~/go/src/ollama$ cd llm/generate/
test@thinkPadE15:~/go/src/ollama/llm/generate$ ls
gen_common.sh  gen_darwin.sh  generate_darwin.go  generate_linux.go  generate_windows.go  gen_linux.sh  gen_windows.ps1

test@thinkPadE15:~/go/src/ollama/llm/generate$ bash gen_linux.sh 

- Build files have been written to: /data/home/test/go/src/ollama/llm/llama.cpp/build/linux/x86_64/cpu
+ cmake --build ../llama.cpp/build/linux/x86_64/cpu --target ext_server -j8
[  6%] Generating build details from Git
[ 20%] Building C object CMakeFiles/ggml.dir/ggml-backend.c.o
[ 20%] Building C object CMakeFiles/ggml.dir/ggml.c.o
[ 20%] Building C object CMakeFiles/ggml.dir/ggml-quants.c.o
[ 26%] Building C object CMakeFiles/ggml.dir/ggml-alloc.c.o
-- Found Git: /usr/bin/git (found version "2.34.1") 
[ 33%] Building CXX object common/CMakeFiles/build_info.dir/build-info.cpp.o
[ 33%] Built target build_info


然后經(jīng)過(guò)漫長(zhǎng)的編譯,就而可以生成了在 build 文件夾。里面有相關(guān)的liib庫(kù)了。

ollama qwen,大模型,golang,ollama,linux,llama,運(yùn)維

3,再執(zhí)行 go build 就可以了

go build

ls -lha ollama 
-rwxrwxr-x 1 test test 34M  39 22:13 ollama

會(huì)有幾個(gè)警告,問(wèn)題不大:

gpu_info.h:33:23: note: in definition of macro ‘LOG’
   33 |       fprintf(stderr, __VA_ARGS__); \
      |                       ^~~~~~~~~~~
gpu_info_cuda.c:159:41: note: format string is defined here
  159 |     LOG(h.verbose, "[%d] CUDA usedMem %ld\n", i, memInfo.used);
      |                                       ~~^
      |                                         |
      |                                         long int
      |                                       %lld

運(yùn)行 qwen 模型:

https://ollama.com/library/qwen

ollama qwen,大模型,golang,ollama,linux,llama,運(yùn)維

./ollama run qwen:0.5b
pulling manifest 
pulling fad2a06e4cc7...  25% ▕█████████████                                           ▏  96 MB/394 MB  368 KB/s  13m28s

框架本質(zhì)上還是使用了 llama.cpp 項(xiàng)目的。

測(cè)試速度飛快:

>>> 你好
你好!有什么我可以幫您的嗎?


>>> 北京景點(diǎn)推薦
在北京,有很多值得一去的地方。以下是一些推薦的北京景點(diǎn):
1. 故宮:世界文化遺產(chǎn),擁有豐富的歷史文化和藝術(shù)價(jià)值。
2. 長(zhǎng)城:世界自然遺產(chǎn),擁有壯麗的山巒和河流景觀。
3. 北京天安門(mén)廣場(chǎng):中國(guó)國(guó)家象征,擁有壯觀的建筑景觀。
以上是一些推薦的北京景點(diǎn)。希望對(duì)您有所幫助!


>>> 測(cè) 你是誰(shuí)
我是阿里云研發(fā)的大規(guī)模語(yǔ)言模型“通義千問(wèn)”。如果您有任何問(wèn)題或需要幫助,請(qǐng)隨時(shí)告訴我,我會(huì)盡力提供支持和解答。


4,查看文件存儲(chǔ)位置


- macOS: `~/.ollama/models`
- Linux: `/usr/share/ollama/.ollama/models`
- Windows: `C:\Users\<username>\.ollama\models`

5,可以使用 openai api 標(biāo)準(zhǔn)接口測(cè)試

curl http://localhost:11434/api/chat -d '{
  "model": "qwen:7b",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ]
}'


curl http://localhost:11434/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "qwen:7b","stream":true,
        "messages": [
            {
                "role": "user",
                "content": "你好"
            }
        ]
    }'

支持流返回:文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-844538.html

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001611,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"你好"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001611,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"!"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001612,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"有什么"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001612,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"問(wèn)題"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001612,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"或者"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001612,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"需要"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001612,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"幫助"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001613,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"嗎"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001613,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"?"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001613,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"我"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001613,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"在這里"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001613,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"。"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001614,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":"\n"},"finish_reason":null}]}

data: {"id":"chatcmpl-263","object":"chat.completion.chunk","created":1710001614,"model":"qwen:7b","system_fingerprint":"fp_ollama","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":"stop"}]}

data: [DONE]

到了這里,關(guān)于【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 使用開(kāi)源通義千問(wèn)模型(Qwen)搭建自己的大模型服務(wù)

    使用開(kāi)源通義千問(wèn)模型(Qwen)搭建自己的大模型服務(wù)

    1、使用開(kāi)源的大模型服務(wù)搭建屬于自己的模型服務(wù); 2、調(diào)優(yōu)自己的大模型; 采用通義千問(wèn)模型,https://github.com/QwenLM/Qwen 1、下載模型文件 開(kāi)源模型庫(kù):https://www.modelscope.cn/models 2、下載使用docker 鏡像 3、啟動(dòng)腳本 https://github.com/QwenLM/Qwen/blob/main/docker/docker_web_demo.sh 4、運(yùn)行 訪

    2024年02月01日
    瀏覽(31)
  • OpenHarmony4.0系列(一)編譯環(huán)境搭建+代碼上庫(kù)

    1. VMware + Ubuntu20.04 + 內(nèi)存8G+ + 硬盤(pán)150G+ 2. Ubuntu20.04 Server + 內(nèi)存64G + 硬盤(pán)24T 3. Ubuntu20.04 + 內(nèi)存16G+ + 硬盤(pán)1T 4. Windows 10 通過(guò)子系統(tǒng)方式安裝Ubuntu20.04 四種方案,推薦方案四。 VMware下載: Vmware Workstation pro 15.5.5 清華開(kāi)源鏡像站: ubuntu-20.04.6-desktop-amd64.iso 開(kāi)源USB啟動(dòng)盤(pán)制作工具: Rufus-

    2024年01月22日
    瀏覽(99)
  • 嵌入式Linux Qt交叉編譯環(huán)境搭建

    嵌入式Linux Qt交叉編譯環(huán)境搭建

    TinkerBoard2主板,BuildRoot根文件系統(tǒng),package自帶的Qt版本為5.14.2,所以安裝的版本也是5.14.2 安裝的組件看個(gè)人需求,我都要了 默認(rèn)安裝路徑/opt/Qt5.14.2/ 源碼路徑/opt/Qt5.14.2/5.14.2/Src/ 安裝后選定的打包工具路徑/opt/Qt5.14.2/5.14.2/(我的默認(rèn)有g(shù)cc_64和android) 這種方法容易導(dǎo)致version `G

    2024年01月25日
    瀏覽(24)
  • 利用Docker搭建Linux ARM64架構(gòu)編譯環(huán)境

    利用Docker搭建Linux ARM64架構(gòu)編譯環(huán)境

    不想折騰交叉編譯環(huán)境,但是又實(shí)在忍不了A53上編譯工程的龜速,于是乎就想著是不是可以通過(guò)Docker搭一個(gè)arm linux開(kāi)發(fā)環(huán)境,這樣編譯好的工程直接拷進(jìn)A53中就可以運(yùn)行了。說(shuō)干就干,踩了一些坑,但是最終還是成功了。這里簡(jiǎn)單記錄一下,你們能不能看懂,就看自己的造化

    2024年02月11日
    瀏覽(37)
  • Ubuntu上搭建ARM Linux GCC交叉編譯環(huán)境

    在Ubuntu操作系統(tǒng)上搭建ARM Linux GCC交叉編譯環(huán)境是為了能夠在x86架構(gòu)的主機(jī)上編譯運(yùn)行適用于ARM架構(gòu)的程序。本文將介紹詳細(xì)的步驟以及相應(yīng)的源代碼。 安裝必要的軟件包 首先,我們需要安裝一些必要的軟件包,包括GCC、GNU Binutils和GDB。打開(kāi)終端,運(yùn)行以下命令來(lái)安裝這些軟

    2024年02月02日
    瀏覽(32)
  • 在 Windows 上利用Qwen大模型搭建一個(gè) ChatGPT 式的問(wèn)答小助手

    在 Windows 上利用Qwen大模型搭建一個(gè) ChatGPT 式的問(wèn)答小助手

    本文首發(fā)于公眾號(hào):Hunter后端 原文鏈接:在 Windows 上利用Qwen大模型搭建一個(gè) ChatGPT 式的問(wèn)答小助手 最近 ChatGPT 式的聊天機(jī)器人比較火,可以提供各種問(wèn)答功能,阿里最近推出了 Qwen1.5 系列的大模型,提供了各個(gè)參數(shù)版本的大模型,其中有一些參數(shù)量較小的模型,比較適合我

    2024年03月18日
    瀏覽(24)
  • 搭建一個(gè)簡(jiǎn)易的 PMML 模型測(cè)試環(huán)境

    PMML ,全稱為 Predictive Model Markup Language ,是一種標(biāo)準(zhǔn)化的模型描述和交換格式。它允許從不同的數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)軟件中導(dǎo)出模型,并在其他系統(tǒng)中進(jìn)行部署,無(wú)需重新編寫(xiě)代碼。PMML 通過(guò)定義一套統(tǒng)一的規(guī)則來(lái)描述模型,包括數(shù)據(jù)預(yù)處理、模型參數(shù)以及輸入輸出格式等。

    2024年04月22日
    瀏覽(27)
  • 【通義千問(wèn)】大模型Qwen GitHub開(kāi)源工程學(xué)習(xí)筆記(2)--使用Qwen進(jìn)行推理的示例代碼解析,及transformers的使用

    【通義千問(wèn)】大模型Qwen GitHub開(kāi)源工程學(xué)習(xí)筆記(2)--使用Qwen進(jìn)行推理的示例代碼解析,及transformers的使用

    如希望使用Qwen-chat進(jìn)行推理,所需要寫(xiě)的只是如下所示的數(shù)行代碼。 請(qǐng)確保你使用的是最新代碼,并指定正確的模型名稱和路徑,如 Qwen/Qwen-7B-Chat 和 Qwen/Qwen-14B-Chat 這里給出了一段代碼

    2024年02月08日
    瀏覽(33)
  • Linux平臺(tái)利用Ollama和Open WebUI部署大模型

    Linux平臺(tái)利用Ollama和Open WebUI部署大模型

    在當(dāng)今的人工智能領(lǐng)域,部署大型深度學(xué)習(xí)模型是一個(gè)挑戰(zhàn),尤其是對(duì)于那些不熟悉復(fù)雜技術(shù)棧的用戶而言。然而,隨著開(kāi)源技術(shù)的不斷發(fā)展,出現(xiàn)了一些強(qiáng)大的工具,如 Ollama 和 Open WebUI,使得部署大型模型變得更加簡(jiǎn)單和高效。 Ollama 是一個(gè)功能強(qiáng)大的開(kāi)源平臺(tái),專門(mén)用于

    2024年04月14日
    瀏覽(29)
  • Ubuntu 22.04 搭建arm-linux-gcc交叉編譯環(huán)境

    Ubuntu 22.04 搭建arm-linux-gcc交叉編譯環(huán)境

    如果使用的是64位的Ubuntu系統(tǒng),建議直接安裝64位的arm-linux-gcc交叉編譯器 下載地址: https://pan.baidu.com/s/14-lQpsXuEyCcHNHcTXcOyA 提取碼: 55at 0. 注意在終端進(jìn)行粘貼的操作為【Ctrl+shift+v】??! 把下載好的安裝包移動(dòng)到根目錄下的tmp目錄中(/tmp):在【其他位置】中的【計(jì)算機(jī)】中找

    2024年02月05日
    瀏覽(42)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包