国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Serge讓你在本地運(yùn)行LLaMa模型

這篇具有很好參考價(jià)值的文章主要介紹了Serge讓你在本地運(yùn)行LLaMa模型。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Serge讓你在本地運(yùn)行LLaMa模型

什么是 Serge ?

Serge 是基于 llama.cpp 運(yùn)行 Alpaca 模型的聊天界面。完全自托管,不需要 API 密鑰。適合 4GB RAM 并且能在 CPU 上運(yùn)行。

什么是 LLaMA ?

LLaMA 是一種機(jī)器學(xué)習(xí)算法,全稱為 Laplacian Regularized Least Squares for Multiple Kernel Learning。它是一種多核學(xué)習(xí)方法,可以用于處理多個(gè)核函數(shù)的數(shù)據(jù)集,以提高分類或回歸的準(zhǔn)確性。LLaMA 算法利用拉普拉斯正則化技術(shù)來平衡不同核函數(shù)的貢獻(xiàn),從而提高分類或回歸的性能。LLaMA 算法已經(jīng)在許多領(lǐng)域得到了廣泛的應(yīng)用,包括生物信息學(xué)、圖像識別、自然語言處理等。

什么是 llama.cpp

llama.cpp 是在 C/C++ 中移植的 FacebookLLaMA 模型。

什么是 Alpaca 模型 ?

Alpaca 模型是一種基于深度學(xué)習(xí)的自然語言處理模型,它可以用于文本分類、情感分析、問答系統(tǒng)等任務(wù)。Alpaca 模型采用了一種特殊的網(wǎng)絡(luò)結(jié)構(gòu),稱為“路徑卷積神經(jīng)網(wǎng)絡(luò)”( Path Convolutional Neural Network,PCNN),該網(wǎng)絡(luò)結(jié)構(gòu)可以同時(shí)處理詞序列和句法樹,從而提高了模型的性能。此外,Alpaca 模型還使用了一種叫做“自適應(yīng)注意力”( Adaptive Attention)的機(jī)制,可以自動地調(diào)整不同單詞的權(quán)重,從而更好地捕捉句子的意義。Alpaca 模型已經(jīng)在多個(gè)自然語言處理任務(wù)上取得了優(yōu)秀的表現(xiàn),成為了該領(lǐng)域中的一個(gè)重要研究方向之一。

Serge

老蘇試了下,4GB 內(nèi)存有點(diǎn)夠嗆,尤其是你的群暉還跑了其他的服務(wù),如果有 8GB可以試試,不需要 GPU 還是不錯(cuò)的,雖然運(yùn)算速度慢點(diǎn)

Serge讓你在本地運(yùn)行LLaMa模型

注意事項(xiàng)

CPU

目前 Serge 需要與 AVX2 指令兼容的 CPU ,老蘇猜測應(yīng)該是因?yàn)?MongoDB 的緣故。官方給的檢測命令是:

# 檢測 cpu 是否支持 AVX2
lscpu | grep avx2

但是在群暉上,并沒有 lscpu,所以老蘇咨詢了 ChatGPT ,他給老蘇提供了下面的命令, 請用SSH 客戶端登錄到群暉后,在命令行中運(yùn)行

# 檢測 cpu 是否支持 AVX2
cat /proc/cpuinfo | grep avx2

如果輸出包含 avx2,則表示您的 CPU 支持 AVX2。如果未找到 avx2,則表示您的 CPU 不支持 AVX2。

Serge讓你在本地運(yùn)行LLaMa模型

內(nèi)存

如果您的模型沒有足夠的可用內(nèi)存,llama 就會崩潰,下面是官方提供的數(shù)據(jù):

  • 7B 需要大約 4.5GB 的空閑 RAM
  • 13B 需要大約 12GB 的空閑RAM
  • 30B 需要大約 20GB 的空閑RAM

安裝

ghcr.io 鏡像下載

官方的鏡像沒有發(fā)布在 docker hub,而是在 ghcr.io,所以直接用命令行來安裝。

SSH 客戶端中依次執(zhí)行下面的命令

# 下載鏡像
docker pull ghcr.io/nsarrazin/serge:latest

如果沒有科學(xué)上網(wǎng),很可能會拉不動,可以試試 docker 代理網(wǎng)站:https://dockerproxy.com/,但是會多幾個(gè)步驟

# 如果拉不動的話加個(gè)代理
docker pull ghcr.dockerproxy.com/nsarrazin/serge:latest

# 重命名鏡像(如果是通過代理下載的)
docker tag ghcr.dockerproxy.com/nsarrazin/serge:latest ghcr.io/nsarrazin/serge:latest

# 刪除代理鏡像(如果是通過代理下載的)
docker rmi ghcr.dockerproxy.com/nsarrazin/serge:latest

當(dāng)然代理網(wǎng)站也不是什么時(shí)候都好使,有時(shí)候也會報(bào)錯(cuò),例如下面??這樣的

Error response from daemon: received unexpected HTTP status: 500 Internal Server Error

所以有一個(gè)穩(wěn)定的科學(xué)上網(wǎng)環(huán)境還是很重要的

docker cli 安裝

現(xiàn)在可以開始運(yùn)行了

# 新建文件夾 serge 和 子目錄
mkdir -p /volume2/docker/serge/{data,weights}

# 進(jìn)入 serge 目錄
cd /volume2/docker/serge

# 運(yùn)行容器
docker run -d \
   --restart unless-stopped \
   --name serge \
   -p 8018:8008 \
   -v $(pwd)/data:/data/db \
   -v $(pwd)/weights:/usr/src/app/weights \
   ghcr.io/nsarrazin/serge:latest

docker compose 安裝

也可以用 docker-compose 安裝,將下面的內(nèi)容保存為 docker-compose.yml 文件

version: '3'

services:
  serge:
    image: ghcr.io/nsarrazin/serge:latest
    container_name: serge
    restart: unless-stopped
    ports:
      - 8018:8008
    volumes:
      - ./data:/data/db
      - ./weights:/usr/src/app/weights
      - /etc/localtime:/etc/localtime:ro

然后執(zhí)行下面的命令

# 新建文件夾 serge 和 子目錄
mkdir -p /volume2/docker/serge/{data,weights}

# 進(jìn)入 serge 目錄
cd /volume2/docker/serge

# 將 docker-compose.yml 放入當(dāng)前目錄

# 一鍵啟動
docker-compose up -d

運(yùn)行

在瀏覽器中輸入 http://群暉IP:8018 就能看到主界面

Serge讓你在本地運(yùn)行LLaMa模型

首先要點(diǎn) Download model下載模型

Serge讓你在本地運(yùn)行LLaMa模型

老蘇下了 gpt4all ,文件大小和 7B7B-native 是一樣的,估摸著內(nèi)存占用應(yīng)該是一樣的,但具體有什么區(qū)別老蘇不清楚 ???♂?

Serge讓你在本地運(yùn)行LLaMa模型

下載速度挺快的,日志中看不到具體的下載地址

Serge讓你在本地運(yùn)行LLaMa模型

點(diǎn)左側(cè)的 Home 回到首頁

Serge讓你在本地運(yùn)行LLaMa模型

聊天之前,可以設(shè)置模型的參數(shù),但是說實(shí)話,老蘇也不明白這些該如何設(shè)置,所以就保持了默認(rèn)的

Serge讓你在本地運(yùn)行LLaMa模型

點(diǎn)紫色的 Start a new chat 開始聊天

Serge讓你在本地運(yùn)行LLaMa模型

老蘇問了第一個(gè)問題 你支持中文嗎?

Serge讓你在本地運(yùn)行LLaMa模型

感覺一下就把天給聊死了,這接下來怎么聊呢?老蘇的英文水平也就能說個(gè) What's you name?How are you?、How old are you?

Serge讓你在本地運(yùn)行LLaMa模型

老蘇的機(jī)器是 4G 內(nèi)存的, CPU 也比較古老,所以每個(gè)問題都需要很長時(shí)間才會有應(yīng)答,差不多每個(gè)問題也就一頓飯的功夫吧 ??

昨晚裝好之后,第一個(gè)問題是中文的,其實(shí)難道也不大,但還是直接把機(jī)器給整的沒響應(yīng)了,早上起來一看重啟了,估計(jì)是資源耗盡了吧,有興趣的話,你也可以試試

參考文檔

nsarrazin/serge: A web interface for chatting with Alpaca through llama.cpp. Fully dockerized, with an easy to use API.
地址:https://github.com/nsarrazin/serge

https://serge.chat
地址:https://serge.chat/

[P] Serge, a self-hosted app for running LLaMa models (Alpaca) entirely locally, no remote API needed. : MachineLearning
地址:https://www.reddit.com/r/MachineLearning/comments/11yvbzc/p_serge_a_selfhosted_app_for_running_llama_models/文章來源地址http://www.zghlxwxcb.cn/news/detail-498811.html

到了這里,關(guān)于Serge讓你在本地運(yùn)行LLaMa模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 本地推理,單機(jī)運(yùn)行,MacM1芯片系統(tǒng)基于大語言模型C++版本LLaMA部署“本地版”的ChatGPT

    本地推理,單機(jī)運(yùn)行,MacM1芯片系統(tǒng)基于大語言模型C++版本LLaMA部署“本地版”的ChatGPT

    OpenAI公司基于GPT模型的ChatGPT風(fēng)光無兩,眼看它起朱樓,眼看它宴賓客,F(xiàn)aceBook終于坐不住了,發(fā)布了同樣基于LLM的人工智能大語言模型LLaMA,號稱包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型,參數(shù)是指神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置等可調(diào)整的變量,用于訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò)

    2024年01月22日
    瀏覽(29)
  • 使用go-llama.cpp 運(yùn)行 yi-01-6b大模型,使用本地CPU運(yùn)行,速度挺快的

    使用go-llama.cpp 運(yùn)行 yi-01-6b大模型,使用本地CPU運(yùn)行,速度挺快的

    https://github.com/ggerganov/llama.cpp LaMA.cpp 項(xiàng)目是開發(fā)者 Georgi Gerganov 基于 Meta 釋出的 LLaMA 模型(簡易 Python 代碼示例)手?jǐn)]的純 C/C++ 版本,用于模型推理。所謂推理,即是給輸入-跑模型-得輸出的模型運(yùn)行過程。 那么,純 C/C++ 版本有何優(yōu)勢呢? 無需任何額外依賴,相比 Python 代碼

    2024年02月20日
    瀏覽(19)
  • 【linux 使用ollama部署運(yùn)行本地大模型完整的教程,openai接口, llama2例子】

    【linux 使用ollama部署運(yùn)行本地大模型完整的教程,openai接口, llama2例子】

    # 安裝相應(yīng)的包 # 開啟ollama服務(wù)端! # 啟動llama2大模型(新開一個(gè)終端) # 如果不想啟動運(yùn)行,只下載可以 在啟動完后,就可以對話了 # python接口對話 ? # OpenAI適配接口對話 # CUR流式接口 # 參考 llama2 (ollama.com) https://ollama.com/library/llama2 OpenAI compatibility · Ollama Blog https://ollama

    2024年03月25日
    瀏覽(50)
  • 用 7 行代碼在本地運(yùn)行 Llama 2?。ㄌO果silicon-mac m1 m2)項(xiàng)目源碼含模型

    用 7 行代碼在本地運(yùn)行 Llama 2?。ㄌO果silicon-mac m1 m2)項(xiàng)目源碼含模型

    總而言之: 注意:7B 型號重量約為 4GB,請確保您的機(jī)器上有足夠的空間。 這是使用 Georgi Gerganov 令人驚嘆的llama.cpp項(xiàng)目來運(yùn)行 Llama 2。它通過TheBloke的 Huggingface 存儲庫為 Llama 7B Chat 下載一組 4 位優(yōu)化的權(quán)重,將其放入 llama.cpp 中的模型目錄中,然后使用 Apple 的 Metal 優(yōu)化構(gòu)建

    2024年02月15日
    瀏覽(23)
  • 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝

    【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝 要是失敗執(zhí)行,子模塊更新: 需要編譯 llama.cpp 的代碼, 然后經(jīng)過漫長的編譯,就而可以

    2024年04月08日
    瀏覽(28)
  • 本地運(yùn)行LlaMA 2的簡易指南

    本地運(yùn)行LlaMA 2的簡易指南

    大家好,像LLaMA 2這樣的新開源模型已經(jīng)變得相當(dāng)先進(jìn),并且可以免費(fèi)使用??梢栽谏虡I(yè)上使用它們,也可以根據(jù)自己的數(shù)據(jù)進(jìn)行微調(diào),以開發(fā)專業(yè)版本。憑借其易用性,現(xiàn)在可以在自己的設(shè)備上本地運(yùn)行它們。 本文將介紹如何下載所需的文件和LLaMA 2模型,以運(yùn)行CLI程序并與

    2024年01月17日
    瀏覽(9)
  • 本地運(yùn)行 LLAMA & GPT-3.5-TURBO開源項(xiàng)目

    本地運(yùn)行 LLAMA & GPT-3.5-TURBO開源項(xiàng)目

    git: nomic-ai/gpt4all: gpt4all: an ecosystem of open-source chatbots trained on a massive collections of clean assistant data including code, stories and dialogue (github.com) 下載好源碼后,的目錄結(jié)構(gòu): ?視頻中說的 chat 目錄在:?gpt4all-training/chat? 下載 gpt4all 使用的模型地址:https://the-eye.eu/public/AI/models/nomic-

    2024年02月11日
    瀏覽(23)
  • [llama懶人包]ChatGPT本地下位替代llama-7b,支持全平臺顯卡/CPU運(yùn)行

    [llama懶人包]ChatGPT本地下位替代llama-7b,支持全平臺顯卡/CPU運(yùn)行

    LLAMA的懶人包: 鏈接: https://pan.baidu.com/s/1xOw8-eP8QB--u6y644_UPg?pwd=0l08? 提取碼:0l08 模型來源:elinas/llama-7b-hf-transformers-4.29 模型來源(LoRA):ymcui/Chinese-LLaMA-Alpaca 侵權(quán)請通知作者刪除 也可以進(jìn)我的群下載哦:904511841 下面是llama的輸入樣例 ? 自我介紹一下llama 您好,我是llama。

    2024年02月12日
    瀏覽(20)
  • llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA-7B模型測試

    llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA-7B模型測試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測試運(yùn)行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月15日
    瀏覽(17)
  • 本地部署中文LLaMA模型實(shí)戰(zhàn)教程,民間羊駝模型

    博文1:本地部署中文LLaMA模型實(shí)戰(zhàn)教程,民間羊駝模型(本博客) 博文2:本地訓(xùn)練中文LLaMA模型實(shí)戰(zhàn)教程,民間羊駝模型 博文3:精調(diào)訓(xùn)練中文LLaMA模型實(shí)戰(zhàn)教程,民間羊駝模型 LLaMA大部分是英文語料訓(xùn)練的,講中文能力很弱。如果我們想微調(diào)訓(xùn)練自己的LLM模型,基于一個(gè)大

    2024年02月04日
    瀏覽(35)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包