国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對(duì)話

這篇具有很好參考價(jià)值的文章主要介紹了大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對(duì)話。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

llama2 baidupan csdn,大模型,llama,windows

1.簡(jiǎn)介:

組織機(jī)構(gòu):Meta(Facebook)

代碼倉(cāng):GitHub - facebookresearch/llama: Inference code for LLaMA models

模型:LIama-2-7b-hf、Chinese-LLaMA-Plus-2-7B?

下載:使用huggingface.co和百度網(wǎng)盤下載

硬件環(huán)境:暗影精靈7Plus

Windows版本:Windows 11家庭中文版 Insider Preview 22H2

內(nèi)存 32G

GPU顯卡:Nvidia GTX 3080 Laptop (16G)

查看 https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

新的模型出來了,可以試一試。

2.代碼和模型下載:

下載Chinese-LLaMA-Alpaca-2代碼倉(cāng):

d:\

git clone https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

llama2 baidupan csdn,大模型,llama,windows

獲取原版LIama-2-7b-hf模型:https://huggingface.co/meta-llama/Llama-2-7b-hf

下載所有文件,備用。

llama2 baidupan csdn,大模型,llama,windows

將文件下載到 d:\llama.cpp\models2的目錄:

llama2 baidupan csdn,大模型,llama,windows

根據(jù)

llama2 baidupan csdn,大模型,llama,windows

直接下載完整版模型:

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

將下載好的文件復(fù)制到 d:\llama.cpp\models2\chinese-alpaca-2-7b-hf目錄下:

llama2 baidupan csdn,大模型,llama,windows

3.安裝依賴

暫無。

4.部署驗(yàn)證1(直接使用chinese-alpaca-2-7b完整版模型,轉(zhuǎn)FP16,INT4量化)

生成FP16模型并進(jìn)行4-bit量化:

cd llama.cpp

python convert.py models2/chinese-alpaca-2-7b-hf/

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

./quantize ./models2/chinese-alpaca-2-7b-hf/ggml-model-f16.gguf ./models2/chinese-alpaca-2-7b-hf/ggml-model-q4_0.gguf q4_0

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

參考 chat.sh

#!/bin/bash

# temporary script to chat with Chinese Alpaca-2 model
# usage: ./chat.sh alpaca2-ggml-model-path your-first-instruction

SYSTEM='You are a helpful assistant. 你是一個(gè)樂于助人的助手。'
FIRST_INSTRUCTION=$2

./main -m $1 \
--color -i -c 4096 -t 8 --temp 0.5 --top_k 40 --top_p 0.9 --repeat_penalty 1.1 \
--in-prefix-bos --in-prefix ' [INST] ' --in-suffix ' [/INST]' -p \
"[INST] <<SYS>>
$SYSTEM
<</SYS>>

$FIRST_INSTRUCTION [/INST]"

#./chat.sh models2/7B/ggml-model-q4_0.gguf '請(qǐng)列舉5條文明乘車的建議'

編輯好推理代碼并執(zhí)行:

./main -m ./models2/chinese-alpaca-2-7b-hf/ggml-model-q4_0.gguf -n -1 --color -r "User:" --in-prefix " " -i -c 4096 -t 8 --temp 0.5 --top_k 40 --top_p 0.9 --repeat_penalty 1.1 -e -p "User: Hi\nAI: Hello. I am an AI chatbot. Would you like to talk?\nUser: Sure!\nAI: What would you like to talk about?\nUser:"

#./main -m ./models_chat/path_to_original_llama_root_dir/ggml-model-q4_0.gguf -n -1 --color -r "User:" --in-prefix " " -i -e -p "User: Hi\nAI: Hello. I am an AI chatbot. Would you like to talk?\nUser: Sure!\nAI: What would you like to talk about?\nUser:"

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

您好!

你是誰?

你能做什么?

寫一篇國(guó)慶節(jié)去南京中山陵游玩的游記。

你寫完了嗎?

ChatGPT和國(guó)內(nèi)的AIGC產(chǎn)品相比有什么優(yōu)缺點(diǎn)?

你覺得怎樣才能做到獨(dú)立思考?

再見!

llama2 baidupan csdn,大模型,llama,windows

早知道2代目這么優(yōu)秀,我為啥還花那么多功夫研究一代呢?

5.部署驗(yàn)證2(使用Llama-2-7b-hf 原始模型和chinese-alpaca-2-lora-7b Lora模型,轉(zhuǎn)換,合并,轉(zhuǎn)FP16,INT4量化)

當(dāng)然,研究技術(shù)不能只是拿來主義,還是要試圖做一次成功的模型合并的。

下載兩個(gè)LoRa模型:

Chinese-LLaMA-2-LoRA-7B

https://pan.baidu.com/s/1bmgqdyRh9E3a2uqOGyNqiQ?pwd=7kvq

Chinese-Alpaca-2-LoRA-7B

https://pan.baidu.com/s/1g42_X7Z0QWDyrrDqv2jifQ?pwd=bq7n

llama2 baidupan csdn,大模型,llama,windows

解壓到 models2 目錄:

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

將 D:\Chinese-LLaMA-Alpaca-2\scripts\merge_llama2_with_chinese_lora_low_mem.py文件復(fù)制到 d:\llama.cpp目錄下:

llama2 baidupan csdn,大模型,llama,windows

python merge_llama2_with_chinese_lora_low_mem.py --base_model models2/Llama-2-7b-hf --lora_model models2/chinese-llama-2-lora-7b,models2/chinese-alpaca-2-lora-7b --output_type huggingface --output_dir models2/path_to_output_dir

llama2 baidupan csdn,大模型,llama,windows

看來使用huggingface 模式不行。

換成 pth方式試試:

python merge_llama2_with_chinese_lora_low_mem.py --base_model models2/Llama-2-7b-hf --lora_model models2/chinese-llama-2-lora-7b,models2/chinese-alpaca-2-lora-7b --output_type pth --output_dir models2/path_to_output_dir

llama2 baidupan csdn,大模型,llama,windows

是不是跟一代不一樣,不能用兩個(gè)Lora了?

去掉一個(gè)試試:

python merge_llama2_with_chinese_lora_low_mem.py --base_model models2/Llama-2-7b-hf --lora_model models2/chinese-alpaca-2-lora-7b --output_type pth --output_dir models2/path_to_output_dir

llama2 baidupan csdn,大模型,llama,windows

成功了!

llama2 baidupan csdn,大模型,llama,windows

轉(zhuǎn)成FP16:

python convert.py models2/path_to_output_dir/

llama2 baidupan csdn,大模型,llama,windows

結(jié)果如下:

llama2 baidupan csdn,大模型,llama,windows

量化:

./quantize ./models2/path_to_output_dir/ggml-model-f16.gguf ./models2/path_to_output_dir/ggml-model-q4_0.gguf q4_0

llama2 baidupan csdn,大模型,llama,windows

結(jié)果如下:

llama2 baidupan csdn,大模型,llama,windows

啟動(dòng)推理:

./main -m ./models2/path_to_output_dir/ggml-model-q4_0.gguf -n -1 --color -r "User:" --in-prefix " " -i -c 4096 -t 8 --temp 0.5 --top_k 40 --top_p 0.9 --repeat_penalty 1.1 -e -p "User: Hi\nAI: Hello. I am an AI chatbot. Would you like to talk?\nUser: Sure!\nAI: What would you like to talk about?\nUser:"

llama2 baidupan csdn,大模型,llama,windows

llama2 baidupan csdn,大模型,llama,windows

講一個(gè)笑話給我聽吧!

我打算從南京去新疆旅游,給我設(shè)計(jì)一個(gè)旅行路線

晚上睡不著覺怎么辦?

樹上10只鳥,打死1只,還剩幾只?

你算不出來嗎?

如何獲得女孩的芳心?

llama2 baidupan csdn,大模型,llama,windows

== Running in interactive mode. ==
 - Press Ctrl+C to interject at any time.
 - Press Return to return control to LLaMa.
 - To return control without starting a new line, end your input with '/'.
 - If you want to submit another line, end your input with '\'.

 User: Hi
AI: Hello. I am an AI chatbot. Would you like to talk?
User: Sure!
AI: What would you like to talk about?
User: 講一個(gè)笑話給我聽吧!
AI: 好的,這里有一個(gè):為什么豬不會(huì)上網(wǎng)?因?yàn)樗鼈冇蠾i-Fi。
 我打算從南京去新疆旅游,給我設(shè)計(jì)一個(gè)旅行路線
AI: 當(dāng)然可以!您可以從南京出發(fā)前往烏魯木齊,然后繼續(xù)向南到喀什、和田等地游覽景點(diǎn),最后返回南京。這樣您的旅程將覆蓋了中國(guó)的西北地區(qū)。 User: 晚上睡不著覺怎么辦?
AI: 如果您無法入睡,您可以試試深呼吸或放松技巧來緩解壓力和焦慮感,或者嘗試聽一些輕松的音樂以幫助入眠。如果您的失眠問題持續(xù)存在,請(qǐng)咨詢醫(yī)生尋求進(jìn)一步的建議和治療。
 樹上10只鳥,打死1只,還剩幾只?
AI: 您想讓我猜嗎?還是告訴我答案呢? User: 你算不出來嗎?
AI: 我很抱歉,但我無法回答這個(gè)問題,因?yàn)闆]有足夠的信息來計(jì)算剩余的鳥數(shù)量。如果您能提供更多的上下文或細(xì)節(jié),我可以幫助您更好地理解問題并給出更準(zhǔn)確的答案。
 5+10=?
AI: 這個(gè)數(shù)學(xué)題很簡(jiǎn)單:將兩個(gè)數(shù)相加即可得到答案。所以,5 + 10 = 15。 User: 如何獲得女孩的芳心?
AI: 這是一個(gè)非常主觀的問題,因?yàn)槊總€(gè)人對(duì)"獲得女孩的芳心"的理解可能不同。但是,以下是一些建議可以幫助您與女孩建立更親密的關(guān)系: User: 你的建議呢?
AI: 我認(rèn)為最重要的是要尊重和關(guān)心對(duì)方,傾聽她的想法和感受,并給予她支持和鼓勵(lì)。此外,保持積極樂觀的態(tài)度也很重要,因?yàn)檫@會(huì)讓人感到更加愉快和自信。 User: 還有沒有別的建議?
AI: 當(dāng)然!您還可以嘗試做一些浪漫的事情來讓她感受到您的愛意,例如準(zhǔn)備一份特別的晚餐、送給她一束花或帶她去一個(gè)有趣的地方旅游等等。最重要的是要記得始終保持真誠(chéng)和誠(chéng)實(shí) ,這樣會(huì)讓女孩更加信任和依賴您。 User: 再見!
AI: 再見,祝您有一個(gè)美好的一天!

感覺二代還是可以的!??!文章來源地址http://www.zghlxwxcb.cn/news/detail-771984.html

到了這里,關(guān)于大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對(duì)話的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 大模型Llama2部署,基于text-generation-webui、Llama2-Chinese

    參考安裝教程:傻瓜式!一鍵部署llama2+chatglm2,集成所有環(huán)境和微調(diào)功能,本地化界面操作! Github地址:GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml/gguf), Llama models. 模型下載地址:meta-llama/Llama-2-13b-chat-hf at main 遇到的問

    2024年02月08日
    瀏覽(24)
  • 基于chinese-llama-plus北大團(tuán)隊(duì)推出法律大模型,數(shù)據(jù)與模型全部開源,模型合并使用全流程

    基于chinese-llama-plus北大團(tuán)隊(duì)推出法律大模型,數(shù)據(jù)與模型全部開源,模型合并使用全流程

    上篇分享了一個(gè)法律的大模型,lawGPt,目前看回答一些基本的法律問題還是可以的,昨天又發(fā)現(xiàn),北京大學(xué)也開源了一個(gè)法律大模型,lawyer-llama,通過在大規(guī)模法律語料中進(jìn)行訓(xùn)練,系統(tǒng)學(xué)習(xí)中國(guó)的法律知識(shí)體系使得模型可以掌握中國(guó)的法律知識(shí)并應(yīng)用于中國(guó)的法律實(shí)務(wù)。

    2024年02月11日
    瀏覽(16)
  • Windows11下私有化部署大語言模型實(shí)戰(zhàn) langchain+llama2

    Windows11下私有化部署大語言模型實(shí)戰(zhàn) langchain+llama2

    CPU:銳龍5600X 顯卡:GTX3070 內(nèi)存:32G 注:硬件配置僅為博主的配置,不是最低要求配置,也不是推薦配置。該配置下計(jì)算速度約為40tokens/s。實(shí)測(cè)核顯筆記本(i7-1165g7)也能跑,速度3tokens/s。 Windows系統(tǒng)版本:Win11專業(yè)版23H2 Python版本:3.11 Cuda版本:12.3.2 VS版本:VS2022 17.8.3 lan

    2024年02月03日
    瀏覽(1177)
  • 【AI實(shí)戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    【AI實(shí)戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    Llama2 2023年7月19日:Meta 發(fā)布開源可商用模型 Llama2。 Llama2 是一個(gè)預(yù)訓(xùn)練和微調(diào)的生成文本模型的集合,其規(guī)模從70億到700億個(gè)參數(shù)不等。 LLaMA2 的詳細(xì)介紹可以參考這篇文章:【大模型】更強(qiáng)的 LLaMA2 來了,開源可商用、與 ChatGPT 齊平 Llama2-Chinese Llama2中文社區(qū) Llama2-Chinese Git

    2024年02月12日
    瀏覽(21)
  • llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測(cè)試運(yùn)行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月16日
    瀏覽(29)
  • Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    LLaMA ,它是一組基礎(chǔ)語言模型,參數(shù)范圍從7B到65B。在數(shù)萬億的tokens上訓(xùn)練的模型,并表明可以專門使用公開可用的數(shù)據(jù)集來訓(xùn)練最先進(jìn)的模型,而無需求助于專有和不可訪問的數(shù)據(jù)集。特別是, LLaMA-13B在大多數(shù)基準(zhǔn)測(cè)試中都優(yōu)于GPT-3(175B) ,并且LLaMA65B與最好的型號(hào)Chinch

    2024年02月05日
    瀏覽(17)
  • 在Linux系統(tǒng)下部署Llama2(MetaAI)大模型教程

    在Linux系統(tǒng)下部署Llama2(MetaAI)大模型教程

    Llama2 是Meta最新開源的語言大模型,訓(xùn)練數(shù)據(jù)集2萬億token,上下文長(zhǎng)度是由Llama的2048擴(kuò)展到4096,可以理解和生成更長(zhǎng)的文本,包括7B、13B和70B三個(gè)模型,在各種基準(zhǔn)集的測(cè)試上表現(xiàn)突出,最重要的是,該模型可用于研究和商業(yè)用途。 1、本文選擇部署的模型是 Llama2-chat-13B-Chi

    2024年02月03日
    瀏覽(20)
  • LLMs之LLaMA2:基于云端進(jìn)行一鍵部署對(duì)LLaMA2模型實(shí)現(xiàn)推理(基于text-generation-webui)執(zhí)行對(duì)話聊天問答任務(wù)、同時(shí)微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)

    LLMs之LLaMA-2:基于云端進(jìn)行一鍵部署對(duì)LLaMA2模型實(shí)現(xiàn)推理(基于text-generation-webui)執(zhí)行對(duì)話聊天問答任務(wù)、同時(shí)微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)據(jù)集【datasets】→加載模型【transformers】→分詞→模型訓(xùn)練【peft+SFTTrainer+wandb】→基于HuggingFace實(shí)現(xiàn)云端分享)之圖文教程詳

    2024年02月11日
    瀏覽(23)
  • 【個(gè)人筆記本】本地化部署詳細(xì)流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

    不推薦小白,環(huán)境配置比較復(fù)雜 下載原始模型:Chinese-LLaMA-Alpaca-2 linux部署llamacpp環(huán)境 使用llamacpp將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型 windows部署Text generation web UI 環(huán)境 使用Text generation web UI 加載模型并進(jìn)行對(duì)話 筆記本環(huán)境: 操作系統(tǒng):win11 CPU:AMD R7535HS GPU:筆記本4060顯卡

    2024年02月08日
    瀏覽(110)
  • AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    生成的文件在 .buildbin ,我們要用的是 main.exe , binmain.exe -h 查看使用幫助 本項(xiàng)目基于Meta發(fā)布的可商用大模型Llama-2開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2基座模型和Alpaca-2指令精調(diào)大模型。這些模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用

    2024年04月25日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包