国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

筆記本電腦上部署LLaMA-2中文模型

這篇具有很好參考價(jià)值的文章主要介紹了筆記本電腦上部署LLaMA-2中文模型。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

嘗試在macbook上部署LLaMA-2的中文模型的詳細(xì)過(guò)程。

(1)環(huán)境準(zhǔn)備

MacBook?Pro(M2 Max/32G);

VMware Fusion Player 版本 13.5.1 (23298085);

Ubuntu 22.04.2 LTS;

給linux虛擬機(jī)分配8*core CPU 16G RAM。

我這里用的是16bit的量化模型,至少需要13G內(nèi)存,如果4bit的只需要3.8G內(nèi)存,當(dāng)然上述不包含系統(tǒng)本身需要的內(nèi)存。

(2)環(huán)境依賴

sudo apt update
sudo apt-get install gcc g++ python3 python3-pip
python3 -m pip install torch numpy sentencepiece

(3)拉取llama.cpp工具并進(jìn)行構(gòu)建

?在目錄/home/zhangzk下:

git clone https://github.com/ggerganov/llama.cpp.git

#安裝依賴,llama.cpp 項(xiàng)目下帶有 requirements.txt 文件

pip install -r requirements.txt

#構(gòu)建llama.cpp

cd llama.cpp/
make -j8

(4)下載LLAMA2中文模型

下載LLama2的中文模型:GitHub - ymcui/Chinese-LLaMA-Alpaca-2: 中文LLaMA-2 & Alpaca-2大模型二期項(xiàng)目 + 64K超長(zhǎng)上下文模型 (Chinese LLaMA-2 & Alpaca-2 LLMs with 64K long context models)

這里下載 Chinese-Alpace-2-7B的指令模型,模型文件12.9G。

llma2本地部署,大模型,llama

百度網(wǎng)盤那叫一個(gè)慢啊,沒(méi)有會(huì)員能讓你等死,還是梯子和GOOGLE網(wǎng)盤配合才叫一個(gè)快啊,幾分鐘的事。

把模型文件(共9個(gè)文件)都下載到 /home/zhangzk/llama.cpp/models/chinese-alpaca-2-7b-hf目錄下。

(5)量化模型

在目錄llama.cpp下執(zhí)行:

#轉(zhuǎn)換模型
python3 convert.py ./models/chinese-alpaca-2-7b-hf/

#16位量化
./quantize ./models/chinese-alpaca-2-7b-hf/ggml-model-f16.gguf ./models/chinese_7b_f16.gguf f16

上述兩步執(zhí)行完會(huì)生成新文件llama.cpp/models/chinese_7b_f16.gguf

(6)啟動(dòng)模型

Chinese-LLaMA-Alpaca-2/scripts/llama-cpp/chat.sh復(fù)制到llama.cpp目錄下。

chmod +x chat.sh

在目錄llama.cpp下執(zhí)行即可看到模型輸出了:

./chat.sh models/chinese_7b_f16.gguf '中國(guó)北京有哪些著名的景點(diǎn)?'

附1:QA例子

[INST] >

You are a helpful assistant. 你是一個(gè)樂(lè)于助人的助手。

>

中國(guó)北京有哪些著名的景點(diǎn)?

[/INST] 北京是中國(guó)的首都,擁有豐富的歷史文化遺產(chǎn)和自然景觀資源,以下是一些著名景點(diǎn):

  1. 故宮博物院:中國(guó)古代皇宮建筑群,是明清兩代皇帝的居所,保存了大量的文物和藝術(shù)品。
  2. 天壇公園:古代祭祀天地之場(chǎng)所,是中國(guó)現(xiàn)存規(guī)模最大、保存最完整的祭天文化遺產(chǎn)之一。
  3. 頤和園:中國(guó)傳統(tǒng)皇家園林,被譽(yù)為"皇家園林博物館",以其精美的建筑、湖泊和山水景觀而聞名。
  4. 北京長(zhǎng)城:中國(guó)古代防御工程的代表,是世界文化遺產(chǎn),也是世界上最長(zhǎng)的城墻。
  5. 北海公園:古代皇家園林之一,以碧波蕩漾、荷花盛開、古樹參天為特色,是中國(guó)最大的人工湖泊和島嶼園林。
  6. 圓明園:清代皇家園林,以其精美的建筑、精美的花園和珍貴文物而聞名于世,曾經(jīng)是世界上最大的皇家園林。
  7. 北京鳥巢:2008年北京奧運(yùn)會(huì)主體育場(chǎng),是一座現(xiàn)代化體育場(chǎng)館,也是北京市區(qū)的一個(gè)地標(biāo)性建筑。
  8. 天安門廣場(chǎng):中國(guó)最大的城市廣場(chǎng)之一,是中國(guó)政治和歷史的重要場(chǎng)所,也是游客必去的地方。
  9. 王府井大街:北京的商業(yè)中心,擁有各種購(gòu)物、餐飲和娛樂(lè)設(shè)施,是游客體驗(yàn)北京文化的好地方。
  10. 北京大學(xué):中國(guó)的著名高等學(xué)府,以其美麗的校園建筑和悠久的歷史而聞名于世。

附2: 查看quantize 提供各種精度的量化。

zhangzk@test-llm:~/llama.cpp$ ./quantize --help

usage: ./quantize [--help] [--allow-requantize] [--leave-output-tensor] [--pure] [--imatrix] [--include-weights] [--exclude-weights] model-f32.gguf [model-quant.gguf] type [nthreads]

--allow-requantize: Allows requantizing tensors that have already been quantized. Warning: This can severely reduce quality compared to quantizing from 16bit or 32bit

--leave-output-tensor: Will leave output.weight un(re)quantized. Increases model size but may also increase quality, especially when requantizing

--pure: Disable k-quant mixtures and quantize all tensors to the same type

--imatrix file_name: use data in file_name as importance matrix for quant optimizations

--include-weights tensor_name: use importance matrix for this/these tensor(s)

--exclude-weights tensor_name: use importance matrix for this/these tensor(s)

Note: --include-weights and --exclude-weights cannot be used together

Allowed quantization types:

2 or Q4_0 : 3.56G, +0.2166 ppl @ LLaMA-v1-7B

3 or Q4_1 : 3.90G, +0.1585 ppl @ LLaMA-v1-7B

8 or Q5_0 : 4.33G, +0.0683 ppl @ LLaMA-v1-7B

9 or Q5_1 : 4.70G, +0.0349 ppl @ LLaMA-v1-7B

19 or IQ2_XXS : 2.06 bpw quantization

20 or IQ2_XS : 2.31 bpw quantization

28 or IQ2_S : 2.5 bpw quantization

29 or IQ2_M : 2.7 bpw quantization

24 or IQ1_S : 1.56 bpw quantization

10 or Q2_K : 2.63G, +0.6717 ppl @ LLaMA-v1-7B

21 or Q2_K_S : 2.16G, +9.0634 ppl @ LLaMA-v1-7B

23 or IQ3_XXS : 3.06 bpw quantization

26 or IQ3_S : 3.44 bpw quantization

27 or IQ3_M : 3.66 bpw quantization mix

12 or Q3_K : alias for Q3_K_M

22 or IQ3_XS : 3.3 bpw quantization

11 or Q3_K_S : 2.75G, +0.5551 ppl @ LLaMA-v1-7B

12 or Q3_K_M : 3.07G, +0.2496 ppl @ LLaMA-v1-7B

13 or Q3_K_L : 3.35G, +0.1764 ppl @ LLaMA-v1-7B

25 or IQ4_NL : 4.50 bpw non-linear quantization

30 or IQ4_XS : 4.25 bpw non-linear quantization

15 or Q4_K : alias for Q4_K_M

14 or Q4_K_S : 3.59G, +0.0992 ppl @ LLaMA-v1-7B

15 or Q4_K_M : 3.80G, +0.0532 ppl @ LLaMA-v1-7B

17 or Q5_K : alias for Q5_K_M

16 or Q5_K_S : 4.33G, +0.0400 ppl @ LLaMA-v1-7B

17 or Q5_K_M : 4.45G, +0.0122 ppl @ LLaMA-v1-7B

18 or Q6_K : 5.15G, +0.0008 ppl @ LLaMA-v1-7B

7 or Q8_0 : 6.70G, +0.0004 ppl @ LLaMA-v1-7B

1 or F16 : 13.00G @ 7B

0 or F32 : 26.00G @ 7B

COPY : only copy tensors, no quantizing文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-844818.html

到了這里,關(guān)于筆記本電腦上部署LLaMA-2中文模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    如果通過(guò)GPU來(lái)運(yùn)行,一般辦公電腦的顯卡可能達(dá)不到所需的要求,所以,可以通過(guò)CPU+內(nèi)存的方式花最低的代價(jià)來(lái)部署一套本地運(yùn)行AI的模型。 1、首先下載CPU-Z,運(yùn)行看一下電腦當(dāng)前的指令集是否包含AVX512,非AVX512指令部署完應(yīng)該也能運(yùn)行,但可能運(yùn)行速度會(huì)非常慢。(我的電

    2024年02月04日
    瀏覽(38)
  • 惠普臺(tái)式筆記本一體機(jī)電腦BIOS中文版對(duì)照?qǐng)D解介紹

    惠普臺(tái)式筆記本一體機(jī)電腦BIOS中文版對(duì)照?qǐng)D解介紹

    注意VT 默認(rèn)是不開啟的。 太簡(jiǎn)陋了,只有一個(gè)風(fēng)扇轉(zhuǎn)速連個(gè)溫度顯示都沒(méi)有。 可以設(shè)置定時(shí)開機(jī)的具體到分鐘。 SERR#最好不要亂動(dòng),其實(shí)這兩個(gè)參數(shù)都不用動(dòng),因?yàn)槟愦蜷_機(jī)箱就會(huì)失去質(zhì)保,既然不安裝PCI設(shè)備就不用動(dòng)它。 看不懂惠普電腦BIOS怎么辦?本文為大家提供惠普電

    2024年02月12日
    瀏覽(25)
  • 本地部署生成式AI,選顯卡or筆記本電腦?!新款酷睿Ultra舉票

    本地部署生成式AI,選顯卡or筆記本電腦?!新款酷睿Ultra舉票

    來(lái)源 | 算力豹 200億個(gè)大模型參數(shù)無(wú)壓力,新一代酷睿Ultra憑什么? 12月14日?qǐng)?bào)道,在大模型軍備競(jìng)賽如火如荼的今天,真正讓AI鋪開惠民,那么移動(dòng)端、PC將成為首選,AI PC或成標(biāo)配。英特爾今日奉上AI硬件大招,正式推出AI PC處理器代號(hào)Meteor Lake的酷睿Ultra處理器。 01 本地部署

    2024年02月03日
    瀏覽(20)
  • SPSS modeler用關(guān)聯(lián)規(guī)則Apriori模型對(duì)筆記本電腦購(gòu)買事務(wù)銷量數(shù)據(jù)研究

    SPSS modeler用關(guān)聯(lián)規(guī)則Apriori模型對(duì)筆記本電腦購(gòu)買事務(wù)銷量數(shù)據(jù)研究

    自2011年全球PC出貨量達(dá)到歷史最高的3.64億臺(tái)后,全球PC市場(chǎng)出貨量已經(jīng)連續(xù)四年下滑 ( 點(diǎn)擊文末“閱讀原文”獲取完整 代碼數(shù)據(jù) )。 相關(guān)視頻 市場(chǎng)調(diào)研公司Gartner最新數(shù)據(jù)顯示,2015年Q3全球PC銷量同比降低7.7%,至7370萬(wàn)臺(tái)。IDC數(shù)據(jù)更加不樂(lè)觀,2015年Q3全球PC出貨量共計(jì)7100萬(wàn)

    2024年02月02日
    瀏覽(40)
  • 筆記本電腦數(shù)據(jù)怎么恢復(fù)?筆記本電腦數(shù)據(jù)恢復(fù)用什么工具?

    筆記本電腦數(shù)據(jù)怎么恢復(fù)?筆記本電腦數(shù)據(jù)恢復(fù)用什么工具?

    隨著互聯(lián)網(wǎng)時(shí)代的發(fā)展,電腦的應(yīng)用越來(lái)越廣泛,已經(jīng)深深融入了我們的工作乃至生活當(dāng)中。其中,筆記本作為可隨身攜帶的電腦設(shè)備,其靈活、輕便等優(yōu)勢(shì)一直深受大家喜愛(ài)。在日常使用過(guò)程中,我們會(huì)往筆記本里存儲(chǔ)各式各樣的數(shù)據(jù),比如學(xué)習(xí)課程、手機(jī)照片、公司資料

    2024年02月01日
    瀏覽(95)
  • 筆記本電腦控制樹莓派,樹莓派獲取IP地址,連接筆記本電腦屏幕

    筆記本電腦控制樹莓派,樹莓派獲取IP地址,連接筆記本電腦屏幕

    樹莓派使用需要連接顯示屏配備鍵盤和鼠標(biāo),為了方便實(shí)用可以直接連接到自己的筆記本電腦上,主要步驟如下: 第一步:獲取樹莓派IP地址 首先進(jìn)行樹莓派的系統(tǒng)燒錄,燒錄過(guò)程可以查看網(wǎng)上教程,有很多這里不再贅述,本文主要是針對(duì)已經(jīng)燒錄好的樹莓派連接筆記本電腦

    2024年02月12日
    瀏覽(91)
  • 將一臺(tái)筆記本電腦作為另一臺(tái)筆記本電腦的擴(kuò)展顯示器

    將一臺(tái)筆記本電腦作為另一臺(tái)筆記本電腦的擴(kuò)展顯示器

    ? ? ? ? ????????????????可以使用 快捷鍵win + i 打開設(shè)置 ,然后點(diǎn)擊 ‘系統(tǒng)’ ? ? ? ? 步驟2:點(diǎn)擊 ‘投影到此電腦’ ,可以看到右邊的選項(xiàng)是灰色, ????????????????不可以選,然后點(diǎn)擊 ‘可選功能’ ;如果是可選的,可以跳過(guò)步驟4 步驟3 :查找是否安

    2024年02月11日
    瀏覽(33)
  • 三防筆記本丨加固筆記本丨三防筆記本電腦賦能車輛檢修

    三防筆記本丨加固筆記本丨三防筆記本電腦賦能車輛檢修

    隨著汽車數(shù)量的不斷增加和交通運(yùn)輸行業(yè)的發(fā)展,車輛檢修行業(yè)成為了保障交通安全和延長(zhǎng)車輛壽命的重要領(lǐng)域。在車輛檢修過(guò)程中,需要使用各種工具和設(shè)備來(lái)進(jìn)行檢測(cè)、維修和保養(yǎng),而信息化技術(shù)的應(yīng)用正逐漸滲透到這一行業(yè)中,為檢修工作提供了更高效、更精準(zhǔn)的解決

    2024年04月09日
    瀏覽(92)
  • python編程用什么筆記本好,python用什么筆記本電腦

    python編程用什么筆記本好,python用什么筆記本電腦

    大家好,給大家分享一下寫python大家都用什么筆記本的,很多人還不知道這一點(diǎn)。下面詳細(xì)解釋一下?,F(xiàn)在讓我們來(lái)看看! 大家好,小編為大家解答python編程對(duì)筆記本電腦配置的要求的問(wèn)題。很多人還不知道python編程筆記本電腦推薦便宜,現(xiàn)在讓我們一起來(lái)看看吧! 大家好

    2024年01月18日
    瀏覽(94)
  • 筆記本電腦參數(shù)簡(jiǎn)介

    筆記本電腦參數(shù)簡(jiǎn)介

    筆記本電腦按照性能續(xù)航重量可分為輕薄本、全能本和游戲本。 從輕薄本到全能本再到游戲本,性能依次提高,續(xù)航依次下降,重量依次增加。 更詳細(xì)的對(duì)比如下: 輕薄本 :特點(diǎn)是輕薄便攜,續(xù)航持久,顏值較高,但是性能相對(duì)保守。適合文科類專業(yè),如會(huì)計(jì)學(xué)、語(yǔ)言類等

    2024年02月09日
    瀏覽(99)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包