国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【個人筆記本】本地化部署詳細流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

這篇具有很好參考價值的文章主要介紹了【個人筆記本】本地化部署詳細流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

不推薦小白,環(huán)境配置比較復雜

全部流程

  • 下載原始模型:Chinese-LLaMA-Alpaca-2
  • linux部署llamacpp環(huán)境
  • 使用llamacpp將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型
  • windows部署Text generation web UI 環(huán)境
  • 使用Text generation web UI 加載模型并進行對話

準備工作

  1. 筆記本環(huán)境:

    • 操作系統(tǒng):win11
    • CPU:AMD R7535HS
    • GPU:筆記本4060顯卡
    • CUDA版本:11.8
    • VM虛擬機:Ubuntu16

  2. 下載模型和部署環(huán)境全程需要掛梯子


下載原始模型

原項目鏈接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

模型名稱 類型 大小 下載地址
Chinese-LLaMA-2-13B 基座模型 24.7 GB [百度] [Google] [??HF]
Chinese-LLaMA-2-7B 基座模型 12.9 GB [百度] [Google] [??HF]
Chinese-Alpaca-2-13B 指令模型 24.7 GB [百度] [Google] [??HF]
Chinese-Alpaca-2-7B 指令模型 12.9 GB [百度] [Google] [??HF]

下載Chinese-Alpaca-2-7B模型即可,百度網(wǎng)盤不需要掛梯子,其他都需要梯子


linux部署llamacpp環(huán)境

原項目鏈接:https://github.com/ggerganov/llama.cpp
原文檔鏈接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2/wiki/llamacpp_zh

Step 1: 安裝python3.10

sudo apt update
sudo apt install python3.10

Step 2: 克隆和編譯llama.cpp

  1. 拉取最新版llama.cpp倉庫代碼

    # 要安裝git+梯子
    git clone https://github.com/ggerganov/llama.cpp
    

    或者

    #瀏覽器掛梯子打開https://github.com/ggerganov/llama.cpp
    #下載項目
    #解壓縮項目到本地
    
  2. 對llama.cpp項目進行編譯,生成./main(用于推理)和./quantize(用于量化)二進制文件

    cd 解壓縮項目路徑
    make
    

Step 3: 生成量化版本模型

  1. 創(chuàng)建目錄并拷貝模型到項目目錄:zh-models/7B/

  2. 將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型

    #根目錄
    python convert.py zh-models/7B/
    
  3. 將生成的fp16格式的gguf模型進行4-bit量化

    ./quantize ./zh-models/7B/ggml-model-f16.gguf ./zh-models/7B/ggml-model-q4_0.gguf q4_0
    

Step 4: 加載并啟動模型

到這一步其實可以用llama.cpp的加載模型方式對話了
但我用的虛擬機,性能有限,故而使用Text generation web UI 加載模型,具體如何加載建議看原文檔和項目說明


windows部署Text generation web UI 環(huán)境

原項目:https://github.com/oobabooga/text-generation-webui

Step 1: 下載安裝Miniconda3_py310

鏈接:https://repo.anaconda.com/miniconda/Miniconda3-py310_23.3.1-0-Windows-x86_64.exe

Step 2: 克隆項目到本地

git clone  https://github.com/oobabooga/text-generation-webui

Step 3: 打開Miniconda3命令行,建立新conda環(huán)境

conda create -n textgen

Step 4: 下載安裝相關(guān)的python各類環(huán)境庫

有g(shù)ithub鏈接的必須手動下載whl,再pip安裝whl的絕對位置文章來源地址http://www.zghlxwxcb.cn/news/detail-719512.html

conda activate textgen
cd 項目位置
pip install env/bitsandbytes-0.41.1-py3-none-win_amd64.whl
pip install E:\AI\環(huán)境第三方庫\auto_gptq-0.4.2+cu117-cp310-cp310-win_amd64.whl

https://github.com/jllllll/exllama/releases/download/0.0.17/exllama-0.0.17+cu117-cp310-cp310-win_amd64.whl
pip install E:\AI\環(huán)境第三方庫\exllama-0.0.17+cu117-cp310-cp310-win_amd64.whl

pip install llama-cpp-python==0.1.84

https://github.com/jllllll/llama-cpp-python-cuBLAS-wheels/releases/download/textgen-webui/llama_cpp_python_cuda-0.1.84+cu117-cp310-cp310-win_amd64.whl
pip install E:\AI\環(huán)境第三方庫\llama_cpp_python_cuda-0.1.84+cu117-cp310-cp310-win_amd64.whl

https://github.com/jllllll/GPTQ-for-LLaMa-CUDA/releases/download/0.1.0/gptq_for_llama-0.1.0+cu117-cp310-cp310-win_amd64.whl
pip install E:\AI\環(huán)境第三方庫\gptq_for_llama-0.1.0+cu117-cp310-cp310-win_amd64.whl

https://github.com/jllllll/ctransformers-cuBLAS-wheels/releases/download/AVX2/ctransformers-0.2.25+cu117-py3-none-any.whl
pip install E:\AI\環(huán)境第三方庫\ctransformers-0.2.25+cu117-py3-none-any.whl

pip install -r requirements.txt -i 換源

Step 5: 啟動web服務(wù)

conda activate textgen
cd E:/AI/項目/text-generation-webui-main
python server.py

使用Text generation web UI 加載模型并進行對話

  1. 打開生成的url網(wǎng)址
  2. 加載本地模型
  3. 對話即可

到了這里,關(guān)于【個人筆記本】本地化部署詳細流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • hadoop本地化windows部署

    hadoop本地化windows部署

    需求背景是java代碼提交服務(wù)器測試周期流程太慢,需要一種能直接在windows本地部署的相關(guān)組件。分析項目現(xiàn)有大數(shù)據(jù)技術(shù)棧,包括hadoop、hive和spark(sparksql),存儲和計算都依賴windows系統(tǒng)。期中hive保存在本地的hadoop上,spark提交在hadoop的yarn上。 · hadoop on windows · hive on windows

    2024年02月16日
    瀏覽(32)
  • 本地化部署大語言模型 ChatGLM

    本地化部署大語言模型 ChatGLM

    ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話進行了優(yōu)

    2023年04月20日
    瀏覽(32)
  • 實戰(zhàn)whisper:本地化部署通用語音識別模型

    實戰(zhàn)whisper:本地化部署通用語音識別模型

    ????????Whisper 是一種通用語音識別模型。它是在大量不同音頻數(shù)據(jù)集上進行訓練的,也是一個多任務(wù)模型,可以執(zhí)行多語言語音識別、語音翻譯和語言識別。 ? ? ? ? 這里呢,我將給出我的一些代碼,來幫助你盡快實現(xiàn)【語音轉(zhuǎn)文字】的服務(wù)部署。 ? ? ? ? 以下是該A

    2024年01月18日
    瀏覽(29)
  • Spark的Windows本地化部署完整方案

    Spark的Windows本地化部署完整方案

    對于Spark,網(wǎng)上涉及到Windows平臺搭建的資料不多。大多資料不全,而且很少說明注意事項,存在一定的挖坑行為。對于不是很熟悉spark環(huán)境搭建過程,但是又非常想在自己的電腦上搭建一個本地環(huán)境的小伙伴來說存在一定的繞路行為。本文借鑒了網(wǎng)上大部分的資料,在整理集

    2023年04月11日
    瀏覽(25)
  • 【AI工具】-Stable Diffusion本地化部署教程

    【AI工具】-Stable Diffusion本地化部署教程

    今天我們要介紹的是時下最流行的AI繪圖軟件Stable Diffusion,雖然Diffusion.ai已經(jīng)開放api,但是長時間的商業(yè)化調(diào)用我們需要購買很多的金幣。所以我們需要找一個平替的AI繪圖平臺,現(xiàn)在主流市場中AI繪圖軟件主要就是OpenAI的DALLE、midjourney以及今天要學習的Stable Diffusion,而前兩

    2024年02月13日
    瀏覽(29)
  • 部署本地化stable-diffusion遇到問題,求解

    (stable-diffusion-webui) C:Usersqinchstable-diffusion-webuiwebui-user.bat venv \\\"C:Usersqstable-diffusion-webuivenvScriptsPython.exe\\\" Python 3.10.6 | packaged by conda-forge | (main, Oct 24 2022, 16:02:16) [MSC v.1916 64 bit (AMD64)] Commit hash: 076d624a297532d6e4abebe5807fd7c7504d7a73 Traceback (most recent call last): File \\\"C:Usersqstable-diffu

    2024年02月03日
    瀏覽(43)
  • 使用nextjs本地化部署AI大模型gemma

    使用nextjs本地化部署AI大模型gemma

    博主是AI新手,如有不對還請評論區(qū)指教~ 這里介紹mac的部署方式,win也可以實現(xiàn)。 本案例使用到:ollama + nextjs + langchain.js + milvus 來實現(xiàn)知識庫問答和聊天。 ollama: 本地運行模型服務(wù) nextjs: 前端框架項目 langchain.js: 調(diào)用模型服務(wù)并對話 milvus: 向量數(shù)據(jù)庫 開源代碼:G

    2024年04月13日
    瀏覽(26)
  • 自建類ChatGPT服務(wù):本地化部署與遠程訪問教程

    自建類ChatGPT服務(wù):本地化部署與遠程訪問教程

    ???? 博主貓頭虎 帶您 Go to New World.??? ?? 博客首頁——貓頭虎的博客?? ??《面試題大全專欄》 文章圖文并茂??生動形象??簡單易學!歡迎大家來踩踩~?? ?? 《IDEA開發(fā)秘籍專欄》學會IDEA常用操作,工作效率翻倍~?? ?? 《100天精通Golang(基礎(chǔ)入門篇)》學會Golang語言

    2024年02月14日
    瀏覽(24)
  • Window本地化部署stable diffusion AI繪圖

    Window本地化部署stable diffusion AI繪圖

    從零開始,手把手教你Window本地化部署stable diffusion AI繪圖 - 知乎 (zhihu.com) 解決MAC筆記本Stable Diffusion安裝時報No matching distribution found for tb-nightly的問題 - 阿貍哥哥 - 博客園 (cnblogs.com) ?修改啟動腳本啟動命令里加入了 --precision full --no-half?precision full就是全精度,no half是不使用

    2024年02月11日
    瀏覽(36)
  • FastChat 本地化安裝部署-擁有屬于私人的ChatGPT

    寫在前面:第一發(fā)稿把自己熬夜幾天的一些經(jīng)歷寫下來,希望能給AI愛好者一個前車之鑒,自從看到斯坦福-ALPACA項目就想著能否能否本地化部署一套AI CHAT,所以找了很多網(wǎng)站,都沒有FastChat部署能很完整的寫下來,所以有了本文: 1 前期準備:? N卡(24G以上顯存),16G內(nèi)存

    2024年02月02日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包