国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐

這篇具有很好參考價(jià)值的文章主要介紹了AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、背景介紹

模型部署基本步驟分為模型選擇、模型部署、運(yùn)行,如果需要在特定的場(chǎng)景下定制化模型,則還需要進(jìn)行數(shù)據(jù)集的選擇、數(shù)據(jù)集格式轉(zhuǎn)換、微調(diào)。

根據(jù)上述的步驟本教程選取如下的開源模型、數(shù)據(jù)集,來(lái)對(duì)醫(yī)療場(chǎng)景下進(jìn)行定制化模型部署。當(dāng)然模型部署對(duì)GPU要求非常高,所以本教程將使用AutoDL提供的服務(wù)器資源。

  • 地址:https://www.autodl.com/home

ChatGLM-6B(模型):清華開源的、支持中英雙語(yǔ)對(duì)話的語(yǔ)言模型,具有62億參數(shù)。

  • 地址:https://github.com/THUDM/ChatGLM-6B

HuatuoGPT-sft-data-v1(數(shù)據(jù)集):醫(yī)療數(shù)據(jù)集,擁有333M龐大數(shù)據(jù)。

  • 地址:https://huggingface.co/datasets/FreedomIntelligence/HuatuoGPT-sft-data-v1

ChatGLM Efficient Tuning(微調(diào)):針對(duì)ChatGLM-6B進(jìn)行微調(diào),集成多個(gè)微調(diào)框架。

  • 地址:https://github.com/hiyouga/ChatGLM-Efficient-Tuning/blob/main/README_zh.md

二、創(chuàng)建服務(wù)器資源

進(jìn)入AutoDL官網(wǎng)申請(qǐng)一臺(tái)服務(wù)器資源,可以按如下圖步驟操作:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

進(jìn)入后選擇社區(qū)鏡像,在紅框處輸入:

WhaleOps/dolphinschedulerllm/dolphinscheduler-llm-0521

這個(gè)鏡像集成了基礎(chǔ)的模型運(yùn)行環(huán)境,可以方便以后部署。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

創(chuàng)建完成后等待服務(wù)器創(chuàng)建完成即可。創(chuàng)建完成后可以參考下圖:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

至此服務(wù)器資源已創(chuàng)建完成。

三、模型部署

點(diǎn)擊JupyterLab進(jìn)入服務(wù)器的控制臺(tái)。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

進(jìn)入終端,正式開始模型部署。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

3.1 下載ChatGLM模型

首先進(jìn)入/root/autodl-tmp目錄,在這里創(chuàng)建一個(gè)文件夾用來(lái)保存ChatGLM模型,文件目錄可以參考下圖用git_project來(lái)存放模型。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

進(jìn)入git_project目錄輸入git clone?https://huggingface.co/THUDM/chatglm-6b?命令下載模型,模型文件比較大可能要等一段時(shí)間。下載完成后可以進(jìn)入chatglm-6b目錄,目錄內(nèi)容參考下圖,后面運(yùn)行就需要依賴下圖的模型。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

3.2 下載ChatGLM運(yùn)行依賴

回到git_project目錄輸入git clone?https://github.com/THUDM/ChatGLM-6B.git?命令,下載完成后進(jìn)入ChatGLM-6B目錄,可以看到如下目錄:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

我們使用pip install -r requirements.txt 命令下載腳本依賴的庫(kù)。等待命令跑完即可。

3.3 ChatGLM運(yùn)行

運(yùn)行模型需要配置一下模型的文件位置,輸入vim web_demo.py ,修改內(nèi)容參考下圖紅框處。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

把紅框處的內(nèi)容改成我們剛剛下載好的模型地址。上圖是已經(jīng)改過(guò)的,可以參考下。

現(xiàn)在已經(jīng)可以運(yùn)行了,輸入 python web_demo.py 試試看。

運(yùn)行后可以看到只能夠在本地自己使用,為了讓運(yùn)行的模型可以分享給大家使用,可以修改參數(shù)share=True,參數(shù)位置位于web_demo.py最底部??梢詤⒖枷聢D:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

再嘗試輸入 python web_demo.py 后可以看到控制臺(tái)打印了url地址,參考下圖:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

復(fù)制 public URL的地址,放到瀏覽器中體驗(yàn)一下部署好的模型吧。

這是部署好的界面:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

四、數(shù)據(jù)集

雖然基礎(chǔ)模型在各個(gè)方面都了解,但一旦深入就開始胡言亂語(yǔ)了。下面我們開始對(duì)模型微調(diào),使它在醫(yī)療方面表現(xiàn)的更好一些。

4.1 下載數(shù)據(jù)集

AutoDL服務(wù)器下載HuggingFace內(nèi)容比較慢,所以先在本地下載好數(shù)據(jù)集后,再上傳到服務(wù)器。

進(jìn)入這個(gè)網(wǎng)址,按下圖步驟進(jìn)行操作:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

4.2 數(shù)據(jù)集環(huán)境配置

進(jìn)入git_project目錄,下載微調(diào)框架,輸入 git clone :

https://github.com/hiyouga/ChatGLM-Efficient-Tuning.git。

進(jìn)入ChatGLM-Efficient-Tuning目錄后可以看到如下子目錄:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

我們進(jìn)入data目錄,在data目錄下新建huatuo_gpt文件夾用來(lái)存放我們的數(shù)據(jù)集和數(shù)據(jù)集格式轉(zhuǎn)換腳本。

把下載好的數(shù)據(jù)集放到huatuo_gpt下,并新增一個(gè)腳本文件。參考圖如下:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

腳本可以參考鏈接,具體腳本編寫參考這個(gè)網(wǎng)址:

https://huggingface.co/docs/datasets/dataset_script

回到data目錄,編輯dataset_info.json文件,對(duì)剛才新增的數(shù)據(jù)集進(jìn)行配置。把dataset_info.json劃到最后面,新增如下紅框內(nèi)容:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

至此數(shù)據(jù)集環(huán)境已經(jīng)配置好了。

五、微調(diào)

環(huán)境已經(jīng)配置完成了,現(xiàn)在可以進(jìn)行微調(diào),具體步驟如下。

回到ChatGLM-Efficient-Tuning目錄,輸入命令:

CUDA_VISIBLE_DEVICES=0 python src/train_sft.py \
    --do_train \
    --model_name_or_path /root/autodl-tmp/git_project/chatglm-6b \
    --dataset huatuo_gpt \
    --finetuning_type lora \
    --output_dir /root/autodl-tmp/train_model \
    --per_device_train_batch_size 4 \
    --gradient_accumulation_steps 4 \
    --lr_scheduler_type cosine \
    --logging_steps 10 \
    --save_steps 1000 \
    --learning_rate 5e-5 \
    --num_train_epochs 3.0 \
    --fp16 > output.log &

對(duì)部分參數(shù)講解一下:

--model_name_or_path:基礎(chǔ)模型的文件位置。

--dataset:剛才在dataset_info中設(shè)置的名稱。

--finetuning_type:微調(diào)模型的類型。

--output_dir:訓(xùn)練后模型的文件位置。

具體模型參數(shù)可以參考這個(gè)地址:

https://github.com/hiyouga/ChatGLM-Efficient-Tuning/wiki/%E4%BD%BF%E7%94%A8%E6%96%B9%E6%B3%95#%E5%BE%AE%E8%B0%83%E8%AE%AD%E7%BB%83

運(yùn)行這個(gè)腳本大概需要40小時(shí)左右。

六、運(yùn)行

微調(diào)結(jié)束后進(jìn)入ChatGLM-Efficient-Tuning目錄,輸入vim src/utils/config.py命令修改一下基礎(chǔ)模型的文件位置,具體參考如下:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

為了可以在瀏覽器中訪問(wèn),我們回到ChatGLM-Efficient-Tuning目錄輸入vim src/web_demo.py, 劃到最下面修改參數(shù)為share=True,參考如下:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

現(xiàn)在可以運(yùn)行微調(diào)后的模型了,輸入python src/web_demo.py --checkpoint_dir 訓(xùn)練后模型的文件位置 命令??梢栽诳刂婆_(tái)看見(jiàn)如下紅框的地址。復(fù)制到瀏覽器上就可以體驗(yàn)了。

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

七、訓(xùn)練前后對(duì)比

微調(diào)前的效果:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

微調(diào)后的效果:

AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐,AIGC,AIGC,ChatGLM,人工智能,模型部署,微調(diào),數(shù)據(jù)集

可以看到微調(diào)前的對(duì)醫(yī)療的回答結(jié)果比較淺顯,微調(diào)后回答結(jié)果專注治療、解決辦法。

到此就結(jié)束了,大家可以自己動(dòng)手嘗試一下。

更多AI小知識(shí)歡迎關(guān)注“神州數(shù)碼云基地”公眾號(hào),回復(fù)“AI與數(shù)字化轉(zhuǎn)型”進(jìn)入社群交流

版權(quán)聲明:文章由神州數(shù)碼武漢云基地團(tuán)隊(duì)實(shí)踐整理輸出,轉(zhuǎn)載請(qǐng)注明出處。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-771740.html

到了這里,關(guān)于AIGC|手把手教你進(jìn)行ChatGLM模型部署實(shí)踐的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 一分錢不花!手把手教你部署Google最強(qiáng)開源AI大模型Gemma教程

    一分錢不花!手把手教你部署Google最強(qiáng)開源AI大模型Gemma教程

    一分錢不花!本地部署Google最強(qiáng)開源AI大模型Gemma教程 半個(gè)多月前,谷歌搞了一波突然襲擊,毫無(wú)預(yù)兆地發(fā)布了新一代AI模型Gemma,并宣稱這是全球性能最強(qiáng)大的輕量級(jí)開源系列模型。 經(jīng)過(guò)實(shí)測(cè),雖然Gemma的使用體驗(yàn)不如ChatGPT-4等成熟的閉源大模型,但是本地運(yùn)行模式還是有其

    2024年04月10日
    瀏覽(23)
  • Llama 3 開源!手把手帶你進(jìn)行大模型推理,部署,微調(diào)和評(píng)估

    Llama 3 開源!手把手帶你進(jìn)行大模型推理,部署,微調(diào)和評(píng)估

    節(jié)前,我們組織了一場(chǎng)算法崗技術(shù)面試討論會(huì),邀請(qǐng)了一些互聯(lián)網(wǎng)大廠朋友、參加社招和校招面試的同學(xué),針對(duì)算法崗技術(shù)趨勢(shì)、大模型落地項(xiàng)目經(jīng)驗(yàn)分享、新手如何入門算法崗、該如何準(zhǔn)備、面試??键c(diǎn)分享等熱門話題進(jìn)行了深入的討論。 基于大模型實(shí)踐和技術(shù)交流,我們

    2024年04月26日
    瀏覽(24)
  • 【MMDeploy&MMPose】手把手教你在Windows上使用MMDeploy1.x進(jìn)行ONNX和TensorRT的部署(Python篇)

    【MMDeploy&MMPose】手把手教你在Windows上使用MMDeploy1.x進(jìn)行ONNX和TensorRT的部署(Python篇)

    2023.9.8更新 C++ SDK篇已經(jīng)發(fā)布,點(diǎn)擊這里傳送到文章 MMDeploy 提供了一系列工具,幫助我們更輕松的將 OpenMMLab 下的算法部署到各種設(shè)備與平臺(tái)上。 MMDeploy 定義的模型部署流程,這里直接使用了官方文檔的內(nèi)容,如下圖所示:? 1)模型轉(zhuǎn)換(Model Converter) 模型轉(zhuǎn)換的主要功能是

    2024年01月16日
    瀏覽(27)
  • AIGC|超詳細(xì)教程提升代碼效率,手把手教你如何用AI幫你編程

    AIGC|超詳細(xì)教程提升代碼效率,手把手教你如何用AI幫你編程

    目錄 一、輔助編程 (一)代碼生成 二、其他功能 (一)工具手冊(cè) (二)源碼學(xué)習(xí) (三)技術(shù)討論 作為主要以 JAVA 語(yǔ)言為核心的后端開發(fā)者,其實(shí),早些時(shí)間我也用過(guò)比如 Codota、Tabnine、Github 的 Copilot、阿里的 AI Coding Assistant 等 IDEA 插件,但是我并沒(méi)有覺(jué)得很驚奇,感覺(jué)就

    2024年02月04日
    瀏覽(24)
  • 手把手教你用 Jenkins 自動(dòng)部署 SpringBoot

    手把手教你用 Jenkins 自動(dòng)部署 SpringBoot

    CI/CD 是一種通過(guò)在應(yīng)用開發(fā)階段引入自動(dòng)化來(lái)頻繁向客戶交付應(yīng)用的方法。 CI/CD 的核心概念可以總結(jié)為三點(diǎn): 持續(xù)集成 持續(xù)交付 持續(xù)部署 CI/CD 主要針對(duì)在集成新代碼時(shí)所引發(fā)的問(wèn)題(俗稱\\\"集成地獄\\\")。 為什么會(huì)有集成地獄這個(gè)“雅稱”呢?大家想想我們一個(gè)項(xiàng)目部署的

    2024年02月02日
    瀏覽(29)
  • 手把手教你將項(xiàng)目部署到服務(wù)器!

    手把手教你將項(xiàng)目部署到服務(wù)器!

    一、導(dǎo)入centos7虛擬機(jī): 打開VMWare,點(diǎn)擊“打開虛擬機(jī)”,選擇centos7.ova之后,選擇存儲(chǔ)路徑: 點(diǎn)擊導(dǎo)入: 選擇“不再顯示此消息”,點(diǎn)擊“重試”按鈕: 點(diǎn)擊“編輯虛擬機(jī)設(shè)置”,修改處理器、內(nèi)存、硬盤等信息后,啟動(dòng) 按Ctrl+Alt鍵可以切換到windows下。 啟動(dòng)成功后,輸入

    2023年04月20日
    瀏覽(32)
  • 手把手教你Linux部署Nexus3私服

    手把手教你Linux部署Nexus3私服

    對(duì)maven來(lái)說(shuō)倉(cāng)庫(kù)分為兩類:本地倉(cāng)庫(kù)和遠(yuǎn)程倉(cāng)庫(kù),有三種專門的Maven倉(cāng)庫(kù)管理軟件可以用來(lái)幫助我們建立私服:chiva、Artifactory和Nexus。Nexus是當(dāng)前最流行的Maven倉(cāng)庫(kù)管理軟件。Nexus包含了各種類型的倉(cāng)庫(kù)的概念,包括代理倉(cāng)庫(kù)、宿主倉(cāng)庫(kù)、倉(cāng)庫(kù)組等。每一種倉(cāng)庫(kù)都提供了豐富實(shí)用

    2024年02月19日
    瀏覽(34)
  • 手把手教你用MindSpore訓(xùn)練一個(gè)AI模型!

    手把手教你用MindSpore訓(xùn)練一個(gè)AI模型!

    首先我們要先了解深度學(xué)習(xí)的概念和AI計(jì)算框架的角色( https://zhuanlan.zhihu.com/p/463019160 ),本篇文章將演示怎么利用MindSpore來(lái)訓(xùn)練一個(gè)AI模型。和上一章的場(chǎng)景一致,我們要訓(xùn)練的模型是用來(lái)對(duì)手寫數(shù)字圖片進(jìn)行分類的LeNet5模型 請(qǐng)參考( http://yann.lecun.com/exdb/lenet/ )。 圖1 M

    2024年02月04日
    瀏覽(33)
  • 手把手教你用 Docker 部署 Vue3 項(xiàng)目

    手把手教你用 Docker 部署 Vue3 項(xiàng)目

    用 docker 可以幫我們快速部署前端項(xiàng)目,本文介紹了如何用 docker 快速部署 vue3 項(xiàng)目。請(qǐng)準(zhǔn)備好一臺(tái)云服務(wù)器并安裝好 docker,然后開始閱讀本教程。 執(zhí)行 npm run build 打包后項(xiàng)目目錄中會(huì)多出一個(gè) dist 文件夾 利用 docker 拉取 nginx 鏡像 在服務(wù)器中創(chuàng)建工作目錄,這里我放在 /ho

    2024年02月05日
    瀏覽(34)
  • 手把手教你部署上線,你確定不瞧一瞧?

    手把手教你部署上線,你確定不瞧一瞧?

    Hello~ 大家好! 我又來(lái)更新咯 今天帶大家部署云上線! 部署上線? 案例:基于云服務(wù)器上線青蛙吃蒼蠅小游戲 1、安裝apache服務(wù) # yum install httpd -y 2、啟動(dòng)apache服務(wù) # systemctl start httpd 3、在華為云控制臺(tái)上開啟安全組 4、上傳項(xiàng)目包到服務(wù)器上 # yum install lrzsz -y?? ?//安裝rz命令

    2024年02月19日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包