国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào)

這篇具有很好參考價值的文章主要介紹了手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

參考文獻:chatglm2ptuning

注意問題1:AttributeError: ‘Seq2SeqTrainer’ object has no attribute 'is_deepspeed_enabl
torch.distributed.elastic.multiprocessing.errors.ChildFailedError:
可能是版本太高,可以參考chatglm2的環(huán)境
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

1. ChatGLM2-6B的P-Tuning微調(diào)

ChatGLM2-6B:https://github.com/THUDM/ChatGLM2-6B
模型地址:https://huggingface.co/THUDM/chatglm2-6b

詳細步驟同:ChatGLM-6B的P-Tuning微調(diào)詳細步驟及結果驗證

注:ChatGLM2-6B官網(wǎng)給的環(huán)境P-Tuning微調(diào)報錯 (python3.8.10/3.10.6 + torch 2.0.1 + transformers 4.30.2),

AttributeError: ‘Seq2SeqTrainer’ object has no attribute 'is_deepspeed_enabl
torch.distributed.elastic.multiprocessing.errors.ChildFailedError:

手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

應該是transformers版本太高了,用ChatGLM-6B環(huán)境(ChatGLM-6B部署教程)即可,即

Python 3.8.10
CUDA Version: 12.0
torch                2.0.1
transformers         4.27.1

   
   
  • 1
  • 2
  • 3
  • 4

2. 模型微調(diào)情況

2.1 數(shù)據(jù)集&調(diào)參

訓練集:412條
驗證集:83條
max_source_length:3500
max_target_length:180

問題長度:
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

2.2 模型訓練

A100 80G 2塊,占用率16%,3000輪訓練時間21h
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型文章來源地址http://www.zghlxwxcb.cn/news/detail-582777.html

2.3 模型預測
from transformers import AutoConfig, AutoModel, AutoTokenizer
import torch
import os

tokenizer = AutoTokenizer.from_pretrained(“…/THUDM-model”, trust_remote_code=True)
CHECKPOINT_PATH = ‘./output/adgen-chatglm2-6b-pt-64-2e-2/checkpoint-3000’
PRE_SEQ_LEN = 64

config = AutoConfig.from_pretrained(“…/THUDM-model”, trust_remote_code=True, pre_seq_len=PRE_SEQ_LEN)
model = AutoModel.from_pretrained(“…/THUDM-model”, config=config, trust_remote_code=True).half().cuda()
prefix_state_dict = torch.load(os.path.join(CHECKPOINT_PATH, “pytorch_model.bin”))
new_prefix_state_dict = { }
for k, v in prefix_state_dict.items():
if k.startswith(“transformer.prefix_encoder.”):
new_prefix_state_dict[k[len(“transformer.prefix_encoder.”):]] = v
model.transformer.prefix_encoder.load_state_dict(new_prefix_state_dict)

#model = AutoModel.from_pretrained(CHECKPOINT_PATH, trust_remote_code=True)
model = model.eval()

response, history = model.chat(tokenizer, “你好”, history=[]

參照p-tuning readme,需注意:
(1) 注意可能需要將 pre_seq_len 改成訓練時的實際值。
(2) 如果是從本地加載模型的話,需要將 THUDM/chatglm2-6b 改成本地的模型路徑(注意不是checkpoint路徑); CHECKPOINT_PATH路徑需要修改。
(3) 報錯”RuntimeError: “addmm_impl_cpu_” not implemented for ‘Half’“
需要在model = AutoModel.from_pretrained(“…/THUDM-model”, config=config, trust_remote_code=True) 后加 .half().cuda()

495條數(shù)據(jù),無history,單輪,模型加載+預測時間3min
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

1. ChatGLM2-6B的P-Tuning微調(diào)

ChatGLM2-6B:https://github.com/THUDM/ChatGLM2-6B
模型地址:https://huggingface.co/THUDM/chatglm2-6b

詳細步驟同:ChatGLM-6B的P-Tuning微調(diào)詳細步驟及結果驗證

注:ChatGLM2-6B官網(wǎng)給的環(huán)境P-Tuning微調(diào)報錯 (python3.8.10/3.10.6 + torch 2.0.1 + transformers 4.30.2),

AttributeError: ‘Seq2SeqTrainer’ object has no attribute 'is_deepspeed_enabl
torch.distributed.elastic.multiprocessing.errors.ChildFailedError:

手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

應該是transformers版本太高了,用ChatGLM-6B環(huán)境(ChatGLM-6B部署教程)即可,即

Python 3.8.10
CUDA Version: 12.0
torch                2.0.1
transformers         4.27.1

   
   
  • 1
  • 2
  • 3
  • 4

2. 模型微調(diào)情況

2.1 數(shù)據(jù)集&調(diào)參

訓練集:412條
驗證集:83條
max_source_length:3500
max_target_length:180

問題長度:
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

2.2 模型訓練

A100 80G 2塊,占用率16%,3000輪訓練時間21h
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型
手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào),深度學習,大模型

2.3 模型預測
from transformers import AutoConfig, AutoModel, AutoTokenizer
import torch
import os

到了這里,關于手把手帶你實現(xiàn)ChatGLM2-6B的P-Tuning微調(diào)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 實戰(zhàn)項目:手把手帶你實現(xiàn)一個高并發(fā)內(nèi)存池

    實戰(zhàn)項目:手把手帶你實現(xiàn)一個高并發(fā)內(nèi)存池

    1.這個項目做的是什么? 當前項目是實現(xiàn)一個高并發(fā)的內(nèi)存池,他的原型是google的一個開源項目tcmalloc,tcmalloc全稱Thread-Caching Malloc,即線程緩存的malloc,實現(xiàn)了高效的多線程內(nèi)存管理,用于替代系統(tǒng)的內(nèi)存分配相關的函數(shù)(malloc、free)。 2.項目目標 模擬實現(xiàn)出一個自己的高

    2023年04月26日
    瀏覽(58)
  • 【數(shù)據(jù)結構】—堆詳解(手把手帶你用C語言實現(xiàn))

    【數(shù)據(jù)結構】—堆詳解(手把手帶你用C語言實現(xiàn))

    ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? ?食用指南:本文在有C基礎的情況下食用更佳 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??? ? ??? 這就不得不推薦此專欄了: C語言 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? ?? 今日夜電波: 水星—今泉愛夏 ? ? ? ? ? ? ?

    2024年02月07日
    瀏覽(87)
  • 【reverse】手把手帶你基于dll實現(xiàn)多次SMC

    SMC,即self modifying code,自修改代碼,逆向入門SMC可以看一下我的題解。我打算實現(xiàn)一個類似于【網(wǎng)鼎杯2020青龍組】jocker的SMC方案。這個方案不需要用到匯編,因此門檻極低( 連小小前端都能學會 )。為什么要基于dll呢?因為代碼段加密功能是通過外部python腳本完成的,將自

    2024年02月02日
    瀏覽(91)
  • 手把手帶你實現(xiàn)Dubbo集成Nacos作為注冊中心(超詳細+全代碼)

    手把手帶你實現(xiàn)Dubbo集成Nacos作為注冊中心(超詳細+全代碼)

    Nacos簡介 什么是Nacos? Nacos /nɑ:k??s/ 是 Dynamic Naming and Configuration Service的首字母簡稱,一個更易于構建云原生應用的動態(tài)服務發(fā)現(xiàn)、配置管理和服務管理平臺。 Nacos 致力于幫助您發(fā)現(xiàn)、配置和管理微服務。Nacos 提供了一組簡單易用的特性集,幫助您快速實現(xiàn)動態(tài)服務發(fā)現(xiàn)、服

    2024年02月09日
    瀏覽(86)
  • 【數(shù)據(jù)結構】—手把手帶你用C語言實現(xiàn)棧和隊列(超詳細?。? decoding=

    【數(shù)據(jù)結構】—手把手帶你用C語言實現(xiàn)棧和隊列(超詳細!)

    ????????????????????????????????? ?食用指南:本文在有C基礎的情況下食用更佳 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 這就不得不推薦此專欄了:C語言 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 今日夜電波:Tell me —milet ???????????????????

    2024年02月14日
    瀏覽(502)
  • 【是C++,不是C艸】 手把手帶你實現(xiàn)Date類(附源碼)

    【是C++,不是C艸】 手把手帶你實現(xiàn)Date類(附源碼)

    ???? 歡迎來到 Claffic 的博客 ???? ???? 專欄: 《是C++,不是C艸》?? 前言: 恍惚間,已經(jīng)兩個月沒更新了 (;′д`)ゞ 我懺悔...? 但C++的學習不能停止!這期帶大家實踐一波,手把手教大家實現(xiàn)一個Date類,以感受C++類的魅力 注: 你最好是學完了C語言,并學過一些初

    2024年02月10日
    瀏覽(16)
  • 從0到1,手把手帶你開發(fā)截圖工具ScreenCap------001實現(xiàn)基本的截圖功能

    從0到1,手把手帶你開發(fā)截圖工具ScreenCap------001實現(xiàn)基本的截圖功能

    從0到1,手把手帶你開發(fā)windows端的截屏軟件ScreenCap 當前版本:ScreenCap---001 支持全屏截圖 支持鼠標拖動截圖區(qū)域 支持拖拽截圖 支持保存全屏截圖 支持另存截圖到其他位置 注:博主所有資源永久免費,若有幫助,請點贊轉發(fā)是對我莫大的幫助 注:博主本人學習過程的分享,

    2024年02月05日
    瀏覽(17)
  • 手把手教你搭建自己本地的ChatGLM

    手把手教你搭建自己本地的ChatGLM

    如果能夠本地自己搭建一個ChatGPT的話,訓練一個屬于自己知識庫體系的人工智能AI對話系統(tǒng),那么能夠高效的處理應對所屬領域的專業(yè)知識,甚至加入職業(yè)思維的意識,訓練出能夠結合行業(yè)領域知識高效產(chǎn)出的AI。這必定是十分高效的生產(chǎn)力工具,且本地部署能夠保護個人數(shù)

    2024年02月03日
    瀏覽(92)
  • 從0到1,手把手帶你開發(fā)截圖工具ScreenCap------002實現(xiàn)設置默認保存的圖片位置

    從0到1,手把手帶你開發(fā)截圖工具ScreenCap------002實現(xiàn)設置默認保存的圖片位置

    在ScreenCap實現(xiàn)截圖功能后增加設置圖片默認保存位置的功能 實現(xiàn)選擇文件夾作為截圖的默認保存位置 注:博主所有資源永久免費,若有幫助,請點贊轉發(fā)是對我莫大的幫助 注:博主本人學習過程的分享,引用他人的文章皆會標注原作者 注:本人文章非盈利性質(zhì),若有侵權請

    2024年02月05日
    瀏覽(30)
  • 從0到1,手把手帶你開發(fā)截圖工具ScreenCap------003實現(xiàn)最小化程序到托盤運行

    從0到1,手把手帶你開發(fā)截圖工具ScreenCap------003實現(xiàn)最小化程序到托盤運行

    為了方便截圖干凈,實現(xiàn)最小化程序到托盤運行,簡潔,勿擾 實現(xiàn)最小化程序到托盤運行 實現(xiàn)托盤菜單功能 實現(xiàn)回顯主窗體 實現(xiàn)托盤開始截屏 實現(xiàn)氣泡信息提示 實現(xiàn)托盤程序提示 實現(xiàn)托盤退出程序 封裝完好,可復用 注:博主所有資源永久免費,若有幫助,請點贊轉發(fā)是

    2024年02月05日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包