国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

聊聊大模型的微調(diào)實(shí)現(xiàn)及其應(yīng)用

這篇具有很好參考價(jià)值的文章主要介紹了聊聊大模型的微調(diào)實(shí)現(xiàn)及其應(yīng)用。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

轉(zhuǎn)載請(qǐng)備注出處: https://www.cnblogs.com/zhiyong-ITNote

微調(diào)框架概述

模型的微調(diào)有多種方式,對(duì)于入門的來說,一般都是基于官方的文檔微調(diào);最近發(fā)現(xiàn)很多開源庫,其目的就是支持應(yīng)用多種微調(diào)策略來微調(diào)模型,簡(jiǎn)化模型的微調(diào)門檻。比如 ChatGLM-Efficient-Tuning、LLaMA-Factory。其架構(gòu)邏輯如下:

最近試玩了這兩個(gè)框架,個(gè)人覺得蠻好的,先不說實(shí)際的調(diào)試效果,這取決于多種因素,總的來說還是很方便快捷的。方便快捷的基于多種微調(diào)策略調(diào)試LLM;同時(shí)支持多種數(shù)據(jù)集類型。

LLaMA-Factory

這個(gè)開源庫相比較其余的庫,更全面,更方便。有如下幾點(diǎn)我是比較喜歡的。

  1. 訓(xùn)練方法
    1. 如圖,多種訓(xùn)練方法都支持,很全面。不過這里的預(yù)訓(xùn)練,我理解為是增量預(yù)訓(xùn)練;即準(zhǔn)備大量的文本數(shù)據(jù)訓(xùn)練。
    2. 支持全參數(shù)、部分參數(shù)、LoRA等策略微調(diào)。
    3. 降低門檻,一鍵訓(xùn)練。對(duì)于學(xué)習(xí)來說,可以增加知識(shí)面及使用。

image.png

  1. 數(shù)據(jù)集
    1. 支持多種數(shù)據(jù)集:增量預(yù)訓(xùn)練數(shù)據(jù)集、指令微調(diào)數(shù)據(jù)集、偏好數(shù)據(jù)集;在官方文檔都是有說明的。
    2. 每次微調(diào)前,我都需要斟酌數(shù)據(jù)集的準(zhǔn)備、格式等;但開源庫已經(jīng)準(zhǔn)備的很齊全而且各種場(chǎng)景的數(shù)據(jù)格式都有,直接參考即可;比如單輪對(duì)話、多輪對(duì)話、指令格式等等。這就極大的方便了數(shù)據(jù)集的準(zhǔn)備。
  2. 其它
    1. 當(dāng)然還有分布式訓(xùn)練、web界面操作等等

ChatGLM-Finetuning

Finetuning 是專門基于GLM系列的微調(diào)庫,我個(gè)人也試用,還是很方便快速的,而且文檔比較清晰,只是在部署時(shí)比較簡(jiǎn)陋,但對(duì)于要學(xué)習(xí)了解微調(diào)及LLM一些原理來說,還是很適合入門鉆研的。

應(yīng)用

目前絕大多數(shù)的大模型都是基于基座模型(GLM、QWen、LlaMa、BaiChuan)等微調(diào)訓(xùn)練而來,不過實(shí)現(xiàn)的邏輯卻是有多種,要么基于官方的微調(diào)文檔,要么基于開源微調(diào)庫實(shí)現(xiàn)。CareGPT 就是基于開源微調(diào)庫LLaMA-Factory實(shí)現(xiàn)的醫(yī)療領(lǐng)域大模型。其架構(gòu)設(shè)計(jì)如下:
聊聊大模型的微調(diào)實(shí)現(xiàn)及其應(yīng)用
在其架構(gòu)設(shè)計(jì)中,有兩個(gè)部分比較值得關(guān)注:

  1. 微調(diào)框架的集成
    1. 通過集成了微調(diào)框架,調(diào)用底層具備的能力,準(zhǔn)備多種格式的數(shù)據(jù)集微調(diào)模型。
  2. 數(shù)據(jù)開放
    1. 基于開源醫(yī)療數(shù)據(jù)集,準(zhǔn)備增量預(yù)訓(xùn)練預(yù)料、指令監(jiān)督預(yù)料、SFT預(yù)料等等;擴(kuò)充基座模型的領(lǐng)域知識(shí)能力。

總結(jié)

基于個(gè)人使用及學(xué)習(xí)的角度,介紹了微調(diào)框架的概述及其應(yīng)用。在這里面的道道還是蠻多的,有一定的大模型知識(shí)再基于這些庫去做參考去做應(yīng)用,將極大的降低LLM的應(yīng)用門檻。更有甚者可以了解底層的實(shí)現(xiàn)邏輯。

轉(zhuǎn)載請(qǐng)備注出處: https://www.cnblogs.com/zhiyong-ITNote

首發(fā)于個(gè)人公眾號(hào)
聊聊大模型的微調(diào)實(shí)現(xiàn)及其應(yīng)用文章來源地址http://www.zghlxwxcb.cn/news/detail-840267.html

到了這里,關(guān)于聊聊大模型的微調(diào)實(shí)現(xiàn)及其應(yīng)用的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • PyTorch 微調(diào)終極指南:第 1 部分 — 預(yù)訓(xùn)練模型及其配置

    PyTorch 微調(diào)終極指南:第 1 部分 — 預(yù)訓(xùn)練模型及其配置

    ????????如今,在訓(xùn)練深度學(xué)習(xí)模型時(shí),通過在自己的數(shù)據(jù)上微調(diào)預(yù)訓(xùn)練模型來遷移學(xué)習(xí)已成為首選方法。通過微調(diào)這些模型,我們可以利用他們的專業(yè)知識(shí)并使其適應(yīng)我們的特定任務(wù),從而節(jié)省寶貴的時(shí)間和計(jì)算資源。 本文分為四個(gè)部分,側(cè)重于微調(diào)模型的不同方面。

    2024年02月13日
    瀏覽(16)
  • UNet深度學(xué)習(xí)模型在醫(yī)學(xué)圖像分割中的應(yīng)用及其Python實(shí)現(xiàn)細(xì)節(jié)

    第一部分:引言和UNet架構(gòu)簡(jiǎn)介 引言 : 醫(yī)學(xué)圖像分割是醫(yī)療圖像處理的重要領(lǐng)域,它涉及將圖像劃分為多個(gè)區(qū)域,以標(biāo)識(shí)和隔離感興趣的區(qū)域(如器官、腫瘤等)。近年來,隨著深度學(xué)習(xí)技術(shù)的發(fā)展,多種神經(jīng)網(wǎng)絡(luò)模型被應(yīng)用于這一領(lǐng)域。其中,UNet模型因其出色的表現(xiàn)而受

    2024年02月12日
    瀏覽(88)
  • 聊聊ChatGLM-6B醫(yī)療數(shù)據(jù)微調(diào)

    聊聊ChatGLM-6B醫(yī)療數(shù)據(jù)微調(diào)

    轉(zhuǎn)載請(qǐng)注明出處: https://www.cnblogs.com/zhiyong-ITNote/ 參考了多個(gè)醫(yī)療大模型,如扁鵲、靈心等,重新思考了下微調(diào)的方案以及數(shù)據(jù)集的格式;基于ChatGLM/其它LLM整合多種微調(diào)方法的非官方實(shí)現(xiàn)的框架,審視其數(shù)據(jù)集格式,以及調(diào)試效果,進(jìn)行微調(diào)。 最終基于liucongg/ChatGLM-Finetuning開

    2024年03月16日
    瀏覽(21)
  • 聊聊ShareGPT格式的微調(diào)數(shù)據(jù)集

    聊聊ShareGPT格式的微調(diào)數(shù)據(jù)集

    轉(zhuǎn)載請(qǐng)注明住處:https://www.cnblogs.com/zhiyong-ITNote ShareGPT格式的數(shù)據(jù)集中,一般是如下格式: function_call 表示函數(shù)調(diào)用,什么是函數(shù)調(diào)用?其作用是什么? 由于大模型的數(shù)據(jù)一般都是截止于某個(gè)時(shí)間點(diǎn)之前的數(shù)據(jù),不具備實(shí)時(shí)性。比如,我要問今天的天氣,正常來說,由于模型

    2024年03月25日
    瀏覽(16)
  • 聊聊ChatGLM-6B部署與微調(diào)的深入理解

    聊聊ChatGLM-6B部署與微調(diào)的深入理解

    ChatGLM的部署,主要是兩個(gè)步驟: 在Github上下載chatglm的庫文件 在Hugging Face上下載模型參數(shù)與配置文件 從Github上看ChatGLM項(xiàng)目文件的結(jié)構(gòu)來看,僅僅是包含三種部署方式的py代碼與微調(diào)的py代碼 而相關(guān)的實(shí)現(xiàn)細(xì)節(jié),比如神經(jīng)網(wǎng)絡(luò)、激活函數(shù)、損失函數(shù)等具體的實(shí)現(xiàn),并不在該項(xiàng)

    2024年02月03日
    瀏覽(35)
  • AIGC - 生成模型及其應(yīng)用

    AIGC - 生成模型及其應(yīng)用

    生成式人工智能 ( Generative Artificial Intelligence , GAI ) 是一種人工智能方法,旨在通過學(xué)習(xí)訓(xùn)練數(shù)據(jù)的分布模型來生成新的、原創(chuàng)的數(shù)據(jù)。人工智能生成內(nèi)容 ( Artificial Intelligence Generated Content , AIGC ) 是生成式人工智能的一個(gè)具體應(yīng)用和實(shí)現(xiàn)方式,是指利用人工智能技術(shù)生成各種形

    2024年02月10日
    瀏覽(16)
  • 開源模型應(yīng)用落地-qwen1.5-7b-chat-LoRA微調(diào)(二)

    ????????預(yù)訓(xùn)練模型提供的是通用能力,對(duì)于某些特定領(lǐng)域的問題可能不夠擅長(zhǎng),通過微調(diào)可以讓模型更適應(yīng)這些特定領(lǐng)域的需求,讓它更擅長(zhǎng)解決具體的問題。 ? ? ? ? 本篇是開源模型應(yīng)用落地-qwen-7b-chat-LoRA微調(diào)(一)進(jìn)階篇,學(xué)習(xí)通義千問最新1.5系列模型的微調(diào)方式

    2024年04月09日
    瀏覽(31)
  • 開源模型應(yīng)用落地-qwen1.5-7b-chat-LoRA微調(diào)代碼拆解

    ? ? 本篇文章將解析 QWen1.5 系列模型的微調(diào)代碼,幫助您理解其中的關(guān)鍵技術(shù)要點(diǎn)。通過閱讀本文,您將能夠更好地掌握這些關(guān)鍵技術(shù),并應(yīng)用于自己的項(xiàng)目中。 ? ??開源模型應(yīng)用落地-qwen1.5-7b-chat-LoRA微調(diào)(二) ? ? LoRA (Low-Rank Adaptation) 用于微調(diào)大型語言模型 (LLM)。 ?是一

    2024年04月13日
    瀏覽(27)
  • 聊聊基于AI模型MGeo實(shí)現(xiàn)行政區(qū)識(shí)別

    從現(xiàn)今與今后的發(fā)展來看,單一的業(yè)務(wù)不再僅僅依靠于傳統(tǒng)的技術(shù)開發(fā),而是應(yīng)該結(jié)合AI模型來應(yīng)用、實(shí)踐。只有這樣,才能更數(shù)智化,更高效化,更貼合時(shí)代的發(fā)展。 魔塔 社區(qū)就類似國外的Hugging Face,是一個(gè)模型即服務(wù)的運(yùn)行平臺(tái)。在這個(gè)平臺(tái)上運(yùn)行著很多的大模型示例,

    2024年02月05日
    瀏覽(18)
  • 聊聊ChatGLM6B的微調(diào)腳本及與Huggingface的關(guān)聯(lián)

    聊聊ChatGLM6B的微調(diào)腳本及與Huggingface的關(guān)聯(lián)

    本文首先分析微調(diào)腳本trainer.sh的內(nèi)容,再剖析ChatGLM是如何與Huggingface平臺(tái)對(duì)接,實(shí)現(xiàn)transformers庫的API直接調(diào)用ChatGLM模型,最后定位到了ChatGLM模型的源碼文件。 微調(diào)腳本: 腳本配置項(xiàng)分析: PRE_SEQ_LEN=128 : 定義了序列長(zhǎng)度為128。這個(gè)參數(shù)通常用于設(shè)置輸入序列的最大長(zhǎng)度。

    2024年02月03日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包