国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

llamafactory:unified efficient fine-tuning of 100+ lanuage models

這篇具有很好參考價值的文章主要介紹了llamafactory:unified efficient fine-tuning of 100+ lanuage models。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.introduction

llamafactory由三個主要模塊組成,Model Loader,Data Worker,Trainer。

2.Efficient fine-tuning techniques

llamafactory:unified efficient fine-tuning of 100+ lanuage models,大語言模型,深度學(xué)習(xí),人工智能,語言模型

2.1 Efficient Optimization

凍結(jié)微調(diào):凍結(jié)大部分參數(shù),同時只在一小部分解碼器層中微調(diào)剩余參數(shù),GaLore將梯度投影到低維空間,以內(nèi)存高效的方法實現(xiàn)全參數(shù)學(xué)習(xí);相反,Lora凍結(jié)所有的預(yù)訓(xùn)練權(quán)重,并在指定層中引入一對可訓(xùn)練的低秩矩陣,當(dāng)與量化結(jié)合時,稱之為QLora。

2.2 Efficient Computation

3.LLamafactory framework

llamafactory:unified efficient fine-tuning of 100+ lanuage models,大語言模型,深度學(xué)習(xí),人工智能,語言模型

3.1 ModelLoader

3.1.1 Initialization

使用transformers的AutoModel API加載模型并初始化參數(shù),為了使框架兼容不同模型架構(gòu),建立了一個模型注冊表,存儲每層的類型,從而更方便的使用高效的微調(diào)技術(shù),當(dāng)word embedding的詞匯大小超過tokenizer的容量時,會調(diào)整層的大小,并使用噪聲均值初始化新參數(shù),為了計算RoPE縮放的縮放因子,計算了輸入序列長度的最大值與模型的上下文長度的比率。

3.1.2 Patches

為了啟用flash-attention和s2-attention,使用monkey patch替換模型的前向計算。

3.1.3 Quantization

3.1.4 Adapter

PEFT

3.2 Data worker

構(gòu)建了一個數(shù)據(jù)處理流程,包括數(shù)據(jù)加載,數(shù)據(jù)對齊,數(shù)據(jù)合并和預(yù)處理。將不同任務(wù)數(shù)據(jù)標(biāo)準(zhǔn)化為統(tǒng)一格式。

llamafactory:unified efficient fine-tuning of 100+ lanuage models,大語言模型,深度學(xué)習(xí),人工智能,語言模型

3.3 Trainer

Lora/GaLore,訓(xùn)練方法與Trainer獨立,使用transformers進行pt和sft,trl進行rlhf和dpo,

3.4 Utilities

transformer和vllm進行輸出,實現(xiàn)了openai風(fēng)格的api。

4.Empirical study

4.1 Training efficiency

PubMed數(shù)據(jù)集,包括3600w數(shù)據(jù),提取大約40w token來構(gòu)建訓(xùn)練樣本,

llamafactory:unified efficient fine-tuning of 100+ lanuage models,大語言模型,深度學(xué)習(xí),人工智能,語言模型

llamafactory:unified efficient fine-tuning of 100+ lanuage models,大語言模型,深度學(xué)習(xí),人工智能,語言模型文章來源地址http://www.zghlxwxcb.cn/news/detail-851404.html

到了這里,關(guān)于llamafactory:unified efficient fine-tuning of 100+ lanuage models的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Fine-tuning:個性化AI的妙術(shù)

    一、什么是大模型 ChatGPT大模型今年可謂是大火,在正式介紹大模型微調(diào)技術(shù)之前,為了方便大家理解,我們先對大模型做一個直觀的抽象。 本質(zhì)上,現(xiàn)在的大模型要解決的問題,就是一個序列數(shù)據(jù)轉(zhuǎn)換的問題: 輸入序列 X = [x1, x2, ..., xm], 輸出序列Y = [y1, y2, …, yn],X和Y之

    2024年01月17日
    瀏覽(24)
  • 對 ChatGLM-6B 做 LoRA Fine-tuning

    ChatGLM-6B 是一個支持中英雙語的對話語言模型,基于 GLM (General Language Model)。它只有 62 億個參數(shù),量化后最低 (INT4 量化) 只需要 6GB 的顯存,完全可以部署到消費級顯卡上。在實際使用這個模型一段時間以后,我們發(fā)現(xiàn)模型的對話表現(xiàn)能力確實非常不錯。那么,基于這個模型做

    2023年04月25日
    瀏覽(19)
  • ChatGPT進階:利用Fine-tuning訓(xùn)練自己的模型

    ChatGPT是“大力出奇跡”的經(jīng)典表現(xiàn),大模型給ChatGPT帶來了驚人的智能,但是要訓(xùn)練這樣的大模型,可是十分燒錢的,根據(jù)OpenAI給出的數(shù)據(jù),1700億參數(shù)的Davinci模型從頭訓(xùn)練一遍,大概需要耗時3個月,耗資150萬美元。那我們普通人或者小公司面對這個高門檻,對自定義模型是

    2024年02月17日
    瀏覽(24)
  • 一分鐘搞懂 微調(diào)(fine-tuning)和prompt

    大家都是希望讓預(yù)訓(xùn)練語言模型和下游任務(wù)靠的更近,只是實現(xiàn)的方式不一樣。Fine-tuning中:是預(yù)訓(xùn)練語言模型“遷就“各種下游任務(wù);Prompting中,是各種下游任務(wù)“遷就“預(yù)訓(xùn)練語言模型。 微調(diào)(fine-tuning)和prompt是自然語言處理領(lǐng)域中常用的兩個術(shù)語,它們都是指訓(xùn)練和

    2023年04月26日
    瀏覽(31)
  • 使用LoRA對大語言模型LLaMA做Fine-tune

    使用LoRA對大語言模型LLaMA做Fine-tune

    目前有大量對LLM(大語言模型)做 Fine-tune 的方式,不過需要消耗的資源非常高,例如 Stanford Alpaca: 對LLaMA-7B做Fine-tune,需要4顆A100 (80GB) GPU FastChat/Vicuna: 對LLaMA-7B做Fine-tune,需要4顆A100 (40GB) GPU 這種資源需求令普通的學(xué)習(xí)者望而卻步,使用 LoRA 則可以較好的解決這個問題 LoRA 全

    2024年02月09日
    瀏覽(22)
  • 深度學(xué)習(xí)概念(術(shù)語):Fine-tuning、Knowledge Distillation, etc

    這里的相關(guān)概念都是基于已有預(yù)訓(xùn)練模型,就是模型本身已經(jīng)訓(xùn)練好,有一定泛化能力。需要“再加工”滿足別的任務(wù)需求。 進入后GPT時代,對模型的Fine-tuning也將成為趨勢,借此機會,我來科普下相關(guān)概念。 有些人認為微調(diào)和訓(xùn)練沒有區(qū)別,都是訓(xùn)練模型,但是微調(diào)是在原

    2024年02月09日
    瀏覽(61)
  • openai模型個性化訓(xùn)練Embedding和fine-tuning區(qū)別

    現(xiàn)在基于自然語言和文檔進行對話的背后都是使用的基于嵌入的向量搜索。OpenAI在這方面做的很好,它的Cookbook(github.com/openai/openai-cookbook)上有很多案例,最近他們對文檔做了一些更新。 GPT擅長回答問題,但是只能回答它以前被訓(xùn)練過的問題,如果是沒有訓(xùn)練過的數(shù)據(jù),比如

    2024年02月15日
    瀏覽(23)
  • 對Stable Diffusion做fine-tune時遇見的bug

    ?由于我的顯卡比較垃圾(3050),加載模型時都用的 ?后來用下列方式保存模型: 報了錯: 在網(wǎng)上查到的各種方法都無法解決,折騰了一天后(想紫砂),又審視了一下這句話,意思是\\\"dtype\\\"這種類型不能JSON序列化,我的理解是,因為我的模型的dtype=float16,因此不能用這種方式

    2024年02月12日
    瀏覽(23)
  • OpenAI LLM 應(yīng)用最佳實踐:提示詞工程、Fine-Tune、RAG

    OpenAI LLM 應(yīng)用最佳實踐:提示詞工程、Fine-Tune、RAG

    一、背景 本文介紹了 2023 年 11 月 OpenAI DevDay 中的一個演講,演講者為 John Allard 和 Colin Jarvis。演講中,作者對 LLM 應(yīng)用落地過程中遇到的問題和相關(guān)改進方案進行了總結(jié)。雖然其中用到的都是已知的技術(shù),但是進行了很好的總結(jié)和串聯(lián),并探索了一條改進 LLM 應(yīng)用的切實可行

    2024年03月11日
    瀏覽(29)
  • Llama 2: Open Foundation and Fine-Tuned Chat Models

    Llama 2: Open Foundation and Fine-Tuned Chat Models

    Paper name Llama 2: Open Foundation and Fine-Tuned Chat Models Paper Reading Note Paper URL: https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/ Blog URL:https://huggingface.co/blog/llama2 Meta 出品的 Llama 續(xù)作 Llama2,一系列模型(7b、13b、70b)均開源可商用。Llama2 在各個榜單上精度全面

    2024年02月16日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包