国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

這篇具有很好參考價(jià)值的文章主要介紹了訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

OpenAI終于下定決心——正式開(kāi)放ChatGPT API!

ChatGPT API地址:https://platform.openai.com/docs/guides/chat

gpt-3.5-turbo的新模型
OpenAI正式打開(kāi)了官方的ChatGPT API,為廣大開(kāi)發(fā)者打開(kāi)了新的大門(mén)。

微調(diào)(Fine-tuning)

官方文檔地址:OpenAI API

對(duì)于ChatGPT的表現(xiàn),大家都已經(jīng)感受到他的驚艷了,在試用之余,我們想該如何個(gè)性化為你使用或者為企業(yè)使用,那就不得不提到他的微調(diào)功能。

fine-tune 是指在一個(gè)已經(jīng)訓(xùn)練好的模型上,再利用新的數(shù)據(jù)進(jìn)行微調(diào),以達(dá)到更好的適應(yīng)性。在自然語(yǔ)言處理領(lǐng)域中,fine-tune 主要應(yīng)用于語(yǔ)言模型,通常是在預(yù)訓(xùn)練模型的基礎(chǔ)上,利用一定規(guī)模的新數(shù)據(jù)集對(duì)模型進(jìn)行微調(diào),以適應(yīng)特定任務(wù)的要求。

舉個(gè)例子,假設(shè)有一個(gè)預(yù)訓(xùn)練好的文本生成模型,可以根據(jù)給定的前綴生成一段連貫的文本。但是這個(gè)模型可能并不適用于特定的業(yè)務(wù)場(chǎng)景,例如醫(yī)療問(wèn)答。此時(shí),我們可以利用一定規(guī)模的醫(yī)療問(wèn)答數(shù)據(jù)集對(duì)這個(gè)模型進(jìn)行 fine-tune,以使其更好地適應(yīng)醫(yī)療問(wèn)答場(chǎng)景,生成更貼合實(shí)際需求的文本。

fine-tune 的好處在于,不需要從頭訓(xùn)練一個(gè)模型,因?yàn)轭A(yù)訓(xùn)練模型已經(jīng)具有較好的語(yǔ)言建模能力,并且已經(jīng)包含了大量的語(yǔ)言知識(shí)。我們只要把業(yè)務(wù)數(shù)據(jù)集導(dǎo)進(jìn)去,再進(jìn)行訓(xùn)練即可。

微調(diào)的步驟

  1. 準(zhǔn)備和上傳訓(xùn)練數(shù)據(jù)
  2. 訓(xùn)練新的微調(diào)模型
  3. 使用微調(diào)模型

哪些模型可以微調(diào)?

微調(diào)目前僅適用于以下基本型號(hào):davinci? curie? babbage? ada? ?text-davinci-003。

還沒(méi)去嘗試最新開(kāi)放的ChatGPT同款模型gpt-3.5-turbo的新模型是否支持微調(diào)。

開(kāi)始實(shí)操

1.python3環(huán)境準(zhǔn)備

對(duì)OpenAI的模型進(jìn)行微調(diào),需要具備python3環(huán)境。(以Mac電腦全新安裝為例)

1.1先對(duì)brew更新

brew update

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

注意,我第一次運(yùn)行失敗了,說(shuō)是訪問(wèn)不到github的倉(cāng)庫(kù),所以又操作了一次就可以了。

1.2安裝python3-注意安裝過(guò)程比較長(zhǎng),我安裝了十幾分鐘

brew install python3

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?-注意安裝過(guò)程比較長(zhǎng),我安裝了十幾分鐘。要有耐心

1.3繼續(xù)安裝pip

此時(shí)執(zhí)行官方的命令會(huì)報(bào)錯(cuò)如下:

zsh: command not found: pip

先下載:

curl https://bootstrap.pypa.io/pip/get-pip.py -o get-pip.py

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

用python3來(lái)安裝

sudo python3 get-pip.py

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型?安裝完后驗(yàn)證

pip -V

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

1.4安裝pandas

這步也是必須的,不然后面會(huì)報(bào)錯(cuò),提示缺少pandas。

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

安裝命令:

pip install pandas

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型?這樣準(zhǔn)備工作就做完了,可以安裝OpenAI的官方文檔進(jìn)行操作啦。

2.OpenAI環(huán)境準(zhǔn)備

2.1安裝工具

pip install --upgrade openai

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?2.2準(zhǔn)備一個(gè)自己的語(yǔ)料庫(kù)

我在硬盤(pán)上新建了一個(gè)1.json的文件,內(nèi)容如下:

{"prompt": "你是誰(shuí)", "completion": "我是唯一客服小助手"}
{"prompt": "你會(huì)做什么", "completion": "我能幫你解答使用唯一客服時(shí)的問(wèn)題"}

2.3設(shè)置環(huán)境變量-需要把OpenAI的api的key設(shè)置進(jìn)去

export OPENAI_API_KEY="自己的key"

2.4由OpenAI的工具對(duì)這個(gè)文件進(jìn)行格式化

openai tools fine_tunes.prepare_data -f 本地的json文件路徑

我的示例:?

openai tools fine_tunes.prepare_data -f /Users/szz/app/1.json

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

翻譯一下:

正在分析。。。
?
-根據(jù)您的文件擴(kuò)展名,您提供了一個(gè)文本文件
-您的文件包含3個(gè)提示完成對(duì)。一般來(lái)說(shuō),我們建議至少有幾百個(gè)例子。我們發(fā)現(xiàn),示例數(shù)量每增加一倍,性能就會(huì)線性增加
-“completion”列/鍵不應(yīng)包含空字符串。這些是行:[2]
-所有完成都以前綴“{”prompt“:”開(kāi)頭你`. 大多數(shù)情況下,您應(yīng)該只將輸出數(shù)據(jù)添加到完成中,而不添加任何前綴
-完成應(yīng)該以空白字符(``)開(kāi)頭。由于我們使用的標(biāo)記化,這往往會(huì)產(chǎn)生更好的結(jié)果??匆?jiàn)https://beta.openai.com/docs/guides/fine-tuning/preparing-your-dataset有關(guān)詳細(xì)信息
?
根據(jù)分析,我們將采取以下措施:
-[必要]您的格式“TXT”將轉(zhuǎn)換為“JSONL”`
-[必要]刪除1行空白完成符
-[推薦]刪除前綴“{”prompt“:”你` 來(lái)自所有完成[Y/n]:
-[推薦]在完成開(kāi)頭添加空白字符[Y/n]:
?
您的數(shù)據(jù)將寫(xiě)入新的JSONL文件。繼續(xù)[Y/n]:
?
將修改后的文件寫(xiě)入`/tmp/json_prepared.jsonl`
隨便看一看!
現(xiàn)在在微調(diào)時(shí)使用該文件:
>openai api fine_tunes.create-t“/tmp/jsonprepared.jsonl”
確保包含`stop=[“”}“]`,以便生成的文本在預(yù)期位置結(jié)束。
一旦你的模型開(kāi)始訓(xùn)練,訓(xùn)練一個(gè)“curie”模型大約需要2.47分鐘,而“ada”和“babbage”則需要更少的時(shí)間。在您之前,每個(gè)作業(yè)排隊(duì)大約需要半小時(shí)。?

這個(gè)工具會(huì)把你提供的json文件進(jìn)行格式化,格式化后的文件后綴名為jsonl,文件跟你提供的json文件放在同一個(gè)目錄下面。

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?內(nèi)容為:

{"prompt":"你是誰(shuí) ->","completion":" 我是唯一客服小助手\n"}
{"prompt":"你會(huì)做什么 ->","completion":" 我能幫你解答使用唯一客服時(shí)的問(wèn)題\n"}

可以看到跟你提供的原始文件略有差別。

3.OpenAI開(kāi)始訓(xùn)練

3.1創(chuàng)建一個(gè)微調(diào)模型

基于達(dá)芬奇模型,創(chuàng)建一個(gè)自己的模型,只有幾種模型可以訓(xùn)練:

ada,?babbage,?curie, davinci

openai api fine_tunes.create -t 數(shù)據(jù)文件路徑 -m 基礎(chǔ)模型

我的示例:?

openai api fine_tunes.create -t /Users/szz/app/1_prepared.jsonl -m davinci

這時(shí)候有可能報(bào)錯(cuò),說(shuō)沒(méi)有找到你的OpenAI的key,那你就再執(zhí)行一次export命令

報(bào)錯(cuò):

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

成功:訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

這個(gè)時(shí)候請(qǐng)耐心等待幾分鐘或者幾個(gè)小時(shí),根據(jù)你的文本大小不同而定,官方說(shuō)最大可以1GB的文件。

3.2列出所有微調(diào)任務(wù)的列表

openai api fine_tunes.list

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?可以看到狀態(tài)是pending~訓(xùn)練中。。。

?3.3查看微調(diào)任務(wù)的狀態(tài)

ID就是上面列表的ID,可以看到正在運(yùn)行中

openai api fine_tunes.get -i 任務(wù)ID
openai api fine_tunes.get -i ft-K2iPDoch4D3Aj2fkGATUKXeM

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?3.4訓(xùn)練完成

當(dāng)任務(wù)完成以后,fine_tuned_model 字敦會(huì)有模型名稱(chēng),狀態(tài)顯示為綠色的successed。

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

?后面就可以使用這個(gè)模型了,可以看到模型名稱(chēng)。

3.5使用模型

openai api completions.create -m  模型名稱(chēng)  -p 提示

注意: 由于訓(xùn)練集過(guò)小,而已使用的是達(dá)芬奇的模型,所以訓(xùn)練完的數(shù)據(jù)集沒(méi)那么好用。我問(wèn)了ChatGPT的,他給的答復(fù)如下:

ChatGPT:
你的數(shù)據(jù)集非常小,這可能是你不太好用的原因之一。一個(gè)合適大小的數(shù)據(jù)集對(duì)于fine-tuning是非常重要的,因?yàn)樵趂ine-tuning過(guò)程中,模型需要學(xué)習(xí)如何將原始語(yǔ)言數(shù)據(jù)映射到特定任務(wù)的語(yǔ)言表示。當(dāng)你的數(shù)據(jù)集很小的時(shí)候,模型可能會(huì)在數(shù)據(jù)中找到一些不相關(guān)的模式,這可能導(dǎo)致不合適的輸出。

此外,OpenAI的達(dá)芬奇模型可以生成各種各樣的內(nèi)容,包括一些不適當(dāng)?shù)膬?nèi)容。為了減少不適當(dāng)內(nèi)容的生成,你需要更多的控制生成的過(guò)程。你可以使用一些技巧,例如給生成器提供更具體的上下文或者采用一些生成策略來(lái)控制生成結(jié)果。

最后,你可以嘗試使用更大的模型來(lái)進(jìn)行fine-tuning,這樣模型就可以更好地處理復(fù)雜的任務(wù)和語(yǔ)言數(shù)據(jù),從而提高生成結(jié)果的質(zhì)量。

?Q:如何給生成器提供更具體的上下文或者采用一些生成策略來(lái)控制生成結(jié)果?

提供更具體的上下文可以通過(guò)為生成器提供更多的輸入文本來(lái)實(shí)現(xiàn),這些文本可以是與要生成的內(nèi)容相關(guān)的信息。例如,如果要生成一個(gè)關(guān)于烹飪的段落,可以提供一些有關(guān)食材、烹飪工具、做法等方面的信息,以便生成器可以更好地理解要生成的內(nèi)容。

采用生成策略來(lái)控制生成結(jié)果可以有多種方法,其中一些包括:

  1. 預(yù)設(shè)模板:提前準(zhǔn)備好一些生成模板,通過(guò)將生成內(nèi)容嵌入這些模板中來(lái)實(shí)現(xiàn)控制生成結(jié)果的目的。

  2. 調(diào)整生成器參數(shù):調(diào)整生成器的參數(shù),如溫度、抽樣方法等,以控制生成結(jié)果的多樣性和準(zhǔn)確性。

  3. 過(guò)濾生成結(jié)果:使用一些自然語(yǔ)言處理技術(shù),如關(guān)鍵詞提取、命名實(shí)體識(shí)別等,對(duì)生成的結(jié)果進(jìn)行過(guò)濾,保留符合要求的內(nèi)容。

4.拾遺

4.1在PlayGroud查看并測(cè)試你自己創(chuàng)建的模型

OpenAI API

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

你自己訓(xùn)練好的模型會(huì)出現(xiàn)在這個(gè)位置。

4.2訓(xùn)練費(fèi)用問(wèn)題

訓(xùn)練模型是要收費(fèi)的,會(huì)從給你的18美元配額中扣除,但只要你的數(shù)據(jù)集不是很大,扣的錢(qián)都很少,我昨天扣了0.12美元。但需要注意的是,扣完錢(qián)或者在三個(gè)月到期后,你的配額會(huì)被清空,你可以設(shè)置你的付款賬號(hào),然后就會(huì)送你120美元的配額了。

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型

訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型


————————————————
參考鏈接:

開(kāi)發(fā)自己私有chatGPT(五)訓(xùn)練微調(diào)openai模型_小紅帽2.0的博客-CSDN博客微調(diào)了解如何為應(yīng)用程序自定義模型。介紹通過(guò)微調(diào),您可以通過(guò)提供以下內(nèi)容從通過(guò) API 提供的模型中獲得更多收益:比提示設(shè)計(jì)更高質(zhì)量的結(jié)果能夠訓(xùn)練比提示所能容納的更多示例由于提示時(shí)間較短,可以節(jié)省token更低的延遲請(qǐng)求GPT-3 已經(jīng)對(duì)來(lái)自開(kāi)放互聯(lián)網(wǎng)的大量文本進(jìn)行了預(yù)訓(xùn)練。當(dāng)給出一個(gè)只有幾個(gè)例子的提示時(shí),它通??梢灾庇^地判斷你正在嘗試執(zhí)行什么任務(wù)并生成一個(gè)合理的完成。...https://blog.csdn.net/taoshihan/article/details/129036452

開(kāi)發(fā)自己私有chatGPT(六)訓(xùn)練自己的chatGPT openai模型,微調(diào)模型,列出微調(diào)任務(wù),使用自定義模型教程..._小紅帽2.0的博客-CSDN博客在開(kāi)發(fā)私有chatGPT的時(shí)候,如果我們使用官方的基礎(chǔ)模型,那么回答的問(wèn)題可能不符合我們自己的預(yù)設(shè)答案現(xiàn)在就是通過(guò)官方的訓(xùn)練方法,提供一部分?jǐn)?shù)據(jù)進(jìn)去,訓(xùn)練出自己的私有模型按照工具pip install --upgrade openai設(shè)置環(huán)境變量export OPENAI_API_KEY="自己的key"準(zhǔn)備本地?cái)?shù)據(jù){"prompt": "你是誰(shuí)", "complet...https://blog.csdn.net/taoshihan/article/details/129053834文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-456727.html

到了這里,關(guān)于訓(xùn)練自己的ChatGPT-OpenAI 微調(diào)模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • OpenAI全球招外包大軍,手把手訓(xùn)練ChatGPT取代碼農(nóng) ; 碼農(nóng):我自己「殺」自己

    OpenAI全球招外包大軍,手把手訓(xùn)練ChatGPT取代碼農(nóng) ; 碼農(nóng):我自己「殺」自己

    目錄 前言 OpenAI招了一千多名外包人員,訓(xùn)練AI學(xué)會(huì)像人類(lèi)一樣一步步思考。如果ChatGPT「學(xué)成歸來(lái)」,碼農(nóng)恐怕真的危了? 碼農(nóng)真的危了! 當(dāng)時(shí)OpenAI也說(shuō),ChatGPT最合適的定位,應(yīng)該是編碼輔助工具。 用ChatGPT來(lái)debug,效果拔群 ChatGPT有一個(gè)強(qiáng)大的優(yōu)勢(shì):我們可以在對(duì)話中與系

    2024年02月12日
    瀏覽(18)
  • GPT實(shí)戰(zhàn)系列-如何用自己數(shù)據(jù)微調(diào)ChatGLM2模型訓(xùn)練

    廣告文案生成模型 輸入文字 :類(lèi)型#裙 顏色#藍(lán)色 風(fēng)格#清新*圖案#蝴蝶結(jié) 輸出文案 :裙身處采用立體蝴蝶結(jié)裝飾輔以藍(lán)色條帶點(diǎn)綴,令衣身造型飽滿富有層次的同時(shí)為其注入一絲甜美氣息。將女孩清新嬌俏的一面襯托而出。 訓(xùn)練和測(cè)試數(shù)據(jù)組織: 數(shù)據(jù)可以從 下載鏈接,t

    2024年02月06日
    瀏覽(18)
  • 快速訓(xùn)練自己的大語(yǔ)言模型:基于LLAMA-7B的lora指令微調(diào)

    快速訓(xùn)練自己的大語(yǔ)言模型:基于LLAMA-7B的lora指令微調(diào)

    前言: 系統(tǒng):ubuntu 18.04 顯卡:A100-80G(蹭的,嘿嘿~) (本次主要記錄如何快速進(jìn)行大模型的指令微調(diào)) 地址:https://github.com/Lightning-AI/lit-llama 切換到工程目錄 使用pip安裝依賴(lài)庫(kù) (當(dāng)然,這里可能會(huì)遇到網(wǎng)絡(luò)問(wèn)題,安裝不了lightning) 可使用以下方式安裝: 下載lightning工程

    2024年02月11日
    瀏覽(25)
  • 基于chatGLM-6B模型預(yù)訓(xùn)練,添加自己的數(shù)據(jù)集微調(diào)(linux版)(ptuning & lora)

    基于chatGLM-6B模型預(yù)訓(xùn)練,添加自己的數(shù)據(jù)集微調(diào)(linux版)(ptuning & lora)

    目錄 準(zhǔn)備工作 安裝7z ptuning預(yù)訓(xùn)練 ChatGLM-6B-Ptuning.7z 懶人包下載 上傳文件并解壓縮 拉取依賴(lài) 進(jìn)行訓(xùn)練 啟動(dòng)服務(wù) 注意事項(xiàng)(攬睿星舟云算力平臺(tái)) lora預(yù)訓(xùn)練 chatGLM-All-In-One.7z 懶人包下載 上傳文件并解壓縮 拉取依賴(lài) 進(jìn)行訓(xùn)練 啟動(dòng)服務(wù) 注意事項(xiàng)(攬睿星舟云算力平臺(tái)) 展示

    2024年02月07日
    瀏覽(24)
  • ChatGPT如何訓(xùn)練自己的模型

    ChatGPT是一種自然語(yǔ)言處理模型,它的任務(wù)是生成自然流暢的對(duì)話。如果想要訓(xùn)練自己的ChatGPT模型,需要進(jìn)行大量的數(shù)據(jù)收集、預(yù)處理、配置訓(xùn)練環(huán)境、模型訓(xùn)練、模型評(píng)估等過(guò)程。本文將詳細(xì)介紹這些過(guò)程,幫助讀者了解如何訓(xùn)練一個(gè)高品質(zhì)的ChatGPT模型。 1. 收集數(shù)據(jù) Chat

    2024年02月06日
    瀏覽(27)
  • 訓(xùn)練自己的ChatGPT 語(yǔ)言模型(一).md

    訓(xùn)練自己的ChatGPT 語(yǔ)言模型(一).md

    為什么研究這個(gè)? ChatGPT在國(guó)內(nèi)外都受到了廣泛關(guān)注,很多高校、研究機(jī)構(gòu)和企業(yè)都計(jì)劃推出類(lèi)似的模型。然而,ChatGPT并沒(méi)有開(kāi)源,且復(fù)現(xiàn)難度非常大,即使到現(xiàn)在,沒(méi)有任何單位或企業(yè)能夠完全復(fù)現(xiàn)GPT3的能力。最近,OpenAI發(fā)布了GPT4模型,它支持圖文多模態(tài),相較于ChatGPT,

    2024年02月11日
    瀏覽(24)
  • OpenAI-ChatGPT最新官方接口《微調(diào)ChatGPT模型》全網(wǎng)最詳細(xì)中英文實(shí)用指南和教程,助你零基礎(chǔ)快速輕松掌握全新技術(shù)(四)(附源碼)

    OpenAI-ChatGPT最新官方接口《微調(diào)ChatGPT模型》全網(wǎng)最詳細(xì)中英文實(shí)用指南和教程,助你零基礎(chǔ)快速輕松掌握全新技術(shù)(四)(附源碼)

    Fine-tuning 微調(diào)模型 Learn how to customize a model for your application. 了解如何為應(yīng)用程序自定義模型。 ChatGPT可以幫助用戶使用自己的語(yǔ)料集來(lái)訓(xùn)練出一個(gè)更加適用于用戶使用場(chǎng)景的準(zhǔn)確、可靠的自然語(yǔ)言模型。 ChatGPT的微調(diào)模型技術(shù)主要通過(guò)將先前預(yù)訓(xùn)練過(guò)的語(yǔ)言模型(如GPT-3.5)作

    2024年02月04日
    瀏覽(29)
  • 開(kāi)箱即用的ChatGPT替代模型,還可訓(xùn)練自己數(shù)據(jù)

    開(kāi)箱即用的ChatGPT替代模型,還可訓(xùn)練自己數(shù)據(jù)

    OpenAI 是第一個(gè)在該領(lǐng)域取得重大進(jìn)展的公司,并且使圍繞其服務(wù)構(gòu)建抽象變得更加容易。 然而,便利性帶來(lái)了集中化、通過(guò)中介的成本、數(shù)據(jù)隱私和版權(quán)問(wèn)題。 而數(shù)據(jù)主權(quán)和治理是這些新的LLM服務(wù)提供商如何處理商業(yè)秘密或敏感信息的首要問(wèn)題,用戶數(shù)據(jù)已被用于預(yù)訓(xùn)練以

    2023年04月23日
    瀏覽(25)
  • 【ChatGPT】預(yù)訓(xùn)練模型微調(diào)及其應(yīng)用(ChatGLM-6B、duckduckgo_search、GPT在科研的應(yīng)用等)

    【ChatGPT】預(yù)訓(xùn)練模型微調(diào)及其應(yīng)用(ChatGLM-6B、duckduckgo_search、GPT在科研的應(yīng)用等)

    instructGPT(基于提示學(xué)習(xí)的系列模型)——GPT3.5(大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型)——ChatGPT模型(高質(zhì)量數(shù)據(jù)標(biāo)注+反饋學(xué)習(xí))。chatGPT三大技術(shù):情景學(xué)習(xí)、思維鏈、自然指令學(xué)習(xí)。 GPT4飛躍式提升:多模態(tài)、輸入字符數(shù)量、推理能力、文本創(chuàng)造,如poem、解釋圖片含義、圖表計(jì)算等

    2023年04月16日
    瀏覽(36)
  • ChatGPT進(jìn)階:利用Fine-tuning訓(xùn)練自己的模型

    ChatGPT是“大力出奇跡”的經(jīng)典表現(xiàn),大模型給ChatGPT帶來(lái)了驚人的智能,但是要訓(xùn)練這樣的大模型,可是十分燒錢(qián)的,根據(jù)OpenAI給出的數(shù)據(jù),1700億參數(shù)的Davinci模型從頭訓(xùn)練一遍,大概需要耗時(shí)3個(gè)月,耗資150萬(wàn)美元。那我們普通人或者小公司面對(duì)這個(gè)高門(mén)檻,對(duì)自定義模型是

    2024年02月17日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包