国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

GPT的前世今生:從gpt1到chatgpt的能力提升

這篇具有很好參考價(jià)值的文章主要介紹了GPT的前世今生:從gpt1到chatgpt的能力提升。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

? ? ? ? 從2017年google?brain提出transformer模型,到2018年基于transformer模型open ai推出了gpt1模型以及google推出了bert模型,到2019-2021年open ai陸續(xù)推出gpt2和gpt3,再到2022-2023年推出chat-gpt和gpt4,大語(yǔ)言模型已經(jīng)發(fā)展成了一個(gè)具有3個(gè)大分支的參天大樹(shù)[LLM:大語(yǔ)言模型]。在這里主要寫(xiě)寫(xiě)關(guān)于gpt的那些事。

GPT發(fā)展路徑

GPT-1到GPT-3到ChatGPT

GPT的前世今生:從gpt1到chatgpt的能力提升,LLM,深度學(xué)習(xí)DeepLearning,chatgpt,gpt,人工智能

各GPT的技術(shù)路線:

GPT的前世今生:從gpt1到chatgpt的能力提升,LLM,深度學(xué)習(xí)DeepLearning,chatgpt,gpt,人工智能

各GPT的模型大?。?/p>

模型 發(fā)布時(shí)間 參數(shù)量 預(yù)訓(xùn)練數(shù)據(jù)量
GPT 2018 年 6 月 1.17 億 約 5GB
GPT-2 2019 年 2 月 15 億 40GB
GPT-3 2020 年 5 月 1,750 億 45TB

GPT-3.5 的進(jìn)化樹(shù):

GPT的前世今生:從gpt1到chatgpt的能力提升,LLM,深度學(xué)習(xí)DeepLearning,chatgpt,gpt,人工智能

Note:?圖中的幾個(gè)概念:

1 Instruction tuning 有兩個(gè)版本,一個(gè)是 supervised tuning,另一個(gè)是 reinforcement learning from human feedback (RLHF).

2?supervised instruction tuning 使用自然語(yǔ)言作為任務(wù)描述,而supervised fine tuning 使用固定格式或標(biāo)簽作為任務(wù)描述。supervised instruction tuning 的數(shù)據(jù)集包含指令、輸入和輸出三個(gè)部分,而supervised fine tuning 的數(shù)據(jù)集只包含輸入和輸出兩個(gè)部分。?

GPT-1、GPT-2和GPT-3模型

參考[GPT-1、GPT-2和GPT-3模型詳解]

codex:code-davinci-002

[論文:Evaluating Large Language Models Trained on Code]

InstructGPT

參考[InstructionGPT]

[論文:Training language models to follow instructions with human feedback]

ChatGPT

ChatGPT的博客中講到ChatGPT和InstructGPT的訓(xùn)練方式相同,不同點(diǎn)僅僅是它們采集數(shù)據(jù)上有所不同,但是并沒(méi)有更多的資料來(lái)講數(shù)據(jù)采集上有哪些細(xì)節(jié)上的不同。

考慮到ChatGPT僅僅被用在對(duì)話領(lǐng)域,猜測(cè)ChatGPT在數(shù)據(jù)采集上有兩個(gè)不同:1. 提高了對(duì)話類(lèi)任務(wù)的占比;2. 將提示的方式轉(zhuǎn)換Q&A的方式。

關(guān)于多輪對(duì)話

微調(diào)模型如?standard_alpaca,或者alpaca-lora,這些都是單輪的對(duì)話。對(duì)于多輪對(duì)話的模型,我們?cè)撛趺慈ソM織數(shù)據(jù)呢?

1 ?進(jìn)行對(duì)話推理的時(shí)候,歷史信息的處理和訓(xùn)練的時(shí)候是類(lèi)似的,維護(hù)一個(gè)列表叫做history。操作起來(lái)的時(shí)候,就是將歷史信息分別按照User和Assistant的角色拼起來(lái),再鑲嵌到模板里面,第一輪對(duì)話的時(shí)候,這個(gè)history是個(gè)空列表。[Chinese-Vicuna中的對(duì)話數(shù)據(jù)處理方式 - 知乎]

2?ChatGPT也可以使用記憶網(wǎng)絡(luò)(MemoryNetwork)等技術(shù)對(duì)對(duì)話歷史進(jìn)行編碼和表示,然后使用生成模型或分類(lèi)模型等方法進(jìn)行回復(fù)生成。

GPT-4

????????GPT-4(Generative Pre-trained Transformer 4)是 OpenAI 2023年發(fā)布的GPT 系列模型?[GPT-4 Technical Report]。它是一個(gè)大規(guī)模的多模態(tài)模型,可以接受圖像和文本輸入,產(chǎn)生文本輸出。輸出任務(wù)依舊是一個(gè)自回歸的單詞預(yù)測(cè)任務(wù)。

GPT-4的主要改進(jìn)和性能提升表現(xiàn)在以下幾個(gè)方面:

1 訓(xùn)練穩(wěn)定性和預(yù)測(cè)性能
GPT-4 的開(kāi)發(fā)經(jīng)歷了全面重建深度學(xué)習(xí)堆棧的過(guò)程,并與 Azure 共同設(shè)計(jì)了專(zhuān)門(mén)為其工作負(fù)載而優(yōu)化的超級(jí)計(jì)算機(jī)。通過(guò)將 GPT-3.5 視為系統(tǒng)的首次“試運(yùn)行”,OpenAI 發(fā)現(xiàn)并修復(fù)了一些錯(cuò)誤,改進(jìn)了理論基礎(chǔ)。這使得 GPT-4 的訓(xùn)練運(yùn)行非常穩(wěn)定,并成為他們首個(gè)能夠準(zhǔn)確預(yù)測(cè)訓(xùn)練性能的大型模型。OpenAI 還計(jì)劃持續(xù)專(zhuān)注于可靠的擴(kuò)展,以進(jìn)一步提高預(yù)測(cè)能力,為未來(lái)的應(yīng)用做好準(zhǔn)備。

2 模型性能
GPT-4 在許多專(zhuān)業(yè)和學(xué)術(shù)基準(zhǔn)測(cè)試中展現(xiàn)出了顯著的性能提升。舉例來(lái)說(shuō),GPT-4 在模擬律師資格考試中的成績(jī)超過(guò)了90%的考生,而 GPT-3.5 僅在后10%范圍內(nèi)。這表明 GPT-4 在解決復(fù)雜問(wèn)題、創(chuàng)造性寫(xiě)作等方面具備更高的可靠性和靈活性。

3 多模態(tài)能力
一個(gè)關(guān)鍵的改進(jìn)是 GPT-4 的多模態(tài)能力,即接受圖像和文本輸入,能夠結(jié)合圖像和文本信息生成更豐富的輸出,具有在圖像理解、圖像分類(lèi)和問(wèn)題回答等方面的能力。

4 安全性和可控性
通過(guò)引入對(duì)齊方案和加入額外的安全獎(jiǎng)勵(lì)信號(hào),提高了模型的安全性能。此外,OpenAI 還邀請(qǐng)了多位專(zhuān)家對(duì)模型進(jìn)行對(duì)抗測(cè)試,以發(fā)現(xiàn)并修復(fù)潛在的安全問(wèn)題,減少了生成有害內(nèi)容的風(fēng)險(xiǎn)。

5 模型架構(gòu)和訓(xùn)練方法
GPT-4 的架構(gòu)與之前的 GPT 模型相似,采用了 Transformer 的結(jié)構(gòu)。預(yù)訓(xùn)練階段使用了公開(kāi)可用的互聯(lián)網(wǎng)數(shù)據(jù)和第三方提供的數(shù)據(jù),并且在微調(diào)階段應(yīng)用了RLHF來(lái)微調(diào)。

6 引入了可預(yù)測(cè)的拓展
GPT-4 引入了一個(gè)可預(yù)測(cè)擴(kuò)展的深度學(xué)習(xí)棧,該棧能夠在不同的規(guī)模下表現(xiàn)出可預(yù)測(cè)的行為。通過(guò)開(kāi)發(fā)基礎(chǔ)設(shè)施和優(yōu)化方法,團(tuán)隊(duì)能夠在小規(guī)模模型上進(jìn)行實(shí)驗(yàn),并準(zhǔn)確地預(yù)測(cè)在大規(guī)模模型上的性能,提高了工作效率和模型性能。

官網(wǎng)說(shuō)明[GPT-4][GPT-4]

WebGPT

????????WebGPT 論文發(fā)表于2021年12月,讓 GPT 調(diào)用了搜索引擎。

[WebGPT: Improving the factual accuracy of language models through web browsing]

ChatGPT能力溯源

ChatGPT 是怎么變得這么強(qiáng)的?它強(qiáng)大的涌現(xiàn)能力(Emergent Ability)到底從何而來(lái)?

Note:?很多能力小模型沒(méi)有,只有當(dāng)模型大到一定的量級(jí)之后才會(huì)出現(xiàn)的能力稱(chēng)為Emergent Abilities。

OpenAI有一個(gè)獨(dú)特的先發(fā)優(yōu)勢(shì),它在2020年就開(kāi)放了GPT-3的接口,因此收集了大量的真實(shí)用戶(hù)提問(wèn)??梢灶A(yù)見(jiàn),隨著ChatGPT的商業(yè)化,OpenAI會(huì)逐步形成自己的數(shù)據(jù)生態(tài)循環(huán)。

初代 GPT-3(davinci)

初代 GPT-3(在 OpenAI API 中被稱(chēng)為davinci) [GPT-3]。一方面,它合理地回應(yīng)了某些特定的查詢(xún),并在許多數(shù)據(jù)集中達(dá)到了還不錯(cuò)的性能;另一方面,它在許多任務(wù)上的表現(xiàn)還不如 T5 這樣的小模型,它的能力與當(dāng)今的標(biāo)準(zhǔn)也形成了尖銳的對(duì)比。雖然初代的 GPT-3 可能表面上看起來(lái)很弱,但后來(lái)的實(shí)驗(yàn)證明,初代 GPT-3 有著非常強(qiáng)的潛力。這些潛力后來(lái)被代碼訓(xùn)練、指令微調(diào) (instruction tuning) 和基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí) (reinforcement learning with human feedback, RLHF) 解鎖,最終展示出極為強(qiáng)大的涌現(xiàn)能力。

初代GPT-3三個(gè)重要能力

  • 語(yǔ)言生成:遵循提示詞(prompt),然后生成補(bǔ)全提示詞的句子 (completion)
    • 能力來(lái)自于語(yǔ)言建模的訓(xùn)練目標(biāo) (language modeling)。
  • 世界知識(shí) (world knowledge):包括事實(shí)性知識(shí) (factual knowledge) 和常識(shí) (commonsense)
    • 世界知識(shí)來(lái)自 3000 億單詞的訓(xùn)練語(yǔ)料庫(kù)。模型的 1750 億參數(shù)是為了存儲(chǔ)知識(shí),Liang et al. (2022) 的文章進(jìn)一步證明了這一點(diǎn)。 他們的結(jié)論是,知識(shí)密集型任務(wù)的性能與模型大小息息相關(guān)。
  • 上下文學(xué)習(xí) (in-context learning): 遵循給定任務(wù)的幾個(gè)類(lèi)似的示例,然后為新的測(cè)試用例生成解決方案。上下文學(xué)習(xí)才是 GPT-3的真正重點(diǎn)
    • 能力來(lái)源及為什么上下文學(xué)習(xí)可以泛化仍然難以溯源。直覺(jué)上,這種能力可能來(lái)自于同一個(gè)任務(wù)的數(shù)據(jù)點(diǎn)在訓(xùn)練時(shí)按順序排列在同一個(gè) batch 中。然而,很少有人研究為什么語(yǔ)言模型預(yù)訓(xùn)練會(huì)促使上下文學(xué)習(xí),以及為什么上下文學(xué)習(xí)的行為與fine-tuning)如此不同。?

Codex:code-davinci-002

初始的 Codex 是根據(jù)(可能是內(nèi)部的,數(shù)據(jù)可能使用C4 的 2019-2021 版本)120 億參數(shù)的 GPT-3 變體進(jìn)行微調(diào)的,后來(lái)這個(gè) 120 億參數(shù)的模型演變成 OpenAI API 中的code-cushman-001。

在 2022 年 4 月至 7 月的,OpenAI 開(kāi)始對(duì)code-davinci-002模型進(jìn)行 Beta 測(cè)試,也稱(chēng)其為 Codex。Code-davinci-002 可能是第一個(gè)深度融合了代碼訓(xùn)練和指令微調(diào)的模型。

盡管 Codex 聽(tīng)著像是一個(gè)只管代碼的模型,但code-davinci-002可能是最強(qiáng)大的針對(duì)自然語(yǔ)言的GPT-3.5 變體(優(yōu)于 text-davinci-002和 -003)。

text-davinci-002

2022 年 5-6 月發(fā)布的text-davinci-002是一個(gè)基于code-davinci-002的有監(jiān)督指令微調(diào) (supervised instruction tuned) 模型,在以下數(shù)據(jù)上作了微調(diào):(一)人工標(biāo)注的指令和期待的輸出;(二)由人工標(biāo)注者選擇的模型輸出。

在code-davinci-002上面進(jìn)行指令微調(diào)很可能降低了模型的上下文學(xué)習(xí)能力,但是增強(qiáng)了模型的零樣本能力。- 當(dāng)有上下文示例 (in-context example) 的時(shí)候, Code-davinci-002 更擅長(zhǎng)上下文學(xué)習(xí);當(dāng)沒(méi)有上下文示例 / 零樣本的時(shí)候, text-davinci-002 在零樣本任務(wù)完成方面表現(xiàn)更好。從這個(gè)意義上說(shuō),text-davinci-002 更符合人類(lèi)的期待(因?yàn)閷?duì)一個(gè)任務(wù)寫(xiě)上下文示例可能會(huì)比較麻煩)。- OpenAI 不太可能故意犧牲了上下文學(xué)習(xí)的能力換取零樣本能力 —— 上下文學(xué)習(xí)能力的降低更多是指令學(xué)習(xí)的一個(gè)副作用,OpenAI 管這叫對(duì)齊稅。

第一版GPT3.5 模型的能力

code-davinci-002text-davinci-002,這兩兄弟是第一版的 GPT3.5 模型,一個(gè)用于代碼,另一個(gè)用于文本。它們表現(xiàn)出了四種與初代 GPT-3 不同的重要能力:

  • 響應(yīng)人類(lèi)指令:以前GPT-3 的輸出主要是訓(xùn)練集中常見(jiàn)的句子?,F(xiàn)在的模型會(huì)針對(duì)指令 / 提示詞生成更合理的答案(而不是相關(guān)但無(wú)用的句子)。
    • 能夠響應(yīng)人類(lèi)指令的能力是指令微調(diào)的直接產(chǎn)物。
  • 泛化到?jīng)]有見(jiàn)過(guò)的任務(wù): 這種能力對(duì)于上線部署至關(guān)重要,因?yàn)橛脩?hù)總會(huì)提新的問(wèn)題,模型得答得出來(lái)才行。
    • 當(dāng)用于調(diào)整模型的指令數(shù)量超過(guò)一定的規(guī)模時(shí),模型就可以自動(dòng)在從沒(méi)見(jiàn)過(guò)的新指令上也能生成有效的回答[T0、Flan 和 FlanPaLM 論文]。
  • 代碼生成和代碼理解:這個(gè)能力很顯然,因?yàn)槟P陀么a訓(xùn)練過(guò)。
  • 利用思維鏈 (chain-of-thought) 進(jìn)行復(fù)雜推理:思維鏈推理之所以重要,是因?yàn)樗季S鏈可能是解鎖涌現(xiàn)能力和超越縮放法則 (scaling laws) 的關(guān)鍵。[A Closer Look at Large Language Models Emergent Abilities]
    • 使用思維鏈進(jìn)行復(fù)雜推理的能力很可能是代碼訓(xùn)練的一個(gè)神奇的副產(chǎn)物,且代碼數(shù)據(jù)量足夠大(例如PaLM 有 5% 的代碼訓(xùn)練數(shù)據(jù))。
      • - 初代 GPT-3 沒(méi)有接受過(guò)代碼訓(xùn)練,它不能做思維鏈(能力很弱甚至沒(méi)有),而code-davinci-002 和 text-davinci-002 是兩個(gè)擁有足夠強(qiáng)的思維鏈推理能力的模型。
      • - text-davinci-001 模型雖然經(jīng)過(guò)了指令微調(diào),但思維鏈推理的能力非常弱,所以指令微調(diào)可能不是思維鏈存在的原因。區(qū)分代碼訓(xùn)練和指令微調(diào)效果的最好方法可能是比較 code-cushman-001、T5 和 FlanT5。
      • -?面向過(guò)程的編程 (procedure-oriented programming) 跟人類(lèi)逐步解決任務(wù)的過(guò)程很類(lèi)似,面向?qū)ο缶幊?(object-oriented programming) 跟人類(lèi)將復(fù)雜任務(wù)分解為多個(gè)簡(jiǎn)單任務(wù)的過(guò)程很類(lèi)似。
      • -?沒(méi)有非常確鑿的證據(jù)證明代碼就是思維鏈和復(fù)雜推理的原因。
    • 代碼訓(xùn)練另一個(gè)可能的副產(chǎn)品是長(zhǎng)距離依賴(lài),正如Peter Liu所指出:“語(yǔ)言中的下個(gè)詞語(yǔ)預(yù)測(cè)通常是非常局部的,而代碼通常需要更長(zhǎng)的依賴(lài)關(guān)系來(lái)做一些事情,比如前后括號(hào)的匹配或引用遠(yuǎn)處的函數(shù)定義”。這里我想進(jìn)一步補(bǔ)充的是:由于面向?qū)ο缶幊讨械念?lèi)繼承,代碼也可能有助于模型建立編碼層次結(jié)構(gòu)的能力。

text-davinci-003

text-davinci-003和 ChatGPT,它們都在 2022 年 11 月發(fā)布,是使用的基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)的版本指令微調(diào) 模型的兩種不同變體。

text-davinci-003 恢復(fù)了(但仍然比code-davinci-002差)一些在text-davinci-002 中丟失的部分上下文學(xué)習(xí)能力(大概是因?yàn)樗谖⒄{(diào)的時(shí)候混入了語(yǔ)言建模) 并進(jìn)一步改進(jìn)了零樣本能力(得益于RLHF)。

ChatGPT

ChatGPT 似乎犧牲了幾乎所有的上下文學(xué)習(xí)的能力來(lái)?yè)Q取建模對(duì)話歷史的能力(即chatgpt不需要你給這個(gè)任務(wù){(diào)對(duì)話}示例,我只在乎當(dāng)前對(duì)話歷史說(shuō)過(guò)什么即可)。

關(guān)于指令微調(diào)

完成code-davinci-002時(shí),所有的能力都已經(jīng)存在了。很可能后續(xù)的指令微調(diào),無(wú)論是通過(guò)有監(jiān)督指令微調(diào)還是RLHF,都會(huì)做以下事情:

  • 指令微調(diào)不會(huì)為模型注入新的能力 —— 作用是解鎖 / 激發(fā)這些能力。這主要是因?yàn)橹噶钗⒄{(diào)的數(shù)據(jù)量77K比預(yù)訓(xùn)練數(shù)據(jù)量少幾個(gè)數(shù)量級(jí)(基礎(chǔ)的能力是通過(guò)預(yù)訓(xùn)練注入的)。其他指令微調(diào)論文如 Chung et al. (2022) Flan-PaLM 的指令微調(diào)僅為預(yù)訓(xùn)練計(jì)算的 0.4%。
  • 指令微調(diào)將 GPT-3.5 的分化到不同的技能樹(shù)。有些更擅長(zhǎng)上下文學(xué)習(xí),如text-davinci-003,有些更擅長(zhǎng)對(duì)話,如ChatGPT。
  • 指令微調(diào)通過(guò)犧牲性能換取與人類(lèi)的對(duì)齊(alignment)。 OpenAI 的作者在他們的指令微調(diào)論文中稱(chēng)其為 “對(duì)齊稅” (alignment tax)。許多論文都報(bào)道了code-davinci-002在基準(zhǔn)測(cè)試中實(shí)現(xiàn)了最佳性能(但模型不一定符合人類(lèi)期望),進(jìn)行指令微調(diào)后模型可以生成更加符合人類(lèi)期待的反饋(或者說(shuō)模型與人類(lèi)對(duì)齊),例如:零樣本問(wèn)答、生成安全和公正的對(duì)話回復(fù)、拒絕超出模型它知識(shí)范圍的問(wèn)題。

關(guān)于RLHF

通過(guò)對(duì)比text-davinci-002和text-davinci-003/ChatGPT,可知大多數(shù)新模型的行為都是 RLHF 的產(chǎn)物。

RLHF 的作用是觸發(fā) / 解鎖涌現(xiàn)能力:

  • 翔實(shí)的回應(yīng): text-davinci-003 的生成通常比 text-davinci-002長(zhǎng)。 ChatGPT 的回應(yīng)則更加冗長(zhǎng),以至于用戶(hù)必須明確要求“用一句話回答我”,才能得到更加簡(jiǎn)潔的回答。這是 RLHF 的直接產(chǎn)物。
  • 公正的回應(yīng):ChatGPT 通常對(duì)涉及多個(gè)實(shí)體利益的事件(例如政治事件)給出非常平衡的回答。這也是RLHF的產(chǎn)物。
  • 拒絕不當(dāng)問(wèn)題:這是內(nèi)容過(guò)濾器和由 RLHF 觸發(fā)的模型自身能力的結(jié)合,過(guò)濾器過(guò)濾掉一部分,然后模型再拒絕一部分。
  • 拒絕其知識(shí)范圍之外的問(wèn)題:例如,拒絕在2021 年 6 月之后發(fā)生的新事件(因?yàn)樗鼪](méi)在這之后的數(shù)據(jù)上訓(xùn)練過(guò))。這是 RLHF 最神奇的部分,因?yàn)樗鼓P湍軌螂[式地區(qū)分哪些問(wèn)題在其知識(shí)范圍內(nèi),哪些問(wèn)題不在其知識(shí)范圍內(nèi)。

總結(jié)

  • 語(yǔ)言生成能力 + 基礎(chǔ)世界知識(shí) + 上下文學(xué)習(xí)都是來(lái)自于預(yù)訓(xùn)練(davinci
  • 存儲(chǔ)大量知識(shí)的能力來(lái)自 1750 億的參數(shù)量。
  • 遵循指令和泛化到新任務(wù)的能力來(lái)自于擴(kuò)大指令學(xué)習(xí)中指令的數(shù)量(Davinci-instruct-beta)
  • 執(zhí)行復(fù)雜推理的能力很可能來(lái)自于代碼訓(xùn)練(code-davinci-002
  • 生成中立、客觀的能力、安全和翔實(shí)的答案來(lái)自與人類(lèi)的對(duì)齊。具體來(lái)說(shuō):
    • 如果是監(jiān)督學(xué)習(xí)版,得到的模型是text-davinci-002
    • 如果是強(qiáng)化學(xué)習(xí)版 (RLHF) ,得到的模型是text-davinci-003
    • 無(wú)論是有監(jiān)督還是 RLHF ,模型在很多任務(wù)的性能都無(wú)法超過(guò) code-davinci-002 ,這種因?yàn)閷?duì)齊而造成性能衰退的現(xiàn)象叫做對(duì)齊稅。
  • 對(duì)話能力也來(lái)自于 RLHF(ChatGPT),具體來(lái)說(shuō)它犧牲了上下文學(xué)習(xí)的能力,來(lái)?yè)Q取:
    • 建模對(duì)話歷史
    • 增加對(duì)話信息量
    • 拒絕模型知識(shí)范圍之外的問(wèn)題

[拆解追溯 GPT-3.5 各項(xiàng)能力的起源]

GPT-3.5 目前不能做什么

GPT-3.5不具備的某些重要屬性:

  • 實(shí)時(shí)改寫(xiě)模型的信念:當(dāng)模型表達(dá)對(duì)某事的信念時(shí),如果該信念是錯(cuò)誤的,我們可能很難糾正它:
    • 例子:ChatGPT 堅(jiān)持認(rèn)為 3599 是一個(gè)質(zhì)數(shù),盡管它承認(rèn) 3599 = 59 * 61。
    • 然而,模型信念的強(qiáng)度似乎存在不同的層次。一個(gè)例子是即使我告訴它達(dá)斯·維達(dá)(星球大戰(zhàn)電影中的人物)贏得了2020年大選,模型依舊會(huì)認(rèn)為美國(guó)現(xiàn)任總統(tǒng)是拜登。但是如果我將選舉年份改為 2024 年,它就會(huì)認(rèn)為總統(tǒng)是達(dá)斯·維達(dá)是 2026 年的總統(tǒng)。
  • 形式推理:GPT-3.5系列不能在數(shù)學(xué)或一階邏輯等形式嚴(yán)格的系統(tǒng)中進(jìn)行推理。

from:-柚子皮-

ref: [OpenAI的模型索引]文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-719457.html

到了這里,關(guān)于GPT的前世今生:從gpt1到chatgpt的能力提升的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • gpt1與bert區(qū)別

    gpt1與bert區(qū)別

    目錄 區(qū)別1:網(wǎng)絡(luò)結(jié)構(gòu)(主要是Masked Multi-Head-Attention和Multi-Head-Attention) 區(qū)別2:預(yù)訓(xùn)練任務(wù)(主要是Masking Input) ???????? gpt1使用transformer的decoder ,單向編碼,是一種基于語(yǔ)言模型的生成式模型,更適合生成下一個(gè)單詞或句子 ???????? bert使用transformer的encoder ,雙向

    2024年02月05日
    瀏覽(27)
  • 深度學(xué)習(xí)的“前世今生”

    深度學(xué)習(xí)的“前世今生”

    20世紀(jì)50年代,人工智能派生出了這樣兩個(gè)學(xué)派,分別是“符號(hào)學(xué)派”及“連接學(xué)派”。前者的領(lǐng)軍學(xué)者有Marvin Minsky及John McCarthy,后者則是由Frank Rosenblatt所領(lǐng)導(dǎo)。 “符號(hào)學(xué)派”的人相信對(duì)機(jī)器從頭編程,一個(gè)模塊一個(gè)模塊組合最終可以得到比人類(lèi)更智慧的機(jī)器; 而“連接學(xué)

    2024年02月12日
    瀏覽(20)
  • 【深度學(xué)習(xí)】GPT系列模型:語(yǔ)言理解能力的革新

    【深度學(xué)習(xí)】GPT系列模型:語(yǔ)言理解能力的革新

    自然語(yǔ)言理解包括一系列不同的任務(wù),例如文本蘊(yùn)涵、問(wèn)答、語(yǔ)義相似度評(píng)估和文檔分類(lèi)。盡管大量的未標(biāo)記文本語(yǔ)料庫(kù)很充足,但用于學(xué)習(xí)這些特定任務(wù)的標(biāo)記數(shù)據(jù)卻很稀缺,使得判別式訓(xùn)練模型難以達(dá)到良好的表現(xiàn)。 我們證明,在多樣化的未標(biāo)記文本語(yǔ)料庫(kù)上進(jìn)行生成式

    2024年02月08日
    瀏覽(27)
  • ChatGPT的前世今生

    ChatGPT的前世今生

    作者????♂?:讓機(jī)器理解語(yǔ)言か 專(zhuān)欄??:NLP(自然語(yǔ)言處理) 描述??:讓機(jī)器理解語(yǔ)言,讓世界更加美好! 寄語(yǔ)??:??沒(méi)有白走的路,每一步都算數(shù)!?? ( 本文是chatGPT原理介紹,但沒(méi)有任何數(shù)學(xué)公式,可以放心食用 ) 這幾個(gè)月, chatGPT模型 真可謂稱(chēng)得上是狂拽

    2023年04月09日
    瀏覽(19)
  • GPT-4震撼來(lái)襲,高級(jí)推理能力遠(yuǎn)超ChatGPT

    GPT-4震撼來(lái)襲,高級(jí)推理能力遠(yuǎn)超ChatGPT

    GPT-4來(lái)了!這是一款被廣泛期待的強(qiáng)大模型,它將成為人工智能領(lǐng)域的新里程碑。OpenAI老板Sam Altman直接開(kāi)門(mén)見(jiàn)山地介紹說(shuō):這是我們迄今為止功能最強(qiáng)大的模型! GPT4一經(jīng)發(fā)布,OPENAI和微軟的股價(jià)都隨之上漲,但谷歌的搜索引擎市場(chǎng),卻正在被這個(gè)可怕的對(duì)手一點(diǎn)點(diǎn)蠶食。 什

    2023年04月16日
    瀏覽(25)
  • GPT-4 VS ChatGPT:訓(xùn)練、性能、能力和限制的探索

    GPT-4 VS ChatGPT:訓(xùn)練、性能、能力和限制的探索

    GPT-4是一種改進(jìn),但是應(yīng)該適當(dāng)降低期望 當(dāng)OpenAI在2022年末推出ChatGPT時(shí),震驚了全世界。這個(gè)新的生成式語(yǔ)言模型預(yù)計(jì)將徹底改變包括媒體、教育、法律和技術(shù)在內(nèi)的整個(gè)行業(yè)。簡(jiǎn)而言之,ChatGPT聽(tīng)起來(lái)可以顛復(fù)一切。甚至在我們沒(méi)有時(shí)間真正設(shè)想一個(gè)ChatGPT后的世界之前,Op

    2023年04月11日
    瀏覽(36)
  • ChatGPT前世今生,當(dāng)下最系統(tǒng)全面人工智能介紹

    ChatGPT前世今生,當(dāng)下最系統(tǒng)全面人工智能介紹

    好東西!南京航空航天大學(xué)李丕績(jī)做的400多頁(yè)的PPT—— ChatGPT的前世今生:從AI這十年發(fā)展回顧說(shuō)起,聊到如今大火的 ChatGPT、Stable Diffusion、Midjourney(源起),從自然語(yǔ)言處理到語(yǔ)言模型、神經(jīng)網(wǎng)絡(luò)、機(jī)器翻譯、文本生成、Transformer,再到語(yǔ)義分析、預(yù)訓(xùn)練語(yǔ)言模型、多模態(tài)(

    2024年02月11日
    瀏覽(17)
  • 一文讀懂ChatGPT的前世今生(附相關(guān)論文下載)

    一文讀懂ChatGPT的前世今生(附相關(guān)論文下載)

    2022年11月,人工智能公司OpenAI推出了一款啥都會(huì)的聊天機(jī)器人:ChatGPT。它能聊天、能翻譯、能做題,還會(huì)寫(xiě)情書(shū)、寫(xiě)論文、寫(xiě)小說(shuō)……功能強(qiáng)大到馬斯克都表示“我們離強(qiáng)大到危險(xiǎn)的 AI 不遠(yuǎn)了”。 ChatGPT是平地起高樓嗎?是橫空出世嗎?當(dāng)然不是。伴隨著人工智能領(lǐng)域不斷更

    2024年02月03日
    瀏覽(31)
  • 智能AI問(wèn)答系統(tǒng)ChatGPT網(wǎng)站系統(tǒng)源碼+Midjourney繪畫(huà)+支持GPT-4-Turbo模型+支持GPT-4圖片理解能力

    智能AI問(wèn)答系統(tǒng)ChatGPT網(wǎng)站系統(tǒng)源碼+Midjourney繪畫(huà)+支持GPT-4-Turbo模型+支持GPT-4圖片理解能力

    SparkAi創(chuàng)作系統(tǒng)是基于ChatGPT進(jìn)行開(kāi)發(fā)的Ai智能問(wèn)答系統(tǒng)和Midjourney繪畫(huà)系統(tǒng),支持OpenAI-GPT全模型+國(guó)內(nèi)AI全模型。本期針對(duì)源碼系統(tǒng)整體測(cè)試下來(lái)非常完美,可以說(shuō)SparkAi是目前國(guó)內(nèi)一款的ChatGPT對(duì)接OpenAI軟件系統(tǒng)。那么如何搭建部署AI創(chuàng)作ChatGPT?小編這里寫(xiě)一個(gè)詳細(xì)圖文教程吧!

    2024年02月04日
    瀏覽(28)
  • ChatGPT的前世今生:從概念到現(xiàn)實(shí)的AI之旅

    ChatGPT的前世今生:從概念到現(xiàn)實(shí)的AI之旅 隨著技術(shù)的飛速發(fā)展,人工智能已經(jīng)從科幻小說(shuō)中的概念轉(zhuǎn)變?yōu)槲覀內(nèi)粘I钪胁豢苫蛉钡囊徊糠?。其中,ChatGPT無(wú)疑是這個(gè)領(lǐng)域的佼佼者。那么,讓我們一起探索ChatGPT的發(fā)展歷程,從它的起源到現(xiàn)在的成就。 起源:GPT系列的誕生 C

    2024年02月06日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包