国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

一文了解大模型工作原理——以ChatGPT為例

這篇具有很好參考價值的文章主要介紹了一文了解大模型工作原理——以ChatGPT為例。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

寫在前面

2022年11月30日,ChatGPT模型問世后,立刻在全球范圍內(nèi)掀起了軒然大波。無論AI從業(yè)者還是非從業(yè)者,都在熱議ChatGPT極具沖擊力的交互體驗(yàn)和驚人的生成內(nèi)容。這使得廣大群眾重新認(rèn)識到人工智能的潛力和價值。對于AI從業(yè)者來說,ChatGPT模型成為一種思路的擴(kuò)充,大模型不再是刷榜的玩具,所有人都認(rèn)識到高質(zhì)量數(shù)據(jù)的重要性,并堅(jiān)信“有多少人工,就會有多少智能”。

ChatGPT模型效果過于優(yōu)秀,在許多任務(wù)上,即使是零樣本或少樣本數(shù)據(jù)也可以達(dá)到SOTA效果,使得很多人轉(zhuǎn)向大模型的研究。

不僅Google提出了對標(biāo)ChatGPT的Bard模型,國內(nèi)涌現(xiàn)出了許多中文大模型,如百度的“文心一言”、阿里的“通義千問”、商湯的“日日新”、知乎的“知海圖AI”、清華智譜的“ChatGLM”、復(fù)旦的“MOSS”、Meta的“Llama1&Llama2”等等。

Alpaca模型問世之后,證明了70億參數(shù)量的模型雖然達(dá)不到ChatGPT的效果,但已經(jīng)極大程度上降低了大模型的算力成本,使得普通用戶和一般企業(yè)也可以使用大模型。之前一直強(qiáng)調(diào)的數(shù)據(jù)問題,可以通過GPT-3.5或GPT-4接口來獲取數(shù)據(jù),并且數(shù)據(jù)質(zhì)量也相當(dāng)高。如果只需要基本的效果模型,數(shù)據(jù)是否再次精標(biāo)已經(jīng)不是那么重要了(當(dāng)然,要獲得更好的效果,則需要更精準(zhǔn)的數(shù)據(jù))。

1.Tansformer架構(gòu)模型

預(yù)訓(xùn)練語言模型的本質(zhì)是通過從海量數(shù)據(jù)中學(xué)到語言的通用表達(dá),使得在下游子任務(wù)中可以獲得更優(yōu)異的結(jié)果。隨著模型參數(shù)不斷增加,很多預(yù)訓(xùn)練語言模型又被稱為大型語言模型(Large Language Model,LLM)。不同人對于“大”的定義不同,很難說多少參數(shù)量的模型是大型語言模型,通常并不強(qiáng)行區(qū)分預(yù)訓(xùn)練語言模型和大型語言模型之間的差別。
一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型

預(yù)訓(xùn)練語言模型根據(jù)底層模型網(wǎng)絡(luò)結(jié)構(gòu),一般分為僅Encoder架構(gòu)模型、僅Decoder架構(gòu)模型和Encoder-Decoder架構(gòu)模型。其中,僅Encoder架構(gòu)模型包括但不限于BERT、RoBerta、Ernie、SpanBert、AlBert等;僅Decoder架構(gòu)模型包括但不限于GPT、CPM、PaLM、OPT、Bloom、Llama等;Encoder-Decoder架構(gòu)模型包括但不限于Mass、Bart、T5等。

一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型

2.ChatGPT原理

ChatGPT訓(xùn)練的整體流程主要分為3個階段,預(yù)訓(xùn)練與提示學(xué)習(xí)階段,結(jié)果評價與獎勵建模階段以及強(qiáng)化學(xué)習(xí)自我進(jìn)化階段;3個階段分工明確,實(shí)現(xiàn)了模型從模仿期、管教期、自主期的階段轉(zhuǎn)變。

一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型

在第一階段的模仿期,模型將重點(diǎn)放在學(xué)習(xí)各項(xiàng)指令型任務(wù)中,這個階段的模型沒有自我判別意識,更多的是模仿人工行為的過程,通過不斷學(xué)習(xí)人類標(biāo)注結(jié)果讓其行為本身具有一定的智能型。然而僅僅是模仿往往會讓機(jī)器的學(xué)習(xí)行為變成邯鄲學(xué)步。

在第二階段的管教期,優(yōu)化內(nèi)容發(fā)生了方向性轉(zhuǎn)變,將重點(diǎn)從教育機(jī)器答案內(nèi)容改變?yōu)榻逃龣C(jī)器答案的好壞。如果第一階段,重點(diǎn)希望機(jī)器利用輸入X,模仿學(xué)習(xí)輸出Y’,并力求讓Y’與原先標(biāo)注的Y保持一致。那么,在第二階段,重點(diǎn)則希望多個模型在針對X輸出多個結(jié)果(Y1,Y2,Y3,Y4)時,可以自行判斷多個結(jié)果的優(yōu)劣情況。

當(dāng)模型具備一定的判斷能力時,認(rèn)為該模型已經(jīng)完成第二階段的學(xué)習(xí),可以進(jìn)入第三階段——自主期。在自主期的模型,需要通過左右互博的方式完成自我進(jìn)化,即一方面自動生成多個輸出結(jié)果,另一方面判斷不同結(jié)果的優(yōu)劣程度,并基于不同輸出的效果模型差異評估,優(yōu)化改進(jìn)自動生成過程的模型參數(shù),進(jìn)而完成模型的自我強(qiáng)化學(xué)習(xí)。

總結(jié)來說,也可以將ChatGPT的3個階段比喻為人成長的3個階段,模仿期的目的是“知天理”,管教期的目的是“辨是非”,自主期的目的是“格萬物”。

3.提示學(xué)習(xí)與大模型能力的涌現(xiàn)

ChatGPT模型發(fā)布后,因其流暢的對話表達(dá)、極強(qiáng)的上下文存儲、豐富的知識創(chuàng)作及其全面解決問題的能力而風(fēng)靡全球,刷新了大眾對人工智能的認(rèn)知。提示學(xué)習(xí)(Prompt Learning)、上下文學(xué)習(xí)(In-Context Learning)、思維鏈(Chain of Thought,CoT)等概念也隨之進(jìn)入大眾視野。市面上甚至出現(xiàn)了提示工程師這個職業(yè),專門為指定任務(wù)編寫提示模板。

提示學(xué)習(xí)被廣大學(xué)者認(rèn)為是自然語言處理在特征工程、深度學(xué)習(xí)、預(yù)訓(xùn)練+微調(diào)之后的第四范式。隨著語言模型的參數(shù)不斷增加,模型也涌現(xiàn)了上下文學(xué)習(xí)、思維鏈等能力,在不訓(xùn)練語言模型參數(shù)的前提下,僅通過幾個演示示例就可以在很多自然語言處理任務(wù)上取得較好的成績。

3.1 提示學(xué)習(xí)

提示學(xué)習(xí)是在原始輸入文本上附加額外的提示(Prompt)信息作為新的輸入,將下游的預(yù)測任務(wù)轉(zhuǎn)化為語言模型任務(wù),并將語言模型的預(yù)測結(jié)果轉(zhuǎn)化為原本下游任務(wù)的預(yù)測結(jié)果。

以情感分析任務(wù)為例,原始任務(wù)是根據(jù)給定輸入文本“我愛中國”,判斷該段文本的情感極性。提示學(xué)習(xí)則是在原始輸入文本“我愛中國”上增加額外的提示模板,例如:“這句話的情感為{mask}。”得到新的輸入文本“我愛中國。這句話的情感為{mask}?!比缓罄谜Z言模型的掩碼語言模型任務(wù),針對{mask}標(biāo)記進(jìn)行預(yù)測,再將其預(yù)測出的Token映射到情感極性標(biāo)簽上,最終實(shí)現(xiàn)情感極性預(yù)測。

3.2 上下文學(xué)習(xí)

上下文學(xué)習(xí)可以看作提示學(xué)習(xí)的一種特殊情況,即演示示例看作提示學(xué)習(xí)中人工編寫提示模板(離散型提示模板)的一部分,并且不進(jìn)行模型參數(shù)的更新。

上下文學(xué)習(xí)的核心思想是通過類比來學(xué)習(xí)。對于一個情感分類任務(wù)來說,首先從已存在的情感分析樣本庫中抽取出部分演示示例,包含一些正向或負(fù)向的情感文本及對應(yīng)標(biāo)簽;然后將其演示示例與待分析的情感文本進(jìn)行拼接,送入到大型語言模型中;最終通過對演示示例的學(xué)習(xí)類比得出文本的情感極性。
一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型

這種學(xué)習(xí)方法也更加貼近人類學(xué)習(xí)后進(jìn)行決策過程,通過觀察別人對某些事件的處理方法,當(dāng)自己遇到相同或類似事件時,可以輕松地并很好地解決。

3.3 思維鏈

大型語言模型橫行的時代,它徹底改變了自然語言處理的模式。隨著模型參數(shù)的增加,例如:情感分析、主題分類等系統(tǒng)-1任務(wù)(人類可以快速直觀地完成的任務(wù)),即使是在少樣本和零樣本條件下均可以獲得較好的效果。但對于系統(tǒng)-2任務(wù)(人類需要緩慢而深思熟慮的思考才能完成的任務(wù)),例如:邏輯推理、數(shù)學(xué)推理和常識推理等任務(wù),即使模型參數(shù)增加到數(shù)千億時,效果也并不理想,也就是簡單地增加模型參數(shù)量并不能帶來實(shí)質(zhì)性的性能提升。

Google于2022年提出了思維鏈(Chain of thought,CoT)的概念,來提高大型語言模型執(zhí)行各種推理任務(wù)的能力。思維鏈本質(zhì)上是一種離散式提示模板,主旨是通過提示模板使得大型語言模型可以模仿人類思考的過程,給出逐步的推理依據(jù),來推導(dǎo)出最終的答案,而每一步的推理依據(jù)組成的句子集合就是思維鏈的內(nèi)容。

思維鏈其實(shí)是幫助大型語言模型將一個多步問題分解為多個可以被單獨(dú)解答的中間步驟,而不是在一次向前傳遞中解決整個多跳問題。

一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型

4.行業(yè)參考建議

4.1 擁抱變化

與其他領(lǐng)域不同,AIGC領(lǐng)域是當(dāng)前變化最迅速的領(lǐng)域之一。以2023年3月13日至2023年3月19日這一周為例,我們經(jīng)歷了清華發(fā)布ChatGLM 6B開源模型、openAI將GPT4接口發(fā)布、百度文心一言舉辦發(fā)布會、微軟推出Office同ChatGPT相結(jié)合的全新產(chǎn)品Copilot等一系列重大事件。

這些事件都會影響行業(yè)研究方向,并引發(fā)更多思考,例如,下一步技術(shù)路線是基于開源模型,還是從頭預(yù)訓(xùn)練新模型,參數(shù)量應(yīng)該設(shè)計(jì)多少?Copilot已經(jīng)做好,辦公插件AIGC的應(yīng)用開發(fā)者如何應(yīng)對?

即便如此,仍建議從業(yè)者擁抱變化,快速調(diào)整策略,借助前沿資源,以加速實(shí)現(xiàn)自身任務(wù)。

4.2 定位清晰

一定要明確自身細(xì)分賽道的目標(biāo),例如是做應(yīng)用層還是底座優(yōu)化層,是做C端市場還是B端市場,是做行業(yè)垂類應(yīng)用還是通用工具軟件。千萬不要好高騖遠(yuǎn),把握住風(fēng)口,“切準(zhǔn)蛋糕”。

定位清晰并不是指不撞南墻不回,更多的是明白自身目的及意義所在。

4.3 合規(guī)可控

AIGC最大的問題在于輸出的不可控性,如果無法解決這個問題,它的發(fā)展將面臨很大的瓶頸,無法在B端和C端市場廣泛使用。在產(chǎn)品設(shè)計(jì)過程中,需要關(guān)注如何融合規(guī)則引擎、強(qiáng)化獎懲機(jī)制以及適當(dāng)?shù)娜斯そ槿?。從業(yè)者應(yīng)重點(diǎn)關(guān)注AIGC生成內(nèi)容所涉及的版權(quán)、道德和法律風(fēng)險。

4.4 經(jīng)驗(yàn)沉淀

經(jīng)驗(yàn)沉淀的目的是為了建立自身的壁壘。不要將所有的希望寄托于單個模型上,例如我們曾經(jīng)將產(chǎn)品設(shè)計(jì)成純文本格式,以便同ChatGPT無縫結(jié)合,但最新的GPT4已經(jīng)支持多模態(tài)輸入。我們不應(yīng)氣餒,而是要快速擁抱變化,并利用之前積累的經(jīng)驗(yàn)(數(shù)據(jù)維度、Prompt維度、交互設(shè)計(jì)維度)快速完成產(chǎn)品升級,以更好地應(yīng)對全新的場景和交互形態(tài)。最后給大家推薦一本很不錯的書籍——《ChatGPT原理與實(shí)戰(zhàn)》!

一文了解大模型工作原理——以ChatGPT為例,好物推薦,chatgpt,人工智能,大模型文章來源地址http://www.zghlxwxcb.cn/news/detail-707410.html

到了這里,關(guān)于一文了解大模型工作原理——以ChatGPT為例的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 一文了解AIGC與ChatGPT

    一文了解AIGC與ChatGPT

    關(guān)注微信公眾號掌握更多技術(shù)動態(tài) --------------------------------------------------------------- 一、AIGC簡介 1.AIGC基礎(chǔ) (1)AIGC是什么 AIGC是人工智能圖形計(jì)算的縮寫,是一種基于圖形處理器(GPU)的計(jì)算技術(shù),可以加速各種計(jì)算任務(wù),包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺等。 AIGC是一種基

    2024年02月04日
    瀏覽(27)
  • 【好物推薦】如何在VScode中將Markdown文件轉(zhuǎn)換成PDF文件

    【好物推薦】如何在VScode中將Markdown文件轉(zhuǎn)換成PDF文件

    公司的分享要求提交文檔,而我的Markdown文件已經(jīng)編寫完成,將其轉(zhuǎn)換為PDF文件可以更方便地提交,因?yàn)镻DF文件可以更好地保留格式和排版。 如果Markdown文件需要在不同操作系統(tǒng)和設(shè)備之間共享和傳輸,將其轉(zhuǎn)換為PDF文件可以確保文件在不同環(huán)境下都能正常打開和查看。 如果

    2024年02月11日
    瀏覽(28)
  • 【好物推薦】性能測試之壓力測試,常見連接錯誤分析:連接超時(ConnectTimeout)

    【好物推薦】性能測試之壓力測試,常見連接錯誤分析:連接超時(ConnectTimeout)

    在壓測過程中報錯:連接超時(ConnectTimeout),報錯如下截圖顯示 網(wǎng)上檢索可能得原因,產(chǎn)生原因可能有兩條: (1)壓測工具本身有連接超時設(shè)置引起 (2)可能是服務(wù)端存在連接超時問題 如在Jmeter http請求 頁面,advanced 頁簽, 有 timeout 設(shè)置,可以對發(fā)送請求和返回請求進(jìn)

    2024年02月09日
    瀏覽(32)
  • 深入了解百度爬蟲工作原理

    深入了解百度爬蟲工作原理

    在當(dāng)今數(shù)字化時代,互聯(lián)網(wǎng)已經(jīng)成為人們獲取信息的主要渠道之一。而搜索引擎作為互聯(lián)網(wǎng)上最重要的工具之一,扮演著連接用戶與海量信息的橋梁角色。然而,我們是否曾經(jīng)好奇過當(dāng)我們在搜索引擎中輸入并點(diǎn)擊搜索按鈕后,究竟是如何能夠迅速地找到相關(guān)結(jié)果呢?

    2024年02月05日
    瀏覽(18)
  • 一文帶你了解MySQL之連接原理

    一文帶你了解MySQL之連接原理

    前言 我們搞數(shù)據(jù)庫一個都避不開的概念就是 連接 ( join )。相信很多小伙伴初學(xué)連接的時候有些一臉懵,理解了連接的語義之后又可能搞不明白各個表中的記錄到底是怎么連起來的,以至于在后期使用數(shù)據(jù)庫的時候常常陷入下邊兩種誤區(qū): 誤區(qū)一 :業(yè)務(wù)至上,不管三七二

    2024年02月05日
    瀏覽(24)
  • 一文了解tcp/ip協(xié)議的運(yùn)行原理

    一文了解tcp/ip協(xié)議的運(yùn)行原理

    接觸代理ip的人都了解https/sock5等ip協(xié)議,那么TCP/IP 協(xié)議又是什么? TCP/IP 協(xié)議實(shí)際上是一系列網(wǎng)絡(luò)通信協(xié)議的一個統(tǒng)稱,他負(fù)責(zé)具體的數(shù)據(jù)傳輸工作,核心的兩個協(xié)議包括TCP以及IP,還有其他 UDP、ICMP、ARP 等,構(gòu)成一個網(wǎng)絡(luò)協(xié)議棧。 網(wǎng)絡(luò)通信可以將其劃分為四個層次去解釋:

    2024年02月10日
    瀏覽(29)
  • 一文了解Docker之網(wǎng)絡(luò)模型

    一文了解Docker之網(wǎng)絡(luò)模型

    目錄 1.Docker網(wǎng)絡(luò) 1.1 Docker網(wǎng)絡(luò)模型概述 1.2 Docker網(wǎng)絡(luò)驅(qū)動程序 1.2.1 host模式 1.2.2?bridge模式 1.2.3 container模式 1.2.4 none模式 1.3 Docker網(wǎng)絡(luò)命令示例 1.3.1 創(chuàng)建一個自定義網(wǎng)絡(luò) 1.3.2 列出所有網(wǎng)絡(luò) 1.3.3 連接容器到網(wǎng)絡(luò) 1.3.4 斷開容器與網(wǎng)絡(luò)的連接 1.3.5 查看容器的網(wǎng)絡(luò)信息 ? Docker 是一種

    2024年02月12日
    瀏覽(37)
  • 一文帶你了解MySQL之用戶和權(quán)限原理

    一文帶你了解MySQL之用戶和權(quán)限原理

    前言 在學(xué)習(xí)這一章節(jié)的時候,我們可以先了解一下SQL語言,SQL語言共分為四大類: 數(shù)據(jù)查詢語言DQL(Data QueryLanguage): select 等 數(shù)據(jù)操縱語言DML(database manage language): insert update delete 等 數(shù)據(jù)定義語言DDL(Data Definition Language): create drop alter runcate 等 數(shù)據(jù)控制語言DCL(Dat

    2024年02月06日
    瀏覽(18)
  • 一文讀懂舵機(jī)工作原理并運(yùn)用(附代碼)

    一文讀懂舵機(jī)工作原理并運(yùn)用(附代碼)

    自己拿到這一模塊是也挺迷茫的,后來看了一些資料,也漸漸積累了些自己的理解,很多博文并沒有將舵機(jī)講明白,至少你待把PWM與角度如何換算講清楚吧,所以筆者寫這篇博文供大家學(xué)習(xí)掌握。 第一步先要區(qū)分這個舵機(jī)是數(shù)字舵機(jī)還是模擬舵機(jī)。 以為兩者的控制方式有些

    2023年04月08日
    瀏覽(18)
  • 【好物推薦】一款幫我快速達(dá)成單元測試的覆蓋率指標(biāo)的IDEA插件 —— TestMe

    【好物推薦】一款幫我快速達(dá)成單元測試的覆蓋率指標(biāo)的IDEA插件 —— TestMe

    TestMe 是一個可以幫助您快速達(dá)成單元測試覆蓋率指標(biāo)的 IDEA 插件。 它可以幫助您自動生成測試用例,從而確保您的代碼覆蓋率達(dá)到所需的覆蓋率。 請注意,TestMe 插件只是一個輔助工具,它可以幫助您自動生成測試用例,但單元測試的質(zhì)量和覆蓋率的可靠性仍然取決于您的代

    2024年02月13日
    瀏覽(50)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包