国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【LLM GPT】李宏毅大型語言模型課程

這篇具有很好參考價值的文章主要介紹了【LLM GPT】李宏毅大型語言模型課程。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1 概述

怎么學習?——給定輸入和輸出:
【LLM GPT】李宏毅大型語言模型課程
但是這樣做不現(xiàn)實,因為這樣輸入-輸出需要成對的資料,而chatgpt 成功解決了這一個難題。

chatgpt不需要成對的資料,只需要一段有用的資料,便可以自己學習內容,如下:
【LLM GPT】李宏毅大型語言模型課程

1.1 發(fā)展歷程

初代和第二代gpt
【LLM GPT】李宏毅大型語言模型課程
第二代到第三代
【LLM GPT】李宏毅大型語言模型課程
gpt3還會寫代碼
【LLM GPT】李宏毅大型語言模型課程
其性能表現(xiàn)
【LLM GPT】李宏毅大型語言模型課程
但是gpt3也有缺點【LLM GPT】李宏毅大型語言模型課程

1.2 預訓練+監(jiān)督學習

想要實現(xiàn)chat的功能,就得經(jīng)過一個監(jiān)督式學習(問答),就要在預訓練后,增加一個監(jiān)督學習的流程,賦予模型問答能力
【LLM GPT】李宏毅大型語言模型課程

預訓練的好處

在多種語言上做過多訓練以后,某一語言的任務會幫助其他語言學會同樣的任務。

【LLM GPT】李宏毅大型語言模型課程
【LLM GPT】李宏毅大型語言模型課程

實驗數(shù)據(jù)如下:
【LLM GPT】李宏毅大型語言模型課程

1.3 增強式學習

chatgpt還引入了增強式學習,給好的回答更多獎賞回饋。
【LLM GPT】李宏毅大型語言模型課程

1.4 對訓練數(shù)據(jù)的記憶

其能夠記得訓練數(shù)據(jù)的部分信息:
【LLM GPT】李宏毅大型語言模型課程

1.5 更新參數(shù)

可以通過對話改變其記憶:

【LLM GPT】李宏毅大型語言模型課程

1.6 AI內容檢測

檢測某一段文字是否為AI生成的,最簡單的做法是這樣:
【LLM GPT】李宏毅大型語言模型課程

1.7 保護隱私

有時候模型會泄漏訓練數(shù)據(jù),需要遺忘學習:
【LLM GPT】李宏毅大型語言模型課程

1.8 gpt和bert

一個是做文字接龍,一個是做文字填空:
【LLM GPT】李宏毅大型語言模型課程

窮人怎么用gpt

方法1 縮短輸入

【LLM GPT】李宏毅大型語言模型課程
把多個問題一起丟進去:
【LLM GPT】李宏毅大型語言模型課程
方法2 自建模型

方法3 LLM cascade

2 生成式模型

主要分為以下三種,注意英文的token指的不是單個完整的單詞,而是要把一個單詞拆分成前綴后綴的形式,拆解成更小的單位:

【LLM GPT】李宏毅大型語言模型課程

2.1 生成方式

生成式有兩種策略——各個擊破一次到位,下面先介紹各個擊破

2.1.1 各個擊破 Autoregressive

每次生成一個(token),然后按照序列形式把全部完整的內容生成:
【LLM GPT】李宏毅大型語言模型課程
這種方式生成效果好,但是所需要的時間長。%

2.1.2 一次到位 Non-autoregressive

x需要先設定最大輸出長度,由于不需要每次都保證輸出的內容一樣長,需要一個end標志符表示結束。
【LLM GPT】李宏毅大型語言模型課程
兩者比較:
【LLM GPT】李宏毅大型語言模型課程

2.1.3 兩者結合

【LLM GPT】李宏毅大型語言模型課程

2.2 預訓練和微調

一般都是先訓練一個通用模型,然后在某些任務上做微調(finetune)。

【LLM GPT】李宏毅大型語言模型課程
【LLM GPT】李宏毅大型語言模型課程

【LLM GPT】李宏毅大型語言模型課程

2.3 指示學習 instruction learning 和 上下文學習 in-context learning

和chatgpt進行交互的時候,我們的promt可能包可以分為兩種情況:指示學習 instruction learning 和 上下文學習 in-context learning。所以在模型訓練階段,我們需要制造一些成對的語料數(shù)據(jù)加強模型的這兩種學習的能力。
【LLM GPT】李宏毅大型語言模型課程

前者是給模型一些指示,當模型進行學習和回答,后者是通過一些例子,讓模型進行學習和回答。

2.2.1 上下文學習 in-context learning

即讓機器在例子中進行學習。為got提供一些例子,比如情感分析中:
【LLM GPT】李宏毅大型語言模型課程
但是不同于傳統(tǒng)的模型更新(梯度下降),這里gpt的學習,不會更改其模型參數(shù)。
通過例子,雖然不會提升多少情感分析的能力,而是為了喚醒gpt的情感分析能力,這個結果來自一篇文獻的實驗結論。
【LLM GPT】李宏毅大型語言模型課程

2.2.2 指示學習 instruction learning

讓gpt能夠看懂指令:
【LLM GPT】李宏毅大型語言模型課程
一個指示學習的例子:判斷這句話的情感:給女朋友買了這個項鏈,她很喜歡。選項:A=好;B=一般;C=差。

訓練階段和測試階段,可以是不同的任務的指示。
【LLM GPT】李宏毅大型語言模型課程
用人類的語言訓練:
【LLM GPT】李宏毅大型語言模型課程

2.2.3 chain of thought (CoT) prompting

讓模型給出推理過程,這樣能夠讓模型做出更正確的答案。
【LLM GPT】李宏毅大型語言模型課程
讓模型具備這個能力,就得在模型訓練階段給出這樣的“帶有推理過程”的語料。
【LLM GPT】李宏毅大型語言模型課程

讓模型自動生成prompt

這里的promt也可以理解為指令。
1。 使用 soft prompt
之前我們講的都是hard prompt,但其實還有soft prompt,給一堆向量而不是人類語言。
【LLM GPT】李宏毅大型語言模型課程
2. 使用強化學習。
【LLM GPT】李宏毅大型語言模型課程
3. 讓模型自己尋找,下一些特殊指令:
【LLM GPT】李宏毅大型語言模型課程
最佳指令可以極大的提升模型的性能:
【LLM GPT】李宏毅大型語言模型課程

2.3 訓練數(shù)據(jù)的預處理

數(shù)據(jù)的收集和處理需要用到以下內容:
【LLM GPT】李宏毅大型語言模型課程
去掉重復資料的重要性:假設一段話在訓練數(shù)據(jù)中出現(xiàn)了6w多次,會發(fā)現(xiàn)模型很容易說出這些話,因此應該避免這種情況。

在固定運算資源的情況下,如何選擇模型規(guī)模和數(shù)據(jù)集規(guī)模?有人做了相關實驗,一條線表示固定的運算資源情況下的結果,縱軸的越小越好:
【LLM GPT】李宏毅大型語言模型課程
所以要找到每個U型曲線的最低點,把這些最低點串起來可以得到如下的圖:
【LLM GPT】李宏毅大型語言模型課程
模型規(guī)模和資料最佳適配比:
【LLM GPT】李宏毅大型語言模型課程
除此以外,指示學習(instruction-tuning)也可以大大提升模型的性能。
【LLM GPT】李宏毅大型語言模型課程
【LLM GPT】李宏毅大型語言模型課程

2.4 Human Teaching (強化學習)

這也是一種輔助模型訓練的技術(強化學習),可以有效提高模型的性能,讓小模型吊打大模型的性能。
【LLM GPT】李宏毅大型語言模型課程

【LLM GPT】李宏毅大型語言模型課程

KNN+LM

一般的LM是這樣的運作方式:
【LLM GPT】李宏毅大型語言模型課程
而KNN+LM是這樣的,尋找embedding的相似度
【LLM GPT】李宏毅大型語言模型課程
這樣做會帶來什么神奇的效果?
【LLM GPT】李宏毅大型語言模型課程
但是這種語言模型非常的慢

2.5 信心越高,正確率越高

【LLM GPT】李宏毅大型語言模型課程

讓AI 解釋AI

來解讀一下這篇文章:
【LLM GPT】李宏毅大型語言模型課程
解釋什么?——知道每一個神經(jīng)元的作用、和哪些詞關聯(lián)度最大:
【LLM GPT】李宏毅大型語言模型課程
有工作發(fā)現(xiàn)了某一個神經(jīng)元遇到以下詞時輸出會很大,通過觀察發(fā)現(xiàn),下一個會出現(xiàn)“an”:
【LLM GPT】李宏毅大型語言模型課程
【LLM GPT】李宏毅大型語言模型課程
如何操作?輸入以下promt:
【LLM GPT】李宏毅大型語言模型課程
能得到以下結果:
【LLM GPT】李宏毅大型語言模型課程
其他結果:
【LLM GPT】李宏毅大型語言模型課程

如何判斷解釋的好不好?

【LLM GPT】李宏毅大型語言模型課程
然后去gpt2模型找到那個神經(jīng)元檢查一下:
【LLM GPT】李宏毅大型語言模型課程

完整的prompt

【LLM GPT】李宏毅大型語言模型課程
縱軸表示可解釋性的分數(shù),分數(shù)越高,可解釋性越好,結論是小模型更容易解釋、越底層的神經(jīng)元越容易解釋。
【LLM GPT】李宏毅大型語言模型課程

大致流程

【LLM GPT】李宏毅大型語言模型課程
讓模型扮演一個神經(jīng)元:
【LLM GPT】李宏毅大型語言模型課程
尋找神經(jīng)元在什么時候激活值較大:
【LLM GPT】李宏毅大型語言模型課程文章來源地址http://www.zghlxwxcb.cn/news/detail-495751.html

到了這里,關于【LLM GPT】李宏毅大型語言模型課程的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 大型語言模型LLM的基礎應用

    大型語言模型LLM的基礎應用

    ChatGPT是由人工智能研究實驗室OpenAI在2022年11月30日發(fā)布的全新聊天機器人模型,一款人工智能技術驅動的自然語言處理工具。它能夠通過學習和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案

    2024年02月09日
    瀏覽(62)
  • 大語言模型(LLM)綜述(五):使用大型語言模型的主要方法

    大語言模型(LLM)綜述(五):使用大型語言模型的主要方法

    隨著人工智能和機器學習領域的迅速發(fā)展,語言模型已經(jīng)從簡單的詞袋模型(Bag-of-Words)和N-gram模型演變?yōu)楦鼮閺碗s和強大的神經(jīng)網(wǎng)絡模型。在這一進程中,大型語言模型(LLM)尤為引人注目,它們不僅在自然語言處理(NLP)任務中表現(xiàn)出色,而且在各種跨領域應用中也展示

    2024年02月06日
    瀏覽(23)
  • 【NLP】如何管理大型語言模型 (LLM)

    【NLP】如何管理大型語言模型 (LLM)

    LLM 編排是管理和控制大型語言模型 (LLM)的過程,以優(yōu)化其性能和有效性。這包括以下任務: 提示LLM: 生成有效的提示,為LLMs提供適當?shù)谋尘昂托畔⒁援a(chǎn)生所需的輸出。 鏈接LLM: ?結合多個LLM的輸出以獲得更復雜或更細致的結果。 管理LLM資源: ?有效分配和管理LLM資源以滿

    2024年02月05日
    瀏覽(22)
  • 如何解決LLM(大型語言模型)幻覺問題

    LLM幻覺問題是什么? LLM(大型語言模型)幻覺問題指的是當大型語言模型(如我這樣的)在處理請求時產(chǎn)生的不準確或虛構的信息。這些幻覺可能是因為模型的訓練數(shù)據(jù)不足、錯誤或偏見,或者是因為模型在處理某些特定類型的問題時的局限性。具體來說,這些問題可能包括

    2024年02月02日
    瀏覽(29)
  • 【人工智能】LLM 大型語言模型發(fā)展歷史
  • ChatGPT和大型語言模型(LLM)是什么關系?

    什么是語言模型:\\\" 語言模型的本質是一個數(shù)學模型,用于捕捉和理解人類語言的結構和規(guī)律 。它通過分析大量文本數(shù)據(jù)中的單詞或字符之間的關系,以概率的方式預測在給定上下文情況下下一個可能出現(xiàn)的單詞或字符。這種模型允許計算機在生成文本、翻譯語言、問答等任

    2024年02月10日
    瀏覽(16)
  • LangChain大型語言模型(LLM)應用開發(fā)(五):評估

    LangChain大型語言模型(LLM)應用開發(fā)(五):評估

    LangChain是一個基于大語言模型(如ChatGPT)用于構建端到端語言模型應用的 Python 框架。它提供了一套工具、組件和接口,可簡化創(chuàng)建由大型語言模型 (LLM) 和聊天模型提供支持的應用程序的過程。LangChain 可以輕松管理與語言模型的交互,將多個組件鏈接在一起,以便在不同的

    2024年02月15日
    瀏覽(30)
  • 【人工智能】LLM 大型語言模型和 Transformer 架構簡介

    【人工智能】LLM 大型語言模型和 Transformer 架構簡介

    目錄 大型語言模型 (LLM) 一、LLM的起源 二、LLM的發(fā)展階段 三、LLM的應用領域

    2024年02月14日
    瀏覽(37)
  • LangChain大型語言模型(LLM)應用開發(fā)(三):Chains

    LangChain大型語言模型(LLM)應用開發(fā)(三):Chains

    LangChain是一個基于大語言模型(如ChatGPT)用于構建端到端語言模型應用的 Python 框架。它提供了一套工具、組件和接口,可簡化創(chuàng)建由大型語言模型 (LLM) 和聊天模型提供支持的應用程序的過程。LangChain 可以輕松管理與語言模型的交互,將多個組件鏈接在一起,以便在不同的

    2024年02月12日
    瀏覽(20)
  • 我用Streamlit+LLM(大型語言模型)輕松實現(xiàn)Web聊天

    我用Streamlit+LLM(大型語言模型)輕松實現(xiàn)Web聊天

    Streamlit是時下比較熱門的一個基于Python的Web應用程序框架,它可以在幾分鐘內將數(shù)據(jù)轉化為可共享的Web應用程序,無需前端開發(fā)經(jīng)驗,使用純Python代碼實現(xiàn),簡單且高效。ChatGPT是目前非?;鸬腛penAI公司開發(fā)的聊天機器人模型,它無所不知就像一本大百科全書,它可以幫你做很

    2024年02月16日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包