国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LLM之幻覺(二):大語言模型LLM幻覺緩減技術綜述

這篇具有很好參考價值的文章主要介紹了LLM之幻覺(二):大語言模型LLM幻覺緩減技術綜述。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

LLM之幻覺(二):大語言模型LLM幻覺緩減技術綜述,筆記,ChatGPT,幻覺,語言模型,人工智能,深度學習

? ? ? ?LLM幻覺緩減技術分為兩大主流,梯度方法非梯度方法。梯度方法是指對基本LLM進行微調(diào);而非梯度方法主要是在推理時使用Prompt工程技術。LLM幻覺緩減技術,如下圖所示:

LLM之幻覺(二):大語言模型LLM幻覺緩減技術綜述,筆記,ChatGPT,幻覺,語言模型,人工智能,深度學習

LLM幻覺緩減技術值得注意的是:

  • 檢索增強生成(RAG)
  • 知識檢索(https://arxiv.org/abs/2307.03987)
  • CoNLI(https://arxiv.org/abs/2310.03951)
  • CoVe(https://cobusgreyling.medium.com/chain-of-verification-reduces-hallucination-in-llms-20af5ea67672)

? ? ? 與專注于有限任務的傳統(tǒng)人工智能系統(tǒng)不同,LLM在訓練過程中使用了大量的在線文本數(shù)據(jù)。當大模型語言生成功能應用在要求嚴格的應用程序時,LLM幻覺就變得非常令人擔憂,例如:

  1. 總結(jié)醫(yī)療記錄;

  2. 客戶支持對話;

  3. 財務分析報告,并提供錯誤的法律建議。

一、幻覺緩解分類法

? ? ? ?這項研究對LLM幻覺緩解技術進行了總結(jié),分類為:梯度方法非梯度方法。

梯度方法包括復雜和不透明的解碼策略知識圖譜、微調(diào)策略等。

非梯度方法包括RAG、自我優(yōu)化Prompt微調(diào)。

值得注意的是,RAG方法分為四個部分;

  • 生成之前;
  • 生成期間;
  • 生成后;
  • 端到端

Prompt工程緩解幻覺的原理在于定義:

  • 特殊上下文&;
  • 預期輸出

二、最佳預防幻覺

預防幻覺的最佳方法不是單一的方法,需要綜合多種方法。

緩減幻覺需要考慮以下因素:

  1. 在多大程度上依賴標簽數(shù)據(jù)?

  2. 引入無監(jiān)督或弱監(jiān)督學習技術以提高可擴展性和靈活性的可能性是什么?

  3. 考慮梯度和非梯度方法,以產(chǎn)生連貫和上下文相關的信息。

  4. 收集到的緩解幻覺的工作揭示了一系列不同的策略,每種策略都有助于解決LLM中幻覺的細微差別。

  5. 通過反饋和推理的自我完善會產(chǎn)生有影響力的策略。

  6. 結(jié)構(gòu)化比較推理引入了一種結(jié)構(gòu)化的文本偏好預測方法,增強了連貫性,減少了幻覺。

  7. 監(jiān)督微調(diào)可以通過知識注入和師生方法進行探索。

  8. 特定領域的知識被注入到較弱的LLM和使用反事實數(shù)據(jù)集來提高真實性的方法中。

參考文獻:

[1]?https://cobusgreyling.medium.com/large-language-model-hallucination-mitigation-techniques-a75b6f873318文章來源地址http://www.zghlxwxcb.cn/news/detail-799637.html

到了這里,關于LLM之幻覺(二):大語言模型LLM幻覺緩減技術綜述的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 大語言模型(LLM)綜述(四):如何適應預訓練后的大語言模型

    大語言模型(LLM)綜述(四):如何適應預訓練后的大語言模型

    隨著人工智能和機器學習領域的迅速發(fā)展,語言模型已經(jīng)從簡單的詞袋模型(Bag-of-Words)和N-gram模型演變?yōu)楦鼮閺碗s和強大的神經(jīng)網(wǎng)絡模型。在這一進程中,大型語言模型(LLM)尤為引人注目,它們不僅在自然語言處理(NLP)任務中表現(xiàn)出色,而且在各種跨領域應用中也展示

    2024年02月08日
    瀏覽(36)
  • 增強LLM:使用搜索引擎緩解大模型幻覺問題

    增強LLM:使用搜索引擎緩解大模型幻覺問題

    論文題目:FRESHLLMS:REFRESHING LARGE LANGUAGE MODELS WITH SEARCH ENGINE AUGMENTATION 論文地址:https://arxiv.org/pdf/2310.03214.pdf 論文由Google、University of Massachusetts Amherst、OpenAI聯(lián)合發(fā)布。 ? ? ? ? 大部分大語言模型只會訓練一次,不會被頻繁的更新,訓練用到的知識會慢慢過時,所以它無法適應

    2024年02月06日
    瀏覽(26)
  • ChatGPT和大型語言模型(LLM)是什么關系?

    什么是語言模型:\\\" 語言模型的本質(zhì)是一個數(shù)學模型,用于捕捉和理解人類語言的結(jié)構(gòu)和規(guī)律 。它通過分析大量文本數(shù)據(jù)中的單詞或字符之間的關系,以概率的方式預測在給定上下文情況下下一個可能出現(xiàn)的單詞或字符。這種模型允許計算機在生成文本、翻譯語言、問答等任

    2024年02月10日
    瀏覽(15)
  • 類ChatGPT的各種語言大模型LLM開源Github模型集合?

    類ChatGPT的各種語言大模型LLM開源Github模型集合?

    作為開發(fā)人員,面對堪稱科技奇點爆發(fā)的ChatGPT,我們?nèi)绾螒獙Α.斎皇桥ΩM,雖然ChatGPT不開源,但是有諸多不輸ChatGPT的各類語言大模型LLM有分享。我們篩選出其中影響力較大的各個開源Github倉庫,收錄到 類ChatGPT的各種語言大模型開源Github模型集合? http://www.webhub123.

    2024年02月08日
    瀏覽(22)
  • 大型語言模型與知識圖譜協(xié)同研究綜述:兩大技術優(yōu)勢互補

    大型語言模型與知識圖譜協(xié)同研究綜述:兩大技術優(yōu)勢互補

    機器之心報道 編輯:杜偉 多圖綜述理清當前研究現(xiàn)狀,這篇 29 頁的論文值得一讀。 大型語言模型(LLM)已經(jīng)很強了,但還可以更強。通過結(jié)合知識圖譜,LLM 有望解決缺乏事實知識、幻覺和可解釋性等諸多問題;而反過來 LLM 也能助益知識圖譜,讓其具備強大的文本和語言理

    2024年02月13日
    瀏覽(16)
  • 大語言模型LLM微調(diào)技術:Prompt Tuning

    大語言模型LLM微調(diào)技術:Prompt Tuning

    截止23年3月底,語言模型發(fā)展走過了三個階段: 第一階段 :設計一系列的自監(jiān)督訓練目標(MLM、NSP等),設計新穎的模型架構(gòu)(Transformer),遵循Pre-training和Fine-tuning范式。典型代表是BERT、GPT、XLNet等; 第二階段 :逐步擴大模型參數(shù)和訓練語料規(guī)模,探索不同類型的架構(gòu)。

    2024年02月03日
    瀏覽(16)
  • LLM大語言模型訓練中常見的技術:微調(diào)與嵌入

    微調(diào) (Fine-Tuning): 微調(diào)是一種用于預訓練語言模型的技術。在預訓練階段,語言模型(如GPT-3.5)通過大規(guī)模的文本數(shù)據(jù)集進行訓練,從而學會了語言的語法、語義和世界知識。然后,在微調(diào)階段,模型會在特定任務或領域的小規(guī)模數(shù)據(jù)集上進行額外的訓練。這個微調(diào)過程

    2024年02月06日
    瀏覽(21)
  • 精進語言模型:探索LLM Training微調(diào)與獎勵模型技術的新途徑

    精進語言模型:探索LLM Training微調(diào)與獎勵模型技術的新途徑

    LLMs Trainer 是一個旨在幫助人們從零開始訓練大模型的倉庫,該倉庫最早參考自 Open-Llama,并在其基礎上進行擴充。 有關 LLM 訓練流程的更多細節(jié)可以參考 【LLM】從零開始訓練大模型。 使用倉庫之前,請先安裝所有需要的依賴: 繼續(xù)預訓練是指,在一個已有的模型上繼續(xù)進行

    2024年02月11日
    瀏覽(20)
  • 以 LLM 為核心 LLM@Core:程序員的大語言模型技術指南

    過去幾個月里,我們對于大語言模型的一系列探索,如 ChatGPT 端到端實踐與應用開發(fā)、LLaMA 與 ChatGLM 的微調(diào)試驗、GitHub Copilot 逆向工程分析、動態(tài)上下文工程(即 LangChain)的研究,驅(qū)使著我去寫一個總結(jié),也是一個面向程序員的 LLM 指南。 也是好久沒有寫這個系列(程序員必

    2024年02月07日
    瀏覽(18)
  • 當大型語言模型(LLM)遇上知識圖譜:兩大技術優(yōu)勢互補

    當大型語言模型(LLM)遇上知識圖譜:兩大技術優(yōu)勢互補

    大型語言模型(LLM)已經(jīng)很強了,但還可以更強。通過結(jié)合知識圖譜,LLM 有望解決缺乏事實知識、幻覺和可解釋性等諸多問題;而反過來 LLM 也能助益知識圖譜,讓其具備強大的文本和語言理解能力。而如果能將兩者充分融合,我們也許還能得到更加全能的人工智能。 今天我

    2024年02月02日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包