国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

GPT-NER:通過大型語言模型的命名實體識別

這篇具有很好參考價值的文章主要介紹了GPT-NER:通過大型語言模型的命名實體識別。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

講在前面,chatgpt出來的時候就想過將其利用在信息抽取方面,后續(xù)也發(fā)現(xiàn)了不少基于這種大語言模型的信息抽取的論文,比如之前收集過的:

  • https://github.com/cocacola-lab/GPT4IE
  • https://github.com/RidongHan/Evaluation-of-ChatGPT-on-Information-Extraction
  • https://github.com/cocacola-lab/ChatIE
  • Unified Text Structuralization with Instruction-tuned Language Models

接下來繼續(xù)介紹另一篇論文。

GPT-NER:通過大型語言模型的命名實體識別

GPT-NER: Named Entity Recognition via Large Language Models

https://arxiv.org/pdf/2304.10428v1.pdf

https://github.com/ShuheWang1998/GPT-NER

Part1前言

為什么使用大語言模型在NER上的表現(xiàn)仍然明顯低于普遍的基線?

由于NER和LLMs這兩個任務(wù)之間的差距:前者本質(zhì)上是一個序列標(biāo)記任務(wù),而后者是一個文本生成模型。

怎么解決上述的問題呢?

  • GPT-NER通過將序列標(biāo)簽任務(wù)轉(zhuǎn)換 為一個可以被LLMs輕松適應(yīng)的生成任務(wù)來彌補(bǔ)這一差距,例如, 在輸入文本Columbus是一個城市中尋找位置實體的任務(wù)被轉(zhuǎn)換為生成文本序列@@Columbus##是一個城市,其中特殊標(biāo)記@@##標(biāo)志著要提取的實體。
  • 為了有效地解決LLMs的幻覺問題,即LLMs有一個強(qiáng)烈的傾向,即過度自信地將NULL輸入標(biāo)記為實體,我們提出了一個自我驗證策略,即提示LLMs詢問自己所提取的實體是否符合標(biāo)記的實體標(biāo)簽。

Part2介紹

GPTNER遵循語境學(xué)習(xí)的一般范式,可以分解為三個步驟:

  • (1)構(gòu)建提示:對于一個給定的輸入句子X,我們?yōu)閄構(gòu)建一個提示(用Prompt(X) 來表示);
  • (2)將提示輸入到大語言模型得到生成的文本序列W = {w1 ,..., wn };
  • (3)將文本序列W轉(zhuǎn)化為實體標(biāo)簽序列,以獲得最終的結(jié)果。

如圖所示:第一句話:你是一個優(yōu)秀的語言學(xué)家;第二句話:任務(wù)是從給定的句子中標(biāo)記xxx實體。接下來是一些例子,然后給樹了一些例子。最后再輸入自己想要提取實體的句子得到結(jié)果。很容易發(fā)現(xiàn),每次只能提取一種實體,因此要提取出所有的實體,必須遍歷實體列表。例如GPT-3,對提示的長度有 一個硬性的限制(例如GPT-3的4096個tokens)。鑒于這種有限的標(biāo)記數(shù)量,我們不可能在一個提示中包括對所有實體類型的描述和演示。

1怎么提供實例樣本?

如圖所示:

  • 1、一個已經(jīng)訓(xùn)練好的ner模型提取訓(xùn)練數(shù)據(jù)中的實體,并為每一個實體構(gòu)建(實體,句子)對。
  • 2、將句子輸入的模型中并獲取實體的表示。
  • 3、通過knn找到和實體向量最接近的幾個鄰居,將得到的句子視為樣例。

2怎么進(jìn)行自我驗證?

Prompt:
I?am?an?excellent?linguist.?The?task?is?to?label?location?entities?in?the?given?sentence.
Below?are?some?examples.
Input:Columbus?is?a?city
Output:@@Columbus##?is?a?city
Input:Rare?Hendrix?song?sells?for?$17
Output:
GPT-3?Output:
Rare?@@Hendrix##?song?sells?for?$17

過度預(yù)測是指將不是實體的預(yù)測為實體。如上面的例子:Hendrix被識別為一個location實體,這顯然是不對的。自我驗證策略:給定一個由LLM提取的實體,我們要求LLM進(jìn)一步驗證該提取的實體是否正確,用是或否回答。比如:

“The?task?is?to?verify?whether?the?word?is?a?location?entity?extracted?from?the?given?sentence”
(1)?“The?input?sentence:?Only?France?and?Britain?backed?Fischler’s?proposal”,
(2)?“Is?the?word?"France"?in?the?input?sentence?a?location?entity??Please?answer?with?yes?or?no”.
(3)?Yes

同樣的,也是根據(jù)之前的策略選擇樣例。

Part3實驗

  • 模型:GPT-3 (Brown et al., 2020) (davinci-003)
  • 最大長度:512
  • 溫度:0
  • top_p:1
  • frequency_penalty:0
  • presence_penalty:0
  • best_of:1

總結(jié)一下,利用大語言模型進(jìn)行信息抽取,大多數(shù)都是采用這種類似問答的方式進(jìn)行的,也就是分為多個步驟。文章來源地址http://www.zghlxwxcb.cn/news/detail-420381.html

到了這里,關(guān)于GPT-NER:通過大型語言模型的命名實體識別的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 調(diào)用阿里云API接口實現(xiàn)電商領(lǐng)域命名實體識別NER

    調(diào)用阿里云API接口實現(xiàn)電商領(lǐng)域命名實體識別NER

    阿里云簡介 阿里云是全球領(lǐng)先的云計算及人工智能科技公司,成立于 2009 年,為 200 多個國家和地區(qū)的企業(yè)、開發(fā)者和政府機(jī)構(gòu)提供服務(wù)。阿里云提供了一系列的云計算服務(wù),包括服務(wù)器租賃、云數(shù)據(jù)庫、云存儲、人工智能等,幫助企業(yè)和個人更高效地管理和運行他們的在線

    2024年04月10日
    瀏覽(25)
  • 【網(wǎng)安AIGC專題11.1】(頂刊OpenAI API調(diào)用)CodeX(比chatgpt更好)用于命名實體識別NER和關(guān)系抽取RE:提示工程設(shè)計+控制變量對比實驗(格式一致性、模型忠實度、細(xì)粒度性能)

    【網(wǎng)安AIGC專題11.1】(頂刊OpenAI API調(diào)用)CodeX(比chatgpt更好)用于命名實體識別NER和關(guān)系抽取RE:提示工程設(shè)計+控制變量對比實驗(格式一致性、模型忠實度、細(xì)粒度性能)

    這次該我匯報啦 許愿明天講的順利,問的都會 講+提問1個小時 但是在討論的過程中,感覺逐步抽絲挖掘到了核心原理: 之前的理解:借助代碼-LLM中的編碼豐富結(jié)構(gòu)化代碼信息 最后的理解:如果能設(shè)置一個方法,讓大模型能對自己輸出的有所理解,那么效果會更好。這篇論

    2024年02月05日
    瀏覽(34)
  • 【LLM GPT】大型語言模型 理解和實現(xiàn)

    【LLM GPT】大型語言模型 理解和實現(xiàn)

    怎么學(xué)習(xí)?——給定輸入和輸出: 但是這樣做不現(xiàn)實,因為這樣輸入-輸出需要成對的資料,而chatgpt 成功解決了這一個難題。 chatgpt不需要成對的資料,只需要一段有用的資料,便可以自己學(xué)習(xí)內(nèi)容,如下: 初代和第二代gpt 第二代到第三代 gpt3還會寫代碼 其性能表現(xiàn) 但是

    2024年02月09日
    瀏覽(39)
  • 【LLM GPT】李宏毅大型語言模型課程

    【LLM GPT】李宏毅大型語言模型課程

    怎么學(xué)習(xí)?——給定輸入和輸出: 但是這樣做不現(xiàn)實,因為這樣輸入-輸出需要成對的資料,而chatgpt 成功解決了這一個難題。 chatgpt不需要成對的資料,只需要一段有用的資料,便可以自己學(xué)習(xí)內(nèi)容,如下: 初代和第二代gpt 第二代到第三代 gpt3還會寫代碼 其性能表現(xiàn) 但是

    2024年02月10日
    瀏覽(24)
  • 論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...

    論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...

    筆記整理:田家琛,天津大學(xué)博士,研究方向為文本分類 鏈接:https://ojs.aaai.org/index.php/AAAI/article/view/26599 動機(jī) 近年來,隨著預(yù)訓(xùn)練語言模型(PLMs)在情感分類領(lǐng)域的廣泛應(yīng)用,PLMs中存在的命名實體情感偏差問題也引起了越來越多的關(guān)注。具體而言,當(dāng)前的PLMs基于神經(jīng)上下

    2024年02月10日
    瀏覽(23)
  • 一文看懂多模態(tài)大型語言模型GPT-4

    一文看懂多模態(tài)大型語言模型GPT-4

    近日,OpenAI發(fā)布了最新版的生成預(yù)訓(xùn)練模型GPT-4。據(jù)官方介紹,最新一代的模型是一個大模型,性能比CPT-3.5強(qiáng)悍很多,不僅僅是接受圖像、文本、代碼等的輸入輸出,更多的是在很多專業(yè)領(lǐng)域表現(xiàn)出人類的水準(zhǔn)水;與上一代不同的是它的核心技術(shù)是基于Transformer的自回歸語言

    2023年04月08日
    瀏覽(17)
  • 8大倫理考量:大型語言模型(LLM)如GPT-4

    大語言模型(LLM)如ChatGPT、GPT-4、PaLM、LaMDA等,具有生成和分析類人文本的能力。然而,它們也可能會產(chǎn)生有害內(nèi)容,如仇恨言論、極端主義宣傳、種族主義或性別歧視語言等,對特定個人或群體造成傷害。盡管LLM本身并不具有偏見或危害性,但它們所訓(xùn)練的數(shù)據(jù)可能反映了社

    2024年03月22日
    瀏覽(38)
  • 對齊大型語言模型與人類偏好:通過表示工程實現(xiàn)

    對齊大型語言模型與人類偏好:通過表示工程實現(xiàn)

    強(qiáng)化學(xué)習(xí)表現(xiàn)出相當(dāng)復(fù)雜度、對超參數(shù)的敏感性、在訓(xùn)練過程中的不穩(wěn)定性,并需要在獎勵模型和價值網(wǎng)絡(luò)中進(jìn)行額外的訓(xùn)練,導(dǎo)致了較大的計算成本。為了解決RL方法帶來的上述挑戰(zhàn),提出了幾種計算上輕量級的替代方案,在這些替代方案中,兩個突出的范例包括對比學(xué)習(xí)

    2024年01月24日
    瀏覽(24)
  • 在 Google Colab 中微調(diào)用于命名實體識別的 BERT 模型

    命名實體識別是自然語言處理(NLP)領(lǐng)域的一項主要任務(wù)。它用于檢測文本中的實體,以便在下游任務(wù)中進(jìn)一步使用,因為某些文本/單詞對于給定上下文比其他文本/單詞更具信息性和重要性。這就是 NER 有時被稱為信息檢索的原因,即從文本中提取相關(guān)并將其分類為所

    2024年02月11日
    瀏覽(19)
  • 【NLP】一項NER實體提取任務(wù)

    ????????從文本中提取實體是一項主要的自然語言處理 (NLP) 任務(wù)。由于深度學(xué)習(xí)(DL)的最新進(jìn)展使我們能夠?qū)⑺鼈冇糜贜LP任務(wù),并且與傳統(tǒng)方法相比,在準(zhǔn)確性上產(chǎn)生了巨大的差異。 ????????我試圖使用深度學(xué)習(xí)和傳統(tǒng)方法從文章中提取信息。結(jié)果是驚人的,因為

    2024年02月16日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包