国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【NLP文章閱讀】Zero-Shot Information Extraction via Chatting with ChatGPT

這篇具有很好參考價值的文章主要介紹了【NLP文章閱讀】Zero-Shot Information Extraction via Chatting with ChatGPT。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


轉(zhuǎn)載和使用規(guī)則:更多論文解讀請關(guān)注: NLP_paper,如需轉(zhuǎn)載文章需要為我的github項目star,并聲明文章來源

1 模型創(chuàng)新

零樣本信息提?。↖nformation Extraction)旨在從未注釋的文本中構(gòu)建IE系統(tǒng)。由于很少涉及人類干預(yù),這是一項具有挑戰(zhàn)性的工作。零樣本IE具有挑戰(zhàn)性但值得一提,它減少了數(shù)據(jù)標(biāo)記所需的時間和數(shù)據(jù)標(biāo)注的麻煩

我們使用兩階段框架(ChatIE)將零樣本IE任務(wù)轉(zhuǎn)換為多輪問題解答問題。在三個IE任務(wù)上對我們的框架進(jìn)行了廣泛的評估:

  • 實體關(guān)系三重提?。╡ntity–relation triple extract,RE)
  • 命名實體識別(name entity-relation,NER)
  • 事件提取(event extraction,EE)

在兩種語言的六個數(shù)據(jù)集上的經(jīng)驗結(jié)果表明,ChatIE取得了令人印象深刻的性能。

2 前期調(diào)研

2.1 難以解決的問題

包含多個相關(guān)元素的結(jié)構(gòu)化數(shù)據(jù)很難通過一次性預(yù)測來提取,尤其是對于RE等一些復(fù)雜任務(wù)。以前的工作將這些復(fù)雜任務(wù)分解為不同的部分,并訓(xùn)練幾個模塊來解決每個部分。

  • 例如,在RE任務(wù)中,pipline方法PURE首先識別兩個實體,然后預(yù)測它們之間的關(guān)系。然而,在該模型中,需要通過標(biāo)記數(shù)據(jù)進(jìn)行監(jiān)督。此外,Li等人將RE視為一個問答過程,首先提取主題,然后根據(jù)關(guān)系模板提取對象

3 Method

3.1 方法

Zero-shoot任務(wù)轉(zhuǎn)換為具有兩階段框架的多回合問答問題。

  • 第一階段,我們的目標(biāo)是找出句子中可能存在的相應(yīng)元素類型。
  • 第二階段,我們對階段I中的每個元素類型執(zhí)行鏈?zhǔn)叫畔⑻崛?。每個階段都通過多回合QA過程實現(xiàn)。
    【NLP文章閱讀】Zero-Shot Information Extraction via Chatting with ChatGPT

3.2 數(shù)據(jù)集

3.2.1 RE

NYT11-HRL:包含12種預(yù)定義的關(guān)系類型。

DuIE2.0:業(yè)界最大的基于模式的中文RE數(shù)據(jù)集,包含48種預(yù)定義的關(guān)系類型

3.2.2 NER

conll2003:包含4種實體類型

MSRA:是一個以中文命名的新聞領(lǐng)域?qū)嶓w識別數(shù)據(jù)集,包含3種實體類型

3.2.3 EE

DuEE1.0:百度發(fā)布的一個中文事件提取數(shù)據(jù)集,包含65種事件類型。

ACE053語料庫提供了來自新聞專線和在線論壇等多個領(lǐng)域的文檔和句子級別的事件注釋。

3.3 評價指標(biāo)

3.3.1 RE

我們報告了標(biāo)準(zhǔn)的微觀F1測量,并采用了兩個評估指標(biāo):

1)邊界值(BE):如果主體和對象以及關(guān)系的整個實體跨度都是正確的,則提取的關(guān)系三元組(主體、關(guān)系、對象)被認(rèn)為是正確的。

2) 嚴(yán)格評估(SE):除了訂單評估中需要的內(nèi)容外,主體和客體的類型也必須正確。我們在NYT11-HRL上使用be,因為沒有實體類型的注釋,而在DuIE2.0上使用SE

3.3.2 NER

只考慮完全匹配,并使用微觀F1來評估NER任務(wù)。只有當(dāng)預(yù)測實體和真實實體的邊界和類型相同時,我們才會將其視為正確的預(yù)測

3.3.3 EE

我們在DuEE1.0數(shù)據(jù)集和ACE05數(shù)據(jù)集上采用了不同的評估指標(biāo)。對于DuEE1.0數(shù)據(jù)集,根據(jù)單詞水平匹配對F-measure( F 1 4 F1^4 F14)進(jìn)行評分。對于ACE05數(shù)據(jù)集,預(yù)測的自變量結(jié)果與實體級別的手動標(biāo)記自變量結(jié)果相匹配,并由micro F1進(jìn)行評估

TP: Ture Positive 把正的判斷為正的數(shù)目。
FN: False Negative 把正的錯判為負(fù)的數(shù)目。
FP: False Positive 把負(fù)的錯判為正的數(shù)目。
TN: True Negative 把負(fù)的判為負(fù)的數(shù)目。

P(Precision)查準(zhǔn)率,精確率:精確率就是算正樣本中有多少是正確的。(簡單來說是你預(yù)測為正的樣本中有多少是正確的) 公式:P=TP/(TP+FP)

R(Recall)查全率,召回率:召回率是所有的正樣本中有多少被預(yù)測正確了公式:R=TP/(TP+FN)

P , R是一對矛盾的度量,一般一個的值高了,另一個的值就會降低,

F1就是綜合P,R公式:F1=2PR/(R+P)文章來源地址http://www.zghlxwxcb.cn/news/detail-406445.html

4 效果

  • 在六個廣泛使用的IE數(shù)據(jù)集上,ChatIE通常平均提高18.98%的性能。值得注意的是,與少鏡頭方法相比,這種提高變得更加顯著。
  • 監(jiān)督學(xué)習(xí)模型計算密集,需要高質(zhì)量的標(biāo)記數(shù)據(jù)。此外,對于每項任務(wù),都會從頭開始訓(xùn)練一個單獨的模型。相比之下,ChatIE在沒有任何微調(diào)和訓(xùn)練來更新參數(shù)的情況下工作。它大大減少了計算和時間投入。

到了這里,關(guān)于【NLP文章閱讀】Zero-Shot Information Extraction via Chatting with ChatGPT的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • AIGC零基礎(chǔ)30天學(xué)習(xí)——CLIP與zero-shot

    AIGC零基礎(chǔ)30天學(xué)習(xí)——CLIP與zero-shot

    ? ? ? ?在前面對CLIP的學(xué)習(xí)中,對 zero-shot prediction 環(huán)節(jié)一直有一些疑惑,zero-shot是什么,它該如何進(jìn)行操作? ? ? zero-shot是指零樣本學(xué)習(xí),和zero-shot相關(guān)聯(lián)的概念包括many-shot、few-shot和one-shot,這些其實都是從訓(xùn)練集樣本類型、測試集樣本類型和對應(yīng)的樣本數(shù)量角度進(jìn)行劃分

    2024年02月09日
    瀏覽(19)
  • 105、Zero-1-to-3: Zero-shot One Image to 3D Object

    105、Zero-1-to-3: Zero-shot One Image to 3D Object

    官網(wǎng) ?使用合成數(shù)據(jù)集來學(xué)習(xí)相對攝像機(jī)視點的控制,這允許在指定的攝像機(jī)變換下生成相同對象的新圖像,用于從單個圖像進(jìn)行三維重建的任務(wù)。 ?輸入圖像 x ∈ R H × W × 3 x in R^{H times W times 3} x ∈ R H × W × 3 ,所需視點的相對攝像機(jī)旋轉(zhuǎn)和平移 R ∈ R 3 × 3 , T ∈ R

    2024年02月01日
    瀏覽(27)
  • 代碼解讀:Zero-shot 視頻生成任務(wù) Text2Video-Zero

    Diffusion Models視頻生成-博客匯總 前言: 上一篇博客《【ICCV 2023 Oral】解讀Text2Video-Zero:解鎖 Zero-shot 視頻生成任務(wù)》解讀了這篇論文《Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators》。這篇論文的創(chuàng)新點比較多,含金量很高,而且開源了代碼。所以這篇博客結(jié)合

    2024年02月03日
    瀏覽(17)
  • huggingface pipeline零訓(xùn)練樣本分類Zero-Shot Classification的實現(xiàn)

    1 : 默認(rèn)的model 。 輸出是 education 第一位的。 2 : 使用 morit/chinese_xlm_xnli : 3:使用 facebook/bart-large-mnli 4:

    2024年02月20日
    瀏覽(26)
  • 論文筆記--Prompt Consistency for Zero-Shot Task Generalization

    論文筆記--Prompt Consistency for Zero-Shot Task Generalization

    標(biāo)題:Prompt Consistency for Zero-Shot Task Generalization 作者:Chunting Zhou, Junxian He, Xuezhe Ma, Taylor Berg-Kirkpatrick, Graham Neubig 日期:2022 期刊:Arxiv preprint ??文章基于prompt的一致性學(xué)習(xí)給出了一種zero-shot task generalization(零樣本泛化學(xué)習(xí))的無監(jiān)督方法。數(shù)值實驗表明,文章提出的指令

    2024年02月10日
    瀏覽(26)
  • diffusion model (七) diffusion model是一個zero-shot 分類器

    diffusion model (七) diffusion model是一個zero-shot 分類器

    Paper: Your Diffusion Model is Secretly a Zero-Shot Classifier Website: diffusion-classifier.github.io/ diffusion model(一)DDPM技術(shù)小結(jié) (denoising diffusion probabilistic) diffusion model(二)—— DDIM技術(shù)小結(jié) diffusion model(三)—— classifier guided diffusion model diffusion model(四)文生圖diffusion model(classifier-free

    2024年02月12日
    瀏覽(17)
  • 【深度學(xué)習(xí)】【風(fēng)格遷移】Zero-shot Image-to-Image Translation

    【深度學(xué)習(xí)】【風(fēng)格遷移】Zero-shot Image-to-Image Translation

    論文:https://arxiv.org/abs/2302.03027 代碼:https://github.com/pix2pixzero/pix2pix-zero/tree/main 大規(guī)模文本到圖像生成模型展示了它們合成多樣且高質(zhì)量圖像的顯著能力。然而,直接將這些模型應(yīng)用于編輯真實圖像仍然存在兩個挑戰(zhàn)。首先, 用戶很難提供完美的文本提示,準(zhǔn)確描述輸入圖像

    2024年02月13日
    瀏覽(11)
  • Prompt-“設(shè)計提示模板:用更少數(shù)據(jù)實現(xiàn)預(yù)訓(xùn)練模型的卓越表現(xiàn),助力Few-Shot和Zero-Shot任務(wù)”

    Prompt-“設(shè)計提示模板:用更少數(shù)據(jù)實現(xiàn)預(yù)訓(xùn)練模型的卓越表現(xiàn),助力Few-Shot和Zero-Shot任務(wù)”

    通過設(shè)計提示(prompt)模板,實現(xiàn)使用更少量的數(shù)據(jù)在預(yù)訓(xùn)練模型(Pretrained Model)上得到更好的效果,多用于:Few-Shot,Zero-Shot 等任務(wù)。 prompt 是當(dāng)前 NLP 中研究小樣本學(xué)習(xí)方向上非常重要的一個方向。舉例來講,今天如果有這樣兩句評論: 什么蘋果啊,都沒有蘋果味,怪怪

    2024年02月11日
    瀏覽(20)
  • Pre-trained Language Models Can be Fully Zero-Shot Learners

    本文是LLM系列文章,針對《Pre-trained Language Models Can be Fully Zero-Shot Learners》的翻譯。 在沒有標(biāo)記或額外的未標(biāo)記數(shù)據(jù)的情況下,我們?nèi)绾螌㈩A(yù)先訓(xùn)練的模型擴(kuò)展到許多語言理解任務(wù)?經(jīng)過預(yù)訓(xùn)練的語言模型(PLM)對于廣泛的NLP任務(wù)是有效的。然而,現(xiàn)有的方法要么需要對下游

    2024年02月07日
    瀏覽(23)
  • Text2Video-Zero:Text-to-Image擴(kuò)散模型是Zero-Shot視頻生成器

    Text2Video-Zero:Text-to-Image擴(kuò)散模型是Zero-Shot視頻生成器

    Paper: https://arxiv.org/abs/2303.13439 Project: https://github.com/Picsart-AI-Research/Text2Video-Zero 原文鏈接:Text2Video-Zero:Text-to-Image擴(kuò)散模型是Zero-Shot視頻生成器(by 小樣本視覺與智能前沿) 目錄 最近的text-to-video生成方法依賴于計算量大的訓(xùn)練,并且需要大規(guī)模的視頻數(shù)據(jù)集。 在本文中,我

    2024年02月11日
    瀏覽(44)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包