国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting

這篇具有很好參考價值的文章主要介紹了論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

簡介

本文主要對2023ACL論文《Reasoning Implicit Sentiment with Chain-of-Thought Prompting》主要內(nèi)容進行介紹。

摘要

雖然情緒分析任務(wù)中通常根據(jù)輸入文本中的關(guān)鍵意見表達來確定給定目標的情緒極性,但在隱式情緒分析(ISA)中,意見線索通常是隱含或者模糊的。因此,檢測隱含情緒需要常識和多跳推理能力來推斷意見的潛在意圖。在思想鏈(CoT)思想的啟發(fā),本文引入了一個三跳推理(THOR)CoT框架來模擬ISA的模擬人類推理的過程。THOR設(shè)計了一個三步提示原則,逐步誘導隱含的方面、觀點,最后是情緒的極性。THOR+Flan-T5(11B)在監(jiān)督微調(diào)下將數(shù)據(jù)集最優(yōu)性能(SoTA)提高了6%以上。更引人注目的是,THOR+GPT3(175B)在零樣本設(shè)置下將SoTA提高了50%以上。

引言

論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
情感分析(SA)旨在基于輸入文本檢測對給定目標的情緒極性。SA可分為顯性SA(ESA)和隱性SA(ISA),前者是當前的主流任務(wù),他的情感表達會明確出現(xiàn)在文本中。因此ISA更具挑戰(zhàn)性,因為在ISA中,輸入僅包含事實描述,沒有直接給出明確的意見表達。例如,給定一個文本“Try the tandoori salmon!”,由于沒有顯著的提示詞,幾乎所有現(xiàn)有的情緒分類都預測“tandoori salmon”為中性極性。人類很容易準確地確定情緒狀態(tài),因為我們總是掌握在文本后面隱含的真實意圖或觀點。因此,在沒有真正理解情緒是如何被激發(fā)的情況下,傳統(tǒng)的SA方法對ISA是無效的。

THOR

近期大模型的崛起,讓我們看到了機器對文本的理解有了新的高度。受到大模型中CoT的啟發(fā),文章提出了THOR( Three-hop Reasoning CoT framework),一個三段式的提問框架,能夠通過循循善誘地方法,很好的讓機器對隱形情感進行挖掘并預測,提升了ISA任務(wù)的性能。
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
如上圖所示:
Traditional Prompting,表明傳統(tǒng)的提示學習方法就是直接問模型,這句話中這個詞的情感極性是什么。

Three-hop Reasoning with CoT Prompting,則是本文提出基于大模型思維鏈(CoT)的方法,提出的三段式提問框架。首先詢問句子在講述方面詞的什么方面;其次,將回答整合后,將整合后的答案繼續(xù)問方面詞背后有什么隱含觀點;最后,再次整合前面的回答,最后問方面詞的情感極性是什么。

通過THOR我們可以看到,使用CoT的方法循循善誘模型得到的答案為positive是正確的,而傳統(tǒng)的提問時neutral是不正確的。

THOR框架具體設(shè)置如下:
假設(shè)我們要預測的句子為:“The new mobile phone can be just put in my pocket.”
其中要預測的方面詞為“The new mobile phone”
不妨設(shè)句子為X,設(shè)方面詞為t
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
以上述設(shè)置為例:
第一步,模型的輸入為 Given the sentence “X”, which specific aspect of t is possibly mentioned?
假設(shè)模型得到的結(jié)果為"The specific aspect of the new mobile phone mentioned in the sentence is the size or portability",記為A

論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
第二步,模型的輸入為Given the sentence “X”, A(第一問結(jié)果). Based on the common sense, what is the implicit opinion towards the mentioned aspect of the new mobile phone, and why?

假設(shè)模型輸出為"Based on the mentioned aspect of size and portability, the sentence implies that the phone is small enough to fit in the speaker’s pocket. According
to common sense, the implicit opinion of speaker towards the portability is good, because the speaker is able to easily carry the phone with them by
placing it in their pocket, and find the phone to be convenient and easy to use."這個答案不妨記作O。
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
第三步,模型的輸入為Given the sentence “X”, A(第一問結(jié)果), O(第二問的結(jié)果). Based on such opinion, what is the sentiment polarity towards the new mobile phone?

此時假設(shè)模型的輸出為"The sentiment polarity towards the new mobile phone based on the given sentence is positive. The speaker finds the phone to be convenient and easy
to use, implying having a favorable view of the phone."

此時我們可以看到,模型得到了我們需要的預測結(jié)果為positive。
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
此時再來看這幅圖,應該是一目了然了吧。

THOR核心代碼

def prompt_for_aspect_inferring(context, target):
    new_context = f'Given the sentence "{context}", '
    prompt = new_context + f'which specific aspect of {target} is possibly mentioned?'
    return new_context, prompt


def prompt_for_opinion_inferring(context, target, aspect_expr):
    new_context = context + ' The mentioned aspect is about ' + aspect_expr + '.'
    prompt = new_context + f' Based on the common sense, what is the implicit opinion towards the mentioned aspect of {target}, and why?'
    return new_context, prompt

def prompt_for_polarity_inferring(context, target, opinion_expr):
    new_context = context + f' The opinion towards the mentioned aspect of {target} is ' + opinion_expr + '.'
    prompt = new_context + f' Based on such opinion, what is the sentiment polarity towards {target}?'
    return new_context, prompt

實驗結(jié)果

文章實驗主要是基于Flan-T5大模型做的(因為這是為數(shù)不多開源且效果不錯的大模型)
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
這個結(jié)果是使用數(shù)據(jù)集進行監(jiān)督微調(diào)訓練后的結(jié)果,監(jiān)督微調(diào)大模型確實能夠使得模型有更好的表現(xiàn),但是隨著現(xiàn)在預訓練大模型越來越大,我們微調(diào)的成本也越來越大了。
論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting,論文閱讀,自然語言處理
這個結(jié)果是使用zero-shot零樣本得到的結(jié)果(不對大模型進行微調(diào),直接通過THOR框架或者直接prompt詢問結(jié)果,省去了微調(diào)大模型的時間和需要花費的資源,但是整體效果不如監(jiān)督微調(diào)的結(jié)果)。可以看得出使用THOR的方法比直接prompt效果好,并且當用GPT3作為大模型詢問時,效果明顯好很多,因為GPT3的參數(shù)量遠大于Flan-T5而且也并不開源,使用起來可能需要花點錢。這說明目前大模型對自然語言的理解缺失已經(jīng)有了質(zhì)的飛躍了。

總結(jié)

這篇文章使用大模型思維鏈的思路優(yōu)化了隱式情感分析中,隱含觀點等難以挖掘的難題,使得ISA任務(wù)能夠有較大性能的提升。隨著近些年prompt learning的興起,提示學習也逐漸成為NLP中的新范式,也讓我們逐漸發(fā)現(xiàn),訓練出的大模型有很強的能力等待我們?nèi)ネ诰?,就好像一個聰明的小孩,你教他一遍怎么做,他就能幫你把任務(wù)做的不錯了。文章來源地址http://www.zghlxwxcb.cn/news/detail-842369.html

到了這里,關(guān)于論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》論文閱讀

    《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》論文閱讀

    文章地址: https://link.springer.com/chapter/10.1007/978-3-030-60450-9_52 ??在這篇文章中作者提出了一個繼承性的序列標注模型( hierarchical sequence labeling model, HSLM)以端到端的方式識別文本語句中所含有的方面級情感三元組(ASTE)。該模型主要有三個部分組成:方面級序列標注模塊、

    2024年01月16日
    瀏覽(25)
  • 【論文閱讀筆記】Tag-assisted multimodal sentiment analysis under uncertain missing modalities

    【論文閱讀筆記】Tag-assisted multimodal sentiment analysis under uncertain missing modalities

    Zeng J, Liu T, Zhou J. Tag-assisted multimodal sentiment analysis under uncertain missing modalities[C]//Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. 2022: 1545-1554.【開放源碼】 【論文概述】 本文提出了一種名為“標簽輔助變換器編碼器(TATE)網(wǎng)絡(luò)”的新型多

    2024年01月17日
    瀏覽(25)
  • (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    論文地址 https://openreview.net/pdf?id=_VjQlMeSB_J ????????我們探索如何生成一個思維鏈——一系列中間推理步驟——如何顯著提高大型語言模型執(zhí)行復雜推理的能力。 特別是,我們展示了這種推理能力如何通過一種稱為思維鏈提示的簡單方法自然地出現(xiàn)在足夠大的語言模型中,

    2024年02月07日
    瀏覽(24)
  • NICE-SLAM: Neural Implicit Scalable Encoding for SLAM論文閱讀

    NICE-SLAM: Neural Implicit Scalable Encoding for SLAM論文閱讀

    標題 :NICE-SLAM: Neural Implicit Scalable Encoding for SLAM 作者 :Zihan Zhu, Songyou Peng,Viktor Larsson — Zhejiang University 來源 :CVPR 代碼 :https://pengsongyou.github.io/nice-slam 時間 :2022 神經(jīng)隱式(Neural implicit representations)表示最近在同步定位和地圖繪制(SLAM)方面有一定的進展,但現(xiàn)有方法

    2024年02月15日
    瀏覽(27)
  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    題目:《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》 作者:Jason Wei and et al. 會議: NeurlPS 2022 內(nèi)容概述:論文探索如何生成一個思想鏈(一系列中間推理步驟)來顯著提高大型語言模型執(zhí)行復雜推理的能力。 我們探索生成一條思維鏈(一系列中間推理步驟)如何顯

    2024年02月09日
    瀏覽(17)
  • 毫米波雷達成像論文閱讀筆記: IEEE TPAMI 2023 | CoIR: Compressive Implicit Radar

    毫米波雷達成像論文閱讀筆記: IEEE TPAMI 2023 | CoIR: Compressive Implicit Radar

    原始筆記鏈接:https://mp.weixin.qq.com/s?__biz=Mzg4MjgxMjgyMg==mid=2247486680idx=1sn=edf41d4f95395d7294bc958ea68d3a68chksm=cf51be21f826373790bc6d79bcea6eb2cb3d09bb1860bba0af0fd5e60c448ca006976503e460#rd ↑ uparrow ↑ 點擊上述鏈接即可閱讀全文 毫米波雷達成像論文閱讀筆記: IEEE TPAMI 2023 | CoIR: Compressive Implicit Radar Ab

    2024年02月12日
    瀏覽(28)
  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思維鏈】

    《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思維鏈】

    思維鏈,是一系列中間推理步驟,可以顯著提高大語言模型執(zhí)行復雜推理的能力。 思維鏈:一種簡單的提示方法,通過一系列的中間推理步驟,可以大大提高大語言模型執(zhí)行復雜推理的能力。 下圖為使用標準提示詞和使用思維鏈提示詞的輸出的區(qū)別: 與傳統(tǒng)Prompt的區(qū)別:

    2024年04月23日
    瀏覽(29)
  • Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D Shapes 論文筆記&環(huán)境配置

    發(fā)布于 CVPR 2021 論文介紹了一種具有神經(jīng)SDF的復雜幾何實時渲染方法。 論文提出了一種神經(jīng)SDF表示,可以有效地捕獲多個LOD,并以最先進的質(zhì)量重建3D幾何圖形。 論文中的架構(gòu)可以以比傳統(tǒng)方法具有更高視覺保真度的壓縮格式表示 3D 形狀,并且即使在單個學習示例中也能跨不

    2024年01月24日
    瀏覽(41)
  • CCD多模態(tài)去偏框架 論文閱讀筆記(Causal Intervention and Counterfactual Reasoning for Multi-modal Fake News Detection)

    CCD多模態(tài)去偏框架 論文閱讀筆記(Causal Intervention and Counterfactual Reasoning for Multi-modal Fake News Detection)

    論文標題:Causal Intervention and Counterfactual Reasoning for Multi-modal Fake News Detection 論文作者:Ziwei Chen, Linmei Hu, Weixin Li, Yingxia Shao, Liqiang Nie 論文來源:ACL 2023,Paper 代碼來源:未公布 目錄 引入 貢獻 基本知識介紹 因果圖 因果關(guān)系的干預 反事實推理與因果效應 方法 虛假新聞檢測的

    2024年02月08日
    瀏覽(30)
  • 《論文閱讀:Dataset Condensation with Distribution Matching》

    《論文閱讀:Dataset Condensation with Distribution Matching》

    點進去這篇文章的開源地址,才發(fā)現(xiàn)這篇文章和DC DSA居然是一個作者,數(shù)據(jù)濃縮寫了三篇論文,第一篇梯度匹配,第二篇數(shù)據(jù)增強后梯度匹配,第三篇匹配數(shù)據(jù)分布。DC是匹配濃縮數(shù)據(jù)和原始數(shù)據(jù)訓練一次后的梯度差,DSA是在DC前加入了一層數(shù)據(jù)增強,DM直接就匹配濃縮數(shù)據(jù)和

    2024年02月08日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包