国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分

這篇具有很好參考價值的文章主要介紹了【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

摘要

  • 本文工作聚焦于從領(lǐng)域泛化的視角提升AES模型的泛化能力,在該情況下,目標主題的數(shù)據(jù)在訓練時不能被獲得。
  • 本文提出了一個主題感知的神經(jīng)AES模型(PANN)來抽取用于作文評分的綜合的表示,包括主題無關(guān)(prompt-invariant)和主題相關(guān)(prompt-specific)的特征。
  • 為了提升表示的泛化能力,我們進一步提出了一個新的解纏繞表示學習框架(disentangled representation learning)。在這個框架中,設(shè)計了一個對比的模長-角度對齊策略(norm-angular alignment)和一個反事實自訓練策略(counterfactual self-training)用于解開表示中主題無關(guān)和主題相關(guān)的特征信息。

引言

  • 本文提出一個主題感知的神經(jīng)AES模型,它能夠基于一篇作文的編碼器(比如說預訓練的BERT)來抽取作文的質(zhì)量特征,并且基于一個文本匹配模塊來抽取主題遵循度特征。
  • 存在兩個問題:
    • 從編碼器中抽取到的作文質(zhì)量特征,比如BERT,可能編碼了質(zhì)量和內(nèi)容信息,并且它們在特征中是相互纏繞的。怎樣從特征中解開獨立的質(zhì)量信息是第一個問題;
    • 主題關(guān)聯(lián)特征和作文質(zhì)量特征都是基于作文抽取得到的。因此,從因果的角度看,作文是兩種特征的混淆因素,導致主題關(guān)聯(lián)度和作文質(zhì)量間的有誤導性的關(guān)聯(lián)。比如,一篇作文可能有不同的主題關(guān)聯(lián)性但是一樣的質(zhì)量,在不同的主題下。所以,怎樣解開這種誤導性的關(guān)聯(lián),使得這兩種特征獨立得貢獻于最終的分數(shù)是第二個問題。

方法

  • 解纏繞表示學習框架(DRL)是基于預訓練和微調(diào)的范式進行設(shè)計的。
    • 在預訓練階段,設(shè)計了一個對比的norm-angular對齊策略來預訓練文章質(zhì)量特征,目的是解綁特征中的質(zhì)量和內(nèi)容信息。
    • 在微調(diào)階段,應用了一個反事實自訓練策略來微調(diào)整個PANN模型,目的是解綁文章質(zhì)量特征和主題相關(guān)特征之間的誤導性的關(guān)聯(lián)。
    • 最后,使用完全訓練好的PANN來評分目標主題的作文。

PANN的模型架構(gòu)

  • 三個主要組成:

    • 作文質(zhì)量網(wǎng)絡(EQ-net):只把作文作為輸入,抽取主題無關(guān)的作文質(zhì)量特征。
    • 主題關(guān)聯(lián)網(wǎng)絡(PA-net):把作文和主題都作為輸入,抽取主題特定的主題遵循度特征。因為這樣的基于交互的文本匹配模型能夠只關(guān)注作文和主題的詞級的相似度,它能夠避免編碼到和作文質(zhì)量相關(guān)的信息,比如句法和內(nèi)聚力,從而使得特征只特定于主題遵循度。
    • 作文評分預測器(ESP):結(jié)合兩種特征來預測整體分數(shù)。
      【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

    解纏繞表示學習DRL

    • EQ-net可能會編碼主題無關(guān)的質(zhì)量信息和主題相關(guān)的內(nèi)容信息,并且內(nèi)容信息會在不同主題間切換,它會阻止EQ-net的泛化能力。
    • 并且,PA-net和EQ-net都把作文作為輸入,這使得作文變成主題關(guān)聯(lián)度特征和作文質(zhì)量特征的混淆因素,導致他們之間具有誤導性的關(guān)聯(lián)。

質(zhì)量-內(nèi)容解纏(Quality-Content Disentanglement)

  • 我們提出了一個對比的模長-角度對齊策略(Contrastive Norm-Angular Alignment,CNAA)來在作文質(zhì)量特征中的質(zhì)量和內(nèi)容信息。
  • 這個策略的設(shè)計是基于模長不變性(norm invariant)和角度切換(angular shift)的假設(shè),它假設(shè)質(zhì)量和內(nèi)容信息能夠通過分別對齊就模長和角度而言的特征來被解綁。
  • 對于模長不變性,我們假設(shè)相似質(zhì)量的作文能夠本分布具有相似的模長,并且這些模長可能是各個主題都不變的。
  • 對于角度切換,我們假設(shè)具有相似內(nèi)容的作文(i.e.,主題)能夠被分布具有相似的角度,但是這些角度應該在不同的主題上切換。
數(shù)據(jù)增強

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

  • 為了準備數(shù)據(jù)用于對比的模長-角度對齊,我們首先從訓練集中抽取所有的高分和低分作文來組成原始數(shù)據(jù) D o D_o Do?。
  • 通過兩兩拼接這些作文來構(gòu)建衍生的數(shù)據(jù) D d D_d Dd?。
  • 隨機降低分數(shù)給拼接后的作文的原因是:
    • 拼接兩篇文章可能會降低那篇更高分數(shù)的作文的質(zhì)量(比如,內(nèi)聚力和組織)。
    • 拼接來自不同主題的兩篇文章可能會降低作文的主題遵循度(對兩個主題都是)。
模長不變性&角度切換 對齊
  • 基于成對的對比學習,包括模長不變的質(zhì)量對齊和角度切換的內(nèi)容對齊。
    【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

質(zhì)量-遵循度解纏(Quality-Content Disentanglement)

  • 本文嘗試提出和回答以下問題:“如果一篇文章的質(zhì)量保持不變,但它的題目符合度不同,那么最終得分會是多少?”
    【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習
預評分指導的自訓練
  • 本文把每個反事實實例的預打好的預分數(shù)和模型預測的偽分數(shù)結(jié)合作為它的最終分數(shù)。以這種方式,在預分數(shù)中提供的先驗知識和編碼在偽分數(shù)中的模型知識能夠被很好得融合。

實驗

  • ASAP數(shù)據(jù)集和TOEFL11數(shù)據(jù)集
    【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

實驗結(jié)果

  • 我們和主題泛化設(shè)置的方法進行比較,包括三類方法:基于手工特征的,基于神經(jīng)網(wǎng)絡的和混合的。
    【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

  • 可以看到,我們的PANN模型能夠超過大多數(shù)的基準方法,在兩個數(shù)據(jù)集上都達到最好的整體性能。這表明我們的方法對于主題泛化的作文評分是有用的。

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

  • 結(jié)合PA-net和EQ-net兩個部分比單獨的PA-net或者EQ-net的性能好。這表明PA-net和EQ-net都能夠為作文評分提供有用的信息。
  • 當EQ-net被用NIA和ASA預訓練,EQ-net的性能被提升。但是當EQ-net被只有他們中的一個預訓練的時候,在TOEFL11數(shù)據(jù)集上性能下降了。相似的現(xiàn)象也可以在PA-net+EQ-net上觀察到。這可能是由于兩個損失需要被同時使用來解開質(zhì)量和內(nèi)容信息的纏繞。
  • 并且,CTS也需要和CNAA策略一起使用來獲得更好的性能。

進一步分析

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

  • 數(shù)據(jù)增強的影響:可以發(fā)現(xiàn)PANN和EQ-net能夠從數(shù)據(jù)增強中受益,特別是在ASAP的P3上,和TOEFL11數(shù)據(jù)集的P5上。

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習

  • PA-net的影響:是否PA-net能夠獨立的影響最終的分數(shù)預測??梢钥吹?,PANN為在不匹配的主題下的高分作文預測了平均更低的分數(shù);由于EQ-net在兩種設(shè)置下輸出的特征是不變的,所以PA-net能夠感知主題上的變化,能夠獨立影響分數(shù)預測。
  • 數(shù)據(jù)大小的影響:在數(shù)據(jù)大小增大時,我們的PANN的預測性能相應提升,但是BERT的性能先上升后下降。這表明我們的表示解纏繞策略能夠處理主題個數(shù)增長時帶來的纏繞的信息的問題,所以模型能夠從數(shù)據(jù)增長中獲益。

特征可視化

【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分,NLP,論文閱讀,學習文章來源地址http://www.zghlxwxcb.cn/news/detail-629442.html

  • 展示了EQ-net有和沒有CNAA策略時的特征分布。
  • (a)圖三個等級的分數(shù)相對很好的分開了(left),但是不同主題的作文沒有完全分開,特別時低分和中等分數(shù)的作文。
  • (b)圖中使用了本文的CNAA策略,分數(shù)能夠很好的分開根據(jù)不同的模長,主題能夠很好的分開根據(jù)不同的角的方向。

到了這里,關(guān)于【論文閱讀】通過解纏繞表示學習提升領(lǐng)域泛化能力用于主題感知的作文評分的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • SCI一區(qū)論文閱讀小結(jié)之深度學習在氣象領(lǐng)域應用(未完待續(xù))

    SCI一區(qū)論文閱讀小結(jié)之深度學習在氣象領(lǐng)域應用(未完待續(xù))

    最近文獻調(diào)研,發(fā)現(xiàn)一個研究相近的師兄最近發(fā)的幾篇文章給的啟發(fā)性很高,閱讀文獻的同時也對這幾篇文章做個總結(jié),以防自己忘記,也分享給大家。 首先,甩出這位大佬的RG: https://www.researchgate.net/profile/Xuan-Tong-3/research 最近的研究都是將深度學習應用到氣象領(lǐng)域的,比如

    2024年02月21日
    瀏覽(33)
  • 《論文閱讀》通過生成會話模型的遷移學習會話中的情感識別

    《論文閱讀》通過生成會話模型的遷移學習會話中的情感識別

    前言 你是否也對于理解論文存在困惑? 你是否也像我之前搜索論文解讀,得到只是中文翻譯的解讀后感到失望? 小白如何從零讀懂論文?和我一起來探索吧! 今天為大家?guī)淼氖恰禘motion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling》 出版:Journal o

    2024年02月14日
    瀏覽(25)
  • 圖像融合論文閱讀:ReFusion:通過元學習的從可學習損失重建中學習圖像融合

    圖像融合論文閱讀:ReFusion:通過元學習的從可學習損失重建中學習圖像融合

    @article{bai2023refusion, title={ ReFusion: Learning Image Fusion from Reconstruction with Learnable Loss via Meta-Learning }, author={Bai, Haowen and Zhao, Zixiang and Zhang, Jiangshe and Wu, Yichen and Deng, Lilun and Cui, Yukun and Xu, Shuang and Jiang, Baisong}, journal={arXiv preprint arXiv:2312.07943}, year={2023} } 論文級別:arXiv 影響因子:

    2024年01月25日
    瀏覽(104)
  • 圖像處理之《尋找和隱藏:通過深度強化學習的對抗隱寫術(shù)》論文閱讀

    圖像處理之《尋找和隱藏:通過深度強化學習的對抗隱寫術(shù)》論文閱讀

    一、文章摘要 圖像隱寫術(shù)的目的是將一個完整大小的圖像(稱為秘密)隱藏到另一個圖像(稱為封面)中。以往的圖像隱寫算法只能在一個封面中隱藏一個秘密。在這篇論文中, 我們提出了一個自適應局部圖像隱寫(AdaSteg)系統(tǒng),允許縮放和位置自適應圖像隱寫 。該系統(tǒng)通過在局部

    2024年03月14日
    瀏覽(30)
  • 使用AIGC工具提升論文閱讀效率

    使用AIGC工具提升論文閱讀效率

    ??大家好,我是herosunly。985院校碩士畢業(yè),現(xiàn)擔任算法研究員一職,熱衷于機器學習算法研究與應用。曾獲得阿里云天池比賽第一名,CCF比賽第二名,科大訊飛比賽第三名。擁有多項發(fā)明專利。對機器學習和深度學習擁有自己獨到的見解。曾經(jīng)輔導過若干個非計算機專業(yè)的

    2024年02月08日
    瀏覽(23)
  • 圖像融合論文閱讀:CS2Fusion: 通過估計特征補償圖譜實現(xiàn)自監(jiān)督紅外和可見光圖像融合的對比學習

    圖像融合論文閱讀:CS2Fusion: 通過估計特征補償圖譜實現(xiàn)自監(jiān)督紅外和可見光圖像融合的對比學習

    @article{wang2024cs2fusion, title={CS2Fusion: Contrastive learning for Self-Supervised infrared and visible image fusion by estimating feature compensation map}, author={Wang, Xue and Guan, Zheng and Qian, Wenhua and Cao, Jinde and Liang, Shu and Yan, Jin}, journal={Information Fusion}, volume={102}, pages={102039}, year={2024}, publisher={Elsevier} } 論文級

    2024年01月22日
    瀏覽(35)
  • 論文閱讀:通過時空生成卷積網(wǎng)絡合成動態(tài)模式(重點論文)

    論文閱讀:通過時空生成卷積網(wǎng)絡合成動態(tài)模式(重點論文)

    原文鏈接 github code 介紹視頻 視頻序列包含豐富的動態(tài)模式,例如在時域中表現(xiàn)出平穩(wěn)性的動態(tài)紋理模式,以及在空間或時域中表現(xiàn)出非平穩(wěn)的動作模式。 我們證明了時空生成卷積網(wǎng)絡可用于建模和合成動態(tài)模式。 該模型定義了視頻序列上的概率分布,對數(shù)概率由時空ConvN

    2024年01月19日
    瀏覽(27)
  • Python機器學習、深度學習技術(shù)提升氣象、海洋、水文領(lǐng)域?qū)嵺`應用

    Python機器學習、深度學習技術(shù)提升氣象、海洋、水文領(lǐng)域?qū)嵺`應用

    Python是功能強大、免費、開源,實現(xiàn)面向?qū)ο蟮木幊陶Z言,在數(shù)據(jù)處理、科學計算、數(shù)學建模、數(shù)據(jù)挖掘和數(shù)據(jù)可視化方面具備優(yōu)異的性能,這些優(yōu)勢使得Python在氣象、海洋、地理、氣候、水文和生態(tài)等地學領(lǐng)域的科研和工程項目中得到廣泛應用??梢灶A見未來Python將成為的

    2023年04月23日
    瀏覽(20)
  • 基于Python機器學習、深度學習技術(shù)提升氣象、海洋、水文領(lǐng)域?qū)嵺`應用能力

    基于Python機器學習、深度學習技術(shù)提升氣象、海洋、水文領(lǐng)域?qū)嵺`應用能力

    查看原文 基于Python機器學習、深度學習技術(shù)提升氣象、海洋、水文領(lǐng)域?qū)嵺`應用能力 目錄 專題一、Python軟件的安裝及入門 專題二、氣象常用科學計算庫 專題三、氣象海洋常用可視化庫 專題四、爬蟲和氣象海洋數(shù)據(jù) 專題五、氣象海洋常用插值方法 專題六、機器學習基礎(chǔ)理

    2023年04月21日
    瀏覽(24)
  • 【論文閱讀】通過對比聚類分配的深度多視圖聚類

    【論文閱讀】通過對比聚類分配的深度多視圖聚類

    原文鏈接 對于大多數(shù)現(xiàn)有的深度MVC方法, 探索多視圖的不變表示 仍然是一個棘手的問題。在本文中,提出了一種 跨視圖對比學習(CVCL)方法 ,該方法學習視圖不變表示,并通過比較多個視圖之間的聚類分配來產(chǎn)生聚類結(jié)果。 具體來說,首先在預訓練階段使用深度自編碼器提

    2024年02月21日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包