国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...

這篇具有很好參考價值的文章主要介紹了論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理

筆記整理:田家琛,天津大學(xué)博士,研究方向為文本分類

鏈接:https://ojs.aaai.org/index.php/AAAI/article/view/26599

動機

近年來,隨著預(yù)訓(xùn)練語言模型(PLMs)在情感分類領(lǐng)域的廣泛應(yīng)用,PLMs中存在的命名實體情感偏差問題也引起了越來越多的關(guān)注。具體而言,當(dāng)前的PLMs基于神經(jīng)上下文編碼器,傾向于將某些命名實體上下文中的情感信息應(yīng)用到表示學(xué)習(xí)過程中,使得命名實體與情感之間容易形成虛假的相關(guān)性。本文提出了一種基于自適應(yīng)Gumbel攻擊的情感分類器Gater,在保證文本語義一致性的前提下,利用對抗攻擊策略緩解情感偏差問題。首先,該分類器內(nèi)置多個可生成Gumbel噪聲的專家網(wǎng)絡(luò),通過最小化網(wǎng)絡(luò)輸出之間的互信息來增加噪聲多樣性。然后,在模型訓(xùn)練期間,利用Gumel噪聲攻擊分類器輸出,根據(jù)攻擊前后置信度的變化情況判斷攻擊是否有效。最后,采用多路參數(shù)優(yōu)化算法將多個專家網(wǎng)絡(luò)參數(shù)和分類器參數(shù)進行融合,使分類器對專家網(wǎng)絡(luò)模擬的情感偏差產(chǎn)生免疫。實驗結(jié)果表明,該方法在不破壞情感分類性能的前提下,有效地緩解了PLMs中存在的命名實體情感偏差問題。

亮點

Gater的亮點主要包括:

(1) 提出利用Gumbel噪聲緩解命名實體情感偏差。Gumbel分布作為第一類型的廣義極值分布,采樣噪聲大部分來自于分布的尾部,對分類器輸出的改動幅度較小,有利于保護其原有的語義分布。

(2) 提出多路參數(shù)優(yōu)化算法。根據(jù)專家網(wǎng)絡(luò)的攻擊效果,將多個專家網(wǎng)絡(luò)的參數(shù)融合到分類模型中,有效地豐富了模型的參數(shù)更新方向。

模型簡介

如圖1所示,在前向傳播階段,Gater自適應(yīng)地為原始分類器??添加??個專家網(wǎng)絡(luò),每個專家網(wǎng)絡(luò)包含一個攻擊模塊??和一個基礎(chǔ)模塊??,其中??。??負(fù)責(zé)模擬有情感偏差的情況,??負(fù)責(zé)模擬沒有情感偏差的情況,它們經(jīng)過對比之后輸出模擬的情感偏差,用來攻擊??中的情感偏差。

具體而言,??和??的輸入是僅包含命名實體的文本向量表示。訓(xùn)練每個專家網(wǎng)絡(luò)時,Gater通過最大化??輸入與輸出之間的互信息(損失函數(shù)??),保證??中的情感偏差不再變化;通過最大化??輸出與加入Gumbel噪聲的輸入之間的互信息(損失函數(shù)??),使??學(xué)會Gumbel攻擊;通過最小化??之間的互信息(損失函數(shù)??),保證Gumbel噪聲的多樣性。此外,模型使用Softmax層的輸出來評估采樣效果。在下一輪的訓(xùn)練中,效果不好的專家網(wǎng)絡(luò)將被重置參數(shù)。

在反向傳播階段,多路參數(shù)優(yōu)化算法的目標(biāo)是融合??與每個??和??的參數(shù),使??獲得情感去偏的能力。例如,對于??進行參數(shù)更新,首先使用梯度下降算法更新??的參數(shù),并進一步融合??、??和??的參數(shù)。即:

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理

其中,??指的是??在第??個訓(xùn)練批次時的參數(shù)。??是選擇的損失函數(shù)。??是??在第??個訓(xùn)練批次時的平均置信度。當(dāng)?μ?時,表明第??個專家網(wǎng)絡(luò)無法降低情感偏差,因此分類器??的參數(shù)應(yīng)該遠(yuǎn)離第??個專家網(wǎng)絡(luò)的參數(shù)。當(dāng)?μ?時,表示第??個專家網(wǎng)絡(luò)實現(xiàn)了情感去偏,因此分類器??的參數(shù)應(yīng)該與第??個專家網(wǎng)絡(luò)的參數(shù)接近。當(dāng)?μ?時,表示第??個專家網(wǎng)絡(luò)無效,應(yīng)該保持分類器??原有的參數(shù)更新方向。

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理

圖1??Gater總體架構(gòu)圖

實驗

本文在七個真實數(shù)據(jù)集上進行實驗,它們分別是IMDb、SST-2、YELP-2、YELP-5、Amazon-2、Amazon-5和SemEval。此外,本文選擇的預(yù)訓(xùn)練模型分別是BERT、RoBERT、ALBERT和ELECTRA。

之前的研究發(fā)現(xiàn),目前的去偏方法可能會過度去偏,導(dǎo)致下游任務(wù)的性能下降。實驗結(jié)果表明(表1),Gater可以有效地避免過度去偏問題,且每個PLM的分類性能都比原始版本提升了0.0到2.0。

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理表1 分類性能

本文使用NLTK版本的詞性標(biāo)記工具從每個數(shù)據(jù)集中隨機選擇400個命名實體,然后通過情感轉(zhuǎn)移測試計算這些命名實體的情感得分。得分越高,情感偏差越嚴(yán)重。圖2反映了這些實體在使用Gater前后的情感偏差變化。對于每個數(shù)據(jù)集,Gater將情感偏差保持在較低的水平,即這些命名實體的情感得分接近于0。相比之下,在不使用Gater的情況下,這些命名實體具有較高的情感得分。這說明Gater有效地減少了情感偏差。

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理

論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...,語言模型,人工智能,自然語言處理

圖2?情感去偏

總結(jié)

本文提出了一種基于自適應(yīng)Gumbel攻擊的情感分類器Gater,從對抗攻擊的角度緩解了PLMs中的命名實體情感偏差。現(xiàn)實世界中的命名實體是復(fù)雜和多樣的,它們的特征和屬性會隨著時間和不同的環(huán)境而變化。隨著PLMs在現(xiàn)實場景中的廣泛應(yīng)用,Gater可以快速調(diào)整PLMs對命名實體的情感傾向性,從而有效地提高情感分類系統(tǒng)的魯棒性。


OpenKG

OpenKG(中文開放知識圖譜)旨在推動以中文為核心的知識圖譜數(shù)據(jù)的開放、互聯(lián)及眾包,并促進知識圖譜算法、工具及平臺的開源開放。

點擊閱讀原文,進入 OpenKG 網(wǎng)站。
文章來源地址http://www.zghlxwxcb.cn/news/detail-686953.html

到了這里,關(guān)于論文淺嘗 | 利用對抗攻擊策略緩解預(yù)訓(xùn)練語言模型中的命名實體情感偏差問題...的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 論文淺嘗 | 預(yù)訓(xùn)練Transformer用于跨領(lǐng)域知識圖譜補全

    論文淺嘗 | 預(yù)訓(xùn)練Transformer用于跨領(lǐng)域知識圖譜補全

    筆記整理:汪俊杰,浙江大學(xué)碩士,研究方向為知識圖譜 鏈接:https://arxiv.org/pdf/2303.15682.pdf 動機 傳統(tǒng)的直推式(tranductive)或者歸納式(inductive)的知識圖譜補全(KGC)模型都關(guān)注于域內(nèi)(in-domain)數(shù)據(jù),而比較少關(guān)注模型在不同領(lǐng)域KG之間的遷移能力。隨著NLP領(lǐng)域中遷移學(xué)習(xí)的成功,

    2024年02月15日
    瀏覽(21)
  • 論文淺嘗 | 大語言模型綜述

    論文淺嘗 | 大語言模型綜述

    筆記整理:劉康為、方潤楠,浙江大學(xué)碩士,研究方向為自然語言處理 鏈接:https://arxiv.org/abs/2303.18223 一、介紹 在當(dāng)前機遇和挑戰(zhàn)的背景下,對大語言模型的研究和開發(fā)需要更多的關(guān)注。為了讓讀者對大語言模型有一個基本的了解,本調(diào)查從四個主要方面對大語言模型進行

    2024年02月12日
    瀏覽(22)
  • 【論文閱讀】對抗溯源圖主機入侵檢測系統(tǒng)的模仿攻擊(NDSS-2023)

    【論文閱讀】對抗溯源圖主機入侵檢測系統(tǒng)的模仿攻擊(NDSS-2023)

    作者:伊利諾伊大學(xué)芝加哥分校-Akul Goyal、Gang Wang、Adam Bates;維克森林大學(xué)-Xueyuan Han、 引用:Goyal A, Han X, Wang G, et al. Sometimes, You Aren’t What You Do: Mimicry Attacks against Provenance Graph Host Intrusion Detection Systems[C]//30th Network and Distributed System Security Symposium. 2023. 原文地址:https://www.n

    2024年02月13日
    瀏覽(30)
  • 學(xué)習(xí)筆記:Pytorch利用MNIST數(shù)據(jù)集訓(xùn)練生成對抗網(wǎng)絡(luò)(GAN)

    學(xué)習(xí)筆記:Pytorch利用MNIST數(shù)據(jù)集訓(xùn)練生成對抗網(wǎng)絡(luò)(GAN)

    2023.8.27 ? ? ? ?在進行深度學(xué)習(xí)的進階的時候,我發(fā)了生成對抗網(wǎng)絡(luò)是一個很神奇的東西,為什么它可以“將一堆隨機噪聲經(jīng)過生成器變成一張圖片”,特此記錄一下學(xué)習(xí)心得。 ? ? ? ? 2014年,還在蒙特利爾讀博士的Ian Goodfellow發(fā)表了論 文《Generative Adversarial Networks》(網(wǎng)址

    2024年02月10日
    瀏覽(20)
  • 【對抗攻擊論文筆記】對抗遷移性:Delving Into Transferable Adversarial Examples And Black-Box Attacks

    【對抗攻擊論文筆記】對抗遷移性:Delving Into Transferable Adversarial Examples And Black-Box Attacks

    發(fā)表于ICLR2017,論文地址:https://arxiv.org/pdf/1611.02770——深入研究可遷移的對抗樣本和黑盒攻擊 遷移性是指 一個模型生成的一些對抗樣本也可能被另一個模型錯誤分類 。 這篇文章其實是基于 Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Samples 的改進和

    2023年04月08日
    瀏覽(19)
  • 機器學(xué)習(xí):自然語言處理上的對抗式攻擊

    機器學(xué)習(xí):自然語言處理上的對抗式攻擊

    相關(guān)話題 Introduction 以前的攻擊專注于圖像和語音上,而NLP上的內(nèi)容比較少。而NLP的復(fù)雜度跟詞典有關(guān)系: NLP只能在embedding后的特征上加噪聲 Evasion Attacks 電影的評論情感分類,將 film 換成 films 后,評論從消極變成了積極。 結(jié)構(gòu)分析,如果改一個詞后,結(jié)果完全不一樣。 模

    2024年02月09日
    瀏覽(18)
  • 論文淺嘗 | ChatKBQA:基于微調(diào)大語言模型的知識圖譜問答框架

    論文淺嘗 | ChatKBQA:基于微調(diào)大語言模型的知識圖譜問答框架

    第一作者:羅浩然,北京郵電大學(xué)博士研究生,研究方向為知識圖譜與大語言模型協(xié)同推理 OpenKG地址:http://openkg.cn/tool/bupt-chatkbqa GitHub地址:https://github.com/LHRLAB/ChatKBQA 論文鏈接:https://arxiv.org/abs/2310.08975 動機 隨著ChatGPT 的問世,屬于大模型的時代就此開始。無可否認(rèn),大型

    2024年02月05日
    瀏覽(27)
  • 論文淺嘗 | SpCQL: 一個自然語言轉(zhuǎn)換Cypher的語義解析數(shù)據(jù)集

    論文淺嘗 | SpCQL: 一個自然語言轉(zhuǎn)換Cypher的語義解析數(shù)據(jù)集

    筆記整理:郭愛博,國防科技大學(xué)博士 論文發(fā)表會議:The 31th ACM International Conference on Information and Knowledge Management,CIKM 2022 動機 隨著社交、電子商務(wù)、金融等行業(yè)的快速發(fā)展,現(xiàn)實世界編織出一張龐大而復(fù)雜的網(wǎng)絡(luò)。然而,圖(或網(wǎng)絡(luò))數(shù)據(jù)難以管理和挖掘,特別是對于經(jīng)

    2024年02月12日
    瀏覽(148)
  • 論文淺嘗 | 記憶力強還是健忘?深入探究語言模型的知識記憶機制

    論文淺嘗 | 記憶力強還是健忘?深入探究語言模型的知識記憶機制

    筆記整理:方潤楠,浙江大學(xué)碩士,研究方向為自然語言處理 鏈接:https://arxiv.org/abs/2305.09144 摘要 近年來,大規(guī)模預(yù)訓(xùn)練語言模型展示出驚人的記憶能力,相比之下,未經(jīng)預(yù)訓(xùn)練的普通神經(jīng)網(wǎng)絡(luò)存在著災(zāi)難性遺忘的問題。為了研究這種記憶與遺忘出現(xiàn)的原因,并探求語言模

    2024年01月18日
    瀏覽(31)
  • 深度學(xué)習(xí)進階篇[9]:對抗生成網(wǎng)絡(luò)GANs綜述、代表變體模型、訓(xùn)練策略、GAN在計算機視覺應(yīng)用和常見數(shù)據(jù)集介紹,以及前沿問題解決

    深度學(xué)習(xí)進階篇[9]:對抗生成網(wǎng)絡(luò)GANs綜述、代表變體模型、訓(xùn)練策略、GAN在計算機視覺應(yīng)用和常見數(shù)據(jù)集介紹,以及前沿問題解決

    【深度學(xué)習(xí)入門到進階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、序列模型、預(yù)訓(xùn)練模型、對抗神經(jīng)網(wǎng)絡(luò)等 專欄詳細(xì)介紹:【深度學(xué)習(xí)入門到進階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、

    2024年02月08日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包