国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-domain Learning

  • 來(lái)源:ACM MM 2021
  • 作者:Yihao Huang1, Qing Guo2?, Felix Juefei-Xu3, Lei Ma4, Weikai Miao1, Yang Liu2,5, Geguang Pu1
  • 單位:1East China Normal University, China 2Nanyang Technological University, Singapore
    3Alibaba Group, USA 4University of Alberta, Canada 5 Zhejiang Sci-Tech University, China
  • 郵箱:Yihao Huang’s email: huangyihao22@gmail.com ;Corresponding authors. E-mail: ggpu@sei.ecnu.edu.cn.
  • 論文原地址:AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-domain Learning

背景

深度學(xué)習(xí)技術(shù)除了會(huì)對(duì)圖像的空頻域進(jìn)行修改生成偽造圖像,有些時(shí)候也會(huì)改變圖像的語(yǔ)義信息?;谏疃葘W(xué)習(xí)的對(duì)抗攻擊,就是一種會(huì)對(duì)真實(shí)圖像的語(yǔ)義信息進(jìn)行修改的技術(shù)。該技術(shù)能生成讓神經(jīng)網(wǎng)絡(luò)判斷出錯(cuò)的偽造圖像(也稱對(duì)抗樣本),從而引發(fā)安全問(wèn)題。因此本章對(duì)如何防御該技術(shù)引發(fā)的偽造圖像語(yǔ)義問(wèn)題進(jìn)行了研究。

目前,對(duì)抗去噪神經(jīng)網(wǎng)絡(luò)對(duì)抗性訓(xùn)練是兩個(gè)獨(dú)立的提高卷積神經(jīng)網(wǎng)絡(luò)魯棒性的解決方案。這兩種方案分別通過(guò)對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理再訓(xùn)練模型來(lái)防御對(duì)抗攻擊。

本章從數(shù)據(jù)精細(xì)化的角度,即采用對(duì)抗去噪防御來(lái)進(jìn)行圖像的語(yǔ)義修復(fù)。
研究了兩種增強(qiáng)對(duì)抗魯棒性的像素級(jí)去噪方法:基于加性的方法和未研究過(guò)的基于濾波的方法,分別在圖像級(jí)和語(yǔ)義級(jí)的損失函數(shù)下進(jìn)行實(shí)驗(yàn),【結(jié)果表明:基于濾波的像素級(jí)去噪方法可以獲得更高的圖像質(zhì)量、魯棒性,有更好的偽圖語(yǔ)義修復(fù)能力

但是,基于濾波的去噪方法依賴于用來(lái)進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練的對(duì)抗樣本的擾動(dòng)大小,對(duì)不同攻擊強(qiáng)度的偽造圖像沒(méi)有較好的通用性?!揪窒扌浴?br>因此,本文提出了基于擾動(dòng)感知濾波的像素級(jí)圖像去噪方法——AdvFilter

對(duì)抗去噪防御 對(duì)抗訓(xùn)練防御

貢獻(xiàn)

  • 第一個(gè)研究比較不同損失函數(shù)(例如圖像級(jí)和語(yǔ)義級(jí))下基于加法的像素去噪和基于過(guò)濾的像素去噪的對(duì)抗性去噪防御性能。
  • 提出了一種基于預(yù)測(cè)擾動(dòng)感知濾波的方法,通過(guò)多域?qū)W習(xí)來(lái)處理不同攻擊強(qiáng)度的對(duì)抗性攻擊。該方法對(duì)cnn進(jìn)行魯棒化,同時(shí)不影響對(duì)干凈或微小噪聲擾動(dòng)圖像的精度。
  • 提出并驗(yàn)證了一個(gè)假設(shè),即對(duì)抗性去噪和對(duì)抗性訓(xùn)練可以在對(duì)抗性防御任務(wù)中相互受益。

相關(guān)工作

對(duì)抗性去噪防御

據(jù)我們所知,廖等人[23]是目前唯一的對(duì)抗性去噪防御方法。對(duì)于標(biāo)準(zhǔn)去噪器,圖像中的小殘余對(duì)抗噪聲被逐漸放大,導(dǎo)致錯(cuò)誤的分類。為了克服這一問(wèn)題,Liao等[23]提出了高級(jí)表示引導(dǎo)去噪(high-level representation guided denoiser, HGD)作為圖像分類的防御手段。他們采用目標(biāo)模型(如ResNet50 [15], VGG19[29])的中間表示(即去噪圖像的高級(jí)表示)的差值來(lái)計(jì)算損失。

然而,HGD過(guò)于強(qiáng)調(diào)高級(jí)表示,在處理微噪聲擾動(dòng)圖像時(shí)表現(xiàn)不佳。HGD直接利用神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)噪聲逆映射,并將其加到噪聲圖像中,得到去噪圖像。這種基于加性的去噪方法不如基于濾波的去噪,后者將在3.2節(jié)中進(jìn)行評(píng)估。

對(duì)抗性訓(xùn)練防御

對(duì)抗性訓(xùn)練防御[12,20,24,32]是針對(duì)對(duì)抗性攻擊的最廣泛研究的防御之一。
Yan等人[36]將一個(gè)基于對(duì)抗攝動(dòng)的正則化器集成到分類目標(biāo)中,這樣得到的模型就能學(xué)會(huì)抵抗?jié)撛诘墓簟ie等人[34]開(kāi)發(fā)了一種新的網(wǎng)絡(luò),其中包含執(zhí)行特征去噪的塊,通過(guò)執(zhí)行特征去噪來(lái)增加對(duì)抗魯棒性。Li等[22]提出的特征金字塔解碼器(FPD)框架在目標(biāo)CNN中植入去噪和圖像恢復(fù)模塊,對(duì)輸入圖像進(jìn)行多級(jí)過(guò)濾。
對(duì)抗性訓(xùn)練可以在防御白盒攻擊和黑盒攻擊方面取得較好的效果。然而,它需要涉及足夠數(shù)量和種類的對(duì)抗樣本,導(dǎo)致大量GPU計(jì)算資源的高時(shí)間復(fù)雜度

其他對(duì)抗性防御方法

還有一些其他的對(duì)抗性防御方法。Das等[5]使用JPEG壓縮對(duì)圖像進(jìn)行預(yù)處理,以減少對(duì)抗性噪聲的影響。Guo等[13]使用輸入變換對(duì)抗對(duì)抗性圖像。

Efros等[8]使用圖像絎縫進(jìn)行紋理合成和轉(zhuǎn)移以響應(yīng)對(duì)抗性攻擊。盡管這些方法看起來(lái)很有用,但Athalye等人[2]表明,這些防御方法嚴(yán)重依賴于梯度掩蔽,這導(dǎo)致了對(duì)對(duì)抗性攻擊的魯棒性的錯(cuò)誤感覺(jué)

一般圖像去噪

有許多通用的圖像去噪方法[6,9,25,28]在圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域得到了深入的研究。他們通常使用過(guò)濾器去噪圖像。Rudin等[28]提出了一種約束優(yōu)化類型的數(shù)值算法來(lái)去除圖像中的噪聲。如今,Mildenhall等[25]利用核預(yù)測(cè)網(wǎng)絡(luò)構(gòu)建了一種濾波器變體方法,該方法為圖像中的每個(gè)像素點(diǎn)提供專門的去噪濾波器。

創(chuàng)新

AdvFilter:設(shè)計(jì)了雙重?cái)_動(dòng)濾波和基于不確定性的感知融合模塊,用于在訓(xùn)練和測(cè)試過(guò)程中自動(dòng)感知擾動(dòng)振幅,從而更好地恢復(fù)圖像語(yǔ)義。

論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
基于加性的像素去噪(即(a)),基于濾波的像素去噪(即(b))以及提出的預(yù)測(cè)性擾動(dòng)感知濾波(即?)的架構(gòu),用于對(duì)抗魯棒性增強(qiáng)。

公式

給定一個(gè)經(jīng)過(guò)標(biāo)準(zhǔn)訓(xùn)練的用于圖像分類的CNN(即(·))和一個(gè)干凈的圖像I,我們可以通過(guò)對(duì)抗性攻擊方法生成難以察覺(jué)的對(duì)抗示例I。一般來(lái)說(shuō),我們使用以下流程進(jìn)行非目標(biāo)攻擊
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
其中??是對(duì)抗性擾動(dòng),并通過(guò)
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
式中,J(·)為交叉熵?fù)p失函數(shù),其中,值域?yàn)檩斎雸D像的標(biāo)注。
給定一個(gè)對(duì)抗示例(例如,I-hat),我們的目標(biāo)是通過(guò)使用預(yù)測(cè)噪聲信息進(jìn)行去噪操作D(·)來(lái)消除對(duì)抗擾動(dòng),從而增強(qiáng)cnn的魯棒性。
使用預(yù)訓(xùn)練的深度模型變量??(·)直接預(yù)測(cè)噪聲相關(guān)信息,并將上述過(guò)程表示為
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
式中~ I表示去噪后的圖像。為了訓(xùn)練變量的定義,我們考慮了兩種損失函數(shù),即圖像級(jí)和語(yǔ)義級(jí)的凈圖像和去噪圖像之間的差異。[23]
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
其中,??(·)表示CNN (·)中??th層的輸出。
Eq.(4)促使去噪后的圖像與干凈后的圖像具有相同的圖像質(zhì)量,而Eq.(5)使I和~ I的深度特征保持一致,即CNN(·)預(yù)測(cè)I和~ I上的相同標(biāo)簽。
當(dāng)設(shè)置不同的D(·)時(shí),可以得到基于加性和基于濾波的像素去噪器。
基于加性的像素去噪。通過(guò)將Eq.(3)指定為,我們得到基于加性的像素去噪
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
其中,深度模型(I)預(yù)測(cè)逆對(duì)抗擾動(dòng),即Eq.(1)中的???,并使用加性運(yùn)算進(jìn)行去噪。
基于濾波的像素去噪。我們通過(guò)指定Eq.(3)為實(shí)現(xiàn)基于濾波的像素去噪
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
其中的’ * 圈星* '是逐像素的過(guò)濾,即,每個(gè)I的像素都是由一個(gè)排他核(其核大小為??)從變量變量的變量變量中估計(jì)出來(lái)的。專門為??th像素?我,我們通過(guò)獨(dú)家內(nèi)核過(guò)濾的大小??×??×3??th位置的存儲(chǔ)??(?我)。我們?cè)趫D1中展示了它們的架構(gòu)。

結(jié)論:在圖像級(jí)和語(yǔ)義級(jí)損失函數(shù)下,基于濾波的去噪方法在對(duì)抗魯棒性增強(qiáng)方面都比現(xiàn)有的基于加性去噪方法有絕對(duì)優(yōu)勢(shì);
帶有圖像級(jí)損失函數(shù)的基于濾波的去噪器在小攻擊強(qiáng)度和大攻擊強(qiáng)度上都能達(dá)到較高的精度,但在中值攻擊強(qiáng)度上效果較差,提示我們需要開(kāi)發(fā)一種擾動(dòng)感知去噪器。

方法

我們構(gòu)建了一個(gè)包含一個(gè)編碼器和兩個(gè)解碼器的新穎網(wǎng)絡(luò)。一個(gè)解碼器設(shè)計(jì)用于處理大小對(duì)抗性噪聲,而另一個(gè)解碼器用于處理中位數(shù)強(qiáng)度。我們將這個(gè)網(wǎng)絡(luò)表示為Y-Net,兩個(gè)解碼器的輸出分別表示為??sl(·)和??m(·)。給定一個(gè)對(duì)抗示例I和去噪操作D(·),Y-Net基于預(yù)測(cè)噪聲信息產(chǎn)生兩個(gè)輸出為
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記

論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
第一行圖像是在ResNet50和從NeurIPS2017DEV數(shù)據(jù)集中選擇的相同干凈圖像上具有不同PGD攻擊強(qiáng)度的噪聲圖像。攻擊強(qiáng)度的值(即,自由度)在圖像的上方。第二行圖像為上述圖像對(duì)應(yīng)的不確定度映射。我們可以發(fā)現(xiàn),不同攻擊強(qiáng)度的噪聲圖像會(huì)產(chǎn)生不同的不確定性圖。
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記

多域?qū)W習(xí)

  • 結(jié)構(gòu):Y-Net與第3.2節(jié)的結(jié)構(gòu)中的U-Net具有相同的編碼器和兩個(gè)相同的解碼器。我們用來(lái)從不確定性圖中生成權(quán)重圖的卷積網(wǎng)絡(luò)()包含6個(gè)卷積層,后面是一個(gè)Sigmoid函數(shù)。
  • 訓(xùn)練細(xì)節(jié):用??1損失函數(shù)訓(xùn)練Y-Net。??sl(·)的解碼器更新了12種不同的對(duì)抗強(qiáng)度,然后我們確定了Y-Net的參數(shù)并使用了12種不同的對(duì)抗強(qiáng)度,訓(xùn)練不確定性感知融合模塊。由于??sl(·)和??m(·)已經(jīng)被??1損失訓(xùn)練過(guò),為了提高分類性能,我們使用語(yǔ)義級(jí)損失訓(xùn)練不確定性感知融合。我們將ResNet50的分類輸出與去噪圖像和干凈圖像作為輸入來(lái)計(jì)算交叉熵?fù)p失。
    論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
    論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L,論文閱讀,筆記
    通過(guò)觀察基于濾波和基于加性去噪的預(yù)處理對(duì)FPD的影響,我們可以初步得出結(jié)論,像素去噪方法可以在一定程度上增強(qiáng)最先進(jìn)的對(duì)抗訓(xùn)練模型的魯棒性。
    FD的改進(jìn)。特征去噪(Feature denoising, FD)[34]也是一種最先進(jìn)的對(duì)抗訓(xùn)練方法。獲得對(duì)抗性攻擊與防御競(jìng)賽(CAAD)冠軍。

實(shí)驗(yàn)

根據(jù)實(shí)證研究,可以發(fā)現(xiàn):
(1)在圖像級(jí)和語(yǔ)義級(jí)損失函數(shù)下,基于濾波的去噪方法在增強(qiáng)對(duì)抗魯棒性方面都比現(xiàn)有的基于加性的去噪方法具有明顯的優(yōu)勢(shì)。
(2)基于圖像級(jí)損失函數(shù)的濾波去噪在較小攻擊擾動(dòng)和較大攻擊擾動(dòng)強(qiáng)度上都能獲得較高的準(zhǔn)確率,但在中等攻擊強(qiáng)度上防御效果較差?!具@說(shuō)明需要研究一種擾動(dòng)感知的去噪方式?!?mark hidden color="red">文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-789198.html

注:本文僅供學(xué)習(xí)使用,方便和大家討論交流。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-789198.html

到了這里,關(guān)于論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • [論文閱讀筆記18] DiffusionDet論文筆記與代碼解讀

    [論文閱讀筆記18] DiffusionDet論文筆記與代碼解讀

    擴(kuò)散模型近期在圖像生成領(lǐng)域很火, 沒(méi)想到很快就被用在了檢測(cè)上. 打算對(duì)這篇論文做一個(gè)筆記. 論文地址: 論文 代碼: 代碼 首先介紹什么是擴(kuò)散模型. 我們考慮生成任務(wù), 即encoder-decoder形式的模型, encoder提取輸入的抽象信息, 并嘗試在decoder中恢復(fù)出來(lái). 擴(kuò)散模型就是這一類中的

    2023年04月08日
    瀏覽(26)
  • 論文閱讀:Segment Anything之閱讀筆記

    論文閱讀:Segment Anything之閱讀筆記

    引言 論文:Segment Anything是Meta出的圖像語(yǔ)義分割的算法。這個(gè)算法因其強(qiáng)大的zero-shot泛化能力讓人驚艷,這不抽空拿來(lái)學(xué)習(xí)了一下。 該算法的代碼寫得很清楚、簡(jiǎn)潔和規(guī)范,讀來(lái)讓人賞心悅目。推薦去看源碼,很有意思。 本篇文章,將以問(wèn)答形式來(lái)解讀閱讀過(guò)程中遇到的困

    2024年02月13日
    瀏覽(28)
  • 3D卷積網(wǎng)絡(luò)論文閱讀筆記

    3D卷積網(wǎng)絡(luò)論文閱讀筆記

    數(shù)據(jù)集 BraTS 2020 數(shù)據(jù)增強(qiáng)方法 ? Flipping翻轉(zhuǎn): 以1/3的概率隨機(jī)沿著三個(gè)軸之一翻轉(zhuǎn) ? Rotation旋轉(zhuǎn): 從限定范圍(0到 15?或到30?或到60?或到90?)的均勻分布中隨機(jī)選擇角度旋轉(zhuǎn) ? Scale縮放: 通過(guò)從范圍為±10%或?yàn)椤?0%的均勻分布中隨機(jī)選擇的因子,對(duì)每個(gè)軸進(jìn)行縮放 ? Br

    2023年04月10日
    瀏覽(26)
  • LIME論文閱讀筆記

    LIME論文閱讀筆記

    這是暗圖增強(qiáng)領(lǐng)域一篇經(jīng)典的傳統(tǒng)方法論文,發(fā)表在TIP這個(gè)頂刊 文章基于的是這樣一個(gè)公式: L = R ? T L=Rcdot T L = R ? T 其中, L L L 是暗圖, R R R 是反射分量, T T T 是illumination map,并且對(duì)于彩色圖像來(lái)說(shuō),三通道都共享相同的illumination map。我們可以使用各種方法估計(jì) T

    2024年02月09日
    瀏覽(27)
  • 論文閱讀筆記(一)

    論文閱讀筆記(一)

    發(fā)表年份: 2016 主要貢獻(xiàn): 提出了Multimodal Opinion-level Sentiment Intensity (MOSI) 數(shù)據(jù)集 提出了多模態(tài)情緒分析未來(lái)研究的基線 提出了一種新的多模態(tài)融合方式 在這些在線意見(jiàn)視頻中研究情緒主要面臨的挑戰(zhàn)和解決方法: 挑戰(zhàn) 解決方法 這些視頻的不穩(wěn)定性和快節(jié)奏性。演講者經(jīng)

    2023年04月09日
    瀏覽(23)
  • Retinexformer 論文閱讀筆記

    Retinexformer 論文閱讀筆記

    清華大學(xué)、維爾茲堡大學(xué)和蘇黎世聯(lián)邦理工學(xué)院在ICCV2023的一篇transformer做暗圖增強(qiáng)的工作,開(kāi)源。 文章認(rèn)為,Retinex的 I = R ⊙ L I=Rodot L I = R ⊙ L 假設(shè)干凈的R和L,但實(shí)際上由于噪聲,并不干凈,所以分別為L(zhǎng)和R添加干擾項(xiàng),把公式改成如下: 本文采用先預(yù)測(cè) L  ̄ overline L

    2024年01月21日
    瀏覽(24)
  • GPT-3 論文閱讀筆記

    GPT-3 論文閱讀筆記

    GPT-3模型出自論文《Language Models are Few-Shot Learners》是OpenAI在2020年5月發(fā)布的。 論文摘要翻譯 :最近的工作表明,通過(guò)對(duì)大量文本進(jìn)行預(yù)訓(xùn)練,然后對(duì)特定任務(wù)進(jìn)行微調(diào)(fine-tuning),在許多NLP任務(wù)和基準(zhǔn)測(cè)試上取得了實(shí)質(zhì)性的進(jìn)展。雖然這種方法在架構(gòu)上通常與任務(wù)無(wú)關(guān),但它

    2024年02月12日
    瀏覽(29)
  • 論文閱讀筆記2:NetVLAD

    題目:NetVLAD: CNN Architecture for Weakly Supervised Place Recognition:、 團(tuán)隊(duì): PSL Research University/Tokyo Institute of Technology 解決的問(wèn)題: 我們解決了大規(guī)模視覺(jué)位置識(shí)別的問(wèn)題,其任務(wù)是快速準(zhǔn)確地識(shí)別給定查詢照片的位置 創(chuàng)新點(diǎn): 這篇文章主要有3個(gè)創(chuàng)新點(diǎn): 1. 為場(chǎng)景識(shí)別任務(wù)構(gòu)造出

    2024年02月11日
    瀏覽(25)
  • InstructGPT 論文閱讀筆記

    InstructGPT 論文閱讀筆記

    目錄 簡(jiǎn)介 數(shù)據(jù)集? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 詳細(xì)實(shí)現(xiàn) 實(shí)驗(yàn)結(jié)果 參考資料 InstructGPT 模型是在論文《Training language models to follow instructions with human feedback》被提出的,OpenAI在2022年1月發(fā)布了這篇文章。 論文摘要翻譯 :把語(yǔ)言模型做得更大并不意味著讓它們更好的遵循

    2024年02月01日
    瀏覽(31)
  • GAN 論文閱讀筆記(6)

    GAN 論文閱讀筆記(6)

    原論文:MyStyle++: A Controllable Personalized Generative Prior 發(fā)表于:CVPR2023 注:本篇論文為 《MyStyle: A Personalized Generative Prior》 的改進(jìn),當(dāng)遇到不理解的地方可以參照前一篇閱讀筆記 圖 1:MyStyle++ 在圖像合成,編輯和增強(qiáng)上的表現(xiàn) 1:MyStyle MyStyle 是一種 GAN 模型的改進(jìn)模型。其打算

    2024年01月18日
    瀏覽(28)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包