国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】通過對比聚類分配的深度多視圖聚類

這篇具有很好參考價(jià)值的文章主要介紹了【論文閱讀】通過對比聚類分配的深度多視圖聚類。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Deep Multiview Clustering by Contrasting Cluster Assignments

原文鏈接
對于大多數(shù)現(xiàn)有的深度MVC方法,探索多視圖的不變表示仍然是一個(gè)棘手的問題。在本文中,提出了一種跨視圖對比學(xué)習(xí)(CVCL)方法,該方法學(xué)習(xí)視圖不變表示,并通過比較多個(gè)視圖之間的聚類分配來產(chǎn)生聚類結(jié)果。

具體來說,首先在預(yù)訓(xùn)練階段使用深度自編碼器提取視圖相關(guān)特征。然后,提出了一種聚類級CVCL策略,在微調(diào)階段探索多個(gè)視圖之間一致的語義標(biāo)簽信息。因此,所提出的CVCL方法能夠通過這種學(xué)習(xí)策略產(chǎn)生更多的判別性聚類分配。

與大多數(shù)現(xiàn)有的深度MVC方法相比,引入了集群級CVCL策略來跨多個(gè)視圖捕獲一致的語義標(biāo)簽信息。通過比較多個(gè)視圖之間的聚類分配,所提出的CVCL方法學(xué)習(xí)了MVC正對之間的視圖不變表示。由正對派生的聚類分配合理地對齊了多個(gè)視圖之間的不變表示。這種對齊靈活地描述了從單個(gè)視圖獲得的一致語義標(biāo)簽,用于度量數(shù)據(jù)樣本之間的內(nèi)在關(guān)系。k維分配概率表示對應(yīng)視圖中每個(gè)樣本的聚類分配?;谶@些視圖不變表示,所提出的CVCL方法的對比損失鼓勵(lì)為正對產(chǎn)生的k維聚類分配相似,并將為負(fù)對提供的聚類分配分開。此外,本文還對軟集群分配對齊的可實(shí)現(xiàn)性提供了理論解釋。

【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
每個(gè)視圖包含兩個(gè)模塊,包括特定于視圖的自動(dòng)編碼器模塊CVCL模塊(跨視圖對比學(xué)習(xí)模塊)。多層感知器(MLP)由多個(gè)線性層組成。視圖自編碼器模塊包括編碼部分和解碼部分。CVCL模塊通過對比多個(gè)視圖之間的聚類分配來探索一致的語義標(biāo)簽信息

聚類層次上的CVCL

f將N個(gè)樣本映射為語義特征的函數(shù)。在語義特征上疊加兩個(gè)線性層和一個(gè)連續(xù)的softmax函數(shù)來產(chǎn)生一個(gè)聚類分配概率。
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
所有視圖的聚類概率矩陣{**H(v)**∈R N×K}nv v=1,這是在前一層的語義特征上產(chǎn)生的。設(shè)h (v) i為h (v)中的第i行,設(shè)h (v) ij表示實(shí)例i在視圖m中屬于聚類j的概率。實(shí)例i的語義標(biāo)簽由h (v) i中概率的最大值決定。

為了增加聚類分配之間的差異,統(tǒng)一的目標(biāo)分布{**P(v)**∈R N×K}nv v=1是{H(v)}nv v=1的較好替代,其每個(gè)元素的計(jì)算如下:
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
設(shè)p(v)j是p(v)的第j列。p(v)j中的每個(gè)元素p(v)ij表示屬于聚類j的樣本i的一個(gè)軟聚類分配。因此,p(v)j表示同一語義聚類的一個(gè)聚類分配。

聚類j的兩個(gè)聚類分配p (v1) j和p (v2) j之間的相似性:【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
其中v1和v2表示兩個(gè)不同的視圖。

在CVCL模塊中,不同視圖中實(shí)例的集群分配概率應(yīng)該是相似的,因?yàn)檫@些實(shí)例表征相同的樣本。此外,如果用多個(gè)視圖中的實(shí)例來描述不同的樣本,它們之間是不相關(guān)的。因此,當(dāng)考慮跨nv視圖的p (v) j和K個(gè)簇時(shí),存在(nv?1)個(gè)正簇分配對和nv (K?1)個(gè)負(fù)簇分配對。**集群內(nèi)分配的相似性要最大化,集群間分配的相似性要最小化。**同時(shí)對樣本進(jìn)行聚類,同時(shí)加強(qiáng)聚類分配之間的一致性。p (v1) k和p (v2) k的橫視對比損失定義如下:
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
跨多個(gè)視圖引起的跨視圖對比損失:
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
為了防止所有實(shí)例都被分配到一個(gè)特定的集群,引入一個(gè)正則化如下:

【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python

兩階段訓(xùn)練機(jī)制

通過預(yù)訓(xùn)練網(wǎng)絡(luò)進(jìn)行參數(shù)初始化

設(shè)計(jì)一個(gè)預(yù)訓(xùn)練網(wǎng)絡(luò),該網(wǎng)絡(luò)由特定視圖的編碼器模塊f (v) e(1≤v≤nv)和對應(yīng)的解碼器模塊f (v) d組成
對于多視圖,預(yù)訓(xùn)練網(wǎng)絡(luò)在輸入和輸出之間的重構(gòu)損失設(shè)計(jì)為:
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python

MVC通過一個(gè)微調(diào)網(wǎng)絡(luò)

該方法的總體損失包括三個(gè)主要部分:預(yù)訓(xùn)練網(wǎng)絡(luò)的重建損失、交叉視圖對比損失和交叉視圖一致性損失:【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python
預(yù)測結(jié)果表示:
【論文閱讀】通過對比聚類分配的深度多視圖聚類,多視圖,論文閱讀,聚類,數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),人工智能,python

在本文中,提出了一種CVCL方法來學(xué)習(xí)MVC的視圖不變表示。提出了一種聚類級的CVCL策略,用于探索多個(gè)視圖之間具有一致性的語義標(biāo)簽信息。CVCL在兩個(gè)連續(xù)階段有效地實(shí)現(xiàn)了更多的判別聚類分配。對軟集群分配對齊的理論分析表明了集群級學(xué)習(xí)策略在CVCL中的重要性。作者對MVC數(shù)據(jù)集進(jìn)行了大量的實(shí)驗(yàn)和燒蝕研究,以驗(yàn)證模型的優(yōu)越性和各組成部分在整體重建損失方面的有效性。文章來源地址http://www.zghlxwxcb.cn/news/detail-833153.html

到了這里,關(guān)于【論文閱讀】通過對比聚類分配的深度多視圖聚類的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 超圖聚類論文閱讀1:Kumar算法

    超圖聚類論文閱讀1:Kumar算法

    《超圖中模塊化的新度量:有效聚類的理論見解和啟示》 《A New Measure of Modularity in Hypergraphs: Theoretical Insights and Implications for Effective Clustering》 COMPLEX NETWORKS 2020, SCI 3區(qū) 具體實(shí)現(xiàn)源碼見HyperNetX庫 工作: 針對超圖聚類問題 推廣 了 模塊度最大化 框架 引入了一個(gè) 超圖空模型 ,

    2024年02月09日
    瀏覽(24)
  • 超圖聚類論文閱讀2:Last-step算法

    超圖聚類論文閱讀2:Last-step算法

    《使用超圖模塊化的社區(qū)檢測算法》 《Community Detection Algorithm Using Hypergraph Modularity》 COMPLEX NETWORKS 2021, SCI 3區(qū) 具體實(shí)現(xiàn)源碼見HyperNetX庫 工作:提出了一種用于超圖的社區(qū)檢測算法。該算法的主要特點(diǎn)是它可以根據(jù)一個(gè)社區(qū)中的頂點(diǎn)與其他社區(qū)中的頂點(diǎn)共享超邊的頻率進(jìn)行調(diào)

    2024年02月09日
    瀏覽(24)
  • 對比學(xué)習(xí)論文閱讀:CoCLR算法筆記

    對比學(xué)習(xí)論文閱讀:CoCLR算法筆記

    標(biāo)題:Self-supervised Co-training for Video Representation Learning 會(huì)議:NIPS2020 論文地址:https://dl.acm.org/doi/abs/10.5555/3495724.3496201 官方代碼:https://www.robots.ox.ac.uk/~vgg/research/CoCLR/ 作者單位:牛津大學(xué) 本文的研究目標(biāo)是純視覺的自監(jiān)督視頻表征學(xué)習(xí)。我們做出了以下貢獻(xiàn):①我們研究了在

    2024年02月03日
    瀏覽(24)
  • [論文閱讀]MVF——基于 LiDAR 點(diǎn)云的 3D 目標(biāo)檢測的端到端多視圖融合

    [論文閱讀]MVF——基于 LiDAR 點(diǎn)云的 3D 目標(biāo)檢測的端到端多視圖融合

    End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds 論文網(wǎng)址:MVF 論文代碼: 這篇論文提出了一個(gè)端到端的多視角融合(Multi-View Fusion, MVF)算法,用于在激光雷達(dá)點(diǎn)云中進(jìn)行3D目標(biāo)檢測。論文的主要貢獻(xiàn)有兩個(gè): 提出了動(dòng)態(tài)體素化(Dynamic Voxelization)的概念。相比傳統(tǒng)的硬體素

    2024年01月23日
    瀏覽(18)
  • 論文閱讀:通過時(shí)空生成卷積網(wǎng)絡(luò)合成動(dòng)態(tài)模式(重點(diǎn)論文)

    論文閱讀:通過時(shí)空生成卷積網(wǎng)絡(luò)合成動(dòng)態(tài)模式(重點(diǎn)論文)

    原文鏈接 github code 介紹視頻 視頻序列包含豐富的動(dòng)態(tài)模式,例如在時(shí)域中表現(xiàn)出平穩(wěn)性的動(dòng)態(tài)紋理模式,以及在空間或時(shí)域中表現(xiàn)出非平穩(wěn)的動(dòng)作模式。 我們證明了時(shí)空生成卷積網(wǎng)絡(luò)可用于建模和合成動(dòng)態(tài)模式。 該模型定義了視頻序列上的概率分布,對數(shù)概率由時(shí)空ConvN

    2024年01月19日
    瀏覽(27)
  • 數(shù)據(jù)挖掘(6)聚類分析

    數(shù)據(jù)挖掘(6)聚類分析

    無指導(dǎo)的,數(shù)據(jù)集中類別未知 類的特征: 類不是事先給定的,而是根據(jù)數(shù)據(jù)的 相似性、距離 劃分的 聚類的數(shù)目和結(jié)構(gòu)都沒有事先假定。 挖掘有價(jià)值的客戶: 找到客戶的黃金客戶 ATM的安裝位置 原則: 組內(nèi)數(shù)據(jù)有較高相似度、不同組數(shù)據(jù)不相似 相似性的度量(統(tǒng)計(jì)學(xué)角度): Q型

    2024年02月07日
    瀏覽(24)
  • 論文閱讀——基于深度學(xué)習(xí)智能垃圾分類

    B. Fu, S. Li, J. Wei, Q. Li, Q. Wang and J. Tu, “A Novel Intelligent Garbage Classification System Based on Deep Learning and an Embedded Linux System,” in IEEE Access, vol. 9, pp. 131134-131146, 2021, doi: 10.1109/ACCESS.2021.3114496. 垃圾數(shù)量的急劇增加和垃圾中物質(zhì)的復(fù)雜多樣性帶來了嚴(yán)重的環(huán)境污染和資源浪費(fèi)問題?;厥?/p>

    2024年02月11日
    瀏覽(20)
  • 【論文閱讀】23_SIGIR_Disentangled Contrastive Collaborative Filtering(分離對比協(xié)同過濾)

    【論文閱讀】23_SIGIR_Disentangled Contrastive Collaborative Filtering(分離對比協(xié)同過濾)

    2023—SIGIR 論文地址 code 地址 最近的研究表明,圖神經(jīng)網(wǎng)絡(luò)(GNNs)普遍用于建模協(xié)同過濾(CF)。對于這一研究方向,圖對比學(xué)習(xí)(GCL)通過學(xué)習(xí)增強(qiáng)的用戶和項(xiàng)目表示,在解決監(jiān)督標(biāo)簽短缺問題方面表現(xiàn)出了強(qiáng)大的性能。雖然其中許多顯示了其有效性,但有兩個(gè)關(guān)鍵問題仍

    2024年02月13日
    瀏覽(17)
  • 圖像融合論文閱讀:CoCoNet: 基于多層特征集成的耦合對比學(xué)習(xí)網(wǎng)絡(luò)多模態(tài)圖像融合

    圖像融合論文閱讀:CoCoNet: 基于多層特征集成的耦合對比學(xué)習(xí)網(wǎng)絡(luò)多模態(tài)圖像融合

    @article{liu2023coconet, title={Coconet: Coupled contrastive learning network with multi-level feature ensemble for multi-modality image fusion}, author={Liu, Jinyuan and Lin, Runjia and Wu, Guanyao and Liu, Risheng and Luo, Zhongxuan and Fan, Xin}, journal={International Journal of Computer Vision}, pages={1–28}, year={2023}, publisher={Springer} } 論文級

    2024年02月04日
    瀏覽(20)
  • 論文閱讀-可泛化深度偽造檢測的關(guān)鍵

    論文閱讀-可泛化深度偽造檢測的關(guān)鍵

    一、論文信息 論文名稱: Learning Features of Intra-Consistency and Inter-Diversity: Keys Toward Generalizable Deepfake Detection 作者團(tuán)隊(duì): Chen H, Lin Y, Li B, et al. (廣東省智能信息處理重點(diǎn)實(shí)驗(yàn)室、深圳市媒體安全重點(diǎn)實(shí)驗(yàn)室和深圳大學(xué)人工智能與數(shù)字經(jīng)濟(jì)廣東實(shí)驗(yàn)室) 論文網(wǎng)址: https://ieeexpl

    2024年02月04日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包