国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data

這篇具有很好參考價值的文章主要介紹了【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

本文介紹了一種名為“M3Care”的模型,旨在處理多模態(tài)醫(yī)療保健數(shù)據(jù)中的缺失模態(tài)問題。這個模型是端到端的,能夠補償病人缺失模態(tài)的信息,以執(zhí)行臨床分析。M3Care不是生成原始缺失數(shù)據(jù),而是在潛在空間中估計缺失模態(tài)的任務(wù)相關(guān)信息,利用來自具有相似未缺失模態(tài)的其他病人的輔助信息。該模型通過任務(wù)引導的模態(tài)適應(yīng)性相似性度量來找到相似的病人,并據(jù)此進行臨床任務(wù)。實驗表明,M3Care在多種評估指標上超越了現(xiàn)有的基線模型,并且其發(fā)現(xiàn)與專家意見和醫(yī)學知識一致,顯示出提供有用見解的潛力?!鹃_放源碼】

一.論文概述

  1. 端到端模型設(shè)計:M3Care是一個端到端的模型,能夠直接處理具有缺失模態(tài)的患者數(shù)據(jù),補償這些缺失信息,以執(zhí)行臨床分析。

  2. 任務(wù)相關(guān)信息的估計:與傳統(tǒng)方法不同,M3Care不是直接生成原始缺失數(shù)據(jù),而是在潛在空間中估計缺失模態(tài)的任務(wù)相關(guān)信息。這種方法避免了直接處理原始數(shù)據(jù)的不穩(wěn)定性和復雜性。

  3. 利用相似患者的輔助信息:M3Care模型通過任務(wù)引導的模態(tài)適應(yīng)性相似性度量來識別相似的患者,并利用這些相似患者的未缺失模態(tài)數(shù)據(jù)來估計目標患者的缺失信息。

  4. 臨床任務(wù)的有效執(zhí)行:模型能夠利用估計出的任務(wù)相關(guān)信息來有效執(zhí)行臨床任務(wù),如疾病診斷或預(yù)后預(yù)測。

  5. 實驗驗證:作者通過在真實世界數(shù)據(jù)集上的實驗,展示了M3Care在各種評估指標上優(yōu)于現(xiàn)有基線模型的性能,并且其發(fā)現(xiàn)與專家意見和醫(yī)學知識一致,顯示出提供有用見解的潛力。

二.模型結(jié)構(gòu)

【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data,多模態(tài)與缺失模態(tài),深度學習,論文閱讀,筆記

【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data,多模態(tài)與缺失模態(tài),深度學習,論文閱讀,筆記
  • Unimodal Representation Extraction:使用不同的特征抽取模型抽取各自模態(tài)特征,圖上很清楚,不贅述。

  • Similar Patients Discovery and Information Aggregation:包含如下:

    • task-guided modality-semantic-adaptive similarity metric:使用特殊的核函數(shù)方法度量,而不是傳統(tǒng)的余弦相似度。

      k ω m ( ? h i m , ? h j m ) = [ ( 1 ? δ m ) k ( ? ω m ( ? h i m ) , ? ω m ( ? h j m ) ) + δ m ] q ( ? h i m , ? h j m ) k_{\omega_{m}}\left(\mathrm{~h}_{i}^{m}, \mathrm{~h}_{j}^{m}\right)=\left[\left(1-\delta_{m}\right) k\left(\phi_{\omega_{m}}\left(\mathrm{~h}_{i}^{m}\right), \phi_{\omega_{m}}\left(\mathrm{~h}_{j}^{m}\right)\right)+\delta_{m}\right] q\left(\mathrm{~h}_{i}^{m}, \mathrm{~h}_{j}^{m}\right) kωm??(?him?,?hjm?)=[(1?δm?)k(?ωm??(?him?),?ωm??(?hjm?))+δm?]q(?him?,?hjm?)

      1. 核函數(shù) k ω m ( ? h i m , ? h j m ) k_{\omega_{m}}\left(\mathrm{~h}_{i}^{m}, \mathrm{~h}_{j}^{m}\right) kωm??(?him?,?hjm?):這個函數(shù)用于計算兩個患者在特定模態(tài) m m m中特征表示的相似度。這里, h i m \mathrm{h}_{i}^{m} him? h j m \mathrm{h}_{j}^{m} hjm?分別表示第 i i i和第 j j j 個患者在模態(tài) m m m中的特征表示。
      2. 混合項:公式中的第一個部分 ( 1 ? δ m ) k ( ? ω m ( ? h i m ) , ? ω m ( ? h j m ) ) \left(1-\delta_{m}\right) k\left(\phi_{\omega_{m}}\left(\mathrm{~h}_{i}^{m}\right), \phi_{\omega_{m}}\left(\mathrm{~h}_{j}^{m}\right)\right) (1?δm?)k(?ωm??(?him?),?ωm??(?hjm?)),其中 ? ω m \phi_{\omega_{m}} ?ωm?? 是一個轉(zhuǎn)換函數(shù),將原始特征空間映射到一個新的空間,以便更好地捕捉相似度。 δ m \delta_{m} δm?是一個模態(tài)特定的調(diào)整參數(shù),它決定了在核函數(shù)中保留多少原始特征空間的信息。
      3. 權(quán)重項 δ m \delta_{m} δm?:這個參數(shù)調(diào)節(jié)著在相似度計算中原始特征空間和轉(zhuǎn)換后空間的相對重要性。它的值在 0 和 1 之間,用于平衡兩種不同的相似度計算方式。
      4. 附加項 q ( ? h i m , ? h j m ) q\left(\mathrm{~h}_{i}^{m}, \mathrm{~h}_{j}^{m}\right) q(?him?,?hjm?):這個項用于在相似度計算中添加額外的信息,可能是基于特定模態(tài) m m m 的特定特征或考慮的其他因素
    • 信息聚合:

      Π ~ = ∑ 1 M Π m ? mask ? m ∑ 1 M mask ? m + ? Π ~ i , j = { Π ~ i , j ?if? Π ~ i , j > Λ 0 ?if? Π ~ i , j ≤ Λ \begin{array}{c} \tilde{\Pi}=\frac{\sum_{1}^{M} \Pi^{m} \cdot \operatorname{mask}^{m}}{\sum_{1}^{M} \operatorname{mask}^{m}+\epsilon} \\ \tilde{\Pi}_{i, j}=\left\{\begin{array}{cc} \tilde{\Pi}_{i, j} & \text { if } \tilde{\Pi}_{i, j}>\Lambda \\ 0 & \text { if } \tilde{\Pi}_{i, j} \leq \Lambda \end{array}\right. \end{array} Π~=1M?maskm+?1M?Πm?maskm?Π~i,j?={Π~i,j?0??if?Π~i,j?>Λ?if?Π~i,j?Λ??

      1. Π ~ \tilde{\Pi} Π~:這代表最終聚合后的結(jié)果。
      2. ∑ 1 M Π m ? mask ? m \sum_{1}^{M} \Pi^{m} \cdot \operatorname{mask}^{m} 1M?Πm?maskm:這里, Π m \Pi^{m} Πm 表示第 m m m 個模態(tài)的某種計算結(jié)果或特征表示,而 mask ? m \operatorname{mask}^{m} maskm 是一個掩碼(mask),用于指示第 m m m個模態(tài)是否可用或重要。掩碼通常是二進制的(0或1),用于選擇性地考慮(或忽略)特定模態(tài)。
      3. ∑ 1 M mask ? m + ? \sum_{1}^{M} \operatorname{mask}^{m}+\epsilon 1M?maskm+?:分母是對所有模態(tài)的掩碼求和,再加上一個小常數(shù) ? \epsilon ?(通常接近0)以避免除以零的情況。這種求和確保了當某些模態(tài)缺失時,計算結(jié)果仍然是有意義的。
      4. Π ~ i , j \tilde{\Pi}_{i, j} Π~i,j?:這是聚合后的結(jié)果矩陣中的一個元素,代表第 i個樣本和第 j j j個樣本之間的某種度量。
      5. 條件語句:這里的條件語句用于應(yīng)用一個閾值 Λ \Lambda Λ。如果 Π ~ i , j \tilde{\Pi}_{i, j} Π~i,j?的值大于閾值 Λ \Lambda Λ,它將被保留;如果小于或等于 Λ \Lambda Λ,則將該值設(shè)置為0。這種方法用于過濾掉那些低于特定重要性水平的元素。

? 總體來說,這個公式描述了一個兩步過程:首先是結(jié)合多個模態(tài)的信息,然后通過應(yīng)用閾值來過濾和精細化結(jié)果。目標是通過合并來自相似患者的輔助信息來推斷模態(tài)缺失樣本。因此,為了聚合來自相似的信息,將一批患者的表示表示為每個模態(tài)中的一個圖,相似度矩陣 Π ~ \tilde{\Pi} Π~作為圖的鄰接矩陣(即,然后使用圖卷積層(GCN),利用結(jié)構(gòu)信息增強表示學習。

  • Adaptive Modality Imputation:
  • Multimodal Interaction Capture:這部分沒有什么好說,就是常規(guī)Transformer融合多模態(tài)特征。

三.數(shù)據(jù)集

Ocular Disease Intelligent Recognition (ODIR) Dataset and Ophthalmic Vitrectomy
(OV) Dataset 眼病智能識別(ODIR)數(shù)據(jù)集和眼科玻璃體切除術(shù)(OV)數(shù)據(jù)集

四 .實驗結(jié)果文章來源地址http://www.zghlxwxcb.cn/news/detail-756760.html

【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data,多模態(tài)與缺失模態(tài),深度學習,論文閱讀,筆記【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data,多模態(tài)與缺失模態(tài),深度學習,論文閱讀,筆記

到了這里,關(guān)于【論文閱讀筆記】M3Care: Learning with Missing Modalities in Multimodal Healthcare Data的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【論文閱讀筆記】UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING

    ?本文提出了一種自監(jiān)督框架,名為“時間鄰域編碼”(Temporal Neighborhood Coding,TNC),用于學習非平穩(wěn)時間序列的可泛化表示。該方法利用信號生成過程的局部平滑性來定義具有平穩(wěn)性質(zhì)的時間鄰域。通過使用去偏差對比目標,該框架通過確保在編碼空間中,來自鄰域內(nèi)的信

    2024年02月21日
    瀏覽(21)
  • 【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting

    【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting

    個人閱讀筆記,如有錯誤歡迎指出 Arxiv 2019????????[1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org) 問題: ????????聯(lián)邦學習容易受到后門攻擊 創(chuàng)新: ????????提出一種基于殘差的重新加權(quán)聚合算法 ????????聚合算法將重復中值回歸和加權(quán)

    2024年02月15日
    瀏覽(31)
  • 【論文導讀】- Subgraph Federated Learning with Missing Neighbor Generation(FedSage、FedSage+)

    【論文導讀】- Subgraph Federated Learning with Missing Neighbor Generation(FedSage、FedSage+)

    Subgraph Federated Learning with Missing Neighbor Generation 原文鏈接:Subgraph Federated Learning with Missing Neighbor Generation:https://arxiv.org/abs/2106.13430 Graphs have been widely used in data mining and machine learning due to their unique representation of real-world objects and their interactions. As graphs are getting bigger and bigger no

    2024年02月02日
    瀏覽(23)
  • 【自監(jiān)督論文閱讀筆記】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

    【自監(jiān)督論文閱讀筆記】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

    2023 ????????本文展示了一種 學習高度語義圖像表示 的方法,而 不依賴于手工制作的數(shù)據(jù)增強 。本文介紹了 基于圖像的聯(lián)合嵌入預(yù)測架構(gòu) (I-JEPA) ,這是一種用于從圖像進行自監(jiān)督學習的 非生成方法 。 I-JEPA 背后的想法很簡單: 從單個上下文塊,預(yù)測同一圖像中各種目

    2024年02月09日
    瀏覽(22)
  • 論文閱讀 - Learning Human Interactions with the Influence Model

    論文閱讀 - Learning Human Interactions with the Influence Model

    NIPS\\\'01 早期模型 要求知識背景: 似然函數(shù),極大似然估計、HMM、期望最大化 目錄 1 Introduction 2 The Facilitator Room 3 T h e I n f l u e n c e M o d e l 3 . 1 ( R e ) i n t r o d u c i n g t h e I n f l u e n c e M o d e l 3 . 2 L e a r n i n g f o r t h e I n f l u e n c e M o d e l 3. 2. 1 期望——影響力最大化模型 3

    2024年02月07日
    瀏覽(20)
  • 《論文閱讀27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    《論文閱讀27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    研究領(lǐng)域: 圖像特征點匹配 論文:SuperGlue: Learning Feature Matching with Graph Neural Networks CVPR 2020 veido 論文code? [參考]?[參考]?[參考]? ? SuperGlue:使用圖神經(jīng)網(wǎng)絡(luò)學習特征匹配 本文介紹了SuperGlue,一種神經(jīng)網(wǎng)絡(luò),通過 共同尋找對應(yīng)點和拒絕不匹配點 來匹配兩組本地特征。分配估

    2024年02月05日
    瀏覽(21)
  • 論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增強語言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知識: BERT (Bidirectional Encoder Representations from Transformers)是一種預(yù)訓練語言模型,它通過在大規(guī)模文本數(shù)據(jù)上進行預(yù)訓練,學習文本的雙向表示,并在多種NLP任務(wù)中展現(xiàn)出卓越的性能。BERT的雙向性意味著它能夠

    2024年04月23日
    瀏覽(34)
  • Multi-Task Learning based Video Anomaly Detection with Attention 論文閱讀

    Multi-Task Learning based Video Anomaly Detection with Attention 論文閱讀

    文章信息: 原文鏈接:https://ieeexplore.ieee.org/document/10208994/ 源代碼:無 發(fā)表于:CVPR 2023 基于多任務(wù)學習的視頻異常檢測方法將多個代理任務(wù)結(jié)合在不同的分支中,以便在不同情境中檢測視頻異常。然而,大多數(shù)現(xiàn)有方法存在以下一些缺點: I) 它們的代理任務(wù)組合方式不是以

    2024年01月20日
    瀏覽(33)
  • 論文閱讀《Vision-Language Pre-Training with Triple Contrastive Learning》

    論文閱讀《Vision-Language Pre-Training with Triple Contrastive Learning》

    本文是2022年CVPR上的一篇 多模態(tài) 論文,利用對比學習和動量來進行圖片與文本信息的上游預(yù)訓練。 作者提出問題 簡單的跨模態(tài)比對模型無法確保來自同一模態(tài)的相似輸入保持相似。(模態(tài)內(nèi)部語義信息損失) 全局互信息最大化的操作沒有考慮局部信息和結(jié)構(gòu)信息。 對于上

    2024年04月13日
    瀏覽(28)
  • 【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    4篇應(yīng)用解耦表示學習的文章,這里只關(guān)注如何解耦,更多細節(jié)不關(guān)注,簡單記錄一下。 Chen C, Dou Q, Jin Y, et al. Robust multimodal brain tumor segmentation via feature disentanglement and gated fusion[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, O

    2024年01月17日
    瀏覽(37)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包