国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

超分辨率地震速度模型

這篇具有很好參考價值的文章主要介紹了超分辨率地震速度模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

文獻(xiàn)分享


1. Multitask Learning for Super-Resolution

原題目:Multitask Learning for Super-Resolution of Seismic Velocity Model

全波形反演(FWI)是估算地下速度模型的強大工具。與傳統(tǒng)反演策略相比,F(xiàn)WI充分利用了地震波的運動學(xué)和動力特性,具有更高的精度和分辨率。近年來,低頻和中頻波數(shù)的FWI發(fā)展迅速,而高頻FWI由于其計算成本巨大,亟待解決。由于深度學(xué)習(xí)技術(shù)在各種地球物理問題中取得了顯著的性能,作者建議使用深度學(xué)習(xí)方法來提高FWI的效率和準(zhǔn)確性。

Core parts:
1.super-resolution:目標(biāo)是從給定的低分辨率圖像中獲得視覺上令人愉悅的高分辨率圖像。作者專注于使用SR技術(shù)來輔助FWI任務(wù),即使用SR作為后處理操作來提高FWI的質(zhì)量。
2.multitask learning:把多個相關(guān)的任務(wù)放在一起學(xué)習(xí),同時學(xué)習(xí)多個任務(wù)。通過在一定程度上提高輔助任務(wù)的性能和共享參數(shù),可以更好地泛化原始任務(wù)(主要任務(wù))。

1.1 方法

邊緣圖像:是對原始圖像進行邊緣提取后得到的圖像。邊緣是圖像性區(qū)域和另一個屬性區(qū)域的交接處,是區(qū)域?qū)傩园l(fā)生突變的地方,是圖像中不確定性最大的地方,也是圖像信息最集中的地方,圖像的邊緣包含著豐富的信息。

具有硬參數(shù)共享的MTL:邊界恢復(fù)是當(dāng)前SR處理的難點,并且這在地震速度模型的SR中尤為突出。在地球物理學(xué)中,地震速度模型的邊緣信息是地質(zhì)模型的重要組成部分,這證明了使用邊緣圖像重建作為輔助任務(wù)的相關(guān)性。并且由于地震速度模型與其邊緣圖像高度相關(guān),因此采用硬參數(shù)共享策略更加高效。文章得到的邊緣圖像是原始圖像經(jīng)過sobel算子卷積的結(jié)果。

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺

混合損失函數(shù):由MSE和TV組成,表達(dá)式如下:
loss ( Φ ) = mse ( Φ ) + TV ( Φ ) \text{loss}(\Phi)= \text{mse}(\Phi) +\text{TV}(\Phi) loss(Φ)=mse(Φ)+TV(Φ)
mse ( Φ ) = 1 N M ∑ k = 1 3 α k ∑ i = 1 N ∑ j = 1 M ( f ( I L , Φ ) i , j , k , ? I H i , j , k ) 2 , \text{mse}(\Phi) =\frac{1}{NM}\sum^{3}_{k=1}\alpha_k\sum^{N}_{i=1}\sum^{M}_{j=1}(f(I_L,\Phi)^{i,j,k},-I_H^{i,j,k})^2, mse(Φ)=NM1?k=13?αk?i=1N?j=1M?(f(IL?,Φ)i,j,k,?IHi,j,k?)2, where ∑ k = 1 3 α k = 1 \sum^{3}_{k=1}\alpha_k=1 k=13?αk?=1 and a k l 1 ( I H ? I L ) ∣ c = k ≡ C , k = 1 , 2 , 3 a_k l_1(I_H-I_L)|_{c=k}\equiv C, k=1,2,3 ak?l1?(IH??IL?)c=k?C,k=1,2,3

TV ( Φ ) = β 1 1 K 1 ∑ i = 1 N ∑ j = 2 M ∣ f ( I L , Φ ) i , j , 1 ? f ( I L , Φ ) i , j ? 1 , 1 ∣ + ? β 2 1 K 2 ∑ i = 1 N ∑ j = 2 M ∣ f ( I L , Φ ) i , j , 1 ? f ( I L , Φ ) i ? 1 , j , 1 ∣ , \text{TV}(\Phi)=\beta_1\frac {1}{K_1}\sum^{N}_{i=1}\sum^{M}_{j=2}\lvert f(I_L,\Phi)^{i,j,1}-f(I_L,\Phi)^{i,j-1,1}\rvert+ \ \beta_2\frac {1}{K_2}\sum^{N}_{i=1}\sum^{M}_{j=2}\lvert f(I_L,\Phi)^{i,j,1}-f(I_L,\Phi)^{i-1,j,1}\rvert, TV(Φ)=β1?K1?1?i=1N?j=2M?f(IL?,Φ)i,j,1?f(IL?,Φ)i,j?1,1+?β2?K2?1?i=1N?j=2M?f(IL?,Φ)i,j,1?f(IL?,Φ)i?1,j,1,
where K 1 = N ( M ? 1 ) , K 2 = ( N ? 1 ) M K_1 = N(M-1), K_2=(N-1)M K1?=N(M?1),K2?=(N?1)M.

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺
同時,在訓(xùn)練過程中,采用了學(xué)習(xí)率衰減方法。實際學(xué)習(xí)率表示為
η i = a i η 0 \eta_i = a^i\eta_0 ηi?=aiη0?
η 0 \eta_0 η0?為初始學(xué)習(xí)率, a a a為衰減率。

1.2 實驗結(jié)果

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺
超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺
超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺
超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺

2. Super-resolution guided by seismic data

原題目:Super-Resolution of Seismic Velocity Model Guided by Seismic Data
前面的提到的,M-RUDSR的多任務(wù)學(xué)習(xí)框架已經(jīng)成功通過提高地震速度模型的分辨率,來提高FWI結(jié)果的精度。
然而,作者認(rèn)為它并沒有充分利用地震數(shù)據(jù)。但由于地震速度模型和地震數(shù)據(jù)處于不同的頻段,單純增加模型輸入輸出通道來實現(xiàn)地震數(shù)據(jù)的利用效果有限。在M-RUSDR的基礎(chǔ)上,提出了M-RUSDRv2。
不同的是,M-RUSDR是僅將地震速度模型邊緣圖像的SR作為輔助任務(wù)以增強地震速度模型的分辨率,而M-RUSDRv2不僅考慮地震速度模型及其邊緣圖像,還考慮了地震數(shù)據(jù)及其邊緣圖像。并且M-RUSDRv2通過在特定數(shù)據(jù)的訓(xùn)練,海量數(shù)據(jù)上的微調(diào),實現(xiàn)了較強的泛化能力。

2.1 方法

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺
損失函數(shù):與上文僅僅有一處不同,即 a k a_k ak?
∑ k = 1 K a k = 1 , K = 6 \sum_{k=1}^K a_k=1,K=6 k=1K?ak?=1,K=6 and a k = m a k + 3 , m > 0 , k ∈ [ 1 , 3 ] a_k=ma_{k+3},m>0,k \in[1,3] ak?=mak+3?,m>0,k[1,3] and a k 1 ∥ I H k 1 ? I L k 1 ∥ 1 = a k 2 ∥ I H k 2 ? I L k 2 ∥ 1 , k 1 , k 2 ∈ [ 1 , 3 ] a_{k_1}\lVert I_H^{k_1}-I_{L}^{k_1}\rVert_1=a_{k_2}\lVert I_H^{k_2}-I_{L}^{k_2}\rVert_1, k_1,k_2 \in[1,3] ak1??IHk1???ILk1??1?=ak2??IHk2???ILk2??1?,k1?,k2?[1,3]

訓(xùn)練過程分為三個步驟:
1.對具有相同模糊級別的地震速度模型和地震數(shù)據(jù)進行訓(xùn)練,包括四種類型的訓(xùn)練數(shù)據(jù)(與上文類似)。上式參數(shù) m m m設(shè)置為1。此時模型僅針對特定數(shù)據(jù)進行初步學(xué)習(xí),泛化能力較差。
2.對地震速度模型和各種模糊級別的地震數(shù)據(jù)進行訓(xùn)練,包括16種訓(xùn)練數(shù)據(jù)。因此,該模型廣泛學(xué)習(xí)各種數(shù)據(jù),具有很強的泛化能力。 m m m值設(shè)置同上。
3.對地震速度模型和各種模糊級別的地震數(shù)據(jù)的訓(xùn)練(與步驟2中的訓(xùn)練數(shù)據(jù)類似)。此外,將參數(shù) m m m調(diào)整為 m > 1 m > 1 m>1,這使得損失函數(shù)對地震速度模型更加敏感。

2.2 實驗結(jié)果

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺

超分辨率地震速度模型,圖像處理,深度學(xué)習(xí),地震勘探,深度學(xué)習(xí),計算機視覺文章來源地址http://www.zghlxwxcb.cn/news/detail-656548.html

到了這里,關(guān)于超分辨率地震速度模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AIGC圖像分辨率太低?快來試試像素感知擴散超分模型,你想要的細(xì)節(jié)都在這里

    AIGC圖像分辨率太低?快來試試像素感知擴散超分模型,你想要的細(xì)節(jié)都在這里

    ? ? ? ?最新 FaceChain支持多人合照寫真、上百種單人寫真風(fēng)格,項目信息匯總:ModelScope 魔搭社區(qū)?。 ???????github開源直達(dá)(覺得有趣的點個star哈。):GitHub - modelscope/facechain: FaceChain is a deep-learning toolchain for generating your Digital-Twin. 摘要 阿里巴巴最新自研的像素感知擴散

    2024年02月08日
    瀏覽(26)
  • 圖像超分辨率重建概述

    圖像超分辨率重建概述

    1. 概念: ? ? ? ? 圖像分辨率是一組用于評估圖像中蘊含細(xì)節(jié)信息豐富程度的性能參數(shù),包括時間分辨率、空間分辨率及色階分辨率等,體現(xiàn)了成像系統(tǒng)實際所能反映物體細(xì)節(jié)信息的能力。相較于低分辨率圖像,高分辨率圖像通常包含更大的像素密度、更豐富的紋理細(xì)節(jié)及更

    2024年02月04日
    瀏覽(23)
  • 圖像超分辨率簡單介紹

    圖像超分辨率(Image Super-Resolution,簡稱SR)是一種通過使用計算機算法提高圖像分辨率的技術(shù),即從低分辨率的圖像中生成高分辨率的圖像。圖像SR可以在許多領(lǐng)域得到應(yīng)用,例如計算機視覺、醫(yī)學(xué)成像、遙感等。 圖像SR旨在從低分辨率(低清晰度)圖像中提高圖像質(zhì)量和信

    2024年02月06日
    瀏覽(27)
  • ISP之圖像降分辨率

    1、圖像縮放背景 圖像的放大、縮小(簡稱縮放)是圖像處理的一種處理方法。所謂圖像縮放是指圖像分辨率的改變,它在圖像顯示、傳輸、圖像分析以及動畫制作、電影合成、甚至醫(yī)學(xué)圖像處理中都有著相當(dāng)廣泛的應(yīng)用。比如要在1024 X 768 分辨率的顯示器上全屏顯示800 X 600 的數(shù)

    2024年02月11日
    瀏覽(23)
  • 圖像超分辨率重建(pytorch)

    圖像超分辨率重建(pytorch)

    ?????????本文代碼主體來自CVPR2020論文《Closed-loop matters: Dual regression networks for single image super-resolution》,但原作者并未提供論文亮點--如何使用unpair數(shù)據(jù)進行訓(xùn)練的代碼,所以我在其基礎(chǔ)上補齊了該過程的代碼。 ? ? ? ? 代碼倉庫:https://github.com/VitaminyW/Super_Solution ? ? ?

    2024年01月16日
    瀏覽(25)
  • ?目標(biāo)檢測算法——YOLOv5/YOLOv7改進之結(jié)合?SOCA(單幅圖像超分辨率)
CVPR19 單幅圖像超分辨率來了?。?!

    ?目標(biāo)檢測算法——YOLOv5/YOLOv7改進之結(jié)合?SOCA(單幅圖像超分辨率) CVPR19 單幅圖像超分辨率來了?。?!

    (一)前沿介紹 論文題目:Second-order Attention Network for Single Image Super-Resolution 論文地址:CVPR19 超分辨率 代碼地址:https://github.com/daitao/SAN 1.SOCA moudle結(jié)構(gòu)圖 2.相關(guān)實驗結(jié)果 (二)YOLOv5/YOLOv7改進之結(jié)合?SOCA 1.配置common.py文件 2.配置yolo.py文件 3.配置yolov5/yolov7_SOCA moudle.yaml文件

    2023年04月23日
    瀏覽(37)
  • 無人機航拍圖像的空間分辨率計算

    無人機航拍圖像的空間分辨率計算

    GSD:無人機/遙感衛(wèi)星的空間分辨率,指航片/遙感影像一個像素點代表的空間距離。 計算公式: d:單位cm、指空間分辨率。 s:單位μm、指像元大小(像素間距)。 H:單位m、指飛行高度。 f:單位mm、指焦段(即鏡頭的焦段)。 注意:計算時統(tǒng)一單位。同時,更值得注意的

    2024年02月01日
    瀏覽(30)
  • 使用OpenCV實現(xiàn)圖像超分辨率(Python)

    超分辨率技術(shù)指的是將低分辨率的圖像或視頻通過算法轉(zhuǎn)換成高分辨率的圖像或視頻的操作。 超分辨率可以分為兩種:單圖像超分辨率(Single Image Super Resolution,SISR)和視頻超分辨率(Video Super Resolution,VSR)。 OpenCV中的超分辨率功能被集中在了contrib模塊中,因此我們首先需

    2024年02月13日
    瀏覽(41)
  • 【圖像超分辨率重建】——GRL論文精讀筆記

    【圖像超分辨率重建】——GRL論文精讀筆記

    作者: Yawei Li1 Yuchen Fan2 Xiaoyu Xiang2 Denis Demandolx2 Rakesh Ranjan2 Radu Timofte1;3 Luc Van Gool1;4 期刊: CVPR 引用: * 摘要: 本文的目的是提出一種機制,在全局、區(qū)域和局部范圍內(nèi)有效和明確地建立圖像層次模型,用于圖像修復(fù)。為了實現(xiàn)這一目標(biāo),我們首先分析了自然圖像的兩個重要

    2024年02月09日
    瀏覽(22)
  • 【圖像超分辨率重建】——HAT論文精讀筆記

    【圖像超分辨率重建】——HAT論文精讀筆記

    作者: Xiangyu Chen, Xintao Wang, Jiantao Zhou, and Chao Dong 期刊: 引用: 摘要: 基于 Transformer 的方法在圖像超分辨率等低級視覺任務(wù)中表現(xiàn)出令人印象深刻的性能。然而,我們發(fā)現(xiàn)這些網(wǎng)絡(luò)只能通過歸因分析利用有限空間范圍的輸入信息。這意味著 Transformer 的潛力在現(xiàn)有網(wǎng)絡(luò)中仍未

    2024年02月08日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包