国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

壓縮感知入門③基于ADMM的全變分正則化的壓縮感知重構(gòu)算法

這篇具有很好參考價值的文章主要介紹了壓縮感知入門③基于ADMM的全變分正則化的壓縮感知重構(gòu)算法。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


  • 壓縮感知系列博客:
  • 壓縮感知入門①從零開始壓縮感知
  • 壓縮感知入門②信號的稀疏表示和約束等距性
  • 壓縮感知入門③基于ADMM的全變分正則化的壓縮感知重構(gòu)算法
  • 壓縮感知入門④基于總體最小二乘的擾動壓縮感知重構(gòu)算法

1. Problem


信號壓縮是是目前信息處理領(lǐng)域非常成熟的技術(shù),其主要原理是利用信號的稀疏性。一個稀疏信號的特征是,信號中有且僅有少量的位置是有值的,其它位置都是零。對于一個稀疏的信號,在存儲時只需要記錄有值的位置,從而實現(xiàn)對原始信號的壓縮。

對于原本不稀疏的信號,可以利用一種字典(正交變換基,例如傅里葉、小波)對信號進行線性表示,得到原始信號在這個稀疏域上的稀疏表示系數(shù),只需要記錄這些少量的系數(shù)就能夠?qū)崿F(xiàn)對信號的壓縮存儲。

在信號重建時,首先對信號補零得到原始維度的信號,由于采用的變換字典是正交的,可以通過正交的變換得到原始信號。

壓縮感知與傳統(tǒng)的信號壓縮有著異曲同工之妙,而不同之處在于,壓縮感知的信號壓縮過程是將原始的模擬信號直接進行壓縮(采樣即壓縮)。而傳統(tǒng)信號壓縮通常是先將信號采樣后再進行壓縮(采樣后壓縮),這種壓縮方式的主要問題在于采用較高的采樣資源將信號采集后,又在信號壓縮過程將費盡心思采集到的信號丟棄了,從而造成資源的浪費1

以經(jīng)典的圖像采集為例,對于一副 m × n m\times n m×n的圖像信號 I I I進行采集,根據(jù)正交變換的思想,至少要對其進行 N = m × n N=m\times n N=m×n次采樣才能夠得到這副圖像。

若該圖像是稀疏的,根據(jù)壓縮感知理論,可以至少進行 M M M次采樣就能夠采集到該信號,其中 M < < N M<<N M<<N M M M的值有信號的稀疏性決定。

2. Formulation


一個壓縮感知采樣過程可以表示為

A x = b + e (1) Ax=b+e\tag{1} Ax=b+e(1)

其中, A ∈ R M × N A\in \mathbb R^{M\times N} ARM×N表示觀測矩陣, x ∈ R N × 1 x\in \mathbb R^{N\times 1} xRN×1表示 I ∈ R m × n I\in \mathbb R^{m\times n} IRm×n的向量形式, b ∈ R M × 1 b\in \mathbb R^{M\times 1} bRM×1表示測量向量, e ∈ R M × 1 e\in \mathbb R^{M\times 1} eRM×1表示測量噪聲??梢钥吹?,一個 N N N維的信號在采樣過程中被壓縮成 M M M維的信號,這里的 M < N M<N M<N

信號重構(gòu)過程可以表示為一個優(yōu)化問題,利用信號的梯度稀疏性質(zhì),可以構(gòu)建目標(biāo)函數(shù):

min ? x ? ∣ ∣ D x ∣ ∣ 1 ? s . t . ? A x = b + e (2) \min_x\ ||Dx||_1\ s.t. \ Ax=b+e\tag{2} xmin??∣∣Dx1??s.t.?Ax=b+e(2)

其中, x x x為待求解信號, D D D為全變分算子2。去除約束有

min ? x ? λ ∣ ∣ D x ∣ ∣ 1 + 1 2 ∣ ∣ A x ? b ∣ ∣ 2 2 (3) \min_x \ \lambda||Dx||_1+\frac12 ||Ax-b||^2_2\tag{3} xmin??λ∣∣Dx1?+21?∣∣Ax?b22?(3)

該問題是一個非凸、不光滑問題,無法直接采用梯度下降法求解。引入變量 d d d,將問題(3)轉(zhuǎn)化為ADMM的一般形式3

min ? x 1 2 ∣ ∣ A x ? b ∣ ∣ 2 2 + λ ∣ ∣ d ∣ ∣ 1 ?? s . t . ?? D x ? d = 0 (4) \min_x \frac12 ||Ax-b||^2_2+\lambda||d||_1 \ \ s.t.\ \ Dx-d=0\tag{4} xmin?21?∣∣Ax?b22?+λ∣∣d1???s.t.??Dx?d=0(4)

利用增廣拉格朗日法引入凸松弛,同時去除約束條件,有

L ( x , d , μ ) = 1 2 ∣ ∣ A x ? b ∣ ∣ 2 2 + λ ∣ ∣ d ∣ ∣ 1 + μ T ( D x ? d ) + δ 2 ∣ ∣ D x ? d ∣ ∣ 2 2 (5) L(x,d,\mu)=\frac12 ||Ax-b||^2_2+\lambda||d||_1+\mu^T(Dx-d)+\frac \delta 2||Dx-d||^2_2\tag{5} L(x,d,μ)=21?∣∣Ax?b22?+λ∣∣d1?+μT(Dx?d)+2δ?∣∣Dx?d22?(5)

其中 μ \mu μ為拉格朗日乘子, δ > 0 \delta>0 δ>0為拉格朗日懲罰項。為了使表達更簡潔,可做如下替換:

L ( x , d , μ ) = 1 2 ∣ ∣ A x ? b ∣ ∣ 2 2 + λ ∣ ∣ d ∣ ∣ 1 + δ 2 ∣ ∣ D x ? d + p ∣ ∣ 2 2 ? δ 2 ∣ ∣ p ∣ ∣ 2 2 (6) L(x,d,\mu)=\frac12 ||Ax-b||^2_2+\lambda||d||_1+\frac \delta 2||Dx-d+p||^2_2-\frac \delta 2||p||_2^2\tag{6} L(x,d,μ)=21?∣∣Ax?b22?+λ∣∣d1?+2δ?∣∣Dx?d+p22??2δ?∣∣p22?(6)

其中 p = μ / δ p=\mu / \delta p=μ/δ。利用ADMM,問題(6)的求解可通過交替求解以下三個問題進行實現(xiàn):

x n + 1 = a r g ? min ? x ? 1 2 ∣ ∣ A x ? b ∣ ∣ 2 2 + δ 2 ∣ ∣ D x ? d n + p n ∣ ∣ 2 2 (7) x_{n+1}=arg\,\min_x\ \frac12 ||Ax-b||^2_2+\frac \delta 2||Dx-d_n+p_n||^2_2\tag{7} xn+1?=argxmin??21?∣∣Ax?b22?+2δ?∣∣Dx?dn?+pn?22?(7)

d n + 1 = a r g ? min ? u ? λ ∣ ∣ d ∣ ∣ 1 + δ 2 ∣ ∣ D x n ? d + p n ∣ ∣ 2 2 (8) d_{n+1}=arg\,\min_u\ \lambda||d||_1+\frac \delta 2||Dx_n-d+p_n||^2_2\tag{8} dn+1?=argumin??λ∣∣d1?+2δ?∣∣Dxn??d+pn?22?(8)

p n + 1 = p n + ( D x n + 1 ? d n + 1 ) (9) p_{n+1}=p_n+(Dx_{n+1}-d_{n+1})\tag{9} pn+1?=pn?+(Dxn+1??dn+1?)(9)

3. Simulation


測試圖像采用的是house,分別測試在20%、40%、60%、80%和100%采樣率時,壓縮感知重構(gòu)算法的圖像恢復(fù)結(jié)果。

壓縮感知入門③基于ADMM的全變分正則化的壓縮感知重構(gòu)算法

從仿真結(jié)果可以看到,在20%采樣率時,信號的基本輪廓信息就被成功采集了,當(dāng)采樣率達到60%以上時,繼續(xù)增加采樣率并沒有使得圖像更加的清晰,也就是說,針對這副圖像,若采用傳統(tǒng)的正交采集的方式,有將近一半的采樣資源是被浪費的。

4. Algorithm


ratio=0.5;%采樣率
x=double(imread('house.bmp'));
[m,n]=size(x);
N=m*n;
M=floor(ratio*N);
A=rand(M,N);%觀測矩陣
e=50*randn(M,1);%測量噪聲
% 信號采集過程,利用線性投影對信號x進行采集,同時考慮了測量噪聲
b=A*reshape(x,N,1)+e;
% 信號重構(gòu)過程,利用僅有的M個測量值恢復(fù)維度為N的信號
x_r=ADMM_TV_reconstruct(A,b,300,500,100);
figure;
subplot(121);
imshow(uint8(x));
title('原始圖像');
subplot(122);
imshow(uint8(reshape(x_r,m,n)));
title(sprintf('重構(gòu)圖像(%d%%采樣率)',ratio*100));
function xp=ADMM_TV_reconstruct(A,b,delta,lambda,iteratMax)
    [~,N]=size(A);
    [Dh,Dv]=TVOperatorGen(sqrt(N));
    D=sparse([(Dh)',(Dv)']');
    d=D*ones(N,1);
    p=ones(2*N,1)/delta;
    invDD=inv(A'*A+delta*(D'*D));
    for ii=1:iteratMax
        x=invDD*(A'*b+delta*D'*(d-p));
        d=wthresh(D*x+p,'s',lambda/delta);
        p=p+D*x-d;
    end
    xp=x;
end
function [Dh,Dv]=TVOperatorGen(n)
    Dh=-eye(n^2)+diag(ones(1,n^2-1),1);
    Dh(n:n:n^2,:)=0;
    Dv=-eye(n^2)+diag(ones(1,n^2-n),n);
    Dv(n*(n-1)+1:n^2,:)=0;
end
Github link: https://github.com/dwgan/ADMM_TV_reconstruct

參考文獻


  1. Baraniuk, Richard G. “Compressive sensing [lecture notes].” IEEE signal processing magazine 24.4 (2007): 118-121. ??

  2. Rudin, Leonid I., Stanley Osher, and Emad Fatemi. “Nonlinear total variation based noise removal algorithms.” Physica D: nonlinear phenomena 60.1-4 (1992): 259-268. ??

  3. Boyd, Stephen, et al. “Distributed optimization and statistical learning via the alternating direction method of multipliers.” Foundations and Trends? in Machine learning 3.1 (2011): 1-122. ??文章來源地址http://www.zghlxwxcb.cn/news/detail-469349.html

到了這里,關(guān)于壓縮感知入門③基于ADMM的全變分正則化的壓縮感知重構(gòu)算法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包