国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

矩陣的奇異值分解

這篇具有很好參考價值的文章主要介紹了矩陣的奇異值分解。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


注:本博文為本人閱讀論文、文章后的原創(chuàng)筆記,未經(jīng)授權不允許任何轉載或商用行為,否則一經(jīng)發(fā)現(xiàn)本人保留追責權利。有問題可留言聯(lián)系,歡迎指摘批評,共同進步!??!

1. 前言

假設矩陣 A \mathbf{A} A是一個 M × N M \times N M×N大小的矩陣。對其進行奇異值分解后可以得到:
A ( m × n ) = U ( m × m ) Σ ( m × n ) V ( n × n ) T \mathbf{A_{(m \times n)} = U_{(m \times m)} \Sigma_{(m \times n)} V^T_{(n \times n)}} A(m×n)?=U(m×m)?Σ(m×n)?V(n×n)T?
其中矩陣 Σ \mathbf{\Sigma} Σ是準對角矩陣,其對角元素就是奇異值。矩陣 U \mathbf{U} U V \mathbf{V} V都是酉矩陣,一條重要的性質就是,其列向量都是兩兩正交的單位向量(模為1,對應相乘等于0).

2. 數(shù)值計算

在計算時,首先我們考慮計算矩陣 V \mathbf{V} V和準對角陣 Σ : \mathbf{\Sigma}: Σ:

  1. 首先計算 A T A \mathbf{A^TA} ATA,因為已知矩陣 A \mathbf{A} A大小為 M × N M \times N M×N,因此 A T A \mathbf{A^TA} ATA是大小為 N × N N \times N N×N方陣,可以進行特征分解,求得 N N N個特征值 λ i ( i = 1 , . . . , N ) \lambda_i(i = 1, ..., N) λi?(i=1,...,N)單位化的特征向量 α i ( i = 1 , . . . , N ) \bm{\alpha_i}(i = 1, ..., N) αi?(i=1,...,N).
  2. 因此,矩陣 V \mathbf{V} V和準對角陣 Σ \mathbf{\Sigma} Σ可以得到為:
    V = ( α 1 ? α 2 ? ? ? α N ) Σ = ( λ 1 0 ? 0 0 λ 2 ? 0 ? ? ? ? 0 0 ? λ N ) \begin{aligned} \mathbf{V} &= (\bm{\alpha_1\ \alpha_2\ \cdots\ \alpha_N}) \\ \mathbf{\Sigma} &= \begin{pmatrix} \sqrt{\lambda_1} & 0 & \cdots & 0\\ 0 & \sqrt{\lambda_2} & \cdots & 0\\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & \sqrt{\lambda_N} \end{pmatrix} \end{aligned} VΣ?=(α1??α2????αN?)=? ??λ1? ?0?0?0λ2? ??0??????00?λN? ??? ???

注意:矩陣 Σ \mathbf{\Sigma} Σ不一定是方陣,但是也是只有主對角線上有值,其余填0即可;
另外,矩陣 Σ \mathbf{\Sigma} Σ和矩陣 V \mathbf{V} V中的元素一定要以特征值-特征向量對應書寫,順序不可錯亂。

計算矩陣 U \mathbf{U} U

  1. 計算 A A T \mathbf{AA^T} AAT,因為已知矩陣 A \mathbf{A} A大小為 M × N M \times N M×N,因此 A A T \mathbf{AA^T} AAT是大小為 M × M M \times M M×M方陣,可以進行特征分解,求得 M M M個特征值 γ i ( i = 1 , . . . , M ) \gamma_i(i = 1, ..., M) γi?(i=1,...,M)單位化的特征向量 θ i ( i = 1 , . . . , M ) \bm{\theta_i}(i = 1, ..., M) θi?(i=1,...,M). 由此,我們可以確定,矩陣 U \mathbf{U} U是由 M M M個單位特征向量組成的,但是向量的排列順序還不確定,接下來就是要確定這件事;

∵ V 是正交矩陣 ∴ V T = V ? 1 ? A = U Σ V ? 1 ? A V = U Σ \begin{aligned} \because \mathbf{V}是正交矩陣 \\ \therefore \mathbf{V^T} = \mathbf{V^{-1}} \\ \Rightarrow \mathbf{A} = \mathbf{U \Sigma V^{-1}}\\ \Rightarrow \mathbf{AV} = \mathbf{U \Sigma} \end{aligned} V是正交矩陣VT=V?1?A=V?1?AV=?

  1. 計算出矩陣 A V \mathbf{AV} AV,再由于矩陣 Σ \mathbf{\Sigma} Σ只有主對角線上有元素,可以根據(jù)簡單的除法,對應計算出矩陣 U \mathbf{U} U中前幾列對應的元素。由此可以確定特征向量在矩陣 U \mathbf{U} U中的對應位置關系,然后寫出矩陣 U \mathbf{U} U.
  2. A = U Σ V T \mathbf{A = U \Sigma V^{T}} A=VT(一定要記得矩陣 V \mathbf{V} V最后還有個轉置運算)

3. 奇異值分解的原理

在上述數(shù)值計算過程中有一個問題,就是為什么矩陣 A T A \mathbf{A^TA} ATA的特征向量就組成矩陣 V \mathbf{V} V,特征值組成矩陣 Σ \mathbf{\Sigma} Σ,而矩陣 A A T \mathbf{AA^T} AAT的特征向量組成矩陣 U \mathbf{U} U呢?接下來就解釋這個問題:

  1. 為什么矩陣 A T A \mathbf{A^TA} ATA的特征向量就組成矩陣 V \mathbf{V} V,特征值開根號組成矩陣 Σ \mathbf{\Sigma} Σ?
    A = U Σ V T A T = V Σ T U T = V Σ T U ? 1 ( 因為 U 是正交陣 ) ? A T A = V Σ T U ? 1 U Σ V T = V Σ 2 V ? 1 ? ( A T A ) V = V Σ 2 \mathbf{A = U \Sigma V^T}\\ \mathbf{A^T = V \Sigma^T U^T}=\mathbf{V \Sigma^T U^{-1}}(因為\mathbf{U}是正交陣)\\ \Rightarrow \mathbf{A^TA} = \mathbf{V \Sigma^T U^{-1} U \Sigma V^T} = \mathbf{V \Sigma^2 V^{-1}}\\ \Rightarrow (\mathbf{A^TA})\mathbf{V} = \mathbf{V \Sigma^2} A=VTAT=VΣTUT=VΣTU?1(因為U是正交陣)?ATA=VΣTU?1VT=VΣ2V?1?(ATA)V=VΣ2
    由此可以看到,矩陣 V \mathbf{V} V中包含的列向量實際上就是矩陣 ( A T A ) (\mathbf{A^TA}) (ATA)的特征向量,而矩陣 Σ \mathbf{\Sigma} Σ中的對角值,就是矩陣 ( A T A ) (\mathbf{A^TA}) (ATA) 特征值 \sqrt{特征值} 特征值 ?.

  2. 為什么矩陣 A A T \mathbf{AA^T} AAT的特征向量組成矩陣 U \mathbf{U} U呢?
    顯然,這個問題和上面同理。

4. 例題

矩陣的奇異值計算例題,數(shù)理基礎,矩陣,算法,線性代數(shù)
矩陣的奇異值計算例題,數(shù)理基礎,矩陣,算法,線性代數(shù)

5. 奇異值分解的幾何含義

5.1 數(shù)據(jù)的線性變換——拉伸

例如,有一組數(shù)據(jù) D \mathbf{D} D D \mathbf{D} D表示為如下的矩陣:
D = [ x 1 x 2 x 3 x 4 y 1 y 2 y 3 y 4 ] \mathbf{D} = \begin{bmatrix} x_1 & x_2 & x_3 & x_4\\ y_1 & y_2 & y_3 & y_4 \end{bmatrix} D=[x1?y1??x2?y2??x3?y3??x4?y4??]
有一矩陣 S = [ 2 0 0 1 ] \mathbf{S}=\begin{bmatrix} 2 & 0\\ 0 & 1 \end{bmatrix} S=[20?01?]作用在該數(shù)據(jù)矩陣 D \mathbf{D} D上,可以得到:
S D = [ 2 0 0 1 ] [ x 1 x 2 x 3 x 4 y 1 y 2 y 3 y 4 ] = [ 2 x 1 2 x 2 2 x 3 2 x 4 y 1 y 2 y 3 y 4 ] \mathbf{SD} = \begin{bmatrix} 2 & 0\\ 0 & 1 \end{bmatrix} \begin{bmatrix} x_1 & x_2 & x_3 & x_4\\ y_1 & y_2 & y_3 & y_4 \end{bmatrix}= \begin{bmatrix} 2x_1 & 2x_2 & 2x_3 & 2x_4\\ y_1 & y_2 & y_3 & y_4 \end{bmatrix} SD=[20?01?][x1?y1??x2?y2??x3?y3??x4?y4??]=[2x1?y1??2x2?y2??2x3?y3??2x4?y4??]

這是矩陣運算中一條重要的性質:矩陣 S \mathbf{S} S是由 2 × 2 2 \times 2 2×2大小單位矩陣經(jīng)由初等變化而來的,當數(shù)據(jù)矩陣 D \mathbf{D} D左乘上一個單位矩陣的初等變換等于對 D \mathbf{D} D進行對應的行變換

  • 矩陣 D \mathbf{D} D左乘一個 S \mathbf{S} S相當于將基底由默認的 [ 1 0 ] \begin{bmatrix} 1\\ 0 \end{bmatrix} [10?] [ 0 1 ] \begin{bmatrix} 0\\ 1 \end{bmatrix} [01?]換為了 [ 2 0 ] \begin{bmatrix} 2\\ 0 \end{bmatrix} [20?] [ 0 1 ] \begin{bmatrix} 0\\ 1 \end{bmatrix} [01?](即矩陣 S \mathbf{S} S的列向量),所以數(shù)據(jù)進行了拉伸

5.2 數(shù)據(jù)的線性變換——旋轉

換作一矩陣 R = [ c o s ( θ ) ? s i n ( θ ) s i n ( θ ) c o s ( θ ) ] \mathbf{R} = \begin{bmatrix} cos(\theta) & -sin(\theta)\\ sin(\theta) & cos(\theta) \end{bmatrix} R=[cos(θ)sin(θ)??sin(θ)cos(θ)?] 作用與數(shù)據(jù)矩陣 D \mathbf{D} D上( D \mathbf{D} D左乘 R \mathbf{R} R),可得:
R D = [ c o s ( θ ) ? s i n ( θ ) s i n ( θ ) c o s ( θ ) ] [ x 1 x 2 x 3 x 4 y 1 y 2 y 3 y 4 ] \mathbf{RD} = \begin{bmatrix} cos(\theta) & -sin(\theta)\\ sin(\theta) & cos(\theta) \end{bmatrix} \begin{bmatrix} x_1 & x_2 & x_3 & x_4\\ y_1 & y_2 & y_3 & y_4 \end{bmatrix} RD=[cos(θ)sin(θ)??sin(θ)cos(θ)?][x1?y1??x2?y2??x3?y3??x4?y4??]

  • 同理,矩陣 D \mathbf{D} D左乘一個 R \mathbf{R} R相當于將基底由默認的 [ 1 0 ] \begin{bmatrix} 1\\ 0 \end{bmatrix} [10?] [ 0 1 ] \begin{bmatrix} 0\\ 1 \end{bmatrix} [01?]換為了 [ c o s ( θ ) s i n ( θ ) ] \begin{bmatrix} cos(\theta)\\ sin(\theta) \end{bmatrix} [cos(θ)sin(θ)?] [ ? s i n ( θ ) c o s ( θ ) ] \begin{bmatrix} -sin(\theta)\\ cos(\theta) \end{bmatrix} [?sin(θ)cos(θ)?](即矩陣 R \mathbf{R} R的列向量),顯然與原基底相比,作用后的基底逆時針旋轉了 θ \theta θ角度。相應地,數(shù)據(jù)點也是逆時針旋轉 θ \theta θ角度。

5.3 奇異值分解的幾何意義

觀察矩陣奇異值分解的形式:
A ( m × n ) = U ( m × m ) Σ ( m × n ) V ( n × n ) T \mathbf{A_{(m \times n)} = U_{(m \times m)} \Sigma_{(m \times n)} V^T_{(n \times n)}} A(m×n)?=U(m×m)?Σ(m×n)?V(n×n)T?
由前面的介紹可以知道,矩陣 U \mathbf{U} U和矩陣 V \mathbf{V} V都是酉矩陣。而酉矩陣有如下性質:

若矩陣 A \mathbf{A} A為酉矩陣,則

  • 性質1: A H A = E \mathbf{A^HA=E} AHA=E A A H = E \mathbf{AA^H=E} AAH=E,即表明酉矩陣行與行、列與列之間都是正交的,且各行、各列都是單位向量;
  • 性質2: A H = A ? 1 \mathbf{A^H=A^{-1}} AH=A?1且共軛轉置矩陣和逆矩陣也都是酉矩陣

因此矩陣 U \mathbf{U} U和矩陣 V T \mathbf{V^T} VT的每一列都是單位向量,且列與列之間相互正交,可以代表旋轉變換的基底;矩陣 Σ \mathbf{\Sigma} Σ只有主對角線上有 元素,可以代表拉伸(或收縮變換的基底。

實際上,單位正交矩陣就可以看做是一組旋轉變換的基底;對角矩陣可以看做是拉伸變換的基底。

因此,但任意的矩陣 A \mathbf{A} A作用于數(shù)據(jù)矩陣時,相當于將數(shù)據(jù)坐標點先進行旋轉變換,再進行拉伸變換,最后再進行一次旋轉變換。對于任意一個給定的變換 A \mathbf{A} A,都可以拆解成一個旋轉、伸縮、再旋轉的變換。奇異值本身的數(shù)值,代表了單位超球體經(jīng)變換后成為的超橢球體的每條半軸的長度。

6. 奇異值分解的應用價值

假設矩陣 A \mathbf{A} A的奇異值分解為:
A ( m × n ) = U ( m × m ) Σ ( m × n ) V ( n × n ) T = [ u 1 u 2 ? u m ] [ λ 1 1 2 λ 2 1 2 ? ] [ v 1 T v 2 T ? v n T ] \begin{aligned} \mathbf{A_{(m \times n)}} &= \mathbf{U_{(m \times m)} \Sigma_{(m \times n)} V^T_{(n \times n)}}\\ &= \begin{bmatrix} \mathbf{u_1} & \mathbf{u_2} & \cdots & \mathbf{u_m} \end{bmatrix} \begin{bmatrix} \lambda_1^{\frac{1}{2}} & & \\ & \lambda_2^{\frac{1}{2}} & \\ & & \cdots \end{bmatrix} \begin{bmatrix} \mathbf{v^T_1}\\ \mathbf{v^T_2}\\ \vdots \\ \mathbf{v^T_n} \end{bmatrix} \end{aligned} A(m×n)??=U(m×m)?Σ(m×n)?V(n×n)T?=[u1??u2????um??]? ??λ121???λ221?????? ??? ??v1T?v2T??vnT??? ???
此處 u i \mathbf{u_i} ui? v i \mathbf{v_i} vi?均為列向量(秩一矩陣), Σ \mathbf{\Sigma} Σ矩陣中存儲的奇異值 λ i 1 2 \lambda^{\frac{1}{2}}_i λi21??按照由大到小的順序對角排列: λ 1 > λ 2 > ? > λ m i n ( m × n ) \lambda_1 > \lambda_2 > \cdots > \lambda_{min(m \times n)} λ1?>λ2?>?>λmin(m×n)?。
如下圖運算步驟所示,我們實際上可以將矩陣 A \mathbf{A} A的奇異值分解再寫為眾多的秩一矩陣積的和的形式:
矩陣的奇異值計算例題,數(shù)理基礎,矩陣,算法,線性代數(shù)
即,矩陣 A = σ 1 u 1 v 1 T + σ 2 u 2 v 2 T + ? + σ r u r v r T \mathbf{A}=\sigma_1\mathbf{u_1}\mathbf{v^T_1}+\sigma_2\mathbf{u_2}\mathbf{v^T_2}+\cdots+\sigma_r\mathbf{u_r}\mathbf{v^T_r} A=σ1?u1?v1T?+σ2?u2?v2T?+?+σr?ur?vrT?(r表示矩陣 Σ \mathbf{\Sigma} Σ的秩)。奇異值往往代表著矩陣中隱含信息的重要程度,奇異值越大,信息越重要。因此,可以根據(jù)奇異值分解來進行數(shù)據(jù)壓縮。例如,矩陣 A \mathbf{A} A代表一張高清圖片,但是礙于存儲大小的限制,需要對圖片進行壓縮,那么我們就可以對圖像矩陣 A \mathbf{A} A進行奇異值分解,然后僅保留分解后奇異值大的 k k k k < < r k << r k<<r)個部分,構成一個新的圖片矩陣 A ′ \mathbf{A'} A即: A ′ = σ 1 u 1 v 1 T + ? + σ k u k v k T \mathbf{A'}=\sigma_1\mathbf{u_1}\mathbf{v^T_1}+\cdots+\sigma_k\mathbf{u_k}\mathbf{v^T_k} A=σ1?u1?v1T?+?+σk?uk?vkT?。此時即完成了對圖片的壓縮。

有趣的性質:
由于矩陣 U \mathbf{U} U V \mathbf{V} V都是滿秩的,所以原矩陣 A \mathbf{A} A和對角陣 Σ \mathbf{\Sigma} Σ的秩相同,因此,想要求原矩陣 A \mathbf{A} A的秩,那么只要對A進行奇異值分解,然后數(shù)一數(shù)奇異值的個數(shù)就可以了。文章來源地址http://www.zghlxwxcb.cn/news/detail-784050.html

7. 相關資料

  1. 相關講解視頻:
    1. 矩陣的【奇異值分解】(SVD),圖像壓縮
    2. 【學長小課堂】什么是奇異值分解SVD–SVD如何分解時空矩陣
  2. 相關講解內容專欄:
    知乎回答

到了這里,關于矩陣的奇異值分解的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 一分鐘讀懂:矩陣的特征值分解、奇異值分解和偽逆矩陣

    通過把矩陣運算分解成多個矩陣的乘法,可以簡化矩陣運算,也可發(fā)現(xiàn)對應線性變換的一些內在規(guī)律和特性。根據(jù)不同的目的,有不同的分解策略。本文我們討論最常用的特征值分解和奇異值分解。 定義了矩陣的加、減、乘、除(逆)運算后,數(shù)學家們自然希望探索矩陣更多

    2024年02月03日
    瀏覽(17)
  • Python實現(xiàn)矩陣奇異值分解(SVD)

    Python實現(xiàn)矩陣奇異值分解(SVD) 矩陣奇異值分解(Singular Value Decomposition, SVD)是一種重要的矩陣分解方法,可以將一個矩陣分解成三個矩陣的乘積,即 A = U Σ V T A=USigma V^{T} A = U Σ

    2024年02月10日
    瀏覽(26)
  • 機器學習實戰(zhàn):Python基于SVD奇異值分解進行矩陣分解(八)

    機器學習實戰(zhàn):Python基于SVD奇異值分解進行矩陣分解(八)

    1.1 奇異值分解 奇異值分解( Singular Value Decomposition,SVD )是一種重要的矩陣分解技術,它可以將一個矩陣分解為三個矩陣的乘積,分別為左奇異矩陣、奇異值矩陣和右奇異矩陣。SVD 的原理可以描述如下: 對于任意 m × n m times n m × n 的矩陣 A A A ,它的 SVD 分解為: A = U $

    2024年02月02日
    瀏覽(26)
  • 矩陣篇(五)-- 特征值分解(EVD)和奇異值分解(SVD)

    矩陣篇(五)-- 特征值分解(EVD)和奇異值分解(SVD)

    ????????設 A n × n A_{n times n} A n × n ? 有 n n n 個線性無關的特征向量 x 1 , … , x n boldsymbol{x}_{1}, ldots, boldsymbol{x}_{n} x 1 ? , … , x n ? ,對應特征值分別為 λ 1 , … , λ n lambda_{1}, ldots, lambda_{n} λ 1 ? , … , λ n ? A [ x 1 ? x n ] = [ λ 1 x 1 ? λ n x n ] Aleft[begin{array}{lll

    2024年02月08日
    瀏覽(14)
  • 奇異值分解與矩陣逆:數(shù)值實現(xiàn)與優(yōu)化

    奇異值分解(Singular Value Decomposition, SVD)和矩陣逆(Matrix Inverse)是線性代數(shù)和數(shù)值分析領域中非常重要的概念和方法。這兩者在現(xiàn)實生活中的應用非常廣泛,例如圖像處理、信號處理、數(shù)據(jù)挖掘、機器學習等領域。在這篇文章中,我們將從以下幾個方面進行深入的討論: 背景介紹

    2024年04月12日
    瀏覽(25)
  • 【Python】scipy稀疏矩陣的奇異值分解svds

    當 A A A 是方陣時,可以很容易地進行特征分解: A = W Σ W ? 1 A=WSigma W^{-1} A = W Σ W ? 1 ,其中 Σ Sigma Σ 是 A A A 的特征值組成的對角矩陣。如果 W W W 由標準正交基組成,則 W ? 1 = W T W^{-1}=W^T W ? 1 = W T ,特征分解可進一步寫成 W T Σ W W^TSigma W W T Σ W 。 然而,當 A A A 不是方

    2024年02月12日
    瀏覽(25)
  • 矩陣分解是計算機科學中的一個重要研究領域,涉及到向量空間理論、線性代數(shù)、密碼學等領域。以下是100篇熱門博客文

    作者:禪與計算機程序設計藝術 矩陣分解是計算機科學中的一個重要研究領域,涉及到向量空間理論、線性代數(shù)、密碼學等領域。在機器學習和深度學習等領域中,矩陣分解被廣泛應用。本文將介紹矩陣分解的相關原理、實現(xiàn)步驟以及應用示例。 2.1 基本概念解釋 矩陣分解是

    2024年02月15日
    瀏覽(50)
  • 矩陣:采用奇異值分解(SVD)對n個點進行平面擬合

    奇異值分解(Singular Value Decomposition, SVD),是線性代數(shù)中一種重要的矩陣分解,在信號處理、統(tǒng)計學等領域有重要應用。奇異值分解在某些方面與對稱矩陣或厄米矩陣基于特征向量的對角化類似。對稱矩陣特征向量分解的基礎是譜分析,而奇異值分解則是譜分析理論在任意矩

    2023年04月08日
    瀏覽(24)
  • 特征值與特征向量: 矩陣的奇異值分解與主成分分析

    隨著數(shù)據(jù)量的增加,數(shù)據(jù)處理和分析變得越來越復雜。在大數(shù)據(jù)領域,我們需要一種有效的方法來處理高維數(shù)據(jù),以便更好地理解數(shù)據(jù)之間的關系和模式。這就是奇異值分解(Singular Value Decomposition, SVD)和主成分分析(Principal Component Analysis, PCA)發(fā)揮作用的地方。在本文中,我們將

    2024年02月19日
    瀏覽(28)
  • SVD,奇異值分解的計算步驟以及實例講解

    SVD,奇異值分解的計算步驟以及實例講解

    ? ? ? ?奇異值分解 (singular value decomposition,SVD),已經(jīng)成為矩陣計算中最有用和最有效的工具之一,并且在最小二乘問題、最優(yōu)化、統(tǒng)計分析、信號與圖像處理、系統(tǒng)理論與控制等領域得到廣泛應用。 ? ? ? ? 首先我們都知道方陣是可以特征值分解的,那么問題來了,如果矩

    2024年02月04日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包