国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)-必備的數(shù)學(xué)知識-線性代數(shù)5

這篇具有很好參考價值的文章主要介紹了深度學(xué)習(xí)-必備的數(shù)學(xué)知識-線性代數(shù)5。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

深度學(xué)習(xí)

必備的數(shù)學(xué)知識

線性代數(shù)

在數(shù)學(xué)中,分解通常指的是將一個復(fù)雜的對象或結(jié)構(gòu)分解為更簡單的部件或組件。這個概念在許多數(shù)學(xué)領(lǐng)域都有應(yīng)用。在線性代數(shù)中,矩陣分解是常見的一個主題,我們通過分解矩陣來發(fā)現(xiàn)它不明顯的性質(zhì)。
矩陣有許多種的分解方式:LU分解、QR分解、特征分解、奇異值分解等
這篇文章將會講解其中的兩種分解方式:特征分解、奇異值分解。

特征分解

矩陣的特征分解是指將矩陣分解成一組特征向量和一組特征值。
滿足
A v = λ v \mathbf{A}\mathbf{v}=\lambda\mathbf{v} Av=λv
的向量 v \mathbf{v} v稱為右特征向量(right eigenvector),特征向量與矩陣相乘相當(dāng)于對于它自身進行縮放。標(biāo)量 λ \lambda λ稱為特征值(eigenvalue)。需要注意的是,特征向量是非零向量。
滿足
v T A = v λ \mathbf{v}^T\mathbf{A}=\mathbf{v}\lambda vTA=vλ
的特征向量稱為左特征向量(left eigenvector);
在線性代數(shù)中,我們通常討論的是右特征向量。
矩陣分解的目標(biāo)是將找到一組線性無關(guān)的特征向量作為新的基(基是一個向量空間中的一組線性無關(guān)的向量,它們可以組合起來生成整個向量空間)。在這個基下,原矩陣可以被表示為一個 d i a g ( v ) diag(\mathbf{v}) diag(v)。其中 v \mathbf{v} v是由特征值組成的向量。
并不是所有的矩陣都可以進行特征分解,主要是因為并不是每一個矩陣都由足夠的線性無關(guān)的特征向量來構(gòu)成一個完整的基。有些矩陣的特征分解還涉及到了復(fù)數(shù)。但是如果一個矩陣是對稱的,那么它總是可以被特征分解,這桑因為對稱矩陣總是可以找到一個由其特征向量構(gòu)成的正交基。
對于每一個實對稱矩陣,可以將它分解成實特征向量和實特征值:
A = Q Λ Q T \mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T A=QT
其中矩陣 Q \mathbf{Q} Q是由特征向量為列向量組成的正交矩陣,矩陣 Λ \mathbf{\Lambda} Λ是以特征值為對角元素的對角矩陣。特征向量 Q : , i Q_{:,i} Q:,i?對應(yīng)的特征值是 Λ i , i \Lambda_{i,i} Λi,i?
讓我們詳細看一下這個式子。這個式子分兩步運算:
第一步:計算 Q Λ \mathbf{Q}\mathbf{\Lambda} ,這一步將 A \mathbf{A} A 從原來的坐標(biāo)系轉(zhuǎn)換到特征向量構(gòu)成的新坐標(biāo)系中的對角矩陣。
第二步:計算( Q Λ \mathbf{Q}\mathbf{\Lambda} ) Q T \mathbf{Q}^T QT 。乘以 Q T \mathbf{Q}^T QT是將第一步得到的新坐標(biāo)轉(zhuǎn)換為原來的坐標(biāo)。
特征分解可以被視為一種坐標(biāo)系的轉(zhuǎn)換。在特征分解中,我們找到一組新的基向量(即特征向量),這些基向量定義了一個新的坐標(biāo)系。在這個新的坐標(biāo)系中,原矩陣被表示為一個對角矩陣,其對角線上的元素是特征值。這個對角矩陣在新的坐標(biāo)系中更容易處理,因為它只在對角線上有非零元素。所以,特征分解可以被看作是從原坐標(biāo)系到特征向量定義的新坐標(biāo)系的轉(zhuǎn)換。
通過特征分解我們可以知道很多關(guān)于矩陣的信息:

  • 矩陣是奇異的,當(dāng)且僅當(dāng)它含有零特征值
  • 實對稱矩陣的特征分解可以用于優(yōu)化二次方程 f ( x ) = x T A x f(x)=x^T\mathbf{A}x f(x)=xTAx,其中現(xiàn)在 ∣ ∣ x ∣ ∣ 2 = 1 ||x||_2=1 ∣∣x2?=1。如果 x \mathbf{x} x等于 A \mathbf{A} A的某個特征向量時, f f f將返回對應(yīng)的特征值。在限制條件下,函數(shù) f f f的最大值是最大特征值,最小值是最小特征值。

如果一個矩陣的所有特征值都是正數(shù),則稱為正定(positive definite);所有特征值都是非負數(shù),則稱為半正定(positive semidefinite);所有特征值都是負數(shù),則稱為負定(negative definite);所有特征值都是非正數(shù),則稱為半負定(negative semidefinite)。

奇異值分解

奇異值分解(singular value decomposition,SVD)是將矩陣分解成奇異向量(singular)和奇異值(singular value)。每一個實數(shù)矩陣都有一個奇異值分解。奇異值分解可以讓我們得到一些與特征分解相同的信息。
我們將矩陣 A \mathbf{A} A分解成三個矩陣的乘積
A = U D V T \mathbf{A}=\mathbf{U}\mathbf{D}\mathbf{V}^T A=UDVT
矩陣 U \mathbf{U} U V \mathbf{V} V被定義為正交矩陣,矩陣 V \mathbf{V} V是對角矩陣。
如果 A \mathbf{A} A是一個m行n列的矩陣,則 U \mathbf{U} U是一個m行m列的方陣, D \mathbf{D} D是一個m行n列的矩陣, V \mathbf{V} V是一個n行n列的方陣。
矩陣 U U U的列向量稱為左奇異向量(left singular vector),它是 A A T \mathbf{A}\mathbf{A}^T AAT的特征向量;矩陣 V \mathbf{V} V的列向量被稱為右奇異向量(right singular vector) ,它是 A T A \mathbf{A}^T\mathbf{A} ATA的特征向量;矩陣 D \mathbf{D} D的對角元素稱為矩陣 A \mathbf{A} A的奇異值(singular value),非零奇異值是 A T A \mathbf{A}^T\mathbf{A} ATA特征值的平方根,同時也是 A A T \mathbf{A}\mathbf{A}^T AAT的平方根。文章來源地址http://www.zghlxwxcb.cn/news/detail-787797.html

到了這里,關(guān)于深度學(xué)習(xí)-必備的數(shù)學(xué)知識-線性代數(shù)5的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深度學(xué)習(xí)的數(shù)學(xué)基礎(chǔ):從線性代數(shù)到隨機過程

    深度學(xué)習(xí)是人工智能領(lǐng)域的一個重要分支,它主要通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來進行數(shù)據(jù)處理和學(xué)習(xí)。深度學(xué)習(xí)的核心技術(shù)是神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)由多個節(jié)點組成,這些節(jié)點之間有權(quán)重和偏置的連接。通過對這些節(jié)點進行訓(xùn)練,我們可以使神經(jīng)網(wǎng)絡(luò)具有學(xué)習(xí)和推理的能力

    2024年03月18日
    瀏覽(23)
  • 深度學(xué)習(xí)基礎(chǔ)知識(三)-線性代數(shù)的實現(xiàn)

    1.標(biāo)量使用 標(biāo)量由只有一個元素的張量表示,標(biāo)量可以做最簡單的計算。 結(jié)果: 2.向量使用 向量:將標(biāo)量值組成的列表就是向量 結(jié)果: 訪問張量的長度 只有一個軸的張量,形狀只有一個元素 創(chuàng)建一個二維矩陣5行4列,然后將矩陣做轉(zhuǎn)置,軸對稱的一個轉(zhuǎn)置 結(jié)果:其實就是把

    2024年02月10日
    瀏覽(27)
  • 李沐 《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 線性代數(shù)與微積分

    李沐《動手學(xué)深度學(xué)習(xí)》預(yù)備知識 張量操作與數(shù)據(jù)處理 教材:李沐《動手學(xué)深度學(xué)習(xí)》 標(biāo)量(scalar) 僅包含一個數(shù)值被稱為標(biāo)量,標(biāo)量由只有一個元素的張量表示。 向量 向量可以被視為標(biāo)量值組成的列表,向量由一維張量表示。一般來說,張量可以具有任意長度,取決于

    2024年01月20日
    瀏覽(27)
  • <2>【深度學(xué)習(xí) × PyTorch】pandas | 數(shù)據(jù)預(yù)處理 | 處理缺失值:插值法 | networkx模塊繪制知識圖譜 | 線性代數(shù)初步

    ? 你永遠不可能真正的去了解一個人,除非你穿過ta的鞋子,走過ta走過的路,站在ta的角度思考問題,可當(dāng)你真正走過ta走過的路時,你連路過都會覺得難過。有時候你所看到的,并非事實真相,你了解的,不過是浮在水面上的冰山一角?!稓⑺酪恢恢B》 ? ??

    2024年02月01日
    瀏覽(32)
  • 線性代數(shù) | 機器學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

    線性代數(shù) | 機器學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

    前言 線性代數(shù) (linear algebra)是關(guān)于向量空間和線性映射的一個數(shù)學(xué)分支。它包括對線、面和子空間的研究,同時也涉及到所有的向量空間的一般性質(zhì)。 本文主要介紹 機器學(xué)習(xí) 中所用到的線性代數(shù) 核心基礎(chǔ)概念 ,供讀者學(xué)習(xí)階段查漏補缺或是 快速學(xué)習(xí)參考 。 線性代數(shù)

    2024年01月21日
    瀏覽(50)
  • 陶哲軒必備助手之人工智能數(shù)學(xué)驗證+定理發(fā)明工具LEAN4 [線性代數(shù)篇2]矩陣乘積的行列式變形(上篇)

    視頻鏈接: 陶哲軒必備助手之人工智能數(shù)學(xué)驗證+定理發(fā)明工具LEAN4 [線性代數(shù)篇2]矩陣乘積的行列式變形(上篇)_嗶哩嗶哩_bilibili import Mathlib.LinearAlgebra.Matrix.Determinant import Mathlib.GroupTheory.Perm.Fin import Mathlib.GroupTheory.Perm.Sign import Mathlib.Data.Real.Sqrt import Mathlib.Data.List.Perm -- 本文

    2024年02月03日
    瀏覽(30)
  • 陶哲軒必備助手之人工智能數(shù)學(xué)驗證+定理發(fā)明工具LEAN4 [線性代數(shù)篇2]矩陣乘積的行列式變形(下篇)

    視頻鏈接,求個贊哦: 陶哲軒必備助手之人工智能數(shù)學(xué)驗證+定理發(fā)明工具LEAN4 [線性代數(shù)篇2]矩陣乘積的行列式變形(下篇)_嗶哩嗶哩_bilibili import Mathlib.LinearAlgebra.Matrix.Determinant import Mathlib.GroupTheory.Perm.Fin import Mathlib.GroupTheory.Perm.Sign import Mathlib.Data.Real.Sqrt import Mathlib.Data.Li

    2024年01月23日
    瀏覽(24)
  • 深度學(xué)習(xí)筆記之線性代數(shù)

    深度學(xué)習(xí)筆記之線性代數(shù)

    一、向量 在數(shù)學(xué)表示法中,向量通常記為粗體小寫的符號(例如, x , y , z )當(dāng)向量表示數(shù)據(jù)集中的樣本時,它們的值具有一定的現(xiàn)實意義。例如研究醫(yī)院患者可能面臨的心臟病發(fā)作風(fēng)險,用一個向量表示一個患者,其分量為最近的生命特征、膽固醇水平、每天運動時間等

    2024年02月08日
    瀏覽(29)
  • 【學(xué)習(xí)筆記】(數(shù)學(xué))線性代數(shù)-矩陣的概念和特殊矩陣

    【學(xué)習(xí)筆記】(數(shù)學(xué))線性代數(shù)-矩陣的概念和特殊矩陣

    由 m × n mtimes n m × n 個數(shù)按一定的次序排成的 m m m 行 n n n 列的矩形數(shù)表成為 m × n mtimes n m × n 的矩陣,簡稱 矩陣 (matrix)。 橫的各排稱為矩陣的 行 ,豎的各列稱為矩陣的 列 。 元素為實數(shù)的稱為 實矩陣 ,一般情況下我們所討論的矩陣均為實矩陣。 1 行 n n n 列的矩陣稱為

    2024年02月09日
    瀏覽(35)
  • 動手學(xué)深度學(xué)習(xí)4 線性代數(shù)

    動手學(xué)深度學(xué)習(xí)4 線性代數(shù)

    視頻 :https://www.bilibili.com/video/BV1eK4y1U7Qy/?spm_id_from=autoNextvd_source=eb04c9a33e87ceba9c9a2e5f09752ef8 課件 :https://courses.d2l.ai/zh-v2/assets/pdfs/part-0_5.pdf 本節(jié)主要是介紹線性代數(shù)中 向量 矩陣的一些定義及計算規(guī)則。 1. 簡單操作 一些簡單的數(shù)學(xué)公式。 c = a + b c = a · b c = sin a 2. 標(biāo)量的長度

    2024年02月01日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包