国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《數(shù)值分析》-3-特征值與特征矩陣

這篇具有很好參考價值的文章主要介紹了《數(shù)值分析》-3-特征值與特征矩陣。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

0.背景

搜索技術(shù)的很多方面的知識發(fā)現(xiàn)都依賴于特征值或奇異值問題,涉及到特征值計算問題。

計算特征值沒有直接的方法。

定位特征值的計算方法基于冪迭代的思想,這是求解特征值的一類迭代方法。該思想的一個復(fù)雜版本被稱為QR算法,是確定典型矩陣所有特征值的一般方法。

特征值問題若消減為求解根的問題,在稍有誤差的多項式上用根求解器求根,會帶來災(zāi)難性后果。

1.冪迭代法

冪迭代法的主要思想:占優(yōu)特征值對應(yīng)的特征向量在多次計算后會在計算過程中占優(yōu)。

主要方法:歸一化和與矩陣A相乘。

隨著迭代不斷改進(jìn)了近似的特征向量,那么如何得到特征值呢?瑞利商。

冪迭代法的局限:局限于求解絕對值最大的特征值。

冪迭代法的逆:如果冪迭代法用于矩陣的逆矩陣,可以找到最小的特征值。

現(xiàn)在我們知道了如何找出矩陣的最大或最小值,那么怎么找到其他的特征值呢?

冪迭代法這里給出了一個解決方法:

為了找出矩陣A在實數(shù)s附近的特征值,對(A-sI)^-1使用冪迭代法得到(A-sI)^-1的最大特征值b,則x=b^-1+s為矩陣A在實數(shù)s附近的特征值。

2.QR算法

QR算法是一種可以一次找出所有特征值的方法。

QR分解是把矩陣分解成一個正交矩陣與一個上三角矩陣的積。QR 分解的實際計算有很多方法,例如 Givens 旋轉(zhuǎn)、Householder 變換,以及 Gram-Schmidt 正交化等等。

設(shè)

for j=1,2,3...?

????????海森伯格矩陣,數(shù)值分析,學(xué)習(xí)筆記,矩陣,算法,線性代數(shù)

end

? ? ??

上述過程可稱做歸一化同時迭代,在第j步,得到的的列是A的特征向量的近似,對角線元素是近似的特征值。

這種算法成為無移動的QR算法,但是它對于矩陣A的要求很嚴(yán)格(即A為對稱矩陣,且滿足特征值),即使A是對稱矩陣不滿足定理的條件時,也可能失敗。以及該算法難以做出修改以計算復(fù)數(shù)特征值,以及迭代速度比較慢。

因此我們需要做出一組改進(jìn)使得特征值計算更加一般化并加速收斂。

3.上海森伯格

上海森伯格的主要思想是使用上海森伯格形式的相似矩陣替換A,即在QR迭代之前應(yīng)用相似變換,在A中放置更多的0,同時保持特征值。此外,上海森伯格將消去QR迭代無法收斂到復(fù)數(shù)特征的問題。

上海森伯格矩陣形式如下圖所示:

海森伯格矩陣,數(shù)值分析,學(xué)習(xí)筆記,矩陣,算法,線性代數(shù)

那么怎么將矩陣A變換成上海森伯格形式呢?Householder變換。

Householder 變換

Householder 變換可以將向量的某些元素變成零,同時保持該向量的范數(shù)不變。

通過逐步在矩陣A的左側(cè)和右側(cè)乘上反射子H,從而得到一個具有相同的特征值的特征矩陣。

做3步運算的結(jié)果:

左側(cè)為我們得到的上海森伯格矩陣5x5矩陣,由于該矩陣和A相似,它與A具體相同的特征值以及特征值的重數(shù)。

一般的對于一個nxn矩陣A,需要n-2個Householder 步將A變成上海森伯格形式。

4.移動QR算法

移動QR算法則是利用冪迭代的技巧大大加速收斂速度。

為了減少計算量,一般先利用Householder矩陣將矩陣A變成擬上三角矩陣(上海森伯格形式),然后采用雙步位移的QR方法計算的特征值。

使用雙步位移的QR方法求矩陣A全部特征值的具體算法過程如下:

5.高斯消去與LU分解

高斯消去

高斯消去是求解合適規(guī)模的線性方程的有用工具,可以有效地求解具有n個未知數(shù)的n個方程。高斯消去主要由兩個不等同的部分組成,相對計算代價龐大的消去過程,和相對計算代價小的回代過程。n個方程n個未知數(shù)的消去計算,可以在海森伯格矩陣,數(shù)值分析,學(xué)習(xí)筆記,矩陣,算法,線性代數(shù)次操作后完成。

LU分解

LU分解是高斯消去的矩陣形式,它包含把系數(shù)矩陣A寫做下三角矩陣L和上三角矩陣U的乘積。其中,U矩陣是由傳統(tǒng)的高斯消去過程得到上三角矩陣,而對應(yīng)的L矩陣則是:把1放在主對角線上,然后乘子按消去時它們的特定位置放在下三角矩陣得到。

如何利用LU分解轉(zhuǎn)化回代步驟?

Ax=b ---> LUx=b --->c=Ux Lc=b?求c---> Ux=c 求x

但是,并不是所有的矩陣都可以進(jìn)行LU分解,我們需要在LU分解前做一些工作:部分主元。

部分主元

部分主元的思想是在每一步消除步驟之前,找到第一列中最大的一個元素,其對應(yīng)行和主元行進(jìn)行交換,即PA=LU。

高斯列主元法的優(yōu)勢在于它有一個選主元的過程,這樣做可以避免程序在進(jìn)行消去操作時選取的主元素為0的情況,也減小了計算的舍入誤差,從而提高了程序的普適性和結(jié)果的準(zhǔn)確性。文章來源地址http://www.zghlxwxcb.cn/news/detail-714175.html

到了這里,關(guān)于《數(shù)值分析》-3-特征值與特征矩陣的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 談主成分分析/因子分析中的特征值“矩陣近似”

    談主成分分析/因子分析中的特征值“矩陣近似”

    主成分分析和因子分析是數(shù)據(jù)降維的常用手段,其中以特征值為載體,在不斷降維“近似”原本的協(xié)方差矩陣。 CSDN中一些文章在介紹這個問題或者叫“特征值分解”時,講得都比較學(xué)術(shù)化,今天用一個小例子,還是面向新人,來引導(dǎo)理解“特征值分解”和“矩陣近似”(圖

    2024年02月05日
    瀏覽(40)
  • 數(shù)值線性代數(shù):Arnoldi求解特征值/特征向量

    線性方程組求解 、 最小二乘法 、 特征值/特征向量求解 是(數(shù)值)線性代數(shù)的主要研究內(nèi)容。 在力學(xué)、氣象學(xué)、電磁學(xué)、金融等學(xué)科中,許多問題最終都?xì)w結(jié)為特征值、特征向量的求解。 ARPACK 使用 IRAM ( Implicit Restarted Arnoldi Method )求解大規(guī)模系數(shù)矩陣的部分特征值與特征向量

    2024年01月18日
    瀏覽(24)
  • 線性代數(shù)的學(xué)習(xí)和整理19,特征值,特征向量,以及引入的正交化矩陣概念

    線性代數(shù)的學(xué)習(xí)和整理19,特征值,特征向量,以及引入的正交化矩陣概念

    目錄 1 什么是特征值和特征向量? 1.1?特征值和特征向量這2個概念先放后 1.2 直觀定義 1.3 嚴(yán)格定義 2 如何求特征值和特征向量 2.1 方法1:結(jié)合圖形看,直觀方法求 2.1.1 單位矩陣的特征值和特征向量 2.1.2 旋轉(zhuǎn)矩陣 2.2? 根據(jù)嚴(yán)格定義的公式 A*X=λ*X 來求 2.3? 特征方程 2.4 互異特

    2024年02月09日
    瀏覽(50)
  • 特征值和特征向量的解析解法--帶有重復(fù)特征值的矩陣

    當(dāng)一個矩陣具有重復(fù)的特征值時,意味著存在多個線性無關(guān)的特征向量對應(yīng)于相同的特征值。這種情況下,我們稱矩陣具有重復(fù)特征值。 考慮一個n×n的矩陣A,假設(shè)它有一個重復(fù)的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我們需要找到與特征值λ相關(guān)的特征向量。 首

    2024年02月05日
    瀏覽(25)
  • 線性代數(shù)|證明:矩陣特征值的倒數(shù)是其逆矩陣的特征值

    性質(zhì) 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,當(dāng) A boldsymbol{A} A 可逆時, 1 λ frac{1}{lambda} λ 1 ? 是 A ? 1 boldsymbol{A}^{-1} A ? 1 的特征值。 證明 因為 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    瀏覽(19)
  • 【問題證明】矩陣方程化為特征值方程求得的特征值為什么是全部特征值?不會丟解嗎?

    【問題證明】矩陣方程化為特征值方程求得的特征值為什么是全部特征值?不會丟解嗎?

    這個問題困擾了我好久,一直感覺如果有其他的特征值沒法證偽,不過一直存在思想的層面,沒有實際解決,今天突然想到動筆來解決,遂得解,證明如下。 這個證明看似證明過后很直觀,但實際上思維走向了牛角尖的時候光靠思考是無法得出令人信服的結(jié)論的,唯有實際動

    2024年02月05日
    瀏覽(30)
  • MATLAB矩陣的特征值與特征向量

    MATLAB矩陣的特征值與特征向量

    設(shè)A是n階方陣,如果存在常數(shù)λ和n維非零列向量x,使得等式Ax = λx 成立,則稱λ為A的特征值,x是對應(yīng)特征值λ的特征向量。 在MATLAB中,計算矩陣的特征值與特征向量的函數(shù)是eig,常用的調(diào)用格式有兩種: E = eig(A):求矩陣A的全部特征向量值,構(gòu)成向量E。 [X,D] = eig(A):

    2024年02月11日
    瀏覽(22)
  • 5.1 矩陣的特征值和特征向量

    5.1 矩陣的特征值和特征向量

    學(xué)習(xí)特征值和特征向量的定義和性質(zhì),我會采取以下方法: 1. 學(xué)習(xí)線性代數(shù)基礎(chǔ)知識:特征值和特征向量是線性代數(shù)中的重要概念,需要先掌握線性代數(shù)的基礎(chǔ)知識,例如向量、矩陣、行列式、逆矩陣、轉(zhuǎn)置、內(nèi)積、外積等基本概念。 2. 學(xué)習(xí)特征值和特征向量的定義:特征

    2024年02月02日
    瀏覽(24)
  • 特征值與相似矩陣

    特征值與相似矩陣

    應(yīng)用:求冪,對角化,二次型,動力系統(tǒng)等等 通俗 ? 向量α在矩陣A的線性變換作用下,保持方向不變,進(jìn)行比例為λ的伸縮。 官方(注意是方陣) 特征方程 ? (λE-A)α = 0 (α!=0)特征向量不能為0,但是 特征值可以為0或虛數(shù) 。方程中λ的次數(shù)應(yīng)與A的 階數(shù)相同 ,否則不是

    2024年02月06日
    瀏覽(18)
  • 【證明】矩陣不同特征值對應(yīng)的特征向量線性無關(guān)

    定理 1 設(shè) λ 1 , λ 2 , ? ? , λ m lambda_1,lambda_2,cdots,lambda_m λ 1 ? , λ 2 ? , ? , λ m ? 是方陣 A boldsymbol{A} A 的 m m m 個特征值, p 1 , p 2 , ? ? , p m boldsymbol{p}_1,boldsymbol{p}_2,cdots,boldsymbol{p}_m p 1 ? , p 2 ? , ? , p m ? 依次是與之對應(yīng)的特征向量,如果 λ 1 , λ 2 , ? ? , λ

    2024年02月09日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包