国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

這篇具有很好參考價值的文章主要介紹了什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 綜述

本文主要講述的是標(biāo)準(zhǔn)化與歸一化之間的區(qū)別、相同點和聯(lián)系,以及各自的應(yīng)用場景

歸一化:主要應(yīng)用與沒有距離計算的地方(丟失分布與距離,保留權(quán)值信息)— 奇異數(shù)據(jù),小數(shù)據(jù)場景

標(biāo)準(zhǔn)化:主要應(yīng)用于不關(guān)乎權(quán)重的地方(保留分布與距離,丟失權(quán)值信息)—-需要距離來度量相似性,有異常值和噪聲

2. 不同點

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

標(biāo)準(zhǔn)差權(quán)重:

標(biāo)準(zhǔn)差越大,權(quán)重應(yīng)當(dāng)越大

某個指標(biāo)數(shù)據(jù)對應(yīng)的數(shù)據(jù)集標(biāo)準(zhǔn)差過大,說明其不確定性增加,所提供的信息量也會增加,因此在進(jìn)行綜合指標(biāo)評價的時候,權(quán)重也會對應(yīng)的增大.—-類似熵權(quán)法

3. 相同點及其聯(lián)系

(1)聯(lián)系:

歸一化廣義上是包含標(biāo)準(zhǔn)化的,Z-Score方法也是歸一化的方法之一,在這里主要是從狹義上,區(qū)分兩者

(2)本質(zhì)上都是進(jìn)行特征提取,數(shù)據(jù)都通過先平移(分子相減)后縮放(分母)進(jìn)行進(jìn)行提取;

(3)都是為了縮小范圍.便于后續(xù)的數(shù)據(jù)處理.

(4) 作用:(重點)

i) 加快梯度下降,損失函數(shù)收斂;—速度上

ii) 提升模型精度–也就是分類準(zhǔn)確率.(消除不同量綱,便于綜合指標(biāo)評價,提高分類準(zhǔn)確率)—質(zhì)量上

iii) 防止梯度爆炸(消除因為數(shù)據(jù)輸入差距(1和2000)過大,而帶來的輸出差距過大(0.8,999),進(jìn)而在 反向傳播的過程當(dāng)中,導(dǎo)致梯度過大(因為反向傳播的過程當(dāng)中進(jìn)行梯度計算,會使用的之前對應(yīng)層的輸入x),從而形成梯度爆炸)—穩(wěn)定性上

說明:特征縮放其實并不需要太精確,其目的只是為了讓梯度下降能夠運行得更快一點,讓梯度下降收斂所需的循環(huán)次數(shù)更少一些而已。

4 歸一化(廣義)(縮放數(shù)據(jù))場景

A. 除非本來各維數(shù)據(jù)的分布范圍就比較接近,否則必須進(jìn)行標(biāo)準(zhǔn)化,以免模型參數(shù)被分布范圍較大 或較小的數(shù)據(jù)支配

B. 數(shù)據(jù)分布差異比較大–標(biāo)準(zhǔn)化,奇異數(shù)據(jù)(單個有影響的也要)–歸一化

4.1. 特征/數(shù)據(jù)需要歸一化的場景

logistic regression模型:邏輯回歸,雖然迭代若幾次沒有影響,但實際當(dāng)中遠(yuǎn)不止若干次,這樣就會導(dǎo)致邏輯回歸模型的目標(biāo)函數(shù)過于扁化,導(dǎo)致梯度很難下降,不容易得到較好的模型參數(shù).

SVM模型:因為涉及到向量/數(shù)據(jù)的距離(向量之間差異過大/過小,就會導(dǎo)致最佳分離超平面可能會由最大/遠(yuǎn)或者最小/近的幾個向量支配,導(dǎo)致魯棒性較差,因此需要進(jìn)行標(biāo)準(zhǔn)化—可以保留向量間的模型)

NeuralNetwork模型:初始輸入值過大,反向傳播時容易梯度爆炸(上面有解釋)

SGD:加快梯度下降.

4.2. 不需要歸一化的場景

1 0/1取值的特征通常不需要歸一化,歸一化會破壞它的稀疏性

2 決策樹

3 基于平方損失的最小二乘法OLS不需要歸一化(因為本質(zhì)上是一個拋物線,強(qiáng)凸函數(shù),下降速度快.)

5. 歸一化(狹義)注意事項

5.1 歸一化的方法

5.1.1 小數(shù)定標(biāo)標(biāo)準(zhǔn)化

這種方法通過移動數(shù)據(jù)的小數(shù)點位置來進(jìn)行標(biāo)準(zhǔn)化。小數(shù)點移動多少位取決于屬性A的取值中的最大絕對值。將屬性A的原始值x使用decimal scaling標(biāo)準(zhǔn)化到x’的計算方法是:

x'=x/(10^j),其中,j是滿足條件的最小整數(shù)。例如 假定A的值由-986到917,A的最大絕對值為986,為使用小數(shù)定標(biāo)標(biāo)準(zhǔn)化,我們用1000(即,j=3)除以每個值,這樣,-986被規(guī)范化為-0.986。

5.1.2 softmax對數(shù)歸一化

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

5.1.3 L2歸一化

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

5.2 歸一化的使用前提

在存在奇異樣本數(shù)據(jù)的情況下,進(jìn)行訓(xùn)練之前最好進(jìn)行歸一化,如果不存在奇異樣本數(shù)據(jù),則可以不用歸一化

6.標(biāo)準(zhǔn)化的過程

即零-均值標(biāo)準(zhǔn)化

其中 u是樣本數(shù)據(jù)的均值(mean),是樣本數(shù)據(jù)的標(biāo)準(zhǔn)差(std)。

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

上圖則是一個散點序列的標(biāo)準(zhǔn)化過程:原圖->減去均值(均值為0–>數(shù)據(jù)以原點為中心)->除以標(biāo)準(zhǔn)差對應(yīng)到三維圖像(以損失函數(shù)為例)

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

機(jī)器學(xué)習(xí)的目標(biāo)無非就是不斷優(yōu)化損失函數(shù),使其值最小。在上圖中,J(w,b)就是我們要優(yōu)化的目標(biāo)函數(shù),在上圖中,我們可以看到,損失函數(shù),未處理之前:梯度的方向就會偏離最小值的方向,走很多彎路,經(jīng)過標(biāo)準(zhǔn)化處理之后,我們損失函數(shù)的曲線也變得比較圓,有利于加快梯度下降,加快找到最佳模型參數(shù).具體如下圖:文章來源地址http://www.zghlxwxcb.cn/news/detail-442118.html

什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?
什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?

到了這里,關(guān)于什么是歸一化,它與標(biāo)準(zhǔn)化的區(qū)別是什么?的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【機(jī)器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    【機(jī)器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    「作者主頁」: 士別三日wyx 「作者簡介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專欄」: 對網(wǎng)絡(luò)安全感興趣的小伙伴可以關(guān)注專欄《網(wǎng)絡(luò)安全入門到精通》 處理數(shù)據(jù)之前,通常會使用一些轉(zhuǎn)換函數(shù)將 「特征數(shù)據(jù)」 轉(zhuǎn)換成更適合 「

    2024年02月15日
    瀏覽(32)
  • 【機(jī)器學(xué)習(xí)】一文搞懂標(biāo)準(zhǔn)化,歸一化,正則化

    【機(jī)器學(xué)習(xí)】一文搞懂標(biāo)準(zhǔn)化,歸一化,正則化

    對于機(jī)器學(xué)習(xí)中的標(biāo)準(zhǔn)化,歸一化和正則化的理解,一直都比較模糊,而且在許多技術(shù)書籍中,對于它們的使用基本都是一筆帶過,不理解概念的話,就不知具體對數(shù)據(jù)做了哪些操作。因此,在這里專門對這幾個概念做學(xué)習(xí)與總結(jié)。 學(xué)習(xí)之前,先拋出幾個問題: 這幾個概念

    2024年02月03日
    瀏覽(22)
  • matlab中矩陣的歸一化和標(biāo)準(zhǔn)化處理

    matlab中矩陣的歸一化和標(biāo)準(zhǔn)化處理

    1、歸一化:將數(shù)據(jù)映射到0-1的區(qū)間中。 matlab中矩陣的歸一化處理: X=(value-value_min) / (value_max-value_min) 函數(shù):mapminmax(A,M),A—需要處理的矩陣,M—需要映射到的范圍,M通默認(rèn)為[-1,1],也可設(shè)置為常用的0和1之間。 結(jié)果: 2、標(biāo)準(zhǔn)化:將數(shù)據(jù)映射到方差為1,均值為0的數(shù)據(jù)。

    2024年04月13日
    瀏覽(15)
  • 深入理解機(jī)器學(xué)習(xí)——數(shù)據(jù)預(yù)處理:歸一化 (Normalization)與標(biāo)準(zhǔn)化 (Standardization)

    分類目錄:《深入理解機(jī)器學(xué)習(xí)》總目錄 歸一化 (Normalization)和標(biāo)準(zhǔn)化 (Standardization)都是特征縮放的方法。特征縮放是機(jī)器學(xué)習(xí)預(yù)處理數(shù)據(jù)中最重要的步驟之一,可以加快梯度下降,也可以消除不同量綱之間的差異并提升模型精度。 歸一化(Normalization)是將一組數(shù)據(jù)變

    2024年02月08日
    瀏覽(23)
  • 歸一化 (Normalization)、標(biāo)準(zhǔn)化 (Standardization)和中心/零均值化 (Zero-centered)

    歸一化 (Normalization)、標(biāo)準(zhǔn)化 (Standardization)和中心/零均值化 (Zero-centered)

    目錄 一、概念 1、歸一化(Normalization): ?2、標(biāo)準(zhǔn)化(Standardization): 3、中心化/零均值化(zero-centered): 二、聯(lián)系和差異: 三、標(biāo)準(zhǔn)化和歸一化的多種方式 三、為什么要歸一化/標(biāo)準(zhǔn)化? 3.1、數(shù)據(jù)的量綱不同;數(shù)量級差別很大 3.2、避免數(shù)值問題:太大的數(shù)會引發(fā)數(shù)值問

    2024年02月04日
    瀏覽(24)
  • 蛋白質(zhì)組學(xué)兩個定量方法(iBAQ和LFQ)的區(qū)別及常見的標(biāo)準(zhǔn)化方法

    首先,在使用Maxquant軟件進(jìn)行查庫的時候,有兩個參數(shù)值得大家關(guān)注:LFQ和iBAQ。 當(dāng)我們在進(jìn)行搜庫時,如果兩個參數(shù)都選擇,將會在結(jié)果文件中有三個定量結(jié)果:Intensity,IBAQ和LFQ。 接下來,我們來詳細(xì)解釋一下這三個定量結(jié)果的區(qū)別: Intensity:將Protein Group中的所有Unique和

    2024年02月04日
    瀏覽(320)
  • 標(biāo)準(zhǔn)化拉普拉斯矩陣特征值范圍為什么小于等于2?(證明)

    譜圖使用標(biāo)準(zhǔn)化拉普拉斯矩陣 L n o r m L^{norm} L n or m 的一個重要原因就是, L n o r m L^{norm} L n or m 比拉普拉斯矩陣 L L L 穩(wěn)定。很多資料只是簡單地介紹了 L n o r m L^{norm} L n or m ,在kipfGCN中也只是簡單地提到 L n o r m L^{norm} L n or m 的特征值不大于2。本文搜集了相關(guān)lecture,并推導(dǎo)

    2024年02月11日
    瀏覽(78)
  • 標(biāo)準(zhǔn)化體系建設(shè)(上):如何建立應(yīng)用標(biāo)準(zhǔn)化體系和模型?

    標(biāo)準(zhǔn)化體系建設(shè)(上):如何建立應(yīng)用標(biāo)準(zhǔn)化體系和模型?

    今天我專門來講講標(biāo)準(zhǔn)化這個工作。可以說這項工作是運維過程中最基礎(chǔ)、最重要的,但也是最容易被忽視的一個環(huán)節(jié)。 我做過多次公開演講,每次講到這個環(huán)節(jié),通常會有單獨的一頁PPT,就放四個字,字號加大加粗,重復(fù)三遍,這四個字就是“標(biāo)準(zhǔn)先行”,然后演講過程中

    2024年02月08日
    瀏覽(23)
  • python實現(xiàn)z-score標(biāo)準(zhǔn)化和0-1標(biāo)準(zhǔn)化

    python實現(xiàn)z-score標(biāo)準(zhǔn)化和0-1標(biāo)準(zhǔn)化

    目錄 標(biāo)準(zhǔn)化處理 0-1標(biāo)準(zhǔn)化: z-score標(biāo)準(zhǔn)化: 1、用自帶的函數(shù)來操作 實現(xiàn)z-score標(biāo)準(zhǔn)化 實現(xiàn)0-1標(biāo)準(zhǔn)化 2、自定義函數(shù)實現(xiàn) 實現(xiàn)z-score標(biāo)準(zhǔn)化 實現(xiàn)0-1標(biāo)準(zhǔn)化 對輸出結(jié)果范圍有要求,數(shù)據(jù)較為穩(wěn)定的,不存在極端的最大最小值 數(shù)據(jù)存在異常值和較多的噪音,可以間接通過中心化避

    2024年02月11日
    瀏覽(22)
  • LA@二次型標(biāo)準(zhǔn)形@標(biāo)準(zhǔn)化問題介紹和合同對角化@二次型可標(biāo)準(zhǔn)化定理

    如果二次型只含有變量的平方項,則稱之為 二次型的標(biāo)準(zhǔn)形 或 法式 ,即 f ( y 1 , ? ? , y n ) f(y_1,cdots,y_n) f ( y 1 ? , ? , y n ? ) = ∑ i = 1 n k i y i 2 sum_{i=1}^{n}k_iy_i^2 ∑ i = 1 n ? k i ? y i 2 ? 標(biāo)準(zhǔn)形的矩陣式 f ( y 1 , ? ? , y n ) = ∑ i n k i y i 2 = ( y 1 , y 2 , ? ? , y n ) ( k 1 0 ?

    2024年02月09日
    瀏覽(61)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包