国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

數(shù)據(jù)歸一化常見算法

這篇具有很好參考價值的文章主要介紹了數(shù)據(jù)歸一化常見算法。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

數(shù)據(jù)歸一化的幾種方法

1 Min-Max歸一化

Min-Max歸一化是一種線性的歸一化方法。該方法將數(shù)據(jù)進(jìn)行一次線性變換,將數(shù)據(jù)映射到[0,1]區(qū)間。Min-Max歸一化不改變數(shù)據(jù)的分布。其缺點為,過度依賴最大最小數(shù),且容易受到離群點、異常數(shù)據(jù)的影響。其公式為:
x ′ = x ? M i n M a x ? M i n x^\prime = \frac{ x - Min} {Max - Min} x=Max?Minx?Min?
其中 x x x是原始數(shù)據(jù)、 M i n Min Min為數(shù)據(jù)的最小值、 M a x Max Max為數(shù)據(jù)的最大值、 x ′ x^\prime x是變換后的數(shù)據(jù)。

2 Z-Score歸一化

Z-Score歸一化將數(shù)據(jù)盡可能處理成符合正態(tài)分布的數(shù)據(jù)。該方法難以將數(shù)據(jù)映射到一個固定的區(qū)間上。Z-Score歸一化的公式為:
x ′ = x ? x  ̄ S t d x^\prime = \frac{ x - \overline{x}} {Std} x=Stdx?x?

其中 x x x為原始數(shù)據(jù)、 x  ̄ \overline{x} x為數(shù)據(jù)的均值、 S t d Std Std為數(shù)據(jù)的標(biāo)準(zhǔn)差

3 小數(shù)標(biāo)定

通過直接除以一個整數(shù),移動所有數(shù)據(jù)的小數(shù)點,進(jìn)行數(shù)據(jù)歸一化的方法,稱之為小數(shù)標(biāo)定歸一化方法。該方法可將數(shù)據(jù)映射到[-1,1]區(qū)間。該方法的公式為:
x ′ = x 1 0 j x^\prime = \frac{x} {10^j} x=10jx?
其中, j j j為數(shù)據(jù)絕對值最大數(shù)據(jù)的位數(shù)。

4 Sigmoid

Sigmoid函數(shù)的表達(dá)式為:
F ( x ) = 1 1 + e ? x F(x) = \frac{1} {1+e^{-x}} F(x)=1+e?x1?,其值域為[0,1].將所有數(shù)據(jù)經(jīng)過Sigmoid映射以后,可以將數(shù)據(jù)映射到 [ 0 , 1 ] [0,1] [0,1]區(qū)間。該函數(shù)圖像如圖所示:
數(shù)據(jù)歸一化方法,人工智能,算法

5 RankGauss歸一化

今天剛剛看到的,記錄一下文章來源地址http://www.zghlxwxcb.cn/news/detail-657920.html

def ScaleRankgauss(x, epsilon=1e-6): 
    '''rankgauss'''
    x = x.argsort().argsort()     #排序
    x = (x/x.max()-0.5)*2         #轉(zhuǎn)換尺度到[-1,1]
    #調(diào)整極端值 把在[-1,1]區(qū)間之外的數(shù)值截斷為-1或1
    x = np.clip(x, -1+epsilon, 1-epsilon)
    x = erfinv(x)                 #函數(shù)映射
    return x

x = np.random.randint(0, 100, 1000)
plt.hist(x)
x_rankgauss = ScaleRankgauss(x)
plt.hist(x_rankgauss, bins=50)

到了這里,關(guān)于數(shù)據(jù)歸一化常見算法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【Pytorch基礎(chǔ)知識】數(shù)據(jù)的歸一化和反歸一化

    【Pytorch基礎(chǔ)知識】數(shù)據(jù)的歸一化和反歸一化

    一張正常的圖,或者說是人眼習(xí)慣的圖是這樣的: 但是,為了 神經(jīng)網(wǎng)絡(luò)更快收斂 ,我們在深度學(xué)習(xí)網(wǎng)絡(luò)過程中 通常需要將讀取的圖片轉(zhuǎn)為tensor并歸一化 (此處的歸一化指 transforms .Normalize()操作)輸入到網(wǎng)絡(luò)中進(jìn)行系列操作。 如果將轉(zhuǎn)成的tensor再直接轉(zhuǎn)為圖片,就會變成下

    2023年04月09日
    瀏覽(20)
  • 計算機視覺中各種歸一化算法

    計算機視覺中各種歸一化算法

    歸一化算法是對激活函數(shù)的輸入進(jìn)行歸一化 將feature map shape設(shè)為[N,C,H,W],其中N表示batch size,C表示通道數(shù),H、W分別表示特征圖的高度、寬度 在batch上,對N、H、W做歸一化,保留通道C的維度。對較小的batch size效果不好,BN適用于固定深度的前向神經(jīng)網(wǎng)絡(luò),如CNN,不適用于RNN;

    2024年04月16日
    瀏覽(18)
  • 不要再搞混標(biāo)準(zhǔn)化與歸一化啦,數(shù)據(jù)標(biāo)準(zhǔn)化與數(shù)據(jù)歸一化的區(qū)別??!

    不要再搞混標(biāo)準(zhǔn)化與歸一化啦,數(shù)據(jù)標(biāo)準(zhǔn)化與數(shù)據(jù)歸一化的區(qū)別??!

    數(shù)據(jù)的標(biāo)準(zhǔn)化是將數(shù)據(jù)按照一定的 數(shù)學(xué)規(guī)則進(jìn)行轉(zhuǎn)換 ,使得數(shù)據(jù)滿足特定的標(biāo)準(zhǔn),通常是使數(shù)據(jù)滿足正態(tài)分布或標(biāo)準(zhǔn)差為1的標(biāo)準(zhǔn)。 標(biāo)準(zhǔn)化的常見方法包括 最小-最大標(biāo)準(zhǔn)化 和 Z-score標(biāo)準(zhǔn)化 。最小-最大標(biāo)準(zhǔn)化將數(shù)據(jù)映射到 [0,1 ]的范圍內(nèi),最小-最大標(biāo)準(zhǔn)化將數(shù)據(jù)映射到0-1區(qū)間

    2024年01月21日
    瀏覽(44)
  • 對復(fù)數(shù)數(shù)據(jù)實現(xiàn)歸一化

    1、主要思路: 1)最大最小歸一化,對模值進(jìn)行 2)利用幅角轉(zhuǎn)換為復(fù)數(shù)數(shù)據(jù) 實現(xiàn)代碼 測試原理代碼(基于numpy)

    2024年02月14日
    瀏覽(27)
  • 深度學(xué)習(xí)輸入數(shù)據(jù)的歸一化

    將2D點坐標(biāo)映射到[-1, 1]范圍的主要原因有: 消除分辨率影響 不同圖像分辨率下的絕對像素坐標(biāo)值會有很大差異(例如100px和1000px)。映射到[-1, 1]可以抹平這種分辨率影響,使坐標(biāo)值處在統(tǒng)一的數(shù)值范圍內(nèi)。 適合網(wǎng)絡(luò)輸入 大多數(shù)基于深度學(xué)習(xí)的模型會假設(shè)輸入數(shù)據(jù)處在[-1, 1]或[0,

    2024年02月09日
    瀏覽(24)
  • 數(shù)據(jù)標(biāo)準(zhǔn)化與歸一化 及其區(qū)別

    ??數(shù)據(jù)一般都是有單位的,比如身高的單位有米、厘米等。需要對此類數(shù)值型特征進(jìn)行 無量綱化處理 ,即是使不同規(guī)格的 數(shù)據(jù)轉(zhuǎn)換到同一規(guī)格 。常見的無量綱化方法有 標(biāo)準(zhǔn)化 和 歸一化 。 主要參考:機器學(xué)習(xí)算法:特征工程 某些算法要求樣本具有0均值和1方差,即 需要

    2024年02月09日
    瀏覽(21)
  • MATLAB——數(shù)據(jù)歸一化處理(normalize函數(shù))

    MATLAB——數(shù)據(jù)歸一化處理(normalize函數(shù))

    數(shù)據(jù)歸一化: 數(shù)據(jù)的歸一化是特征縮放(feature scaling)的方法,是數(shù)據(jù)預(yù)處理的關(guān)鍵步驟。不同評價指標(biāo)往往具有不同的量綱和量綱單位,這樣的情況會影響到數(shù)據(jù)分析的結(jié)果,為了消除指標(biāo)之間的量綱影響,需要進(jìn)行數(shù)據(jù)歸一化處理,以解決數(shù)據(jù)指標(biāo)之間的可比性。原始數(shù)據(jù)

    2024年02月22日
    瀏覽(19)
  • 【知識---如何進(jìn)行圖像數(shù)據(jù)的歸一化呢(normalize)】

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 在做基于圖像的目標(biāo)檢測遇到了圖像的歸一化操作,為此展開了一定的探討: 圖像歸一化是指對圖像進(jìn)行了一系列標(biāo)準(zhǔn)的處理變換,使之變換為一固定標(biāo)準(zhǔn)形式的過程,該標(biāo)準(zhǔn)圖像稱作歸一化圖像。 這

    2024年01月19日
    瀏覽(25)
  • 【機器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    【機器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    「作者主頁」: 士別三日wyx 「作者簡介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專欄」: 對網(wǎng)絡(luò)安全感興趣的小伙伴可以關(guān)注專欄《網(wǎng)絡(luò)安全入門到精通》 處理數(shù)據(jù)之前,通常會使用一些轉(zhuǎn)換函數(shù)將 「特征數(shù)據(jù)」 轉(zhuǎn)換成更適合 「

    2024年02月15日
    瀏覽(32)
  • 【人工智能】機器學(xué)習(xí)算法綜述及常見算法詳解

    【人工智能】機器學(xué)習(xí)算法綜述及常見算法詳解

    目錄 推薦 1、機器學(xué)習(xí)算法簡介 1.1 機器學(xué)習(xí)算法包含的兩個步驟 1.2 機器學(xué)習(xí)算法的分類 2、線性回歸算法 2.1 線性回歸的假設(shè)是什么? 2.2 如何確定線性回歸模型的擬合優(yōu)度? 2.3 如何處理線性回歸中的異常值? 3、邏輯回歸算法 3.1 什么是邏輯函數(shù)? 3.2 邏輯回歸可以用于多類

    2024年04月22日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包