国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)輸入數(shù)據(jù)的歸一化

這篇具有很好參考價值的文章主要介紹了深度學(xué)習(xí)輸入數(shù)據(jù)的歸一化。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


        res_w, res_h = self.res
        offset = [1, res_h / res_w]
      
        trainset = self.dt_dataset['train']['joint_2d'][::self.sample_stride, :, :2].astype(np.float32)  # [N, 17, 2]
        testset = self.dt_dataset['test']['joint_2d'][::self.sample_stride, :, :2].astype(np.float32)    # [N, 17, 2] 
        # res_w, res_h = self.res
        trainset = trainset / res_w * 2 - offset
        testset = testset / res_w * 2 - offset

將2D點(diǎn)坐標(biāo)映射到[-1, 1]范圍的主要原因有:

  1. 消除分辨率影響

不同圖像分辨率下的絕對像素坐標(biāo)值會有很大差異(例如100px和1000px)。映射到[-1, 1]可以抹平這種分辨率影響,使坐標(biāo)值處在統(tǒng)一的數(shù)值范圍內(nèi)。

  1. 適合網(wǎng)絡(luò)輸入

大多數(shù)基于深度學(xué)習(xí)的模型會假設(shè)輸入數(shù)據(jù)處在[-1, 1]或[0, 1]等固定數(shù)值范圍內(nèi)。這樣可以幫助網(wǎng)絡(luò)學(xué)習(xí),避免數(shù)值太大或太小帶來的難以收斂等問題。

  1. 易于設(shè)計模型

在[-1, 1]的標(biāo)準(zhǔn)化空間中,設(shè)計算法和模型會更簡單,無需考慮坐標(biāo)尺度問題。例如計算點(diǎn)之間距離等。

  1. 提高數(shù)值穩(wěn)定性

很大或很小的坐標(biāo)值可能會導(dǎo)致計算過程的數(shù)值不穩(wěn)定。但在[-1, 1]范圍內(nèi),這種問題可以大幅減少。文章來源地址http://www.zghlxwxcb.cn/news/detail-698858.html

到了這里,關(guān)于深度學(xué)習(xí)輸入數(shù)據(jù)的歸一化的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • (圖像分割)基于圖論的歸一化分割

    (圖像分割)基于圖論的歸一化分割

    解釋:將圖像映射成圖,以圖為研究對象,利用圖的理論知識獲得圖像的分割。 下面介紹:圖的基本理論,基于圖論的歸一化分割算法 圖G=(V,E,),分別是:節(jié)點(diǎn)、邊、頂點(diǎn)和邊的對應(yīng)關(guān)系。簡單記為G=(V,E)。 圖的幾個基本概念 1.頂點(diǎn)的度【無向圖、有向圖(入度、

    2024年02月07日
    瀏覽(30)
  • matlab中矩陣的歸一化和標(biāo)準(zhǔn)化處理

    matlab中矩陣的歸一化和標(biāo)準(zhǔn)化處理

    1、歸一化:將數(shù)據(jù)映射到0-1的區(qū)間中。 matlab中矩陣的歸一化處理: X=(value-value_min) / (value_max-value_min) 函數(shù):mapminmax(A,M),A—需要處理的矩陣,M—需要映射到的范圍,M通默認(rèn)為[-1,1],也可設(shè)置為常用的0和1之間。 結(jié)果: 2、標(biāo)準(zhǔn)化:將數(shù)據(jù)映射到方差為1,均值為0的數(shù)據(jù)。

    2024年04月13日
    瀏覽(15)
  • 【機(jī)器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    【機(jī)器學(xué)習(xí)】數(shù)據(jù)預(yù)處理 - 歸一化和標(biāo)準(zhǔn)化

    「作者主頁」: 士別三日wyx 「作者簡介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡(luò)安全領(lǐng)域優(yōu)質(zhì)創(chuàng)作者 「推薦專欄」: 對網(wǎng)絡(luò)安全感興趣的小伙伴可以關(guān)注專欄《網(wǎng)絡(luò)安全入門到精通》 處理數(shù)據(jù)之前,通常會使用一些轉(zhuǎn)換函數(shù)將 「特征數(shù)據(jù)」 轉(zhuǎn)換成更適合 「

    2024年02月15日
    瀏覽(32)
  • 深入理解機(jī)器學(xué)習(xí)——數(shù)據(jù)預(yù)處理:歸一化 (Normalization)與標(biāo)準(zhǔn)化 (Standardization)

    分類目錄:《深入理解機(jī)器學(xué)習(xí)》總目錄 歸一化 (Normalization)和標(biāo)準(zhǔn)化 (Standardization)都是特征縮放的方法。特征縮放是機(jī)器學(xué)習(xí)預(yù)處理數(shù)據(jù)中最重要的步驟之一,可以加快梯度下降,也可以消除不同量綱之間的差異并提升模型精度。 歸一化(Normalization)是將一組數(shù)據(jù)變

    2024年02月08日
    瀏覽(23)
  • 深度學(xué)習(xí)基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學(xué)習(xí)面試

    深度學(xué)習(xí)基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學(xué)習(xí)面試

    深度學(xué)習(xí)面試必備 1:(MLP/激活函數(shù)/softmax/損失函數(shù)/梯度/梯度下降/學(xué)習(xí)率/反向傳播/深度學(xué)習(xí)面試 深度學(xué)習(xí)面試必備 2:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核/深度學(xué)習(xí)面試 深度學(xué)習(xí)面試必備 3 :物體檢測(Anchor base/NMS/softmax/損失函數(shù)/BCE/CE/zip) Momentum、

    2024年02月12日
    瀏覽(22)
  • 【機(jī)器學(xué)習(xí)】一文搞懂標(biāo)準(zhǔn)化,歸一化,正則化

    【機(jī)器學(xué)習(xí)】一文搞懂標(biāo)準(zhǔn)化,歸一化,正則化

    對于機(jī)器學(xué)習(xí)中的標(biāo)準(zhǔn)化,歸一化和正則化的理解,一直都比較模糊,而且在許多技術(shù)書籍中,對于它們的使用基本都是一筆帶過,不理解概念的話,就不知具體對數(shù)據(jù)做了哪些操作。因此,在這里專門對這幾個概念做學(xué)習(xí)與總結(jié)。 學(xué)習(xí)之前,先拋出幾個問題: 這幾個概念

    2024年02月03日
    瀏覽(22)
  • 用pytorch給深度學(xué)習(xí)加速:正交與譜歸一化技術(shù)

    目錄 torch.nn參數(shù)優(yōu)化 parametrizations.orthogonal 用途 用法 使用技巧 參數(shù) 注意事項(xiàng) 示例代碼 parametrizations.spectral_norm 用途 用法 使用技巧 參數(shù) 注意事項(xiàng) 示例代碼 總結(jié) 這個 torch.nn.utils.parametrizations.orthogonal 模塊是PyTorch庫中的一個功能,用于對神經(jīng)網(wǎng)絡(luò)中的矩陣或一批矩陣應(yīng)用正交

    2024年01月17日
    瀏覽(25)
  • 【機(jī)器學(xué)習(xí)300問】12、為什么要進(jìn)行特征歸一化?

    【機(jī)器學(xué)習(xí)300問】12、為什么要進(jìn)行特征歸一化?

    ? ? ? ? 當(dāng)線性回歸模型的特征量變多之后,會出現(xiàn)不同的特征量,然而對于那些同是數(shù)值型的特征量為什么要做歸一化處理呢? ????????使得不同指標(biāo)之間具有可比性。例如,分析一個人的身高和體重對健康的影響,如果使用米(m)和于克(kg)作為單位,那么身高特征會在

    2024年01月22日
    瀏覽(30)
  • 數(shù)據(jù)歸一化常見算法

    數(shù)據(jù)歸一化常見算法

    數(shù)據(jù)歸一化的幾種方法 Min-Max歸一化是一種線性的歸一化方法。該方法將數(shù)據(jù)進(jìn)行一次線性變換,將數(shù)據(jù)映射到[0,1]區(qū)間。Min-Max歸一化不改變數(shù)據(jù)的分布。其缺點(diǎn)為,過度依賴最大最小數(shù),且容易受到離群點(diǎn)、異常數(shù)據(jù)的影響。其公式為: x ′ = x ? M i n M a x ? M i n x^prime

    2024年02月12日
    瀏覽(22)
  • 【深度學(xué)習(xí)中的批量歸一化BN和層歸一化LN】BN層(Batch Normalization)和LN層(Layer Normalization)的區(qū)別

    【深度學(xué)習(xí)中的批量歸一化BN和層歸一化LN】BN層(Batch Normalization)和LN層(Layer Normalization)的區(qū)別

    歸一化(Normalization) 方法 :指的是把 不同維度的特征 (例如序列特征或者圖像的特征圖等)轉(zhuǎn)換為相同或相似的尺度范圍內(nèi)的方法,比如把數(shù)據(jù)特征映射到[0, 1]或[?1, 1]區(qū)間內(nèi),或者映射為服從均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布。 那為什么要進(jìn)行歸一化? 樣本特征由于 來源

    2024年02月14日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包