国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

學習pytorch中歸一化transforms.Normalize

這篇具有很好參考價值的文章主要介紹了學習pytorch中歸一化transforms.Normalize。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

torchvison:計算機視覺工具包

包含

  1. torchvison.transforms(常用的圖像預處理方法);
  2. torchvision.datasets(常用數(shù)據(jù)集的dataset實現(xiàn),MNIST,CIFAR-10,ImageNet等);
  3. torchvison.model(常用的模型預訓練,AlexNet,VGG,ResNet,GoogleNet等)。

torchvision.transforms

常用的數(shù)據(jù)預處理方法,提升泛化能力。包括:數(shù)據(jù)中心化、數(shù)據(jù)標準化、縮放、裁剪、旋轉、填充、噪聲添加、灰度變換、線性變換、放射變換、亮度、飽和度和對比度變換等


數(shù)據(jù)標準化——transforms.Normalize

功能:逐channel的對圖像進行標準化(均值變?yōu)?,標準差變?yōu)?),可以加快模型的收斂

  • output=(input-mean)/std
  • mean:各通道的均值
  • std:各通道的標準差
  • inplace:是否原地操作

問題:究竟是什么意思?(0.5,0.5,0.5),(0.5,0.5,0.5)又是怎么來的呢?

transform.ToTensor(),
transform.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))

1、transform.ToTensor()?

原始的PILImage格式或者numpy.array格式的數(shù)據(jù)格式化為可被pytorch快速處理的張量類型

  • 是將輸入的數(shù)據(jù)shape W,H,C--->?C,W,H。? ?從opencv讀到的圖片是通道數(shù)在第三個維度,現(xiàn)在經(jīng)過ToTensor操作cv2圖片變成了torch image類型,也就是通道在第一個維度。

  • 將所有數(shù)除以255,將數(shù)據(jù)歸一化到[0,1]

  • 示例:

import torch
import numpy as np
from torchvision import transforms
import cv2
# 自定義圖片數(shù)組,數(shù)據(jù)類型一定要轉為‘uint8’,不然transforms.ToTensor()不會歸一化
data = np.array([
                [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]],
                [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]],
                [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]],
                [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]],
                [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]]
        ],dtype='uint8')
print(data)
print(data.shape)   #(5,5,3)
data = transforms.ToTensor()(data)
print(data)
print(data.shape)	#(3,5,5)

輸出:
tensor([[[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],

        [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],

        [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]]])

2、?transforms.Normalize()

x = (x - mean) / std

即同一緯度的數(shù)據(jù)減去這一維度的平均值,再除以標準差,將歸一化后的數(shù)據(jù)變換到[-1,1]之間??烧媸沁@樣嗎??

  • 求解mean和std

我們需要求得一批數(shù)據(jù)的mean和std,代碼如下:

import torch
import numpy as np
from torchvision import transforms

# 這里以上述創(chuàng)建的單數(shù)據(jù)為例子
data = np.array([
                [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]],
                [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]],
                [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]],
                [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]],
                [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]]
        ],dtype='uint8')

#將數(shù)據(jù)轉為C,W,H,并歸一化到[0,1]
data = transforms.ToTensor()(data)
# 需要對數(shù)據(jù)進行擴維,增加batch維度
data = torch.unsqueeze(data,0)

nb_samples = 0.
#創(chuàng)建3維的空列表
channel_mean = torch.zeros(3)   #tensor([0., 0., 0.])
channel_std = torch.zeros(3)    #tensor([0., 0., 0.])

print(data.shape)  # torch.Size([1,3,5,5])
# tensor([[[[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
          [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
          [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
          [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
          [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],
         [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
          [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
          [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
          [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
          [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],
         [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
          [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
          [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
          [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
          [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]]]])


N, C, H, W = data.shape[:4]   #N=1  C=3  H=5   W=5
data = data.view(N, C, -1)    #將w,h維度的數(shù)據(jù)展平,為batch,channel,data,然后對三個維度上的數(shù)分別求和和標準差
 
print(data.shape)   #torch.Size([1, 3, 25])
#tensor([[[0.0039, 0.0039, 0.0039, 0.0039, 0.0039, 0.0078, 0.0078, 0.0078,
          0.0078, 0.0078, 0.0118, 0.0118, 0.0118, 0.0118, 0.0118, 0.0157,
          0.0157, 0.0157, 0.0157, 0.0157, 0.0196, 0.0196, 0.0196, 0.0196,
          0.0196],
         [0.0039, 0.0039, 0.0039, 0.0039, 0.0039, 0.0078, 0.0078, 0.0078,
          0.0078, 0.0078, 0.0118, 0.0118, 0.0118, 0.0118, 0.0118, 0.0157,
          0.0157, 0.0157, 0.0157, 0.0157, 0.0196, 0.0196, 0.0196, 0.0196,
          0.0196],
         [0.0039, 0.0039, 0.0039, 0.0039, 0.0039, 0.0078, 0.0078, 0.0078,
          0.0078, 0.0078, 0.0118, 0.0118, 0.0118, 0.0118, 0.0118, 0.0157,
          0.0157, 0.0157, 0.0157, 0.0157, 0.0196, 0.0196, 0.0196, 0.0196,
          0.0196]]])


#展平后,w,h屬于第二維度,對他們求平均,sum(0)為將同一緯度的數(shù)據(jù)累加
channel_mean += data.mean(2).sum(0)  #tensor([0.0118, 0.0118, 0.0118])

#展平后,w,h屬于第二維度,對他們求標準差,sum(0)為將同一緯度的數(shù)據(jù)累加
channel_std += data.std(2).sum(0)   #tensor([0.0057, 0.0057, 0.0057])

#獲取所有batch的數(shù)據(jù),這里為1
nb_samples += N

#獲取同一batch的均值和標準差
channel_mean /= nb_samples
channel_std /= nb_samples

print(channel_mean, channel_std)   #tensor([0.0118, 0.0118, 0.0118]) tensor([0.0057, 0.0057, 0.0057])

以此便可求得均值和標準差。我們再帶入公式:

x = (x - mean) / std
  • 自己實現(xiàn):
data = np.array([
                [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]],
                [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]],
                [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]],
                [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]],
                [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]]
        ],dtype='uint8')
data = transforms.ToTensor()(data)
print(data)
#tensor([[[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],
        [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]],
        [[0.0039, 0.0039, 0.0039, 0.0039, 0.0039],
         [0.0078, 0.0078, 0.0078, 0.0078, 0.0078],
         [0.0118, 0.0118, 0.0118, 0.0118, 0.0118],
         [0.0157, 0.0157, 0.0157, 0.0157, 0.0157],
         [0.0196, 0.0196, 0.0196, 0.0196, 0.0196]]])

for i in range(3):
    data[i,:,:] = (data[i,:,:] - channel_mean[i]) / channel_std[i]
print(data)

輸出:
tensor([[[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]],

        [[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]],

        [[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]]])
  • 官方實現(xiàn)
data = np.array([
                [[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]],
                [[2,2,2],[2,2,2],[2,2,2],[2,2,2],[2,2,2]],
                [[3,3,3],[3,3,3],[3,3,3],[3,3,3],[3,3,3]],
                [[4,4,4],[4,4,4],[4,4,4],[4,4,4],[4,4,4]],
                [[5,5,5],[5,5,5],[5,5,5],[5,5,5],[5,5,5]]
        ],dtype='uint8')
data = transforms.ToTensor()(data)
data = transforms.Normalize(channel_mean, channel_std)(data)
print(data)

輸出:
tensor([[[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]],

        [[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]],

        [[-1.3856, -1.3856, -1.3856, -1.3856, -1.3856],
         [-0.6928, -0.6928, -0.6928, -0.6928, -0.6928],
         [ 0.0000,  0.0000,  0.0000,  0.0000,  0.0000],
         [ 0.6928,  0.6928,  0.6928,  0.6928,  0.6928],
         [ 1.3856,  1.3856,  1.3856,  1.3856,  1.3856]]])

我們觀察數(shù)據(jù)發(fā)現(xiàn),通過求解的均值和標準差,求得的標準化的值,并非在[-1,1]

結論:

經(jīng)過這樣處理后的數(shù)據(jù)符合標準正態(tài)分布,即均值為0,標準差為1。使模型更容易收斂。并非是歸于[-1,1]?。?/p>


Normalize之前,數(shù)據(jù)分布是在[0,1]

Normalize之后:

  • ①如果mean = std=(0.5,0.5,0.5),那么Normalize之后,數(shù)據(jù)分布是【-1,1】;因為最小值=(0-mean)/std=(0-0.5)/0.5=-1。同理最大值的等于1。
  • ②如果mean為數(shù)據(jù)的計算的mean,std也是數(shù)據(jù)計算的std。那么Normalize之后根據(jù)公式(x-mean)/std,結合均值和方差的性質,可以算出新數(shù)據(jù)的均值會變成0,方差會變成1。

總結:
如果是Normalize((0.5,0.5,0.5),(0.5,0.5,0.5)),確實是歸一化到【-1,1】
如果是Normalize(channel_mean, channel_std),才是均值為0,標準差為1。


transforms 數(shù)據(jù)增強

數(shù)據(jù)增強又稱為數(shù)據(jù)增廣,數(shù)據(jù)擴增,它是對訓練集進行變換,使訓練集更豐富,從而讓模型更具泛化能力。

transforms——裁剪

  1. transforms.CenterCrop??

  • 功能:從圖像中心裁剪圖片
  • size:所需裁剪圖片尺寸

????2、transforms.RandomCrop

  • 功能:從圖片中隨機裁剪出尺寸為size的圖片
  • size:所需裁剪圖片尺寸
  • padding:設置填充大小。當為a時,上下左右均填充a個像素,當為(a,b)時,上下填充b個像素,左右填充a個像素。當為(a,b,c,d)時,左上右下分別填充abcd
  • pad_if_need:若圖像小于設定size,則填充
  • padding_mode:填充模式:(1)constant像素值由fill設定(默認模式);(2)edge像素值由圖像邊緣像素決定(3)reflect鏡像填充,最后一個像素不鏡像,eg,[1,2,3,4]->[3,2,1,2,3,4,3,2];(4)symmetric鏡像填充,最后一個像素鏡像,eg,[1,2,3,4]->[2,1,1,2,3,4,4,3]
  • fill:constant時,設置填充的像素值

transforms——翻轉和旋轉

  1. RandomHorizontalFlip 水平翻轉
  2. RandomVerticalFlip? 垂直翻轉
  3. RandomRotation? 隨機旋轉圖像

自定義tansfroms方法

class Compose(object):
    def __call__(self,img):
        for t in self.transforms:
               img = t(img)
        return img

transforms方法是在Compose類的__call__方法中被調用的,對一組transforms方法進行for循環(huán),每次循序的挑選并執(zhí)行transforms方法。

  • 自定義transforms要素:

  1. 僅接收一個參數(shù),返回一個參數(shù)
  2. 注意上下游的輸出和輸入,數(shù)據(jù)類型必須匹配

通過類實現(xiàn)多參數(shù)傳入,下圖為自定義transforms的基本參數(shù),一個init,一個call文章來源地址http://www.zghlxwxcb.cn/news/detail-444914.html

class YourTransforms(object):
    def __init__(self,...):
        ...
    def __call__(self,img):
        ...
        return img

椒鹽噪聲

  • 椒鹽噪聲又稱為又稱為脈沖噪聲,是一種隨機出現(xiàn)的白點或者黑點,白點稱為鹽噪聲,黑點稱為椒噪聲。
  • 信噪比(SNR):衡量噪聲的比例,圖像中為圖像像素的占比

class AddPepperNoise(object):
	def __init__(self, snr, p):
		self.snr = snr
		self.p = p
	
	def __call__(self, img):
		'''
		添加椒鹽噪聲具體實現(xiàn)過程
		'''
		return img

到了這里,關于學習pytorch中歸一化transforms.Normalize的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 用pytorch給深度學習加速:正交與譜歸一化技術

    目錄 torch.nn參數(shù)優(yōu)化 parametrizations.orthogonal 用途 用法 使用技巧 參數(shù) 注意事項 示例代碼 parametrizations.spectral_norm 用途 用法 使用技巧 參數(shù) 注意事項 示例代碼 總結 這個 torch.nn.utils.parametrizations.orthogonal 模塊是PyTorch庫中的一個功能,用于對神經(jīng)網(wǎng)絡中的矩陣或一批矩陣應用正交

    2024年01月17日
    瀏覽(25)
  • OpenCV的函數(shù)normalize()的兩個作用:調整矩陣的值范圍(歸一化處理)、規(guī)范化矩陣的范數(shù)為某個值

    OpenCV的函數(shù)normalize()的兩個作用:調整矩陣的值范圍(歸一化處理)、規(guī)范化矩陣的范數(shù)為某個值

    OpenCV的函數(shù)normalize()的兩個作用:調整矩陣的值范圍(歸一化處理)、規(guī)范化矩陣的范數(shù)為某個值 函數(shù)normalize()有兩個原型: 原型一: 原型二: 原型一的適用對象是密集矩陣,通常我們的矩陣都是密集矩陣。 原型二的適用對象是稀疏矩陣,在這篇博文中暫不作介紹。 在介紹各參

    2024年02月06日
    瀏覽(28)
  • 【Pytorch基礎知識】數(shù)據(jù)的歸一化和反歸一化

    【Pytorch基礎知識】數(shù)據(jù)的歸一化和反歸一化

    一張正常的圖,或者說是人眼習慣的圖是這樣的: 但是,為了 神經(jīng)網(wǎng)絡更快收斂 ,我們在深度學習網(wǎng)絡過程中 通常需要將讀取的圖片轉為tensor并歸一化 (此處的歸一化指 transforms .Normalize()操作)輸入到網(wǎng)絡中進行系列操作。 如果將轉成的tensor再直接轉為圖片,就會變成下

    2023年04月09日
    瀏覽(20)
  • Pytorch學習筆記(8):正則化(L1、L2、Dropout)與歸一化(BN、LN、IN、GN)

    Pytorch學習筆記(8):正則化(L1、L2、Dropout)與歸一化(BN、LN、IN、GN)

    ?一、正則化之weight_decay(L2正則) 1.1 正則化及相關概念 1.2?正則化策略(L1、L2) (1)L1正則化 (2)L2正則化 1.3?L2正則項——weight_decay 二、正則化之Dropout 2.1 Dropout概念 2.2?nn.Dropout? 三、歸一化之Batch Normalization(BN層) 3.1 Batch Normalization介紹 3.2 Pytorch的Batch Normalization 1d

    2024年02月04日
    瀏覽(17)
  • MinMaxScaler 中scaler.inverse_transform不能反歸一化正確的數(shù)據(jù)

    MinMaxScaler 中scaler.inverse_transform不能反歸一化正確的數(shù)據(jù)

    參考代碼[時間序列預測]基于BP、RNN、LSTM、CNN-LSTM算法多特征(多影響因素)用電負荷預測[保姆級手把手教學] 他的源代碼部分: 我的代碼仿寫部分: 其中的 np.concatenate 就是拼接,按列拼接。 我拿個demo來解釋一下: 也就是從demo理解了我把y列加在了x上,并且是在最后列。

    2023年04月22日
    瀏覽(17)
  • 深度學習基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學習面試

    深度學習基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學習面試

    深度學習面試必備 1:(MLP/激活函數(shù)/softmax/損失函數(shù)/梯度/梯度下降/學習率/反向傳播/深度學習面試 深度學習面試必備 2:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核/深度學習面試 深度學習面試必備 3 :物體檢測(Anchor base/NMS/softmax/損失函數(shù)/BCE/CE/zip) Momentum、

    2024年02月12日
    瀏覽(22)
  • 深度學習基礎入門篇[七]:常用歸一化算法、層次歸一化算法、歸一化和標準化區(qū)別于聯(lián)系、應用案例場景分析。

    深度學習基礎入門篇[七]:常用歸一化算法、層次歸一化算法、歸一化和標準化區(qū)別于聯(lián)系、應用案例場景分析。

    【深度學習入門到進階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調優(yōu)、歸一化算法、卷積模型、序列模型、預訓練模型、對抗神經(jīng)網(wǎng)絡等 專欄詳細介紹:【深度學習入門到進階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調優(yōu)、歸一化算法、卷積模型、

    2024年02月13日
    瀏覽(23)
  • Pytorch下transforms.ToTensor(),transforms.Normalize()詳解,及代碼實現(xiàn)和復原

    Pytorch下transforms.ToTensor(),transforms.Normalize()詳解,及代碼實現(xiàn)和復原

    一、在數(shù)據(jù)處理時,我們要經(jīng)常用到 transforms.ToTensor(),transforms.Normalize() 語句,將圖像數(shù)據(jù)轉換為tensor并標準化到[-1,1]之間。 其計算過程為: ①將image數(shù)據(jù)由(H,W,C)變?yōu)椋–,H,W),并除以255進行歸一化到[0,1]區(qū)間; ②將numpy.ndarray數(shù)據(jù)類型轉換為Tensor ③根據(jù)image=(x-mean)/std進行

    2024年02月16日
    瀏覽(19)
  • 深度學習輸入數(shù)據(jù)的歸一化

    將2D點坐標映射到[-1, 1]范圍的主要原因有: 消除分辨率影響 不同圖像分辨率下的絕對像素坐標值會有很大差異(例如100px和1000px)。映射到[-1, 1]可以抹平這種分辨率影響,使坐標值處在統(tǒng)一的數(shù)值范圍內。 適合網(wǎng)絡輸入 大多數(shù)基于深度學習的模型會假設輸入數(shù)據(jù)處在[-1, 1]或[0,

    2024年02月09日
    瀏覽(23)
  • 【機器學習】數(shù)據(jù)預處理 - 歸一化和標準化

    【機器學習】數(shù)據(jù)預處理 - 歸一化和標準化

    「作者主頁」: 士別三日wyx 「作者簡介」: CSDN top100、阿里云博客專家、華為云享專家、網(wǎng)絡安全領域優(yōu)質創(chuàng)作者 「推薦專欄」: 對網(wǎng)絡安全感興趣的小伙伴可以關注專欄《網(wǎng)絡安全入門到精通》 處理數(shù)據(jù)之前,通常會使用一些轉換函數(shù)將 「特征數(shù)據(jù)」 轉換成更適合 「

    2024年02月15日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包