国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【scikit-learn基礎】--『預處理』之 標準化

這篇具有很好參考價值的文章主要介紹了【scikit-learn基礎】--『預處理』之 標準化。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

數(shù)據(jù)的預處理是數(shù)據(jù)分析,或者機器學習訓練前的重要步驟。
通過數(shù)據(jù)預處理,可以

  • 提高數(shù)據(jù)質量,處理數(shù)據(jù)的缺失值、異常值和重復值等問題,增加數(shù)據(jù)的準確性和可靠性
  • 整合不同數(shù)據(jù),數(shù)據(jù)的來源和結構可能多種多樣,分析和訓練前要整合成一個數(shù)據(jù)集
  • 提高數(shù)據(jù)性能,對數(shù)據(jù)的值進行變換,規(guī)約等(比如無量綱化),讓算法更加高效

本篇介紹的標準化處理,可以消除數(shù)據(jù)之間的差異,使不同特征的數(shù)據(jù)具有相同的尺度,
以便于后續(xù)的數(shù)據(jù)分析和建模。

1. 原理

數(shù)據(jù)標準化的過程如下:

  1. 計算數(shù)據(jù)列的算術平均值mean
  2. 計算數(shù)據(jù)列的標準差sd
  3. 標準化處理:\(new\_data = (data - mean) / sd\)

data 是原始數(shù)據(jù),new_data 是標準化之后的數(shù)據(jù)。

根據(jù)原理,實現(xiàn)的對一維數(shù)據(jù)標準化的示例如下:

import numpy as np

# 標準化的實現(xiàn)原理
data = np.array([1, 2, 3, 4, 5])
mean = np.mean(data)  # 平均值
sd = np.std(data)   # 標準差

# 標準化
data_new = (data-mean)/sd

print("處理前: {}".format(data))
print("處理后: {}".format(data_new))

# 運行結果
處理前: [1 2 3 4 5]
處理后: [-1.41421356 -0.70710678  0.          0.70710678  1.41421356]

使用scikit-learn庫中的標準化函數(shù)scale,得到的結果也和上面一樣。

from sklearn import preprocessing as pp

data = np.array([1, 2, 3, 4, 5])
pp.scale(data)

# 運行結果
array([-1.41421356, -0.70710678,  0.        ,  0.70710678,  1.41421356])

scikit-learn庫中的標準化函數(shù)scale不僅可以處理一維的數(shù)據(jù),也可以處理多維的數(shù)據(jù)。

2. 作用

標準化處理的作用主要有:

2.1. 消除數(shù)據(jù)量級的影響

數(shù)據(jù)分析時,不一樣量級的數(shù)據(jù)放在一起分析會增加很多不必要的麻煩,比如下面三組數(shù)據(jù):

data_min = np.array([0.001, 0.002, 0.003, 0.004, 0.005])
data = np.array([1, 2, 3, 4, 5])
data_max = np.array([10000, 20000, 30000, 40000, 50000])

三組數(shù)據(jù)看似差距很大,但是標準化處理之后:

from sklearn import preprocessing as pp

print("data_min 標準化:{}".format(pp.scale(data_min)))
print("data     標準化:{}".format(pp.scale(data)))
print("data_max 標準化:{}".format(pp.scale(data_max)))

# 運行結果
data_min 標準化:[-1.41421356 -0.70710678  0.          0.70710678  1.41421356]
data     標準化:[-1.41421356 -0.70710678  0.          0.70710678  1.41421356]
data_max 標準化:[-1.41421356 -0.70710678  0.          0.70710678  1.41421356]

標準化處理之后,發(fā)現(xiàn)三組數(shù)據(jù)其實是一樣的。
將數(shù)據(jù)轉化為相同的尺度,使得不同變量之間的比較更加方便和有意義,避免對分析結果產(chǎn)生誤導。

2.2. 增強可視化效果

此外,標準化之后的數(shù)據(jù)可視化效果也會更好。
比如下面一個對比學生們數(shù)學和英語成績的折線圖:

math_scores = np.random.randint(0, 150, 10)
english_scores = np.random.randint(0, 100, 10)

fig, ax = plt.subplots(2, 1)
fig.subplots_adjust(hspace=0.4)
ax[0].plot(range(1, 11), math_scores, label="math")
ax[0].plot(range(1, 11), english_scores, label="english")
ax[0].set_ylim(0, 150)
ax[0].set_title("標準化之前")
ax[0].legend()

ax[1].plot(range(1, 11), pp.scale(math_scores), label="math")
ax[1].plot(range(1, 11), pp.scale(english_scores), label="english")
ax[1].set_title("標準化之后")
ax[1].legend()

plt.show()

隨機生成10數(shù)學英語的成績,數(shù)學成績的范圍是0~150,英語成績的范圍是0~100。

標準化前后的折線圖對比如下:
【scikit-learn基礎】--『預處理』之 標準化
標準化之前的對比,似乎數(shù)學成績要比英語成績好。
而從標準化之后的曲線圖來看,其實兩門成績是差不多的。

這就是標準化的作用,使得可視化結果更加準確和有意義。

2.3. 機器學習的需要

許多機器學習算法對輸入數(shù)據(jù)的規(guī)模和量綱非常敏感。
如果輸入數(shù)據(jù)的特征之間存在數(shù)量級差異,可能會影響算法的準確性和性能。

標準化處理可以將所有特征的數(shù)據(jù)轉化為相同的尺度,從而避免這種情況的發(fā)生,提高算法的準確性和性能。

3. 總結

總的來說,數(shù)據(jù)標準化處理是數(shù)據(jù)處理中不可或缺的一步,它可以幫助我們消除數(shù)據(jù)之間的差異,提高分析結果的性能和穩(wěn)定性,增加數(shù)據(jù)的可解釋性,從而提高我們的決策能力。文章來源地址http://www.zghlxwxcb.cn/news/detail-753124.html

到了這里,關于【scikit-learn基礎】--『預處理』之 標準化的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 深入理解機器學習——數(shù)據(jù)預處理:歸一化 (Normalization)與標準化 (Standardization)

    分類目錄:《深入理解機器學習》總目錄 歸一化 (Normalization)和標準化 (Standardization)都是特征縮放的方法。特征縮放是機器學習預處理數(shù)據(jù)中最重要的步驟之一,可以加快梯度下降,也可以消除不同量綱之間的差異并提升模型精度。 歸一化(Normalization)是將一組數(shù)據(jù)變

    2024年02月08日
    瀏覽(23)
  • 【scikit-learn基礎】--概述

    Scikit-learn 是一個基于 Python 的開源機器學習庫,它提供了大量的機器學習算法和工具,方便用戶進行數(shù)據(jù)挖掘、分析和預測。 Scikit-learn 是基于另外兩個知名的庫 Scipy 和 Numpy 的, 關于 Scipy 和 Numpy 等庫,之前的系列文章中有介紹: Scipy 基礎系列 Numpy 基礎系列 自從 AlphaGo 再度

    2024年02月05日
    瀏覽(18)
  • 【scikit-learn基礎】--『回歸模型評估』之偏差分析

    模型評估 在統(tǒng)計學和機器學習中具有至關重要,它幫助我們主要目標是量化模型預測新數(shù)據(jù)的能力。 本篇主要介紹 模型評估 時,如何利用 scikit-learn 幫助我們快速進行各種 偏差 的分析。 R2 分數(shù) (也叫 決定系數(shù) ),用于衡量模型預測的擬合優(yōu)度,它表示模型中 因變量 的

    2024年01月24日
    瀏覽(19)
  • 【scikit-learn基礎】--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集

    【scikit-learn基礎】--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集

    機器學習的第一步是準備數(shù)據(jù),好的數(shù)據(jù)能幫助我們加深對機器學習算法的理解。 不管是在學習還是實際工作中, 準備數(shù)據(jù) 永遠是一個枯燥乏味的步驟。 scikit-learn 庫顯然看到了這個痛點,才在它的 數(shù)據(jù)加載 子模塊中為我們準備了直接可用的數(shù)據(jù)集。 在它的 數(shù)據(jù)加載 子模

    2024年02月05日
    瀏覽(29)
  • 【scikit-learn基礎】--『數(shù)據(jù)加載』之外部數(shù)據(jù)集

    【scikit-learn基礎】--『數(shù)據(jù)加載』之外部數(shù)據(jù)集

    這是 scikit-learn 數(shù)據(jù)加載系列的最后一篇,本篇介紹如何加載 外部的數(shù)據(jù)集 。 外部數(shù)據(jù)集 不像之前介紹的幾種類型的數(shù)據(jù)集那樣,針對每種數(shù)據(jù)提供對應的接口,每個接口加載的數(shù)據(jù)都是固定的。 而外部數(shù)據(jù)集加載之后,數(shù)據(jù)的字段和類型是不確定的。 簡單來說,我們在

    2024年02月05日
    瀏覽(19)
  • 【scikit-learn基礎】--『數(shù)據(jù)加載』之真實數(shù)據(jù)集

    上一篇介紹了 scikit-learn 中的幾個玩具數(shù)據(jù)集,本篇介紹 scikit-learn 提供的一些真實的數(shù)據(jù)集。 玩具數(shù)據(jù)集:scikit-learn 基礎(01)--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集 與玩具數(shù)據(jù)集不同,真實的數(shù)據(jù)集的數(shù)據(jù)不僅數(shù)據(jù)特征多,而且數(shù)據(jù)量也比較大, 所以沒有直接包含在 scikit-learn 庫中。

    2024年02月05日
    瀏覽(25)
  • 【scikit-learn基礎】--『回歸模型評估』之誤差分析

    模型評估 在統(tǒng)計學和機器學習中具有至關重要,它幫助我們主要目標是量化模型預測新數(shù)據(jù)的能力。 在這個數(shù)據(jù)充斥的時代,沒有評估的模型就如同盲人摸象,可能帶來誤導和誤判。 模型評估 不僅是一種方法,更是一種保障,確保我們在數(shù)據(jù)海洋中航行時,能夠依賴準確的

    2024年01月22日
    瀏覽(22)
  • 【scikit-learn基礎】--『數(shù)據(jù)加載』之樣本生成器

    【scikit-learn基礎】--『數(shù)據(jù)加載』之樣本生成器

    除了內(nèi)置的數(shù)據(jù)集, scikit-learn 還提供了隨機樣本的生成器。 通過這些生成器函數(shù),可以生成具有特定特性和分布的隨機數(shù)據(jù)集,以幫助進行機器學習算法的研究、測試和比較。 目前, scikit-learn 庫( v1.3.0 版)中有 20個 不同的生成樣本的函數(shù)。 本篇重點介紹其中幾個具有代

    2024年02月05日
    瀏覽(20)
  • 機器學習-決策樹-回歸-CPU(中央處理單元)數(shù)據(jù)-python scikit-learn

    機器學習-決策樹-回歸-CPU(中央處理單元)數(shù)據(jù)-python scikit-learn

    決策樹是一種監(jiān)督機器學習算法,用于回歸和分類任務。樹是可以處理復雜數(shù)據(jù)集的強大算法。 決策樹特性: 不需要數(shù)值輸入數(shù)據(jù)進行縮放。無論數(shù)值是多少,決策樹都不在乎。 不同于其他復雜的學習算法,決策樹的結果是可以解釋的,決策樹不是黑盒類型的模型。 雖然大

    2024年02月20日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包