国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【python手寫算法】利用梯度下降實(shí)現(xiàn)線性擬合

這篇具有很好參考價值的文章主要介紹了【python手寫算法】利用梯度下降實(shí)現(xiàn)線性擬合。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

利用梯度下降實(shí)現(xiàn)線性擬合,效果和sklearn LinearRegression()差不多。
學(xué)習(xí)率初始設(shè)置為0.1結(jié)果算高的,直接讓我的參數(shù)變成了nan。(體會到了飛出去的感覺)
把學(xué)習(xí)率調(diào)小了之后就正常了

# coding=utf-8
import matplotlib.pyplot as plt
import numpy as np
if __name__ == '__main__':
    X =[12.46, 0.25, 5.22, 11.3, 6.81, 4.59, 0.66, 14.53, 15.49, 14.43,
        2.19, 1.35, 10.02, 12.93, 5.93, 2.92, 12.81, 4.88, 13.11, 5.8]
    Y =[29.01, 4.7, 22.33, 24.99, 18.85, 14.89, 10.58, 36.84, 42.36, 39.73,
        11.92, 7.45, 22.9, 36.62, 16.04, 16.56, 31.55, 20.04, 35.26, 23.59]
    w=1
    b=0.1
    a=0.01 # 學(xué)習(xí)率
    w_temp=-100
    b_temp=-100
    wchange = 100
    bchange = 100
    while abs(wchange)>1e-12 and abs(bchange)>1e-12:
        print(wchange)
        wchange=0
        bchange=0
        for i in range(len(X)):
            wchange+=(w*X[i]+b-Y[i])*X[i]
            bchange+=w*X[i]+b-Y[i]
        wchange/=len(X)
        bchange /= len(X)
        w_temp=w-a*wchange
        b_temp=b-a*bchange
        w=w_temp
        b=b_temp
    print("y=%.4f*x+%.4f" % (w, b))



    # 簡單畫圖顯示
    plt.scatter(X, Y, c="blue")
    Y_predict=[]
    for i in range(len(X)):
        Y_predict.append(w*X[i]+b)
    plt.plot(X, Y_predict, c="red")
    plt.show()
    print(Y_predict)

【python手寫算法】利用梯度下降實(shí)現(xiàn)線性擬合,人工智能,python項(xiàng)目,python,算法,開發(fā)語言,機(jī)器學(xué)習(xí)
【python手寫算法】利用梯度下降實(shí)現(xiàn)線性擬合,人工智能,python項(xiàng)目,python,算法,開發(fā)語言,機(jī)器學(xué)習(xí)文章來源地址http://www.zghlxwxcb.cn/news/detail-550481.html

到了這里,關(guān)于【python手寫算法】利用梯度下降實(shí)現(xiàn)線性擬合的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【算法系列】非線性最小二乘求解-梯度下降法

    【算法系列】非線性最小二乘求解-梯度下降法

    ·【算法系列】卡爾曼濾波算法 ·【算法系列】非線性最小二乘求解-直接求解法 ·【算法系列】非線性最小二乘求解-梯度下降法 ·【算法系列】非線性最小二乘-高斯牛頓法? ·【算法系列】非線性最小二乘-列文伯格馬夸爾和狗腿算法? 文章目錄 系列文章 文章目錄 前言 一、

    2024年02月16日
    瀏覽(18)
  • python機(jī)器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價函數(shù)、梯度下降法、使用numpy、sklearn實(shí)現(xiàn)一元線性回歸

    python機(jī)器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價函數(shù)、梯度下降法、使用numpy、sklearn實(shí)現(xiàn)一元線性回歸

    數(shù)據(jù)預(yù)處理的過程。數(shù)據(jù)存在不同的量綱、數(shù)據(jù)中存在離群值,需要穩(wěn)定的轉(zhuǎn)換數(shù)據(jù),處理好的數(shù)據(jù)才能更好的去訓(xùn)練模型,減少誤差的出現(xiàn)。 標(biāo)準(zhǔn)化 數(shù)據(jù)集的標(biāo)準(zhǔn)化對scikit-learn中實(shí)現(xiàn)的大多數(shù)機(jī)器學(xué)習(xí)算法來說是常見的要求,很多案例都需要標(biāo)準(zhǔn)化。如果個別特征或多或

    2024年02月16日
    瀏覽(24)
  • 【深度學(xué)習(xí)實(shí)驗(yàn)】線性模型(二):使用NumPy實(shí)現(xiàn)線性模型:梯度下降法

    【深度學(xué)習(xí)實(shí)驗(yàn)】線性模型(二):使用NumPy實(shí)現(xiàn)線性模型:梯度下降法

    目錄 一、實(shí)驗(yàn)介紹 二、實(shí)驗(yàn)環(huán)境 1. 配置虛擬環(huán)境 2. 庫版本介紹 三、實(shí)驗(yàn)內(nèi)容 0. 導(dǎo)入庫 1. 初始化參數(shù) 2. 線性模型?linear_model 3. 損失函數(shù)loss_function 4. 梯度計算函數(shù)compute_gradients 5. 梯度下降函數(shù)gradient_descent 6. 調(diào)用函數(shù) ? ? ? ????????使用NumPy實(shí)現(xiàn)線性模型:梯度下降法

    2024年02月07日
    瀏覽(33)
  • 舉例說明基于線性回歸的單層神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)(以梯度下降算法來求解權(quán)重的過程)...

    舉例說明基于線性回歸的單層神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)(以梯度下降算法來求解權(quán)重的過程)...

    我們將通過一個簡單的例子來說明基于線性回歸的單層神經(jīng)網(wǎng)絡(luò),以及如何使用梯度下降算法來求解權(quán)重。 假設(shè)我們有以下數(shù)據(jù)集,表示學(xué)生的學(xué)習(xí)時間(小時)與他們的考試分?jǐn)?shù): 學(xué)習(xí)時間(X):1, 2, 3, 4, 5 考試分?jǐn)?shù)(Y):2, 4, 6, 8, 10 這是一個線性關(guān)系,我們可以使用線

    2024年02月16日
    瀏覽(23)
  • 優(yōu)化算法之梯度下降|Matlab實(shí)現(xiàn)梯度下降算法

    優(yōu)化算法之梯度下降|Matlab實(shí)現(xiàn)梯度下降算法

    題目要求: 使用Matab實(shí)現(xiàn)梯度下降法 對于函數(shù): min ? f ( x ) = 2 x 1 2 + 4 x 2 2 ? 6 x 1 ? 2 x 1 x 2 min f(x)=2 x_{1}^{2}+4 x_{2}^{2}-6 x_{1}-2 x_{1} x_{2} min f ( x ) = 2 x 1 2 ? + 4 x 2 2 ? ? 6 x 1 ? ? 2 x 1 ? x 2 ? 試采用 MATLAB實(shí)現(xiàn)最速下降法求解該問題, 給出具體的迭代過程、 最終優(yōu)化結(jié)果、

    2024年02月16日
    瀏覽(28)
  • [Machine learning][Part4] 多維矩陣下的梯度下降線性預(yù)測模型的實(shí)現(xiàn)

    [Machine learning][Part4] 多維矩陣下的梯度下降線性預(yù)測模型的實(shí)現(xiàn)

    目錄 模型初始化信息: 模型實(shí)現(xiàn): 多變量損失函數(shù): 多變量梯度下降實(shí)現(xiàn): 多變量梯度實(shí)現(xiàn): 多變量梯度下降實(shí)現(xiàn): 之前部分實(shí)現(xiàn)的梯度下降線性預(yù)測模型中的training example只有一個特征屬性:房屋面積,這顯然是不符合實(shí)際情況的,這里增加特征屬性的數(shù)量再實(shí)現(xiàn)一次

    2024年02月06日
    瀏覽(19)
  • pytorch實(shí)現(xiàn)梯度下降算法例子

    pytorch實(shí)現(xiàn)梯度下降算法例子

    如題,利用pytorch,通過代碼實(shí)現(xiàn)機(jī)器學(xué)習(xí)中的梯度下降算法,求解如下方程: f ′ ( x , y ) = x 2 + 20 y 2 {f}\\\'(x,y) = x^2 + 20 y^2 f ′ ( x , y ) = x 2 + 20 y 2 的最小值。 Latex語法參考:https://blog.csdn.net/ViatorSun/article/details/82826664 輸出結(jié)果: 最終結(jié)果為:(x,y,z)=(397.85867, 0.00000, 158291.51945),迭

    2024年02月15日
    瀏覽(19)
  • RANSAC算法在Python中的實(shí)現(xiàn)與應(yīng)用探索:線性擬合與平面擬合示例

    第一部分:RANSAC算法與其應(yīng)用 在我們的日常生活和多個領(lǐng)域中,如機(jī)器學(xué)習(xí),計算機(jī)視覺,模式識別等,處理數(shù)據(jù)是一個非常重要的任務(wù)。尤其是當(dāng)我們需要從嘈雜的數(shù)據(jù)中獲取信息或擬合模型時。有時候,數(shù)據(jù)可能包含異常值或噪聲,這可能會對我們的結(jié)果產(chǎn)生重大影響。

    2024年02月13日
    瀏覽(38)
  • 機(jī)器學(xué)習(xí)——線性回歸、梯度下降

    機(jī)器學(xué)習(xí)——線性回歸、梯度下降

    監(jiān)督學(xué)習(xí) :學(xué)習(xí)數(shù)據(jù)帶有標(biāo)簽 無監(jiān)督學(xué)習(xí) :沒有任何的標(biāo)簽,或者有相同的標(biāo)簽 其他:強(qiáng)化學(xué)習(xí)、推薦系統(tǒng)等 還是房價預(yù)測的例子, 訓(xùn)練集如下: 定義各個變量的含義如下: m——代表訓(xùn)練集中實(shí)例的數(shù)量 x——代表特征/輸入變量 y——代表目標(biāo)變量/輸出變量 (x,y)——代

    2024年02月07日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包