国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch深度學(xué)習(xí)邏輯回歸 logistic regression

這篇具有很好參考價(jià)值的文章主要介紹了pytorch深度學(xué)習(xí)邏輯回歸 logistic regression。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

# logistic regression 二分類
# 導(dǎo)入pytorch  和 torchvision
import numpy as np
import torch
import torchvision
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import matplotlib.pyplot as plt

x_data = torch.tensor([[1.0], [2.0], [3.0]])  # x_data是一個張量
y_data = torch.Tensor([[0], [0], [1]])  # Tensor是一個類,tesor是一個張量


# 定義logistic regression模型
class LogisticRegressionModel(nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()  # 等價(jià)于nn.Module.__init__(self)
        self.linear = nn.Linear(1, 1)  # 輸入和輸出的維度都是1

    def forward(self, x):  # forward函數(shù)是必須要有的,用來構(gòu)建計(jì)算圖
        # 二分類問題,所以用sigmoid函數(shù)作為激活函數(shù)
        y_pred = torch.sigmoid(self.linear(x))  # forward
        return y_pred


model = LogisticRegressionModel()  # 實(shí)例化一個模型
criterion = nn.BCELoss(size_average=False)  # 損失函數(shù)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 優(yōu)化器 lr為學(xué)習(xí)率

# 訓(xùn)練模型
for epoch in range(100):  # 訓(xùn)練100次
    y_pred = model(x_data)  # forward
    loss = criterion(y_pred, y_data)  # compute loss
    print(epoch, loss.item())  # 打印loss

    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # backward
    optimizer.step()  # update

# 測試模型
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("predict (after training)", y_test.data)  # 預(yù)測

# 繪制訓(xùn)練次數(shù)和預(yù)測值的關(guān)系
x = np.linspace(0, 10, 200)  # 從0到10均勻取200個點(diǎn)
x_t = torch.Tensor(x).view(200, 1)  # 轉(zhuǎn)換成200行1列的張量 用Tensor是因?yàn)橐玫絫orch.sigmoid
y_t = model(x_t)  # 預(yù)測
y = y_t.data.numpy()  # 轉(zhuǎn)換成numpy數(shù)組
plt.plot(x, y)  # 繪制預(yù)測值和x的關(guān)系
plt.plot([0, 10], [0.5, 0.5], c='r')  # 繪制y=0.5的直線
plt.xlabel("Hours")  # x軸標(biāo)簽
plt.ylabel("Probability of Pass")  # y軸標(biāo)簽
plt.grid()  # 繪制網(wǎng)格
plt.show()  # 顯示圖像

結(jié)果

pytorch深度學(xué)習(xí)邏輯回歸 logistic regression,python,深度學(xué)習(xí)

?pytorch深度學(xué)習(xí)邏輯回歸 logistic regression,python,深度學(xué)習(xí)文章來源地址http://www.zghlxwxcb.cn/news/detail-599339.html

到了這里,關(guān)于pytorch深度學(xué)習(xí)邏輯回歸 logistic regression的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)11:邏輯回歸-Logistic Regression

    目錄 1.計(jì)算概率 2.損失和正則化 2.1 邏輯回歸的損失函數(shù) 2.2 邏輯回歸中的正則化 3.參考文獻(xiàn)

    2024年02月11日
    瀏覽(29)
  • 深度學(xué)習(xí) -- pytorch 計(jì)算圖與動態(tài)圖機(jī)制 autograd與邏輯回歸模型

    深度學(xué)習(xí) -- pytorch 計(jì)算圖與動態(tài)圖機(jī)制 autograd與邏輯回歸模型

    pytorch中的動態(tài)圖機(jī)制是pytorch這門框架的優(yōu)勢所在,閱讀本篇博客可以使我們對動態(tài)圖機(jī)制以及靜態(tài)圖機(jī)制有更直觀的理解,同時(shí)在博客的后半部分有關(guān)于邏輯回歸的知識點(diǎn),并且使用pytorch中張量以及張量的自動求導(dǎo)進(jìn)行構(gòu)建邏輯回歸模型。 計(jì)算圖是用來描述運(yùn)算的有向無環(huán)

    2024年02月01日
    瀏覽(23)
  • 機(jī)器學(xué)習(xí)實(shí)戰(zhàn):Python基于Logistic邏輯回歸進(jìn)行分類預(yù)測(一)

    機(jī)器學(xué)習(xí)實(shí)戰(zhàn):Python基于Logistic邏輯回歸進(jìn)行分類預(yù)測(一)

    1.1 Logistic回歸的介紹 邏輯回歸( Logistic regression ,簡稱 LR )是一種經(jīng)典的二分類算法,它將輸入特征與一個sigmoid函數(shù)進(jìn)行線性組合,從而預(yù)測輸出標(biāo)簽的概率。該算法常被用于預(yù)測離散的二元結(jié)果,例如是/否、真/假等。 優(yōu)點(diǎn): 實(shí)現(xiàn)簡單。Logistic回歸的參數(shù)可以用極大似然

    2024年02月08日
    瀏覽(27)
  • 機(jī)器學(xué)習(xí):基于邏輯回歸(Logistic Regression)對股票客戶流失預(yù)測分析

    機(jī)器學(xué)習(xí):基于邏輯回歸(Logistic Regression)對股票客戶流失預(yù)測分析

    作者:i阿極 作者簡介:Python領(lǐng)域新星作者、多項(xiàng)比賽獲獎?wù)撸翰┲鱾€人首頁 ??????如果覺得文章不錯或能幫助到你學(xué)習(xí),可以點(diǎn)贊??收藏??評論??+關(guān)注哦!?????? ??????如果有小伙伴需要數(shù)據(jù)集和學(xué)習(xí)交流,文章下方有交流學(xué)習(xí)區(qū)!一起學(xué)習(xí)進(jìn)步!?? 專欄案例:

    2023年04月26日
    瀏覽(27)
  • 吳恩達(dá)老師《機(jī)器學(xué)習(xí)》課后習(xí)題2之邏輯回歸(logistic_regression)

    吳恩達(dá)老師《機(jī)器學(xué)習(xí)》課后習(xí)題2之邏輯回歸(logistic_regression)

    用于解決輸出標(biāo)簽y為0或1的二元分類問題 判斷郵件是否屬于垃圾郵件? 銀行卡交易是否屬于詐騙? 腫瘤是否為良性? 等等。 案例:根據(jù)學(xué)生的兩門學(xué)生成績,建立一個邏輯回歸模型,預(yù)測該學(xué)生是否會被大學(xué)錄取 數(shù)據(jù)集:ex2data1.txt python實(shí)現(xiàn)邏輯回歸, 目標(biāo):建立分類器(求

    2024年02月09日
    瀏覽(24)
  • 深度學(xué)習(xí)之pytorch實(shí)現(xiàn)邏輯斯蒂回歸

    深度學(xué)習(xí)之pytorch實(shí)現(xiàn)邏輯斯蒂回歸

    logistic 適用于分類問題,這里案例( y為0和1 ,0和 1 分別代表一類) 于解決二分類(0 or 1)問題的機(jī)器學(xué)習(xí)方法,用于估計(jì)某種事物的可能性 也是用y=wx+b的模型來舉例,之前的輸出y屬于實(shí)數(shù)集合R,現(xiàn)在我們要輸出一個一個概率,也就是在區(qū)間[0,1]之間。我們就想到需要找出一

    2024年02月20日
    瀏覽(17)
  • 數(shù)據(jù)分析之Logistic回歸分析(二元邏輯回歸、多元有序邏輯回歸、多元無序邏輯回歸)

    數(shù)據(jù)分析之Logistic回歸分析(二元邏輯回歸、多元有序邏輯回歸、多元無序邏輯回歸)

    在研究X對于Y的影響時(shí): 如果Y為定量數(shù)據(jù),那么使用多元線性回歸分析; 如果Y為定類數(shù)據(jù),那么使用Logistic回歸分析。 結(jié)合實(shí)際情況,可以將Logistic回歸分析分為3類: 二元Logistic回歸分析 多元有序Logistic回歸分析 多元無序Logistic回歸分析 Logistic回歸分析用于研究X對Y的影響

    2024年03月13日
    瀏覽(30)
  • Logistic回歸(邏輯回歸)實(shí)戰(zhàn)案例分析

    Logistic回歸(邏輯回歸)實(shí)戰(zhàn)案例分析

    Lgistic回歸也叫邏輯回歸,是廣義線性回歸的一種,通常用于解決二分類問題。 表達(dá)式如下: 經(jīng)過logit變換,則可以寫成廣義線性表達(dá)式 通常做回歸是用其廣義線性表達(dá)式,且logistic回歸的結(jié)果概率表現(xiàn)為S型曲線,一般以小于0.5的樣本都分類為0,大于0.5的樣本都分類為1。

    2024年04月25日
    瀏覽(41)
  • 邏輯回歸(Logistic Regression)

    邏輯回歸(Logistic Regression)

    入門小菜鳥,希望像做筆記記錄自己學(xué)的東西,也希望能幫助到同樣入門的人,更希望大佬們幫忙糾錯啦~侵權(quán)立刪。 ? 目錄 一、邏輯回歸簡介與用途 二、邏輯回歸的理論推導(dǎo) 1、問題描述和轉(zhuǎn)化 2、初步思路:找一個線性模型來由X預(yù)測Y 3、Sigmoid函數(shù)(邏輯函數(shù)) 4、剛剛的

    2023年04月18日
    瀏覽(22)
  • 邏輯回歸(Logistic Regression)

    邏輯回歸(Logistic Regression)

    在分類問題中,你要預(yù)測的變量 y是離散的值,我們將學(xué)習(xí)一種叫做邏輯回歸 (Logistic Regression) 的算法,這是目前最流行使用最廣泛的一種學(xué)習(xí)算法。 在分類問題中,我們嘗試預(yù)測的是結(jié)果是否屬于某一個類(例如正確或錯誤)。分類問題的例子有:判斷一封電子郵件是否是

    2024年02月09日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包