# logistic regression 二分類
# 導(dǎo)入pytorch 和 torchvision
import numpy as np
import torch
import torchvision
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import matplotlib.pyplot as plt
x_data = torch.tensor([[1.0], [2.0], [3.0]]) # x_data是一個張量
y_data = torch.Tensor([[0], [0], [1]]) # Tensor是一個類,tesor是一個張量
# 定義logistic regression模型
class LogisticRegressionModel(nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__() # 等價(jià)于nn.Module.__init__(self)
self.linear = nn.Linear(1, 1) # 輸入和輸出的維度都是1
def forward(self, x): # forward函數(shù)是必須要有的,用來構(gòu)建計(jì)算圖
# 二分類問題,所以用sigmoid函數(shù)作為激活函數(shù)
y_pred = torch.sigmoid(self.linear(x)) # forward
return y_pred
model = LogisticRegressionModel() # 實(shí)例化一個模型
criterion = nn.BCELoss(size_average=False) # 損失函數(shù)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # 優(yōu)化器 lr為學(xué)習(xí)率
# 訓(xùn)練模型
for epoch in range(100): # 訓(xùn)練100次
y_pred = model(x_data) # forward
loss = criterion(y_pred, y_data) # compute loss
print(epoch, loss.item()) # 打印loss
optimizer.zero_grad() # 梯度清零
loss.backward() # backward
optimizer.step() # update
# 測試模型
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print("predict (after training)", y_test.data) # 預(yù)測
# 繪制訓(xùn)練次數(shù)和預(yù)測值的關(guān)系
x = np.linspace(0, 10, 200) # 從0到10均勻取200個點(diǎn)
x_t = torch.Tensor(x).view(200, 1) # 轉(zhuǎn)換成200行1列的張量 用Tensor是因?yàn)橐玫絫orch.sigmoid
y_t = model(x_t) # 預(yù)測
y = y_t.data.numpy() # 轉(zhuǎn)換成numpy數(shù)組
plt.plot(x, y) # 繪制預(yù)測值和x的關(guān)系
plt.plot([0, 10], [0.5, 0.5], c='r') # 繪制y=0.5的直線
plt.xlabel("Hours") # x軸標(biāo)簽
plt.ylabel("Probability of Pass") # y軸標(biāo)簽
plt.grid() # 繪制網(wǎng)格
plt.show() # 顯示圖像
結(jié)果
文章來源:http://www.zghlxwxcb.cn/news/detail-599339.html
?文章來源地址http://www.zghlxwxcb.cn/news/detail-599339.html
到了這里,關(guān)于pytorch深度學(xué)習(xí)邏輯回歸 logistic regression的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!