国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【搭建PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行氣溫預(yù)測(cè)】

這篇具有很好參考價(jià)值的文章主要介紹了【搭建PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行氣溫預(yù)測(cè)】。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

import numpy as np
import pandas as pd 
import matplotlib.pyplot as plt
import torch
import torch.optim as optim
import warnings
warnings.filterwarnings("ignore")
%matplotlib inline
features = pd.read_csv('temps.csv')

#看看數(shù)據(jù)長(zhǎng)什么樣子
features.head()
year month day week temp_2 temp_1 average actual friend
0 2016 1 1 Fri 45 45 45.6 45 29
1 2016 1 2 Sat 44 45 45.7 44 61
2 2016 1 3 Sun 45 44 45.8 41 56
3 2016 1 4 Mon 44 41 45.9 40 53
4 2016 1 5 Tues 41 40 46.0 44 41

數(shù)據(jù)表中

  • year,moth,day,week分別表示的具體的時(shí)間
  • temp_2:前天的最高溫度值
  • temp_1:昨天的最高溫度值
  • average:在歷史中,每年這一天的平均最高溫度值
  • actual:這就是我們的標(biāo)簽值了,當(dāng)天的真實(shí)最高溫度
  • friend:這一列可能是湊熱鬧的,你的朋友猜測(cè)的可能值,咱們不管它就好了
print('數(shù)據(jù)維度:', features.shape)
數(shù)據(jù)維度: (348, 9)
# 處理時(shí)間數(shù)據(jù)
import datetime

# 分別得到年,月,日
years = features['year']
months = features['month']
days = features['day']

# datetime格式
dates = [str(int(year)) + '-' + str(int(month)) + '-' + str(int(day)) for year, month, day in zip(years, months, days)]
dates = [datetime.datetime.strptime(date, '%Y-%m-%d') for date in dates]
dates[:5]
[datetime.datetime(2016, 1, 1, 0, 0),
 datetime.datetime(2016, 1, 2, 0, 0),
 datetime.datetime(2016, 1, 3, 0, 0),
 datetime.datetime(2016, 1, 4, 0, 0),
 datetime.datetime(2016, 1, 5, 0, 0)]
# 準(zhǔn)備畫圖
# 指定默認(rèn)風(fēng)格
plt.style.use('fivethirtyeight')

# 設(shè)置布局
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(nrows=2, ncols=2, figsize = (10,10))
fig.autofmt_xdate(rotation = 45) #x標(biāo)簽傾斜45度

# 標(biāo)簽值
ax1.plot(dates, features['actual'])
ax1.set_xlabel(''); ax1.set_ylabel('Temperature'); ax1.set_title('Max Temp')

# 昨天
ax2.plot(dates, features['temp_1'])
ax2.set_xlabel(''); ax2.set_ylabel('Temperature'); ax2.set_title('Previous Max Temp')

# 前天
ax3.plot(dates, features['temp_2'])
ax3.set_xlabel('Date'); ax3.set_ylabel('Temperature'); ax3.set_title('Two Days Prior Max Temp')

# 我的逗逼朋友
ax4.plot(dates, features['friend'])
ax4.set_xlabel('Date'); ax4.set_ylabel('Temperature'); ax4.set_title('Friend Estimate')

plt.tight_layout(pad=2)

【搭建PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行氣溫預(yù)測(cè)】,# 人工智能pytorch框架,pytorch,神經(jīng)網(wǎng)絡(luò),人工智能

# 獨(dú)熱編碼
features = pd.get_dummies(features)
features.head(5)
year month day temp_2 temp_1 average actual friend week_Fri week_Mon week_Sat week_Sun week_Thurs week_Tues week_Wed
0 2016 1 1 45 45 45.6 45 29 1 0 0 0 0 0 0
1 2016 1 2 44 45 45.7 44 61 0 0 1 0 0 0 0
2 2016 1 3 45 44 45.8 41 56 0 0 0 1 0 0 0
3 2016 1 4 44 41 45.9 40 53 0 1 0 0 0 0 0
4 2016 1 5 41 40 46.0 44 41 0 0 0 0 0 1 0
# 標(biāo)簽
labels = np.array(features['actual'])

# 在特征中去掉標(biāo)簽
features= features.drop('actual', axis = 1)

# 名字單獨(dú)保存一下,以備后患
feature_list = list(features.columns)

# 轉(zhuǎn)換成合適的格式
features = np.array(features)
features.shape
(348, 14)
from sklearn import preprocessing
input_features = preprocessing.StandardScaler().fit_transform(features)
input_features[0]
array([ 0.        , -1.5678393 , -1.65682171, -1.48452388, -1.49443549,
       -1.3470703 , -1.98891668,  2.44131112, -0.40482045, -0.40961596,
       -0.40482045, -0.40482045, -0.41913682, -0.40482045])

構(gòu)建網(wǎng)絡(luò)模型

[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機(jī)制,建議將圖片保存下來直接上傳(img-I9ez3tyG-1691437809583)(attachment:image.png)]

#將數(shù)據(jù)轉(zhuǎn)化為tensor的形式
x = torch.tensor(input_features, dtype = float)

y = torch.tensor(labels, dtype = float)

# 權(quán)重參數(shù)初始化
weights = torch.randn((14, 128), dtype = float, requires_grad = True) 
biases = torch.randn(128, dtype = float, requires_grad = True) 
weights2 = torch.randn((128, 1), dtype = float, requires_grad = True) 
biases2 = torch.randn(1, dtype = float, requires_grad = True) 

learning_rate = 0.001 
losses = []

for i in range(1000):
    # 計(jì)算隱層
    hidden = x.mm(weights) + biases
    # 加入激活函數(shù)
    hidden = torch.relu(hidden)
    # 預(yù)測(cè)結(jié)果
    predictions = hidden.mm(weights2) + biases2
    # 通計(jì)算損失
    loss = torch.mean((predictions - y) ** 2) 
    losses.append(loss.data.numpy())
    
    # 打印損失值
    if i % 100 == 0:
        print('loss:', loss)
    #返向傳播計(jì)算
    loss.backward()
    
    #更新參數(shù)
    weights.data.add_(- learning_rate * weights.grad.data)  
    biases.data.add_(- learning_rate * biases.grad.data)
    weights2.data.add_(- learning_rate * weights2.grad.data)
    biases2.data.add_(- learning_rate * biases2.grad.data)
    
    # 每次迭代都得記得清空
    weights.grad.data.zero_()
    biases.grad.data.zero_()
    weights2.grad.data.zero_()
    biases2.grad.data.zero_()
loss: tensor(4238.8822, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(155.8961, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(146.9377, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(144.1912, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(142.8590, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(142.0588, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(141.5304, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(141.1626, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(140.8778, dtype=torch.float64, grad_fn=<MeanBackward0>)
loss: tensor(140.6519, dtype=torch.float64, grad_fn=<MeanBackward0>)
predictions.shape
torch.Size([348, 1])

更簡(jiǎn)單的構(gòu)建網(wǎng)絡(luò)模型

input_size = input_features.shape[1]
hidden_size = 128
output_size = 1
batch_size = 16
my_nn = torch.nn.Sequential(
    torch.nn.Linear(input_size, hidden_size),
    torch.nn.Sigmoid(),
    torch.nn.Linear(hidden_size, output_size),
)
cost = torch.nn.MSELoss(reduction='mean')
optimizer = torch.optim.Adam(my_nn.parameters(), lr = 0.001)
# 訓(xùn)練網(wǎng)絡(luò)
losses = []
for i in range(1000):
    batch_loss = []
    # MINI-Batch方法來進(jìn)行訓(xùn)練
    for start in range(0, len(input_features), batch_size):
        end = start + batch_size if start + batch_size < len(input_features) else len(input_features)
        xx = torch.tensor(input_features[start:end], dtype = torch.float, requires_grad = True)
        yy = torch.tensor(labels[start:end], dtype = torch.float, requires_grad = True)
        prediction = my_nn(xx)
        loss = cost(prediction, yy)
        optimizer.zero_grad()
        loss.backward(retain_graph=True)
        optimizer.step() 
        batch_loss.append(loss.data.numpy())
    
    # 打印損失
    if i % 100==0:
        losses.append(np.mean(batch_loss))
        print(i, np.mean(batch_loss))
0 3947.049
100 37.844784
200 35.660378
300 35.282845
400 35.11639
500 34.988346
600 34.87178
700 34.753754
800 34.62929
900 34.49678

預(yù)測(cè)訓(xùn)練結(jié)果

x = torch.tensor(input_features, dtype = torch.float)
predict = my_nn(x).data.numpy()
# 轉(zhuǎn)換日期格式
dates = [str(int(year)) + '-' + str(int(month)) + '-' + str(int(day)) for year, month, day in zip(years, months, days)]
dates = [datetime.datetime.strptime(date, '%Y-%m-%d') for date in dates]

# 創(chuàng)建一個(gè)表格來存日期和其對(duì)應(yīng)的標(biāo)簽數(shù)值
true_data = pd.DataFrame(data = {'date': dates, 'actual': labels})

# 同理,再創(chuàng)建一個(gè)來存日期和其對(duì)應(yīng)的模型預(yù)測(cè)值
months = features[:, feature_list.index('month')]
days = features[:, feature_list.index('day')]
years = features[:, feature_list.index('year')]

test_dates = [str(int(year)) + '-' + str(int(month)) + '-' + str(int(day)) for year, month, day in zip(years, months, days)]

test_dates = [datetime.datetime.strptime(date, '%Y-%m-%d') for date in test_dates]

predictions_data = pd.DataFrame(data = {'date': test_dates, 'prediction': predict.reshape(-1)}) 
# 真實(shí)值
plt.plot(true_data['date'], true_data['actual'], 'b-', label = 'actual')

# 預(yù)測(cè)值
plt.plot(predictions_data['date'], predictions_data['prediction'], 'ro', label = 'prediction')
plt.xticks(rotation = '60'); 
plt.legend()

# 圖名
plt.xlabel('Date'); plt.ylabel('Maximum Temperature (F)'); plt.title('Actual and Predicted Values');

【搭建PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行氣溫預(yù)測(cè)】,# 人工智能pytorch框架,pytorch,神經(jīng)網(wǎng)絡(luò),人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-632067.html

到了這里,關(guān)于【搭建PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行氣溫預(yù)測(cè)】的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 神經(jīng)網(wǎng)絡(luò)氣溫預(yù)測(cè)

    #引用所需要的庫(kù) import numpy as np import pandas as pd import matplotlib.pyplot as plt import torch import torch.optim as optim#優(yōu)化器 #過濾警告 import warnings warnings.filterwarnings(“ignore”) %matplotlib inline features=pd.read_csv(‘temps.csv’) features.head() 0 2016 1 1 Fri 45 45 45.6 45 29 1 2016 1 2 Sat 44 45 45.7 44 61 2 2016 1 3

    2024年02月05日
    瀏覽(17)
  • 【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

    【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

    ? ? ? ?密集連接網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都有主要的特點(diǎn),那就是它們沒有記憶。它們單獨(dú)處理每個(gè)輸入,在輸入和輸入之間沒有保存任何狀態(tài)。舉個(gè)例子:當(dāng)你在閱讀一個(gè)句子的時(shí)候,你需要記住之前的內(nèi)容,我們才能動(dòng)態(tài)的了解這個(gè)句子想表達(dá)的含義。生物智能已漸進(jìn)的方

    2023年04月24日
    瀏覽(29)
  • 基于PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行溫度預(yù)測(cè)——基于jupyter實(shí)現(xiàn)

    基于PyTorch神經(jīng)網(wǎng)絡(luò)進(jìn)行溫度預(yù)測(cè)——基于jupyter實(shí)現(xiàn)

    導(dǎo)入環(huán)境 讀取文件 其中 數(shù)據(jù)表中 year,moth,day,week分別表示的具體的時(shí)間 temp_2:前天的最高溫度值 temp_1:昨天的最高溫度值 average:在歷史中,每年這一天的平均最高溫度值 actual:這就是我們的標(biāo)簽值了,當(dāng)天的真實(shí)最高溫度 friend:據(jù)說湊熱鬧 查閱數(shù)據(jù)維度 時(shí)間維度數(shù)據(jù)進(jìn)

    2024年04月14日
    瀏覽(25)
  • 【復(fù)雜網(wǎng)絡(luò)建模】——使用PyTorch和DGL庫(kù)實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)進(jìn)行鏈路預(yù)測(cè)

    【復(fù)雜網(wǎng)絡(luò)建?!俊褂肞yTorch和DGL庫(kù)實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)進(jìn)行鏈路預(yù)測(cè)

    ???♂? 個(gè)人主頁(yè):@Lingxw_w的個(gè)人主頁(yè) ???作者簡(jiǎn)介:計(jì)算機(jī)科學(xué)與技術(shù)研究生在讀 ?? 希望大家多多支持,我們一起進(jìn)步!?? 如果文章對(duì)你有幫助的話, 歡迎評(píng)論 ??點(diǎn)贊???? 收藏 ??加關(guān)注+? 目錄 1、常見的鏈路預(yù)測(cè)方法 2、圖神經(jīng)網(wǎng)絡(luò)上的鏈路預(yù)測(cè) 3、使用PyTorc

    2024年02月09日
    瀏覽(20)
  • 深度學(xué)習(xí)圖像分類實(shí)戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進(jìn)行場(chǎng)景圖像分類(詳細(xì))

    深度學(xué)習(xí)圖像分類實(shí)戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進(jìn)行場(chǎng)景圖像分類(詳細(xì))

    目錄 1??一、實(shí)驗(yàn)過程 1.1??實(shí)驗(yàn)?zāi)康?1.2??實(shí)驗(yàn)簡(jiǎn)介 1.3??數(shù)據(jù)集的介紹 1.4??一、LeNet5網(wǎng)絡(luò)模型 1.5??二、AlexNet網(wǎng)絡(luò)模型 1.6??三、ResNet50(殘差網(wǎng)絡(luò))網(wǎng)絡(luò)模型 ?二、實(shí)驗(yàn)代碼 導(dǎo)入實(shí)驗(yàn)所需要的庫(kù) ?參數(shù)配置 數(shù)據(jù)預(yù)處理 重新DataSet 加載數(shù)據(jù)轉(zhuǎn)為DataLoader函數(shù) 可視化一批訓(xùn)練

    2024年02月05日
    瀏覽(28)
  • 循環(huán)神經(jīng)網(wǎng)絡(luò)-單變量序列預(yù)測(cè)詳解(pytorch)

    循環(huán)神經(jīng)網(wǎng)絡(luò)-單變量序列預(yù)測(cè)詳解(pytorch)

    參考博客 (1)導(dǎo)入所需要的包 (2)讀取數(shù)據(jù)并展示 (3)數(shù)據(jù)預(yù)處理 缺失值,轉(zhuǎn)化成numpy.ndarray類型,轉(zhuǎn)化成float類型,歸一化處理 (4)劃分訓(xùn)練集和測(cè)試集 用30個(gè)預(yù)測(cè)一個(gè) 1-30:31 2-31:32 … 94-143:144 需要注意 a = [dataset[i: (i + look_back)]] ,而不是 a = dataset[i: (i + look_back)] 對(duì)于

    2024年01月17日
    瀏覽(26)
  • 使用python里的神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)分類預(yù)測(cè)

    在Python中使用神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)分類預(yù)測(cè),可以使用深度學(xué)習(xí)庫(kù)如TensorFlow、Keras或PyTorch來實(shí)現(xiàn)。以下是使用Keras庫(kù)的示例代碼: Step 1: 準(zhǔn)備數(shù)據(jù) 首先,準(zhǔn)備用于訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集。將數(shù)據(jù)集分為輸入特征和相應(yīng)的目標(biāo)類別。確保對(duì)數(shù)據(jù)進(jìn)行適當(dāng)處理和歸一化。 S

    2024年02月16日
    瀏覽(41)
  • 使用python里的神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)回歸預(yù)測(cè)

    在Python中使用神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)回歸預(yù)測(cè),你可以使用深度學(xué)習(xí)庫(kù)如TensorFlow、Keras或PyTorch來實(shí)現(xiàn)。以下是使用Keras庫(kù)的示例代碼: Step 1: 準(zhǔn)備數(shù)據(jù) 首先,準(zhǔn)備用于訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集。將數(shù)據(jù)集分為輸入特征和相應(yīng)的目標(biāo)值。確保對(duì)數(shù)據(jù)進(jìn)行適當(dāng)處理和歸一化。 S

    2024年02月17日
    瀏覽(23)
  • 使用matlab里的神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)分類預(yù)測(cè)

    在MATLAB中使用神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)分類預(yù)測(cè),你可以按照以下步驟進(jìn)行: Step 1: 準(zhǔn)備數(shù)據(jù) 首先,準(zhǔn)備用于訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)。將數(shù)據(jù)集分為輸入特征和相應(yīng)的目標(biāo)類別。確保數(shù)據(jù)已經(jīng)進(jìn)行了適當(dāng)?shù)念A(yù)處理和標(biāo)準(zhǔn)化。 Step 2: 創(chuàng)建并訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型 使用MATLAB的Neural Net

    2024年02月16日
    瀏覽(21)
  • 【Pytorch】神經(jīng)網(wǎng)絡(luò)搭建

    【Pytorch】神經(jīng)網(wǎng)絡(luò)搭建

    在之前我們學(xué)習(xí)了如何用Pytorch去導(dǎo)入我們的數(shù)據(jù)和數(shù)據(jù)集,并且對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。接下來我們就需要學(xué)習(xí)如何利用Pytorch去構(gòu)建我們的神經(jīng)網(wǎng)絡(luò)了。 目錄 基本網(wǎng)絡(luò)框架Module搭建 卷積層 從conv2d方法了解原理 從Conv2d方法了解使用 池化層 填充層 非線性層 線性層 Pytorch里面有一

    2023年04月17日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包