国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

?引言


? ? ? ?密集連接網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都有主要的特點(diǎn),那就是它們沒有記憶。它們單獨(dú)處理每個(gè)輸入,在輸入和輸入之間沒有保存任何狀態(tài)。舉個(gè)例子:當(dāng)你在閱讀一個(gè)句子的時(shí)候,你需要記住之前的內(nèi)容,我們才能動(dòng)態(tài)的了解這個(gè)句子想表達(dá)的含義。生物智能已漸進(jìn)的方式處理信息,同時(shí)保存一個(gè)關(guān)于所處理內(nèi)容的內(nèi)部模型,此模型是根據(jù)過去額信息構(gòu)建的,并隨著新的信息進(jìn)入不斷更新。比如股票預(yù)測(cè)、氣溫預(yù)測(cè)等等。

一、mlp和RNN結(jié)構(gòu)

? ? ??【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)? ? ? ? ? ? ?【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?RNN特點(diǎn):前部序列的信息經(jīng)處理后,作為輸入信息傳遞后部序列。

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

手寫一下啦,本博主有點(diǎn)懶,懂了就闊以啦!?肯定權(quán)重是一樣的。

二、不同的RNN結(jié)構(gòu)

(1)多輸入多輸出,維度相同RNN結(jié)構(gòu)

? ? ? ?應(yīng)用:特定信息識(shí)別

結(jié)構(gòu)如圖:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

(2)多輸入單輸出

? ? ? ? ?應(yīng)用:情感識(shí)別

? ? ? ? ? 舉例:I feel very happy.

? ? ? ? ? 判斷:positive

結(jié)構(gòu)如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

(3)單輸入多輸出

? ? ? ? ?應(yīng)用:序列數(shù)據(jù)生成

? ? ? ? ?舉例:文章生成(輸入標(biāo)題直接出文章)

?結(jié)構(gòu)如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

(4)多輸入多輸出(ij)

? ? ? ? 應(yīng)用:語言翻譯

? ? ? ? 舉例:what is artificial intelligence?

? ? ? ? 什么是人工智能?

?結(jié)構(gòu)如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?介紹了常見的RNN結(jié)構(gòu)。但是這些結(jié)構(gòu)在當(dāng)前部序列信息在傳遞到后部的同時(shí),信息權(quán)重下降,導(dǎo)致重要信息丟失。也稱為(梯度消失)。由于這個(gè)問題接下來提出了長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)。

三、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)

? ? ? ?【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)? ? ? ? ? ? ? ? ? ? ?【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

通過傳遞前部序列信息,距離越遠(yuǎn)信息丟失越多(從彩色圖可以很好的體現(xiàn))。

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)?增加記憶細(xì)胞【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè),可以傳遞前部遠(yuǎn)處部位信息,且在傳遞過程中信息丟失少。

內(nèi)部結(jié)構(gòu):【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?忘記門:選擇性丟棄【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)?中不重要的信息。

更新門:確定給記憶細(xì)胞添加哪些信息。

輸出門:篩選需要輸出的信息。

?結(jié)構(gòu)如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?在網(wǎng)絡(luò)結(jié)構(gòu)很深(很多層)的情況下,也能保留保留重要的信息;

解決了普通RNN求解過程中的梯度消失問題。

四、溫度預(yù)測(cè)問題——神經(jīng)網(wǎng)絡(luò)基于GUR

數(shù)據(jù)集介紹:

?除了語言處理,其他許多問題中也都用到了序列數(shù)據(jù)。溫度預(yù)測(cè)數(shù)據(jù)集,每十分鐘記錄14分不同的量(比如氣溫、氣壓、濕度、風(fēng)向等)我們將利用2009-2016年的數(shù)據(jù)集構(gòu)建模型,輸入最近數(shù)據(jù),預(yù)測(cè)24小時(shí)之后的氣溫。???????

(一)讀入數(shù)據(jù)兩種方式介紹:

(1)dataframe格式:

注意:

Initializing from file failed
由于文件中存在中文所以加后面engine='python'

data1=pd.read_csv('/data/jena_climate_2009_2016.csv',engine='python')

后續(xù)簡(jiǎn)單操作代碼如下:轉(zhuǎn)化成數(shù)組

data=data1.copy()
df=data.values
data=df[:,1:]
data
data = np.array(data, dtype=np.float64)#方便后面數(shù)據(jù)標(biāo)準(zhǔn)化

(2)str格式:

import os
import numpy as np
import pandas as pd
from matplotlib import pyplot as plt
data_dir='/data'
fname=os.path.join(data_dir,'jena_climate_2009_2016.csv')
f=open(fname)
data=f.read()
f.close()
lines=data.split('\n')
header=lines[0].split(',')
header

?后續(xù)簡(jiǎn)單操作代碼如下:轉(zhuǎn)化成數(shù)組

float_data=np.zeros((len(lines),len(header)-1))
for i,line in enumerate(lines):
    values=[float(x) for x in line.split(',')[1:]]
    float_data[i,:]=values

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

補(bǔ)充 :enumerate()函數(shù)

英語翻譯:就是枚舉

names = ["Alice","Bob","Carl"]
for index,value in enumerate(names):
? ? print(f'{index}: {value}')

?看結(jié)果就懂了:

0: Alice
1: Bob
2: Carl

(二)分析數(shù)據(jù),數(shù)據(jù)可視化?

from matplotlib import pyplot as plt
temp=data[:,1]
plt.plot(range(len(temp)),temp)#可以看出每年溫度的周期性變化
#看完整體看局部前十天的溫度變化
#首先呢每十分鐘記錄一個(gè)數(shù)據(jù)點(diǎn),一天則可以記錄144個(gè)數(shù)據(jù)點(diǎn),則十天記錄1440個(gè)數(shù)據(jù)點(diǎn)
plt.plot(range(1440),temp[:1440])#后面是冬季

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)? ??【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?(三)處理數(shù)據(jù),可以輸入RNN模型

(1)?首先數(shù)據(jù)預(yù)處理(將數(shù)據(jù)處理為神經(jīng)網(wǎng)絡(luò)可以處理的格式,由于已經(jīng)是數(shù)值型的,所以不需要向量化)。
但是由于數(shù)據(jù)每個(gè)時(shí)間序列位于不同的范圍所以我們需要對(duì)每個(gè)時(shí)間序列進(jìn)行標(biāo)準(zhǔn)化,讓他們?cè)谙嗨品秶鷥?nèi)都取較小的值。
我們采取200 000個(gè)時(shí)間作為訓(xùn)練數(shù)據(jù)。

mean=data[:200000].mean(axis=0)
print(mean)
std=data[:200000].std(axis=0)
print(std)
data_-=mean
data_/=std

?(2)提取序列數(shù)據(jù)

首先介紹Input_shape=(samples,time_steps,features)

舉個(gè)例子:比如700個(gè)數(shù)據(jù),我用8個(gè)數(shù)據(jù)去預(yù)測(cè)第九個(gè)數(shù)據(jù):

[1 , 2 , . . . ,8]? ? ? ----9? ?——

[2 , 3 , . . . ,9]? ? ? ----10 ——

[3 , 4 , . . . ,10]

.?

.?

.

and so on。? ? ? ? ? ? ? ? ? ?——?n 代表samples? ? ?

time_steps=8

features:樣本特征維數(shù)(自然語言處理十分重要 one-hot格式比如001對(duì)應(yīng)三),這里數(shù)據(jù)是單維度則為1.

def extract_data(data,time_step):
    X=[]
    y=[]
    #0,1,2,3...,9:10個(gè)樣本;time_step=8;0,1...7;2,3...8兩個(gè)樣本
    for i in range(len(data)-time_step):
        X.append([a for a in data[i:i+time_step]])
        y.append(data[i+time_step])
    X=np.array(X)
    #X=X.reshape(X.shape[0],X.shape[1],1)
    return X,y

五、單層lstm股票預(yù)測(cè)?

?(一)導(dǎo)包讀入數(shù)據(jù)

%matplotlib inline
import numpy as np
import pandas as pd
from matplotlib import pyplot as plt
# 支持中文
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用來正常顯示中文標(biāo)簽
plt.rcParams['axes.unicode_minus'] = False  # 用來正常顯示負(fù)號(hào)
data_=pd.read_csv('/data/zgpa.csv',engine='python')
data_.head()

(二)數(shù)據(jù)預(yù)處理?

close=np.array(close,dtype=np.float64)
mean=close.mean(axis=0)
print(mean)
std=close.std(axis=0)
print(std)
close-=mean
close/=std

(三)時(shí)間序列數(shù)據(jù)可視化

#首先我們看一下收盤價(jià)格時(shí)間序列的趨勢(shì)
close=data_['close']
close
plt.plot(range(len(close)),close)
plt.title('close price')

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

(四)提取序列數(shù)據(jù)與上面一樣

調(diào)用:

X,y=extract_data(close,time_step)
print(X[0,:,:])
print(y)

(五)建立單個(gè)LSTM模型

from keras.models import Sequential
from keras.layers import Dense,SimpleRNN
model=Sequential()
#add rnn layer
model.add(SimpleRNN(units=8,input_shape=(time_step,1),activation='relu'))
#add output layer
model.add(Dense(units=1,activation='linear'))
#configure the model
model.compile(optimizer='adam',loss='mean_squared_error')
model.summary()

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?(六)訓(xùn)練模型

y=np.array(y)
model.fit(X,y,batch_size=30,epochs=200)

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)

?(七)預(yù)測(cè)與真實(shí)可視化

y_train_predict=(model.predict(X)*std)+mean
y_train=(y*std)+mean
fig1=plt.figure(figsize=(8,5))
plt.plot(y_train,label='real price')
plt.plot(y_train_predict,label='predict price')
plt.title('close price')
plt.xlabel('time')
plt.ylabel('price')
plt.legend()
plt.show()

結(jié)果如圖:

【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)文章來源地址http://www.zghlxwxcb.cn/news/detail-423123.html

到了這里,關(guān)于【深度學(xué)習(xí)】——循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及實(shí)例氣溫預(yù)測(cè)、單層lstm股票預(yù)測(cè)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

    深度學(xué)習(xí)4. 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN

    目錄 循環(huán)神經(jīng)網(wǎng)絡(luò) – Recurrent Neural Network | RNN 為什么需要 RNN ?獨(dú)特價(jià)值是什么? RNN 的基本原理 RNN 的優(yōu)化算法 RNN 到 LSTM – 長(zhǎng)短期記憶網(wǎng)絡(luò) 從 LSTM 到 GRU RNN 的應(yīng)用和使用場(chǎng)景 總結(jié) 百度百科+維基百科 卷積神經(jīng)網(wǎng)絡(luò)和普通的算法大部分都是輸入和輸出的一一對(duì)應(yīng),也就是一

    2024年02月11日
    瀏覽(53)
  • 深度學(xué)習(xí)-循環(huán)神經(jīng)網(wǎng)絡(luò)-RNN實(shí)現(xiàn)股價(jià)預(yù)測(cè)-LSTM自動(dòng)生成文本

    深度學(xué)習(xí)-循環(huán)神經(jīng)網(wǎng)絡(luò)-RNN實(shí)現(xiàn)股價(jià)預(yù)測(cè)-LSTM自動(dòng)生成文本

    基于文本內(nèi)容及其前后信息進(jìn)行預(yù)測(cè) 基于目標(biāo)不同時(shí)刻狀態(tài)進(jìn)行預(yù)測(cè) 基于數(shù)據(jù)歷史信息進(jìn)行預(yù)測(cè) 序列模型:輸入或者輸出中包含有序列數(shù)據(jù)的模型 突出數(shù)據(jù)的前后序列關(guān)系 兩大特點(diǎn): 輸入(輸出)元素之間是具有順序關(guān)系。不同的順序,得到的結(jié)果應(yīng)該是不同的,比如“

    2024年01月24日
    瀏覽(60)
  • 【深度學(xué)習(xí)筆記】6_2 循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(recurrent neural network)

    【深度學(xué)習(xí)筆記】6_2 循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(recurrent neural network)

    注:本文為《動(dòng)手學(xué)深度學(xué)習(xí)》開源內(nèi)容,部分標(biāo)注了個(gè)人理解,僅為個(gè)人學(xué)習(xí)記錄,無抄襲搬運(yùn)意圖 上一節(jié)介紹的 n n n 元語法中,時(shí)間步 t t t 的詞 w t w_t w t ? 基于前面所有詞的條件概率只考慮了最近時(shí)間步的 n ? 1 n-1 n ? 1 個(gè)詞。如果要考慮比 t ? ( n ? 1 ) t-(n-1) t ?

    2024年03月12日
    瀏覽(22)
  • 【算法小記】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)相關(guān)原理與RNN、LSTM算法的使用

    【算法小記】深度學(xué)習(xí)——循環(huán)神經(jīng)網(wǎng)絡(luò)相關(guān)原理與RNN、LSTM算法的使用

    文中程序以Tensorflow-2.6.0為例 部分概念包含筆者個(gè)人理解,如有遺漏或錯(cuò)誤,歡迎評(píng)論或私信指正。 卷積神經(jīng)網(wǎng)絡(luò)在圖像領(lǐng)域取得了良好的效果,卷積核憑借優(yōu)秀的特征提取能力通過深層的卷積操作可是實(shí)現(xiàn)對(duì)矩形張量的復(fù)雜計(jì)算處理。但是生活中除了圖像這樣天然以矩陣形

    2024年01月25日
    瀏覽(21)
  • Python深度學(xué)習(xí)026:基于Pytorch的典型循環(huán)神經(jīng)網(wǎng)絡(luò)模型RNN、LSTM、GRU的公式及簡(jiǎn)潔案例實(shí)現(xiàn)(官方)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(也有翻譯為遞歸神經(jīng)網(wǎng)絡(luò))最典型的三種網(wǎng)絡(luò)結(jié)構(gòu)是: RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò)) LSTM(Long Short-Term Memory,長(zhǎng)短期記憶網(wǎng)絡(luò)) GRU(Gate Recurrent Unit,門控循環(huán)單元) 理解參數(shù)的含義非常重要,否則,你不知道準(zhǔn)備什么維度的輸入數(shù)據(jù)送入模型 先

    2023年04月22日
    瀏覽(25)
  • 人工智能:CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、DNN(深度神經(jīng)網(wǎng)絡(luò))的知識(shí)梳理

    卷積神經(jīng)網(wǎng)絡(luò)(CNN),也被稱為ConvNets或Convolutional Neural Networks,是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),主要用于處理和分析具有網(wǎng)格狀結(jié)構(gòu)的數(shù)據(jù),特別是圖像和視頻數(shù)據(jù)。CNN 在計(jì)算機(jī)視覺任務(wù)中表現(xiàn)出色,因?yàn)樗鼈兡軌蛴行У夭东@和識(shí)別圖像中的特征,具有平移不變性(transla

    2024年02月05日
    瀏覽(41)
  • 李宏毅機(jī)器學(xué)習(xí)筆記:RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    李宏毅機(jī)器學(xué)習(xí)筆記:RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    例如情景補(bǔ)充的情況,根據(jù)詞匯預(yù)測(cè)該詞匯所屬的類別。這個(gè)時(shí)候的 Taipi 則屬于目的地。但是,在訂票系統(tǒng)中, Taipi 也可能會(huì)屬于出發(fā)地。到底屬于目的地,還是出發(fā)地,如果不結(jié)合上下文,則很難做出判斷。因此,使用傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)解決不了問題,必須引入RNN。 如

    2024年02月10日
    瀏覽(26)
  • 【python,機(jī)器學(xué)習(xí),nlp】RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    【python,機(jī)器學(xué)習(xí),nlp】RNN循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent?Neural?Network),中文稱作循環(huán)神經(jīng)網(wǎng)絡(luò),它一般以序列數(shù)據(jù)為輸入,通過網(wǎng)絡(luò)內(nèi)部的結(jié)構(gòu)設(shè)計(jì)有效捕捉序列之間的關(guān)系特征,一般也是以序列形式進(jìn)行輸出。 因?yàn)镽NN結(jié)構(gòu)能夠很好利用序列之間的關(guān)系,因此針對(duì)自然界具有連續(xù)性的輸入序列,如人類的語言,語音等

    2024年01月18日
    瀏覽(25)
  • Pytorch 對(duì)比TensorFlow 學(xué)習(xí):Day 17-18: 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和LSTM

    Day 17-18: 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和LSTM 在這兩天的學(xué)習(xí)中,我專注于理解循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)的基本概念,并學(xué)習(xí)了它們?cè)谔幚硇蛄袛?shù)據(jù)時(shí)的應(yīng)用。 1.RNN和LSTM基礎(chǔ): RNN:了解了RNN是如何處理序列數(shù)據(jù)的,特別是它的循環(huán)結(jié)構(gòu)可以用于處理時(shí)間序列或連續(xù)

    2024年01月20日
    瀏覽(18)
  • 深度學(xué)習(xí)循環(huán)神經(jīng)網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種廣泛應(yīng)用于序列數(shù)據(jù)、自然語言處理等領(lǐng)域的神經(jīng)網(wǎng)絡(luò)。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入不僅取決于當(dāng)前輸入,還取決于之前的狀態(tài)。這使得循環(huán)神經(jīng)網(wǎng)絡(luò)可以對(duì)序列數(shù)據(jù)進(jìn)行建模,具有記憶和遞歸的能力。

    2024年02月13日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包