說明:這是一個機器學(xué)習(xí)實戰(zhàn)項目(附帶數(shù)據(jù)+代碼+文檔+視頻講解),如需數(shù)據(jù)+代碼+文檔+視頻講解可以直接到文章最后獲取。
1.項目背景
LSTM網(wǎng)絡(luò)是目前更加通用的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),全稱為Long?Short-Term?Memory,翻譯成中文叫作“長‘短記憶’”網(wǎng)絡(luò)。讀的時候,“長”后面要稍作停頓,不要讀成“長短”記憶網(wǎng)絡(luò),因為那樣的話,就不知道記憶到底是長還是短。本質(zhì)上,它還是短記憶網(wǎng)絡(luò),只是用某種方法把“短記憶”盡可能延長了一些。
本項目通過基于PyTorch實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)分類模型。
2.數(shù)據(jù)獲取
本次建模數(shù)據(jù)來源于網(wǎng)絡(luò)(本項目撰寫人整理而成),數(shù)據(jù)項統(tǒng)計如下:
數(shù)據(jù)詳情如下(部分展示):
3.數(shù)據(jù)預(yù)處理
3.1?用Pandas工具查看數(shù)據(jù)
使用Pandas工具的head()方法查看前五行數(shù)據(jù):
關(guān)鍵代碼:
3.2 數(shù)據(jù)缺失查看
使用Pandas工具的info()方法查看數(shù)據(jù)信息:
從上圖可以看到,總共有11個變量,數(shù)據(jù)中無缺失值,共2000條數(shù)據(jù)。
3.3?數(shù)據(jù)描述性統(tǒng)計
通過Pandas工具的describe()方法來查看數(shù)據(jù)的平均值、標準差、最小值、分位數(shù)、最大值。
?
關(guān)鍵代碼如下:
4.探索性數(shù)據(jù)分析
4.1?y變量柱狀圖
用Matplotlib工具的plot()方法繪制柱狀圖:
4.2 y=1樣本x1變量分布直方圖
用Matplotlib工具的hist()方法繪制直方圖:
4.3 相關(guān)性分析?
?
從上圖中可以看到,數(shù)值越大相關(guān)性越強,正值是正相關(guān)、負值是負相關(guān)。
5.特征工程
5.1 建立特征數(shù)據(jù)和標簽數(shù)據(jù)
關(guān)鍵代碼如下:
?
5.2 數(shù)據(jù)集拆分
通過train_test_split()方法按照80%訓(xùn)練集、20%測試集進行劃分,關(guān)鍵代碼如下:
6.構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)分類模型
主要使用LSTM層網(wǎng)絡(luò),用于目標分類。
6.1?模型構(gòu)建
7. 模型評估
7.1 評估指標及結(jié)果
評估指標主要包括準確率、查準率、查全率(召回率)、F1分值等等。
?
通過上表可以看到,模型的準確率為93%,F1分值為0.9271,模型效果良好。
7.2 分類報告
?
從上圖可以看出,分類為0的F1分值為0.93;分類為1的F1分值為0.93。
7.3 混淆矩陣
?
從上圖可以看出,實際為0預(yù)測不為0的 有8個樣本;實際為1?預(yù)測不為1的,?有20個樣本。
8.結(jié)論與展望
綜上所述,本項目基于PyTorch實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)分類模型并對模型進行了評估,最終證明了我們提出的模型效果良好。
# 本次機器學(xué)習(xí)項目實戰(zhàn)所需的資料,項目資源如下:
# 項目說明:
# 鏈接:https://pan.baidu.com/s/1LufUBs4qm5_Jle_S4OdNoA
# 提取碼:6z55
?更多項目實戰(zhàn),詳見機器學(xué)習(xí)項目實戰(zhàn)合集列表:文章來源:http://www.zghlxwxcb.cn/news/detail-603853.html
機器學(xué)習(xí)項目實戰(zhàn)合集列表_機器學(xué)習(xí)實戰(zhàn)項目_胖哥真不錯的博客-CSDN博客文章來源地址http://www.zghlxwxcb.cn/news/detail-603853.html
到了這里,關(guān)于Python基于PyTorch實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)分類模型(LSTM分類算法)項目實戰(zhàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!