国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch基礎 神經網絡構建

這篇具有很好參考價值的文章主要介紹了pytorch基礎 神經網絡構建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

www.ai-xlab.com
AI MOOC
Torch介紹
Torch是一個開源的機器學習的框架,早在2002年就發(fā)
布了Torch的初版,Torch的編程語言為C和Lua。如今
的Torch7依舊是熱門的深度學習框架之一。 www.ai-xlab.com
AI MOOC
PyTorch介紹
PyTorch是在2017年1月由Facebook推出的。它是經
典機器學習庫Torch框架的一個端口,主要編程語言為
python。
PyTorch“曾經”的優(yōu)點是動態(tài)圖
PyTorch現在的優(yōu)點是開源代碼和開源社區(qū) www.ai-xlab.com
AI MOOC
各種深度學習框架介紹
Torch: 2002年發(fā)布,早期的機器學習框架。
Theano: 2008年開發(fā),第一個影響力較大的python深度學習框架。
CNTK: 2016年1月由微軟公司開源,在語音領域效果比較突出。
TensorFlow: 2015年11月Google開源,目前最熱門深度學習框架之一。
Keras: 以Theano/Tensorflow/CNTK作為底層,最容易使用的深度學習框架。
Caffe/Caffe2: 2013年開源的C++深度學習框架,曾經計算機視覺領域的王者。
MXNet: 2015年發(fā)布,AWS云計算的官方深度學習平臺。
Paddle: 2016年8月開源的百度深度學習框架。
PyTorch: 2017年開源,Torch的python版本,目前最有潛力,最熱門的深度學
習框架之一。 www.ai-xlab.com
AI MOOC
安裝 url? ? PyTorch? ? PyTorch
www.ai-xlab.com
AI MOOC
MNIST數據集介紹
2 www.ai-xlab.com
AI MOOC
MNIST數據集
MNIST數據集官網: Yann LeCun’s Website
下載下來的數據集被分成兩部分:60000行的訓練數據集(mnist.train)和
10000行的測試數據集(mnist.test) www.ai-xlab.com
AI MOOC
MNIST的數據
一張圖片包含28*28個像素,我們把這一個數組展開成一個向量,長度是28*28=784。
如果把數據用矩陣表示,可以把MNIST訓練數據變成一個形狀為 [60000, 784] 的矩陣,
第一個維度數字用來索引圖片,第二個維度數字用來索引每張圖片中的像素點。圖片里
的某個像素的強度值介于0-1之間。 www.ai-xlab.com
AI MOOC
MNIST的數據 www.ai-xlab.com
AI MOOC
獨熱編碼(one-hot)
? MNIST數據集的標簽是介于0-9的數字,我們要把標簽轉化為“one-hot
vectors”。一個one-hot向量除了某一位數字是1以外,其余維度數字都是0,
比如標簽0將表示為([1,0,0,0,0,0,0,0,0,0]),標簽3將表示為
([0,0,0,1,0,0,0,0,0,0]) 。
? 因此,可以把MNIST訓練集的標簽變?yōu)?[60000, 10] 的矩陣。 www.ai-xlab.com
AI MOOC
Softmax函數介紹
3 www.ai-xlab.com
AI MOOC
Softmax激活函數
在多分類問題中,我們通常會使用softmax函數作為網絡輸出層的激活函數,
softmax函數可以對輸出值進行歸一化操作,把所有輸出值都轉化為概率,所有概率
值加起來等于1,softmax的公式為:
??????????????(??? ?? =
?
ex p( ??
??
σ ??
?
ex p( ??
?? www.ai-xlab.com
AI MOOC
Softmax計算例子
例如某個神經網絡有3個輸出值,為[1,5,3]。
計算e1=2.718,e5=148.413,e3=20.086,e1+e5+e3=171.217。
p1 = ??
1
?? 1 +
??
5 +?? 3 = 0.016 , p2 = ??
5
?? 1 +
??
5 +?? 3 = 0.867 , p3 = ??
3
?? 1 +
??
5 +?? 3 = 0.117 。
所以加上softmax函數后數值變成了[0.016,0.867,0.117]。
例如手寫數字識別的網絡最后的輸出結果本來是:
[-0.124, -4.083, -0.62, 0.899, -1.193, -0.701, -2.834, 6.925, -0.332, 2.064],
加上softmax函數后會變成:
[0.001, 0.0, 0.001, 0.002, 0.0, 0.0, 0.0, 0.987, 0.001, 0.008]。 www.ai-xlab.com
AI MOOC
交叉熵
4 www.ai-xlab.com
AI MOOC
二次代價函數
二次代價函數:
激活函數的梯度f’(z)越大,w的大小調整得越快,訓練收斂得就越
快。激活函數的梯度f’(z)越小,w的大小調整得越慢,訓練收斂得
就越慢。 www.ai-xlab.com
AI MOOC
二次代價函數
以一個二分類問題為例,進行兩組實驗。輸入同一個樣本數據x=1.0,該樣本對應
的分類為y=0,使用sigmoid激活函數。 www.ai-xlab.com
AI MOOC
二次代價函數 www.ai-xlab.com
AI MOOC
交叉熵(Cross-Entropy)
換一個思路,我們不改變激活函數,而是改變代價函數,
該用交叉熵代價函數:
對于sigmoid函數: www.ai-xlab.com
AI MOOC
過擬合
5 www.ai-xlab.com
AI MOOC
回歸擬合
欠擬合(Underfitting)
正確擬合(Just right)
過擬合(Overfitting) www.ai-xlab.com
AI MOOC
分類擬合
x 1
x 2
x 1
x 2
x 1
x 2
欠擬合(Underfitting)
正確擬合(Just right)
過擬合(Overfitting) www.ai-xlab.com
AI MOOC
過擬合導致測試誤差變大 www.ai-xlab.com
AI MOOC
防止過擬合
6 www.ai-xlab.com
AI MOOC
增大數據集
數據挖掘領域流行著這樣一句話,“有時候擁有更多的數據勝過一個
好的模型”。一般來說更多的數據參與訓練,訓練得到的模型就越好。
如果數據太少,而我們構建的神經網絡又太復雜的話就比較容易產生
過擬合的現象。 www.ai-xlab.com
AI MOOC
增大圖片數據集
1.隨機裁剪
2.水平翻轉
3.光照顏色抖動 www.ai-xlab.com
AI MOOC
Early stopping
在訓練模型的時候,我們往往會設置一個比較大的迭代次數。Early
stopping便是一種提前結束訓練的策略用來防止過擬合。
一般的做法是記錄到目前為止最好的validation accuracy,當連續(xù)10個
Epoch沒有達到最佳accuracy時,則可以認為accuracy不再提高了。此
時便可以停止迭代了(Early Stopping)。 www.ai-xlab.com
AI MOOC
Dropout www.ai-xlab.com
AI MOOC
正則化項
C0代表原始的代價函數,n代表樣本的個數,λ就是正則項系數,
權衡正則項與C0項的比重。
L1正則化:
L2正則化:
L1正則化可以達到模型參
數稀疏化的效果
L2正則化可以使得模型的權
值衰減,使模型參數值都接
近于0。 www.ai-xlab.com
AI MOOC
正則化項 www.ai-xlab.com
AI MOOC
優(yōu)化器
7 www.ai-xlab.com
AI MOOC
Adadelta
Adagrad
Adam
Adamax
AdamW
ASGD
LBFGS
RMSprop
Rprop
SGD
SparseAdam
優(yōu)化器 www.ai-xlab.com
AI MOOC
優(yōu)化器 www.ai-xlab.com
www.ai-xlab.com
AI MOOC
卷積神經網絡CNN
1 www.ai-xlab.com
AI MOOC
卷積神經網絡是近年發(fā)展起來,并廣泛應用于圖像處理,NLP等領域的一
種多層神經網絡。
傳統(tǒng)BP處理圖像時的問題:
1.權值太多,計算量太大
2.權值太多,需要大量樣本
進行訓練。
CNN www.ai-xlab.com
AI MOOC
1962年哈佛醫(yī)學院神經生理學家Hubel和Wiesel通過對貓視覺皮層細
胞的研究,提出了感受野(receptive field)的概念,1984年日本學者
Fukushima基于感受野概念提出的神經認知機(neocognitron)可以看
作是卷積神經網絡的第一個實現網絡,也是感受野概念在人工神經網
絡領域的首次應用。
局部感受野 www.ai-xlab.com
AI MOOC
CNN通過 局部感受野 權值共享 減少了神經網絡需要訓練的參數個數
局部感受野和權值共享 www.ai-xlab.com
AI MOOC
1*1+1*0+1*1+0*0+1*1+1*0+0*1+0*0+1*1 = 4
特征圖:feature map
卷積核/濾波器
卷積計算 www.ai-xlab.com
AI MOOC
步長為1
步長為2
不同步長的卷積 www.ai-xlab.com
AI MOOC
濾波器 www.ai-xlab.com
AI MOOC
Pooling常用的三種方式:
1.max-pooling
2.mean-pooling
3.stochastic pooling
池化Pooling www.ai-xlab.com
AI MOOC
SAME PADDING:
給平面外部補0
卷積窗口采樣后得到一個跟原來大小相同的平面
VALID PADDING:
不會超出平面外部
卷積窗口采樣后得到一個比原來平面小的平面
VALID PADDING
SAME PADDING
Padding www.ai-xlab.com
AI MOOC
SAME PADDING
VALID PADDING
Padding www.ai-xlab.com
AI MOOC
SAME PADDING:可能會給平面外部補0
VALID PADDING:不會超出平面外部
假如有一個28*28的平面,用2*2步長為2的窗口對其進行卷積/池化操作
使用SAME PADDING的方式,得到14*14的平面
使用VALID PADDING的方式,得到14*14的平面
假如有一個2*3的平面,用2*2步長為2的窗口對其進行卷積/池化操作
使用SAME PADDING的方式,得到1*2的平面
使用VALID PADDING的方式,得到1*1的平面
Padding www.ai-xlab.com
AI MOOC
LeNET-5 是最早的卷積神經網絡之一,曾廣泛用于美國銀行。手寫
數字識別正確率在99%以上。
卷積窗口:5*5
步長:1
池化窗口:2*2
步長:2
卷積窗口:5*5
步長:1
池化窗口:2*2
步長:2
卷積層
池化層 卷積層
池化層
輸入層
全鏈接層 全鏈接層
輸出層
LeNET-5 www.ai-xlab.com
AI MOOC
可視化:
http://scs.ryerson.ca/~aharley/vis/conv/
http://scs.ryerson.ca/~aharley/vis/conv/flat.html
LeNET-5 www.ai-xlab.com
AI MOOC
ImageNet介紹
2 www.ai-xlab.com
AI MOOC
ImageNet是一個計算機視覺系統(tǒng)識別項目,是目前世界上圖像識別最大
的數據庫。一共有1500萬張左右的圖片,被分為22000個左右的類。是
由斯坦福教授李飛飛領導建立的。
TED演講:我們怎么教計算機理解圖片?
ImageNet www.ai-xlab.com
AI MOOC
1976年出生于北京,長在四川,16歲隨父母移居美國新澤西州。
1999年畢業(yè)于普林斯頓大學,2005年獲得加州理工學院電子工程博士。
2009年加入斯坦福大學擔任助理教授,并于2012年擔任副教授(終生教授),和
斯坦福人工智能實驗室與視覺實驗室主任。
2017年1月入職Google,擔任谷歌云首席科學家
2018年9月卸任谷歌云首席科學家,回歸斯坦福大學當教授。
李飛飛 www.ai-xlab.com
AI MOOC
ILSVRC:ImageNet Large Scale Visual Recognition Challenge
ILSVRC www.ai-xlab.com
AI MOOC
ILSVRC:ImageNet Large Scale Visual Recognition Challenge
ILSVRC www.ai-xlab.com
AI MOOC
序列模型
3 www.ai-xlab.com
AI MOOC
RNN(Recurrent Neural Network)
1986年 Rumelhart 等人提出循環(huán)神經網絡(recurrent neural network),簡稱RNN。RNN
跟我們之前學習過的神經網絡都不太一樣,它是一種序列模型。比如卷積網絡是專門用來處
理網格化數據(例如圖像數據)的神經網絡,RNN是專門用來處理序列數據的神經網絡。所
謂的序列數據指的是跟序列相關的數據,比如一段語音,一首歌曲,一段文字,一段錄像等。 www.ai-xlab.com
AI MOOC
序列模型應用:語音識別
把語音轉換成為文字 www.ai-xlab.com
AI MOOC
序列模型應用:文本分類
把文章,郵件或用戶評論等文本數據做分類 www.ai-xlab.com
AI MOOC
序列模型應用:機器翻譯
例如把中文翻譯成英文 www.ai-xlab.com
AI MOOC
序列模型應用:分詞標注
給一段文字做分詞標注,標注每個字對應的標號。假如使用4-tag(BMES)標注標簽,
B表示詞的起始位置,M表示詞的中間位置,E表示詞的結束位置,S表示單字詞。
可以得到類似如下結果:
“人/B 們/E 常/S 說/S 生/B 活/E 是/S 一/S 部/S 教/B 科/M 書/E ” www.ai-xlab.com
AI MOOC
RNN(Recurrent Neural Network) www.ai-xlab.com
AI MOOC
RNN(Recurrent Neural Network)
隱層 h t 接收的是上時刻的隱層(hidden layer)
h t?1
還是上時刻的輸出(output layer)y t?1 ,
可以分成了兩種 RNN:
Elman network 接收上時刻的隱層 h t?1
Jordan network 接收上時刻的輸出 y t?1 www.ai-xlab.com
AI MOOC
RNN一個重要的用法就是通過之前的信息來決策當前的問題。
比如就像我們看電影,我們要根據電影之前的情節(jié),才能理解現在的情節(jié)。
例子1:有一朵云飄在()
例子2:我從小生長在美國。。。我可以說一口流利的()
RNN(Recurrent Neural Network) www.ai-xlab.com
AI MOOC
RNN(Recurrent Neural Network) www.ai-xlab.com
AI MOOC
長短時記憶網絡LSTM
4 www.ai-xlab.com
AI MOOC
i t 輸入門信號
f t 忘記門信號
?? ?? Cell輸入信號
c t Cell輸出信號
o t 輸出門信號
h t block輸出信號
x t 第t個序列輸入
h t-1 第t-1個序列輸出
σ g sigmoid函數
σ c tanh函數
σ h tanh函數或線性函數
LSTM(Long Short Term Memory) www.ai-xlab.com
AI MOOC
Peephole LSTM
和之前的公式做比較,發(fā)現只是把 h t?1 都換成
了 c t?1 ,即三個門的輸入都改成了 [x t ,c t?1 ] 。因
為是從 cell state 里取得信息,所以叫窺視孔(
peephole)。 www.ai-xlab.com
AI MOOC
FC-LSTM(Fully-connected LSTM )
三個輸入分別是 [x t ,h t?1 ,c t?1 ] www.ai-xlab.com
AI MOOC
LSTM(Long Short Term Memory) www.ai-xlab.com
AI MOOC
LSTM(Long Short Term Memory) www.ai-xlab.com
AI MOOC
門控循環(huán)單元GRU
5 www.ai-xlab.com
AI MOOC
GRU(Gated Recurrent Unit)
GRU 這個結構是 2014 年才出現的,效果跟
LSTM差不多,但是用到的參數更少。將忘記
門和輸入門合成了一個單一的更新門。
z t 是更新門(update gate),決定h t 的更新情況
r t 是重置門(reset gate),決定是否要放棄h t-1
?
?
?? 是候選輸出,接收 [x t ,h t?1 ]
h t 是當前輸出,接收 [h t?1 ,
?
?
?? ] www.ai-xlab.com
AI MOOC
其他RNN模型
6 www.ai-xlab.com
AI MOOC
雙向RNN(Bidirectional RNNs)
雙向的 RNN 是同時考慮“過去”和“未來”的信息,輸入(黑色點)沿著黑色的實線箭
頭傳輸到隱層(黃色點),再沿著紅色實線傳到輸出(紅色點)。黑色實線做完前向傳播
后,在 Bidirectional RNNs 卻先不急著后向傳播,而是從末尾的時刻沿著虛線的方向再回
傳回來。 www.ai-xlab.com
AI MOOC
Stacked Bidirectional RNNs
圖中是雙向的三層 RNNs,堆疊多層的RNN網絡,可以增加模型的參數,提高模型的擬合
能力。每層的 hidden state 不僅要輸給下一時刻,還是當做是此時刻下一層的輸入。 www.ai-xlab.com
AI MOOC
THANKS

文章來源地址http://www.zghlxwxcb.cn/news/detail-811030.html

到了這里,關于pytorch基礎 神經網絡構建的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【人工智能概論】 構建神經網絡——以用InceptionNet解決MNIST任務為例

    【人工智能概論】 構建神經網絡——以用InceptionNet解決MNIST任務為例

    兩條原則,四個步驟。 從宏觀到微觀 把握數據形狀 準備數據 構建模型 確定優(yōu)化策略 完善訓練與測試代碼 InceptionNet的設計思路是通過增加網絡寬度來獲得更好的模型性能。 其核心在于基本單元Inception結構塊,如下圖: 通過縱向堆疊Inception塊構建完整網絡。 MNIST是入門級的

    2023年04月20日
    瀏覽(29)
  • pytorch基礎 神經網絡構建

    www.ai-xlab.com AI MOOC Torch介紹 Torch是一個開源的機器學習的框架,早在2002年就發(fā) 布了Torch的初版,Torch的編程語言為C和Lua。如今 的Torch7依舊是熱門的深度學習框架之一。 www.ai-xlab.com AI MOOC PyTorch介紹 PyTorch是在2017年1月由Facebook推出的。它是經 典機器學習庫Torch框架的一個端口,

    2024年01月21日
    瀏覽(33)
  • 【人工智能的數學基礎】使用Mitchell近似構造加法神經網絡

    使用Mitchell近似構造加法神經網絡. paper:Deep Neural Network Training without Multiplications arXiv:link 本文通過 Mitchell 近似算法將乘法運算轉變?yōu)榧臃ㄟ\算,從而降低了神經網絡中的乘法的運算量。 Mitchell 近似是一種在二進制下近似的 快速對數 和 指數 計算方法。對于一個十進制的非

    2024年02月07日
    瀏覽(26)
  • 人工智能學習與實訓筆記(一):零基礎理解神經網絡

    人工智能學習與實訓筆記(一):零基礎理解神經網絡

    人工智能專欄文章匯總:人工智能學習專欄文章匯總-CSDN博客 本篇目錄 一、什么是神經網絡模型 二、機器學習的類型 2.1 監(jiān)督學習 2.2 無監(jiān)督學習 2.3 半監(jiān)督學習 2.4 強化學習 三、網絡模型結構基礎 3.1 單層網絡 ?編輯 3.2 多層網絡 3.3?非線性多層網絡 ?四、 神經網絡解決回

    2024年02月20日
    瀏覽(32)
  • 人工智能學習與實訓筆記(四):神經網絡之NLP基礎—詞向量

    人工智能學習與實訓筆記(四):神經網絡之NLP基礎—詞向量

    人工智能專欄文章匯總:人工智能學習專欄文章匯總-CSDN博客 本篇目錄 四、自然語言處理 4.1 詞向量 (Word Embedding) 4.1.1 詞向量的生成過程 4.1.2 word2vec介紹 4.1.3 word2vec:skip-gram算法的實現 4.2 句向量 - 情感分析 4.2.1 LSTM (Long Short-Term Memory)介紹 4.2.2 基于飛槳實現的情感分析模型

    2024年02月20日
    瀏覽(23)
  • 【人工智能】實驗五 采用卷積神經網絡分類MNIST數據集與基礎知識

    熟悉和掌握 卷積神經網絡的定義,了解網絡中卷積層、池化層等各層的特點,并利用卷積神經網絡對MNIST數據集進行分類。 編寫卷積神經網絡分類軟件,編程語言不限,如Python等,以MNIST數據集為數據,實現對MNIST數據集分類操作,其中MNIST數據集共10類,分別為手寫0—9。

    2024年02月04日
    瀏覽(93)
  • 深度學習基礎——通過PyTorch構建神經網絡實現1維/2維序列分類

    深度學習基礎——通過PyTorch構建神經網絡實現1維/2維序列分類

    通過PyTorch構建前饋神經網絡,并對二維數據點進行分類。在該例子當中,所有的訓練數據和測試數據都是通過高斯混合模型GMM生成的: 更換使用循環(huán)神經網絡RNN模型,進行1維序列分類任務。 為了簡化問題,我們假定: 序列的長度是固定的。我們將其長度設為T=4。 我們只有

    2024年02月11日
    瀏覽(32)
  • 人工智能 -- 神經網絡

    人工智能 -- 神經網絡

    什么是人工智能?通俗來講,就是讓機器能像人一樣思考。這個無需解釋太多,因為通過各種科幻電影我們已經對人工智能很熟悉了。大家現在感興趣的應該是——如何實現人工智能? 從1956年夏季首次提出“人工智能”這一術語開始,科學家們嘗試了各種方法來實現它。這

    2024年02月05日
    瀏覽(24)
  • 人工智能-神經網絡

    人工智能-神經網絡

    目錄 1 神經元 2 MP模型 3 激活函數 ? ? ? 3.1 激活函數 ? ? ? 3.2 激活函數作用 ? ? ? 3.3?激活函數有多種 4、神經網絡模型 5、神經網絡應用 6、存在的問題及解決方案 6.1 存在問題 6.2 解決方案-反向傳播 ? ? ? ?神經元是主要由 樹突、軸突、突出 組成, 樹突 是從上面接收很

    2024年02月16日
    瀏覽(27)
  • 人工智能神經網絡概念股,神經網絡芯片概念股

    人工智能神經網絡概念股,神經網絡芯片概念股

    人工智能包含硬件智能、軟件智能和其他。 硬件智能包括:漢王科技、康力電梯、慈星股份、東方網力、高新興、紫光股份。 軟件智能包括:金自天正、科大訊飛。 其他類包括:中科曙光、京山輕機。 谷歌人工智能寫作項目:小發(fā)貓 1、蘇州科達:蘇州科達科技股份有限公

    2024年02月07日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包