目錄
目錄
簡(jiǎn)介
閱讀指南
1. 深度學(xué)習(xí)簡(jiǎn)介
2. 預(yù)備知識(shí)
3. 深度學(xué)習(xí)基礎(chǔ)
4. 深度學(xué)習(xí)計(jì)算
5. 卷積神經(jīng)網(wǎng)絡(luò)
6. 循環(huán)神經(jīng)網(wǎng)絡(luò)
7. 優(yōu)化算法
8. 計(jì)算性能
9. 計(jì)算機(jī)視覺(jué)
10. 自然語(yǔ)言處理
環(huán)境
參考(大家可以在這里下載代碼)
原書(shū)地址(大家可以在這里閱讀電子版PDF內(nèi)容)
引用
閱讀指南
目錄
簡(jiǎn)介
閱讀指南
1. 深度學(xué)習(xí)簡(jiǎn)介
2. 預(yù)備知識(shí)
2.1 環(huán)境配置
2.2 數(shù)據(jù)操作
2.3 自動(dòng)求梯度
3. 深度學(xué)習(xí)基礎(chǔ)
3.1 線性回歸
3.2 線性回歸的從零開(kāi)始實(shí)現(xiàn)
3.3 線性回歸的簡(jiǎn)潔實(shí)現(xiàn)
3.4 softmax回歸
3.5 圖像分類(lèi)數(shù)據(jù)集(Fashion-MNIST)
3.6 softmax回歸的從零開(kāi)始實(shí)現(xiàn)
3.7 softmax回歸的簡(jiǎn)潔實(shí)現(xiàn)
3.8 多層感知機(jī)
3.9 多層感知機(jī)的從零開(kāi)始實(shí)現(xiàn)
3.10 多層感知機(jī)的簡(jiǎn)潔實(shí)現(xiàn)
3.11 模型選擇、欠擬合和過(guò)擬合
3.12 權(quán)重衰減
3.13 丟棄法
3.14 正向傳播、反向傳播和計(jì)算圖
3.15 數(shù)值穩(wěn)定性和模型初始化
3.16 實(shí)戰(zhàn)Kaggle比賽:房?jī)r(jià)預(yù)測(cè)
4. 深度學(xué)習(xí)計(jì)算
4.1 模型構(gòu)造
4.2 模型參數(shù)的訪問(wèn)、初始化和共享
4.3 模型參數(shù)的延后初始化
4.4 自定義層
4.5 讀取和存儲(chǔ)
4.6 GPU計(jì)算
5. 卷積神經(jīng)網(wǎng)絡(luò)
5.1 二維卷積層
5.2 填充和步幅
5.3 多輸入通道和多輸出通道
5.4 池化層
5.5 卷積神經(jīng)網(wǎng)絡(luò)(LeNet)
5.6 深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet)
5.7 使用重復(fù)元素的網(wǎng)絡(luò)(VGG)
5.8 網(wǎng)絡(luò)中的網(wǎng)絡(luò)(NiN)
5.9 含并行連結(jié)的網(wǎng)絡(luò)(GoogLeNet)
5.10 批量歸一化
5.11 殘差網(wǎng)絡(luò)(ResNet)
5.12 稠密連接網(wǎng)絡(luò)(DenseNet)
6. 循環(huán)神經(jīng)網(wǎng)絡(luò)
6.1 語(yǔ)言模型
6.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
6.3 語(yǔ)言模型數(shù)據(jù)集(周杰倫專(zhuān)輯歌詞)
6.4 循環(huán)神經(jīng)網(wǎng)絡(luò)的從零開(kāi)始實(shí)現(xiàn)
6.5 循環(huán)神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)潔實(shí)現(xiàn)
6.6 通過(guò)時(shí)間反向傳播
6.7 門(mén)控循環(huán)單元(GRU)
6.8 長(zhǎng)短期記憶(LSTM)
6.9 深度循環(huán)神經(jīng)網(wǎng)絡(luò)
6.10 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
7. 優(yōu)化算法
7.1 優(yōu)化與深度學(xué)習(xí)
7.2 梯度下降和隨機(jī)梯度下降
7.3 小批量隨機(jī)梯度下降
7.4 動(dòng)量法
7.5 AdaGrad算法
7.6 RMSProp算法
7.7 AdaDelta算法
7.8 Adam算法
8. 計(jì)算性能
8.1 命令式和符號(hào)式混合編程
8.2 異步計(jì)算
8.3 自動(dòng)并行計(jì)算
8.4 多GPU計(jì)算
9. 計(jì)算機(jī)視覺(jué)
9.1 圖像增廣
9.2 微調(diào)
9.3 目標(biāo)檢測(cè)和邊界框
9.4 錨框
9.5 多尺度目標(biāo)檢測(cè)
9.6 目標(biāo)檢測(cè)數(shù)據(jù)集(皮卡丘)
?9.7 單發(fā)多框檢測(cè)(SSD)
9.8 區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)系列
9.9 語(yǔ)義分割和數(shù)據(jù)集
?9.10 全卷積網(wǎng)絡(luò)(FCN)
9.11 樣式遷移
?9.12 實(shí)戰(zhàn)Kaggle比賽:圖像分類(lèi)(CIFAR-10)
?9.13 實(shí)戰(zhàn)Kaggle比賽:狗的品種識(shí)別(ImageNet Dogs)
10. 自然語(yǔ)言處理
10.1 詞嵌入(word2vec)
10.2 近似訓(xùn)練
10.3 word2vec的實(shí)現(xiàn)
10.4 子詞嵌入(fastText)
10.5 全局向量的詞嵌入(GloVe)
10.6 求近義詞和類(lèi)比詞
10.7 文本情感分類(lèi):使用循環(huán)神經(jīng)網(wǎng)絡(luò)
10.8 文本情感分類(lèi):使用卷積神經(jīng)網(wǎng)絡(luò)(textCNN)
10.9 編碼器—解碼器(seq2seq)
10.10 束搜索
10.11 注意力機(jī)制
10.12 機(jī)器翻譯
環(huán)境
matplotlib==3.3.2
torch==1.1.0
torchvision==0.3.0
torchtext==0.4.0
CUDA Version==11.0
參考(大家可以在這里下載代碼)
本書(shū)PyTorch實(shí)現(xiàn):Dive-into-DL-PyTorch
本書(shū)TendorFlow2.0實(shí)現(xiàn):Dive-into-DL-TensorFlow2.0
原書(shū)地址(大家可以在這里閱讀電子版PDF內(nèi)容)
中文版:動(dòng)手學(xué)深度學(xué)習(xí)?|?Github倉(cāng)庫(kù)
English Version:?Dive into Deep Learning?|?Github Repo
引用
如果您在研究中使用了這個(gè)項(xiàng)目請(qǐng)引用原書(shū):
@book{zhang2019dive,
? ? title={Dive into Deep Learning},
? ? author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
? ? note={\url{http://www.d2l.ai}},
? ? year={2020}
}
閱讀指南
和原書(shū)一樣,docs內(nèi)容大體可以分為3個(gè)部分:
第一部分(第1章至第3章)涵蓋預(yù)備工作和基礎(chǔ)知識(shí)。第1章介紹深度學(xué)習(xí)的背景。第2章提供動(dòng)手學(xué)深度學(xué)習(xí)所需要的預(yù)備知識(shí)。第3章包括深度學(xué)習(xí)最基礎(chǔ)的概念和技術(shù),如多層感知機(jī)和模型正則化。如果讀者時(shí)間有限,并且只想了解深度學(xué)習(xí)最基礎(chǔ)的概念和技術(shù),那么只需閱讀第一部分。
第二部分(第4章至第6章)關(guān)注現(xiàn)代深度學(xué)習(xí)技術(shù)。第4章描述深度學(xué)習(xí)計(jì)算的各個(gè)重要組成部分,并為實(shí)現(xiàn)后續(xù)更復(fù)雜的模型打下基礎(chǔ)。第5章解釋近年來(lái)令深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域大獲成功的卷積神經(jīng)網(wǎng)絡(luò)。第6章闡述近年來(lái)常用于處理序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)。閱讀第二部分有助于掌握現(xiàn)代深度學(xué)習(xí)技術(shù)。
第三部分(第7章至第10章)討論計(jì)算性能和應(yīng)用。第7章評(píng)價(jià)各種用來(lái)訓(xùn)練深度學(xué)習(xí)模型的優(yōu)化算法。第8章檢驗(yàn)影響深度學(xué)習(xí)計(jì)算性能的幾個(gè)重要因素。第9章和第10章分別列舉深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理中的重要應(yīng)用。這部分內(nèi)容讀者可根據(jù)興趣選擇閱讀。
下圖描繪了《動(dòng)手學(xué)深度學(xué)習(xí)》的結(jié)構(gòu)。
上圖中由甲章指向乙章的箭頭表明甲章的知識(shí)有助于理解乙章的內(nèi)容。
如果讀者想短時(shí)間了解深度學(xué)習(xí)最基礎(chǔ)的概念和技術(shù),只需閱讀第1章至第3章;
如果讀者希望掌握現(xiàn)代深度學(xué)習(xí)技術(shù),還需閱讀第4章至第6章。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-423040.html
第7章至第10章讀者可以根據(jù)興趣選擇閱讀。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-423040.html
到了這里,關(guān)于一篇文章搞定《動(dòng)手學(xué)深度學(xué)習(xí)》-(李沐)PyTorch版本的所有內(nèi)容的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!