作為一名機(jī)器學(xué)習(xí)|深度學(xué)習(xí)的博主,想和大家分享幾本深度學(xué)習(xí)的書籍,讓大家更快的入手深度學(xué)習(xí),成為AI達(dá)人!今天給大家介紹的是:《Python深度學(xué)習(xí) 基于Pytorch》
一、背景
在人工智能時(shí)代,如何盡快掌握人工智能的核心—深度學(xué)習(xí)呢?相信這是每個(gè)欲進(jìn)入此領(lǐng)域的人面臨的主要問(wèn)題。目前,深度學(xué)習(xí)框架很多,如TensorFlow、PyTorch、Keras、FastAI、CNTK等。
面對(duì)眾多的深度學(xué)習(xí)框架,初學(xué)者應(yīng)如何選擇?哪個(gè)框架既易于上手,又在工業(yè)界有廣泛應(yīng)用?毫無(wú)疑問(wèn),PyTorch是不二之選。一方面,PyTorch天然與Python結(jié)合,大大降低了深度學(xué)習(xí)的門檻;另一方面,它的流行度僅次于TensorFlow,而且有趕超之勢(shì),但是上手難度卻比TensorFlow低很多。如果你是一位初學(xué)者,建議你選擇PyTorch,待有了一定的基礎(chǔ)之后,可以學(xué)習(xí)其他框架,如TensorFlow、CNTK等。
這是一本能指導(dǎo)讀者快速掌握PyTorch和深度學(xué)習(xí)的著作,從PyTorch的原理到應(yīng)用,從深度學(xué)習(xí)到強(qiáng)化學(xué)習(xí),本書提供了全棧解決方案。本書還涉及AIGC技術(shù)的核心內(nèi)容,本書第8章、第14重點(diǎn)介紹了注意力機(jī)制及Transformer架構(gòu)及其應(yīng)用,第10章、第16章介紹了生成式網(wǎng)絡(luò)核心架構(gòu)(如AE、VAE、GAN等),這些架構(gòu)包括降噪、重參數(shù)化等技術(shù),此外,本書還包括目標(biāo)檢測(cè)、強(qiáng)化學(xué)習(xí)等內(nèi)容。除理論、原理介紹外,還包括大量可動(dòng)手實(shí)踐的實(shí)例。
第1版上市后銷量和口碑俱佳,是深度學(xué)習(xí)領(lǐng)域的暢銷書,被譽(yù)為PyTorch領(lǐng)域的標(biāo)準(zhǔn)著作。第2版在第1版的基礎(chǔ)上,去蕪存菁,與時(shí)俱進(jìn),根據(jù)PyTorch新版本全面升級(jí),技術(shù)性、實(shí)戰(zhàn)性、豐富性、針對(duì)性、易讀性均得到了進(jìn)一步提升,必能幫助讀者更輕松、更高效地進(jìn)入深度學(xué)習(xí)的世界。幫助讀者低門檻進(jìn)入深度學(xué)習(xí)領(lǐng)域,輕松掌握深度學(xué)習(xí)的理論知識(shí)和實(shí)踐方法,快速實(shí)現(xiàn)從入門到進(jìn)階的轉(zhuǎn)變”是這本書的核心目標(biāo)。
二、內(nèi)容簡(jiǎn)介
本書分為三部分,共19章,第一部分為PyTorch基礎(chǔ),第二部分為深度學(xué)習(xí)基本原理,第三部分是實(shí)戰(zhàn)內(nèi)容。
- 第一部分(第1~4章)為Python和PyTorch基礎(chǔ)部分,也是本書的基礎(chǔ)部分,為后續(xù)學(xué)習(xí)打下一個(gè)堅(jiān)實(shí)基礎(chǔ)。第1章介紹了PyTorch的基石NumPy;第2章介紹PyTorch基礎(chǔ);第3、4章分別介紹PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)工具箱和數(shù)據(jù)處理工具箱等內(nèi)容。
- 第二部分(第5~10章)為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)部分,這是本書核心部分。第5章為機(jī)器學(xué)習(xí)基礎(chǔ);第6章為視覺(jué)處理基礎(chǔ);第7章介紹自然語(yǔ)言處理基礎(chǔ);第8章介紹注意力機(jī)制,詳解介紹Transformer架構(gòu);第9章介紹目標(biāo)檢測(cè)與語(yǔ)義分割;第10章介紹生成式深度學(xué)習(xí)相關(guān)內(nèi)容,包括AE,VAE,GAN、CGAN等模型。
- 第三部分(第11~19章)為深度學(xué)習(xí)實(shí)戰(zhàn),也即前面兩部分的具體應(yīng)用部分。這部分在介紹相關(guān)原理、架構(gòu)的基礎(chǔ)上,用PyTorch具體實(shí)現(xiàn)的典型實(shí)例,最后介紹了強(qiáng)化學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)等內(nèi)容。具體各章節(jié)內(nèi)容為,第11章用PyTorch實(shí)現(xiàn)人臉檢測(cè)和識(shí)別;第12章用PyTorch實(shí)現(xiàn)遷移學(xué)習(xí)、遷移學(xué)習(xí)結(jié)合數(shù)據(jù)增強(qiáng)等實(shí)例;第13章用PyTorch實(shí)現(xiàn)中英文互譯;第14章介紹了基于Transformer架構(gòu)的ViT進(jìn)行圖像分類;第15章為語(yǔ)義分割實(shí)例;第16章多個(gè)生成式網(wǎng)絡(luò)實(shí)例;第17章介紹對(duì)抗攻擊原理及PyTorch實(shí)現(xiàn)對(duì)抗攻擊實(shí)例;第18、19章介紹了強(qiáng)化學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)等基礎(chǔ)及多個(gè)強(qiáng)化學(xué)習(xí)實(shí)例。
更為重要的是,為了讓本書通俗易懂,在內(nèi)容安排和寫作方式上也頗花了一番心思。內(nèi)容選擇上,廣泛涉獵、重點(diǎn)突出、注重實(shí)戰(zhàn);內(nèi)容安排上,實(shí)例切入、由淺入深、循序漸進(jìn);表達(dá)形式上,深度抽象、化繁為簡(jiǎn)、用圖說(shuō)話。
三、新版特色
自本書第1版第1次于2019年10月印刷至今,已累計(jì)印刷了9次。在這3年的時(shí)間里,深度學(xué)習(xí)的發(fā)展可謂日新月異,其應(yīng)用范圍得到進(jìn)一步拓展,同時(shí)出現(xiàn)了很多新的框架、新的方向。
在眾多創(chuàng)新中,注意力機(jī)制是一個(gè)典型代表。注意力機(jī)制,尤其是以Transformer為基礎(chǔ)的一些模型,在自然語(yǔ)言處理(NLP)領(lǐng)域取得了目前最好的效果(如SOTA),近幾年研究人員把這種模型(如ViT模型、Swin-T模型等)應(yīng)用到計(jì)算機(jī)視覺(jué)領(lǐng)域,也取得了巨大成功。
為此,本書第2版增強(qiáng)了注意力機(jī)制的相關(guān)內(nèi)容,把注意力機(jī)制單獨(dú)列為一章(即第8章),同時(shí)增加了注意力機(jī)制的應(yīng)用實(shí)例,詳細(xì)內(nèi)容請(qǐng)參考第14章。
人工智能廣泛應(yīng)用于圖像、視頻、語(yǔ)音等諸多領(lǐng)域,比如人工智能在目標(biāo)檢測(cè)、語(yǔ)義分割等任務(wù)中的應(yīng)用日益受到大家的關(guān)注,所以在第2版中我們?cè)黾恿诉@方面的內(nèi)容,具體可參考第9章和第15章。
除了這些新增內(nèi)容外,第2版對(duì)很多原有內(nèi)容進(jìn)行了補(bǔ)充和完善,如PyTorch基礎(chǔ)、優(yōu)化算法、視覺(jué)處理基礎(chǔ)、自然語(yǔ)言處理基礎(chǔ)等內(nèi)容。
為便利大家更好理解本書,特提供PPT文檔
PPT文檔對(duì)書中內(nèi)容進(jìn)行提煉,并包括很多gif動(dòng)畫,便于更直觀理解相關(guān)原理和概念,此外,作為不少拓展,包括GPT-3、ChatGPT、Diffusion Model等內(nèi)容。
四、作者介紹
吳茂貴,資深大數(shù)據(jù)和人工智能技術(shù)專家,在BI、數(shù)據(jù)挖掘與分析、數(shù)據(jù)倉(cāng)庫(kù)、機(jī)器學(xué)習(xí)等領(lǐng)域工作超過(guò)20年。在基于Spark、TensorFlow、PyTorch等的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方面有大量的工程實(shí)踐經(jīng)驗(yàn)。著有《Python深度學(xué)習(xí):基于TensorFlow》《深度實(shí)踐Spark機(jī)器學(xué)習(xí)》《自己動(dòng)手做大數(shù)據(jù)系統(tǒng)》《深入淺出Embedding原理解析與應(yīng)用實(shí)踐》等暢銷書。
郁明敏,資深商業(yè)分析師,從事互聯(lián)網(wǎng)金融算法研究工作,專注于大數(shù)據(jù)、機(jī)器學(xué)習(xí)以及數(shù)據(jù)可視化的相關(guān)領(lǐng)域,擅長(zhǎng) Python、Hadoop、Spark 等技術(shù),擁有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。曾獲“江蘇省TI杯大學(xué)生電子競(jìng)技大賽”二等獎(jiǎng)和“華為杯全國(guó)大學(xué)生數(shù)學(xué)建模大賽”二等獎(jiǎng)。
楊本法,高級(jí)算法工程師,工業(yè)表面缺陷檢測(cè)設(shè)備開(kāi)發(fā)架構(gòu)師,在機(jī)器學(xué)習(xí)、文本挖掘、可視化等領(lǐng)域有多年實(shí)踐經(jīng)驗(yàn)。做過(guò)大型電商的推薦系統(tǒng),知名手機(jī)廠商外殼表面檢測(cè)設(shè)備。熟悉Hadoop、Spark生態(tài)圈的相關(guān)技術(shù),對(duì)Python有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。
李 濤 ,資深A(yù)I技術(shù)工程師,任職于攜程(上海)科技有限公司,負(fù)責(zé)酒店排序推薦相關(guān)項(xiàng)目的數(shù)據(jù)分析和算法開(kāi)發(fā),對(duì)計(jì)算機(jī)視覺(jué)技術(shù)和搜索推薦系統(tǒng)有深刻的理解和豐富的實(shí)踐經(jīng)驗(yàn)。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-407395.html
張粵磊 ,國(guó)云大數(shù)據(jù)學(xué)院院長(zhǎng),飛谷云創(chuàng)始人,畢業(yè)于中國(guó)科技大學(xué),原平安壹錢包大數(shù)據(jù)架構(gòu)師。業(yè)內(nèi)知名大數(shù)據(jù)專家,多部大數(shù)據(jù)暢銷書作者。2016年以來(lái)每年都以高級(jí)專家和咨詢顧問(wèn)身份深入?yún)⑴c大數(shù)據(jù)、人工智能技術(shù)在行業(yè)的落地應(yīng)用。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-407395.html
五、目錄
前言
第1版前言
第一部分 PyTorch基礎(chǔ)
第1章 NumPy基礎(chǔ)知識(shí)2
1.1 生成NumPy數(shù)組3
1.1.1 數(shù)組屬性4
1.1.2 利用已有數(shù)據(jù)生成數(shù)組4
1.1.3 利用 random 模塊生成數(shù)組5
1.1.4 生成特定形狀的多維數(shù)組7
1.1.5 利用arange、linspace
函數(shù)生成數(shù)組8
1.2 讀取數(shù)據(jù)9
1.3 NumPy的算術(shù)運(yùn)算11
1.3.1 逐元素操作11
1.3.2 點(diǎn)積運(yùn)算12
1.4 數(shù)組變形13
1.4.1 修改數(shù)組的形狀13
1.4.2 合并數(shù)組16
1.5 批處理19
1.6 節(jié)省內(nèi)存20
1.7 通用函數(shù)21
1.8 廣播機(jī)制23
1.9 小結(jié)24
第2章 PyTorch基礎(chǔ)知識(shí)25
2.1 為何選擇PyTorch25
2.2 PyTorch的安裝配置26
2.2.1 安裝CPU版PyTorch26
2.2.2 安裝GPU版PyTorch28
2.3 Jupyter Notebook環(huán)境配置30
2.4 NumPy與Tensor31
2.4.1 Tensor概述31
2.4.2 創(chuàng)建Tensor32
2.4.3 修改Tensor形狀34
2.4.4 索引操作35
2.4.5 廣播機(jī)制35
2.4.6 逐元素操作36
2.4.7 歸并操作37
2.4.8 比較操作37
2.4.9 矩陣操作38
2.4.10 PyTorch與NumPy比較39
2.5 Tensor與autograd39
2.5.1 自動(dòng)求導(dǎo)要點(diǎn)40
2.5.2 計(jì)算圖40
2.5.3 標(biāo)量反向傳播41
2.5.4 非標(biāo)量反向傳播42
2.5.5 切斷一些分支的反向傳播45
2.6 使用NumPy實(shí)現(xiàn)機(jī)器學(xué)習(xí)任務(wù)47
2.7 使用Tensor及autograd實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)49
2.8 使用優(yōu)化器及自動(dòng)微分實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)51
2.9 把數(shù)據(jù)集轉(zhuǎn)換為帶批量處理功能的
迭代器52
2.10 使用TensorFlow 2實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)54
2.11 小結(jié)55
第3章 PyTorch神經(jīng)網(wǎng)絡(luò)工具箱56
3.1 神經(jīng)網(wǎng)絡(luò)核心組件56
3.2 構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要工具57
3.2.1 nn.Module57
3.2.2 nn.functional58
3.3 構(gòu)建模型59
3.3.1 繼承nn.Module基類構(gòu)建模型59
3.3.2 使用nn.Sequential按層
順序構(gòu)建模型60
3.3.3 繼承nn.Module基類并應(yīng)用
模型容器來(lái)構(gòu)建模型63
3.3.4 自定義網(wǎng)絡(luò)模塊66
3.4 訓(xùn)練模型68
3.5 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)實(shí)例69
3.5.1 背景說(shuō)明69
3.5.2 準(zhǔn)備數(shù)據(jù)70
3.5.3 可視化源數(shù)據(jù)71
3.5.4 構(gòu)建模型72
3.5.5 訓(xùn)練模型72
3.6 小結(jié)74
第4章 PyTorch數(shù)據(jù)處理工具箱75
4.1 數(shù)據(jù)處理工具箱概述75
4.2 utils.data76
4.3 torchvision78
4.3.1 transforms78
4.3.2 ImageFolder79
4.4 可視化工具81
4.4.1 TensorBoard簡(jiǎn)介81
4.4.2 用TensorBoard可視化
神經(jīng)網(wǎng)絡(luò)82
4.4.3 用TensorBoard可視化損失值83
4.4.4 用TensorBoard可視化特征圖84
4.5 小結(jié)85
第二部分 深度學(xué)習(xí)基礎(chǔ)
第5 章 機(jī)器學(xué)習(xí)基礎(chǔ)88
5.1 機(jī)器學(xué)習(xí)的基本任務(wù)88
5.1.1 監(jiān)督學(xué)習(xí)89
5.1.2 無(wú)監(jiān)督學(xué)習(xí)89
5.1.3 半監(jiān)督學(xué)習(xí)90
5.1.4 強(qiáng)化學(xué)習(xí)90
5.2 機(jī)器學(xué)習(xí)的一般流程90
5.2.1 明確目標(biāo)91
5.2.2 收集數(shù)據(jù)91
5.2.3 數(shù)據(jù)探索與預(yù)處理91
5.2.4 選擇模型及損失函數(shù)91
5.2.5 評(píng)估及優(yōu)化模型92
5.3 過(guò)擬合與欠擬合93
5.3.1 權(quán)重正則化93
5.3.2 dropout正則化94
5.3.3 批量歸一化97
5.3.4 層歸一化99
5.3.5 權(quán)重初始化99
5.4 選擇合適的激活函數(shù)100
5.5 選擇合適的損失函數(shù)101
5.6 選擇合適的優(yōu)化器103
5.6.1 傳統(tǒng)梯度優(yōu)化算法104
5.6.2 批量隨機(jī)梯度下降法105
5.6.3 動(dòng)量算法106
5.6.4 Nesterov動(dòng)量算法108
5.6.5 AdaGrad算法109
5.6.6 RMSProp算法111
5.6.7 Adam算法112
5.6.8 Yogi算法113
5.6.9 使用優(yōu)化算法實(shí)例114
5.7 GPU加速116
5.7.1 單GPU加速116
5.7.2 多GPU加速117
5.7.3 使用GPU時(shí)的注意事項(xiàng)120
5.8 小結(jié)121
第6章 視覺(jué)處理基礎(chǔ)122
6.1 從全連接層到卷積層122
6.1.1 圖像的兩個(gè)特性123
6.1.2 卷積神經(jīng)網(wǎng)絡(luò)概述124
6.2 卷積層125
6.2.1 卷積核127
6.2.2 步幅129
6.2.3 填充130
6.2.4 多通道上的卷積131
6.2.5 激活函數(shù)134
6.2.6 卷積函數(shù)135
6.2.7 轉(zhuǎn)置卷積136
6.2.8 特征圖與感受野137
6.2.9 全卷積網(wǎng)絡(luò)138
6.3 池化層139
6.3.1 局部池化140
6.3.2 全局池化140
6.4 現(xiàn)代經(jīng)典網(wǎng)絡(luò)142
6.4.1 LeNet-5模型142
6.4.2 AlexNet模型143
6.4.3 VGG模型143
6.4.4 GoogLeNet模型144
6.4.5 ResNet模型145
6.4.6 DenseNet模型146
6.4.7 CapsNet模型148
6.5 使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)CIFAR10
多分類149
6.5.1 數(shù)據(jù)集說(shuō)明149
6.5.2 加載數(shù)據(jù)149
6.5.3 構(gòu)建網(wǎng)絡(luò)151
6.5.4 訓(xùn)練模型151
6.5.5 測(cè)試模型152
6.5.6 采用全局平均池化153
6.5.7 像Keras一樣顯示各層參數(shù)154
6.6 使用模型集成方法提升性能156
6.6.1 使用模型156
6.6.2 集成方法157
6.6.3 集成效果158
6.7 使用現(xiàn)代經(jīng)典模型提升性能158
6.8 小結(jié)159
第7章 自然語(yǔ)言處理基礎(chǔ)160
7.1 從語(yǔ)言模型到循環(huán)神經(jīng)網(wǎng)絡(luò)160
7.1.1 鏈?zhǔn)椒▌t161
7.1.2 馬可夫假設(shè)與N元語(yǔ)法模型161
7.1.3 從N元語(yǔ)法模型到隱含
狀態(tài)表示161
7.1.4 從神經(jīng)網(wǎng)絡(luò)到有隱含狀態(tài)的
循環(huán)神經(jīng)網(wǎng)絡(luò)162
7.1.5 使用循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)建
語(yǔ)言模型164
7.1.6 多層循環(huán)神經(jīng)網(wǎng)絡(luò)164
7.2 正向傳播與隨時(shí)間反向傳播165
7.3 現(xiàn)代循環(huán)神經(jīng)網(wǎng)絡(luò)167
7.3.1 LSTM168
7.3.2 GRU169
7.3.3 Bi-RNN169
7.4 循環(huán)神經(jīng)網(wǎng)絡(luò)的PyTorch實(shí)現(xiàn)170
7.4.1 使用PyTorch實(shí)現(xiàn)RNN170
7.4.2 使用PyTorch實(shí)現(xiàn)LSTM172
7.4.3 使用PyTorch實(shí)現(xiàn)GRU174
7.5 文本數(shù)據(jù)處理175
7.6 詞嵌入176
7.6.1 Word2Vec原理177
7.6.2 CBOW模型177
7.6.3 Skip-Gram模型178
7.7 使用PyTorch實(shí)現(xiàn)詞性判別179
7.7.1 詞性判別的主要步驟179
7.7.2 數(shù)據(jù)預(yù)處理180
7.7.3 構(gòu)建網(wǎng)絡(luò)180
7.7.4 訓(xùn)練網(wǎng)絡(luò)181
7.7.5 測(cè)試模型182
7.8 用LSTM預(yù)測(cè)股票行情183
7.8.1 導(dǎo)入數(shù)據(jù)183
7.8.2 數(shù)據(jù)概覽183
7.8.3 預(yù)處理數(shù)據(jù)184
7.8.4 定義模型185
7.8.5 訓(xùn)練模型185
7.8.6 測(cè)試模型186
7.9 幾種特殊架構(gòu)187
7.9.1 編碼器-解碼器架構(gòu)187
7.9.2 Seq2Seq架構(gòu)189
7.10 循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用場(chǎng)景189
7.11 小結(jié)190
第8章 注意力機(jī)制191
8.1 注意力機(jī)制概述191
8.1.1 兩種常見(jiàn)注意力機(jī)制192
8.1.2 來(lái)自生活的注意力192
8.1.3 注意力機(jī)制的本質(zhì)192
8.2 帶注意力機(jī)制的編碼器-解碼器架構(gòu)194
8.2.1 引入注意力機(jī)制194
8.2.2 計(jì)算注意力分配概率分布值196
8.3 Transformer198
8.3.1 Transformer的頂層設(shè)計(jì)198
8.3.2 編碼器與解碼器的輸入200
8.3.3 自注意力200
8.3.4 多頭注意力203
8.3.5 自注意力與循環(huán)神經(jīng)網(wǎng)絡(luò)、
卷積神經(jīng)網(wǎng)絡(luò)的異同204
8.3.6 加深Transformer網(wǎng)絡(luò)層的
幾種方法205
8.3.7 如何進(jìn)行自監(jiān)督學(xué)習(xí)205
8.3.8 Vision Transformer207
8.3.9 Swin Transformer208
8.4 使用PyTorch實(shí)現(xiàn)Transformer213
8.4.1 Transformer背景介紹214
8.4.2 構(gòu)建EncoderDecoder214
8.4.3 構(gòu)建編碼器215
8.4.4 構(gòu)建解碼器218
8.4.5 構(gòu)建多頭注意力219
8.4.6 構(gòu)建前饋神經(jīng)網(wǎng)絡(luò)層221
8.4.7 預(yù)處理輸入數(shù)據(jù)222
8.4.8 構(gòu)建完整網(wǎng)絡(luò)224
8.4.9 訓(xùn)練模型225
8.4.10 實(shí)現(xiàn)一個(gè)簡(jiǎn)單實(shí)例228
8.5 小結(jié)230
第9章 目標(biāo)檢測(cè)與語(yǔ)義分割231
9.1 目標(biāo)檢測(cè)及主要挑戰(zhàn)231
9.1.1 邊界框的表示232
9.1.2 手工標(biāo)注圖像的真實(shí)值233
9.1.3 主要挑戰(zhàn)236
9.1.4 選擇性搜索236
9.1.5 錨框237
9.1.6 RPN239
9.2 優(yōu)化候選框的幾種算法240
9.2.1 交并比240
9.2.2 非極大值抑制240
9.2.3 邊框回歸241
9.2.4 SPP-Net243
9.3 典型的目標(biāo)檢測(cè)算法244
9.3.1 R-CNN244
9.3.2 Fast R-CNN245
9.3.3 Faster R-CNN245
9.3.4 Mask R-CNN246
9.3.5 YOLO247
9.3.6 各種算法的性能比較248
9.4 語(yǔ)義分割249
9.5 小結(jié)250
第10章 生成式深度學(xué)習(xí)251
10.1 用變分自編碼器生成圖像251
10.1.1 自編碼器251
10.1.2 變分自編碼器252
10.1.3 用變分自編碼器生成圖像實(shí)例253
10.2 GAN簡(jiǎn)介256
10.2.1 GAN的架構(gòu)256
10.2.2 GAN的損失函數(shù)257
10.3 用GAN生成圖像257
10.3.1 構(gòu)建判別器258
10.3.2 構(gòu)建生成器258
10.3.3 訓(xùn)練模型258
10.3.4 可視化結(jié)果259
10.4 VAE與GAN的異同260
10.5 CGAN260
10.5.1 CGAN的架構(gòu)261
10.5.2 CGAN的生成器261
10.5.3 CGAN的判別器262
10.5.4 CGAN的損失函數(shù)262
10.5.5 CGAN的可視化262
10.5.6 查看指定標(biāo)簽的數(shù)據(jù)263
10.5.7 可視化損失值263
10.6 DCGAN264
10.7 提升GAN訓(xùn)練效果的技巧265
10.8 小結(jié)266
第三部分 深度學(xué)習(xí)實(shí)戰(zhàn)
第11章 人臉檢測(cè)與識(shí)別實(shí)例268
11.1 人臉檢測(cè)與識(shí)別的一般流程268
11.2 人臉檢測(cè)269
11.2.1 目標(biāo)檢測(cè)269
11.2.2 人臉定位269
11.2.3 人臉對(duì)齊270
11.2.4 MTCNN算法270
11.3 特征提取與人臉識(shí)別271
11.4 使用PyTorch實(shí)現(xiàn)人臉檢測(cè)與識(shí)別276
11.4.1 驗(yàn)證檢測(cè)代碼277
11.4.2 檢測(cè)圖像277
11.4.3 檢測(cè)后進(jìn)行預(yù)處理278
11.4.4 查看檢測(cè)后的圖像278
11.4.5 人臉識(shí)別279
11.5 小結(jié)279
第12章 遷移學(xué)習(xí)實(shí)例280
12.1 遷移學(xué)習(xí)簡(jiǎn)介280
12.2 特征提取281
12.2.1 PyTorch提供的預(yù)處理模塊282
12.2.2 特征提取實(shí)例283
12.3 數(shù)據(jù)增強(qiáng)285
12.3.1 按比例縮放286
12.3.2 裁剪286
12.3.3 翻轉(zhuǎn)287
12.3.4 改變顏色287
12.3.5 組合多種增強(qiáng)方法287
12.4 微調(diào)實(shí)例288
12.4.1 數(shù)據(jù)預(yù)處理288
12.4.2 加載預(yù)訓(xùn)練模型289
12.4.3 修改分類器289
12.4.4 選擇損失函數(shù)及優(yōu)化器289
12.4.5 訓(xùn)練及驗(yàn)證模型290
12.5 清除圖像中的霧霾290
12.6 小結(jié)293
第13章 神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯實(shí)例294
13.1 使用PyTorch實(shí)現(xiàn)帶注意力的
解碼器294
13.1.1 構(gòu)建編碼器294
13.1.2 構(gòu)建解碼器295
13.1.3 構(gòu)建帶注意力的解碼器295
13.2 使用注意力機(jī)制實(shí)現(xiàn)中英文互譯297
13.2.1 導(dǎo)入需要的模塊297
13.2.2 數(shù)據(jù)預(yù)處理298
13.2.3 構(gòu)建模型300
13.2.4 訓(xùn)練模型302
13.2.5 測(cè)試模型303
13.2.6 可視化注意力304
13.3 小結(jié)305
第14章 使用ViT進(jìn)行圖像分類306
14.1 項(xiàng)目概述306
14.2 數(shù)據(jù)預(yù)處理306
14.3 生成輸入數(shù)據(jù)308
14.4 構(gòu)建編碼器模型310
14.5 訓(xùn)練模型313
14.6 小結(jié)314
第15章 語(yǔ)義分割實(shí)例315
15.1 數(shù)據(jù)概覽315
15.2 數(shù)據(jù)預(yù)處理316
15.3 構(gòu)建模型319
15.4 訓(xùn)練模型322
15.5 測(cè)試模型325
15.6 保存與恢復(fù)模型326
15.7 小結(jié)326
第16章 生成模型實(shí)例327
16.1 Deep Dream模型327
16.1.1 Deep Dream原理327
16.1.2 Deep Dream算法的流程328
16.1.3 使用PyTorch實(shí)現(xiàn)
Deep Dream329
16.2 風(fēng)格遷移331
16.2.1 內(nèi)容損失332
16.2.2 風(fēng)格損失333
16.2.3 使用PyTorch實(shí)現(xiàn)神經(jīng)
網(wǎng)絡(luò)風(fēng)格遷移335
16.3 使用PyTorch實(shí)現(xiàn)圖像修復(fù)339
16.3.1 網(wǎng)絡(luò)結(jié)構(gòu)339
16.3.2 損失函數(shù)340
16.3.3 圖像修復(fù)實(shí)例340
16.4 使用PyTorch實(shí)現(xiàn)DiscoGAN342
16.4.1 DiscoGAN架構(gòu)343
16.4.2 損失函數(shù)344
16.4.3 DiscoGAN實(shí)現(xiàn)345
16.4.4 使用PyTorch實(shí)現(xiàn)
DiscoGAN實(shí)例346
16.5 小結(jié)348
第17章 AI新方向:對(duì)抗攻擊349
17.1 對(duì)抗攻擊簡(jiǎn)介349
17.1.1 白盒攻擊與黑盒攻擊350
17.1.2 無(wú)目標(biāo)攻擊與有目標(biāo)攻擊350
17.2 常見(jiàn)對(duì)抗樣本生成方式350
17.2.1 快速梯度符號(hào)算法351
17.2.2 快速梯度算法351
17.3 使用PyTorch實(shí)現(xiàn)對(duì)抗攻擊351
17.3.1 實(shí)現(xiàn)無(wú)目標(biāo)攻擊351
17.3.2 實(shí)現(xiàn)有目標(biāo)攻擊354
17.4 對(duì)抗攻擊和防御方法355
17.4.1 對(duì)抗攻擊355
17.4.2 常見(jiàn)防御方法分類355
17.5 小結(jié)356
第18章 強(qiáng)化學(xué)習(xí)357
18.1 強(qiáng)化學(xué)習(xí)簡(jiǎn)介357
18.2 Q-Learning算法原理359
18.2.1 Q-Learning算法的主要流程359
18.2.2 Q函數(shù)360
18.2.3 貪婪策略360
18.3 使用PyTorch實(shí)現(xiàn)Q-Learning算法361
18.3.1 定義Q-Learning主函數(shù)361
18.3.2 運(yùn)行Q-Learning算法362
18.4 SARSA 算法362
18.4.1 SARSA算法的主要步驟362
18.4.2 使用PyTorch實(shí)現(xiàn)SARSA
算法363
18.5 小結(jié)364
第19章 深度強(qiáng)化學(xué)習(xí)365
19.1 DQN算法原理365
19.1.1 Q-Learning方法的局限性366
19.1.2 用深度學(xué)習(xí)處理強(qiáng)化學(xué)習(xí)
需要解決的問(wèn)題366
19.1.3 用DQN算法解決問(wèn)題366
19.1.4 定義損失函數(shù)366
19.1.5 DQN的經(jīng)驗(yàn)回放機(jī)制367
19.1.6 目標(biāo)網(wǎng)絡(luò)367
19.1.7 網(wǎng)絡(luò)模型367
19.1.8 DQN算法實(shí)現(xiàn)流程367
19.2 使用PyTorch實(shí)現(xiàn) DQN算法368
19.3 小結(jié)371
附錄A PyTorch 0.4版本變更372
附錄B AI在各行業(yè)的最新應(yīng)用377
附錄C einops及einsum簡(jiǎn)介383
到了這里,關(guān)于深度學(xué)習(xí)必備書籍——《Python深度學(xué)習(xí) 基于Pytorch》的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!