国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)必備書籍——《Python深度學(xué)習(xí) 基于Pytorch》

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)必備書籍——《Python深度學(xué)習(xí) 基于Pytorch》。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

作為一名機(jī)器學(xué)習(xí)|深度學(xué)習(xí)的博主,想和大家分享幾本深度學(xué)習(xí)的書籍,讓大家更快的入手深度學(xué)習(xí),成為AI達(dá)人!今天給大家介紹的是:《Python深度學(xué)習(xí) 基于Pytorch》

一、背景

在人工智能時(shí)代,如何盡快掌握人工智能的核心—深度學(xué)習(xí)呢?相信這是每個(gè)欲進(jìn)入此領(lǐng)域的人面臨的主要問(wèn)題。目前,深度學(xué)習(xí)框架很多,如TensorFlow、PyTorch、Keras、FastAI、CNTK等。

面對(duì)眾多的深度學(xué)習(xí)框架,初學(xué)者應(yīng)如何選擇?哪個(gè)框架既易于上手,又在工業(yè)界有廣泛應(yīng)用?毫無(wú)疑問(wèn),PyTorch是不二之選。一方面,PyTorch天然與Python結(jié)合,大大降低了深度學(xué)習(xí)的門檻;另一方面,它的流行度僅次于TensorFlow,而且有趕超之勢(shì),但是上手難度卻比TensorFlow低很多。如果你是一位初學(xué)者,建議你選擇PyTorch,待有了一定的基礎(chǔ)之后,可以學(xué)習(xí)其他框架,如TensorFlow、CNTK等。

深度學(xué)習(xí)必備書籍——《Python深度學(xué)習(xí) 基于Pytorch》

這是一本能指導(dǎo)讀者快速掌握PyTorch和深度學(xué)習(xí)的著作,從PyTorch的原理到應(yīng)用,從深度學(xué)習(xí)到強(qiáng)化學(xué)習(xí),本書提供了全棧解決方案。本書還涉及AIGC技術(shù)的核心內(nèi)容,本書第8章、第14重點(diǎn)介紹了注意力機(jī)制及Transformer架構(gòu)及其應(yīng)用,第10章、第16章介紹了生成式網(wǎng)絡(luò)核心架構(gòu)(如AE、VAE、GAN等),這些架構(gòu)包括降噪、重參數(shù)化等技術(shù),此外,本書還包括目標(biāo)檢測(cè)、強(qiáng)化學(xué)習(xí)等內(nèi)容。除理論、原理介紹外,還包括大量可動(dòng)手實(shí)踐的實(shí)例。

第1版上市后銷量和口碑俱佳,是深度學(xué)習(xí)領(lǐng)域的暢銷書,被譽(yù)為PyTorch領(lǐng)域的標(biāo)準(zhǔn)著作。第2版在第1版的基礎(chǔ)上,去蕪存菁,與時(shí)俱進(jìn),根據(jù)PyTorch新版本全面升級(jí),技術(shù)性、實(shí)戰(zhàn)性、豐富性、針對(duì)性、易讀性均得到了進(jìn)一步提升,必能幫助讀者更輕松、更高效地進(jìn)入深度學(xué)習(xí)的世界。幫助讀者低門檻進(jìn)入深度學(xué)習(xí)領(lǐng)域,輕松掌握深度學(xué)習(xí)的理論知識(shí)和實(shí)踐方法,快速實(shí)現(xiàn)從入門到進(jìn)階的轉(zhuǎn)變”是這本書的核心目標(biāo)。

二、內(nèi)容簡(jiǎn)介

本書分為三部分,共19章,第一部分為PyTorch基礎(chǔ),第二部分為深度學(xué)習(xí)基本原理,第三部分是實(shí)戰(zhàn)內(nèi)容。

  • 第一部分(第1~4章)為Python和PyTorch基礎(chǔ)部分,也是本書的基礎(chǔ)部分,為后續(xù)學(xué)習(xí)打下一個(gè)堅(jiān)實(shí)基礎(chǔ)。第1章介紹了PyTorch的基石NumPy;第2章介紹PyTorch基礎(chǔ);第3、4章分別介紹PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)工具箱和數(shù)據(jù)處理工具箱等內(nèi)容。
  • 第二部分(第5~10章)為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)部分,這是本書核心部分。第5章為機(jī)器學(xué)習(xí)基礎(chǔ);第6章為視覺(jué)處理基礎(chǔ);第7章介紹自然語(yǔ)言處理基礎(chǔ);第8章介紹注意力機(jī)制,詳解介紹Transformer架構(gòu);第9章介紹目標(biāo)檢測(cè)與語(yǔ)義分割;第10章介紹生成式深度學(xué)習(xí)相關(guān)內(nèi)容,包括AE,VAE,GAN、CGAN等模型。
  • 第三部分(第11~19章)為深度學(xué)習(xí)實(shí)戰(zhàn),也即前面兩部分的具體應(yīng)用部分。這部分在介紹相關(guān)原理、架構(gòu)的基礎(chǔ)上,用PyTorch具體實(shí)現(xiàn)的典型實(shí)例,最后介紹了強(qiáng)化學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)等內(nèi)容。具體各章節(jié)內(nèi)容為,第11章用PyTorch實(shí)現(xiàn)人臉檢測(cè)和識(shí)別;第12章用PyTorch實(shí)現(xiàn)遷移學(xué)習(xí)、遷移學(xué)習(xí)結(jié)合數(shù)據(jù)增強(qiáng)等實(shí)例;第13章用PyTorch實(shí)現(xiàn)中英文互譯;第14章介紹了基于Transformer架構(gòu)的ViT進(jìn)行圖像分類;第15章為語(yǔ)義分割實(shí)例;第16章多個(gè)生成式網(wǎng)絡(luò)實(shí)例;第17章介紹對(duì)抗攻擊原理及PyTorch實(shí)現(xiàn)對(duì)抗攻擊實(shí)例;第18、19章介紹了強(qiáng)化學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)等基礎(chǔ)及多個(gè)強(qiáng)化學(xué)習(xí)實(shí)例。

更為重要的是,為了讓本書通俗易懂,在內(nèi)容安排和寫作方式上也頗花了一番心思。內(nèi)容選擇上,廣泛涉獵、重點(diǎn)突出、注重實(shí)戰(zhàn);內(nèi)容安排上,實(shí)例切入、由淺入深、循序漸進(jìn);表達(dá)形式上,深度抽象、化繁為簡(jiǎn)、用圖說(shuō)話。

三、新版特色

自本書第1版第1次于2019年10月印刷至今,已累計(jì)印刷了9次。在這3年的時(shí)間里,深度學(xué)習(xí)的發(fā)展可謂日新月異,其應(yīng)用范圍得到進(jìn)一步拓展,同時(shí)出現(xiàn)了很多新的框架、新的方向。

在眾多創(chuàng)新中,注意力機(jī)制是一個(gè)典型代表。注意力機(jī)制,尤其是以Transformer為基礎(chǔ)的一些模型,在自然語(yǔ)言處理(NLP)領(lǐng)域取得了目前最好的效果(如SOTA),近幾年研究人員把這種模型(如ViT模型、Swin-T模型等)應(yīng)用到計(jì)算機(jī)視覺(jué)領(lǐng)域,也取得了巨大成功。

為此,本書第2版增強(qiáng)了注意力機(jī)制的相關(guān)內(nèi)容,把注意力機(jī)制單獨(dú)列為一章(即第8章),同時(shí)增加了注意力機(jī)制的應(yīng)用實(shí)例,詳細(xì)內(nèi)容請(qǐng)參考第14章。

人工智能廣泛應(yīng)用于圖像、視頻、語(yǔ)音等諸多領(lǐng)域,比如人工智能在目標(biāo)檢測(cè)、語(yǔ)義分割等任務(wù)中的應(yīng)用日益受到大家的關(guān)注,所以在第2版中我們?cè)黾恿诉@方面的內(nèi)容,具體可參考第9章和第15章。

除了這些新增內(nèi)容外,第2版對(duì)很多原有內(nèi)容進(jìn)行了補(bǔ)充和完善,如PyTorch基礎(chǔ)、優(yōu)化算法、視覺(jué)處理基礎(chǔ)、自然語(yǔ)言處理基礎(chǔ)等內(nèi)容。

為便利大家更好理解本書,特提供PPT文檔

PPT文檔對(duì)書中內(nèi)容進(jìn)行提煉,并包括很多gif動(dòng)畫,便于更直觀理解相關(guān)原理和概念,此外,作為不少拓展,包括GPT-3、ChatGPT、Diffusion Model等內(nèi)容。

四、作者介紹

吳茂貴,資深大數(shù)據(jù)和人工智能技術(shù)專家,在BI、數(shù)據(jù)挖掘與分析、數(shù)據(jù)倉(cāng)庫(kù)、機(jī)器學(xué)習(xí)等領(lǐng)域工作超過(guò)20年。在基于Spark、TensorFlow、PyTorch等的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)方面有大量的工程實(shí)踐經(jīng)驗(yàn)。著有《Python深度學(xué)習(xí):基于TensorFlow》《深度實(shí)踐Spark機(jī)器學(xué)習(xí)》《自己動(dòng)手做大數(shù)據(jù)系統(tǒng)》《深入淺出Embedding原理解析與應(yīng)用實(shí)踐》等暢銷書。

郁明敏,資深商業(yè)分析師,從事互聯(lián)網(wǎng)金融算法研究工作,專注于大數(shù)據(jù)、機(jī)器學(xué)習(xí)以及數(shù)據(jù)可視化的相關(guān)領(lǐng)域,擅長(zhǎng) Python、Hadoop、Spark 等技術(shù),擁有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。曾獲“江蘇省TI杯大學(xué)生電子競(jìng)技大賽”二等獎(jiǎng)和“華為杯全國(guó)大學(xué)生數(shù)學(xué)建模大賽”二等獎(jiǎng)。

楊本法,高級(jí)算法工程師,工業(yè)表面缺陷檢測(cè)設(shè)備開(kāi)發(fā)架構(gòu)師,在機(jī)器學(xué)習(xí)、文本挖掘、可視化等領(lǐng)域有多年實(shí)踐經(jīng)驗(yàn)。做過(guò)大型電商的推薦系統(tǒng),知名手機(jī)廠商外殼表面檢測(cè)設(shè)備。熟悉Hadoop、Spark生態(tài)圈的相關(guān)技術(shù),對(duì)Python有豐富的實(shí)戰(zhàn)經(jīng)驗(yàn)。

李 濤 ,資深A(yù)I技術(shù)工程師,任職于攜程(上海)科技有限公司,負(fù)責(zé)酒店排序推薦相關(guān)項(xiàng)目的數(shù)據(jù)分析和算法開(kāi)發(fā),對(duì)計(jì)算機(jī)視覺(jué)技術(shù)和搜索推薦系統(tǒng)有深刻的理解和豐富的實(shí)踐經(jīng)驗(yàn)。

張粵磊 ,國(guó)云大數(shù)據(jù)學(xué)院院長(zhǎng),飛谷云創(chuàng)始人,畢業(yè)于中國(guó)科技大學(xué),原平安壹錢包大數(shù)據(jù)架構(gòu)師。業(yè)內(nèi)知名大數(shù)據(jù)專家,多部大數(shù)據(jù)暢銷書作者。2016年以來(lái)每年都以高級(jí)專家和咨詢顧問(wèn)身份深入?yún)⑴c大數(shù)據(jù)、人工智能技術(shù)在行業(yè)的落地應(yīng)用。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-407395.html

五、目錄


前言

第1版前言

第一部分 PyTorch基礎(chǔ)

第1章 NumPy基礎(chǔ)知識(shí)2

1.1 生成NumPy數(shù)組3

1.1.1 數(shù)組屬性4

1.1.2 利用已有數(shù)據(jù)生成數(shù)組4

1.1.3 利用 random 模塊生成數(shù)組5

1.1.4 生成特定形狀的多維數(shù)組7

1.1.5 利用arange、linspace 

   函數(shù)生成數(shù)組8

1.2 讀取數(shù)據(jù)9

1.3 NumPy的算術(shù)運(yùn)算11

1.3.1 逐元素操作11

1.3.2 點(diǎn)積運(yùn)算12

1.4 數(shù)組變形13

1.4.1 修改數(shù)組的形狀13

1.4.2 合并數(shù)組16

1.5 批處理19

1.6 節(jié)省內(nèi)存20

1.7 通用函數(shù)21

1.8 廣播機(jī)制23

1.9 小結(jié)242章 PyTorch基礎(chǔ)知識(shí)25

2.1 為何選擇PyTorch25

2.2 PyTorch的安裝配置26

2.2.1 安裝CPU版PyTorch26

2.2.2 安裝GPU版PyTorch28

2.3 Jupyter Notebook環(huán)境配置30

2.4 NumPy與Tensor31

2.4.1 Tensor概述31

2.4.2 創(chuàng)建Tensor32

2.4.3 修改Tensor形狀34

2.4.4 索引操作35

2.4.5 廣播機(jī)制35

2.4.6 逐元素操作36

2.4.7 歸并操作37

2.4.8 比較操作37

2.4.9 矩陣操作38

2.4.10 PyTorch與NumPy比較39

2.5 Tensor與autograd39

2.5.1 自動(dòng)求導(dǎo)要點(diǎn)40

2.5.2 計(jì)算圖40

2.5.3 標(biāo)量反向傳播41

2.5.4 非標(biāo)量反向傳播42

2.5.5 切斷一些分支的反向傳播45

2.6 使用NumPy實(shí)現(xiàn)機(jī)器學(xué)習(xí)任務(wù)47

2.7 使用Tensor及autograd實(shí)現(xiàn)機(jī)器

   學(xué)習(xí)任務(wù)49

2.8 使用優(yōu)化器及自動(dòng)微分實(shí)現(xiàn)機(jī)器

   學(xué)習(xí)任務(wù)51

2.9 把數(shù)據(jù)集轉(zhuǎn)換為帶批量處理功能的

   迭代器52

2.10 使用TensorFlow 2實(shí)現(xiàn)機(jī)器

   學(xué)習(xí)任務(wù)54

2.11 小結(jié)553章 PyTorch神經(jīng)網(wǎng)絡(luò)工具箱56

3.1 神經(jīng)網(wǎng)絡(luò)核心組件56

3.2 構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要工具57

3.2.1 nn.Module57

3.2.2 nn.functional58

3.3 構(gòu)建模型59

3.3.1 繼承nn.Module基類構(gòu)建模型59

3.3.2 使用nn.Sequential按層

   順序構(gòu)建模型60

3.3.3 繼承nn.Module基類并應(yīng)用

   模型容器來(lái)構(gòu)建模型63

3.3.4 自定義網(wǎng)絡(luò)模塊66

3.4 訓(xùn)練模型68

3.5 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)實(shí)例69

3.5.1 背景說(shuō)明69

3.5.2 準(zhǔn)備數(shù)據(jù)70

3.5.3 可視化源數(shù)據(jù)71

3.5.4 構(gòu)建模型72

3.5.5 訓(xùn)練模型72

3.6 小結(jié)744章 PyTorch數(shù)據(jù)處理工具箱75

4.1 數(shù)據(jù)處理工具箱概述75

4.2 utils.data76

4.3 torchvision78

4.3.1 transforms78

4.3.2 ImageFolder79

4.4 可視化工具81

4.4.1 TensorBoard簡(jiǎn)介81

4.4.2 用TensorBoard可視化

   神經(jīng)網(wǎng)絡(luò)82

4.4.3 用TensorBoard可視化損失值83

4.4.4 用TensorBoard可視化特征圖84

4.5 小結(jié)85

第二部分 深度學(xué)習(xí)基礎(chǔ)

第5 章 機(jī)器學(xué)習(xí)基礎(chǔ)88

5.1 機(jī)器學(xué)習(xí)的基本任務(wù)88

5.1.1 監(jiān)督學(xué)習(xí)89

5.1.2 無(wú)監(jiān)督學(xué)習(xí)89

5.1.3 半監(jiān)督學(xué)習(xí)90

5.1.4 強(qiáng)化學(xué)習(xí)90

5.2 機(jī)器學(xué)習(xí)的一般流程90

5.2.1 明確目標(biāo)91

5.2.2 收集數(shù)據(jù)91

5.2.3 數(shù)據(jù)探索與預(yù)處理91

5.2.4 選擇模型及損失函數(shù)91

5.2.5 評(píng)估及優(yōu)化模型92

5.3 過(guò)擬合與欠擬合93

5.3.1 權(quán)重正則化93

5.3.2 dropout正則化94

5.3.3 批量歸一化97

5.3.4 層歸一化99

5.3.5 權(quán)重初始化99

5.4 選擇合適的激活函數(shù)100

5.5 選擇合適的損失函數(shù)101

5.6 選擇合適的優(yōu)化器103

5.6.1 傳統(tǒng)梯度優(yōu)化算法104

5.6.2 批量隨機(jī)梯度下降法105

5.6.3 動(dòng)量算法106

5.6.4 Nesterov動(dòng)量算法108

5.6.5 AdaGrad算法109

5.6.6 RMSProp算法111

5.6.7 Adam算法112

5.6.8 Yogi算法113

5.6.9 使用優(yōu)化算法實(shí)例114

5.7 GPU加速116

5.7.1 單GPU加速116

5.7.2 多GPU加速117

5.7.3 使用GPU時(shí)的注意事項(xiàng)120

5.8 小結(jié)1216章 視覺(jué)處理基礎(chǔ)122

6.1 從全連接層到卷積層122

6.1.1 圖像的兩個(gè)特性123

6.1.2 卷積神經(jīng)網(wǎng)絡(luò)概述124

6.2 卷積層125

6.2.1 卷積核127

6.2.2 步幅129

6.2.3 填充130

6.2.4 多通道上的卷積131

6.2.5 激活函數(shù)134

6.2.6 卷積函數(shù)135

6.2.7 轉(zhuǎn)置卷積136

6.2.8 特征圖與感受野137

6.2.9 全卷積網(wǎng)絡(luò)138

6.3 池化層139

6.3.1 局部池化140

6.3.2 全局池化140

6.4 現(xiàn)代經(jīng)典網(wǎng)絡(luò)142

6.4.1 LeNet-5模型142

6.4.2 AlexNet模型143

6.4.3 VGG模型143

6.4.4 GoogLeNet模型144

6.4.5 ResNet模型145

6.4.6 DenseNet模型146

6.4.7 CapsNet模型148

6.5 使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)CIFAR10

  多分類149

6.5.1 數(shù)據(jù)集說(shuō)明149

6.5.2 加載數(shù)據(jù)149

6.5.3 構(gòu)建網(wǎng)絡(luò)151

6.5.4 訓(xùn)練模型151

6.5.5 測(cè)試模型152

6.5.6 采用全局平均池化153

6.5.7 像Keras一樣顯示各層參數(shù)154

6.6 使用模型集成方法提升性能156

6.6.1 使用模型156

6.6.2 集成方法157

6.6.3 集成效果158

6.7 使用現(xiàn)代經(jīng)典模型提升性能158

6.8 小結(jié)1597章 自然語(yǔ)言處理基礎(chǔ)160

7.1 從語(yǔ)言模型到循環(huán)神經(jīng)網(wǎng)絡(luò)160

7.1.1 鏈?zhǔn)椒▌t161

7.1.2 馬可夫假設(shè)與N元語(yǔ)法模型161

7.1.3 從N元語(yǔ)法模型到隱含

   狀態(tài)表示161

7.1.4 從神經(jīng)網(wǎng)絡(luò)到有隱含狀態(tài)的

   循環(huán)神經(jīng)網(wǎng)絡(luò)162

7.1.5 使用循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)建

   語(yǔ)言模型164

7.1.6 多層循環(huán)神經(jīng)網(wǎng)絡(luò)164

7.2 正向傳播與隨時(shí)間反向傳播165

7.3 現(xiàn)代循環(huán)神經(jīng)網(wǎng)絡(luò)167

7.3.1 LSTM168

7.3.2 GRU169

7.3.3 Bi-RNN169

7.4 循環(huán)神經(jīng)網(wǎng)絡(luò)的PyTorch實(shí)現(xiàn)170

7.4.1 使用PyTorch實(shí)現(xiàn)RNN170

7.4.2 使用PyTorch實(shí)現(xiàn)LSTM172

7.4.3 使用PyTorch實(shí)現(xiàn)GRU174

7.5 文本數(shù)據(jù)處理175

7.6 詞嵌入176

7.6.1 Word2Vec原理177

7.6.2 CBOW模型177

7.6.3 Skip-Gram模型178

7.7 使用PyTorch實(shí)現(xiàn)詞性判別179

7.7.1 詞性判別的主要步驟179

7.7.2 數(shù)據(jù)預(yù)處理180

7.7.3 構(gòu)建網(wǎng)絡(luò)180

7.7.4 訓(xùn)練網(wǎng)絡(luò)181

7.7.5 測(cè)試模型182

7.8 用LSTM預(yù)測(cè)股票行情183

7.8.1 導(dǎo)入數(shù)據(jù)183

7.8.2 數(shù)據(jù)概覽183

7.8.3 預(yù)處理數(shù)據(jù)184

7.8.4 定義模型185

7.8.5 訓(xùn)練模型185

7.8.6 測(cè)試模型186

7.9 幾種特殊架構(gòu)187

7.9.1 編碼器-解碼器架構(gòu)187

7.9.2 Seq2Seq架構(gòu)189

7.10 循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用場(chǎng)景189

7.11 小結(jié)1908章 注意力機(jī)制191

8.1 注意力機(jī)制概述191

8.1.1 兩種常見(jiàn)注意力機(jī)制192

8.1.2 來(lái)自生活的注意力192

8.1.3 注意力機(jī)制的本質(zhì)192

8.2 帶注意力機(jī)制的編碼器-解碼器架構(gòu)194

8.2.1 引入注意力機(jī)制194

8.2.2 計(jì)算注意力分配概率分布值196

8.3 Transformer198

8.3.1 Transformer的頂層設(shè)計(jì)198

8.3.2 編碼器與解碼器的輸入200

8.3.3 自注意力200

8.3.4 多頭注意力203

8.3.5 自注意力與循環(huán)神經(jīng)網(wǎng)絡(luò)、

   卷積神經(jīng)網(wǎng)絡(luò)的異同204

8.3.6 加深Transformer網(wǎng)絡(luò)層的

   幾種方法205

8.3.7 如何進(jìn)行自監(jiān)督學(xué)習(xí)205

8.3.8 Vision Transformer207

8.3.9 Swin Transformer208

8.4 使用PyTorch實(shí)現(xiàn)Transformer213

8.4.1 Transformer背景介紹214

8.4.2 構(gòu)建EncoderDecoder214

8.4.3 構(gòu)建編碼器215

8.4.4 構(gòu)建解碼器218

8.4.5 構(gòu)建多頭注意力219

8.4.6 構(gòu)建前饋神經(jīng)網(wǎng)絡(luò)層221

8.4.7 預(yù)處理輸入數(shù)據(jù)222

8.4.8 構(gòu)建完整網(wǎng)絡(luò)224

8.4.9 訓(xùn)練模型225

8.4.10 實(shí)現(xiàn)一個(gè)簡(jiǎn)單實(shí)例228

8.5 小結(jié)2309章 目標(biāo)檢測(cè)與語(yǔ)義分割231

9.1 目標(biāo)檢測(cè)及主要挑戰(zhàn)231

9.1.1 邊界框的表示232

9.1.2 手工標(biāo)注圖像的真實(shí)值233

9.1.3 主要挑戰(zhàn)236

9.1.4 選擇性搜索236

9.1.5 錨框237

9.1.6 RPN239

9.2 優(yōu)化候選框的幾種算法240

9.2.1 交并比240

9.2.2 非極大值抑制240

9.2.3 邊框回歸241

9.2.4 SPP-Net243

9.3 典型的目標(biāo)檢測(cè)算法244

9.3.1 R-CNN244

9.3.2 Fast R-CNN245

9.3.3 Faster R-CNN245

9.3.4 Mask R-CNN246

9.3.5 YOLO247

9.3.6 各種算法的性能比較248

9.4 語(yǔ)義分割249

9.5 小結(jié)25010章 生成式深度學(xué)習(xí)251

10.1 用變分自編碼器生成圖像251

10.1.1 自編碼器251

10.1.2 變分自編碼器252

10.1.3 用變分自編碼器生成圖像實(shí)例253

10.2 GAN簡(jiǎn)介256

10.2.1 GAN的架構(gòu)256

10.2.2 GAN的損失函數(shù)257

10.3 用GAN生成圖像257

10.3.1 構(gòu)建判別器258

10.3.2 構(gòu)建生成器258

10.3.3 訓(xùn)練模型258

10.3.4 可視化結(jié)果259

10.4 VAE與GAN的異同260

10.5 CGAN260

10.5.1 CGAN的架構(gòu)261

10.5.2 CGAN的生成器261

10.5.3 CGAN的判別器262

10.5.4 CGAN的損失函數(shù)262

10.5.5 CGAN的可視化262

10.5.6 查看指定標(biāo)簽的數(shù)據(jù)263

10.5.7 可視化損失值263

10.6 DCGAN264

10.7 提升GAN訓(xùn)練效果的技巧265

10.8 小結(jié)266

第三部分 深度學(xué)習(xí)實(shí)戰(zhàn)

第11章 人臉檢測(cè)與識(shí)別實(shí)例268

11.1 人臉檢測(cè)與識(shí)別的一般流程268

11.2 人臉檢測(cè)269

11.2.1 目標(biāo)檢測(cè)269

11.2.2 人臉定位269

11.2.3 人臉對(duì)齊270

11.2.4 MTCNN算法270

11.3 特征提取與人臉識(shí)別271

11.4 使用PyTorch實(shí)現(xiàn)人臉檢測(cè)與識(shí)別276

11.4.1 驗(yàn)證檢測(cè)代碼277

11.4.2 檢測(cè)圖像277

11.4.3 檢測(cè)后進(jìn)行預(yù)處理278

11.4.4 查看檢測(cè)后的圖像278

11.4.5 人臉識(shí)別279

11.5 小結(jié)27912章 遷移學(xué)習(xí)實(shí)例280

12.1 遷移學(xué)習(xí)簡(jiǎn)介280

12.2 特征提取281

12.2.1 PyTorch提供的預(yù)處理模塊282

12.2.2 特征提取實(shí)例283

12.3 數(shù)據(jù)增強(qiáng)285

12.3.1 按比例縮放286

12.3.2 裁剪286

12.3.3 翻轉(zhuǎn)287

12.3.4 改變顏色287

12.3.5 組合多種增強(qiáng)方法287

12.4 微調(diào)實(shí)例288

12.4.1 數(shù)據(jù)預(yù)處理288

12.4.2 加載預(yù)訓(xùn)練模型289

12.4.3 修改分類器289

12.4.4 選擇損失函數(shù)及優(yōu)化器289

12.4.5 訓(xùn)練及驗(yàn)證模型290

12.5 清除圖像中的霧霾290

12.6 小結(jié)29313章 神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯實(shí)例294

13.1 使用PyTorch實(shí)現(xiàn)帶注意力的

   解碼器294

13.1.1 構(gòu)建編碼器294

13.1.2 構(gòu)建解碼器295

13.1.3 構(gòu)建帶注意力的解碼器295

13.2 使用注意力機(jī)制實(shí)現(xiàn)中英文互譯297

13.2.1 導(dǎo)入需要的模塊297

13.2.2 數(shù)據(jù)預(yù)處理298

13.2.3 構(gòu)建模型300

13.2.4 訓(xùn)練模型302

13.2.5 測(cè)試模型303

13.2.6 可視化注意力304

13.3 小結(jié)30514章 使用ViT進(jìn)行圖像分類306

14.1 項(xiàng)目概述306

14.2 數(shù)據(jù)預(yù)處理306

14.3 生成輸入數(shù)據(jù)308

14.4 構(gòu)建編碼器模型310

14.5 訓(xùn)練模型313

14.6 小結(jié)31415章 語(yǔ)義分割實(shí)例315

15.1 數(shù)據(jù)概覽315

15.2 數(shù)據(jù)預(yù)處理316

15.3 構(gòu)建模型319

15.4 訓(xùn)練模型322

15.5 測(cè)試模型325

15.6 保存與恢復(fù)模型326

15.7 小結(jié)32616章 生成模型實(shí)例327

16.1 Deep Dream模型327

16.1.1 Deep Dream原理327

16.1.2 Deep Dream算法的流程328

16.1.3 使用PyTorch實(shí)現(xiàn)

    Deep Dream329

16.2 風(fēng)格遷移331

16.2.1 內(nèi)容損失332

16.2.2 風(fēng)格損失333

16.2.3 使用PyTorch實(shí)現(xiàn)神經(jīng)

    網(wǎng)絡(luò)風(fēng)格遷移335

16.3 使用PyTorch實(shí)現(xiàn)圖像修復(fù)339

16.3.1 網(wǎng)絡(luò)結(jié)構(gòu)339

16.3.2 損失函數(shù)340

16.3.3 圖像修復(fù)實(shí)例340

16.4 使用PyTorch實(shí)現(xiàn)DiscoGAN342

16.4.1 DiscoGAN架構(gòu)343

16.4.2 損失函數(shù)344

16.4.3 DiscoGAN實(shí)現(xiàn)345

16.4.4 使用PyTorch實(shí)現(xiàn)

    DiscoGAN實(shí)例346

16.5 小結(jié)34817章 AI新方向:對(duì)抗攻擊349

17.1 對(duì)抗攻擊簡(jiǎn)介349

17.1.1 白盒攻擊與黑盒攻擊350

17.1.2 無(wú)目標(biāo)攻擊與有目標(biāo)攻擊350

17.2 常見(jiàn)對(duì)抗樣本生成方式350

17.2.1 快速梯度符號(hào)算法351

17.2.2 快速梯度算法351

17.3 使用PyTorch實(shí)現(xiàn)對(duì)抗攻擊351

17.3.1 實(shí)現(xiàn)無(wú)目標(biāo)攻擊351

17.3.2 實(shí)現(xiàn)有目標(biāo)攻擊354

17.4 對(duì)抗攻擊和防御方法355

17.4.1 對(duì)抗攻擊355

17.4.2 常見(jiàn)防御方法分類355

17.5 小結(jié)35618章 強(qiáng)化學(xué)習(xí)357

18.1 強(qiáng)化學(xué)習(xí)簡(jiǎn)介357

18.2 Q-Learning算法原理359

18.2.1 Q-Learning算法的主要流程359

18.2.2 Q函數(shù)360

18.2.3 貪婪策略360

18.3 使用PyTorch實(shí)現(xiàn)Q-Learning算法361

18.3.1 定義Q-Learning主函數(shù)361

18.3.2 運(yùn)行Q-Learning算法362

18.4 SARSA 算法362

18.4.1 SARSA算法的主要步驟362

18.4.2 使用PyTorch實(shí)現(xiàn)SARSA

    算法363

18.5 小結(jié)36419章 深度強(qiáng)化學(xué)習(xí)365

19.1 DQN算法原理365

19.1.1 Q-Learning方法的局限性366

19.1.2 用深度學(xué)習(xí)處理強(qiáng)化學(xué)習(xí)

    需要解決的問(wèn)題366

19.1.3 用DQN算法解決問(wèn)題366

19.1.4 定義損失函數(shù)366

19.1.5 DQN的經(jīng)驗(yàn)回放機(jī)制367

19.1.6 目標(biāo)網(wǎng)絡(luò)367

19.1.7 網(wǎng)絡(luò)模型367

19.1.8 DQN算法實(shí)現(xiàn)流程367

19.2 使用PyTorch實(shí)現(xiàn) DQN算法368

19.3 小結(jié)371

附錄A PyTorch 0.4版本變更372

附錄B AI在各行業(yè)的最新應(yīng)用377

附錄C einops及einsum簡(jiǎn)介383

到了這里,關(guān)于深度學(xué)習(xí)必備書籍——《Python深度學(xué)習(xí) 基于Pytorch》的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • [深度學(xué)習(xí)實(shí)戰(zhàn)]基于PyTorch的深度學(xué)習(xí)實(shí)戰(zhàn)(上)[變量、求導(dǎo)、損失函數(shù)、優(yōu)化器]

    [深度學(xué)習(xí)實(shí)戰(zhàn)]基于PyTorch的深度學(xué)習(xí)實(shí)戰(zhàn)(上)[變量、求導(dǎo)、損失函數(shù)、優(yōu)化器]

    PyTorch——開(kāi)源的Python機(jī)器學(xué)習(xí)庫(kù) ??用了Matlab搭建神經(jīng)網(wǎng)絡(luò)才愈發(fā)感覺(jué)\\\" 人生苦短,我用PyTorch “是多么正確。畢竟 新的神經(jīng)網(wǎng)絡(luò)架構(gòu)還是得自己一點(diǎn)點(diǎn)敲 ,現(xiàn)在是一點(diǎn)都笑不出來(lái)了, 指望Matlab提供的老框架和訓(xùn)練算法也做不出什么算法方法的突破,頂多就是在實(shí)現(xiàn)功能上

    2024年02月17日
    瀏覽(78)
  • [深度學(xué)習(xí)實(shí)戰(zhàn)]基于PyTorch的深度學(xué)習(xí)實(shí)戰(zhàn)(下)[Mnist手寫數(shù)字圖像識(shí)別]

    [深度學(xué)習(xí)實(shí)戰(zhàn)]基于PyTorch的深度學(xué)習(xí)實(shí)戰(zhàn)(下)[Mnist手寫數(shù)字圖像識(shí)別]

    PyTorch——開(kāi)源的Python機(jī)器學(xué)習(xí)庫(kù) ??首先感謝所有點(diǎn)開(kāi)本文的朋友們!基于PyTorch的深度學(xué)習(xí)實(shí)戰(zhàn)可能要告一段落了。本想著再寫幾篇關(guān)于 PyTorch神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí) 的文章來(lái)著,可無(wú)奈項(xiàng)目時(shí)間緊任務(wù)重,要求 短時(shí)間內(nèi)出圖并做好參數(shù)擬合 。所以只得轉(zhuǎn)戰(zhàn) Matlab 編程,框架舊

    2024年02月16日
    瀏覽(29)
  • 【計(jì)算機(jī)視覺(jué)面經(jīng)四】基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法面試必備(RCNN~YOLOv5)

    【計(jì)算機(jī)視覺(jué)面經(jīng)四】基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法面試必備(RCNN~YOLOv5)

    目標(biāo)檢測(cè)算法主要包括:【兩階段】目標(biāo)檢測(cè)算法、【多階段】目標(biāo)檢測(cè)算法、【單階段】目標(biāo)檢測(cè)算法。 什么是兩階段目標(biāo)檢測(cè)算法,與單階段目標(biāo)檢測(cè)有什么區(qū)別? 兩階段目標(biāo)檢測(cè)算法因需要進(jìn)行兩階段的處理:1)候選區(qū)域的獲取,2)候選區(qū)域分類和回歸,也稱為基于

    2024年03月27日
    瀏覽(26)
  • 深度學(xué)習(xí)書籍

    簡(jiǎn)單的圖像分類 《深度學(xué)習(xí)與圖像識(shí)別:原理與實(shí)踐》 python基礎(chǔ) 《python編程:從入門到實(shí)踐》 numpy https://numpy.org/ 《NumPy攻略:Python科學(xué)計(jì)算與數(shù)據(jù)分析》 tensorflow 《TensorFlow深度學(xué)習(xí)——手把手教你掌握100個(gè)精彩案例》 深度學(xué)習(xí) 《Deep Learning》

    2024年02月10日
    瀏覽(9)
  • 基于PyTorch深度學(xué)習(xí)遙感影像地物分類與目標(biāo)檢測(cè)、分割及遙感影像問(wèn)題深度學(xué)習(xí)優(yōu)化

    基于PyTorch深度學(xué)習(xí)遙感影像地物分類與目標(biāo)檢測(cè)、分割及遙感影像問(wèn)題深度學(xué)習(xí)優(yōu)化

    我國(guó)高分辨率對(duì)地觀測(cè)系統(tǒng)重大專項(xiàng)已全面啟動(dòng),高空間、高光譜、高時(shí)間分辨率和寬地面覆蓋于一體的全球天空地一體化立體對(duì)地觀測(cè)網(wǎng)逐步形成,將成為保障國(guó)家安全的基礎(chǔ)性和戰(zhàn)略性資源。未來(lái)10年全球每天獲取的觀測(cè)數(shù)據(jù)將超過(guò)10PB,遙感大數(shù)據(jù)時(shí)代已然來(lái)臨。隨著小

    2024年02月11日
    瀏覽(32)
  • 基于深度學(xué)習(xí)的圖片上色(Opencv,Pytorch,CNN)

    基于深度學(xué)習(xí)的圖片上色(Opencv,Pytorch,CNN)

    文末附有源碼下載地址。 灰度圖自動(dòng)上色 2.1 RGB 想要對(duì)灰度圖片上色,首先要了解圖像的格式,對(duì)于一副普通的圖像通常為RGB格式的,即紅、綠、藍(lán)三個(gè)通道,可以使用opencv分離圖像的三個(gè)通道,代碼如下所示: 代碼運(yùn)行結(jié)果如下所示。 2.2 hsv hsv是圖像的另一種格式,其中

    2024年02月01日
    瀏覽(17)
  • PyTorch 深度學(xué)習(xí)實(shí)戰(zhàn) | 基于 ResNet 的花卉圖片分類

    PyTorch 深度學(xué)習(xí)實(shí)戰(zhàn) | 基于 ResNet 的花卉圖片分類

    “工欲善其事,必先利其器”。如果直接使用 Python 完成模型的構(gòu)建、導(dǎo)出等工作,勢(shì)必會(huì)耗費(fèi)相當(dāng)多的時(shí)間,而且大部分工作都是深度學(xué)習(xí)中共同擁有的部分,即重復(fù)工作。所以本案例為了快速實(shí)現(xiàn)效果,就直接使用將這些共有部分整理成框架的 TensorFlow 和 Keras 來(lái)完成開(kāi)發(fā)

    2023年04月09日
    瀏覽(89)
  • Pytorch實(shí)現(xiàn)基于深度學(xué)習(xí)的面部表情識(shí)別(最新,非常詳細(xì))

    Pytorch實(shí)現(xiàn)基于深度學(xué)習(xí)的面部表情識(shí)別(最新,非常詳細(xì))

    基于深度學(xué)習(xí)的面部表情識(shí)別 (Facial-expression Recognition) 數(shù)據(jù)集cnn_train.csv包含人類面部表情的圖片的label和feature。 在這里,面部表情識(shí)別相當(dāng)于一個(gè)分類問(wèn)題,共有7個(gè)類別。 其中l(wèi)abel包括7種類型表情: 一共有28709個(gè)label,即包含28709張表情包。 每一行就是一張表情包4848=2304個(gè)

    2024年02月04日
    瀏覽(59)
  • PyTorch 深度學(xué)習(xí)實(shí)戰(zhàn) | 基于生成式對(duì)抗網(wǎng)絡(luò)生成動(dòng)漫人物

    PyTorch 深度學(xué)習(xí)實(shí)戰(zhàn) | 基于生成式對(duì)抗網(wǎng)絡(luò)生成動(dòng)漫人物

    生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)是近些年計(jì)算機(jī)視覺(jué)領(lǐng)域非常常見(jiàn)的一類方法,其強(qiáng)大的從已有數(shù)據(jù)集中生成新數(shù)據(jù)的能力令人驚嘆,甚至連人眼都無(wú)法進(jìn)行分辨。本文將會(huì)介紹基于最原始的DCGAN的動(dòng)漫人物生成任務(wù),通過(guò)定義生成器和判別器,并讓這兩個(gè)網(wǎng)絡(luò)

    2023年04月17日
    瀏覽(46)
  • 作為一名倉(cāng)庫(kù)管理人員,如何有效地管理倉(cāng)庫(kù)?

    作為一名倉(cāng)庫(kù)管理人員,如何有效地管理倉(cāng)庫(kù)?

    作為一名倉(cāng)庫(kù)管理人員,如何有效地管理倉(cāng)庫(kù)? 有效倉(cāng)庫(kù)管理主要可以分為四個(gè)方面: 出入庫(kù)? 庫(kù)存調(diào)撥? 庫(kù)存盤點(diǎn)? 虛擬庫(kù)存/實(shí)際庫(kù)存管理 當(dāng)然倉(cāng)庫(kù)管理最基本的硬件條件還是需要準(zhǔn)備好的,比如將倉(cāng)庫(kù)分一下區(qū)域,以便之后商品入庫(kù)存放起來(lái)方便一些,最好有一些貨物

    2024年02月08日
    瀏覽(21)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包