【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、序列模型、預(yù)訓(xùn)練模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)等
專欄詳細(xì)介紹:【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、序列模型、預(yù)訓(xùn)練模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)等
本專欄主要方便入門同學(xué)快速掌握相關(guān)知識(shí)。后續(xù)會(huì)持續(xù)把深度學(xué)習(xí)涉及知識(shí)原理分析給大家,讓大家在項(xiàng)目實(shí)操的同時(shí)也能知識(shí)儲(chǔ)備,知其然、知其所以然、知何由以知其所以然。
聲明:部分項(xiàng)目為網(wǎng)絡(luò)經(jīng)典項(xiàng)目方便大家快速學(xué)習(xí),后續(xù)會(huì)不斷增添實(shí)戰(zhàn)環(huán)節(jié)(比賽、論文、現(xiàn)實(shí)應(yīng)用等)
專欄訂閱:
- 深度學(xué)習(xí)入門到進(jìn)階專欄
- 深度學(xué)習(xí)應(yīng)用項(xiàng)目實(shí)戰(zhàn)篇
人工智能領(lǐng)域:面試常見(jiàn)問(wèn)題
1.深度學(xué)習(xí)基礎(chǔ)
- 為什么歸一化能夠提高求解最優(yōu)解的速度?
- 為什么要?dú)w一化?
- 歸一化與標(biāo)準(zhǔn)化有什么聯(lián)系和區(qū)別?
- 歸一化有哪些類型?
- Min-max歸一化一般在什么情況下使用?
- Z-score歸一化在什么情況下使用?
- 學(xué)習(xí)率過(guò)大或過(guò)小對(duì)網(wǎng)絡(luò)會(huì)有什么影響?
- batch size的大小對(duì)網(wǎng)絡(luò)有什么影響?
- 在參數(shù)初始化時(shí),為什么不能全零初始化?
- 激活函數(shù)的作用?
- sigmoid函數(shù)有什么優(yōu)缺點(diǎn)?
- RELU函數(shù)有什么優(yōu)缺點(diǎn)?
- 如何選擇合適的激活函數(shù)?
- 為什么 relu 不是全程可微/可導(dǎo)也能用于基于梯度的學(xué)習(xí)?
- 怎么計(jì)算mAP?
- 交叉熵為什么可以作為分類任務(wù)的損失函數(shù)?
- CTC方法主要使用了什么方式來(lái)解決了什么問(wèn)題?
- 機(jī)器學(xué)習(xí)指標(biāo)精確率,召回率,f1指標(biāo)是怎樣計(jì)算的?
2.卷積模型
- 相較于全連接網(wǎng)絡(luò),卷積在圖像處理方面有什么樣的優(yōu)勢(shì)?
- 卷積中感受野的計(jì)算方式?
- 1*1卷積的作用是什么?
- 深度可分離卷積的計(jì)算方式以及意義是什么?
3.預(yù)訓(xùn)練模型
- BPE生成詞匯表的算法步驟是什么?
- Multi-Head Attention的時(shí)間復(fù)雜度是多少?
- Transformer的權(quán)重共享在哪個(gè)地方?
- Transformer的self-attention的計(jì)算過(guò)程是什么?
- 講一下BERT的基本原理
- 講一下BERT的三個(gè)Embedding是做什么的?
- BERT的預(yù)訓(xùn)練做了些什么?
- BERT,GPT,ELMO的區(qū)別
- 請(qǐng)列舉一下BERT的優(yōu)缺點(diǎn)
- ALBERT相對(duì)于BERT做了哪些改進(jìn)?
- ALBERT Sentence order prediction:NSP和SOP的區(qū)別是什么?
4.對(duì)抗神經(jīng)網(wǎng)絡(luò)
-
GAN是怎么訓(xùn)練的?
-
GAN生成器輸入為什么是隨機(jī)噪聲
-
GAN生成器最后一層激活函數(shù)為什么通常使用tanh()?
-
GAN使用的損失函數(shù)是什么?
-
GAN中模式坍塌(model callapse指什么?)
-
GAN模式坍塌解決辦法
-
GAN模型訓(xùn)練不穩(wěn)定的原因
-
GAN模式訓(xùn)練不穩(wěn)定解決辦法 or 訓(xùn)練GAN的經(jīng)驗(yàn)/技巧
-
深度學(xué)習(xí)進(jìn)階篇[9]:對(duì)抗生成網(wǎng)絡(luò)GANs綜述、代表變體模型、訓(xùn)練策略、GAN在計(jì)算機(jī)視覺(jué)應(yīng)用和常見(jiàn)數(shù)據(jù)集介紹,以及前沿問(wèn)題解決
5.計(jì)算機(jī)視覺(jué)
-
ResNet中Residual block解決了什么問(wèn)題?
-
使用Cutout進(jìn)行數(shù)據(jù)增廣有什么樣的優(yōu)勢(shì)?
-
GoogLeNet使用了怎樣的方式進(jìn)行了網(wǎng)絡(luò)創(chuàng)新?
-
ViT算法中是如何將Transformer結(jié)構(gòu)應(yīng)用到圖像分類領(lǐng)域的?
-
NMS的原理以及具體實(shí)現(xiàn)?
-
OCR常用檢測(cè)方法有哪幾種、各有什么優(yōu)缺點(diǎn)
-
介紹一下DBNet算法原理
-
DBNet 輸出是什么?
-
DBNet loss
-
介紹以下CRNN算法原理
-
介紹一下CTC原理
-
OCR常用的評(píng)估指標(biāo)
-
OCR目前還存在哪些挑戰(zhàn)/難點(diǎn)?
6.自然語(yǔ)言處理
- RNN一般有哪幾種常用建模方式?
- LSTM是如何改進(jìn)RNN,保持長(zhǎng)期依賴的?
- LSTM在每個(gè)時(shí)刻是如何融合之前信息和當(dāng)前信息的?
- 使用LSTM如何簡(jiǎn)單構(gòu)造一個(gè)情感分析任務(wù)?
- 介紹一下GRU的原理
- word2vec提出了哪兩種詞向量訓(xùn)練方式
- word2vec提出了負(fù)采樣的策略,它的原理是什么,解決了什么樣的問(wèn)題?
- word2vec通過(guò)什么樣任務(wù)來(lái)訓(xùn)練詞向量的?
- 如果讓你實(shí)現(xiàn)一個(gè)命名實(shí)體識(shí)別任務(wù),你會(huì)怎么設(shè)計(jì)?
- 在命名實(shí)體識(shí)別中,一般在編碼網(wǎng)絡(luò)的后邊添加CRF層有什么意義
- 介紹一下CRF的原理
- CRF是如何計(jì)算一條路徑分?jǐn)?shù)的?
- CRF是如何解碼序列的?
- 使用bilstm+CRF做命名實(shí)體識(shí)別時(shí),任務(wù)的損失函數(shù)是怎么設(shè)計(jì)的?
- BERT的結(jié)構(gòu)和原理是什么?
- BERT使用了什么預(yù)訓(xùn)練任務(wù)?
- 說(shuō)一下self-attention的原理?
7.推薦系統(tǒng)
- DSSM模型的原理是什么?
- DSSM怎樣解決OOV問(wèn)題的?
- 推薦系統(tǒng)的PV和UV代表什么?
- 協(xié)同過(guò)濾推薦和基于內(nèi)容的推薦的區(qū)別是什么?
- 說(shuō)一說(shuō)推薦系統(tǒng)的交叉驗(yàn)證的方法?
8.模型壓縮
-
為什么需要進(jìn)行模型壓縮?
-
模型壓縮的基本方法有哪些?
-
DynaBERT模型的創(chuàng)新點(diǎn)是什么?
-
TinyBERT是如何對(duì)BERT進(jìn)行蒸餾的?
9.強(qiáng)化學(xué)習(xí)
-
DQN網(wǎng)絡(luò)的創(chuàng)新點(diǎn)是什么?
-
什么是馬爾可夫決策過(guò)程?
-
什么是SARSA?
-
什么是Q-Learning?文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-619115.html
10 元學(xué)習(xí)
- 元學(xué)習(xí)概念、學(xué)習(xí)期、工作原理、模型分類等
- 基于優(yōu)化的元學(xué)習(xí)-MAML模型、LEO模型、Reptile模型優(yōu)缺點(diǎn)和改進(jìn)技巧
- 基于度量的元學(xué)習(xí):SNAIL、RN、PN、MN創(chuàng)新點(diǎn)
- 基于模型的元學(xué)習(xí)-Learning to Learn優(yōu)化策略、Meta-Learner LSTM原理和技巧
文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-619115.html
到了這里,關(guān)于人工智能領(lǐng)域:面試常見(jiàn)問(wèn)題超全(深度學(xué)習(xí)基礎(chǔ)、卷積模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)、預(yù)訓(xùn)練模型、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、推薦系統(tǒng)、模型壓縮、強(qiáng)化學(xué)習(xí)、元學(xué)習(xí))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!