這篇具有很好參考價值的文章主要介紹了Vision Transformer (ViT)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。
生成式模型與判別式模型
生成式模型,又稱概率模型,是指通過學(xué)習(xí)數(shù)據(jù)的分布來建立模型P(y|x),然后利用該模型來生成新的數(shù)據(jù)。生成式模型的典型代表是樸素貝葉斯模型,該模型通過學(xué)習(xí)數(shù)據(jù)的分布來建立概率模型,然后利用該模型來生成新的數(shù)據(jù)。
判別式模型,又稱非概率模型,是指通過學(xué)習(xí)輸入和輸出之間的映射關(guān)系來建立模型y=f(x),然后利用該模型來預(yù)測新的輸出。判別式模型的典型代表是支持向量機模型,該模型通過學(xué)習(xí)輸入和輸出之間的映射關(guān)系來建立分類模型,然后利用該模型來預(yù)測新的分類結(jié)果。文章來源:http://www.zghlxwxcb.cn/news/detail-613042.html
- 常見生成式模型:決策樹、樸素貝葉斯、隱馬爾可夫模型、條件隨機場、概率潛在語義分析、潛在狄利克雷分配、高斯混合模型;
- 常見判別式模型:感知機、支持向量機、K臨近、Adaboost、K均值、潛在語義分析、神經(jīng)網(wǎng)絡(luò);
- 邏輯回歸既可以看做是生成式也可以看做是判別式。
結(jié)論:vit在中小型數(shù)據(jù)集上效果不佳,在大型數(shù)據(jù)集上進行預(yù)訓(xùn)練效果較好。文章來源地址http://www.zghlxwxcb.cn/news/detail-613042.html
英文積累
de-facto standard 事實上的標(biāo)準(zhǔn)
in conjunction with 與...一起(協(xié)力)
unprecedented 無前例的(嶄新的)
scaling 可擴展性
inductive biases 歸納偏置(相當(dāng)于先驗知識,卷積神經(jīng)網(wǎng)絡(luò)中有兩個先驗知識即假設(shè),第一個是locality(局部性):CNN以滑動窗口形式進行卷積,因此假設(shè)圖片上相鄰的區(qū)域會有相鄰的特征; 另外一個歸納偏置是“平移等變性”:translation equivariance,用公式表示為f(g(x))=g(f(x)),可以理解f為卷積操作,g為平移操作,即假設(shè)無論先做卷積還是先做平移操作,最后的結(jié)果是一樣的。卷積核就像一個模板template一樣,不論一張圖片同樣的物體移到哪里,只要是同樣的輸入進來,遇到同樣的卷積核,得到的輸出永遠是一樣的。)
used very sparingly 使用非常少
Hybrid Architecture 混合架構(gòu)
(前面CNN得到的特征圖拉平轉(zhuǎn)為embedding輸入注意力的encoder)
spatial size 空間大小
interpolation 插值
manually 手動的
Model Variants 模型變體
inversely proportional 成反比的
到了這里,關(guān)于Vision Transformer (ViT)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!
本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!