GPT(autoregressive)模型是一個自回歸模型,利用left-to-right語言模型,由于不是雙向attention 機制,因此不能再NLU任務中,獲取充分的上下文信息,BERT類似自編碼(autoencoding),通過MLm任務學習,但是不能直接應用到text? generation;encoder-deconder模型采用再encoder部分雙向attention,在decoder部分單向attention,在摘要提取回應生成?DeBERTa?
? ? ? ? ?本模型提出的是自回歸空白填充(autoregressive),從題目上看,沒什么創(chuàng)新,具體的,隨機掩蓋連續(xù)得tokens與自編碼思想相同,順序得重構對應得掩蓋連續(xù)spans,遵循自回歸預訓練,如果單獨,從這幾句話來講,說實話和?DeBERTa完全一樣,唯一不同的是Deberat是在encoder-decoder decoder部分生成目標,但是GLM是在原始位置處生成,如圖1文章來源:http://www.zghlxwxcb.cn/news/detail-522114.html
?文章來源地址http://www.zghlxwxcb.cn/news/detail-522114.html
到了這里,關于GLM: General Language Model Pretrainingwith Autoregressive Blank Infilling翻譯理解的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!