諸神緘默不語(yǔ)-個(gè)人CSDN博文目錄
諸神緘默不語(yǔ)的論文閱讀筆記和分類
論文名稱:REALM: Retrieval-Augmented Language Model Pre-Training
模型名稱:Retrieval-Augmented Language Model pre-training (REALM)
本文是2020年ICML論文,作者來(lái)自谷歌,關(guān)注RAG+LLM。目標(biāo)是解決純用LM參數(shù)儲(chǔ)存知識(shí)就得讓LM尺寸越來(lái)越大+模塊化+可解釋。解決方案思路不復(fù)雜,就是從維百里找文章,加到輸入里面做QA,預(yù)訓(xùn)練檢索表征模塊,在微調(diào)時(shí)隔好幾步就重新更新一下檢索表征。檢索是可以更新的(可以在老數(shù)據(jù)上預(yù)訓(xùn)練,在新數(shù)據(jù)上做表征)
這玩意也能端到端真是太牛逼了
retrieve-then-predict
從維百中檢索知識(shí)(檢索到文章),將原文和檢索到的文本拼一起預(yù)訓(xùn)練
這個(gè)具體如何實(shí)現(xiàn)端到端訓(xùn)練其實(shí)我沒(méi)太看懂,總之就是說(shuō)想了個(gè)辦法,這個(gè)檢索文檔的過(guò)程可以定義為Maximum Inner Product Search (MIPS)
下游任務(wù)是Open-QA,傳統(tǒng)解決方案是從語(yǔ)料庫(kù)中找出問(wèn)題對(duì)應(yīng)的原文(retrieval-based),或者直接生成(generation-based)
1. REALM模塊
- 預(yù)訓(xùn)練:MLM
retrieve, then predict
檢索文檔 z z z
預(yù)測(cè): p ( y ∣ z , x ) p(y|z,x) p(y∣z,x) - 微調(diào):Open-QA
- neural knowledge retriever:內(nèi)積
表征模型:BERT-style Transformers
對(duì)[CLS]表征做線性轉(zhuǎn)換降維:
這玩意兒還專門(mén)分開(kāi)表征標(biāo)題和正文,真詳細(xì)啊。 - knowledge-augmented encoder
join x x x and z z z
MLM預(yù)訓(xùn)練:
微調(diào)時(shí)假設(shè)答案 y y y 是 z z z 中的連續(xù)tokens。 S ( z , y ) S(z,y) S(z,y)是spans:
所有span指向的可能性是加總 - 訓(xùn)練:最大似然
簡(jiǎn)化在所有語(yǔ)料庫(kù)文檔上的求和→top k文檔求和
然后這里有一塊我沒(méi)看懂的MIPS,略,大概就是說(shuō)需要經(jīng)常重算 ( z ∣ x ) (z|x) (z∣x) 以簡(jiǎn)化計(jì)算balabala
這個(gè)僅用于預(yù)訓(xùn)練,微調(diào)不更新知識(shí)庫(kù)向量
數(shù)學(xué)分析看不懂,略。
- Injecting inductive biases into pre-training
Salient span masking:mask那種需要world knowledge的span
Null document:不用檢索的時(shí)候就放個(gè)這個(gè)
Prohibiting trivial retrievals:這個(gè)是考慮到有時(shí)給我們找到原句了,這不得行,所以在預(yù)訓(xùn)練時(shí)直接把這種情況給刪了
Initialization:這個(gè)主要是擔(dān)心retriever的表征不好(冷啟動(dòng)問(wèn)題): Inverse Cloze Task (ICT) 預(yù)測(cè)句子出處。knowledge-augmented encoder用BERT
2. 實(shí)驗(yàn)
數(shù)據(jù)集里面那個(gè)CuratedTrec有點(diǎn)怪啊
主實(shí)驗(yàn)結(jié)果:
消融實(shí)驗(yàn):
3. 其他
附錄開(kāi)篇上來(lái)就是數(shù)學(xué)公式,害怕。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-758902.html
附錄還沒(méi)看,如果以后有相關(guān)研究需求的話再來(lái)細(xì)看。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-758902.html
到了這里,關(guān)于Re58:讀論文 REALM: Retrieval-Augmented Language Model Pre-Training的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!