0.總結(jié)
- 不知道是不是大模型的流行還是什么其他原因,導(dǎo)致現(xiàn)在網(wǎng)上都沒有人來分享NER模型的相關(guān)論文了~
- 本文方法簡單,代碼應(yīng)該也比較簡單(但是沒見作者放出來)。
- 推薦指數(shù):★★☆☆☆
1. 動機
- 處理三種不同場景的NER
- 與 sequence-to-sequence NER 方法不同,本模型不需要強制實體按照順序生成
2. 方法
其實就是一個BART模型,然后里面套了幾層簡單的處理而已。
3. 訓(xùn)練細節(jié)
3.1 Inverse Generation Training
Since the forward generation task is biased towards the left-to-right semantic structure.
這話意思就是說:這種自回歸的生成方法傾向于從左到右的語義結(jié)構(gòu)。
于是提出使用一個 inverse generation training的方法讓模型同時也掌握從右到左的語義結(jié)構(gòu)。
做法:使用一個額外的解碼器,同時訓(xùn)練生成實體尾 到實體頭。舉例如下:Swollen, burning feet and ankles. 對于這條句子,得到的翻轉(zhuǎn)目標序列則是:
3.2 聯(lián)合學(xué)習(xí)
將上述得到的各個損失進行聯(lián)合優(yōu)化。文章來源:http://www.zghlxwxcb.cn/news/detail-420591.html
4. 疑惑
主要的疑惑點有:文章來源地址http://www.zghlxwxcb.cn/news/detail-420591.html
- Problem Formulation 中的對Ptr的定義。
到了這里,關(guān)于《論文閱讀》SetGNER:General Named Entity Recognition as Entity Set Generation的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!