国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification

這篇具有很好參考價值的文章主要介紹了《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

總結

  • 將NER視作是word-word間的 Relation Classification。 這個word-word 間的工作就很像是TPlinker那個工作,那篇工作是使用token間的 link。
  • 推薦指數(shù):★★★☆☆
  • 值得學習的點:
    (1)用關系抽取的方法做NER抽取
    (2)用空洞卷積解決詞間交互問題
    (3)CLN(conditional LayerNorma)的使用

1. 動機

統(tǒng)一三類任務(flat、overlapped、nested NER)的處理
span-based 的方法 只關注邊界識別。
sequence-to-sequence 的模型有暴露偏差的影響

2. 想法

  • 建模實體詞間的簡單鄰接關系(用NNW,THW-*)
  • multi-granularity 2D convolutions for better refining the grid representations. (提出一個多粒度的二維卷積用于更好的refine grid 的表示)

3. 模型

3.1 方法介紹

下面先介紹本文的方法思想。
《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification
作者對統(tǒng)一的NER任務進行了介紹:
《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification
就是將三種NER統(tǒng)一成一個 token pairs 的關系抽取任務。(相當于將這個NER的任務轉換成了關系抽取的任務。)這里的關系預定義了三種:None, Next-Neighboring-Word, Tail-Head-Word-*。那么就詳細介紹一下這三種關系代表啥意思:

  • None: 這兩個token之間沒有關系;
  • Next-Neighboring-Word(NNW):說明這一對token pair 屬于的是同一個entity mention. gird 中行的下標的緊跟著的一個詞就是列下標中的那個詞,例如坐標(i,j) 代表i這個詞的后來者就是j這個詞。
  • Tail-Head-Word-*(THW): grid 中的行所在的那個詞是這個entity mention的tail,列所在的那個詞是head。 * 代表的是實體類型的意思。

3.2 模型架構

上面講了本文的主要方法思想,下面就看下本文的提出的模型的架構:

《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification
該模型主要分成三部分:

  • 第一部分:BERT+LSTM 的編碼器,用于編碼文本
  • 第二部分:卷積層,用于構建、改善 word-pair grid的表示,用于后面的word-word 的關系分類。
    從之前的工作中,可以看出CNN是非常適合做2D convolution的。

看下這個CLN是啥,
word-pair 的 grid是一個3維的矩陣。對于word pair ( x i , x j ) (x_i,x_j) (xi?,xj?) 的表示 V i j V_{ij} Vij? 可以被認為是x_i 的表示 h_i 和 x_j 的表示的拼接。根據(jù)CLN這個方法來計算 V i j V_{ij} Vij?
《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification
這個CLN 有啥用?為啥要用這個?

受BERT的三個輸入embedding 啟發(fā),作者這里使用了是三個word embedding。其中 V 表示詞向量, E d E^d Ed表示相對位置信息(每對words), E t E^t Et表示region information 用于區(qū)分出是上三角、下三角區(qū)域。然后交由一個MLP做映射處理。

接著 Multi-Granularity Dilated Convolution
受TextCNN啟發(fā),使用多個2維空洞卷積。用于捕捉不同距離間的詞交互。

  • 第三部分:一個co-predictor layer,(包含一個biaffine classifier 和一個multi-layer perceptron) 用于推理出所有的word pair 間的關系

4.實驗

略~文章來源地址http://www.zghlxwxcb.cn/news/detail-412998.html

關鍵參數(shù)

問題

  • the kernel bottleneck of unified NER 是啥?
  • Current best-performing method

到了這里,關于《論文閱讀》Unified Named Entity Recognition as Word-Word Relation Classification的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 論文閱讀 Interpretable Unified Language Checking

    論文閱讀 Interpretable Unified Language Checking

    本文提出了一種新的方法來解決多種自然語言處理任務中的問題,包括公平性檢查、事實檢查、虛假新聞檢測和對抗攻擊檢測等。該方法基于大型語言模型和少量人類標注的提示信息,通過在模型中引入相應的提示,來提高模型的性能和可解釋性。該論文的實際意義非常重大

    2024年02月11日
    瀏覽(28)
  • 論文閱讀 - Understanding Diffusion Models: A Unified Perspective

    論文閱讀 - Understanding Diffusion Models: A Unified Perspective

    假設給定了一個數(shù)據(jù)集 { x 1 , x 2 , x 3 , . . . , x N } {x_1, x_2, x_3, ..., x_N} { x 1 ? , x 2 ? , x 3 ? , ... , x N ? } ,在圖像生成任務中,每個 x i x_i x i ? 就是一張圖片,每個點都是獨立采樣于真實數(shù)據(jù)分布 p ( x ) p(x) p ( x ) 的。 生成模型 的目的就是通過有限的數(shù)據(jù)集 { x i } {x_i}

    2024年02月12日
    瀏覽(30)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 論文閱讀筆記

    Generative Diffusion Prior for Unified Image Restoration and Enhancement 論文閱讀筆記

    這是CVPR2023的一篇用diffusion先驗做圖像修復和圖像增強的論文 之前有一篇工作做了diffusion先驗(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但這個模型只能做線性的退化,對于暗圖增強這種非線性

    2024年02月15日
    瀏覽(27)
  • 圖像融合論文閱讀:U2Fusion: A Unified Unsupervised Image Fusion Network

    圖像融合論文閱讀:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 論文地址 代碼

    2024年01月17日
    瀏覽(35)
  • 論文閱讀:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects-6DoF位姿估計

    論文閱讀:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects-6DoF位姿估計

    CVPR2024滿分文章,英偉達團隊工作。 文章地址:https://arxiv.org/pdf/2312.08344.pdf 代碼地址:https://github.com/NVlabs/FoundationPose 提出FoundationPose,能用于6D位姿估計與跟蹤,無論模型是否可用都支持。只需要CAD模型或少量參考圖像就能進行zero-shot測試,泛化能力依靠大規(guī)模訓練, LLM 和

    2024年04月29日
    瀏覽(17)
  • 【論文閱讀筆記】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    【論文閱讀筆記】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    Emu edit是一篇 圖像編輯Image Editing 的文章,和instruct pix2pix類似,選擇了合成數(shù)據(jù)作為訓練數(shù)據(jù),不是zero-shot任務,并進一步將多種任務都整合為生成任務,從而提高模型的編輯能力。本篇文章的效果應該目前最好的,在local和global編輯甚至其他代理任務(分割、邊緣檢測等)

    2024年02月04日
    瀏覽(51)
  • 【開放集檢測】OpenGAN: Open-Set Recognition via Open Data Generation 論文閱讀

    【開放集檢測】OpenGAN: Open-Set Recognition via Open Data Generation 論文閱讀

    Machine learning systems that operate in the real openworld invariably encounter test-time data that is unlike training examples, such as anomalies or rare objects that were insufficiently or even never observed during training. invariably:一貫的 … can be crisply formulated as … 可以被很清晰的定義/表述為 an elegant idea is to… 一個絕佳

    2024年02月02日
    瀏覽(27)
  • 【視頻異常檢測】Delving into CLIP latent space for Video Anomaly Recognition 論文閱讀

    【視頻異常檢測】Delving into CLIP latent space for Video Anomaly Recognition 論文閱讀

    中文題目:視頻異常識別的CLIP潛在空間研究 文章信息: 原文鏈接:https://arxiv.org/abs/2310.02835 源代碼:https://github.com/luca-zanella-dvl/AnomalyCLIP 我們介紹了一種新的方法AnomalyCLIP,它首次將大型語言和視覺(LLV)模型(如CLIP)與多實例學習相結合,用于聯(lián)合視頻異常檢測和分類。

    2024年04月14日
    瀏覽(20)
  • 論文閱讀:Towards a Unified View of Parameter-Efficient Transfer Learning對參數(shù)高效遷移學習的統(tǒng)一看法

    論文閱讀:Towards a Unified View of Parameter-Efficient Transfer Learning對參數(shù)高效遷移學習的統(tǒng)一看法

    Towards a Unified View of Parameter-Efficient Transfer Learning對參數(shù)高效遷移學習的統(tǒng)一看法 參數(shù)高效的微調在NLP中是較新的方法,早期的代表工作是2019年發(fā)表的adapter。2021年開始有越來越多的人關注這一方向并有不同的方法被提出, 代表工作有prefix tuning, P-tuning, prompt tuning, bitfit, LoRA等

    2024年02月08日
    瀏覽(24)
  • EEG-GNN論文閱讀和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    EEG-GNN論文閱讀和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    下面所有博客是個人對EEG腦電的探索,項目代碼是早期版本不完整,需要完整項目代碼和資料請私聊。 數(shù)據(jù)集 1、腦電項目探索和實現(xiàn)(EEG) (上):研究數(shù)據(jù)集選取和介紹SEED 相關論文閱讀分析: 1、EEG-SEED數(shù)據(jù)集作者的—基線論文閱讀和分析 2、圖神經(jīng)網(wǎng)絡EEG論文閱讀和分析:《

    2024年02月07日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包