国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Text-Augmented Open Knowledge Graph Completion viaPre-Trained Language Models

這篇具有很好參考價值的文章主要介紹了Text-Augmented Open Knowledge Graph Completion viaPre-Trained Language Models。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Text-Augmented Open Knowledge Graph Completion viaPre-Trained Language Models,知識圖譜的文本動態(tài)補全,知識圖譜,語言模型,人工智能

摘要

開放知識圖譜(KG)完成的任務是從已知的事實中得出新的發(fā)現。增加KG完成度的現有工作需要(1)事實三元組來擴大圖推理空間,或(2)手動設計提示從預訓練的語言模型(PLM)中提取知識,表現出有限的性能,需要專家付出昂貴的努力。為此,我們提出了TAGREAL,它自動生成高質量的查詢提示,并從大型文本語料庫中檢索支持信息,從PLM中探測知識以補全KG。結果表明,TAGREAL在兩個基準數據集上達到了最先進的性能。我們發(fā)現TAGREAL即使在有限的訓練數據下也具有出色的性能,優(yōu)于現有的基于嵌入、基于圖和基于plm的方法。

1.介紹

知識圖(KG)是一種異構圖,它以實體-關系-實體三元組的形式編碼事實信息,其中關系連接頭部實體和尾部實體(例如,“Miamilocated_in-USA”)(Wang等人,2017;Hogan et al, 2021)。KG (Dai等人,2020)在許多NLP應用中起著核心作用,包括問答(Hao等人,2017;Yasunaga等人,2021)、推薦系統(Zhou等人,2020)和藥物發(fā)現(Zitnik等人,2018)。然而,現有的作品(Wang et al, 2018;Hamilton等人,2018)表明,大多數大規(guī)模的kg是不完整的,不能完全覆蓋大量的現實世界知識。這一挑戰(zhàn)激發(fā)了KG補全,其目的是在給定主題實體和關系的情況下找到一個或多個對象實體(Lin et al, 2015)。例如,在圖1中?文章來源地址http://www.zghlxwxcb.cn/news/detail-534757.html

到了這里,關于Text-Augmented Open Knowledge Graph Completion viaPre-Trained Language Models的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 論文閱讀:Retrieval-augmented Generation across Heterogeneous Knowledge

    論文閱讀:Retrieval-augmented Generation across Heterogeneous Knowledge

    跨異構知識的檢索增強生成 NAACL 2022 論文鏈接 摘要 檢索增強生成(RAG)方法越來越受到NLP社區(qū)的關注,并在許多NLP下游任務上取得了最先進的性能。與傳統的預訓練生成模型相比, RAG方法具有知識獲取容易、可擴展性強、訓練成本低等顯著優(yōu)點 。盡管現有的RAG模型已應用于

    2024年02月06日
    瀏覽(23)
  • Commonsense Knowledge Base Completion with Structural and Semantic Context

    Commonsense Knowledge Base Completion with Structural and Semantic Context

    與研究較多的傳統知識庫(如Freebase)相比,常識性知識圖(如ATOMIC和ConceptNet)的自動知識庫補全提出了獨特的挑戰(zhàn)。 常識知識圖使用自由形式的文本來表示節(jié)點,與傳統知識庫相比,導致節(jié)點數量增加了幾個數量級(與Freebase (FB15K237)相比,ATOMIC中的節(jié)點數量增加了18倍)。 重要的

    2024年02月09日
    瀏覽(21)
  • Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning

    本文是LLM系列的文章,針對《Decoupling Knowledge from Memorization: Retrieval 提示學習方法在仍然遵循基于參數的學習范式的同時,通過誘導更好的小樣本表現,在自然語言處理中掀起了波瀾;學習中的遺忘和死記硬背問題可能會遇到不穩(wěn)定的泛化問題。具體來說,在完全監(jiān)督的訓練

    2024年02月11日
    瀏覽(25)
  • ChatGPT 的 Text Completion

    ChatGPT 的 Text Completion

    該章節(jié)我們來學習一下 “Text Completion” ,也就是 “文本完成” 。“Text Completion” 并不是一種模型,而是指模型能夠根據上下文自動完成缺失的文本部分,生成完整的文本。 Text Completion 也稱為文本自動補全,Text Completion并不是一個獨立的模型,而是自然語言處理模型中的一

    2024年02月05日
    瀏覽(20)
  • An Efficient Memory-Augmented Transformer for Knowledge-Intensive NLP Tasks

    本文是LLM系列文章,針對《An Efficient Memory-Augmented Transformer for Knowledge 獲取外部知識對于許多自然語言處理任務至關重要,例如問答和對話?,F有的方法通常依賴于將知識存儲在其參數中的參數模型,或者使用可以訪問外部知識源的檢索增強模型。參數模型和檢索增強模型在

    2024年02月09日
    瀏覽(15)
  • RAG:Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks 論文閱讀

    RAG:Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks 論文閱讀

    2020 NeuralPS 文章地址:https://arxiv.org/abs/2005.11401 源碼地址:GitHub - huggingface/transformers: ?? Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.? ? ? ?- 142 RAG 目錄 0、背景 1、摘要 2、導言? ? ?? 3、結論 4、模型 5、實驗 6、與REALM比較 7、想法 ????????Language Mod

    2024年02月05日
    瀏覽(28)
  • 知識圖譜(Knowledge Graph)根本概念

    知識圖譜(Knowledge Graph)根本概念

    目錄 知識圖譜 定義 基礎概念: 知識圖譜構建的關鍵技術 知識圖譜的構建 實體命名識別 知識抽取 實體統一 指代消解 知識圖譜的存儲 RDF和圖數據庫的主要特點區(qū)別 知識圖譜能干什么 反欺詐 不一致性驗證 客戶失聯管理 知識推理 常見圖數據庫 2012年5月17日,Google 正式提出

    2024年02月13日
    瀏覽(17)
  • 時空知識圖譜研究進展與展望Spatiotemporal Knowledge Graph

    時空知識圖譜研究進展與展望Spatiotemporal Knowledge Graph

    時空知識圖譜研究進展與展望 時空知識圖譜研究進展與展望 陸鋒1,?2,?4,?5,?*,? 諸云強1,?2,?4,? 張雪英3,?4 作者信息 ?+ Spatiotemporal Knowledge Graph: Advances and Perspectives LU Feng1,?2,?4,?5,?*,? ZHU Yunqiang1,?2,?4,? ZHANG Xueying3,?4 Author information ?+ 文章歷史 ?+ 摘要 地理信息 的不斷泛

    2024年04月22日
    瀏覽(28)
  • KGAT: Knowledge Graph Attention Network for Recommendation

    KGAT: Knowledge Graph Attention Network for Recommendation

    [1905.07854] KGAT: Knowledge Graph Attention Network for Recommendation (arxiv.org) LunaBlack/KGAT-pytorch (github.com) 目錄 1、背景 2、任務定義 3、模型 3.1 Embedding layer 3.2 Attentive Embedding Propagation Layers 3.3 Model Prediction 3.4?Optimization 4、部分代碼解讀 4.1?數據集 4.2?數據集的處理 4.3?模型 4.4 模型訓練 C

    2024年02月16日
    瀏覽(16)
  • Knowledge Graph Prompting for Multi-Document Question Answering

    本文是LLM系列文章,針對《Knowledge Graph Prompting for Multi-Document Question Answering》的翻譯。 大型語言模型的“預訓練、提示、預測”范式在開放領域問答(OD-QA)中取得了顯著的成功。然而,很少有工作在多文檔問答(MD-QA)的場景中探索這種范式,這項任務需要徹底理解不同文

    2024年02月09日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包