国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Generated Knowledge Prompting for Commonsense Reasoning

這篇具有很好參考價(jià)值的文章主要介紹了Generated Knowledge Prompting for Commonsense Reasoning。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

本文是知識(shí)圖譜系列相關(guān)的文章,針對(duì)《Generated Knowledge Prompting for Commonsense Reasoning》的翻譯。

摘要

結(jié)合外部知識(shí)是否有利于常識(shí)推理,同時(shí)保持預(yù)訓(xùn)練序列模型的靈活性,這仍然是一個(gè)懸而未決的問(wèn)題。為了研究這個(gè)問(wèn)題,我們開(kāi)發(fā)了生成知識(shí)提示,它包括從語(yǔ)言模型中生成知識(shí),然后在回答問(wèn)題時(shí)提供知識(shí)作為額外輸入。我們的方法不需要對(duì)知識(shí)集成進(jìn)行特定任務(wù)的監(jiān)督,也不需要訪(fǎng)問(wèn)結(jié)構(gòu)化的知識(shí)庫(kù),但它提高了大規(guī)模、最先進(jìn)的模型在四個(gè)常識(shí)推理任務(wù)上的性能,在數(shù)值常識(shí)(NumerSense)、一般常識(shí)(CommonsenseQA 2.0)和科學(xué)常識(shí)(QASC)基準(zhǔn)上實(shí)現(xiàn)了最先進(jìn)的結(jié)果。生成的知識(shí)提示突出了大規(guī)模語(yǔ)言模型作為外部知識(shí)的靈活來(lái)源,以改進(jìn)常識(shí)推理。我們的代碼可在github.com/liujch1998/GKP上獲得。

1 引言

2 生成知識(shí)提示

3 實(shí)驗(yàn)設(shè)置

4 實(shí)驗(yàn)結(jié)果

5 相關(guān)工作

6 結(jié)論

我們介紹了生成知識(shí)提示,這是一種從語(yǔ)言模型中引出和整合知識(shí)的簡(jiǎn)單方法,可以提高常識(shí)推理任務(wù)的性能。特別是,我們通過(guò)提示一個(gè)語(yǔ)言模型來(lái)生成知識(shí)陳述,該模型具有特定任務(wù)的、人性化的、小樣本的問(wèn)題知識(shí)對(duì)演示。我們表明,只需在推理時(shí)插入知識(shí),就可以對(duì)知識(shí)進(jìn)行集成,而無(wú)需對(duì)知識(shí)集成模型進(jìn)行微調(diào)。我們的方法在多個(gè)數(shù)據(jù)集上顯示了有效性,在三個(gè)常識(shí)性推理任務(wù)上設(shè)置了新的技術(shù)狀態(tài),并在各種設(shè)置下工作。該方法的成功突出了語(yǔ)言模型作為常識(shí)推理的靈活、高質(zhì)量知識(shí)的來(lái)源。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-688609.html

到了這里,關(guān)于Generated Knowledge Prompting for Commonsense Reasoning的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》全文翻譯

    題目:《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》 作者:Jason Wei and et al. 會(huì)議: NeurlPS 2022 內(nèi)容概述:論文探索如何生成一個(gè)思想鏈(一系列中間推理步驟)來(lái)顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 我們探索生成一條思維鏈(一系列中間推理步驟)如何顯

    2024年02月09日
    瀏覽(17)
  • 文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    文獻(xiàn)閱讀:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 1. 文章簡(jiǎn)介 2. 具體方法 3. 實(shí)驗(yàn)結(jié)果 1. 數(shù)學(xué)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 3. 消解實(shí)驗(yàn) 4. 魯棒性考察 2. 常識(shí)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 3. 符號(hào)推理 1. 實(shí)驗(yàn)設(shè)計(jì) 2. 實(shí)驗(yàn)結(jié)果 4. 結(jié)論 思考 文獻(xiàn)鏈接:https://arxiv.or

    2024年02月10日
    瀏覽(42)
  • (論文閱讀)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    (論文閱讀)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

    論文地址 https://openreview.net/pdf?id=_VjQlMeSB_J ????????我們探索如何生成一個(gè)思維鏈——一系列中間推理步驟——如何顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 特別是,我們展示了這種推理能力如何通過(guò)一種稱(chēng)為思維鏈提示的簡(jiǎn)單方法自然地出現(xiàn)在足夠大的語(yǔ)言模型中,

    2024年02月08日
    瀏覽(39)
  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思維鏈】

    《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思維鏈】

    思維鏈,是一系列中間推理步驟,可以顯著提高大語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 思維鏈:一種簡(jiǎn)單的提示方法,通過(guò)一系列的中間推理步驟,可以大大提高大語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 下圖為使用標(biāo)準(zhǔn)提示詞和使用思維鏈提示詞的輸出的區(qū)別: 與傳統(tǒng)Prompt的區(qū)別:

    2024年04月23日
    瀏覽(30)
  • 生成式AI - Knowledge Graph Prompting:一種基于大模型的多文檔問(wèn)答方法

    生成式AI - Knowledge Graph Prompting:一種基于大模型的多文檔問(wèn)答方法

    大型語(yǔ)言模型(LLM)已經(jīng)徹底改變了自然語(yǔ)言處理(NLP)任務(wù)。它們改變了我們與文本數(shù)據(jù)交互和處理的方式。這些強(qiáng)大的AI模型,如OpenAI的GPT-4,改變了理解、生成人類(lèi)類(lèi)似文本的方式,導(dǎo)致各種行業(yè)出現(xiàn)了眾多突破性應(yīng)用。 LangChain是一個(gè)用于構(gòu)建基于大型語(yǔ)言模型(如G

    2024年02月20日
    瀏覽(23)
  • GREASELM: GRAPH REASONING ENHANCED LANGUAGE MODELS FOR QUESTION ANSWERING

    本文是LLM系列文章,針對(duì)《GREASELM: GRAPH REASONING ENHANCED LANGUAGE MODELS FOR QUESTION ANSWERING》的翻譯。 回答關(guān)于文本敘事的復(fù)雜問(wèn)題需要對(duì)所陳述的上下文和作為其基礎(chǔ)的世界知識(shí)進(jìn)行推理。然而,作為大多數(shù)現(xiàn)代QA系統(tǒng)的基礎(chǔ)的預(yù)訓(xùn)練語(yǔ)言模型(LM)并不能有力地表示概念之間的潛

    2024年02月09日
    瀏覽(17)
  • Decomposed Prompting: A MODULAR APPROACH FOR SOLVING COMPLEX TASKS

    本文是LLM系列文章,針對(duì)《Decomposed Prompting: A MODULAR APPROACH FOR SOLVING COMPLEX TASKS》的翻譯。 小樣本提示是一種使用大型語(yǔ)言模型(LLM)來(lái)解決各種任務(wù)的強(qiáng)大方法。然而,隨著任務(wù)復(fù)雜性的增加,或者當(dāng)任務(wù)本身的各個(gè)推理步驟很難學(xué)習(xí)時(shí),尤其是當(dāng)嵌入到更復(fù)雜的任務(wù)中時(shí),

    2024年02月10日
    瀏覽(17)
  • [讀論文][backbone]Knowledge Diffusion for Distillation

    DiffKD 摘要 The representation gap between teacher and student is an emerging topic in knowledge distillation (KD). To reduce the gap and improve the performance, current methods often resort to complicated training schemes, loss functions, and feature alignments, which are task-specific and feature-specific. In this paper, we state that the essence of the

    2024年02月08日
    瀏覽(32)
  • [論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations

    [論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations

    [論文地址] [代碼] [CVPR 23] Abstract 我們考慮了檢測(cè)圖像中低層次結(jié)構(gòu)的通用問(wèn)題,其中包括分割被操縱的部分,識(shí)別失焦像素,分離陰影區(qū)域,以及檢測(cè)隱藏的物體。每個(gè)問(wèn)題通常都有一個(gè)特定領(lǐng)域的解決方案,我們表明,一個(gè)統(tǒng)一的方法在所有這些問(wèn)題上都表現(xiàn)良好。我們從

    2024年02月15日
    瀏覽(21)
  • Ethereum Using Zero Knowledge Proofs for Anonymousity

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) Ethereum是一個(gè)基于區(qū)塊鏈的分布式計(jì)算平臺(tái),它支持開(kāi)發(fā)者創(chuàng)建自己的去中心化應(yīng)用程序(dApps)。同時(shí),Ethereum還有一個(gè)功能叫做零知識(shí)證明(ZKP),這使得Ethereum可以用來(lái)實(shí)現(xiàn)匿名加密貨幣。所以,本文將通過(guò)具體操作一步步帶領(lǐng)讀者構(gòu)建一個(gè)

    2024年02月07日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包