国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

雜記 | Langchain中few-shot提示詞模板的使用(給提示詞添加示例)

這篇具有很好參考價(jià)值的文章主要介紹了雜記 | Langchain中few-shot提示詞模板的使用(給提示詞添加示例)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


Langchain是一個(gè)集成多個(gè)大語言模型的開源框架,可以使用它來快速開發(fā)大語言模型應(yīng)用。

本文的代碼使用到的模塊:

from typing import List, Dict
from langchain import PromptTemplate, FewShotPromptTemplate, LLMChain, OpenAI

01 普通的提示詞模板

先來看看普通的提示詞模板如何使用,效果如何:

# 創(chuàng)建大語言模型對(duì)象 這里使用gpt-3.5最新的指令模型
llm = OpenAI(model="gpt-3.5-turbo-instruct", temperature=0)

# 設(shè)置提示詞模板 其中的{input}為等待用戶填充問題的插槽
template = "我會(huì)給你一種物品名稱的輸入,你需要輸出該類物品的一種具體事物,且使用量詞開頭。\nInput: {input}"

# 提示詞模板對(duì)象 指定接收參數(shù)的參數(shù)名為input 也就是上述插槽中的內(nèi)容
prompt = PromptTemplate(input_variables=["input"], template=template)

# 大語言模型 + 提示詞模板對(duì)象 -> 生成一個(gè)chian
chain = LLMChain(llm=llm, prompt=prompt)

# 執(zhí)行chain并查看結(jié)果
print(chain.run(input="手機(jī)"))

在這個(gè)示例中,對(duì)大模型的輸入為:

我會(huì)給你一種物品名稱的輸入,你需要輸出該類物品的一種具體事物,且使用量詞開頭。
Input: 手機(jī)

大模型的輸出為:

Output: 一部手機(jī)

可以看到輸出并不能很好地滿足我們的需求,因?yàn)槲蚁M敵龅氖窃擃愇锲返囊患唧w的事物,例如:一部華為手機(jī),而它只是簡單的給我添加了個(gè)量詞就完事了。而且它還自己添加了output前綴。

02 few-shot提示詞模板

下面使用few-shot提示詞模板試試:

# 創(chuàng)建大語言模型
llm = OpenAI(model="gpt-3.5-turbo-instruct", temperature=0)

# 創(chuàng)建一個(gè)實(shí)例列表
examples: List[Dict[str, str]] = [
    {"input": "水果", "output": "一個(gè)蘋果"},
    {"input": "寵物", "output": "一只貓"},
    {"input": "家電", "output": "一臺(tái)冰箱"}
]

# 創(chuàng)建提示詞模板對(duì)象 該對(duì)象中的template部分插槽需要與示例中的鍵對(duì)應(yīng)
example_prompt = PromptTemplate(input_variables=["input", "output"], template="Input: {input}\n{output}")

# 合成few-shot提示詞模板對(duì)象
prompt = FewShotPromptTemplate(
    prefix="我會(huì)給你一種物品名稱的輸入,你需要輸出該類物品的一種具體事物,且使用量詞開頭。",  # 示例提示詞之前添加的內(nèi)容
    examples=examples,  # 示例列表
    example_prompt=example_prompt,  # 容納示例的提示詞模板對(duì)象
    suffix="Input: {input}",  #  示例提示詞之后添加的內(nèi)容
    input_variables=["input"]  # 等待用戶輸入的參數(shù)插槽
)

# 創(chuàng)建一個(gè)chain
chain = LLMChain(llm=llm, prompt=prompt)

# 執(zhí)行chain并查看結(jié)果
print(chain.run(input="手機(jī)"))

使用few-shot提示詞模板后,對(duì)大模型的輸入為:

我會(huì)給你一種物品名稱的輸入,你需要輸出該類物品的一種具體事物,且使用量詞開頭。

Input: 水果
一個(gè)蘋果

Input: 寵物
一只貓

Input: 家電
一臺(tái)冰箱

Input: 手機(jī)

大模型的輸出為:

一部iPhone

比起無示例版本,輸出結(jié)果有了明顯改觀。文章來源地址http://www.zghlxwxcb.cn/news/detail-724266.html

到了這里,關(guān)于雜記 | Langchain中few-shot提示詞模板的使用(給提示詞添加示例)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • few-shot / one shot / zero shot object counting論文匯總

    few-shot / one shot / zero shot object counting論文匯總

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:幾乎所有現(xiàn)有的計(jì)數(shù)方法都是為一個(gè)特定的對(duì)象類而設(shè)計(jì)的。然而,我們的工作旨在創(chuàng)建一個(gè)能夠計(jì)數(shù)任何類對(duì)象的計(jì)數(shù)模型。為了實(shí)現(xiàn)這一目標(biāo),我們將計(jì)數(shù)表述為一個(gè)匹配問題,使我們能夠利用對(duì)象計(jì)數(shù)問題中自然存

    2024年02月09日
    瀏覽(22)
  • T5模型:打破Few-shot Learning的次元壁壘

    T5模型:打破Few-shot Learning的次元壁壘

    ??覺得內(nèi)容不錯(cuò)的話,歡迎點(diǎn)贊收藏加關(guān)注??????,后續(xù)會(huì)繼續(xù)輸入更多優(yōu)質(zhì)內(nèi)容?? ??有問題歡迎大家加關(guān)注私戳或者評(píng)論(包括但不限于NLP算法相關(guān),linux學(xué)習(xí)相關(guān),讀研讀博相關(guān)......)?? (封面圖由ERNIE-ViLG AI 作畫大模型生成) 自然語言處理(NLP)是一種用于理

    2024年03月17日
    瀏覽(29)
  • 【計(jì)算機(jī)視覺】Zero-shot, One-shot和Few-shot的理解

    【計(jì)算機(jī)視覺】Zero-shot, One-shot和Few-shot的理解

    機(jī)器學(xué)習(xí)任務(wù)按照對(duì) 樣本量 的需求可以分為:傳統(tǒng)監(jiān)督式學(xué)習(xí)、Few-shot Learning、One-shot Learning、Zero-shot Learning。 傳統(tǒng)learning,煉丹模式。傳統(tǒng)深度學(xué)習(xí)的學(xué)習(xí)速度慢,往往需要學(xué)習(xí)海量數(shù)據(jù)和反復(fù)訓(xùn)練后才能使網(wǎng)絡(luò)模型具備不錯(cuò)的泛化能力,傳統(tǒng)learning可以總結(jié)為:海量數(shù)據(jù)

    2024年02月04日
    瀏覽(41)
  • 【論文閱讀】 Few-shot object detection via Feature Reweighting

    【論文閱讀】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的開山之作之一 ~~ 屬于Metric-based Methods 特征學(xué)習(xí)器使用來自具有足夠樣本的基本類的訓(xùn)練數(shù)據(jù)來 提取 可推廣以檢測新對(duì)象類的meta features。The reweighting module將新類別中的一些support examples轉(zhuǎn)換為全局向量,該全局向量indicates meta features對(duì)于檢測相應(yīng)物體的重

    2023年04月09日
    瀏覽(21)
  • 【論文閱讀】Language Models are Few-Shot Learners(GPT-3)

    【論文閱讀】Language Models are Few-Shot Learners(GPT-3)

    本文簡要介紹了GPT-3的背景,模型架構(gòu),訓(xùn)練數(shù)據(jù)以及訓(xùn)練方式部分。具體訓(xùn)練細(xì)節(jié),實(shí)驗(yàn)結(jié)果很多,可以在用到的時(shí)候再看 本文剖析了pretrain-finetune架構(gòu)存在的問題: 對(duì)于每個(gè)新的任務(wù),都需要大量的標(biāo)注數(shù)據(jù) 將表達(dá)能力更強(qiáng)的模型(預(yù)訓(xùn)練階段要求用大模型)在比較窄的

    2024年02月14日
    瀏覽(44)
  • (GPT3)Language Models are Few-Shot Learners論文閱讀

    (GPT3)Language Models are Few-Shot Learners論文閱讀

    論文地址:https://arxiv.org/pdf/2005.14165v4.pdf ????????最近的工作表明, 通過對(duì)大量文本語料庫進(jìn)行預(yù)訓(xùn)練,然后對(duì)特定任務(wù)進(jìn)行微調(diào),許多 NLP 任務(wù)和基準(zhǔn)測試取得了實(shí)質(zhì)性進(jìn)展 。 雖然在體系結(jié)構(gòu)中通常與任務(wù)無關(guān),但此方法仍然需要特定于任務(wù)的微調(diào)數(shù)據(jù)集,其中包含數(shù)

    2024年02月08日
    瀏覽(33)
  • 論文筆記|CVPR2023:Semantic Prompt for Few-Shot Image Recognition

    論文筆記|CVPR2023:Semantic Prompt for Few-Shot Image Recognition

    論文地址:https://arxiv.org/pdf/2303.14123.pdf 這是一篇2023年發(fā)表在CVPR上的論文,論文題目是Semantic Prompt for Few-Shot Image Recognitio,即用于小樣本圖像識(shí)別的語義提示。 第一,最近幾項(xiàng)研究利用 語義信息 來進(jìn)行小樣本學(xué)習(xí)的研究。 一方面因?yàn)橥ㄟ^少量樣本去識(shí)別新類別很難,就想使

    2024年02月04日
    瀏覽(30)
  • 論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    論文閱讀---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增強(qiáng)語言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知識(shí): BERT (Bidirectional Encoder Representations from Transformers)是一種預(yù)訓(xùn)練語言模型,它通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)文本的雙向表示,并在多種NLP任務(wù)中展現(xiàn)出卓越的性能。BERT的雙向性意味著它能夠

    2024年04月23日
    瀏覽(34)
  • 【論文精讀】CONTAINER: Few-Shot Named Entity Recognition via Contrastive Learning

    【論文精讀】CONTAINER: Few-Shot Named Entity Recognition via Contrastive Learning

    一篇來自ACL2022的文章,采用對(duì)比學(xué)習(xí)的方法提高模型的性能,在實(shí)現(xiàn)方法上和實(shí)驗(yàn)論證部分很值得借鑒,至于和大模型性能的對(duì)比,還需要進(jìn)一步的調(diào)研~ 低資源場景NER不可或缺,但現(xiàn)有的方法僅從源域?qū)W習(xí)特定的語義特征和中間表示,這會(huì)影響對(duì)目標(biāo)域的泛化能力,降低性

    2024年02月05日
    瀏覽(24)
  • 論文筆記|CVPR2023:Supervised Masked Knowledge Distillation for Few-Shot Transformers

    論文筆記|CVPR2023:Supervised Masked Knowledge Distillation for Few-Shot Transformers

    這篇論文的題目是 用于小樣本Transformers的監(jiān)督遮掩知識(shí)蒸餾 論文接收: CVPR 2023 論文地址: https://arxiv.org/pdf/2303.15466.pdf 代碼鏈接: https://github.com/HL-hanlin/SMKD 1.ViT在小樣本學(xué)習(xí)(只有少量標(biāo)記數(shù)據(jù)的小型數(shù)據(jù)集)中往往會(huì) 過擬合,并且由于缺乏 歸納偏置 而導(dǎo)致性能較差;

    2024年02月06日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包