国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

淺嘗prompt咒語(yǔ)設(shè)計(jì):one-shot微調(diào)chatglm-6b實(shí)踐信息抽取

這篇具有很好參考價(jià)值的文章主要介紹了淺嘗prompt咒語(yǔ)設(shè)計(jì):one-shot微調(diào)chatglm-6b實(shí)踐信息抽取。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

近期以chatgpt等文生成LLMS爆火,國(guó)內(nèi)也逐漸開(kāi)源了中文版的chatgpt,本文以清華大學(xué)開(kāi)源的6b的chatglm為例,實(shí)踐one-shot微調(diào),設(shè)計(jì)prompt咒語(yǔ)在信息抽取領(lǐng)域的實(shí)驗(yàn)效果。

1、場(chǎng)景描述

給定一個(gè)JD的職位要求,需要從描述中抽取出相應(yīng)的實(shí)體。

例如:

'職位要求:1、碩士以上學(xué)歷。2、計(jì)算機(jī)相關(guān)專(zhuān)業(yè)。3、3年以上工作經(jīng)驗(yàn)。4、熟練掌握python或者c++語(yǔ)言。5、有自然語(yǔ)言處理獲獎(jiǎng)經(jīng)歷優(yōu)先'

相應(yīng)的schema的實(shí)體為:

'學(xué)歷要求': ['碩士'],
'專(zhuān)業(yè)要求': ['計(jì)算機(jī)'],
'工作年限要求': ['3年以上'],
'編程語(yǔ)言': ['python', 'c++'],
'加分項(xiàng)': ['自然語(yǔ)言處理獲獎(jiǎng)經(jīng)歷'],

2、prompt咒語(yǔ)設(shè)計(jì)

prompt設(shè)計(jì)主要點(diǎn):

  • 告知llms什么是信息抽取任務(wù),以職位要求信息抽取為例:需要告知模型你需要抽取的實(shí)體類(lèi)型有哪些
  • 告知模型輸出格式要求,例如:json格式

3、實(shí)現(xiàn)

#!/usr/bin/env python
# _*_coding:utf-8_*_
# Author   :    Junhui Yu

import re
import json
from transformers import AutoTokenizer, AutoModel

# 根據(jù)需求補(bǔ)充
schema = {
    'JD崗位要求': ['學(xué)歷要求', '專(zhuān)業(yè)要求', '工作年限要求', '編程語(yǔ)言', '加分項(xiàng)']
}

IE_PATTERN = "{}\n\n提取上述句子中{}類(lèi)型的實(shí)體,輸出JSON格式,上述句子中不存在的信息用['該JD未要求']來(lái)表示,多個(gè)值之間用','分隔。"

ie_examples = {
    'JD崗位要求':
        {
            'sentence': '職位要求:1、碩士以上學(xué)歷。2、計(jì)算機(jī)相關(guān)專(zhuān)業(yè)。3、3年以上工作經(jīng)驗(yàn)。4、熟練掌握python或者c++語(yǔ)言。5、有自然語(yǔ)言處理獲獎(jiǎng)經(jīng)歷優(yōu)先',
            'answers': {
                '學(xué)歷要求': ['碩士'],
                '專(zhuān)業(yè)要求': ['計(jì)算機(jī)'],
                '工作年限要求': ['3年以上'],
                '編程語(yǔ)言': ['python', 'c++'],
                '加分項(xiàng)': ['自然語(yǔ)言處理獲獎(jiǎng)經(jīng)歷'],
            }
        }
}


def init_prompts():
    ie_prefix = [
        (
            "需要你協(xié)助完成信息抽取任務(wù),當(dāng)我給你一個(gè)JD職位要求時(shí),幫我抽取出句子中三元組,并按照J(rèn)SON的格式輸出,上述句子中沒(méi)有的信息用['該JD未要求']來(lái)表示,多個(gè)值之間用','分隔。",
            '請(qǐng)輸入JD職位描述。'
        )
    ]
    properties_str = ', '.join(schema['JD崗位要求'])
    schema_str_list = f'“JD崗位要求”({properties_str})'
    sentence = ie_examples['JD崗位要求']['sentence']
    sentence_with_prompt = IE_PATTERN.format(sentence, schema_str_list)
    ie_prefix.append((
        f'{sentence_with_prompt}',
        f"{json.dumps(ie_examples['JD崗位要求']['answers'], ensure_ascii=False)}"
    ))

    return {'ie_prefix': ie_prefix}


def format_output(response: str):
    if '```json' in response:
        res = re.findall(r'```json(.*?)```', response)
        if len(res) and res[0]:
            response = res[0]
        response.replace('、', ',')
    try:
        return json.loads(response)
    except:
        return response


def inference(sentences: list, custom_settings: dict):
    for sentence in sentences:
        properties_str = ', '.join(schema['JD崗位要求'])
        schema_str_list = f'“JD崗位要求”({properties_str})'
        sentence_with_ie_prompt = IE_PATTERN.format(sentence, schema_str_list)
        result, _ = model.chat(tokenizer, sentence_with_ie_prompt, history=custom_settings['ie_prefix'])
        result = format_output(result)
        print(sentence)
        print(result)


if __name__ == '__main__':
    tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
    model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()

    sentences = [
        '職位要求:1、本科以上學(xué)歷。2、電子信息或軟件工程專(zhuān)業(yè)。3、1-3年工作經(jīng)驗(yàn)。4、熟練掌握java或者c++語(yǔ)言。5、有相關(guān)項(xiàng)目經(jīng)驗(yàn)優(yōu)先',
    ]

    custom_settings = init_prompts()
    inference(sentences,
        custom_settings
    )

輸出結(jié)果:

{
    '學(xué)歷要求': ['本科以上學(xué)歷'],
    '專(zhuān)業(yè)要求': ['電子信息或軟件工程專(zhuān)業(yè)'],
    '工作年限要求': ['1-3年'],
    '編程語(yǔ)言': ['熟練掌握java或者c++語(yǔ)言'],
    '加分項(xiàng)': ['有相關(guān)項(xiàng)目經(jīng)驗(yàn)優(yōu)先']
}

總結(jié)

本文通過(guò)one-shot微調(diào)chatglm-6b在信息抽取領(lǐng)域上的實(shí)驗(yàn),輸出效果還可以,當(dāng)然如果有資源微調(diào)更大參數(shù)量的LLMS。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-505748.html

到了這里,關(guān)于淺嘗prompt咒語(yǔ)設(shè)計(jì):one-shot微調(diào)chatglm-6b實(shí)踐信息抽取的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • tune a video:one-shot tuning of image diffusion models for text-to-video generation

    tune a video:one-shot tuning of image diffusion models for text-to-video generation

    【Diffusion Models】新加坡國(guó)立大學(xué)、騰訊強(qiáng)強(qiáng)聯(lián)手Tune-A-Video:One-Shot微調(diào)圖像擴(kuò)散模型用于文本到圖像的生成!_嗶哩嗶哩_bilibili 【Diffusion Models】新加坡國(guó)立大學(xué)、騰訊強(qiáng)強(qiáng)聯(lián)手Tune-A-Video:One-Shot微調(diào)圖像擴(kuò)散模型用于文本到圖像的生成!共計(jì)2條視頻,包括:[論文代碼閱讀]T

    2023年04月11日
    瀏覽(24)
  • 【ChatGLM_02】LangChain知識(shí)庫(kù)+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    【ChatGLM_02】LangChain知識(shí)庫(kù)+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    運(yùn)行l(wèi)angchain-ChatGLM-master下面的webui.py文件 (1) 配置知識(shí)庫(kù) 新建知識(shí)庫(kù) 向知識(shí)庫(kù)當(dāng)中添加文件 支持上傳的數(shù)據(jù)格式:word、pdf、excel、csv、txt、文件夾等。但是此處我試了一下 (2) 文檔數(shù)據(jù)測(cè)試 word文檔測(cè)試: (3) 知識(shí)庫(kù)測(cè)試模式 知識(shí)庫(kù)測(cè)試只會(huì)返回輸入內(nèi)容在當(dāng)前知識(shí)庫(kù)當(dāng)中的

    2024年02月14日
    瀏覽(24)
  • 【本地大模型部署與微調(diào)】ChatGLM3-6b、m3e、one-api、Fastgpt、LLaMA-Factory

    【本地大模型部署與微調(diào)】ChatGLM3-6b、m3e、one-api、Fastgpt、LLaMA-Factory

    本文檔詳細(xì)介紹了使用ChatGLM3-6b大模型、m3e向量模型、one-api接口管理以及Fastgpt的知識(shí)庫(kù),成功的在本地搭建了一個(gè)大模型。此外,還利用LLaMA-Factory進(jìn)行了大模型的微調(diào)。 1.ChatGLM3-6b 2.m3e 3.One-API 4.Fastgpt 5.LLaMA-Factory 1.1創(chuàng)建騰訊云服務(wù)器 注意: ChatGLM3-6b的大模型40多個(gè)G,購(gòu)買(mǎi)騰訊

    2024年03月22日
    瀏覽(33)
  • AI繪圖設(shè)計(jì)師Stable Diffusion 關(guān)鍵詞/咒語(yǔ)/提示詞詞綴使用指南(Prompt)

    AI繪圖設(shè)計(jì)師Stable Diffusion 關(guān)鍵詞/咒語(yǔ)/提示詞詞綴使用指南(Prompt)

    基本知識(shí) : 安裝及其問(wèn)題解決參考:《Windows安裝Stable Diffusion WebUI及問(wèn)題解決記錄》; 運(yùn)行使用時(shí)問(wèn)題《Windows使用Stable Diffusion時(shí)遇到的各種問(wèn)題整理》; 模型運(yùn)用及參數(shù)《Stable Diffusion 個(gè)人推薦的各種模型及設(shè)置參數(shù)、擴(kuò)展應(yīng)用等合集》; 提示詞生圖咒語(yǔ)《AI繪圖提示詞

    2023年04月20日
    瀏覽(66)
  • AI繪圖設(shè)計(jì)師Stable Diffusion提示詞/咒語(yǔ)/詞綴/關(guān)鍵詞使用指南(Prompt)

    AI繪圖設(shè)計(jì)師Stable Diffusion提示詞/咒語(yǔ)/詞綴/關(guān)鍵詞使用指南(Prompt)

    基本知識(shí) : 安裝及其問(wèn)題解決參考:《Windows安裝Stable Diffusion WebUI及問(wèn)題解決記錄》; 運(yùn)行使用時(shí)問(wèn)題《Windows使用Stable Diffusion時(shí)遇到的各種問(wèn)題整理》; 模型運(yùn)用及參數(shù)《Stable Diffusion 個(gè)人推薦的各種模型及設(shè)置參數(shù)、擴(kuò)展應(yīng)用等合集》; 提示詞生圖咒語(yǔ)《AI繪圖提示詞

    2023年04月22日
    瀏覽(48)
  • AI繪圖提示詞/咒語(yǔ)/詞綴/關(guān)鍵詞使用指南(Stable Diffusion Prompt 設(shè)計(jì)師操作手冊(cè))

    AI繪圖提示詞/咒語(yǔ)/詞綴/關(guān)鍵詞使用指南(Stable Diffusion Prompt 設(shè)計(jì)師操作手冊(cè))

    基本知識(shí) : 安裝及其問(wèn)題解決參考:《Windows安裝Stable Diffusion WebUI及問(wèn)題解決記錄》; 運(yùn)行使用時(shí)問(wèn)題《Windows使用Stable Diffusion時(shí)遇到的各種問(wèn)題整理》; 模型運(yùn)用及參數(shù)《Stable Diffusion 個(gè)人推薦的各種模型及設(shè)置參數(shù)、擴(kuò)展應(yīng)用等合集》; 提示詞生圖咒語(yǔ)《AI繪圖提示詞

    2024年02月01日
    瀏覽(41)
  • Prompt-“設(shè)計(jì)提示模板:用更少數(shù)據(jù)實(shí)現(xiàn)預(yù)訓(xùn)練模型的卓越表現(xiàn),助力Few-Shot和Zero-Shot任務(wù)”

    Prompt-“設(shè)計(jì)提示模板:用更少數(shù)據(jù)實(shí)現(xiàn)預(yù)訓(xùn)練模型的卓越表現(xiàn),助力Few-Shot和Zero-Shot任務(wù)”

    通過(guò)設(shè)計(jì)提示(prompt)模板,實(shí)現(xiàn)使用更少量的數(shù)據(jù)在預(yù)訓(xùn)練模型(Pretrained Model)上得到更好的效果,多用于:Few-Shot,Zero-Shot 等任務(wù)。 prompt 是當(dāng)前 NLP 中研究小樣本學(xué)習(xí)方向上非常重要的一個(gè)方向。舉例來(lái)講,今天如果有這樣兩句評(píng)論: 什么蘋(píng)果啊,都沒(méi)有蘋(píng)果味,怪怪

    2024年02月11日
    瀏覽(20)
  • Prompt設(shè)計(jì)與大語(yǔ)言模型微調(diào)

    Prompt設(shè)計(jì)與大語(yǔ)言模型微調(diào)

    本文主要介紹了Prompt設(shè)計(jì)、大語(yǔ)言模型SFT和LLM在手機(jī)天貓AI導(dǎo)購(gòu)助理項(xiàng)目應(yīng)用。 ChatGPT基本原理 “會(huì)說(shuō)話(huà)的AI”,“智能體” 簡(jiǎn)單概括成以下幾個(gè)步驟: 預(yù)處理文本:ChatGPT的輸入文本需要進(jìn)行預(yù)處理。 輸入編碼:ChatGPT將經(jīng)過(guò)預(yù)處理的文本輸入到神經(jīng)網(wǎng)絡(luò)中進(jìn)行編碼處理,使

    2024年02月08日
    瀏覽(24)
  • few-shot / one shot / zero shot object counting論文匯總

    few-shot / one shot / zero shot object counting論文匯總

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:幾乎所有現(xiàn)有的計(jì)數(shù)方法都是為一個(gè)特定的對(duì)象類(lèi)而設(shè)計(jì)的。然而,我們的工作旨在創(chuàng)建一個(gè)能夠計(jì)數(shù)任何類(lèi)對(duì)象的計(jì)數(shù)模型。為了實(shí)現(xiàn)這一目標(biāo),我們將計(jì)數(shù)表述為一個(gè)匹配問(wèn)題,使我們能夠利用對(duì)象計(jì)數(shù)問(wèn)題中自然存

    2024年02月09日
    瀏覽(23)
  • 論文淺嘗 | ChatKBQA:基于微調(diào)大語(yǔ)言模型的知識(shí)圖譜問(wèn)答框架

    論文淺嘗 | ChatKBQA:基于微調(diào)大語(yǔ)言模型的知識(shí)圖譜問(wèn)答框架

    第一作者:羅浩然,北京郵電大學(xué)博士研究生,研究方向?yàn)橹R(shí)圖譜與大語(yǔ)言模型協(xié)同推理 OpenKG地址:http://openkg.cn/tool/bupt-chatkbqa GitHub地址:https://github.com/LHRLAB/ChatKBQA 論文鏈接:https://arxiv.org/abs/2310.08975 動(dòng)機(jī) 隨著ChatGPT 的問(wèn)世,屬于大模型的時(shí)代就此開(kāi)始。無(wú)可否認(rèn),大型

    2024年02月05日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包