国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

RAG實(shí)戰(zhàn)3-如何追蹤哪些文檔片段被用于檢索增強(qiáng)生成

這篇具有很好參考價(jià)值的文章主要介紹了RAG實(shí)戰(zhàn)3-如何追蹤哪些文檔片段被用于檢索增強(qiáng)生成。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

RAG實(shí)戰(zhàn)3-如何追蹤哪些文檔片段被用于檢索增強(qiáng)生成

本文是RAG實(shí)戰(zhàn)2-如何使用LlamaIndex存儲(chǔ)和讀取embedding向量的續(xù)集,在閱讀本文之前請(qǐng)先閱讀前篇。

在前篇中,我們介紹了如何使用LlamaIndex存儲(chǔ)和讀取embedding向量。在本文中,我們將介紹在LlamaIndex中如何獲得被用于檢索增強(qiáng)生成的文檔片段。

下面的代碼展示了如何使用LlamaIndex追蹤哪些文檔片段被用于檢索增強(qiáng)生成:

import logging
import sys
import torch
from llama_index.core import PromptTemplate, Settings, StorageContext, load_index_from_storage, QueryBundle
from llama_index.core.schema import MetadataMode
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.llms.huggingface import HuggingFaceLLM

# 定義日志
logging.basicConfig(stream=sys.stdout, level=logging.DEBUG)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

# 定義system prompt
SYSTEM_PROMPT = """You are a helpful AI assistant."""
query_wrapper_prompt = PromptTemplate(
    "[INST]<<SYS>>\n" + SYSTEM_PROMPT + "<</SYS>>\n\n{query_str}[/INST] "
)

# 使用llama-index創(chuàng)建本地大模型
llm = HuggingFaceLLM(
    context_window=4096,
    max_new_tokens=2048,
    generate_kwargs={"temperature": 0.0, "do_sample": False},
    query_wrapper_prompt=query_wrapper_prompt,
    tokenizer_name='/yldm0226/models/Qwen1.5-14B-Chat',
    model_name='/yldm0226/models/Qwen1.5-14B-Chat',
    device_map="auto",
    model_kwargs={"torch_dtype": torch.float16},
)
Settings.llm = llm

# 使用llama-index-embeddings-huggingface構(gòu)建本地embedding模型
Settings.embed_model = HuggingFaceEmbedding(
    model_name="/yldm0226/RAG/BAAI/bge-base-zh-v1.5"
)

# 從存儲(chǔ)文件中讀取embedding向量和向量索引
storage_context = StorageContext.from_defaults(persist_dir="doc_emb")
index = load_index_from_storage(storage_context)
# 構(gòu)建查詢引擎
query_engine = index.as_query_engine(similarity_top_k=5)
# 獲取我們抽取出的相似度前五的片段
contexts = query_engine.retrieve(QueryBundle("不耐疲勞,口燥、咽干可能是哪些證候?"))
print('-'*10 + 'ref' + '-'*10)
for i, context in enumerate(contexts):
    print('*'*10 + f'chunk {i} start' + '*'*10)
    content = context.node.get_content(metadata_mode=MetadataMode.LLM)
    print(content)
    print('*' * 10 + f'chunk {i} end' + '*' * 10)
print('-'*10 + 'ref' + '-'*10)
# 查詢獲得答案
response = query_engine.query("不耐疲勞,口燥、咽干可能是哪些證候?")
print(response)

運(yùn)行代碼,可以得到query的輸出為:

從提供的中醫(yī)臨床證候信息來看,口燥、咽干的癥狀可能與以下證候相關(guān):

1. 津液不足證:由于津液生成不足或者體內(nèi)燥熱導(dǎo)致,表現(xiàn)為口眼喉鼻干燥,咽干是其中的一個(gè)癥狀。

2. 津虧熱結(jié)證:津液虧虛加上熱邪內(nèi)結(jié),也可能出現(xiàn)口燥和咽干。

3. 津液虧涸證:嚴(yán)重的津液虧損可能導(dǎo)致口唇干燥、咽部干燥,伴隨其他嚴(yán)重脫水癥狀。

4. 燥干清竅證:氣候干燥或體質(zhì)原因引起的津液缺乏,口鼻咽喉干燥也是其特征。

5. 津傷化燥證:燥熱內(nèi)蘊(yùn)或內(nèi)熱化燥損傷津液,也會(huì)出現(xiàn)口燥、頻飲但不解渴的現(xiàn)象。

因此,這些證候都有可能與不耐疲勞和口燥、咽干的癥狀相符合,需要結(jié)合其他臨床表現(xiàn)來確定具體的證候類型。建議在中醫(yī)診斷中由專業(yè)醫(yī)生根據(jù)全人情況判斷。

對(duì)于"不耐疲勞,口燥、咽干可能是哪些證候?"這個(gè)查詢,其相似度前五的片段如下:

片段序號(hào) 片段信息
1 file_path: document/中醫(yī)臨床診療術(shù)語證候.txt

4.6.1.1
津液不足證 syndrome/pattern of fluid and humor insufficiency
津虧證
因津液生成不足,或嗜食辛辣,蘊(yùn)熱化燥,邪熱灼損津液所致。臨床以口眼喉鼻及皮膚等干燥,大便干結(jié),小便短少,舌質(zhì)偏紅而干,脈細(xì)數(shù)等為特征的證候。

4.6.1.
2 file_path: document/中醫(yī)臨床診療術(shù)語證候.txt

臨床以口干、舌燥,頻飲而不解其渴,食多、善饑,夜尿頻多,逐漸消瘦,舌質(zhì)紅,舌苔薄黃或少,脈弦細(xì)或滑數(shù),伴見皮膚干燥,四肢乏力,大便干結(jié)等為特征的證候。

4.6.3.2
津虧熱結(jié)證 syndrome/pattern of fluid depletion and heat binding
液干熱結(jié)證
因津液虧虛,熱邪內(nèi)結(jié)所致。
3 file_path: document/中醫(yī)臨床診療術(shù)語證候.txt

臨床以口眼喉鼻及皮膚等干燥,大便干結(jié),小便短少,舌質(zhì)偏紅而干,脈細(xì)數(shù)等為特征的證候。

4.6.1.2
津液虧涸證 syndrome/pattern of fluid and humor scantiness
津液虧耗證
津液干枯證
因津液虧損,形體官竅失養(yǎng)所致。臨床以口干、唇裂,鼻燥無涕,皮膚干癟,目陷、螺癟,甚則肌膚甲錯(cuò),舌質(zhì)紅而少津,舌中裂,脈細(xì)或數(shù),可伴見口渴、欲飲,干咳,目澀,大便干,小便少等為特征的證候。
4 file_path: document/中醫(yī)臨床診療術(shù)語證候.txt

臨床以鼻咽干澀或痛,口唇燥干,舌質(zhì)紅,舌苔白或燥,脈浮或微數(shù),伴見發(fā)熱、無汗,頭痛或肢節(jié)酸痛等為特征的證候。

3.6.3.2
燥干清竅證 syndrome/pattern of dryness harassing the upper orifices
因氣候或環(huán)境干燥,津液耗損,清竅失濡所致。臨床以口鼻、咽喉干燥,兩眼干澀,少淚、少涕、少津、甚則衄血,舌質(zhì)瘦小、舌苔干而少津,脈細(xì)等為特征的證候。
5 file_path: document/中醫(yī)臨床診療術(shù)語證候.txt

6.3.1
津傷化燥證 syndrome/pattern of fluid damage transforming into dryness
津傷燥熱證
因燥熱內(nèi)蘊(yùn),或內(nèi)熱化燥,傷津耗液所致。臨床以口干、舌燥,頻飲而不解其渴,食多、善饑,夜尿頻多,逐漸消瘦,舌質(zhì)紅,舌苔薄黃或少,脈弦細(xì)或滑數(shù),伴見皮膚干燥,四肢乏力,大便干結(jié)等為特征的證候。

4.6.3.

可以看出,我們得到的query的輸出中的證候都是這幾個(gè)片段中的,大模型也確實(shí)根據(jù)我們檢索出的片段進(jìn)行了回復(fù)。

片段1和片段5的結(jié)尾存在多余的章節(jié)號(hào),這主要與我們使用的embedding模型和設(shè)置的chunk_size有關(guān)。我們可以通過追蹤觀察這些被用于檢索增強(qiáng)生成的文檔片段來調(diào)整chunk_size的值,以讓embedding模型切分出的片段更合理,提高RAG系統(tǒng)的表現(xiàn)。

如果想追蹤更多的檢索片段,可以提高similarity_top_k的值。

如果想追蹤片段具體的相似度得分(Similarity Score)的值,可以將log中的level設(shè)置為DEBUG級(jí)別。文章來源地址http://www.zghlxwxcb.cn/news/detail-837688.html

到了這里,關(guān)于RAG實(shí)戰(zhàn)3-如何追蹤哪些文檔片段被用于檢索增強(qiáng)生成的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • LLM之RAG實(shí)戰(zhàn)(二十七)| 如何評(píng)估RAG系統(tǒng)

    LLM之RAG實(shí)戰(zhàn)(二十七)| 如何評(píng)估RAG系統(tǒng)

    ? ? ? ?有沒有想過今天的一些應(yīng)用程序是如何看起來幾乎神奇地智能的?這種魔力很大一部分來自于一種叫做RAG和LLM的東西。把RAG(Retrieval Augmented Generation)想象成人工智能世界里聰明的書呆子,它會(huì)挖掘大量信息,準(zhǔn)確地找到你的問題所需要的信息。然后,還有LLM(大型

    2024年02月22日
    瀏覽(18)
  • 探索檢索增強(qiáng)生成(RAG)技術(shù)的無限可能:Vector+KG RAG、Self-RAG、多向量檢索器多模態(tài)RAG集成

    探索檢索增強(qiáng)生成(RAG)技術(shù)的無限可能:Vector+KG RAG、Self-RAG、多向量檢索器多模態(tài)RAG集成

    由于 RAG 的整體思路是首先將文本切分成不同的組塊,然后存儲(chǔ)到向量數(shù)據(jù)庫中。在實(shí)際使用時(shí),將計(jì)算用戶的問題和文本塊的相似度,并召回 top k 的組塊,然后將 top k 的組塊和問題拼接生成提示詞輸入到大模型中,最終得到回答。 優(yōu)化點(diǎn): 優(yōu)化文本切分的方式,組塊大小

    2024年02月02日
    瀏覽(17)
  • RAG實(shí)戰(zhàn)2-如何使用LlamaIndex存儲(chǔ)和讀取向量

    本文是檢索增強(qiáng)生成(Retrieval-augmented Generation,RAG)實(shí)戰(zhàn)1-基于LlamaIndex構(gòu)建第一個(gè)RAG應(yīng)用的續(xù)集,在閱讀本文之前請(qǐng)先閱讀前篇。 在前篇中,我們介紹了如何使用LlamaIndex構(gòu)建一個(gè)非常簡(jiǎn)單的RAG應(yīng)用,初步了解了LlamaIndex構(gòu)建RAG應(yīng)用的大體流程。在運(yùn)行前篇的程序時(shí),我們會(huì)發(fā)現(xiàn)兩

    2024年03月09日
    瀏覽(26)
  • 大型語言模型RAG(檢索增強(qiáng)生成):檢索技術(shù)的應(yīng)用與挑戰(zhàn)

    檢索增強(qiáng)生成(RAG)系統(tǒng)通過結(jié)合傳統(tǒng)的語言模型生成能力和結(jié)構(gòu)化數(shù)據(jù)檢索,為復(fù)雜的問題提供精確的答案。本文深入探討了RAG系統(tǒng)中檢索技術(shù)的工作原理、實(shí)現(xiàn)方式以及面臨的挑戰(zhàn),并對(duì)未來的發(fā)展方向提出了展望。 隨著大型預(yù)訓(xùn)練語言模型(LLMs)如GPT-3和BERT的出現(xiàn),

    2024年03月14日
    瀏覽(39)
  • 【高級(jí)RAG技巧】使用二階段檢索器平衡檢索的效率和精度

    【高級(jí)RAG技巧】使用二階段檢索器平衡檢索的效率和精度

    之前的文章已經(jīng)介紹過向量數(shù)據(jù)庫在RAG(Retrieval Augmented Generative)中的應(yīng)用,本文將會(huì)討論另一個(gè)重要的工具-Embedding模型。 一般來說,構(gòu)建生產(chǎn)環(huán)境下的RAG系統(tǒng)是直接使用Embedding模型對(duì)用戶輸入的Query進(jìn)行向量化表示,并且從已經(jīng)構(gòu)建好的向量數(shù)據(jù)庫中檢索出相關(guān)的段落用戶

    2024年04月26日
    瀏覽(24)
  • Elasticsearch:什么是檢索增強(qiáng)生成 - RAG?

    Elasticsearch:什么是檢索增強(qiáng)生成 - RAG?

    在人工智能的動(dòng)態(tài)格局中,檢索增強(qiáng)生成(Retrieval Augmented Generation - RAG)已經(jīng)成為游戲規(guī)則的改變者,徹底改變了我們生成文本和與文本交互的方式。 RAG 使用大型語言模型 (LLMs) 等工具將信息檢索的能力與自然語言生成無縫結(jié)合起來,為內(nèi)容創(chuàng)建提供了一種變革性的方法。

    2024年02月08日
    瀏覽(20)
  • Elasticsearch:什么是檢索增強(qiáng)生成 (RAG)?

    Elasticsearch:什么是檢索增強(qiáng)生成 (RAG)?

    檢索增強(qiáng)生成 (RAG) 是一種利用來自私有或?qū)S袛?shù)據(jù)源的信息來補(bǔ)充文本生成的技術(shù)。 它將旨在搜索大型數(shù)據(jù)集或知識(shí)庫的檢索模型與大型語言模型 (LLM) 等生成模型相結(jié)合,后者獲取該信息并生成可讀的文本響應(yīng)。 檢索增強(qiáng)生成可以通過添加來自其他數(shù)據(jù)源的上下文并通過培

    2024年02月04日
    瀏覽(21)
  • Elasticsearch 混合檢索優(yōu)化大模型 RAG 任務(wù)

    Elasticsearch 混合檢索優(yōu)化大模型 RAG 任務(wù)

    Elastic 社區(qū)在自然語言處理上面做的很不錯(cuò)官方博客更新速度也很快,現(xiàn)階段大模型的應(yīng)用場(chǎng)景主要在 Rag 和 Agent 上,國內(nèi) Rag(Retrieval-Augmented Generation 檢索增強(qiáng)生成) 的尤其多,而搜索對(duì)于 Elasticsearch 來說是強(qiáng)項(xiàng)特別是 8.9 之后的版本提供了 ESRE 模塊(集成了高級(jí)相關(guān)性排序

    2024年04月25日
    瀏覽(26)
  • AI數(shù)據(jù)技術(shù)02:RAG數(shù)據(jù)檢索

    ????????在人工智能的動(dòng)態(tài)環(huán)境中,檢索增強(qiáng)生成(RAG)已成為游戲規(guī)則的改變者,徹底改變了我們生成文本和與文本交互的方式。RAG 使用大型語言模型?(LLM) 等工具將信息檢索的強(qiáng)大功能與自然語言生成無縫結(jié)合,為內(nèi)容創(chuàng)建提供了一種變革性的方法。 ????????在

    2024年02月03日
    瀏覽(25)
  • RAG實(shí)戰(zhàn)6-如何在LlamaIndex中使用自己搭建的API

    在搭建一個(gè)大模型API服務(wù)中,我們介紹了如何使用SWIFT框架搭建一個(gè)大模型API服務(wù)。在RAG實(shí)戰(zhàn)1-5中,我們一直使用的是本地加載大模型的方式來調(diào)用大模型,本文將介紹如何在LlamaIndex中使用自己搭建的大模型API。 LlamaIndex支持部分廠商的API配置,如OpenAI,但我們想使用的是自

    2024年03月14日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包