国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

llama_index 官方文檔閱讀筆記 (持續(xù)更新版)

這篇具有很好參考價(jià)值的文章主要介紹了llama_index 官方文檔閱讀筆記 (持續(xù)更新版)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

llama 0.10.17??版本 閱讀

鏈接:?LlamaIndex ?? v0.10.17

LlamaIndex 是一個(gè)基于?LLM?的應(yīng)用程序的數(shù)據(jù)框架,它受益于上下文增強(qiáng)。這種LLM系統(tǒng)被稱為RAG系統(tǒng),代表“檢索-增強(qiáng)生成”。LlamaIndex 提供了必要的抽象,以便更輕松地?cái)z取、構(gòu)建和訪問私有或特定于域的數(shù)據(jù),以便將這些數(shù)據(jù)安全可靠地注入 LLM,以實(shí)現(xiàn)更準(zhǔn)確的文本生成。

?? 為什么選擇上下文增強(qiáng)?LLM的局限

LLM 在人類和數(shù)據(jù)之間提供了一個(gè)自然語(yǔ)言接口。廣泛可用的模型是在大量公開數(shù)據(jù)(如維基百科、郵件列表、教科書、源代碼等)上預(yù)先訓(xùn)練的。然而,雖然 LLM 是在大量數(shù)據(jù)上訓(xùn)練的,但它們并沒有在你的數(shù)據(jù)上訓(xùn)練,這些數(shù)據(jù)可能是私有的,也可能是特定于你試圖解決的問題。它位于 API 后面、SQL 數(shù)據(jù)庫(kù)中,或被困在 PDF 和幻燈片中。

您可以選擇使用您的數(shù)據(jù)微調(diào)?LLM,但是:LLM是昂貴的由于培訓(xùn)成本高昂,很難用最新信息更新?LLM。缺乏可觀測(cè)性。當(dāng)你問一個(gè)LLM一個(gè)問題時(shí),LLM是如何得出答案的并不明顯。

無(wú)需微調(diào),而是可以使用稱為檢索增強(qiáng)生成 (RAG)?的上下文增強(qiáng)模式來獲取與特定數(shù)據(jù)相關(guān)的更準(zhǔn)確的文本生成。RAG 涉及以下高級(jí)步驟:首先從數(shù)據(jù)源中檢索信息,將其作為上下文添加到您的問題中,然后要求 LLM 根據(jù)豐富的提示回答。

通過這樣做,RAG 克服了微調(diào)方法的所有三個(gè)弱點(diǎn):不涉及培訓(xùn),所以很便宜只有在您提出要求時(shí)才會(huì)獲取數(shù)據(jù),因此數(shù)據(jù)始終是最新的。LlamaIndex 可以向您顯示檢索到的文檔,因此更值得信賴。

?? 為什么選擇 LlamaIndex 進(jìn)行上下文增強(qiáng)?

首先,LlamaIndex 對(duì)您使用 LLM 的方式?jīng)]有限制。您仍然可以將 LLM 用作自動(dòng)完成、聊天機(jī)器人、半自主代理等(請(qǐng)參閱左側(cè)的用例)。它只會(huì)使 LLM 與您更相關(guān)。LlamaIndex 提供以下工具來幫助您快速建立生產(chǎn)就緒的 RAG 系統(tǒng):

數(shù)據(jù)連接器從其本機(jī)源和格式引入現(xiàn)有數(shù)據(jù)。這些可以是 API、PDF、SQL 等等。

數(shù)據(jù)索引以中間表示形式構(gòu)建數(shù)據(jù),這些表示形式對(duì) LLM 來說既簡(jiǎn)單又高效。

引擎提供對(duì)數(shù)據(jù)的自然語(yǔ)言訪問。例如:查詢引擎是用于知識(shí)增強(qiáng)輸出的強(qiáng)大檢索接口。聊天引擎是用于與數(shù)據(jù)進(jìn)行多消息“來回”交互的對(duì)話界面。

數(shù)據(jù)代理是由 LLM 驅(qū)動(dòng)的知識(shí)工作者,通過工具進(jìn)行增強(qiáng),從簡(jiǎn)單的幫助程序函數(shù)到 API 集成等。

應(yīng)用程序集成將?LlamaIndex 重新綁定到生態(tài)系統(tǒng)的其余部分。這可能是 LangChain、Flask、Docker、ChatGPT 或......別的東西!

開始

要安裝庫(kù),請(qǐng)執(zhí)行以下操作:

pip?install?llama-index

我們建議您從如何閱讀這些文檔開始,這些文檔將根據(jù)您的經(jīng)驗(yàn)水平為您指明正確的位置。

社區(qū)

  • 推特:https://twitter.com/llama_index

  • 不和諧?https://discord.gg/dGcwcsnxhU

相關(guān)項(xiàng)目

  • ?? LlamaHub:https://llamahub.ai?|大型(且還在不斷增長(zhǎng))的自定義數(shù)據(jù)連接器集合

  • ?? LlamaLab:GitHub - run-llama/llama-lab?|建立在LlamaIndex之上的雄心勃勃的項(xiàng)目

安裝設(shè)置過程略。

檢索增強(qiáng)生成 (RAG)

LLM 是在大量數(shù)據(jù)上訓(xùn)練的,但它們不是在您的數(shù)據(jù)上訓(xùn)練的。檢索增強(qiáng)生成 (RAG) 通過將數(shù)據(jù)添加到 LLM 已經(jīng)有權(quán)訪問的數(shù)據(jù)中來解決這個(gè)問題。在本文檔中,您將經(jīng)??吹綄?duì) RAG 的引用。在 RAG 中,您的數(shù)據(jù)被加載并準(zhǔn)備用于查詢或“索引”。用戶查詢作用于索引,索引將數(shù)據(jù)篩選到最相關(guān)的上下文。然后,此上下文和您的查詢會(huì)隨著提示一起轉(zhuǎn)到 LLM,LLM 會(huì)提供響應(yīng)。即使您正在構(gòu)建的是聊天機(jī)器人或代理,您也希望了解將數(shù)據(jù)導(dǎo)入應(yīng)用程序的 RAG 技術(shù)。

llama_index 中文文檔,AIGC for GPT 評(píng)分體系構(gòu)架,筆記,llama,人工智能,語(yǔ)言模型

RAG 中的階段

RAG 中有五個(gè)關(guān)鍵階段,而這些階段又將成為您構(gòu)建的任何大型應(yīng)用程序的一部分。這些是:

  • 加載:這是指將數(shù)據(jù)從其所在位置(無(wú)論是文本文件、PDF、其他網(wǎng)站、數(shù)據(jù)庫(kù)還是 API)獲取到管道中。LlamaHub?提供數(shù)百種連接器供您選擇。

  • 索引:這意味著創(chuàng)建一個(gè)允許查詢數(shù)據(jù)的數(shù)據(jù)結(jié)構(gòu)。對(duì)于 LLM 來說,這幾乎總是意味著創(chuàng)建數(shù)據(jù)含義的數(shù)字表示,以及許多其他元數(shù)據(jù)策略,以便輕松準(zhǔn)確地找到上下文相關(guān)的數(shù)據(jù)。vector?embeddings

  • 存儲(chǔ):數(shù)據(jù)編制索引后,您幾乎總是希望存儲(chǔ)索引以及其他元數(shù)據(jù),以避免重新編制索引。

  • 查詢:對(duì)于任何給定的索引策略,您可以通過多種方式利用 LLM 和 LlamaIndex 數(shù)據(jù)結(jié)構(gòu)進(jìn)行查詢,包括子查詢、多步查詢和混合策略。

  • 評(píng)估:任何管道中的關(guān)鍵步驟是檢查它相對(duì)于其他策略的有效性,或者何時(shí)進(jìn)行更改。評(píng)估提供了客觀的衡量標(biāo)準(zhǔn),以衡量您對(duì)查詢的響應(yīng)的準(zhǔn)確性、忠實(shí)度和速度

llama_index 中文文檔,AIGC for GPT 評(píng)分體系構(gòu)架,筆記,llama,人工智能,語(yǔ)言模型

每個(gè)步驟中的重要概念

您還會(huì)遇到一些術(shù)語(yǔ),這些術(shù)語(yǔ)指的是每個(gè)階段中的步驟。

加載階段

節(jié)點(diǎn)和文檔:A?Document 是圍繞任何數(shù)據(jù)源的容器 - 例如,PDF、API 輸出或從數(shù)據(jù)庫(kù)檢索數(shù)據(jù)。A Node是 LlamaIndex 中數(shù)據(jù)的原子單位,表示源的“塊Document”。節(jié)點(diǎn)具有元數(shù)據(jù),可將它們與它們所在的文檔以及其他節(jié)點(diǎn)相關(guān)聯(lián)。

連接器: 數(shù)據(jù)連接器(通常稱為 Reader)將來自不同數(shù)據(jù)源和數(shù)據(jù)格式的數(shù)據(jù)引入到 DocumentsNodes中。

索引階段

索引: 攝取數(shù)據(jù)后,LlamaIndex 將幫助您將數(shù)據(jù)索引到易于檢索的結(jié)構(gòu)中。這通常涉及生成矢量嵌入,這些嵌入存儲(chǔ)在稱為矢量存儲(chǔ)的專用數(shù)據(jù)庫(kù)中。索引還可以存儲(chǔ)有關(guān)數(shù)據(jù)的各種元數(shù)據(jù)。

嵌入: LLM生成稱為embeddings的數(shù)據(jù)的數(shù)字表示。在篩選數(shù)據(jù)的相關(guān)性時(shí),LlamaIndex 會(huì)將查詢轉(zhuǎn)換為嵌入,并且向量存儲(chǔ)將查找與查詢嵌入在數(shù)值上相似的數(shù)據(jù)

查詢階段

獵犬: 檢索器定義在給定查詢時(shí)如何有效地從索引中檢索相關(guān)上下文。檢索策略是檢索數(shù)據(jù)的相關(guān)性和效率的關(guān)鍵。

路由器: 路由器確定將使用哪個(gè)檢索器從知識(shí)庫(kù)中檢索相關(guān)上下文。更具體地說,該RouterRetriever類負(fù)責(zé)選擇一個(gè)或多個(gè)候選檢索器來執(zhí)行查詢。他們使用選擇器根據(jù)每個(gè)候選人的元數(shù)據(jù)和查詢來選擇最佳選項(xiàng)。

節(jié)點(diǎn)后處理器: 節(jié)點(diǎn)后處理器接收一組檢索到的節(jié)點(diǎn),并對(duì)其應(yīng)用轉(zhuǎn)換、過濾或重新排序邏輯。

響應(yīng)合成器: 響應(yīng)合成器使用用戶查詢和一組給定的檢索文本塊從 LLM 生成響應(yīng)。

把它們放在一起

數(shù)據(jù)支持的 LLM 應(yīng)用程序有無(wú)窮無(wú)盡的用例,但它們可以大致分為三類:

查詢引擎: 查詢引擎是一個(gè)端到端管道,可用于對(duì)數(shù)據(jù)提出問題。它接受自然語(yǔ)言查詢,并返回響應(yīng),以及檢索并傳遞給 LLM 的引用上下文。

聊天引擎: 聊天引擎是用于與數(shù)據(jù)進(jìn)行對(duì)話的端到端管道(多個(gè)來回而不是單個(gè)問答)。

代理商: 智能體是由 LLM 提供支持的自動(dòng)化決策者,它通過一組工具與世界互動(dòng)。座席可以采取任意數(shù)量的步驟來完成給定的任務(wù),動(dòng)態(tài)地決定最佳行動(dòng)方案,而不是遵循預(yù)先確定的步驟。這使其具有更大的靈活性,可以處理更復(fù)雜的任務(wù)。

自定義任務(wù)需求:自定義教程 - LlamaIndex ?? v0.10.17文章來源地址http://www.zghlxwxcb.cn/news/detail-846150.html

? 構(gòu)建 LLM 應(yīng)用程序#

到了這里,關(guān)于llama_index 官方文檔閱讀筆記 (持續(xù)更新版)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【筆記】Spring Boot 歷史官方文檔學(xué)習(xí)(持續(xù)更新)

    Spring Boot 2014正式發(fā)布1.0版本,距今已經(jīng)快10年了。看歷史官方文檔了解重點(diǎn)feature, 幫助自己建立知識(shí)網(wǎng)絡(luò)。 與 Spring 5 官網(wǎng)歷史文檔學(xué)習(xí) 一樣,盡量保證不誤解文檔作者的原意,不好翻譯的會(huì)有原文摘錄(包括一些專有名詞),并輔以自己的理解。限于篇幅原因,只摘錄工作

    2024年02月10日
    瀏覽(24)
  • React 新版官方文檔 (一) useReducer 用法詳解

    React 新版官方文檔 (一) useReducer 用法詳解

    useReducer 是一個(gè)可以讓你向組件中添加 reducer 的 Hook 基本用法 比 useState 多了一個(gè)處理函數(shù),該函數(shù)可以根據(jù)不同的分發(fā)狀態(tài)來對(duì)應(yīng)的改變狀態(tài) 注意:state 不可修改 不能這樣寫, reducer 函數(shù)應(yīng)當(dāng)返回一個(gè)新對(duì)象 不要重新執(zhí)行初始函數(shù) 第一種寫法會(huì)導(dǎo)致每次渲染時(shí)候都調(diào)用

    2024年02月13日
    瀏覽(24)
  • 閱讀源碼和查看官方文檔,是解決問題最高效的辦法。

    閱讀源碼和查看官方文檔,是解決問題最高效的辦法。

    作為一個(gè)工作8年的老程序員告訴你:閱讀源碼和查看官方文檔,是解決問題最高效的辦法。不信你來看,這個(gè)困擾了讀者半天的問題我查了源碼和文檔后瞬間解決。 上周五有位讀者私信我一個(gè)問題,說困擾了他半天,研究了一個(gè)上午也沒搞明白。 是一位運(yùn)維轉(zhuǎn)Go的朋友,最

    2024年02月06日
    瀏覽(18)
  • 前端常用的一些插件、UI框架、js庫(kù),樣式庫(kù)以及官方文檔?!境掷m(xù)更新】

    前端常用的一些插件、UI框架、js庫(kù),樣式庫(kù)以及官方文檔?!境掷m(xù)更新】

    1.1 文檔地址 API文檔 1.2 安裝教程 1.下載安裝 2.導(dǎo)入 2.1 文檔地址 API文檔 2.2 安裝教程 1.下載安裝 2.導(dǎo)入 3.1 文檔地址 API文檔 3.2 安裝教程 1.下載安裝 2.導(dǎo)入 3.安裝遇到的問題 1)描述 ① 控制臺(tái)報(bào)錯(cuò) ② 終端報(bào)錯(cuò) 輸出的內(nèi)容都是 \\\"export xxx was not found in \\\'vue\\\' 2)解決 ① 先卸載 ya

    2024年02月03日
    瀏覽(56)
  • 《如何搭建一條私有多Geth節(jié)點(diǎn)的鏈》最新版以太坊私鏈搭建官方文檔要點(diǎn)翻譯

    Last edited on January 31, 2023 This guide explains how to set up a private network of multiple Geth nodes. An Ethereum network is private if the nodes are not connected to the main network. In this context private only means reserved or isolated, rather than protected or secure. A fully controlled, private Ethereum network is useful as a backend for core de

    2024年02月08日
    瀏覽(48)
  • 寫最好的Docker安裝最新版MySQL8(mysql-8.0.31)教程(參考Docker Hub和MySQL官方文檔)

    寫最好的Docker安裝最新版MySQL8(mysql-8.0.31)教程(參考Docker Hub和MySQL官方文檔)

    ?? MySQL官方安裝包下載地址: ??https://dev.mysql.com/downloads/mysql/ ? ?? Docker Hub官方網(wǎng)址: ??https://hub.docker.com/ ? ??如果需要了解Centos7下MySQL5.7最新版的安裝部署,可參考教程【最新MySQL-5.7.40在云服務(wù)器Centos7.9安裝部署)】。 ? ?? 本教程是筆者參考Docker Hub和MySQL官

    2024年02月01日
    瀏覽(20)
  • 論文閱讀筆記整理(持續(xù)更新)

    FAST 2021 Paper?泛讀筆記 針對(duì)LSM樹同時(shí)優(yōu)化讀寫性能的問題,現(xiàn)有方法通過壓縮提升讀性能,但會(huì)導(dǎo)致讀放大或?qū)懛糯?。作者利用新存?chǔ)硬件的性能,隨機(jī)讀和順序讀性能相近,因此提出構(gòu)建邏輯排序視圖優(yōu)化范圍查詢,因?yàn)闇p少了真正的壓縮操作,同時(shí)減少了寫放大。 ATC 2

    2024年01月23日
    瀏覽(54)
  • llama筆記:官方示例解析 example_chat_completion.py

    llama筆記:官方示例解析 example_chat_completion.py

    使用預(yù)訓(xùn)練模型生成文本的程序的入口點(diǎn) ckpt_dir (str) 指向包含預(yù)訓(xùn)練模型檢查點(diǎn)文件的目錄的路徑 tokenizer_path (str) 分詞器模型的路徑,用于文本的編碼和解碼 temperature (float, optional) 控制生成過程中隨機(jī)性的溫度值。 溫度值越高,生成的文本越隨機(jī),反之則更確定。 top_p (

    2024年03月22日
    瀏覽(15)
  • CXL論文閱讀筆記整理(持續(xù)更新)

    CXL論文閱讀筆記整理(持續(xù)更新)

    arXiv Paper 對(duì)CXL技術(shù)進(jìn)行介紹,包括CXL 1.0、CXL 2.0、CXL 3.0,對(duì)各規(guī)范的提升做介紹。整理了現(xiàn)有的CXL實(shí)現(xiàn)方法,延遲測(cè)試結(jié)果,對(duì)未來發(fā)展進(jìn)行展望。 Queue 2023 Paper 泛讀筆記 CXL提供的是粗力度的內(nèi)存共享,沒有提供細(xì)粒度的內(nèi)存保護(hù)功能,作者提出用針對(duì)特定領(lǐng)域優(yōu)化的去中心

    2024年04月15日
    瀏覽(18)
  • LLaMA模型論文《LLaMA: Open and Efficient Foundation Language Models》閱讀筆記

    LLaMA模型論文《LLaMA: Open and Efficient Foundation Language Models》閱讀筆記

    LLaMA是meta在2023年2月開源的大模型,在這之后,很多開源模型都是基于LLaMA的,比如斯坦福大學(xué)的羊駝模型。 LLaMA的重點(diǎn)是比通常情況下使用更多的語(yǔ)料,來訓(xùn)練一系列可在各種推理預(yù)算下實(shí)現(xiàn)可能的最佳性能的語(yǔ)言模型。 摘要翻譯:我們?cè)诖私榻BLLaMA,這是一個(gè)參數(shù)范圍從

    2024年02月15日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包