国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答

這篇具有很好參考價值的文章主要介紹了LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

簡介

一夕輕雷落萬絲,霽光浮瓦碧參差。
LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答,ChatGPT,LangChain,langchain,chatgpt,人工智能

緊接之前LangChain專題文章:

  • 15:如何用LangChain做長文檔問答?
  • 16:如何基于LangChain打造聯(lián)網(wǎng)版ChatGPT?
  • 17:ChatGPT應用框架LangChain速成大法

今天這篇小作文是LangChain實踐專題的第4篇,主要介紹如何用LangChain進行網(wǎng)頁問答。前文介紹用LangChain做文檔問答,需要先將網(wǎng)頁另存為pdf或者其他文檔格式,再讀取文件做問答。今天這篇小作文介紹如何直接做網(wǎng)頁問答,本質(zhì)上是將前文的數(shù)據(jù)本地存儲改為數(shù)據(jù)在線爬取

網(wǎng)頁爬取

這里使用LLMRequestsChain從 URL 獲取 HTML 結(jié)果,然后使用 LLM 解析結(jié)果。以下以羅大佑百科網(wǎng)頁為例,說明如何用LangChain進行web QA。

示例1: 信息抽取

import os
os.environ['OPENAI_API_KEY'] ="sk-XXXX"

import warnings
warnings.filterwarnings("ignore")
# model_name = "gpt-3.5-turbo"
model_name = "gpt-3.5-turbo-16k"
task_url = "https://baike.baidu.com/item/%E7%BD%97%E5%A4%A7%E4%BD%91/236869"
llm = OpenAI(model_name=model_name, temperature=0)

template = """在 >>> 和 <<< 之間是網(wǎng)頁的返回的HTML內(nèi)容。
請抽取表格中的信息。

>>> {requests_result} <<<
請使用JSON格式返回你抽取的結(jié)果。
Extracted:"""

prompt = PromptTemplate(
    input_variables=["requests_result"],
    template=template
)

chain = LLMRequestsChain(llm_chain=LLMChain(llm=llm, prompt=prompt))
inputs = {
  "url": task_url
}

response = chain(inputs)
print(response['output'])

輸出結(jié)果如下:

{
  "姓名": "羅大佑",
  "性別": "男",
  "民族": "漢族",
  "國籍": "中國",
  "出生地": "臺灣省臺北市",
  "出生日期": "1954年7月20日",
  "畢業(yè)院校": "臺灣中山醫(yī)學院",
  "星座": "巨蟹座",
  "血型": "O型",
  "身高": "172 cm",
  "經(jīng)紀公司": "種子音樂",
  "擅長樂器": "吉他、鋼琴",
  "代表作品": "東方之珠、明天會更好、鹿港小鎮(zhèn)、光陰的故事、童年、戀曲1990、之乎者也、你的樣子、亞細亞的孤兒、戀曲1980、愛人同志、閃亮的日子、愛的箴言、未來的主人翁、沉默的表示、穿過你的黑發(fā)的我的手、野百合也有春天",
  "主要成就": "臺灣金曲獎特別貢獻獎、hito流行音樂獎頒獎典禮樂壇成就大獎、中國金唱片獎藝術成就獎、音樂風云榜歌壇杰出貢獻獎、亞洲最杰出藝人獎"
}

示例2: 指定字段抽取信息

template = """在 >>> 和 <<< 之間是網(wǎng)頁的返回的HTML內(nèi)容。
請抽取表格中的信息。

>>> {requests_result} <<<
請使用如下JSON格式返回你抽取的結(jié)果。
{{"中文名": "a", "代表作品": "b", "祖籍": "c", "妻子": "d"}}

Extracted:"""

prompt = PromptTemplate(
    input_variables=["requests_result"],
    template=template
)

chain = LLMRequestsChain(llm_chain=LLMChain(llm=llm, prompt=prompt))
inputs = {
  "url": task_url
}

response = chain(inputs)
print(response['output'])

輸出結(jié)果如下:

{"中文名": "羅大佑", "代表作品": "東方之珠、明天會更好、鹿港小鎮(zhèn)、光陰的故事、童年、戀曲1990、之乎者也、你的樣子、亞細亞的孤兒、戀曲1980、愛人同志、閃亮的日子、愛的箴言、未來的主人翁、沉默的表示、穿過你的黑發(fā)的我的手、野百合也有春天", "祖籍": "廣東省梅州市梅縣區(qū)", "妻子": "李烈、Elaine"}

查閱原文:

LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答,ChatGPT,LangChain,langchain,chatgpt,人工智能

網(wǎng)頁問答

示例1: 數(shù)據(jù)統(tǒng)計

from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMRequestsChain, LLMChain
import os

os.environ['OPENAI_API_KEY'] ="sk-XXXX"
os.environ['HTTP_PROXY'] = "XXX"
os.environ['HTTPS_PROXY'] = "XXX"

import warnings
warnings.filterwarnings("ignore")
# model_name = "gpt-3.5-turbo"
model_name = "gpt-3.5-turbo-16k"
task_url = "https://baike.baidu.com/item/%E7%BD%97%E5%A4%A7%E4%BD%91/236869"
llm = OpenAI(model_name=model_name, temperature=0)

template = """在 >>> 和 <<< 之間是網(wǎng)頁的返回的HTML內(nèi)容。

>>> {requests_result} <<<

根據(jù)網(wǎng)頁內(nèi)容,回答問題:{query}。"""

prompt = PromptTemplate(
    input_variables=["requests_result", "query"],
    template=template
)

chain = LLMRequestsChain(llm_chain=LLMChain(llm=llm, prompt=prompt))
inputs = {
  "url": task_url,
  "query":"羅大佑有幾個老婆",
}

response = chain(inputs)
print(response['output'])

輸出結(jié)果如下:

根據(jù)網(wǎng)頁內(nèi)容,羅大佑有兩個老婆。他與李烈結(jié)婚后僅維持了一年半的婚姻,然后在2010年與Elaine結(jié)婚。

示例2: 時間類

# model_name = "gpt-3.5-turbo"
model_name = "gpt-3.5-turbo-16k"
task_url = "https://baike.baidu.com/item/%E7%BD%97%E5%A4%A7%E4%BD%91/236869"
llm = OpenAI(model_name=model_name, temperature=0)

template = """在 >>> 和 <<< 之間是網(wǎng)頁的返回的HTML內(nèi)容。

>>> {requests_result} <<<

根據(jù)網(wǎng)頁內(nèi)容,回答問題:{query}。"""

prompt = PromptTemplate(
    input_variables=["requests_result", "query"],
    template=template
)

chain = LLMRequestsChain(llm_chain=LLMChain(llm=llm, prompt=prompt))
inputs = {
  "url": task_url,
  "query":"羅大佑最近獲得的獎是什么?",
}

response = chain(inputs)
print(response['output'])

輸出結(jié)果如下:

根據(jù)網(wǎng)頁內(nèi)容,羅大佑最近獲得的獎是第32屆臺灣金曲獎特別貢獻獎。

LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答,ChatGPT,LangChain,langchain,chatgpt,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-611520.html

到了這里,關于LLM系列 | 18 : 如何用LangChain進行網(wǎng)頁問答的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 給LLM裝上知識:從LangChain+LLM的本地知識庫問答到LLM與知識圖譜的結(jié)合

    給LLM裝上知識:從LangChain+LLM的本地知識庫問答到LLM與知識圖譜的結(jié)合

    過去半年,隨著ChatGPT的火爆,直接帶火了整個LLM這個方向,然LLM畢竟更多是基于過去的經(jīng)驗數(shù)據(jù)預訓練而來,沒法獲取最新的知識,以及各企業(yè)私有的知識 為了獲取最新的知識,ChatGPT plus版集成了bing搜索的功能,有的模型則會調(diào)用一個定位于 “鏈接各種AI模型、工具”的

    2024年02月12日
    瀏覽(96)
  • 從零實現(xiàn)Transformer、ChatGLM-6B、LangChain+LLM的本地知識庫問答

    從零實現(xiàn)Transformer、ChatGLM-6B、LangChain+LLM的本地知識庫問答

    最近一直在做類ChatGPT項目的部署 微調(diào),關注比較多的是兩個:一個LLaMA,一個ChatGLM,會發(fā)現(xiàn)有不少模型是基于這兩個模型去做微調(diào)的,說到微調(diào),那具體怎么微調(diào)呢,因此又詳細了解了一下微調(diào)代碼,發(fā)現(xiàn)微調(diào)LLM時一般都會用到Hugging face實現(xiàn)的Transformers庫的Trainer類 從而發(fā)現(xiàn)

    2024年02月08日
    瀏覽(43)
  • 開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識庫問答系統(tǒng)

    開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識庫問答系統(tǒng)

    租用了1臺GPU服務器,系統(tǒng) ubuntu20,Tesla V100-16GB (GPU服務器已經(jīng)關機結(jié)束租賃了) SSH地址:* 端口:17520 SSH賬戶:root 密碼:Jaere7pa 內(nèi)網(wǎng): 3389 , 外網(wǎng):17518 VNC地址:* 端口:17519 VNC用戶名:root 密碼:Jaere7pa 硬件需求,ChatGLM-6B和ChatGLM2-6B相當。 量化等級?? ?最低 GPU 顯存 F

    2024年02月03日
    瀏覽(32)
  • LLM本地知識庫問答系統(tǒng)(一):使用LangChain和LlamaIndex從零構(gòu)建PDF聊天機器人指南

    LLM本地知識庫問答系統(tǒng)(一):使用LangChain和LlamaIndex從零構(gòu)建PDF聊天機器人指南

    ? ? ? ?隨著大型語言模型(LLM)(如ChatGPT和GPT-4)的興起,現(xiàn)在比以往任何時候都更容易構(gòu)建比普通熊更智能的智能聊天機器人,并且可以瀏覽堆積如山的文檔,為您的輸入提供準確的響應。 ? ? ? ?在本系列中,我們將探索如何使用pre-trained的LLM創(chuàng)建一個聊天機器人,該聊

    2024年02月11日
    瀏覽(99)
  • Elasticsearch:使用 Langchain 和 OpenAI 進行問答

    Elasticsearch:使用 Langchain 和 OpenAI 進行問答

    這款交互式 jupyter notebook 使用 Langchain 將虛構(gòu)的工作場所文檔拆分為段落 (chunks),并使用 OpenAI 將這些段落轉(zhuǎn)換為嵌入并將其存儲到 Elasticsearch 中。然后,當我們提出問題時,我們從向量存儲中檢索相關段落,并使用 langchain 和 OpenAI 提供問題的摘要。 如果你還沒有安裝好自己

    2024年02月07日
    瀏覽(13)
  • Elasticsearch:使用 Gemini、Langchain 和 Elasticsearch 進行問答

    Elasticsearch:使用 Gemini、Langchain 和 Elasticsearch 進行問答

    本教程演示如何使用 Gemini API創(chuàng)建 embeddings 并將其存儲在 Elasticsearch 中。 我們將學習如何將 Gemini 連接到 Elasticsearch 中存儲的私有數(shù)據(jù),并使用 Langchian 構(gòu)建問答功能。 如果你還沒有安裝好自己的 Elasticsearch 及 Kibana 的話,請參閱如下的文章來進行安裝: 如何在 Linux,MacOS 及

    2024年01月24日
    瀏覽(27)
  • 使用langchain+chatGPT搭建自有知識庫問答機器人

    ? ? ? ? 自去年年底OpenAI發(fā)布ChatGPT以來,大型語言模型在人工智能領域掀起了一股熱潮。隨后,各家公司紛紛推出自己的大型語言模型,如百度的文心一言、訊飛的星火大模型等。在這個過程中,文本轉(zhuǎn)圖片和文本轉(zhuǎn)視頻等相關領域也備受關注。然而,很顯然,這只是一時的

    2024年02月13日
    瀏覽(32)
  • Elasticsearch:在本地使用 Gemma LLM 對私人數(shù)據(jù)進行問答

    Elasticsearch:在本地使用 Gemma LLM 對私人數(shù)據(jù)進行問答

    在本筆記本中,我們的目標是利用 Google 的 Gemma 模型開發(fā) RAG 系統(tǒng)。 我們將使用 Elastic 的 ELSER 模型生成向量并將其存儲在 Elasticsearch 中。 此外,我們將探索語義檢索技術,并將最熱門的搜索結(jié)果作為 Gemma 模型的上下文窗口呈現(xiàn)。 此外,我們將利用 Hugging Face 轉(zhuǎn)換器庫在本地

    2024年03月14日
    瀏覽(24)
  • 【ChatGPT】在20分鐘內(nèi)使用 LangChain + Ray構(gòu)建自托管問答服務

    This is part 3 of a blog series. In this blog, we’ll show you how to build an LLM question and answering service. In future parts, we will optimize the code and measure performance: cost, latency and throughput. 這是博客系列的第 3 部分。在本博客中,我們將向您展示如何構(gòu)建LLM問答服務。在以后的部分中,我們將優(yōu)化代碼

    2024年02月03日
    瀏覽(84)
  • 吳恩達ChatGPT《LangChain for LLM Application Development》筆記

    吳恩達ChatGPT《LangChain for LLM Application Development》筆記

    基于 LangChain 的 LLM 應用開發(fā) 現(xiàn)在,使用 Prompt 可以快速開發(fā)一個應用程序,但是一個應用程序可能需要多次寫Prompt,并對 LLM 的輸出結(jié)果進行解析。因此,需要編寫很多膠水代碼。 Harrison Chase 創(chuàng)建的 LangChain 框架可以簡化開發(fā)流程。其包含兩個包,Python和JavaScript。LangChain 提

    2024年02月12日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包