国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型

這篇具有很好參考價值的文章主要介紹了LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、ChatYuan-large-v2 模型

ChatYuan-large-v2是一個開源的支持中英雙語的功能型對話語言大模型,與其他 LLM 不同的是模型十分輕量化,并且在輕量化的同時效果相對還不錯,僅僅通過0.7B參數(shù)量就可以實現(xiàn)10B模型的基礎(chǔ)效果,正是其如此的輕量級,使其可以在普通顯卡、 CPU、甚至手機(jī)上進(jìn)行推理,而且 INT4 量化后的最低只需 400M 。

v2 版本相對于以前的 v1 版本,是使用了相同的技術(shù)方案,但在指令微調(diào)、人類反饋強(qiáng)化學(xué)習(xí)、思維鏈等方面進(jìn)行了優(yōu)化,主要優(yōu)化點如下所示:

  • 增強(qiáng)了基礎(chǔ)能力。原有上下文問答、創(chuàng)意性寫作能力明顯提升。
  • 新增了拒答能力。對于一些危險、有害的問題,學(xué)會了拒答處理。
  • 新增了代碼生成功能。對于基礎(chǔ)代碼生成進(jìn)行了一定程度優(yōu)化。
  • 新增了表格生成功能。使生成的表格內(nèi)容和格式更適配。
  • 增強(qiáng)了基礎(chǔ)數(shù)學(xué)運算能力。
  • 最大長度token數(shù)從1024擴(kuò)展到4096。
  • 增強(qiáng)了模擬情景能力。
  • 新增了中英雙語對話能力。

ChatYuan-large-v2 模型已經(jīng)發(fā)布到了 huggingface 中:

https://huggingface.co/ClueAI/ChatYuan-large-v2

開源項目地址:

https://github.com/clue-ai/ChatYuan

二、AutoModel 調(diào)用示例

由于ChatYuan-large-v2 已經(jīng)發(fā)布到 huggingface 中 ,因此在可以先使用 transformers 中的 AutoTokenizerAutoModel 進(jìn)行調(diào)用體驗。

首先將下面鏈接中的文件下載到本地磁盤中:

https://huggingface.co/ClueAI/ChatYuan-large-v2/tree/main

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

調(diào)用實例:

# -*- coding: utf-8 -*-
from transformers import AutoTokenizer, AutoModel
import os

# 這里是模型下載的位置
model_dir = 'D:\\AIGC\\model\\ChatYuan-large-v2'

tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True)
history = []
while True:
    query = input("\n用戶:")
    if query == "stop":
        break
    if query == "clear":
        history = []
        os.system('clear')
        continue
    response, history = model.chat(tokenizer, query, history=history)
    print(f"小元:{response}")

測試:

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

從上面的演示可以看到一些常見的對話都是OK的,也可以為我們寫一些代碼,下面將上面的程序轉(zhuǎn)化為 Langchain 中的 LLM 進(jìn)行使用。

三、LangChain 集成

LangChain 中為我們提供了一個 HuggingFacePipeline 工具,可以輕松的將 HuggingFace 中的 pipeline 轉(zhuǎn)為 langchain 中的 LLM,下面是調(diào)用實例:

# -*- coding: utf-8 -*-
from transformers import AutoTokenizer, AutoModel, pipeline
from langchain import HuggingFacePipeline
from langchain import PromptTemplate
import os

model_dir = 'D:\\AIGC\\model\\ChatYuan-large-v2'
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True)
pipe = pipeline(
    "text2text-generation",
    model=model,
    tokenizer=tokenizer,
    max_length=512,
    temperature=0.8,
    top_p=1,
    repetition_penalty=1.15
)
llm = HuggingFacePipeline(pipeline=pipe)

template = "用戶:{query} \n 小元:"
prompt = PromptTemplate(
    input_variables=["query"],
    template=template,
)

while True:
    query = input("\n用戶:")
    if query == "stop":
        break
    if query == "clear":
        os.system('clear')
        continue
    response = llm(prompt.format(query=query))
    print(f"小元:{response}")

測試效果:

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

四、場景使用探索

4.1 實體識別

提取文本中的 企業(yè)地址 實體:

根據(jù)文本內(nèi)容,提取出"公司"、“地址” 信息, 文本內(nèi)容:阿里巴巴在江蘇南京有分公司嗎?

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

4.2 情感分析

根據(jù)文本內(nèi)容,判斷情感是正向還是負(fù)向, 文本內(nèi)容:前臺服務(wù)非常好,再接再厲!
根據(jù)文本內(nèi)容,判斷情感是正向還是負(fù)向, 文本內(nèi)容:飯菜口味很難吃!

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

4.3 文章分類

根據(jù)文本內(nèi)容進(jìn)行文章分類,分類如下: 新聞、體育、美食、健身, 文本內(nèi)容:蘇州的飯菜非常好吃,下次繼續(xù)來吃。
根據(jù)文本內(nèi)容進(jìn)行文章分類,分類如下: 新聞、體育、美食、健身, 文本內(nèi)容:好久沒運動了,我準(zhǔn)備每天跑步。

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能

4.4 文章生成

寫一個文章,內(nèi)容是關(guān)于美食的。

LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型,機(jī)器學(xué)習(xí),langchain,語言模型,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-567768.html

到了這里,關(guān)于LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Spark的Windows本地化部署完整方案

    Spark的Windows本地化部署完整方案

    對于Spark,網(wǎng)上涉及到Windows平臺搭建的資料不多。大多資料不全,而且很少說明注意事項,存在一定的挖坑行為。對于不是很熟悉spark環(huán)境搭建過程,但是又非常想在自己的電腦上搭建一個本地環(huán)境的小伙伴來說存在一定的繞路行為。本文借鑒了網(wǎng)上大部分的資料,在整理集

    2023年04月11日
    瀏覽(25)
  • 【Unity 實用工具篇】| 游戲多語言解決方案,官方插件Localization 實現(xiàn)本地化及多種語言切換

    【Unity 實用工具篇】| 游戲多語言解決方案,官方插件Localization 實現(xiàn)本地化及多種語言切換

    前言 Unity的 多語言本地化 是一個很實用的功能,它可以幫助游戲支持多種語言,讓不同語言的玩家都能夠更好地體驗游戲。 而實現(xiàn)本地化的方案也有很多種,各個方案之間也各有優(yōu)劣,后面也會對多個方案進(jìn)行介紹學(xué)習(xí)。 本文就來介紹一個專門作用于多語言本地化的Unity官

    2024年02月05日
    瀏覽(29)
  • winform使用本地化,中英文切換

    winform使用本地化,中英文切換

    在有些軟件中,需要中英文切換的功能,甚至其他語言切換的功能,都可以使用winform自帶的本地化功能。一共有2種方法。 第一種方法 1.首先建立一個項目,拖幾個控件上去,如圖所示。 2.點擊Form1的屬性,設(shè)置以下2項 此時,窗體就會變成帶有 英語 的字樣 3.這個時候,我們

    2023年04月09日
    瀏覽(29)
  • 使用Unity Localization插件進(jìn)行項目本地化實戰(zhàn)詳解

    使用Unity Localization插件進(jìn)行項目本地化實戰(zhàn)詳解

    在使用Unity開發(fā)游戲的過程中,本地化是必不可少的。網(wǎng)絡(luò)上也有很多的本地化工具,本次我介紹的是Unity官方提供的Localization插件,大家可以在Package Manager進(jìn)行安裝 在Project Setting中找到Localization,(需要先創(chuàng)建這個Localization Setting文件)點擊Locale Generator選擇需要本地化的語

    2024年02月05日
    瀏覽(34)
  • 使用nextjs本地化部署AI大模型gemma

    使用nextjs本地化部署AI大模型gemma

    博主是AI新手,如有不對還請評論區(qū)指教~ 這里介紹mac的部署方式,win也可以實現(xiàn)。 本案例使用到:ollama + nextjs + langchain.js + milvus 來實現(xiàn)知識庫問答和聊天。 ollama: 本地運行模型服務(wù) nextjs: 前端框架項目 langchain.js: 調(diào)用模型服務(wù)并對話 milvus: 向量數(shù)據(jù)庫 開源代碼:G

    2024年04月13日
    瀏覽(26)
  • 10 使用Vue+axios+Vuex實現(xiàn)登錄后前端數(shù)據(jù)本地化存儲實戰(zhàn)

    10 使用Vue+axios+Vuex實現(xiàn)登錄后前端數(shù)據(jù)本地化存儲實戰(zhàn)

    這已經(jīng)是《 Vue + SpringBoot前后端分離項目實戰(zhàn) 》專欄的前端部分第8篇博客了, 服務(wù)端部分 由天哥(天哥主頁)負(fù)責(zé),目前專欄目錄如下: Vue + SpringBoot前后端分離項目實戰(zhàn) - 前端部分 1.?手把手帶你做一套畢業(yè)設(shè)計-征程開啟 2.?我應(yīng)該把畢業(yè)設(shè)計做到什么程度才能過關(guān)? 3

    2024年02月16日
    瀏覽(19)
  • 群暉、威聯(lián)通NAS硬盤本地化,使用RaiDrive通過WebDAV實現(xiàn)內(nèi)網(wǎng)掛載

    群暉、威聯(lián)通NAS硬盤本地化,使用RaiDrive通過WebDAV實現(xiàn)內(nèi)網(wǎng)掛載

    ?先看效果 ? NAS磁盤映射到電腦本地的方法有很多,但好用流暢不卡頓的還得是WebDAV+RaiDrive將磁盤掛載到本地使用,而新版的RaiDrive必須連接互聯(lián)網(wǎng)才能使用,完全物理隔離的內(nèi)網(wǎng)中無法正常使用。最后我發(fā)現(xiàn)舊版的RaiDrive可以滿足需求。 ? 局域網(wǎng)內(nèi)掛載NAS到本地電腦使用的

    2024年02月06日
    瀏覽(70)
  • 手把手教你如何使用AI繪畫:Stable-Diffusion本地化部署及使用教程

    手把手教你如何使用AI繪畫:Stable-Diffusion本地化部署及使用教程

    最近隨著ChatGPT的爆火,AI繪畫也火得不行,這幾天文心一言發(fā)布會,圖片生成的梗都快被大家玩壞了,網(wǎng)上有不少Midjourney的使用分享,但是畢竟那個是商用網(wǎng)站,收費的,博主今天給大家發(fā)個福利!出一波免費使用AI繪畫的教程:Stable-Diffusion本地化部署及使用!手把手教你如

    2023年04月08日
    瀏覽(93)
  • 詳解dedecms織夢遠(yuǎn)程圖片本地化https鏈接圖片無法本地化怎么解決

    最近有朋友遇到發(fā)布文章時候文章里面帶https的站外圖片無法本地化,以下是解決辦法: 找到? dede//inc/inc_archives_functions.php文件里面GetCurContent($body)這個函數(shù),里面 這一段改為: 第二步: 這一段改為: 搞定,這樣發(fā)文章就可以把https的遠(yuǎn)程圖片也本地化了 以上就是本文的全

    2024年02月02日
    瀏覽(32)
  • Remix本地化,加載本地合約文件,本地鏈接Remix

    Remix本地化,加載本地合約文件,本地鏈接Remix

    智能合約IDE,在線的比較卡,而且切換網(wǎng)絡(luò)面臨文件丟失的風(fēng)險,選擇本地搭建Solidity本地編輯環(huán)境,Remix-IDE + Remixd組合,加載本地合約代碼。這里用到兩個工具: Remix IDE(本地IDE)+ Remixd (鏈接) Remix IDE 項目源碼:https://github.com/ethereum/remix-project 介紹: Remix IDE是一個本地部署運

    2024年02月13日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包