国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Windows11下私有化部署大語(yǔ)言模型實(shí)戰(zhàn) langchain+llama2

這篇具有很好參考價(jià)值的文章主要介紹了Windows11下私有化部署大語(yǔ)言模型實(shí)戰(zhàn) langchain+llama2。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、本機(jī)環(huán)境

1.硬件環(huán)境:

CPU:銳龍5600X

顯卡:GTX3070

內(nèi)存:32G

注:硬件配置僅為博主的配置,不是最低要求配置,也不是推薦配置。該配置下計(jì)算速度約為40tokens/s。實(shí)測(cè)核顯筆記本(i7-1165g7)也能跑,速度3tokens/s。

2.軟件環(huán)境:

Windows系統(tǒng)版本:Win11專業(yè)版23H2

Python版本:3.11

Cuda版本:12.3.2

VS版本:VS2022 17.8.3

langchain版本:0.0.352

llama-cpp-python版本:0.2.27

二、安裝準(zhǔn)備工作

1.模型下載

大模型有很多種格式,比如Meta官網(wǎng)下載的pth格式,Huggingface下載的ggml格式、gguf格式等。(博主最開(kāi)始下的Meta官網(wǎng)的版本,結(jié)果發(fā)現(xiàn)langchain框架用不了,走了不少?gòu)澛罚?/p>

langchain框架使用的是gguf格式(老版本則是ggml格式 llama.cpp <= 0.1.48),所以我們?cè)贖uggingface上下載gguf格式的模型,下載鏈接為T(mén)heBloke/Llama-2-7B-Chat-GGUF at main (huggingface.co),本文選擇的模型為llama-2-7b-chat.Q4_K_M.gguf。

不同模型的大小、硬件需求、計(jì)算速度、精度不同,具體區(qū)別詳見(jiàn)網(wǎng)站的README.md文檔。

模型名稱 量化方式 模型精度 大小 最小內(nèi)存要求 備注
llama-2-7b-chat.Q2_K.gguf Q2_K 2 2.83 GB 5.33 GB 模型最小, 質(zhì)量最差 - 不推薦
llama-2-7b-chat.Q3_K_S.gguf Q3_K_S 3 2.95 GB 5.45 GB 模型很小, 質(zhì)量較差
llama-2-7b-chat.Q3_K_M.gguf Q3_K_M 3 3.30 GB 5.80 GB 模型很小, 質(zhì)量較差
llama-2-7b-chat.Q3_K_L.gguf Q3_K_L 3 3.60 GB 6.10 GB 模型小, 質(zhì)量略差
llama-2-7b-chat.Q4_0.gguf Q4_0 4 3.83 GB 6.33 GB 常規(guī);模型小, 質(zhì)量很差 - 相比更推薦 Q3_K_M
llama-2-7b-chat.Q4_K_S.gguf Q4_K_S 4 3.86 GB 6.36 GB 模型小, 質(zhì)量稍好
llama-2-7b-chat.Q4_K_M.gguf Q4_K_M 4 4.08 GB 6.58 GB 模型中等, 質(zhì)量中等 - 推薦
llama-2-7b-chat.Q5_0.gguf Q5_0 5 4.65 GB 7.15 GB 常規(guī); 模型中等, 質(zhì)量中等 - 相比更推薦 Q4_K_M
llama-2-7b-chat.Q5_K_S.gguf Q5_K_S 5 4.65 GB 7.15 GB 模型大, 質(zhì)量稍好 - 推薦
llama-2-7b-chat.Q5_K_M.gguf Q5_K_M 5 4.78 GB 7.28 GB 模型大, 質(zhì)量較好 - 推薦
llama-2-7b-chat.Q6_K.gguf Q6_K 6 5.53 GB 8.03 GB 模型很大, 質(zhì)量很好
llama-2-7b-chat.Q8_0.gguf Q8_0 8 7.16 GB 9.66 GB 模型很大, 質(zhì)量最好 - 不推薦

?2.VS2022安裝

下載Microsoft C++ 生成工具 - Visual Studio,在安裝頁(yè)面勾選使用C++的桌面開(kāi)發(fā),完成安裝。

Windows11下私有化部署大語(yǔ)言模型實(shí)戰(zhàn) langchain+llama2

3.Cuda安裝

注:Cuda用于N卡加速模型計(jì)算,langchain+llama2支持只用cpu加速,如不用gpu加速可不安裝。

下載Cuda完成安裝,下載鏈接CUDA Toolkit 12.3 Update 2 Downloads | NVIDIA Developer

注:后續(xù)安裝python包llama-cpp-python時(shí)可能會(huì)遇到No Cuda toolset found問(wèn)題,需要將Cuda安裝包當(dāng)作壓縮包打開(kāi),在cuda_12.3.2_546.12_windows.exe\visual_studio_integration\CUDAVisualStudioIntegration\extras\visual_studio_integration\MSBuildExtensions\文件夾中找到以下4個(gè)文件,將這4個(gè)文件放入VS2022的目錄中,博主的路徑為C:\Program Files (x86)\Microsoft Visual Studio\2022\BuildTools\MSBuild\Microsoft\VC\v170

Windows11下私有化部署大語(yǔ)言模型實(shí)戰(zhàn) langchain+llama2

4.Python及其余pip包安裝

python安裝

Python安裝方式請(qǐng)查閱其余教程:安裝 python at windows - PanPan003 - 博客園 (cnblogs.com)

langchain安裝

打開(kāi)powershell,輸入以下命令安裝langchain框架

pip install langchain

llama-cpp-python安裝

由于我們要用cuda加速模型計(jì)算,安裝llama-cpp-python前需要配置powelshell環(huán)境,使llama-cpp-python啟用cuda。如果僅用cpu跑模型,可不輸入此行代碼,不同配置的詳細(xì)說(shuō)明參照abetlen/llama-cpp-python:llama.cpp 的 Python 綁定 (github.com)

$env=CMAKE_ARGS="-DLLAMA_CUBLAS=on"

輸入以下命令安裝llama-cpp-python包

pip install llama-cpp-python

如果之前已經(jīng)安裝過(guò)llama-cpp-python,想用不同的配置方式重新安裝,需要在配置好環(huán)境變量后輸入

pip install --upgrade --force-reinstall llama-cpp-python

?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-777130.html

?

三、運(yùn)行代碼

請(qǐng)將模型與python代碼文件放在同一目錄下,或自行修改目錄。

from langchain.callbacks.manager import CallbackManager
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
from langchain_community.llms import LlamaCpp
template = """Question: {question}
Answer: Let's work this out in a step by step way to be sure we have the right answer."""

prompt = PromptTemplate(template=template, input_variables=["question"])

# Callbacks support token-wise streaming
callback_manager = CallbackManager([StreamingStdOutCallbackHandler()])

n_gpu_layers = 40  # Change this value based on your model and your GPU VRAM pool.
n_batch = 512  # Should be between 1 and n_ctx, consider the amount of VRAM in your GPU.

# Make sure the model path is correct for your system!
llm = LlamaCpp(
    model_path="llama-2-7b.Q4_K_M.gguf",
    n_gpu_layers=n_gpu_layers,
    n_batch=n_batch,
    callback_manager=callback_manager,
    verbose=True,  # Verbose is required to pass to the callback manager
)

llm_chain = LLMChain(prompt=prompt, llm=llm)
question = "What NFL team won the Super Bowl in the year Justin Bieber was born?"
llm_chain.run(question)

?

?

?

?

參考鏈接:

1.llama2介紹

Llama 2 來(lái)襲 - 在 Hugging Face 上玩轉(zhuǎn)它

關(guān)于 Llama 2 的一切資源,我們都幫你整理好了 - HuggingFace - 博客園 (cnblogs.com)

2.langchain介紹

LangChain 中文文檔 v0.0.291 | ????? Langchain

3.llama-cpp-python編譯相關(guān)問(wèn)題

Windows CMake編譯錯(cuò)誤:No CUDA toolset found解決方法

Error while installing python package: llama-cpp-python - Stack Overflow

c++ - CUDA compile problems on Windows, Cmake error: No CUDA toolset found - Stack Overflow

?4.帶GUI的實(shí)戰(zhàn)

本地部署開(kāi)源大模型的完整教程:LangChain + Streamlit+ Llama - 知乎 (zhihu.com)

?

到了這里,關(guān)于Windows11下私有化部署大語(yǔ)言模型實(shí)戰(zhàn) langchain+llama2的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【碼銀送書(shū)第六期】《ChatGPT原理與實(shí)戰(zhàn):大型語(yǔ)言模型的算法、技術(shù)和私有化》

    【碼銀送書(shū)第六期】《ChatGPT原理與實(shí)戰(zhàn):大型語(yǔ)言模型的算法、技術(shù)和私有化》

    2022年11月30日,ChatGPT模型問(wèn)世后,立刻在全球范圍內(nèi)掀起了軒然大波。無(wú)論AI從業(yè)者還是非從業(yè)者,都在熱議ChatGPT極具沖擊力的交互體驗(yàn)和驚人的生成內(nèi)容。這使得廣大群眾重新認(rèn)識(shí)到人工智能的潛力和價(jià)值。對(duì)于AI從業(yè)者來(lái)說(shuō),ChatGPT模型成為一種思路的擴(kuò)充,大模型不再是

    2024年02月09日
    瀏覽(92)
  • 私有化部署大模型:5個(gè).Net開(kāi)源項(xiàng)目

    私有化部署大模型:5個(gè).Net開(kāi)源項(xiàng)目

    從零構(gòu)建.Net前后端分離項(xiàng)目 今天一起盤(pán)點(diǎn)下,10月份推薦的5個(gè).Net開(kāi)源項(xiàng)目(點(diǎn)擊標(biāo)題查看詳情)。 1、BootstrapBlazor企業(yè)級(jí)組件庫(kù):前端開(kāi)發(fā)的革新之路 BootstrapBlazor是一個(gè)用于構(gòu)建現(xiàn)代Web應(yīng)用程序的開(kāi)源框架,它基于Blazor框架,采用Bootstrap的UI樣式。Blazor框架允許使用C#代替

    2024年02月05日
    瀏覽(89)
  • C#開(kāi)源項(xiàng)目:私有化部署LLama推理大模型

    C#開(kāi)源項(xiàng)目:私有化部署LLama推理大模型

    推薦一個(gè)C#大模型推理開(kāi)源項(xiàng)目,讓你輕松駕馭私有化部署! 01 項(xiàng)目簡(jiǎn)介 LLama是Meta發(fā)布的一個(gè)免費(fèi)開(kāi)源的大模型,是一個(gè)有著上百億數(shù)量級(jí)參數(shù)的大語(yǔ)言模型,支持CPU和GPU兩種方式。 而LLamaSharp就是針對(duì)llama.cpp封裝的C#版本,讓方便我們基于C#開(kāi)發(fā)應(yīng)用,讓我們不需要自己編譯

    2024年02月03日
    瀏覽(90)
  • 開(kāi)源支持私有化部署一分鐘構(gòu)建大模型機(jī)器人

    開(kāi)源支持私有化部署一分鐘構(gòu)建大模型機(jī)器人

    Dify 是一款 中國(guó)開(kāi)源 的大語(yǔ)言模型(LLM) 應(yīng)用開(kāi)發(fā)平臺(tái)。使開(kāi)發(fā)者可以快速搭建生產(chǎn)級(jí)的生成式 AI 應(yīng)用。即使你是非技術(shù)人員,也能參與到 AI 應(yīng)用的定義和數(shù)據(jù)運(yùn)營(yíng)過(guò)程中。Dify 提供了更接近生產(chǎn)需要的完整方案, Dify 好比是一套腳手架 ,并且經(jīng)過(guò)了精良的工程設(shè)計(jì)和軟件測(cè)

    2024年04月16日
    瀏覽(113)
  • aiXcoder私有化部署與大模型個(gè)性化訓(xùn)練:如何將AIGC應(yīng)用到您的企業(yè)中?

    aiXcoder私有化部署與大模型個(gè)性化訓(xùn)練:如何將AIGC應(yīng)用到您的企業(yè)中?

    現(xiàn)代企業(yè)的成功轉(zhuǎn)型離不開(kāi)創(chuàng)新,而創(chuàng)新離不開(kāi)人工智能等前沿技術(shù)的推動(dòng)。隨著全球經(jīng)濟(jì)的發(fā)展和競(jìng)爭(zhēng)的日益激烈,企業(yè)需要更快、更高效地交付新產(chǎn)品、服務(wù)和解決方案,以更好地滿足客戶需求并保持市場(chǎng)競(jìng)爭(zhēng)力,應(yīng)用研發(fā)效率提升企業(yè)競(jìng)爭(zhēng)力已成為趨勢(shì)。AIGC時(shí)代來(lái)臨,

    2024年02月09日
    瀏覽(80)
  • 支撐開(kāi)源LLM大模型的私有化部署,需要單機(jī)多個(gè)不同型號(hào)GPU混合使用的同學(xué)看過(guò)來(lái)

    支撐開(kāi)源LLM大模型的私有化部署,需要單機(jī)多個(gè)不同型號(hào)GPU混合使用的同學(xué)看過(guò)來(lái)

    有2臺(tái)深度學(xué)習(xí)的工作站,分別有2張3090和2張4090,Qwen-14B-Chat輕松跑起,知識(shí)庫(kù)檢索等應(yīng)用效果還可以,想提升到Qwen-72B-int4(官方要求最低48G顯存),于是把4張卡集中到同一臺(tái)機(jī)器(多級(jí)多卡也是可以的,但不是每個(gè)框架都支持分布式GPU),過(guò)程中遇到一些坑,度娘無(wú)混卡的

    2024年02月01日
    瀏覽(92)
  • Chatgpt私有化部署(全流程)

    Chatgpt私有化部署(全流程)

    ? 當(dāng)下使用chatgpt來(lái)幫助完成工作已然成為主流,但想訪問(wèn)必須先面對(duì)地區(qū)的封鎖,所以使用openai官方提供的API來(lái)部署至本地服務(wù)器從而更加便利的使用chatgpt。本文章主要介紹如何部署私有聊天機(jī)器人。 公網(wǎng)服務(wù)器一臺(tái)(可選阿里云、騰訊云等) openai賬號(hào),用于獲取私人的

    2023年04月20日
    瀏覽(98)
  • Sealos 云操作系統(tǒng)私有化部署教程

    Sealos 云操作系統(tǒng)私有化部署教程

    Sealos 私有云已經(jīng)正式發(fā)布了,它為企業(yè)用云提供了一種革命性的新方案。Sealos 的核心優(yōu)勢(shì)在于,它允許企業(yè) 在自己的機(jī)房中一鍵構(gòu)建一個(gè)功能與 Sealos 公有云完全相同的私有云 。這意味著企業(yè)可以在自己的控制和安全范圍內(nèi),享受到公有云所提供的靈活性和擴(kuò)展性。這對(duì)于

    2024年02月05日
    瀏覽(104)
  • 可私有化部署的車牌識(shí)別API接口

    車牌OCR識(shí)別 的出現(xiàn)為企業(yè)提供了一種高效、準(zhǔn)確的車牌識(shí)別和信息提取解決方案。通過(guò)圖像預(yù)處理、區(qū)域定位、字符分割和字符識(shí)別等步驟,將獲取的車牌圖片或視頻中的車牌信息瞬時(shí)輸出,可提供車牌識(shí)別API接口做二次開(kāi)發(fā),該 API 能夠自動(dòng)識(shí)別車牌中的段信息,并

    2024年02月11日
    瀏覽(90)
  • 安裝Joplin Server私有化部署(docker)

    安裝Joplin Server私有化部署(docker)

    前言: 老規(guī)矩官方文檔鏈接 1. 首先擁有一個(gè)自己的云服務(wù)器(如果沒(méi)有外網(wǎng)訪問(wèn)需求的話就隨意吧) 安裝docker安裝方式 這里Joplin是使用PostgreSQL數(shù)據(jù)庫(kù)的形式, 如果沒(méi)有PostgreSQL庫(kù)的話, Joplin默認(rèn)使用的是SQLLite數(shù)據(jù)庫(kù) 我這里使用的是docker-compose部署用的是官網(wǎng)的demo.yml所以就直接也

    2024年02月21日
    瀏覽(92)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包