国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答

這篇具有很好參考價(jià)值的文章主要介紹了大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

1.簡(jiǎn)介:

組織機(jī)構(gòu):Meta(Facebook)

代碼倉(cāng):GitHub - facebookresearch/llama: Inference code for LLaMA models

模型:chinese-alpaca-2-7b-hf、text2vec-large-chinese

下載:使用百度網(wǎng)盤和huggingface.co下載

硬件環(huán)境:暗影精靈7Plus

Windows版本:Windows 11家庭中文版 Insider Preview 22H2

內(nèi)存 32G

GPU顯卡:Nvidia GTX 3080 Laptop (16G)

閱讀這篇:https://zhuanlan.zhihu.com/p/644500258

LangChain是一個(gè)大模型框架,支持大模型加載、Prompt模板,以及將很多Chain串成一個(gè)任務(wù)。

官網(wǎng)地址為:https://docs.langchain.com/docs/

在windows GPU下longchain 能否正常運(yùn)行 中文LLaMA&Alpaca大模型?我們來試一下。

2.代碼和模型下載:

參考 Home · ymcui/Chinese-LLaMA-Alpaca-2 Wiki · GitHub

cd \

git clone GitHub - langchain-ai/langchain: ? Building applications with LLMs through composability ?

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

準(zhǔn)備一個(gè)合適的embedding model用于匹配過程中的文本/問題向量化

打開 https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

下載 所有文件并存入 D:\Chinese-LLaMA-Alpaca-2\scripts\langchain\text2vec-large-chinese 目錄下:

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

根據(jù)

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

直接下載完整版模型:

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

將下載好的Chinese-Alpaca-2-7B的完整版模型 保存到 D:\Chinese-LLaMA-Alpaca-2\scripts\langchain\chinese-alpaca-2-7b-hf 目錄下。

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

3.安裝依賴

conda deactivate

conda create -n langchain python=3.9

conda activate langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install sentence_transformers==2.2.2

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install pydantic==1.10.8

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install faiss-gpu==1.7.1

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

這個(gè)好像沒有g(shù)pu版本?

換成CPU版本試試。。

pip install faiss-cpu==1.7.1

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

4.部署驗(yàn)證

cd d:\Chinese-LLaMA-Alpaca-2

場(chǎng)景1:生成摘要

cd scripts/langchain

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

這里需要重裝一下GPU版的torch

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

貌似字符集有什么問題。

參考

Python讀取文件時(shí)出現(xiàn)UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0x80 in position ...?blog.csdn.net/qq_31267769/article/details/109128882

將 langchain_sum.py

with open(file_path) as f:

改為

with open(file_path,'r',encoding='utf-8-sig') as f:

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

缺protobuf庫(kù)?

pip install protobuf

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install accelerate

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

結(jié)果如下:

 (langchain) PS D:\Chinese-LLaMA-Alpaca-2\scripts\langchain> python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine
L:\Anaconda\envs\langchain\lib\site-packages\langchain\__init__.py:40: UserWarning: Importing HuggingFacePipeline from langchain root module is no longer supported.
  warnings.warn(
loading LLM...
Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [00:09<00:00,  4.50s/it]
L:\Anaconda\envs\langchain\lib\site-packages\transformers\generation\configuration_utils.py:362: UserWarning: `do_sample` is set to `False`. However, `temperature` is set to `0.9` -- this flag is only used in sample-based generation modes. You should set `do_sample=True` or unset `temperature`. This was detected when initializing the generation config instance, which means the corresponding file may hold incorrect parameterization and should be fixed.
  warnings.warn(
L:\Anaconda\envs\langchain\lib\site-packages\transformers\generation\configuration_utils.py:367: UserWarning: `do_sample` is set to `False`. However, `top_p` is set to `0.6` -- this flag is only used in sample-based generation modes. You should set `do_sample=True` or unset `top_p`. This was detected when initializing the generation config instance, which means the corresponding file may hold incorrect parameterization and should be fixed.
  warnings.warn(
L:\Anaconda\envs\langchain\lib\site-packages\transformers\generation\utils.py:1421: UserWarning: You have modified the pretrained model configuration to control generation. This is a deprecated strategy to control generation and will be removed soon, in a future version. Please use and modify the model generation configuration (see https://huggingface.co/docs/transformers/generation_strategies#default-text-generation-configuration )
  warnings.warn(
 李白,唐朝著名詩(shī)人,字太白,號(hào)青蓮居士,曾在唐玄宗時(shí)期受到賞識(shí),但由于性格桀驁不馴被迫離開長(zhǎng)安。他在洛陽結(jié)識(shí)了杜甫和高適,成為了好友。晚年時(shí),他游歷各地并參加 了抗擊安史之亂的大軍。然而,由于疾病的原因,他未能完成使命。最后,他在當(dāng)涂逝世,享年61歲。盡管他的大部分作品已經(jīng)失傳,但他留下了一些著名的詩(shī)歌,如《將進(jìn)酒》等。
(langchain) PS D:\Chinese-LLaMA-Alpaca-2\scripts\langchain>

李白,唐朝著名詩(shī)人,字太白,號(hào)青蓮居士,曾在唐玄宗時(shí)期受到賞識(shí),但由于性格桀驁不馴被迫離開長(zhǎng)安。他在洛陽結(jié)識(shí)了杜甫和高適,成為了好友。晚年時(shí),他游歷各地并參加 了抗擊安史之亂的大軍。然而,由于疾病的原因,他未能完成使命。最后,他在當(dāng)涂逝世,享年61歲。盡管他的大部分作品已經(jīng)失傳,但他留下了一些著名的詩(shī)歌,如《將進(jìn)酒》等。

場(chǎng)景2:檢索式問答

cd scripts/langchain

python langchain_qa.py --embedding_path text2vec-large-chinese --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

同樣需要修改open部分,不過這次得修改 conda里面的了!

打開 L:\Anaconda\envs\langchain\lib\site-packages\langchain\document_loaders\text.py

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_qa.py --embedding_path text2vec-large-chinese --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

pip install faiss-gpu

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

這個(gè) faiss-gpu好像一直裝不起來。

pip install --use-pep517 faiss-gpu

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

好像缺好多庫(kù)。應(yīng)該是requirements.txt沒裝。把requirements.txt文件里面的torch注釋掉,安裝一下:

cd D:\Chinese-LLaMA-Alpaca-2\

pip install -r requirements.txt

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

cd scripts/langchain

python langchain_qa.py --embedding_path text2vec-large-chinese --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

看來還是得搞定faiss-gpu

查看 https://wenku.csdn.net/answer/320ff1adb878d46eb9fe427c92874233

conda install faiss-gpu -c pytorch

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

也不行。

conda也找不到這個(gè)包:

conda search faiss

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

根據(jù)提示到官網(wǎng)搜索:https://anaconda.org

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

conda install faiss-gpu -c conda-forge

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

它連cuda都裝了,動(dòng)靜有點(diǎn)大。。。。

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

再來:

python langchain_qa.py --embedding_path text2vec-large-chinese --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

可以了!

回答的速度不是很快,但是也還不錯(cuò)了。

大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答,大模型,llama,windows,langchain

(langchain) PS D:\Chinese-LLaMA-Alpaca-2\scripts\langchain> python langchain_qa.py --embedding_path text2vec-large-chinese --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine
L:\Anaconda\envs\langchain\lib\site-packages\langchain\__init__.py:40: UserWarning: Importing HuggingFacePipeline from langchain root module is no longer supported.
  warnings.warn(
Loading the embedding model...
No sentence-transformers model found with name text2vec-large-chinese. Creating a new one with MEAN pooling.
loading LLM...
You are using the legacy behaviour of the <class 'transformers.models.llama.tokenization_llama.LlamaTokenizer'>. This means that tokens that come after special tokens will not be properly handled. We recommend you to read the related pull request available at https://github.com/huggingface/transformers/pull/24565
Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [00:09<00:00,  4.84s/it]
Xformers is not installed correctly. If you want to use memory_efficient_attention to accelerate training use the following command to install Xformers
pip install xformers.
請(qǐng)輸入問題:李白是誰?
L:\Anaconda\envs\langchain\lib\site-packages\transformers\generation\utils.py:1270: UserWarning: You have modified the pretrained model configuration to control generation. This is a deprecated strategy to control generation and will be removed soon, in a future version. Please use a generation configuration file (see https://huggingface.co/docs/transformers/main_classes/text_generation )
  warnings.warn(
 李白是唐代著名的浪漫主義詩(shī)人之一,以豪邁奔放的風(fēng)格著稱。
請(qǐng)輸入問題:你是誰?
 我是ChatGPT,一個(gè)由OpenAI訓(xùn)練的大型語言模型。
請(qǐng)輸入問題:什么是敏捷開發(fā)?
 敏捷開發(fā)是一種軟件開發(fā)方法論,它強(qiáng)調(diào)快速響應(yīng)變化的需求并通過迭代的方式進(jìn)行開發(fā)。敏捷開發(fā)的核心理念包括個(gè)體和交互、工作的軟件、客戶合作等。敏捷開發(fā)通常采用短周 期的迭代開發(fā)模式,每個(gè)迭代稱為一個(gè)"沖刺",每次沖刺持續(xù)一到四個(gè)星期,團(tuán)隊(duì)會(huì)完成一些可交付的產(chǎn)品功能并在沖刺結(jié)束后向客戶展示成果。敏捷開發(fā)注重團(tuán)隊(duì)協(xié)作和溝通,鼓勵(lì)頻繁的反饋和改進(jìn),以適應(yīng)不斷變化的需求和環(huán)境。
請(qǐng)輸入問題:國(guó)慶節(jié)放假幾天?
 國(guó)慶節(jié)放假七天
請(qǐng)輸入問題:馬上要上班了,不想去上班,怎么辦?
 如果您不想上班,可以考慮以下幾種方法來應(yīng)對(duì)這種情況:
1. 調(diào)整心態(tài):嘗試從積極的角度看待工作,思考自己為什么喜歡這份工作或者它對(duì)您的職業(yè)發(fā)展有何幫助。這樣可以幫助您克服抵觸情緒,重新激發(fā)工作的熱情和動(dòng)力。
2. 制定計(jì)劃:將每天的工作任務(wù)分解成小目標(biāo),逐一完成。同時(shí)設(shè)定合理的時(shí)間限制,避免拖延或浪費(fèi)時(shí)間。
3. 尋找支持:如果您感到無法獨(dú)自面對(duì)工作中的問題,可以尋求同事、家人或朋友的支持和鼓勵(lì)。他們可能能夠提供一些建議或幫助您解決問題。
4. 放松身心:在上班前花些時(shí)間進(jìn)行適當(dāng)?shù)男菹⒑头潘苫顒?dòng),例如運(yùn)動(dòng)、冥想或閱讀等。這有助于減輕壓力,提高專注度和效率。
總之,不要讓消極的情緒影響到自己的工作表現(xiàn)。通過調(diào)整心態(tài)、制定計(jì)劃、尋找支持以及放松身心等方式,您可以更好地應(yīng)對(duì)不想上班的情況,保持良好的工作狀態(tài)。
請(qǐng)輸入問題:再見!
 李白因?yàn)樵?shī)歌中的一些內(nèi)容而被宮中所不容,最終被迫離開長(zhǎng)安。
請(qǐng)輸入問題:李白最有名得詩(shī)歌

 李白最著名的作品之一是他的詩(shī)歌。他被認(rèn)為是中國(guó)古代浪漫主義詩(shī)歌的代表人物,他的詩(shī)歌在中國(guó)文學(xué)史上占有重要地位。他的許多著名作品如《將進(jìn)酒》、《廬山謠》、《夜泊 牛渚懷古》等至今仍被人們廣泛傳頌和吟唱。
請(qǐng)輸入問題:說說阿富汗戰(zhàn)爭(zhēng)是怎么回事?
 很抱歉,根據(jù)提供的信息無法回答該問題。因?yàn)樗峁┑谋尘爸R(shí)和問題描述之間沒有直接關(guān)聯(lián)或相關(guān)性。
請(qǐng)輸入問題:李白出生在什么地方?
 李白出生在碎葉,屬于唐安西都護(hù)府(今吉爾吉斯斯坦共和國(guó)楚河州托克馬克市)。
請(qǐng)輸入問題:那李白算是外國(guó)人還是中國(guó)人?
 李白是漢族人,屬于中國(guó)唐朝時(shí)期的著名詩(shī)人之一。
請(qǐng)輸入問題:他不是出生在吉爾吉斯斯坦嗎?
L:\Anaconda\envs\langchain\lib\site-packages\transformers\pipelines\base.py:1083: UserWarning: You seem to be using the pipelines sequentially on GPU. In order to maximize efficiency please use a dataset
  warnings.warn(
 是的,根據(jù)提供的信息,李白出生于唐朝的一個(gè)名叫碎葉的地方,也就是現(xiàn)在的吉爾吉斯斯坦地區(qū)。
請(qǐng)輸入問題:那他怎么算是中國(guó)人呢?
 李白是唐代著名的詩(shī)人之一,他的祖先可以追溯到漢代的李廣將軍,后來家族逐漸衰落并移居到了今天的甘肅省靜寧縣。雖然他出生地的具體位置并不確定,但據(jù)傳說他曾經(jīng)生活在 四川江油市的一個(gè)小鎮(zhèn)上,也就是現(xiàn)在的青蓮鎮(zhèn)。因此,我們可以說他是中國(guó)古代漢族人民的一部分,并且具有中國(guó)文化傳統(tǒng)的認(rèn)同感。
請(qǐng)輸入問題:Traceback (most recent call last):
  File "D:\Chinese-LLaMA-Alpaca-2\scripts\langchain\langchain_qa.py", line 115, in <module>
    query = input("請(qǐng)輸入問題:")
KeyboardInterrupt
(langchain) PS D:\Chinese-LLaMA-Alpaca-2\scripts\langchain>

回頭再看看第一個(gè)功能還能用不?

python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine

(langchain) PS D:\Chinese-LLaMA-Alpaca-2\scripts\langchain> python langchain_sum.py --model_path chinese-alpaca-2-7b-hf --file_path doc.txt --chain_type refine
L:\Anaconda\envs\langchain\lib\site-packages\langchain\__init__.py:40: UserWarning: Importing HuggingFacePipeline from langchain root module is no longer supported.
  warnings.warn(
loading LLM...
You are using the legacy behaviour of the <class 'transformers.models.llama.tokenization_llama.LlamaTokenizer'>. This means that tokens that come after special tokens will not be properly handled. We recommend you to read the related pull request available at https://github.com/huggingface/transformers/pull/24565
Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [00:09<00:00,  4.67s/it]
Xformers is not installed correctly. If you want to use memory_efficient_attention to accelerate training use the following command to install Xformers
pip install xformers.
L:\Anaconda\envs\langchain\lib\site-packages\transformers\generation\utils.py:1270: UserWarning: You have modified the pretrained model configuration to control generation. This is a deprecated strategy to control generation and will be removed soon, in a future version. Please use a generation configuration file (see https://huggingface.co/docs/transformers/main_classes/text_generation )
  warnings.warn(
 李白,唐朝著名詩(shī)人之一,生于武則天大足元年(701年),祖籍隴西成紀(jì)(今甘肅省靜寧西南),后徙居四川江油。少年時(shí)展現(xiàn)出非凡的才華,擅長(zhǎng)詩(shī)詞和劍術(shù),并善于創(chuàng)作奇書和神仙故事。他拜趙蕤為師,對(duì)文學(xué)造詣產(chǎn)生了重要影響。成年后,李白游歷中國(guó)各地,留下了許多膾炙人口的詩(shī)歌作品。但由于桀驁不馴的性格,他在唐玄宗天寶元年(742年)被逼 離開長(zhǎng)安。晚年,李白經(jīng)歷多次流亡,包括安史之亂期間被迫流落夜郎。他晚年在江南一帶漂泊,并在當(dāng)涂(今屬安徽省馬鞍山)當(dāng)縣令的族叔李陽冰處逝世。李白一生創(chuàng)作大量的詩(shī)歌,絕大部分已散軼,現(xiàn)存約900余首。

摘要的結(jié)果如下:

李白,唐朝著名詩(shī)人之一,生于武則天大足元年(701年),祖籍隴西成紀(jì)(今甘肅省靜寧西南),后徙居四川江油。少年時(shí)展現(xiàn)出非凡的才華,擅長(zhǎng)詩(shī)詞和劍術(shù),并善于創(chuàng)作奇書和神仙故事。他拜趙蕤為師,對(duì)文學(xué)造詣產(chǎn)生了重要影響。成年后,李白游歷中國(guó)各地,留下了許多膾炙人口的詩(shī)歌作品。但由于桀驁不馴的性格,他在唐玄宗天寶元年(742年)被逼 離開長(zhǎng)安。晚年,李白經(jīng)歷多次流亡,包括安史之亂期間被迫流落夜郎。他晚年在江南一帶漂泊,并在當(dāng)涂(今屬安徽省馬鞍山)當(dāng)縣令的族叔李陽冰處逝世。李白一生創(chuàng)作大量的詩(shī)歌,絕大部分已散軼,現(xiàn)存約900余首。

不錯(cuò),都成功運(yùn)行了!文章來源地址http://www.zghlxwxcb.cn/news/detail-757180.html

到了這里,關(guān)于大模型部署手記(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要問答的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【AI實(shí)戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    【AI實(shí)戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    Llama2 2023年7月19日:Meta 發(fā)布開源可商用模型 Llama2。 Llama2 是一個(gè)預(yù)訓(xùn)練和微調(diào)的生成文本模型的集合,其規(guī)模從70億到700億個(gè)參數(shù)不等。 LLaMA2 的詳細(xì)介紹可以參考這篇文章:【大模型】更強(qiáng)的 LLaMA2 來了,開源可商用、與 ChatGPT 齊平 Llama2-Chinese Llama2中文社區(qū) Llama2-Chinese Git

    2024年02月12日
    瀏覽(22)
  • 大模型Llama2部署,基于text-generation-webui、Llama2-Chinese

    參考安裝教程:傻瓜式!一鍵部署llama2+chatglm2,集成所有環(huán)境和微調(diào)功能,本地化界面操作! Github地址:GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml/gguf), Llama models. 模型下載地址:meta-llama/Llama-2-13b-chat-hf at main 遇到的問

    2024年02月08日
    瀏覽(24)
  • 基于chinese-llama-plus北大團(tuán)隊(duì)推出法律大模型,數(shù)據(jù)與模型全部開源,模型合并使用全流程

    基于chinese-llama-plus北大團(tuán)隊(duì)推出法律大模型,數(shù)據(jù)與模型全部開源,模型合并使用全流程

    上篇分享了一個(gè)法律的大模型,lawGPt,目前看回答一些基本的法律問題還是可以的,昨天又發(fā)現(xiàn),北京大學(xué)也開源了一個(gè)法律大模型,lawyer-llama,通過在大規(guī)模法律語料中進(jìn)行訓(xùn)練,系統(tǒng)學(xué)習(xí)中國(guó)的法律知識(shí)體系使得模型可以掌握中國(guó)的法律知識(shí)并應(yīng)用于中國(guó)的法律實(shí)務(wù)。

    2024年02月11日
    瀏覽(16)
  • llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測(cè)試運(yùn)行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月16日
    瀏覽(29)
  • Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    LLaMA ,它是一組基礎(chǔ)語言模型,參數(shù)范圍從7B到65B。在數(shù)萬億的tokens上訓(xùn)練的模型,并表明可以專門使用公開可用的數(shù)據(jù)集來訓(xùn)練最先進(jìn)的模型,而無需求助于專有和不可訪問的數(shù)據(jù)集。特別是, LLaMA-13B在大多數(shù)基準(zhǔn)測(cè)試中都優(yōu)于GPT-3(175B) ,并且LLaMA65B與最好的型號(hào)Chinch

    2024年02月05日
    瀏覽(18)
  • 在Linux系統(tǒng)下部署Llama2(MetaAI)大模型教程

    在Linux系統(tǒng)下部署Llama2(MetaAI)大模型教程

    Llama2 是Meta最新開源的語言大模型,訓(xùn)練數(shù)據(jù)集2萬億token,上下文長(zhǎng)度是由Llama的2048擴(kuò)展到4096,可以理解和生成更長(zhǎng)的文本,包括7B、13B和70B三個(gè)模型,在各種基準(zhǔn)集的測(cè)試上表現(xiàn)突出,最重要的是,該模型可用于研究和商業(yè)用途。 1、本文選擇部署的模型是 Llama2-chat-13B-Chi

    2024年02月03日
    瀏覽(21)
  • LLMs之LLaMA2:基于云端進(jìn)行一鍵部署對(duì)LLaMA2模型實(shí)現(xiàn)推理(基于text-generation-webui)執(zhí)行對(duì)話聊天問答任務(wù)、同時(shí)微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)

    LLMs之LLaMA-2:基于云端進(jìn)行一鍵部署對(duì)LLaMA2模型實(shí)現(xiàn)推理(基于text-generation-webui)執(zhí)行對(duì)話聊天問答任務(wù)、同時(shí)微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)據(jù)集【datasets】→加載模型【transformers】→分詞→模型訓(xùn)練【peft+SFTTrainer+wandb】→基于HuggingFace實(shí)現(xiàn)云端分享)之圖文教程詳

    2024年02月11日
    瀏覽(24)
  • 【個(gè)人筆記本】本地化部署詳細(xì)流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

    不推薦小白,環(huán)境配置比較復(fù)雜 下載原始模型:Chinese-LLaMA-Alpaca-2 linux部署llamacpp環(huán)境 使用llamacpp將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型 windows部署Text generation web UI 環(huán)境 使用Text generation web UI 加載模型并進(jìn)行對(duì)話 筆記本環(huán)境: 操作系統(tǒng):win11 CPU:AMD R7535HS GPU:筆記本4060顯卡

    2024年02月08日
    瀏覽(111)
  • Windows11下私有化部署大語言模型實(shí)戰(zhàn) langchain+llama2

    Windows11下私有化部署大語言模型實(shí)戰(zhàn) langchain+llama2

    CPU:銳龍5600X 顯卡:GTX3070 內(nèi)存:32G 注:硬件配置僅為博主的配置,不是最低要求配置,也不是推薦配置。該配置下計(jì)算速度約為40tokens/s。實(shí)測(cè)核顯筆記本(i7-1165g7)也能跑,速度3tokens/s。 Windows系統(tǒng)版本:Win11專業(yè)版23H2 Python版本:3.11 Cuda版本:12.3.2 VS版本:VS2022 17.8.3 lan

    2024年02月03日
    瀏覽(1177)
  • AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    生成的文件在 .buildbin ,我們要用的是 main.exe , binmain.exe -h 查看使用幫助 本項(xiàng)目基于Meta發(fā)布的可商用大模型Llama-2開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2基座模型和Alpaca-2指令精調(diào)大模型。這些模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用

    2024年04月25日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包