国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門)

這篇具有很好參考價值的文章主要介紹了中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

? ? ? ? 本文目的是讓大家先熟悉模型的部署,簡單入門;所以只需要很小的算力,單臺服務器 單GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04。

1 服務器&操作系統(tǒng)?

? ? ? ? 1.1服務器的準備

? ? ? ? 準備一臺服務器 單張英偉達GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04 (具體安裝過程忽略)。 重裝系統(tǒng)前注意備份現(xiàn)有存儲上的相關重要數(shù)據(jù)。?GPU顯卡驅(qū)動先不安裝; 后續(xù)介紹驅(qū)動和CUDA的安裝步驟。

????????如果手上沒有相應的服務器硬件設備、可以購買帶GPU的云服務器, 以下可供選擇參考。

?上云精選_云服務器秒殺_開發(fā)者上云推薦-騰訊云騰訊云推出云產(chǎn)品限時特惠搶購活動:2C2G云服務器9元/月起;還有短信、CDN、COS等熱門云產(chǎn)品限時特惠...https://cloud.tencent.com/act/pro/seckill_season?from=20210

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

地域選擇國內(nèi)適合的城市;? ?預裝鏡像為 Ubuntu 18.04中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

????????購買后一般云廠商會自動安裝顯卡的驅(qū)動和CUDA , 因為目前大部分的項目對 cuda 11.7 和 11.8 版本兼容的比較好,后續(xù)我們要指定安裝特定的版本; 所以如果云主機已經(jīng)預裝了GPU驅(qū)動,我們需要卸載。 如果不了解卸載的指令,可以在控制臺 點擊“重裝系統(tǒng)”;?

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC????????然后 注意 不要勾選后臺自動安裝 GPU 驅(qū)動; 這樣重置后就是一臺干凈的 Ubuntu18.04的系統(tǒng),且沒有安裝GPU的驅(qū)動。

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

1.2系統(tǒng)工具和環(huán)境?

???安裝一些基礎的相關軟件工具

sudo apt update
sudo apt install -y vim git wget curl net-tools language-pack-zh-hans language-pack-en

中文環(huán)境

echo '
LANG="en_US.utf8"; export LANG
LANGUAGE="en_US.utf8"; export LANGUAGE
LC_ALL="en_US.utf8"; export LC_ALL
LC_CTYPE="en_US.utf8"; export LC_CTYPE
SUPPORTED=en_US.UTF8:en_US:en; export SUPPORTED

TZ="Asia/Shanghai"; export TZ
' >> ~/.profile
source ~/.profile
locale
#確認當前是UTF8

2 安裝? 顯卡驅(qū)動? 和? CUDA

2.1 確認操作系統(tǒng)當前沒有安裝驅(qū)動?

????????確認當前系統(tǒng)沒有安裝GPU顯卡驅(qū)動, 且沒有加載nvidia相關模塊

lsmod | grep nvidia
sudo lsof /dev/nvidia*

#以上命令 應該沒有輸出 nvidia 等字樣的信息 

?????????????????

?2.2?如何安裝指定版本的顯卡驅(qū)動(可選)

? ? ? ? 后續(xù) 2.3 中 cuda 安裝包中含有配合的顯卡驅(qū)動,可以一步安裝; 如果需要指定安裝和 cuda 包中不同版本的驅(qū)動,可參考本節(jié), 否則建議直接跳至 2.3 節(jié)。?

根據(jù)顯卡型號下載適合的驅(qū)動

Official Drivers | NVIDIADownload latest drivers for NVIDIA products including GeForce, TITAN, NVIDIA RTX, Data Center, GRID and more.https://www.nvidia.com/download/index.aspxUnix Drivers | NVIDIA
Linux AMD64 Display Driver Archive | NVIDIA

?中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

?下載并安裝顯卡驅(qū)動 (需要 root 權限)

wget https://us.download.nvidia.com/XFree86/Linux-x86_64/535.98/NVIDIA-Linux-x86_64-535.98.run
sudo sh ./NVIDIA-Linux-x86_64-535.98.run
tail /var/log/nvidia-installer.log

2.3?安裝 cuda (可一并安裝顯卡驅(qū)動)?

CUDA Toolkit Archive | NVIDIA DeveloperPrevious releases of the CUDA Toolkit, GPU Computing SDK, documentation and developer drivers can be found using the links below. Please select the release you want from the list below, and be sure to check www.nvidia.com/drivers for more recent production drivers appropriate for your hardware configuration.https://developer.nvidia.com/cuda-toolkit-archive下載 cuda 11.8?版本安裝包 (內(nèi)含 顯卡驅(qū)動)

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run

CUDA Toolkit 11.8 Downloads | NVIDIA DeveloperResources CUDA Documentation/Release NotesMacOS Tools Training Sample Code Forums Archive of Previous CUDA Releases FAQ Open Source PackagesSubmit a BugTarball and Zip Archive Deliverableshttps://developer.nvidia.com/cuda-11-8-0-download-archive

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

安裝 cuda 需要 root 權限;?

如跳過上節(jié)沒有安裝顯卡驅(qū)動則:要勾選安裝驅(qū)動項;?否則 , 要去掉安裝驅(qū)動的勾選項

sudo sh cuda_11.8.0_520.61.05_linux.run 

最后運行?nvidia-smi 確認 驅(qū)動 和 cuda 安裝成功

tail /var/log/cuda-installer.log
nvidia-smi

注意 : 使用 nvidia-smi? 查看??CUDA 版本必須是 11.8

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

3 準備? Python 環(huán)境? (安裝conda & 配置國內(nèi)鏡像源)

????????3.1安裝 conda

wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-py39_4.12.0-Linux-x86_64.sh
sh Miniconda3-py39_4.12.0-Linux-x86_64.sh
#都回答  yes
source ~/.bashrc

????????3.2?為 pip 配置國內(nèi)鏡像源

pip config set global.index-url https://mirrors.tuna.tsinghua.edu.cn/simple
pip config set install.trusted-host mirrors.tuna.tsinghua.edu.cn

????????3.3?為 conda 配置國內(nèi)鏡像源

????????編輯當前用戶下的 .condarc 文件? ?

conda config --set show_channel_urls yes
vim ~/.condarc

????????替換成如下內(nèi)容:

channels:
  - defaults
show_channel_urls: true
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch-lts: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

?????????清除索引緩存

conda clean --all --yes
conda clean -i

????????3.4 以下國內(nèi)常用的 pip 鏡像源 僅供參考

清華:https://mirrors.tuna.tsinghua.edu.cn/simple

阿里云:http://mirrors.aliyun.com/pypi/simple/

中國科技大學: https://pypi.mirrors.ustc.edu.cn/simple/

豆瓣:http://pypi.douban.com/simple/

????????3.5 常用conda命令 僅供參考

創(chuàng)建虛擬環(huán)境:conda create -n 環(huán)境名稱?python=版本號
查看已有虛擬環(huán)境:conda env list
激活虛擬環(huán)境:conda activate?環(huán)境名稱
刪除虛擬環(huán)境:conda remove -n 環(huán)境名稱 --all
查看當前環(huán)境下已安裝的包:conda list
導出當前環(huán)境下的包:conda env export > environment.yml
根據(jù)導出的包安裝環(huán)境:conda env create -f environment.yml
安裝包:conda install 包名
安裝下載到本地的包:conda install --use-local??包路徑
卸載當前環(huán)境下包:conda uninstall 包名
卸載指定虛擬環(huán)境中的包:conda remove --name 環(huán)境名稱 包名


?

4 創(chuàng)建環(huán)境 安裝相關包

????????4.1 Conda創(chuàng)建一個新的環(huán)境

 conda create -n llm python=3.10.9
 conda activate llm

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

? ? ? ? ?4.2安裝 Web 交互 UI 工程?text-generation-webui

GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml), Llama models.A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml), Llama models. - GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml), Llama models.https://github.com/oobabooga/text-generation-webui

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

wget https://github.com/oobabooga/text-generation-webui/releases/download/installers/oobabooga_linux.zip
unzip oobabooga_linux.zip
cd oobabooga_linux/
conda activate llm
bash ./start_linux.sh

?bash ./start_linux.sh 首次運行會下載大量數(shù)據(jù), 時間較長。

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

成功后會 默認監(jiān)聽 7860 端口 開啟web服務,如下所示:

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

? ? ? ????????

?5 語言?交互 UI?

? ? ? ? 5.1進入 web 交互頁面

conda activate llm

HF_TOKEN="hf_XXXXXXXXXXXXXXXXXXXXXX" # HuggingFace? 的?Access Tokens
export HF_TOKEN

./start_linux.sh

./start_linux.sh 開啟web服務,成功后會顯示:

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

使用 SSH Tunnel 建立隧道 將 服務器的 7860 端口 映射到本地, 然后使用瀏覽器打開 。

?????????5.2 使用交互頁面自動下載模型

? ? ? ??首先需要在 Model 模型頁簽中下載一個Llama2模型 。

????????輸入模型名稱路徑:“FlagAlpha/Llama2-Chinese-7b-Chat”

? ? ? ? 然后點擊下載按鈕

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

注意:如果下載某些模型 出現(xiàn) Http 401 錯誤,則需要設置? HuggingFace? 的?Access Tokens

需要登錄?Hugging Face – The AI community building the future.

在設置頁面的??Access Tokens 中創(chuàng)建? Tokens?并復制。然后在 ./start_linux.sh 啟動前 設置“HF_TOKEN” 環(huán)境變量 。

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

????????另外,可以在 HuggingFace 上尋找其它開放的大預言模型, 如果使用 13B 或者 更大的模型推理,依據(jù)參數(shù)規(guī)??赡苄枰叩腉PU顯存,甚至多張GPU來加載運行。?Hugging Face – The AI community building the future.We’re on a journey to advance and democratize artificial intelligence through open source and open science.https://huggingface.co/??

? ????????5.3手動下載 Llama2 模型 (可選)

模型文件建議去官網(wǎng)下載,? 國內(nèi)Llama2 下載地址 僅供參考

  • Llama2-7B官網(wǎng)版本:迅雷云盤

  • Llama2-7B-Chat官網(wǎng)版本:迅雷云盤

  • Llama2-13B官網(wǎng)版本:迅雷云盤

  • Llama2-13B-Chat官網(wǎng)版本:迅雷云盤

  • Llama2-7B Hugging Face版本:迅雷云盤

  • Llama2-7B-Chat Hugging Face版本:迅雷云盤

  • Llama2-13B Hugging Face版本:迅雷云盤

  • Llama2-13B-Chat Hugging Face版本:迅雷云盤

  • Llama2-70B-Chat Hugging Face版本:迅雷云盤

另外 Llama2 中文模型 供參考選擇? , 通過訪問Llama2中文社區(qū)鏈接 僅供參考:

GitHub - FlagAlpha/Llama2-Chinese: Llama中文社區(qū),最好的中文Llama大模型,完全開源可商用Llama中文社區(qū),最好的中文Llama大模型,完全開源可商用. Contribute to FlagAlpha/Llama2-Chinese development by creating an account on GitHub.https://github.com/FlagAlpha/Llama2-Chinese??將下載好的模型文件目錄放到?/data/ai/oobabooga_linux/text-generation-webui/models中

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

????????5.4加載模型

????????在 Model 模型頁簽中 加載模型 。?

? ? ? ? 如下圖: 刷新現(xiàn)有模型、 下拉菜單選中模型,點擊 Load 加載 模型 , 成功加載后會顯示:? “Successfully loaded?FlagAlpha_Llama2-Chinese-7b-Chat.”

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC

????????5.3使用 Chat 頁簽 Web 交互 UI

中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門),llama,AIGC文章來源地址http://www.zghlxwxcb.cn/news/detail-712890.html

到了這里,關于中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 本地化部署大語言模型 ChatGLM

    本地化部署大語言模型 ChatGLM

    ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構,具有 62 億參數(shù)。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了優(yōu)

    2023年04月20日
    瀏覽(32)
  • 超越邊界:Mistral 7B挑戰(zhàn)AI新標準,全面超越Llama 2 13B

    超越邊界:Mistral 7B挑戰(zhàn)AI新標準,全面超越Llama 2 13B

    引言 在人工智能領域,模型的性能一直是衡量其價值和應用潛力的關鍵指標。近日,一個新的里程碑被設立:Mistral AI發(fā)布了其最新模型Mistral 7B,它在眾多基準測試中全面超越了Llama 2 13B模型,標志著AI技術的一個重大進步。 Mistral 7B vs Llama 2 13B Mistral 7B的發(fā)布,不僅是一次技

    2024年02月04日
    瀏覽(16)
  • GPT大語言模型Alpaca-lora本地化部署實踐【大語言模型實踐一】

    Alpaca模型是斯坦福大學研發(fā)的LLM(Large Language Model,大語言)開源模型,是一個在52K指令上從LLaMA 7B(Meta公司開源的7B)模型微調(diào)而來,具有 70億 的模型參數(shù)(模型參數(shù)越大,模型的推理能力越強,當然隨之訓練模型的成本也就越高)。 LoRA,英文全稱Low-Rank Adaptation of Large

    2024年02月05日
    瀏覽(25)
  • 本地化部署AI語言模型RWKV指南,ChatGPT頓時感覺不香了。

    本地化部署AI語言模型RWKV指南,ChatGPT頓時感覺不香了。

    之前由于ChatGpt處處受限,又沒法注冊的同學們有福了,我們可以在自己電腦上本地化部署一套AI語言模型,且對于電腦配置要求也不是非常高,對它就是 RWKV 。 RWKV是一個開源且允許商用的大語言模型,靈活性很高且極具發(fā)展?jié)摿?,它是一種純 RNN 的架構,能夠進行語言建模,

    2024年02月08日
    瀏覽(27)
  • GPT大語言模型Alpaca-lora本地化部署實踐【大語言模型實踐一】 | 京東云技術團隊

    GPT大語言模型Alpaca-lora本地化部署實踐【大語言模型實踐一】 | 京東云技術團隊

    Alpaca模型是斯坦福大學研發(fā)的LLM(Large Language Model,大語言)開源模型,是一個在52K指令上從LLaMA 7B(Meta公司開源的7B)模型微調(diào)而來,具有 70億 的模型參數(shù)(模型參數(shù)越大,模型的推理能力越強,當然隨之訓練模型的成本也就越高)。 LoRA,英文全稱Low-Rank Adaptation of Large

    2024年02月05日
    瀏覽(24)
  • google最新大語言模型gemma本地化部署_gemma對服務器要求

    google最新大語言模型gemma本地化部署_gemma對服務器要求

    與同類大語言模型對比,它不僅對硬件的依賴更小,性能卻更高。關鍵是完全開源,使得對模型在具有行業(yè)特性的場景中,有了高度定制的能力。 Gemma模型當下有四個版本,Gemma 7b, 2b, 2b-it, 7b-it 。通俗來說,2b及精簡小巧,覆蓋了現(xiàn)代流行的語言,對硬件依賴小。7b是常規(guī)型的

    2024年04月25日
    瀏覽(26)
  • LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型

    LangChain 本地化方案 - 使用 ChatYuan-large-v2 作為 LLM 大語言模型

    ChatYuan-large-v2 是一個開源的支持中英雙語的功能型對話語言大模型,與其他 LLM 不同的是模型十分輕量化,并且在輕量化的同時效果相對還不錯,僅僅通過 0.7B 參數(shù)量就可以實現(xiàn) 10B 模型的基礎效果,正是其如此的輕量級,使其可以在普通顯卡、 CPU 、甚至手機上進行推理,而

    2024年02月16日
    瀏覽(33)
  • AIGC生成式代碼——Code Llama 簡介、部署、測試、應用、本地化

    AIGC生成式代碼——Code Llama 簡介、部署、測試、應用、本地化

    ????????本文介紹了CodeLlama的 簡介、本地化部署、測試和應用實戰(zhàn)方案 ,幫助學習大語言模型的同學們更好地應用CodeLlama。我們詳細講解了如何將CodeLlama部署到實際應用場景中,并通過實例演示了如何使用CodeLlama進行代碼生成和優(yōu)化。最后,總結了CodeLlama的應用實戰(zhàn)經(jīng)驗

    2024年02月05日
    瀏覽(38)
  • 基于LM Studio + LLaMA3 建立本地化的ChatGPT

    基于LM Studio + LLaMA3 建立本地化的ChatGPT

    4月19日,F(xiàn)acebook母公司Meta重磅推出了Llama3。即便大家現(xiàn)在對于大廠和巨頭頻繁迭代AI模型的行為已經(jīng)見怪不怪,Meta的Llama3仍舊顯得與眾不同,因為這是迄今最強大的開源AI模型。LLaMA模型通常采用了類似于GPT(由OpenAI開發(fā))的變換器(Transformer)架構。這種架構特別適合處理大

    2024年04月27日
    瀏覽(22)
  • 基于Llama2和LangChain構建本地化定制化知識庫AI聊天機器人

    基于Llama2和LangChain構建本地化定制化知識庫AI聊天機器人

    參考: 本項目?https://github.com/PromtEngineer/localGPT 模型?https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML 云端知識庫項目:基于GPT-4和LangChain構建云端定制化PDF知識庫AI聊天機器人_Entropy-Go的博客-CSDN博客? ????????相比OpenAI的LLM ChatGPT模型必須網(wǎng)絡連接并通過API key云端調(diào)用模型,擔心

    2024年02月08日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包