国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI繪畫指南 stable diffusion webui (SD webui)如何設(shè)置與使用

這篇具有很好參考價值的文章主要介紹了AI繪畫指南 stable diffusion webui (SD webui)如何設(shè)置與使用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

根據(jù)自己最近的理解與實踐,只能說是給后來的AI繪畫作畫者一點快速上手入門的參考吧。
主要是涉及 SD webui 界面介紹 參數(shù)含義及調(diào)整,txt2img 怎么設(shè)置特征點,img2img 怎么完善原始圖像等內(nèi)容。

sd webui接口地址,AI作畫,stable diffusion,人工智能

stable diffusion webui (SD webui)界面介紹

  • SD webui 的默認(rèn)地址為?127.0.0.1:7860
  • 目前有中文界面了,下文將以中文版為主,結(jié)合英文原文介紹。
  • 項目日常更新頻繁,請定期git pull更新:一個小白點的方法:在電腦資源管理器內(nèi),打開在stable-diffusion-webui文件夾,在地址欄輸入cmd,然后敲回車,在該目錄下調(diào)出命令提示行,然后在命令提示行窗口里輸入git pull,然后敲回車即可。

各選項卡的一句話介紹

  1. txt2img 文生圖:顧名思義就是用文字生成圖片
  2. img2img 圖生圖:顧名思義就是用圖片生成圖片
  3. Extras 更多:這里其實是“無損”放大圖片用的
  4. PNG info 圖片信息:從圖片exif里獲取圖片的信息,如果是SD原始生成的png圖片,圖片的exif信息里會寫入圖片生成參數(shù)的,所以你在網(wǎng)上看到大佬生成的美圖,可以用這個功能幫你查看
  5. Checkpoint Merger 模型(ckpt)合并:合并不同的模型,生成新的模型
  6. Train 訓(xùn)練:自己煉 embedding 或者 hypernetwork
  7. Settings 設(shè)置:顧名思義就是設(shè)置頁面
  8. Extensions 擴展:顧名思義這里是擴展的管理頁面。

下邊開始較為詳細(xì)的介紹一下各個界面

【文生圖界面】

這估計是新人最常用的界面了,顧名思義就是用文字生成圖片的地方

提示詞 Prompt

用文字描述你想要生成的東西

支持的語言

支持的輸入語言為英語(不用擔(dān)心英語不好的問題,目前網(wǎng)上有很多tag生成器供你使用),SD支持用自然語言描述,不過還是推薦使用用逗號分隔的一個個的關(guān)鍵詞來寫,當(dāng)然表情符號,emoji,甚至一些日語都是可以用的。

tag語法
  1. 分隔:不同的關(guān)鍵詞tag之間,需要使用英文逗號,分隔,逗號前后有空格或者換行是不礙事的
    ex:1girl,loli,long hair,low twintails(1個女孩,loli,長發(fā),低雙馬尾)
  2. 混合:WebUi 使用?|?分隔多個關(guān)鍵詞,實現(xiàn)混合多個要素,注意混合是同等比例混合,同時混。
    ex:?1girl,red|blue hair, long hair(1個女孩,紅色與藍(lán)色頭發(fā)混合,長發(fā))

  3. 增強/減弱:有兩種寫法

  • 第一種 (提示詞:權(quán)重數(shù)值):數(shù)值從0.1~100,默認(rèn)狀態(tài)是1,低于1就是減弱,大于1就是加強
    ex:?,(loli:1.21),(one girl:1.21),(cat ears:1.1),(flower hairpin:0.9)

  • 第二種 (((提示詞))),每套一層()括號增強1.1倍,每套一層[]減弱1.1倍。也就是套兩層是1.1*1.1=1.21倍,套三層是1.331倍,套4層是1.4641倍。

ex:?((loli)),((one girl)),(cat ears),[flower hairpin]和第一種寫法等價

  • 所以還是建議使用第一種方式,因為清晰而準(zhǔn)確

? ? ?4.??漸變:比較簡單的理解時,先按某種關(guān)鍵詞生成,然后再此基礎(chǔ)上向某個方向變化。

  • [關(guān)鍵詞1:關(guān)鍵詞2:數(shù)字],數(shù)字大于1理解為第X步前為關(guān)鍵詞1,第X步后變成關(guān)鍵詞2,數(shù)字小于1理解為總步數(shù)的百分之X前為關(guān)鍵詞1,之后變成關(guān)鍵詞2
  • ex:a girl with very long [white:yellow:16] hair?等價為

開始?a girl with very long white hair

16步之后a girl with very long yellow hair

  • ex:a girl with very long [white:yellow:0.5] hair?等價為

開始?a girl with very long white hair

50%步之后a girl with very long yellow hair

  1. 交替:輪流使用關(guān)鍵詞

ex:[cow|horse] in a field比如這就是個牛馬的混合物,如果你寫的更長比如[cow|horse|cat|dog] in a field就是先朝著像牛努力,再朝著像馬努力,再向著貓努力,再向著狗努力,再向著馬努力

tag書寫示例

建議按類似這樣的格式書寫提示詞

畫質(zhì)詞>>
這個一般比較固定,無非是,杰作,最高畫質(zhì),分辨率超級大之類的

風(fēng)格詞藝術(shù)風(fēng)格詞>>
比如是照片還是插畫還是動畫

圖片的主題>>
比如這個畫的主體是一個女孩,還是一只貓,是兒童還是蘿莉還是少女,是貓娘還是犬娘還是福瑞,是白領(lǐng)還是學(xué)生

他們的外表>>
注意整體和細(xì)節(jié)都是從上到下描述,比如
發(fā)型(呆毛,耳后有頭發(fā),蓋住眼睛的劉海,低雙馬尾,大波浪卷發(fā)),
發(fā)色(頂發(fā)金色,末端挑染彩色),
衣服(長裙,蕾絲邊,低胸,半透明,內(nèi)穿藍(lán)色胸罩,藍(lán)色內(nèi)褲,半長袖,過膝襪,室內(nèi)鞋),
頭部(貓耳,紅色眼睛),
頸部(項鏈),
手臂(露肩),
胸部(貧乳),
腹部(可看到肚臍),
屁股(駱駝恥),
腿部(長腿),
腳步(裸足)

他們的情緒>>
表述表情

他們的姿勢>>
基礎(chǔ)動作(站,坐,跑,走,蹲,趴,跪),
頭動作(歪頭,仰頭,低頭),
手動作(手在攏頭發(fā),放在胸前 ,舉手),
腰動作(彎腰,跨坐,鴨子坐,鞠躬),
腿動作(交叉站,二郎腿,M形開腿,盤腿,跪坐),
復(fù)合動作(戰(zhàn)斗姿態(tài),JOJO立,背對背站,脫衣服)

圖片的背景>>
室內(nèi),室外,樹林,沙灘,星空下,太陽下,天氣如何

雜項>>
比如NSFW,眼睛描繪詳細(xì)

Bash

Copy

將不同的分類的詞,通過換行區(qū)分開,方便自己隨時調(diào)整

(masterpiece:1.331), best quality,
illustration,
(1girl),
(deep pink hair:1.331), (wavy hair:1.21),(disheveled hair:1.331), messy hair, long bangs, hairs between eyes,(white hair:1.331), multicolored hair,(white bloomers:1.46),(open clothes),
beautiful detailed eyes,purple|red eyes),
expressionless,
sitting,
dark background, moonlight, ,flower_petals,city,full_moon, 

Bash

Copy

于是我們得到這樣一張圖

sd webui接口地址,AI作畫,stable diffusion,人工智能

tag書寫要點
  1. 雖然大家都管這個叫釋放魔法,但真不是越長的魔咒(提示詞)生成的圖片越厲害,請盡量將關(guān)鍵詞控制在75個(100個)以內(nèi)。
  2. 越關(guān)鍵的詞,越往前放。
  3. 相似的同類,放在一起。
  4. 只寫必要的關(guān)鍵詞。
反向提示詞 Negative prompt

用文字描述你不想在圖像中出現(xiàn)的東西
AI大致做法就是
1. 對圖片進(jìn)行去噪處理,使其看起來更像你的提示詞。
2. 對圖片進(jìn)行去噪處理,使其看起來更像你的反向提示詞(無條件條件)。
3. 觀察這兩者之間的差異,并利用它來產(chǎn)生一組對噪聲圖片的改變
4. 嘗試將最終結(jié)果移向前者而遠(yuǎn)離后者
5. 一個相對比較通用的負(fù)面提示詞設(shè)置

lowres,bad anatomy,bad hands,text,error,missing fingers,
extra digit,fewer digits,cropped,worst quality,
low quality,normal quality,jpeg artifacts,signature,
watermark,username,blurry,missing arms,long neck,
Humpbacked,missing limb,too many fingers,
mutated,poorly drawn,out of frame,bad hands,
unclear eyes,poorly drawn,cloned face,bad face

Bash

Copy

采樣迭代步數(shù) Sampling Steps

AI繪畫的原理用人話說就是,先隨機出一個噪聲圖片
然后一步步的調(diào)整圖片,向你的?提示詞 Prompt?靠攏
Sampling Steps就是告訴AI,這樣的步驟應(yīng)該進(jìn)行多少次。
步驟越多,每一步移動也就越小越精確。同時也成比例增加生成圖像所需要的時間。
大部分采樣器超過50步后意義就不大了
下圖是同一個圖從1step到20step,不同step時圖像的變化。

sd webui接口地址,AI作畫,stable diffusion,人工智能

采樣方法 Sampling method

使用哪種采樣器,人話就是讓AI用什么算法。
這里只介紹常用的,不太常用的就自己去琢磨吧

  1. Euler a :富有創(chuàng)造力,不同步數(shù)可以生產(chǎn)出不同的圖片。 超過30~40步基本就沒什么增益了。
  2. Euler:最最常見基礎(chǔ)的算法,最簡單的,也是最快的。

  3. DDIM:收斂快,一般20步就差不多了。

  4. LMS:eular的延伸算法,相對更穩(wěn)定一點,30步就比較穩(wěn)定了

  5. PLMS:再改進(jìn)一點LMS

  6. DPM2:DDIM的一種改進(jìn)版,它的速度大約是 DDIM 的兩倍

生成批次Batch count/n_iter

同樣的配置,循環(huán)跑幾次

每批數(shù)量 Batch size

同時生成多少個圖像。增加這個值可以并行運行,但你也需要更多的顯卡顯存,具體可以自己看著任務(wù)管理器里的顯存占用顯示,自己調(diào)。
基本512X512的圖,SD1.4模型,Euler a,4G顯存可以并行2張,8G顯存可以并行8張。

每點一次生成按鈕,生成的圖像總數(shù)=生成批次 X 每批數(shù)量

提示詞相關(guān)性 CFG Scale

圖像與你的提示的匹配程度。
增加這個值將導(dǎo)致圖像更接近你的提示,但過高會讓圖像色彩過于飽和(你可以自己試試看)
太高后在一定程度上降低了圖像質(zhì)量。可以適當(dāng)增加采樣步驟來抵消畫質(zhì)的劣化。
一般在5~15之間為好,7,9,12是3個常見的設(shè)置值。

寬度 X 高度 Width X Height

單位是像素,適當(dāng)增加尺寸,AI會試圖填充更多的細(xì)節(jié)進(jìn)來。
非常小的尺寸(低于256X256),會讓AI沒地方發(fā)揮,會導(dǎo)致圖像質(zhì)量下降。
非常高的尺寸(大于1024X1024),會讓AI亂發(fā)揮,會導(dǎo)致圖像質(zhì)量下降。
增加尺寸需要更大的顯存。4GB顯存最大應(yīng)該是1280X1280(極限)

因為常見的模型基本都是在512×512和768X768的基礎(chǔ)上訓(xùn)練
分辨率過高,圖片質(zhì)量會隨著分辨率的提高而變差
一般1024X1024以上尺寸AI就會搞出搞各種鬼畜圖。
如果模型明確某些分辨率最優(yōu),請遵照模型的要求
比如3DKX系列模型就是明確推薦圖片分辨率為1152 x 768。

如果你確實想生成高分辨率圖像,請使用“Hires. fix”功能。

隨機種子 Seed

前邊說過,AI繪畫的原理是,先隨機出一個噪聲圖片
因為計算機世界里不存在真隨機
保持種子不變,同一模型和后端,保持所有參數(shù)一致的情況下,
相同的種子可以多次生成(幾乎)相同的圖像。
如果你用某個種子在某tag下生成了很棒的圖,
保持種子數(shù)不變,而稍微改一點點tag,增減一點細(xì)節(jié),一般得到的圖也會不錯。

  • 不同型號的顯卡即使參數(shù)與模型完全一致,也可能會生成完全不同的圖。
    10XX和16XX系顯卡基本每種型號都會是不同的結(jié)果,20XX系和30XX系基本都可以完美復(fù)現(xiàn)圖片。
  • 這里不是10XX系顯卡不適合AI作畫的意思,只是你可能看網(wǎng)友的參數(shù)圖很棒,你想照搬一下結(jié)果卻大不一樣。
  • 某些模型比如anything3.0因為模型過于混沌,圖像復(fù)現(xiàn)性能一樣很差。
  • 設(shè)置中有個選項參數(shù)叫ENSD( eta 噪聲種子增量)這個會改變種子,有些擴展也可以實現(xiàn)同seed下隨機微調(diào)種子,可能會造成無法復(fù)現(xiàn)其他人的圖。
面部修復(fù)

使用模型,對生成圖片的人物面部(主要是三次元真人)進(jìn)行修復(fù),讓人臉更像真人的人臉,具體設(shè)定在【設(shè)置】- 【面部修復(fù)】
1. 基本就是2種模型 CodeFormer 和 GFPGAN ,至于那個更好,這個不好說,這個看模型的,建議都試試。
2. CodeFormer權(quán)重參數(shù);為0時效果最大;為1時效果最小,建議從0.5開始,左右嘗試,找到自己喜歡的設(shè)置。
3. 倒不是說二次元圖就不能用面部修復(fù)了,一定程度上也能提升二次元面部的作畫質(zhì)量。

可平鋪(Tiling)

一句話:生成可以往左右上下連續(xù)拼接的圖像。(見過拼貼的瓷磚不?)

超分辨率 Hires. fix

txt2img 在高分辨率下(1024X1024)會生成非常怪異的圖像。而此插件這使得AI先在較低的分辨率下部分渲染你的圖片,再通過算法提高圖片到高分辨率,然后在高分辨率下再添加細(xì)節(jié)。

  • 放大算法:如果不知道選什么,一般無腦選“ ESRGAN_4x ”
  • 重繪幅度:放大后修改細(xì)節(jié)的程度,從0到1,數(shù)值越大,AI創(chuàng)意就越多,也就越偏離原圖。
  • Upscale by :放大倍數(shù),在原有寬度和長度上放大幾倍,注意這個拉高需要更高的顯存的。

【設(shè)置】 Settings

設(shè)置界面就太復(fù)雜了,不細(xì)說,只說怎么設(shè)定翻譯和選擇模型使用參數(shù)吧

用戶界面 User interface

拉到最底下是選擇界面翻譯的,選擇后,記得到網(wǎng)頁最上邊,先保存(Apply settings),后重啟(Reload Ul)。

【擴展界面】 Extensions

已安裝擴展 Installed

顯示已經(jīng)安裝的擴展(腳本,翻譯,選項卡),勾選了就是啟用的擴展,不勾選就是不啟用
– 應(yīng)用并重啟 UI Apply and restart UI:更新后重啟界面,重載UI界面。
– 檢查更新 Check for updates:檢查已安裝擴展更新

可用 Available

顯示目前支持的擴展,點擊加載按鈕,去官方拉取最新的擴展列表(需要你能訪問github)

  • 隱藏勾選類型的擴展 Hide extensions with tags:就是勾了的類型的擴展就被隱藏,一般推薦勾選,ads(含廣告),installed(以安裝)。
  • 排序方式 Order:就是設(shè)定擴展列表的排序方式,是最新到最久,還是按字母順序等。
  • 下方是擴展的目錄,顯示擴展的名字,簡介,和Install安裝按鈕,點擊擴展的名字可以跳轉(zhuǎn)到對應(yīng)擴展的倉庫頁,看作者詳細(xì)的介紹。

從URL安裝 Install from URL

用來自行安裝擴展,輸入擴展給你的安裝URL地址,點Install按鈕即可文章來源地址http://www.zghlxwxcb.cn/news/detail-761163.html

怎么設(shè)定為中文版

  1. 先點擊切換到【擴展頁面 Extensions】,再點擊【可用 Available】,再點擊【Load from: 加載自:】
  2. 在 【隱藏勾選類型的擴展 Hide extensions with tags】中,取消勾選“l(fā)ocalization”
    找到?zh_CN Localization?或?zh_TW Localization點擊最后的Install按鈕
  3. 點擊【已安裝擴展 Installed】分頁,確保頁面下方已經(jīng)勾選了“stable-diffusion-webui-localization-**_**”,點擊【應(yīng)用并重啟 UI Apply and restart UI】,重啟頁面。
  4. 切換到【設(shè)置頁面 Settings】,左側(cè)找到【用戶界面 User interface】,往下拉到底
  5. 下拉框內(nèi)選擇你需要的語言
  6. 返回網(wǎng)頁最上方,先點擊【應(yīng)用設(shè)置 Apply settings】,再點擊【重新加載UI Reload UI】
  7. 如果沒有問題,你的界面就是中文的了。

到了這里,關(guān)于AI繪畫指南 stable diffusion webui (SD webui)如何設(shè)置與使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AI繪畫Stable DIffusion教程 | 如何利用 Stable Diffusion webui 將圖片變得更清晰?全方位對比4種放大方法!

    AI繪畫Stable DIffusion教程 | 如何利用 Stable Diffusion webui 將圖片變得更清晰?全方位對比4種放大方法!

    大家好,我是程序員曉曉 “高分放大” (有時候也叫“超分放大”或“高清修復(fù)”)描述了在確保圖像清晰度的前提下提升圖片分辨率的過程。例如,將一張512 x 512的圖片放大四倍,得到的就是2048 x 2048分辨率的圖片,這個過程不僅放大了圖片尺寸,也豐富了圖像細(xì)節(jié)以保持

    2024年04月28日
    瀏覽(25)
  • [SD]AI繪畫Stable Diffusion使用心得

    [SD]AI繪畫Stable Diffusion使用心得

    01 什么是SD? Stable Diffusion Stable Diffusion(簡稱SD)是2022年發(fā)布的深度學(xué)習(xí)文本到圖像生成模型,它是一種潛在擴散模型,它由創(chuàng)業(yè)公司Stability AI與多個學(xué)術(shù)研究者和非營利組織合作開發(fā)。目前的SD的源代碼和模型都已經(jīng)開源,在Github上由AUTOMATIC1111維護(hù)了一個完整的項目,正在由全

    2024年04月17日
    瀏覽(17)
  • 【AI繪畫】Stable Diffusion WebUI

    【AI繪畫】Stable Diffusion WebUI

    ??????歡迎來到我的博客,很高興能夠在這里和您見面!希望您在這里可以感受到一份輕松愉快的氛圍,不僅可以獲得有趣的內(nèi)容和知識,也可以暢所欲言、分享您的想法和見解。 推薦:kuan 的首頁,持續(xù)學(xué)習(xí),不斷總結(jié),共同進(jìn)步,活到老學(xué)到老 導(dǎo)航 檀越劍指大廠系列:全面總

    2024年02月08日
    瀏覽(33)
  • AI 繪畫Stable Diffusion 研究(十六)SD Hypernetwork詳解

    AI 繪畫Stable Diffusion 研究(十六)SD Hypernetwork詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: 什么是 Hypernetwork? Hypernetwork 與其他模型的區(qū)別? Hypernetwork 原理 Hypernetwork 如何下載安裝? Hypernetwork 如何使用? 在上一篇文章中,我們詳細(xì)介紹了 embedding 的定義、作用以及如何安裝使用 ,相信看過的朋友都知道,embedding 是屬于一種將

    2024年02月11日
    瀏覽(28)
  • AI 繪畫Stable Diffusion 研究(六)sd提示詞插件

    AI 繪畫Stable Diffusion 研究(六)sd提示詞插件

    大家好,我是風(fēng)雨無阻。 今天為大家推薦一款可以有效提升我們使用 Stable Diffusion WebUI 效率的插件, 它就是 prompt-all-in-one, 它不但能直接將 WebUI 中的中文提示詞轉(zhuǎn)換為英文,還能一鍵為加權(quán)重,更能建立常用提示詞庫,這對于英語不熟練的朋友非常實用。 今天的內(nèi)

    2024年02月13日
    瀏覽(20)
  • AI 繪畫Stable Diffusion 研究(十五)SD Embedding詳解

    AI 繪畫Stable Diffusion 研究(十五)SD Embedding詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: Embedding是什么? Embedding有什么作用? Embedding如何下載安裝? 如何使用Embedding? 大家還記得 AI 繪畫Stable Diffusion 研究(七) 一文讀懂 Stable Diffusion 工作原理 這篇文章中,曾提到過詞嵌入(Embedding)嗎? 我們來簡單回顧一下:Embedding 將輸

    2024年02月11日
    瀏覽(26)
  • AI 繪畫Stable Diffusion 研究(八)sd采樣方法詳解

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: 什么是采樣方法 ? 采樣方法的分類有哪些? 怎么選擇合適的采樣方法? 在 Stable Diffusion中目前已經(jīng)有很多采樣方法 ,不同的采樣方法,出圖效果不同。這里將詳細(xì)介紹這些采樣方法,以及在使用 Stable Diffusion 的過程中,怎么選擇合適的

    2024年02月12日
    瀏覽(24)
  • 簡單聊聊AI繪畫中的SD(Stable Diffusion)是什么

    簡單聊聊AI繪畫中的SD(Stable Diffusion)是什么

    聊到AI繪畫,基本上就會聊到SD這個概念,畢竟作為開源可以本地部署的AI繪畫軟件,SD可能是目前的唯一選擇,不管是webUI或者ComfyUI,還有國內(nèi)的很多套殼繪畫AI,都是sd作為基礎(chǔ)進(jìn)行二次優(yōu)化的。那么SD到底是個啥,這篇文章就結(jié)合我個人的理解簡單跟大家聊聊。 SD全稱是S

    2024年03月20日
    瀏覽(27)
  • AI 繪畫Stable Diffusion 研究(十七)SD lora 詳解(上)

    AI 繪畫Stable Diffusion 研究(十七)SD lora 詳解(上)

    大家好,我是風(fēng)雨無阻。 本期內(nèi)容: Lora的原理是什么? Lora如何下載安裝? Lora如何使用? 大家還記得 AI 繪畫Stable Diffusion 研究(三)sd模型種類介紹及安裝使用詳解 這篇文章中,曾簡單介紹了Lora的安裝和使用嗎 ? 但是我們并不清楚LORA 的原理是什么?以及使用過程中有什

    2024年02月10日
    瀏覽(23)
  • AI繪畫stable diffusion webui漢化教程

    AI繪畫stable diffusion webui漢化教程

    AI繪畫stable diffusion webui漢化教程 目錄 前言 一、stable diffusion webui下載地址 二、中文插件 1.安裝插件 ?2.設(shè)置插件 AI繪畫stable diffusion webui默認(rèn)頁面是英文的,那如何設(shè)置中文插件呢? GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI github地址:https://github.com/AUTOMATIC1111/

    2024年02月09日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包