国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

這篇具有很好參考價值的文章主要介紹了機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

在本篇文章中,我們對邏輯回歸這一經(jīng)典的機(jī)器學(xué)習(xí)算法進(jìn)行了全面而深入的探討。從基礎(chǔ)概念、數(shù)學(xué)原理,到使用Python和PyTorch進(jìn)行的實戰(zhàn)應(yīng)用,本文旨在從多個角度展示邏輯回歸的內(nèi)在機(jī)制和實用性。

關(guān)注TechLead,分享AI全維度知識。作者擁有10+年互聯(lián)網(wǎng)服務(wù)架構(gòu)、AI產(chǎn)品研發(fā)經(jīng)驗、團(tuán)隊管理經(jīng)驗,同濟(jì)本復(fù)旦碩,復(fù)旦機(jī)器人智能實驗室成員,阿里云認(rèn)證的資深架構(gòu)師,項目管理專業(yè)人士,上億營收AI產(chǎn)品研發(fā)負(fù)責(zé)人。

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

一、引言

邏輯回歸(Logistic Regression)是一種廣泛應(yīng)用于分類問題的監(jiān)督學(xué)習(xí)算法。盡管名字中含有“回歸”二字,但這并不意味著它用于解決回歸問題。相反,邏輯回歸專注于解決二元或多元分類問題,如郵件是垃圾郵件還是非垃圾郵件,一個交易是欺詐還是合法等。

邏輯回歸源于統(tǒng)計學(xué),旨在模擬一個因變量和一個或多個自變量之間的關(guān)系。與線性回歸不同,邏輯回歸并不直接預(yù)測數(shù)值,而是估計樣本屬于某一類別的概率。這通常通過Sigmoid函數(shù)(或?qū)?shù)幾率函數(shù))來實現(xiàn),該函數(shù)能夠?qū)⑷魏螌崝?shù)映射到0和1之間。

為了理解這種概率模型的重要性,我們可以考慮一下現(xiàn)代應(yīng)用的復(fù)雜性。從金融風(fēng)險評估、醫(yī)療診斷,到自然語言處理和圖像識別,邏輯回歸都找到了廣泛的應(yīng)用。它之所以受歡迎,一方面是因為其模型簡單,易于理解和解釋;另一方面是因為它在處理大量特征或者處理非線性關(guān)系時也具有很高的靈活性。

邏輯回歸的算法實現(xiàn)通?;谧畲笏迫还烙嫞∕aximum Likelihood Estimation, MLE),這是一種針對模型參數(shù)進(jìn)行估計的優(yōu)化算法。通過優(yōu)化損失函數(shù),算法試圖找到最有可能解釋觀測數(shù)據(jù)的模型參數(shù)。

雖然邏輯回歸在許多方面都很優(yōu)秀,但它也有其局限性。例如,它假定因變量和自變量之間存在線性關(guān)系,這在某些復(fù)雜場景下可能不成立。然而,通過特征工程和正則化等手段,這些問題往往可以得到緩解。

總體而言,邏輯回歸是機(jī)器學(xué)習(xí)領(lǐng)域中不可或缺的工具,其背后的數(shù)學(xué)原理和實際應(yīng)用都值得深入研究。通過本文,我們將深入探討邏輯回歸的各個方面,以期提供一個全面、深入且易于理解的視角。


二、邏輯回歸基礎(chǔ)

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

邏輯回歸是一種針對分類問題的監(jiān)督學(xué)習(xí)模型。它起源于統(tǒng)計學(xué),尤其是當(dāng)我們希望預(yù)測一個二元輸出時,邏輯回歸成為一個非常實用的工具。

從線性回歸到邏輯回歸

邏輯回歸的思想是基于線性回歸的,但有幾個關(guān)鍵的不同點。在線性回歸中,我們試圖擬合一個線性方程來預(yù)測一個連續(xù)的輸出值。然而,在邏輯回歸中,我們不是直接預(yù)測輸出值,而是預(yù)測輸出值屬于某一特定類別的概率。

舉例:醫(yī)學(xué)檢測

假設(shè)我們有一個用于檢測某種疾?。ㄈ缣悄虿。┑尼t(yī)學(xué)測試。在這種情況下,線性回歸可能會預(yù)測一個人患疾病的程度或嚴(yán)重性。但邏輯回歸更進(jìn)一步:它會預(yù)測一個人患疾病的概率,并根據(jù)這個概率進(jìn)行分類——例如,概率大于0.5則判斷為陽性。

Sigmoid 函數(shù)

邏輯回歸中最關(guān)鍵的組成部分是 Sigmoid(或稱為 logistic)函數(shù)。這個函數(shù)接受任何實數(shù)作為輸入,并將其映射到0和1之間,使其可以解釋為概率。

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:考試成績與錄取概率

考慮一個學(xué)生根據(jù)其考試成績被大學(xué)錄取的例子。線性回歸可能會直接預(yù)測錄取概率,但數(shù)值可能會超過[0,1]的范圍。通過使用 Sigmoid 函數(shù),我們可以確保預(yù)測值始終在合適的范圍內(nèi)。

損失函數(shù)

在邏輯回歸中,最常用的損失函數(shù)是交叉熵?fù)p失(Cross-Entropy Loss)。該損失函數(shù)度量模型預(yù)測的概率分布與真實概率分布之間的差距。

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:垃圾郵件分類

假設(shè)我們正在構(gòu)建一個垃圾郵件過濾器。對于每封郵件,模型會預(yù)測這封郵件是垃圾郵件的概率。如果一封實際上是垃圾郵件(y=1)的郵件被預(yù)測為非垃圾郵件(yhat約等于0),損失函數(shù)的值會非常高,反之亦然。

優(yōu)點與局限性

優(yōu)點

  1. 解釋性強(qiáng):邏輯回歸模型易于理解和解釋。
  2. 計算效率:模型簡單,訓(xùn)練和預(yù)測速度快。
  3. 概率輸出:提供預(yù)測類別的概率,增加了解釋性。

局限性

  1. 線性邊界:邏輯回歸假設(shè)數(shù)據(jù)是線性可分的,這在某些復(fù)雜場景下可能不成立。
  2. 特征選擇:邏輯回歸對于不相關(guān)的特征和特征之間的相互作用比較敏感。

通過這個章節(jié),我們可以看到邏輯回歸在簡潔性和解釋性方面有著顯著的優(yōu)點,但同時也存在一定的局限性。


三、數(shù)學(xué)原理

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)
理解邏輯回歸背后的數(shù)學(xué)原理是掌握這一算法的關(guān)鍵。這部分將深入解析邏輯回歸的數(shù)學(xué)結(jié)構(gòu),包括概率模型、損失函數(shù)優(yōu)化和特征選擇。

概率模型

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:信用卡交易

想象你正在開發(fā)一個用于檢測信用卡欺詐交易的模型。在這種情況下,(X) 可能包括交易金額、地點、時間等特征,模型會輸出這筆交易是欺詐交易的概率。

損失函數(shù)與最大似然估計

最常用于邏輯回歸的損失函數(shù)是交叉熵?fù)p失。這其實是最大似然估計(MLE)在邏輯回歸中的具體應(yīng)用。

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:電子郵件分類

假設(shè)你正在構(gòu)建一個電子郵件分類器來區(qū)分垃圾郵件和正常郵件。使用交叉熵?fù)p失函數(shù),你可以通過最大化似然函數(shù)來“教”模型如何更準(zhǔn)確地進(jìn)行分類。

梯度下降優(yōu)化

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:股票價格預(yù)測

雖然邏輯回歸通常不用于回歸問題,但梯度下降的優(yōu)化算法在很多其他類型的問題中也是通用的。例如,在預(yù)測股票價格時,同樣可以使用梯度下降來優(yōu)化模型參數(shù)。

特征選擇與正則化

特征選擇在邏輯回歸中非常重要,因為不相關(guān)或冗余的特征可能會導(dǎo)致模型性能下降。正則化是一種用于防止過擬合的技術(shù),常見的正則化方法包括 L1 正則化和 L2 正則化。

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)

舉例:房價預(yù)測

在房價預(yù)測模型中,可能有很多相關(guān)和不相關(guān)的特征,如面積、地段、周圍學(xué)校數(shù)量等。通過使用正則化,你可以確保模型在擬合這些特征時不會過于復(fù)雜,從而提高模型的泛化能力。

通過本章的討論,我們不僅深入了解了邏輯回歸的數(shù)學(xué)基礎(chǔ),還通過具體的例子和應(yīng)用場景,讓這些看似復(fù)雜的數(shù)學(xué)概念更加貼近實際,易于理解。這有助于我們在實際應(yīng)用中更加靈活地使用邏輯回歸,以解決各種分類問題。


四、實戰(zhàn)案例

機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)
實戰(zhàn)是學(xué)習(xí)邏輯回歸的最佳方式。在這一部分,我們將使用Python和PyTorch庫來實現(xiàn)一個完整的邏輯回歸模型。我們將使用經(jīng)典的鳶尾花(Iris)數(shù)據(jù)集,該數(shù)據(jù)集包括四個特征:萼片長度、萼片寬度、花瓣長度、花瓣寬度,以及一個標(biāo)簽,用于區(qū)分三種不同類型的鳶尾花。

數(shù)據(jù)準(zhǔn)備

首先,我們需要加載和準(zhǔn)備數(shù)據(jù)。

# 導(dǎo)入所需庫
import torch
import torch.nn as nn
import torch.optim as optim
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# 加載數(shù)據(jù)
iris = load_iris()
X, y = iris.data, iris.target

# 由于邏輯回歸是二分類模型,我們只取其中兩類數(shù)據(jù)
X, y = X[y != 2], y[y != 2]

# 數(shù)據(jù)分割
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 轉(zhuǎn)換為PyTorch張量
X_train = torch.FloatTensor(X_train)
X_test = torch.FloatTensor(X_test)
y_train = torch.LongTensor(y_train)
y_test = torch.LongTensor(y_test)

模型構(gòu)建

接下來,我們定義邏輯回歸模型。

class LogisticRegression(nn.Module):
    def __init__(self, input_dim):
        super(LogisticRegression, self).__init__()
        self.linear = nn.Linear(input_dim, 1)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        return self.sigmoid(self.linear(x))

模型訓(xùn)練

現(xiàn)在我們可以開始訓(xùn)練模型。

# 初始化模型、損失函數(shù)和優(yōu)化器
model = LogisticRegression(X_train.shape[1])
criterion = nn.BCELoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)

# 訓(xùn)練模型
for epoch in range(1000):
    model.train()
    optimizer.zero_grad()

    # 前向傳播
    outputs = model(X_train).squeeze()
    loss = criterion(outputs, y_train.float())

    # 反向傳播和優(yōu)化
    loss.backward()
    optimizer.step()

    if (epoch + 1) % 100 == 0:
        print(f'Epoch [{epoch+1}/1000], Loss: {loss.item()}')

模型評估

最后,我們用測試集來評估模型的性能。

# 測試模型
model.eval()
with torch.no_grad():
    test_outputs = model(X_test).squeeze()
    test_outputs = (test_outputs > 0.5).long()
    accuracy = (test_outputs == y_test).float().mean()
    print(f'Accuracy: {accuracy.item()}')

在這個實戰(zhàn)案例中,我們完整地展示了如何使用PyTorch來構(gòu)建、訓(xùn)練和評估一個邏輯回歸模型。我們使用了鳶尾花數(shù)據(jù)集,但這個框架可以方便地應(yīng)用到其他二分類問題上。


五、總結(jié)

在本篇文章中,我們?nèi)妗⑸钊氲靥接懥诉壿嫽貧w這一機(jī)器學(xué)習(xí)算法。從基礎(chǔ)概念到數(shù)學(xué)原理,再到實戰(zhàn)應(yīng)用。

  1. 概率模型的廣泛應(yīng)用:邏輯回歸通常被認(rèn)為只適用于二分類問題,但其實,它可以作為一個概率模型用于多個領(lǐng)域。例如,在推薦系統(tǒng)中,邏輯回歸可以用于估算用戶點擊某個產(chǎn)品的概率。

  2. 損失函數(shù)與優(yōu)化的復(fù)雜性:雖然邏輯回歸本身是一個線性模型,但要優(yōu)化它涉及到的數(shù)學(xué)卻并不簡單。這反映了一個普遍現(xiàn)象:即使是最基礎(chǔ)的機(jī)器學(xué)習(xí)算法,也可以與復(fù)雜的數(shù)學(xué)結(jié)構(gòu)相連接。

  3. 特征選擇與正則化:在現(xiàn)實世界的數(shù)據(jù)科學(xué)項目中,特征選擇和正則化往往比模型選擇更為關(guān)鍵。一個好的特征工程和正則化策略可以顯著提升模型性能。

  4. 邏輯回歸與深度學(xué)習(xí):盡管深度學(xué)習(xí)在許多任務(wù)上表現(xiàn)出色,但不應(yīng)忽視傳統(tǒng)機(jī)器學(xué)習(xí)算法的價值。邏輯回歸在計算資源有限或數(shù)據(jù)集較小的場景中,往往能更快地達(dá)到令人滿意的性能。

通過深入分析和實戰(zhàn)應(yīng)用,我們可以看到,邏輯回歸并不是一個“簡單”的算法,而是一個既實用又深刻的工具,其背后蘊(yùn)藏著豐富的數(shù)學(xué)原理和實際應(yīng)用潛力。

關(guān)注TechLead,分享AI全維度知識。作者擁有10+年互聯(lián)網(wǎng)服務(wù)架構(gòu)、AI產(chǎn)品研發(fā)經(jīng)驗、團(tuán)隊管理經(jīng)驗,同濟(jì)本復(fù)旦碩,復(fù)旦機(jī)器人智能實驗室成員,阿里云認(rèn)證的資深架構(gòu)師,項目管理專業(yè)人士,上億營收AI產(chǎn)品研發(fā)負(fù)責(zé)人。
如有幫助,請多關(guān)注
TeahLead KrisChang,10+年的互聯(lián)網(wǎng)和人工智能從業(yè)經(jīng)驗,10年+技術(shù)和業(yè)務(wù)團(tuán)隊管理經(jīng)驗,同濟(jì)軟件工程本科,復(fù)旦工程管理碩士,阿里云認(rèn)證云服務(wù)資深架構(gòu)師,上億營收AI產(chǎn)品業(yè)務(wù)負(fù)責(zé)人。文章來源地址http://www.zghlxwxcb.cn/news/detail-748848.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)-邏輯回歸:從技術(shù)原理到案例實戰(zhàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)實戰(zhàn):Python基于Logistic邏輯回歸進(jìn)行分類預(yù)測(一)

    機(jī)器學(xué)習(xí)實戰(zhàn):Python基于Logistic邏輯回歸進(jìn)行分類預(yù)測(一)

    1.1 Logistic回歸的介紹 邏輯回歸( Logistic regression ,簡稱 LR )是一種經(jīng)典的二分類算法,它將輸入特征與一個sigmoid函數(shù)進(jìn)行線性組合,從而預(yù)測輸出標(biāo)簽的概率。該算法常被用于預(yù)測離散的二元結(jié)果,例如是/否、真/假等。 優(yōu)點: 實現(xiàn)簡單。Logistic回歸的參數(shù)可以用極大似然

    2024年02月08日
    瀏覽(27)
  • 【Python機(jī)器學(xué)習(xí)】決策樹、邏輯回歸、神經(jīng)網(wǎng)絡(luò)等模型對電信用戶流失分類實戰(zhàn)(附源碼和數(shù)據(jù)集)

    【Python機(jī)器學(xué)習(xí)】決策樹、邏輯回歸、神經(jīng)網(wǎng)絡(luò)等模型對電信用戶流失分類實戰(zhàn)(附源碼和數(shù)據(jù)集)

    需要源碼和數(shù)據(jù)集請點贊關(guān)注收藏后評論區(qū)留言私信~~~ 該實例數(shù)據(jù)來自kaggle,它的每一條數(shù)據(jù)為一個用戶的信息,共有21個有效字段,其中最后一個字段Churn標(biāo)志該用戶是否流失 ? 可用pandas的read_csv()函數(shù)來讀取數(shù)據(jù),用DataFrame的head()、shape、info()、duplicated()、nunique()等來初步

    2024年02月03日
    瀏覽(29)
  • Logistic回歸(邏輯回歸)實戰(zhàn)案例分析

    Logistic回歸(邏輯回歸)實戰(zhàn)案例分析

    Lgistic回歸也叫邏輯回歸,是廣義線性回歸的一種,通常用于解決二分類問題。 表達(dá)式如下: 經(jīng)過logit變換,則可以寫成廣義線性表達(dá)式 通常做回歸是用其廣義線性表達(dá)式,且logistic回歸的結(jié)果概率表現(xiàn)為S型曲線,一般以小于0.5的樣本都分類為0,大于0.5的樣本都分類為1。

    2024年04月25日
    瀏覽(41)
  • 機(jī)器學(xué)習(xí)案例:運營商客戶流失的數(shù)據(jù)分析 #數(shù)據(jù)去重#數(shù)據(jù)分組整合#缺失值處理#相關(guān)性分析#樣本平衡#決策樹、隨機(jī)森林、邏輯回歸

    機(jī)器學(xué)習(xí)案例:運營商客戶流失的數(shù)據(jù)分析 #數(shù)據(jù)去重#數(shù)據(jù)分組整合#缺失值處理#相關(guān)性分析#樣本平衡#決策樹、隨機(jī)森林、邏輯回歸

    前提: 隨著業(yè)務(wù)快速發(fā)展、電信市場的競爭愈演愈烈。如何最大程度地挽留在網(wǎng)用戶、吸取新客戶,是電信企業(yè)最 關(guān)注的問題之一。 客戶流失 會給企業(yè)帶來一系列損失,故在發(fā)展用戶每月增加的同時,如何挽留和爭取更多 的用戶,也是一項非常重要的工作。 能否利用大數(shù)

    2024年02月08日
    瀏覽(34)
  • 機(jī)器學(xué)習(xí):LightGBM算法原理(附案例實戰(zhàn))

    機(jī)器學(xué)習(xí):LightGBM算法原理(附案例實戰(zhàn))

    作者:i阿極 作者簡介:Python領(lǐng)域新星作者、多項比賽獲獎?wù)撸翰┲鱾€人首頁 ??????如果覺得文章不錯或能幫助到你學(xué)習(xí),可以點贊??收藏??評論??+關(guān)注哦!?????? ??????如果有小伙伴需要數(shù)據(jù)集和學(xué)習(xí)交流,文章下方有交流學(xué)習(xí)區(qū)!一起學(xué)習(xí)進(jìn)步!?? 訂閱專欄案

    2024年01月19日
    瀏覽(33)
  • 機(jī)器學(xué)習(xí) - 決策樹:技術(shù)全解與案例實戰(zhàn)

    機(jī)器學(xué)習(xí) - 決策樹:技術(shù)全解與案例實戰(zhàn)

    本文深入探討了機(jī)器學(xué)習(xí)中的決策樹算法,從基礎(chǔ)概念到高級研究進(jìn)展,再到實戰(zhàn)案例應(yīng)用,全面解析了決策樹的理論及其在現(xiàn)實世界問題中的實際效能。通過技術(shù)細(xì)節(jié)和案例實踐,揭示了決策樹在提供可解釋預(yù)測中的獨特價值。 關(guān)注TechLead,分享AI全維度知識。作者擁有1

    2024年02月05日
    瀏覽(26)
  • 【機(jī)器學(xué)習(xí)】邏輯回歸(二元分類)

    【機(jī)器學(xué)習(xí)】邏輯回歸(二元分類)

    離散感知器:輸出的預(yù)測值僅為 0 或 1 連續(xù)感知器(邏輯分類器):輸出的預(yù)測值可以是 0 到 1 的任何數(shù)字,標(biāo)簽為 0 的點輸出接近于 0 的數(shù),標(biāo)簽為 1 的點輸出接近于 1 的數(shù) 邏輯回歸算法(logistics regression algorithm):用于訓(xùn)練邏輯分類器的算法 sigmoid 函數(shù): g ( z ) = 1 1 +

    2024年02月21日
    瀏覽(24)
  • 機(jī)器學(xué)習(xí)-邏輯回歸

    機(jī)器學(xué)習(xí)-邏輯回歸

    Logistic Regreession 邏輯回歸:解決分類問題 邏輯回歸既可以看做是回歸算法,也可以看做是分類算法通常作為分類算法用,只可以解決二分類問題 Sigmoid函數(shù) 代碼實現(xiàn) 實現(xiàn)邏輯回歸 加載數(shù)據(jù) 使用邏輯回歸 不規(guī)則的決策邊界的繪制方法 knn決策邊界 生成測試用例 使用邏輯回歸

    2024年02月20日
    瀏覽(29)
  • 【機(jī)器學(xué)習(xí)】邏輯回歸

    【機(jī)器學(xué)習(xí)】邏輯回歸

    邏輯回歸,是一種名為“回歸”的線性分類器,其本質(zhì)是由線性回歸變化而來的,一種廣泛使用于分類問題中的廣義回歸算法。 線性回歸 是機(jī)器學(xué)習(xí)中最簡單的的回歸算法,它寫作一個幾乎人人熟悉的方程: z = b + θ 1 x 1 + θ 2 x 2 + . . . + θ n x n = θ T X , ( θ 0 = b ) z = b+θ_1x_1

    2024年02月07日
    瀏覽(27)
  • 【機(jī)器學(xué)習(xí)筆記】3 邏輯回歸

    【機(jī)器學(xué)習(xí)筆記】3 邏輯回歸

    分類問題監(jiān)督學(xué)習(xí)最主要的類型,主要特征是標(biāo)簽離散,邏輯回歸是解決分類問題的常見算法 ,輸入變量可以是離散的也可以是連續(xù)的 先從用藍(lán)色圓形數(shù)據(jù)定義為類型1,其余數(shù)據(jù)為類型2;只需要分類1次,步驟:①-② 先定義其中一類為類型1(正類),其余數(shù)據(jù)為負(fù)類(r

    2024年02月19日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包