国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

轉(zhuǎn)移學(xué)習(xí)的計算機(jī)視覺教程

這篇具有很好參考價值的文章主要介紹了轉(zhuǎn)移學(xué)習(xí)的計算機(jī)視覺教程。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

轉(zhuǎn)移學(xué)習(xí)的計算機(jī)視覺教程

引用這些注釋,

實際上,很少有人從頭開始訓(xùn)練整個卷積網(wǎng)絡(luò)(使用隨機(jī)初始化),因為擁有足夠大小的數(shù)據(jù)集相對很少。 相反,通常在非常大的數(shù)據(jù)集上對 ConvNet 進(jìn)行預(yù)訓(xùn)練(例如 ImageNet,其中包含 120 萬個具有 1000 個類別的圖像),然后將 ConvNet 用作初始化或固定特征提取器以完成感興趣的任務(wù)。

這兩個主要的轉(zhuǎn)移學(xué)習(xí)方案如下所示:

  • 對卷積網(wǎng)絡(luò)進(jìn)行微調(diào):代替隨機(jī)初始化,我們使用經(jīng)過預(yù)訓(xùn)練的網(wǎng)絡(luò)初始化網(wǎng)絡(luò),例如在 imagenet 1000 數(shù)據(jù)集上進(jìn)行訓(xùn)練的網(wǎng)絡(luò)。 其余的訓(xùn)練照常進(jìn)行。
  • ConvNet 作為固定特征提取器:在這里,我們將凍結(jié)除最終完全連接層以外的所有網(wǎng)絡(luò)的權(quán)重。 最后一個完全連接的層將替換為具有隨機(jī)權(quán)重的新層,并且僅訓(xùn)練該層。
# License: BSD
# Author: Sasank Chilamkurthy

from __future__ import print_function, division

import torch
import torch.nn as nn
import torch.optim as optim
from torch.optim import lr_scheduler
import numpy as np
import torchvision
from torchvision import datasets, models, transforms
import matplotlib.pyplot as plt
import time
import os
import copy

plt.ion()   # interactive mode

載入資料

我們將使用 torchvision 和 torch.utils.data 包來加載數(shù)據(jù)。

我們今天要解決的問題是訓(xùn)練一個模型來對螞蟻蜜蜂進(jìn)行分類。 我們?yōu)槲浵伜兔鄯涮峁┝舜蠹s 120 張訓(xùn)練圖像。 每個類別有 75 個驗證圖像。 通常,如果從頭開始訓(xùn)練的話,這是一個很小的數(shù)據(jù)集。 由于我們正在使用遷移學(xué)習(xí),因此我們應(yīng)該能夠很好地概括。

該數(shù)據(jù)集是 imagenet 的很小一部分。

Note

從的下載數(shù)據(jù),并將其提取到當(dāng)前目錄。

# Data augmentation and normalization for training
# Just normalization for validation
data_transforms = {
    'train': transforms.Compose([
        transforms.RandomResizedCrop(224),
        transforms.RandomHorizontalFlip(),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
    'val': transforms.Compose([
        transforms.Resize(256),
        transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
}

data_dir = 'data/hymenoptera_data'
image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x),
                                          data_transforms[x])
                  for x in ['train', 'val']}
dataloaders = {x: torch.utils.data.DataLoader(image_datasets[x], batch_size=4,
                                             shuffle=True, num_workers=4)
              for x in ['train', 'val']}
dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']}
class_names = image_datasets['train'].classes

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

可視化一些圖像

讓我們可視化一些訓(xùn)練圖像,以了解數(shù)據(jù)擴(kuò)充。

def imshow(inp, title=None):
    """Imshow for Tensor."""
    inp = inp.numpy().transpose((1, 2, 0))
    mean = np.array([0.485, 0.456, 0.406])
    std = np.array([0.229, 0.224, 0.225])
    inp = std * inp + mean
    inp = np.clip(inp, 0, 1)
    plt.imshow(inp)
    if title is not None:
        plt.title(title)
    plt.pause(0.001)  # pause a bit so that plots are updated

# Get a batch of training data
inputs, classes = next(iter(dataloaders['train']))

# Make a grid from batch
out = torchvision.utils.make_grid(inputs)

imshow(out, title=[class_names[x] for x in classes])

訓(xùn)練模型

現(xiàn)在,讓我們編寫一個通用函數(shù)來訓(xùn)練模型。 在這里,我們將說明:

  • 安排學(xué)習(xí)率
  • 保存最佳模型

以下,參數(shù)scheduler是來自torch.optim.lr_scheduler的 LR 調(diào)度程序?qū)ο蟆?/p>

def train_model(model, criterion, optimizer, scheduler, num_epochs=25):
    since = time.time()

    best_model_wts = copy.deepcopy(model.state_dict())
    best_acc = 0.0

    for epoch in range(num_epochs):
        print('Epoch {}/{}'.format(epoch, num_epochs - 1))
        print('-' * 10)

        # Each epoch has a training and validation phase
        for phase in ['train', 'val']:
            if phase == 'train':
                model.train()  # Set model to training mode
            else:
                model.eval()   # Set model to evaluate mode

            running_loss = 0.0
            running_corrects = 0

            # Iterate over data.
            for inputs, labels in dataloaders[phase]:
                inputs = inputs.to(device)
                labels = labels.to(device)

                # zero the parameter gradients
                optimizer.zero_grad()

                # forward
                # track history if only in train
                with torch.set_grad_enabled(phase == 'train'):
                    outputs = model(inputs)
                    _, preds = torch.max(outputs, 1)
                    loss = criterion(outputs, labels)

                    # backward + optimize only if in training phase
                    if phase == 'train':
                        loss.backward()
                        optimizer.step()

                # statistics
                running_loss += loss.item() * inputs.size(0)
                running_corrects += torch.sum(preds == labels.data)
            if phase == 'train':
                scheduler.step()

            epoch_loss = running_loss / dataset_sizes[phase]
            epoch_acc = running_corrects.double() / dataset_sizes[phase]

            print('{} Loss: {:.4f} Acc: {:.4f}'.format(
                phase, epoch_loss, epoch_acc))

            # deep copy the model
            if phase == 'val' and epoch_acc > best_acc:
                best_acc = epoch_acc
                best_model_wts = copy.deepcopy(model.state_dict())

        print()

    time_elapsed = time.time() - since
    print('Training complete in {:.0f}m {:.0f}s'.format(
        time_elapsed // 60, time_elapsed % 60))
    print('Best val Acc: {:4f}'.format(best_acc))

    # load best model weights
    model.load_state_dict(best_model_wts)
    return model

可視化模型預(yù)測

通用功能可顯示一些圖像的預(yù)測

def visualize_model(model, num_images=6):
    was_training = model.training
    model.eval()
    images_so_far = 0
    fig = plt.figure()

    with torch.no_grad():
        for i, (inputs, labels) in enumerate(dataloaders['val']):
            inputs = inputs.to(device)
            labels = labels.to(device)

            outputs = model(inputs)
            _, preds = torch.max(outputs, 1)

            for j in range(inputs.size()[0]):
                images_so_far += 1
                ax = plt.subplot(num_images//2, 2, images_so_far)
                ax.axis('off')
                ax.set_title('predicted: {}'.format(class_names[preds[j]]))
                imshow(inputs.cpu().data[j])

                if images_so_far == num_images:
                    model.train(mode=was_training)
                    return
        model.train(mode=was_training)

微調(diào) convnet

加載預(yù)訓(xùn)練的模型并重置最終的完全連接層。

model_ft = models.resnet18(pretrained=True)
num_ftrs = model_ft.fc.in_features
# Here the size of each output sample is set to 2.
# Alternatively, it can be generalized to nn.Linear(num_ftrs, len(class_names)).
model_ft.fc = nn.Linear(num_ftrs, 2)

model_ft = model_ft.to(device)

criterion = nn.CrossEntropyLoss()

# Observe that all parameters are being optimized
optimizer_ft = optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)

# Decay LR by a factor of 0.1 every 7 epochs
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_ft, step_size=7, gamma=0.1)

訓(xùn)練和評估

在 CPU 上大約需要 15-25 分鐘。 但是在 GPU 上,此過程不到一分鐘。

model_ft = train_model(model_ft, criterion, optimizer_ft, exp_lr_scheduler,
                       num_epochs=25)

出:

Epoch 0/24
----------
train Loss: 0.5582 Acc: 0.6967
val Loss: 0.1987 Acc: 0.9216

Epoch 1/24
----------
train Loss: 0.4663 Acc: 0.8238
val Loss: 0.2519 Acc: 0.8889

Epoch 2/24
----------
train Loss: 0.5978 Acc: 0.7623
val Loss: 1.2933 Acc: 0.6601

Epoch 3/24
----------
train Loss: 0.4471 Acc: 0.8320
val Loss: 0.2576 Acc: 0.8954

Epoch 4/24
----------
train Loss: 0.3654 Acc: 0.8115
val Loss: 0.2977 Acc: 0.9150

Epoch 5/24
----------
train Loss: 0.4404 Acc: 0.8197
val Loss: 0.3330 Acc: 0.8627

Epoch 6/24
----------
train Loss: 0.6416 Acc: 0.7623
val Loss: 0.3174 Acc: 0.8693

Epoch 7/24
----------
train Loss: 0.4058 Acc: 0.8361
val Loss: 0.2551 Acc: 0.9085

Epoch 8/24
----------
train Loss: 0.2294 Acc: 0.9098
val Loss: 0.2603 Acc: 0.9085

Epoch 9/24
----------
train Loss: 0.2805 Acc: 0.8730
val Loss: 0.2765 Acc: 0.8954

Epoch 10/24
----------
train Loss: 0.3139 Acc: 0.8525
val Loss: 0.2639 Acc: 0.9020

Epoch 11/24
----------
train Loss: 0.3198 Acc: 0.8648
val Loss: 0.2458 Acc: 0.9020

Epoch 12/24
----------
train Loss: 0.2947 Acc: 0.8811
val Loss: 0.2835 Acc: 0.8889

Epoch 13/24
----------
train Loss: 0.3097 Acc: 0.8730
val Loss: 0.2542 Acc: 0.9085

Epoch 14/24
----------
train Loss: 0.1849 Acc: 0.9303
val Loss: 0.2710 Acc: 0.9085

Epoch 15/24
----------
train Loss: 0.2764 Acc: 0.8934
val Loss: 0.2522 Acc: 0.9085

Epoch 16/24
----------
train Loss: 0.2214 Acc: 0.9098
val Loss: 0.2620 Acc: 0.9085

Epoch 17/24
----------
train Loss: 0.2949 Acc: 0.8525
val Loss: 0.2600 Acc: 0.9085

Epoch 18/24
----------
train Loss: 0.2237 Acc: 0.9139
val Loss: 0.2666 Acc: 0.9020

Epoch 19/24
----------
train Loss: 0.2456 Acc: 0.8852
val Loss: 0.2521 Acc: 0.9150

Epoch 20/24
----------
train Loss: 0.2351 Acc: 0.8852
val Loss: 0.2781 Acc: 0.9085

Epoch 21/24
----------
train Loss: 0.2654 Acc: 0.8730
val Loss: 0.2560 Acc: 0.9085

Epoch 22/24
----------
train Loss: 0.1955 Acc: 0.9262
val Loss: 0.2605 Acc: 0.9020

Epoch 23/24
----------
train Loss: 0.2285 Acc: 0.8893
val Loss: 0.2650 Acc: 0.9085

Epoch 24/24
----------
train Loss: 0.2360 Acc: 0.9221
val Loss: 0.2690 Acc: 0.8954

Training complete in 1m 7s
Best val Acc: 0.921569

visualize_model(model_ft)

ConvNet 作為固定特征提取器

在這里,我們需要凍結(jié)除最后一層之外的所有網(wǎng)絡(luò)。 我們需要設(shè)置requires_grad == False凍結(jié)參數(shù),以便不在backward()中計算梯度。

您可以在的文檔中閱讀有關(guān)此內(nèi)容的更多信息。

model_conv = torchvision.models.resnet18(pretrained=True)
for param in model_conv.parameters():
    param.requires_grad = False

# Parameters of newly constructed modules have requires_grad=True by default
num_ftrs = model_conv.fc.in_features
model_conv.fc = nn.Linear(num_ftrs, 2)

model_conv = model_conv.to(device)

criterion = nn.CrossEntropyLoss()

# Observe that only parameters of final layer are being optimized as
# opposed to before.
optimizer_conv = optim.SGD(model_conv.fc.parameters(), lr=0.001, momentum=0.9)

# Decay LR by a factor of 0.1 every 7 epochs
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_conv, step_size=7, gamma=0.1)

Train and evaluate

與以前的方案相比,在 CPU 上將花費大約一半的時間。 這是可以預(yù)期的,因為不需要為大多數(shù)網(wǎng)絡(luò)計算梯度。 但是,確實需要計算正向。

model_conv = train_model(model_conv, criterion, optimizer_conv,
                         exp_lr_scheduler, num_epochs=25)

Out:文章來源地址http://www.zghlxwxcb.cn/news/detail-601031.html

Epoch 0/24
----------
train Loss: 0.5633 Acc: 0.7008
val Loss: 0.2159 Acc: 0.9412

Epoch 1/24
----------
train Loss: 0.4394 Acc: 0.7623
val Loss: 0.2000 Acc: 0.9150

Epoch 2/24
----------
train Loss: 0.5182 Acc: 0.7623
val Loss: 0.1897 Acc: 0.9346

Epoch 3/24
----------
train Loss: 0.3993 Acc: 0.8074
val Loss: 0.3029 Acc: 0.8824

Epoch 4/24
----------
train Loss: 0.4163 Acc: 0.8607
val Loss: 0.2190 Acc: 0.9412

Epoch 5/24
----------
train Loss: 0.4741 Acc: 0.7951
val Loss: 0.1903 Acc: 0.9477

Epoch 6/24
----------
train Loss: 0.4266 Acc: 0.8115
val Loss: 0.2178 Acc: 0.9281

Epoch 7/24
----------
train Loss: 0.3623 Acc: 0.8238
val Loss: 0.2080 Acc: 0.9412

Epoch 8/24
----------
train Loss: 0.3979 Acc: 0.8279
val Loss: 0.1796 Acc: 0.9412

Epoch 9/24
----------
train Loss: 0.3534 Acc: 0.8648
val Loss: 0.2043 Acc: 0.9412

Epoch 10/24
----------
train Loss: 0.3849 Acc: 0.8115
val Loss: 0.2012 Acc: 0.9346

Epoch 11/24
----------
train Loss: 0.3814 Acc: 0.8361
val Loss: 0.2088 Acc: 0.9412

Epoch 12/24
----------
train Loss: 0.3443 Acc: 0.8648
val Loss: 0.1823 Acc: 0.9477

Epoch 13/24
----------
train Loss: 0.2931 Acc: 0.8525
val Loss: 0.1853 Acc: 0.9477

Epoch 14/24
----------
train Loss: 0.2749 Acc: 0.8811
val Loss: 0.2068 Acc: 0.9412

Epoch 15/24
----------
train Loss: 0.3387 Acc: 0.8566
val Loss: 0.2080 Acc: 0.9477

Epoch 16/24
----------
train Loss: 0.2992 Acc: 0.8648
val Loss: 0.2096 Acc: 0.9346

Epoch 17/24
----------
train Loss: 0.3396 Acc: 0.8648
val Loss: 0.1870 Acc: 0.9412

Epoch 18/24
----------
train Loss: 0.3956 Acc: 0.8320
val Loss: 0.1858 Acc: 0.9412

Epoch 19/24
----------
train Loss: 0.3379 Acc: 0.8402
val Loss: 0.1729 Acc: 0.9542

Epoch 20/24
----------
train Loss: 0.2555 Acc: 0.8811
val Loss: 0.2186 Acc: 0.9281

Epoch 21/24
----------
train Loss: 0.3764 Acc: 0.8484
val Loss: 0.1817 Acc: 0.9477

Epoch 22/24
----------
train Loss: 0.2747 Acc: 0.8975
val Loss: 0.2042 Acc: 0.9412

Epoch 23/24
----------
train Loss: 0.3072 Acc: 0.8689
val Loss: 0.1924 Acc: 0.9477

Epoch 24/24
----------
train Loss: 0.3479 Acc: 0.8402
val Loss: 0.1835 Acc: 0.9477

Training complete in 0m 34s
Best val Acc: 0.954248

visualize_model(model_conv)

plt.ioff()
plt.show()

到了這里,關(guān)于轉(zhuǎn)移學(xué)習(xí)的計算機(jī)視覺教程的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 動手學(xué)CV-Pytorch計算機(jī)視覺 天池計算機(jī)視覺入門賽SVHN數(shù)據(jù)集實戰(zhàn)

    這里我們以datawhale和天池合作的天池計算機(jī)視覺入門賽為例,通過案例實戰(zhàn)來進(jìn)一步鞏固本章所介紹的圖像分類知識。 該比賽以SVHN街道字符為賽題數(shù)據(jù),數(shù)據(jù)集報名后可見并可下載,該數(shù)據(jù)來

    2024年02月04日
    瀏覽(15)
  • 深度學(xué)習(xí)與計算機(jī)視覺教程(3) | 損失函數(shù)與最優(yōu)化(CV通關(guān)指南·完結(jié))

    深度學(xué)習(xí)與計算機(jī)視覺教程(3) | 損失函數(shù)與最優(yōu)化(CV通關(guān)指南·完結(jié))

    在上一篇 深度學(xué)習(xí)與計算機(jī)視覺教程(2) - 圖像分類與機(jī)器學(xué)習(xí)基礎(chǔ) 內(nèi)容中,我們對線性分類器做了一些介紹,我們希望線性分類器能夠準(zhǔn)確地對圖像進(jìn)行分類,要有一套優(yōu)化其權(quán)重參數(shù)的方法,這就是本篇ShowMeAI要給大家介紹到的損失函數(shù)與最優(yōu)化相關(guān)的知識。 損失函數(shù) 數(shù)

    2024年02月20日
    瀏覽(29)
  • 【計算機(jī)視覺|人臉識別】 facenet-pytorch 項目中文說明文檔

    【計算機(jī)視覺|人臉識別】 facenet-pytorch 項目中文說明文檔

    下文搬運自GitHub,很多超鏈接都是相對路徑所以點不了,屬正常現(xiàn)象。 點擊查看原文檔 。轉(zhuǎn)載請注明出處。 Click here to return to the English document 譯者注: 本項目 facenet-pytorch 是一個十分方便的人臉識別庫,可以通過 pip 直接安裝。 庫中包含了兩個重要功能 人臉檢測:使用MT

    2024年02月04日
    瀏覽(50)
  • 【計算機(jī)視覺】干貨分享:Segmentation model PyTorch(快速搭建圖像分割網(wǎng)絡(luò))

    【計算機(jī)視覺】干貨分享:Segmentation model PyTorch(快速搭建圖像分割網(wǎng)絡(luò))

    如何快速搭建圖像分割網(wǎng)絡(luò)? 要手寫把backbone ,手寫decoder 嗎? 介紹一個分割神器,分分鐘搭建一個分割網(wǎng)絡(luò)。 倉庫的地址: 該庫的主要特點是: 高級 API(只需兩行即可創(chuàng)建神經(jīng)網(wǎng)絡(luò)) 用于二元和多類分割的 9 種模型架構(gòu)(包括傳奇的 Unet) 124 個可用編碼器(以及 timm

    2024年02月14日
    瀏覽(30)
  • 【Pytorch】計算機(jī)視覺項目——卷積神經(jīng)網(wǎng)絡(luò)CNN模型識別圖像分類

    【Pytorch】計算機(jī)視覺項目——卷積神經(jīng)網(wǎng)絡(luò)CNN模型識別圖像分類

    在上一篇筆記《【Pytorch】整體工作流程代碼詳解(新手入門)》中介紹了Pytorch的整體工作流程,本文繼續(xù)說明如何使用Pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(CNN模型)來給圖像分類。 其他相關(guān)文章: 深度學(xué)習(xí)入門筆記:總結(jié)了一些神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)概念。 TensorFlow專欄:《計算機(jī)視覺入門

    2024年02月05日
    瀏覽(27)
  • 【深度學(xué)習(xí): 計算機(jī)視覺】如何改進(jìn)計算機(jī)視覺數(shù)據(jù)集

    【深度學(xué)習(xí): 計算機(jī)視覺】如何改進(jìn)計算機(jī)視覺數(shù)據(jù)集

    機(jī)器學(xué)習(xí)算法需要大量數(shù)據(jù)集來訓(xùn)練、提高性能并生成組織所需的結(jié)果。 數(shù)據(jù)集是計算機(jī)視覺應(yīng)用程序和模型運行的燃料。數(shù)據(jù)越多越好。這些數(shù)據(jù)應(yīng)該是高質(zhì)量的,以確保人工智能項目獲得最佳的結(jié)果和產(chǎn)出。 獲取訓(xùn)練機(jī)器學(xué)習(xí)模型所需數(shù)據(jù)的最佳方法之一是使用開源數(shù)

    2024年02月20日
    瀏覽(33)
  • 【計算機(jī)視覺 | Pytorch】timm 包的具體介紹和圖像分類案例(含源代碼)

    【計算機(jī)視覺 | Pytorch】timm 包的具體介紹和圖像分類案例(含源代碼)

    timm 是一個 PyTorch 原生實現(xiàn)的計算機(jī)視覺模型庫。它提供了預(yù)訓(xùn)練模型和各種網(wǎng)絡(luò)組件,可以用于各種計算機(jī)視覺任務(wù),例如圖像分類、物體檢測、語義分割等等。 timm 的特點如下: PyTorch 原生實現(xiàn): timm 的實現(xiàn)方式與 PyTorch 高度契合,開發(fā)者可以方便地使用 PyTorch 的 API 進(jìn)行

    2024年02月15日
    瀏覽(25)
  • 計算機(jī)視覺入門 詳細(xì)教程實例

    計算機(jī)視覺是人工智能領(lǐng)域的一個重要分支,涉及使用計算機(jī)來理解和解釋圖像和視頻內(nèi)容。以下是一個計算機(jī)視覺入門的詳細(xì)教程實例,包括基本概念、常用技術(shù)和示例代碼: 1. 理解計算機(jī)視覺的基本概念 介紹計算機(jī)視覺的定義和應(yīng)用領(lǐng)域。 解釋圖像和視頻的基本概念,

    2024年04月10日
    瀏覽(29)
  • 如何學(xué)習(xí)計算機(jī)視覺

    學(xué)習(xí)計算機(jī)視覺可以通過以下步驟進(jìn)行: 了解基本概念和原理:首先,你可以學(xué)習(xí)計算機(jī)視覺的基本概念和原理,包括圖像處理、特征提取、目標(biāo)檢測、物體識別等。這些基礎(chǔ)知識將幫助你理解計算機(jī)視覺的工作原理。 學(xué)習(xí)算法和技術(shù):學(xué)習(xí)計算機(jī)視覺的算法和技術(shù)是非常

    2024年01月21日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包