国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

3D點(diǎn)云(3D point cloud)及PointNet、PointNet++

這篇具有很好參考價(jià)值的文章主要介紹了3D點(diǎn)云(3D point cloud)及PointNet、PointNet++。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、什么是3D點(diǎn)云

https://www.youtube.com/watch?v=Ew24Rac8eYE
傳統(tǒng)圖像數(shù)據(jù)是2維的
3D點(diǎn)云是3維的,可以表達(dá)更多信息

  • 比如對(duì)化工廠進(jìn)行違章識(shí)別、安全隱患的識(shí)別
  • 城市管理

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

二、基于3D點(diǎn)云的一些任務(wù)

  • 點(diǎn)云分割
  • 點(diǎn)云補(bǔ)全
  • 點(diǎn)云生成
  • 點(diǎn)云物體檢測(cè)(3D物體檢測(cè))
  • 點(diǎn)云配準(zhǔn)(后續(xù)任務(wù)的基礎(chǔ))
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
一般點(diǎn)云數(shù)據(jù)都是基于激光雷達(dá)掃描生成的。

三、如何提取3D點(diǎn)云數(shù)據(jù)的特征:PointNet

初始的點(diǎn)云數(shù)據(jù)僅僅包含了每個(gè)點(diǎn)的坐標(biāo)信息(x,y,z),這些對(duì)我們要完成的后續(xù)任務(wù)遠(yuǎn)遠(yuǎn)不夠,我們還需要知道每個(gè)點(diǎn)和周圍的點(diǎn)的關(guān)系甚至是每個(gè)點(diǎn)和全局的關(guān)系。

(1)在PointNet之前也有工作在做點(diǎn)云上的深度學(xué)習(xí)

點(diǎn)云數(shù)據(jù)并不是定義在一個(gè)規(guī)則的網(wǎng)格上,空間上可以任意分布、數(shù)量也可以任意,是不規(guī)則數(shù)據(jù)。
一種解決方案:
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

  • 柵格化(voxelization)將無規(guī)則的3點(diǎn)云變成一種規(guī)則的數(shù)據(jù),均勻分布在一個(gè)3維網(wǎng)格中。
  • 3d卷積處理處理成3維柵格的數(shù)據(jù)

這種方式的缺點(diǎn):

  • 如果為了降低時(shí)間復(fù)雜度和空間復(fù)雜度選擇降低圖片的分辨率,會(huì)使學(xué)習(xí)效果大打折扣;
  • 如果不計(jì)時(shí)間和空間復(fù)雜度,將大分辨率的圖像輸入3D卷積網(wǎng)絡(luò)。其實(shí)3D點(diǎn)云僅僅掃描的是表面信息,這樣做柵格內(nèi)部有大片空白,造成了算力資源的大量浪費(fèi)。

(2)PointNet

那么如何構(gòu)造一個(gè)backbone來提取3D點(diǎn)云的這些特征呢?
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

點(diǎn)云數(shù)據(jù)的特點(diǎn)

(1)置換不變性(Permutation Invariance)

點(diǎn)云數(shù)據(jù)是一個(gè)inordered set,每個(gè)點(diǎn)出現(xiàn)的順序不影響集合的本身
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
N表示點(diǎn)云中的有N個(gè)點(diǎn),D代表每個(gè)點(diǎn)擁有D維的特征。D中可以包含點(diǎn)的坐標(biāo)信息(x,y,z),也可以包含顏色、法向量…
因?yàn)辄c(diǎn)集是無序的,一共有N!種排列組合。這要求我們?cè)O(shè)計(jì)的backbone對(duì)所有置換都具有不變性。
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
最簡(jiǎn)單的最大池化和平均池化函數(shù)雖然具有置換不變性,但是無疑會(huì)丟失有意義的幾何信息。
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

  • 因?yàn)橹苯訉?duì)點(diǎn)云做對(duì)稱性的操作會(huì)丟失重要的幾何信息;
  • 我們可以先將3D點(diǎn)云映射到高維空間h,與此同時(shí)就產(chǎn)生了很多冗余信息;
  • 此時(shí),我們?cè)僭诟呔S空間中進(jìn)行對(duì)稱操作g,我們依然會(huì)得到充足的幾何信息,這樣會(huì)避免過多的幾何信息的丟失。
  • 最后我們?cè)偻ㄟ^另一個(gè)網(wǎng)絡(luò) γ \gamma γ來進(jìn)一步消化這個(gè)信息,得到一個(gè)點(diǎn)云的特征。

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
這是什么?不太理解。

(2)角度不變性(Transformation Invariance)

比如說一輛車,在不同的角度觀察,點(diǎn)云中的每個(gè)點(diǎn)的坐標(biāo)會(huì)有所變化,但表示的都是同一輛車。
如何設(shè)計(jì)網(wǎng)絡(luò)能使得網(wǎng)絡(luò)能夠適應(yīng)這種視角的變化呢?

增加基于點(diǎn)云數(shù)據(jù)本身的變換函數(shù)模塊:
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

通過一個(gè)神經(jīng)網(wǎng)絡(luò)T-Net生成變換的參數(shù),再用生成的變換函數(shù)對(duì)輸入數(shù)據(jù)進(jìn)行變換。使得這個(gè)變換函數(shù)能夠自動(dòng)對(duì)準(zhǔn)對(duì)齊我們的輸入,后面的網(wǎng)絡(luò)能夠適應(yīng)不同角度的輸入數(shù)據(jù),處理任務(wù)變得更加簡(jiǎn)單。

對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行變換操作非常簡(jiǎn)單,只需要進(jìn)行一個(gè)矩陣乘法。

做一些擴(kuò)展:不僅可以對(duì)輸入數(shù)據(jù)進(jìn)行變換處理,也可以對(duì)點(diǎn)的中間特征進(jìn)行特征空間的變換。
比如,一開始已經(jīng)將點(diǎn)的特征變成K維,那么現(xiàn)在有一個(gè)N * K的矩陣。我們可以設(shè)計(jì)一個(gè)K * K的矩陣進(jìn)行矩陣乘法對(duì)這些中間特征進(jìn)行特征空間的變換。這樣可以得到另一組特征。

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

對(duì)于以上涉及的這些高維的變換,優(yōu)化的難度也更高,可能會(huì)需要一些regularization:比如會(huì)盡可能希望這個(gè)矩陣接近于正交矩陣。

分類和分割網(wǎng)絡(luò)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

單個(gè)點(diǎn)的特征和全局的坐標(biāo)結(jié)合起來實(shí)現(xiàn)分割的功能。
最簡(jiǎn)單的就是:將全局的特征重復(fù)n遍,每一個(gè)和原來的單個(gè)點(diǎn)的特征連接在一起,相當(dāng)于單個(gè)點(diǎn)在全局特征中進(jìn)行了一次檢索,“我在全局特征中處于哪一個(gè)位置,我大概屬于哪一個(gè)類”

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

PointNet的優(yōu)勢(shì):占用內(nèi)存小且速度快(高效)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

FLOPs:計(jì)算量,floating point operations的縮寫(s表復(fù)數(shù)),意指浮點(diǎn)運(yùn)算數(shù),理解為計(jì)算量。可以用來衡量算法/模型的復(fù)雜度。

因?yàn)镻ointNet的高效性,其非常適用于移動(dòng)設(shè)備和可穿戴設(shè)備。

PointNet的優(yōu)勢(shì):對(duì)數(shù)據(jù)丟失非常魯棒

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

對(duì)數(shù)據(jù)的丟失都非常魯棒
why?
解釋這個(gè)可以通過一個(gè)可視化去理解:

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
最大池化使得模型只去關(guān)注critical points,這也使得模型對(duì)點(diǎn)的丟失具有較好的魯棒性。

四、PointNet++

PointNet的局限性

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

在PointNet中,先對(duì)每一個(gè)點(diǎn)通過MLP做一個(gè)從低維到高維的映射,再對(duì)高位的特征通過MLP結(jié)合到一起。所以PointNet要么是對(duì)一個(gè)點(diǎn)做操作,要么是對(duì)所有點(diǎn)全局的特征在做操作。所以PointNet和3D卷積相比缺少了一個(gè)局部的概念,比較難對(duì)一些精細(xì)的特征進(jìn)行學(xué)習(xí)。此外,在平移不變性上也有一定的缺陷,如果對(duì)點(diǎn)云的每一個(gè)點(diǎn)進(jìn)行一個(gè)平移操作,那么經(jīng)過PointNet學(xué)習(xí)的特征也會(huì)完全不一樣。

第二代網(wǎng)絡(luò):PointNet++

  • Hierarcgical feature learning
  • Translation invariant
  • Permutation invariant
(1)Hierarcgical feature learning(多級(jí)特征學(xué)習(xí))

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)
也可以通過一種“up-convolution”的方式將pointnet提取的特征點(diǎn)復(fù)原回去。
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

在多級(jí)特征學(xué)習(xí)網(wǎng)絡(luò)中,是如何選擇PointNet++作用區(qū)域球的半徑的呢?

在CNN中現(xiàn)在越來越流行選擇非常小的kernel,比如在VGG中大量應(yīng)用3*3的kernel。
那么在PointNet++中是不是這樣呢?其實(shí)這是不一定的。

在point cloud中非常常見的一種情況是采樣率非常不均勻。比如一個(gè)depth camera采樣到的point cloud,近的點(diǎn)會(huì)非常密集,遠(yuǎn)的點(diǎn)會(huì)非常稀疏。那么對(duì)于PointNet++的學(xué)習(xí)就會(huì)在稀疏的地方產(chǎn)生很大的問題。比如在某個(gè)地方我們的劃定的作用區(qū)域中只有一個(gè)點(diǎn),那么在那個(gè)區(qū)域中學(xué)到的特征就會(huì)非常不穩(wěn)定。這是我們很想避免的。

為了量化這個(gè)問題,我們做了一個(gè)控制變量的實(shí)驗(yàn),驗(yàn)證了點(diǎn)的疏密對(duì)PointNet++網(wǎng)絡(luò)精確度的影響:小的kernel會(huì)受采樣率不均勻影響較大。
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

針對(duì)這個(gè)問題,可以設(shè)計(jì)一些新的網(wǎng)絡(luò)結(jié)構(gòu)來避免這個(gè)問題。

  • Muti-scale grouping(MSG)
  • Muti-res gruoping(MRG)
  • MRG的好處是可以節(jié)省一些計(jì)算。而MSG需要對(duì)不同的尺度分別計(jì)算。
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

效果對(duì)比:
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

五、PointNet和PointNet++在三維場(chǎng)景理解中的應(yīng)用

  • 3D Object Detection
  • 3D Scene Flow
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

3D Object Detection

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

Previous Work
  • 3D region + classification
    基于點(diǎn)云,在三維空間中做region proposal,然后投影到圖片中,在圖片中畫出3D的box,再進(jìn)行物體的識(shí)別;也可以用3D的CNN來做。
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

缺點(diǎn):

  • 3D空間的搜索量非常大,計(jì)算量也非常大。
  • 點(diǎn)云的分辨率有限,比較難發(fā)現(xiàn)比較小的物體。
  • RGB or RGB-D image based object detection
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

缺點(diǎn):
RGB圖像:依賴物體大小的先驗(yàn)知識(shí),很難估計(jì)物體的精確位置。
RGB-D圖像:兩個(gè)實(shí)際距離很遠(yuǎn)的點(diǎn)投影到圖像上的距離有可能非常近。
在圖片這種表達(dá)形式下,用2D的CNN還是受到了很大的局限性。
很難精確地估計(jì)物體的深度和大小

Frustum PointNets for 3D Object Detection

2D detectors for region proposal + 3D frustum + PointNets
整體思想:

  • 在二維圖像上檢測(cè)劃定初步的region proposal,用于減少3D空間搜索成本
  • 在劃定的region propoasl上生成相應(yīng)的3D視錐(Frustum),在該視錐內(nèi)對(duì)point cloud用PointNets進(jìn)行深度學(xué)習(xí)得到精確的3D proposal
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

缺點(diǎn):
occlusions and clutters are common in frustum point clouds
3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

key to success

3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)文章來源地址http://www.zghlxwxcb.cn/news/detail-783880.html

  • 歸一化:因?yàn)槭屈c(diǎn)云數(shù)據(jù),所以歸一化只需對(duì)點(diǎn)做矩陣乘法就行了。
    3d點(diǎn)云,3d,計(jì)算機(jī)視覺,深度學(xué)習(xí)

六、Q&A

  • PointNet是不是沒有考慮點(diǎn)之間的關(guān)系?
    PointNet++考慮點(diǎn)之間的關(guān)系了
  • STN的全稱是什么?
    special transformer network
  • 關(guān)鍵點(diǎn)是怎么選取的?
    關(guān)鍵點(diǎn)不是選取的,是我們可視化的,可視化了這個(gè)網(wǎng)絡(luò)選擇了哪些關(guān)鍵點(diǎn)

到了這里,關(guān)于3D點(diǎn)云(3D point cloud)及PointNet、PointNet++的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • [點(diǎn)云配準(zhǔn)]LCD(2D-3D特征配準(zhǔn)算法)例程align_point_cloud.py解析

    [點(diǎn)云配準(zhǔn)]LCD(2D-3D特征配準(zhǔn)算法)例程align_point_cloud.py解析

    跨域描述符LCD可以實(shí)現(xiàn)二維圖片特征點(diǎn)到三維點(diǎn)云特征點(diǎn)的配準(zhǔn),是個(gè)具有通用性的深度學(xué)習(xí)特征描述子。(圖片來源于論文 LCD: Learned Cross-Domain Descriptors for 2D-3D Matching ) 在Github開源的源碼里面給出了利用LCD進(jìn)行 三維點(diǎn)云配準(zhǔn) 的例程。align_point_cloud.py,這里對(duì)例程如何使用

    2024年02月08日
    瀏覽(28)
  • 點(diǎn)云算法好書推薦(3D Point Cloud Analysis 傳統(tǒng)、深度學(xué)習(xí)和可解釋的機(jī)器學(xué)習(xí)方法)附下載鏈接

    點(diǎn)云算法好書推薦(3D Point Cloud Analysis 傳統(tǒng)、深度學(xué)習(xí)和可解釋的機(jī)器學(xué)習(xí)方法)附下載鏈接

    書籍介紹: 本書介紹了點(diǎn)云;它在工業(yè)中的應(yīng)用,以及最常用的數(shù)據(jù)集。它主要關(guān)注三個(gè)計(jì)算機(jī)視覺任務(wù)——點(diǎn)云分類、分割和配準(zhǔn)——這是任何基于點(diǎn)云的系統(tǒng)的基礎(chǔ)。對(duì)傳統(tǒng)點(diǎn)云處理方法的概述有助于讀者快速建立背景知識(shí),而對(duì)點(diǎn)云方法的深度學(xué)習(xí)包括對(duì)過去幾年的突

    2024年02月12日
    瀏覽(35)
  • 使用 PointNet 進(jìn)行3D點(diǎn)集(即點(diǎn)云)的分類

    無序3D點(diǎn)集(即點(diǎn)云)的分類、檢測(cè)和分割是計(jì)算機(jī)視覺中的核心問題。此示例實(shí)現(xiàn)了開創(chuàng)性的點(diǎn)云深度學(xué)習(xí)論文PointNet(Qi 等人,2017)。 如果使用 colab 首先安裝 trimesh? !pip install trimesh 。

    2024年02月07日
    瀏覽(25)
  • PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

    PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

    論文下載地址:https://arxiv.org/abs/1612.00593 代碼開源地址:https://github.com/charlesq34/pointnet 作者以及論文信息如下: 論文作者的公開課鏈接 :https://www.shenlanxueyuan.com/channel/8hQkB6hqr2/detail(大佬的課必須去感受下啊~~) 最近,開始研究基于3D點(diǎn)云的深度學(xué)習(xí)算法。 PointNet 作為基于

    2023年04月15日
    瀏覽(22)
  • PointNet:利用深度學(xué)習(xí)對(duì)點(diǎn)云進(jìn)行3D分類和語義分割

    PointNet:利用深度學(xué)習(xí)對(duì)點(diǎn)云進(jìn)行3D分類和語義分割

    參考自,PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation 代碼倉庫地址為:https://github.com/charlesq34/pointnet/ 介紹 這次介紹的是一個(gè)比較基礎(chǔ)的工作,針對(duì)空間點(diǎn)云,進(jìn)行分類或者語義分割的框架,現(xiàn)在通常也被用作對(duì)RGB-D圖像進(jìn)行特征提取的部分。 該工作的目的就是

    2024年02月03日
    瀏覽(23)
  • 計(jì)算機(jī)圖形學(xué)(三) -- 3D 變換

    計(jì)算機(jī)圖形學(xué)(三) -- 3D 變換

    同樣引入齊次坐標(biāo): 3D 點(diǎn) = ( x , y , z , 1 ) T (x, y, z, 1)^T ( x , y , z , 1 ) T 3D 向量 = ( x , y , z , 0 ) T (x, y, z, 0)^T ( x , y , z , 0 ) T 通常, ( x , y , z , w ) (x, y, z, w) ( x , y , z , w ) (w != 0) 表示一個(gè)坐標(biāo)為 ( x / w , y / w , z / w ) (x/w, y/w, z/w) ( x / w , y / w , z / w ) 的 3D 點(diǎn) 用一個(gè) 4x4 的矩陣來表示

    2024年02月08日
    瀏覽(27)
  • 計(jì)算機(jī)圖形學(xué):繪制一個(gè)3d交互場(chǎng)景(1)

    計(jì)算機(jī)圖形學(xué):繪制一個(gè)3d交互場(chǎng)景(1)

    OpenGL作為一種圖形與硬件的接口,與其他圖形程序開發(fā)工具相比較,它提供了眾多圖形函數(shù),直觀的編程環(huán)境簡(jiǎn)化了三維圖形的繪制過程,使用OpenGL搭建一個(gè)三維場(chǎng)景,能夠通過輸入設(shè)備與場(chǎng)景內(nèi)物體交互。 豪華單間 配置環(huán)境:vs22+freeglut庫 1.繪制墻體使其成為封閉空間,在

    2024年02月11日
    瀏覽(78)
  • 【點(diǎn)云分割】points3d框架學(xué)習(xí)01 —— 安裝和配置

    【點(diǎn)云分割】points3d框架學(xué)習(xí)01 —— 安裝和配置

    [Errno 2] No such file or directory: ‘llvm-config’ 檢查一下 AttributeError: module ‘numpy‘ has no attribute ‘long‘ replace numpy version with error: subprocess-exited-with-error

    2024年02月11日
    瀏覽(44)
  • 【計(jì)算機(jī)視覺|人臉建?!繉W(xué)習(xí)從圖像中回歸3D面部形狀和表情而無需3D監(jiān)督

    【計(jì)算機(jī)視覺|人臉建模】學(xué)習(xí)從圖像中回歸3D面部形狀和表情而無需3D監(jiān)督

    本系列博文為深度學(xué)習(xí)/計(jì)算機(jī)視覺論文筆記,轉(zhuǎn)載請(qǐng)注明出處 標(biāo)題: Learning to Regress 3D Face Shape and Expression from an Image without 3D Supervision 鏈接:[1905.06817] Learning to Regress 3D Face Shape and Expression from an Image without 3D Supervision (arxiv.org) 從單張圖像估計(jì)3D面部形狀必須對(duì)光照、頭部姿勢(shì)

    2024年02月07日
    瀏覽(94)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包