国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

PointMixer論文閱讀筆記

這篇具有很好參考價(jià)值的文章主要介紹了PointMixer論文閱讀筆記。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

MLP-mixer是最近很流行的一種網(wǎng)絡(luò)結(jié)構(gòu),比起Transformer和CNN的節(jié)構(gòu)笨重,MLP-mixer不僅節(jié)構(gòu)簡(jiǎn)單,而且在圖像識(shí)別方面表現(xiàn)優(yōu)異。但是MLP-mixer在點(diǎn)云識(shí)別方面表現(xiàn)欠佳,PointMixer就是在保留了MLP-mixer優(yōu)點(diǎn)的同時(shí),還可以很好的處理點(diǎn)云問題。PointMixer可以很好的處理intra-set, inter-set, hierarchical-set的點(diǎn)云。PointMixer這偏論文還很好的證明了chanel-mixing MLP是比token-mixing MLP效果更好,對(duì)稱encoder和decoder結(jié)構(gòu)能夠更好的處理點(diǎn)云問題。

為了方便論文闡述,做以下規(guī)定:
P是點(diǎn)云的總和
X是點(diǎn)云特性的總和
Y是output特性的總和
pi是i點(diǎn)云的位置
xi是i點(diǎn)云相關(guān)的特性
yi是i點(diǎn)云output的特性
Mi是pi點(diǎn)周圍鄰居點(diǎn)的集合,常表示為Mi = kNN(P, pi)

PointNet++: 使用kNN和最遠(yuǎn)點(diǎn)sampling算法,使用不對(duì)稱的encoder和decoder。PointNet++網(wǎng)絡(luò)不對(duì)整個(gè)點(diǎn)云直接分析,而是locally的處理然后再整合在一起。
yi = maxpooling(MLP(concat(xi, pi - pj)));j是Mi的成員

PointTransformer: 也是使用了kNN的方法
yi = sum(softmax(MLP(W1(xi) - W2(xj) + δ(pi - pj)))(W3(xj) + δ(pi - pj)))
W為linear transformer metric,δ為positional encoding vector。

MLP-Mixer: MLP-mixer分為token-mix MLP和channel-mix MLP, MLP-Mixer使用K個(gè)tokens有C維features, tokens是將圖片分割成小塊。 第一步是token-mixing MLPs, 第二步時(shí)channel-mixing MLP, token mixing是混合空間軸和維度軸到空間軸,channel-mixing是將空間信息轉(zhuǎn)為維度和空間信息。
MLP-Mixer將CNN的兩個(gè)任務(wù)切割開來,不同位置的mix叫token-mixing,同一位置不同channel的mix叫做channel-mixing。
X’ = X + (W2ρ(W1(Layernorm(X))T))T
Y = X’ + W4ρ(W3Layernorm(X’))
W是MLP,ρ是GELU
token-mix MLPs具有轉(zhuǎn)置同變性,所以點(diǎn)云的輸入順序特別重要。需要在token-mix前再加一層轉(zhuǎn)置不變的網(wǎng)絡(luò)。
并且MLP-mixer只能處理inter-set的點(diǎn)云,還有很大的提升空間。
https://zhuanlan.zhihu.com/p/372692759

PointMixer:
sj = g2(concat(g1(xj); δ(pi - pj))); j屬于Mi, g是channel-mix MLP, δ是positional encoding vector
yi = sum(softmax(sj) * g(xj)); 這里的乘法的element-wise
PointMixer的主要?jiǎng)?chuàng)新點(diǎn)是使用了positional embedding, 使用了softmax,不使用token-mix MLP

為什么不使用token-mix? token-mix MLP具有轉(zhuǎn)置同變性的缺點(diǎn),而且token-mix只能使用固定數(shù)量的輸入,但是對(duì)于點(diǎn)云來說,neighbor不是固定的,要用聚類算法。

intra-set mixing 使用最傳統(tǒng)的kNN

inter-set mixing 使用變種的query-kNN

hierarchical-set mixing 使用變種的hierarchical-kNN

對(duì)稱性也表現(xiàn)在kNN的集合里面,encoder和decoder的M集是完全顛倒的。文章來源地址http://www.zghlxwxcb.cn/news/detail-826046.html

到了這里,關(guān)于PointMixer論文閱讀筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 3D卷積網(wǎng)絡(luò)論文閱讀筆記

    3D卷積網(wǎng)絡(luò)論文閱讀筆記

    數(shù)據(jù)集 BraTS 2020 數(shù)據(jù)增強(qiáng)方法 ? Flipping翻轉(zhuǎn): 以1/3的概率隨機(jī)沿著三個(gè)軸之一翻轉(zhuǎn) ? Rotation旋轉(zhuǎn): 從限定范圍(0到 15?或到30?或到60?或到90?)的均勻分布中隨機(jī)選擇角度旋轉(zhuǎn) ? Scale縮放: 通過從范圍為±10%或?yàn)椤?0%的均勻分布中隨機(jī)選擇的因子,對(duì)每個(gè)軸進(jìn)行縮放 ? Br

    2023年04月10日
    瀏覽(26)
  • LIME論文閱讀筆記

    LIME論文閱讀筆記

    這是暗圖增強(qiáng)領(lǐng)域一篇經(jīng)典的傳統(tǒng)方法論文,發(fā)表在TIP這個(gè)頂刊 文章基于的是這樣一個(gè)公式: L = R ? T L=Rcdot T L = R ? T 其中, L L L 是暗圖, R R R 是反射分量, T T T 是illumination map,并且對(duì)于彩色圖像來說,三通道都共享相同的illumination map。我們可以使用各種方法估計(jì) T

    2024年02月09日
    瀏覽(27)
  • 論文閱讀筆記(一)

    論文閱讀筆記(一)

    發(fā)表年份: 2016 主要貢獻(xiàn): 提出了Multimodal Opinion-level Sentiment Intensity (MOSI) 數(shù)據(jù)集 提出了多模態(tài)情緒分析未來研究的基線 提出了一種新的多模態(tài)融合方式 在這些在線意見視頻中研究情緒主要面臨的挑戰(zhàn)和解決方法: 挑戰(zhàn) 解決方法 這些視頻的不穩(wěn)定性和快節(jié)奏性。演講者經(jīng)

    2023年04月09日
    瀏覽(23)
  • Retinexformer 論文閱讀筆記

    Retinexformer 論文閱讀筆記

    清華大學(xué)、維爾茲堡大學(xué)和蘇黎世聯(lián)邦理工學(xué)院在ICCV2023的一篇transformer做暗圖增強(qiáng)的工作,開源。 文章認(rèn)為,Retinex的 I = R ⊙ L I=Rodot L I = R ⊙ L 假設(shè)干凈的R和L,但實(shí)際上由于噪聲,并不干凈,所以分別為L(zhǎng)和R添加干擾項(xiàng),把公式改成如下: 本文采用先預(yù)測(cè) L  ̄ overline L

    2024年01月21日
    瀏覽(24)
  • GPT-3 論文閱讀筆記

    GPT-3 論文閱讀筆記

    GPT-3模型出自論文《Language Models are Few-Shot Learners》是OpenAI在2020年5月發(fā)布的。 論文摘要翻譯 :最近的工作表明,通過對(duì)大量文本進(jìn)行預(yù)訓(xùn)練,然后對(duì)特定任務(wù)進(jìn)行微調(diào)(fine-tuning),在許多NLP任務(wù)和基準(zhǔn)測(cè)試上取得了實(shí)質(zhì)性的進(jìn)展。雖然這種方法在架構(gòu)上通常與任務(wù)無關(guān),但它

    2024年02月12日
    瀏覽(29)
  • 論文閱讀筆記2:NetVLAD

    題目:NetVLAD: CNN Architecture for Weakly Supervised Place Recognition:、 團(tuán)隊(duì): PSL Research University/Tokyo Institute of Technology 解決的問題: 我們解決了大規(guī)模視覺位置識(shí)別的問題,其任務(wù)是快速準(zhǔn)確地識(shí)別給定查詢照片的位置 創(chuàng)新點(diǎn): 這篇文章主要有3個(gè)創(chuàng)新點(diǎn): 1. 為場(chǎng)景識(shí)別任務(wù)構(gòu)造出

    2024年02月11日
    瀏覽(25)
  • 論文閱讀筆記整理(持續(xù)更新)

    FAST 2021 Paper?泛讀筆記 針對(duì)LSM樹同時(shí)優(yōu)化讀寫性能的問題,現(xiàn)有方法通過壓縮提升讀性能,但會(huì)導(dǎo)致讀放大或?qū)懛糯?。作者利用新存?chǔ)硬件的性能,隨機(jī)讀和順序讀性能相近,因此提出構(gòu)建邏輯排序視圖優(yōu)化范圍查詢,因?yàn)闇p少了真正的壓縮操作,同時(shí)減少了寫放大。 ATC 2

    2024年01月23日
    瀏覽(54)
  • InstructGPT 論文閱讀筆記

    InstructGPT 論文閱讀筆記

    目錄 簡(jiǎn)介 數(shù)據(jù)集? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? 詳細(xì)實(shí)現(xiàn) 實(shí)驗(yàn)結(jié)果 參考資料 InstructGPT 模型是在論文《Training language models to follow instructions with human feedback》被提出的,OpenAI在2022年1月發(fā)布了這篇文章。 論文摘要翻譯 :把語言模型做得更大并不意味著讓它們更好的遵循

    2024年02月01日
    瀏覽(31)
  • GAN 論文閱讀筆記(6)

    GAN 論文閱讀筆記(6)

    原論文:MyStyle++: A Controllable Personalized Generative Prior 發(fā)表于:CVPR2023 注:本篇論文為 《MyStyle: A Personalized Generative Prior》 的改進(jìn),當(dāng)遇到不理解的地方可以參照前一篇閱讀筆記 圖 1:MyStyle++ 在圖像合成,編輯和增強(qiáng)上的表現(xiàn) 1:MyStyle MyStyle 是一種 GAN 模型的改進(jìn)模型。其打算

    2024年01月18日
    瀏覽(28)
  • NeRF+SLAM論文閱讀筆記

    NeRF+SLAM論文閱讀筆記

    input: RGB-D contribution: 1.場(chǎng)景表示:多分辨率哈希網(wǎng)格(加速保留高頻特征) 2.編碼方式:one-blob(提升未觀察到區(qū)域的補(bǔ)全能力和一致性)編碼方式根據(jù)場(chǎng)景表示(hash網(wǎng)格)制定 3.改進(jìn)關(guān)鍵幀:支持在所有關(guān)鍵幀上執(zhí)行BA Related Work iMap:由于實(shí)時(shí)性的要求,iMap使用系數(shù)采樣

    2024年02月09日
    瀏覽(51)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包