論文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Cho_Learning_Adaptive_Dense_Event_Stereo_From_the_Image_Domain_CVPR_2023_paper.html
概述
??事件相機在低光照條件下可以穩(wěn)定工作,然而,基于事件相機的立體方法在域遷移時性能會嚴(yán)重下降。無監(jiān)督領(lǐng)域自適應(yīng)作為該問題的一種解決方法,傳統(tǒng)的無監(jiān)督自適應(yīng)方法依賴于源域的標(biāo)簽值,但源域的視差標(biāo)簽值難以獲取。針對該問題,文中提出一種新的無監(jiān)督域自適應(yīng)密集時間立體匹配方法(ADES)用于緩解目標(biāo)域域源域之間的域偏差導(dǎo)致的模型性能下降問題。首先,文中提出一種自監(jiān)督模塊通過圖像重建來訓(xùn)練在目標(biāo)域的模型。與此同時,在源域上訓(xùn)練一個涂抹預(yù)測網(wǎng)絡(luò)協(xié)助去除重建圖像中的間歇性偽影。使用一個特征的歸一化策略來沿著極線對齊匹配特征。最后,使用一個運動不變的一致性模塊來在擾動運動之間實現(xiàn)一致性輸出。實驗結(jié)果表明,該模型在從普通圖像域到事件相機圖像域立體匹配的適應(yīng)性上得到提升。文章來源:http://www.zghlxwxcb.cn/news/detail-757269.html
模型架構(gòu)
??模型主要包含三個部分:涂抹感知自監(jiān)督模塊、特征正則化、運動不變的一致性模塊。文章來源地址http://www.zghlxwxcb.cn/news/detail-757269.html
到了這里,關(guān)于論文閱讀《Learning Adaptive Dense Event Stereo from the Image Domain》的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!