Activating More Pixels in Image Super-Resolution Transformer
(在圖像超分辨率transformer中激活更多的像素)
作者:Xiangyu Chen1,2 , Xintao Wang3 , Jiantao Zhou1 , and Chao Dong2,4
單位:1University of Macau 2Shenzhen Institute of Advanced Technology,
Chinese Academy of Sciences 3ARC Lab, Tencent PCG 4Shanghai AI Laboratory
代碼:GitHub - chxy95/HAT: Activating More Pixels in Image Super-Resolution Transformer文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-460109.html
論文地址:https://arxiv.org/pdf/2205.04437文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-460109.html
一、問(wèn)題與動(dòng)機(jī)
盡管現(xiàn)階段作者發(fā)現(xiàn)一些基于transformer的SR模型獲得了更高的指標(biāo)性能,但由于使用信息的范圍有限,在某些情況下它產(chǎn)生的結(jié)果不如 RCAN。 這些現(xiàn)象說(shuō)Transformer對(duì)局部信息的建模能力更強(qiáng),但其利用信息的范圍有待擴(kuò)大。
到了這里,關(guān)于【HAT】 Activating More Pixels in Image Super-Resolution Transformer的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!