AutoFed:面向異構(gòu)數(shù)據(jù)的聯(lián)邦多模態(tài)自動(dòng)駕駛的學(xué)習(xí)框架
注1:本文系“概念解析”系列之一,致力于簡(jiǎn)潔清晰地解釋、辨析復(fù)雜而專業(yè)的概念。本次辨析的概念是:面向異構(gòu)數(shù)據(jù)的聯(lián)邦學(xué)習(xí)在自動(dòng)駕駛中的應(yīng)用。
參考文獻(xiàn):Zheng T, Li A, Chen Z, et al. AutoFed: Heterogeneity-Aware Federated Multimodal Learning for Robust Autonomous Driving[J]. arXiv preprint arXiv:2302.08646, 2023.
背景介紹
自動(dòng)駕駛技術(shù)正處于快速發(fā)展的階段,目標(biāo)是提供更高的安全性、更少的有害排放、更大的道路容量和更短的行程時(shí)間等廣泛的好處。自動(dòng)駕駛的核心是感知能力,即能夠檢測(cè)道路上的對(duì)象(如車輛、自行車、標(biāo)志和行人等),這為路徑規(guī)劃和行動(dòng)決策提供可解釋的依據(jù)。正式來(lái)說(shuō),美國(guó)汽車工程師學(xué)會(huì)(SAE)要求3-5級(jí)自動(dòng)駕駛系統(tǒng)能夠在各種道路和天氣條件下監(jiān)控環(huán)境并檢測(cè)對(duì)象。為達(dá)到這些目標(biāo),汽車上安裝的多個(gè)傳感器(如激光雷達(dá)、雷達(dá)和攝像頭)可以協(xié)同工作,提供周邊環(huán)境的互補(bǔ)和實(shí)時(shí)信息。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-626689.html
為了充分利用不同傳感器提供的豐富多模態(tài)信息,許多之前的工作采用了深度學(xué)習(xí)進(jìn)行多模態(tài)融合和模式識(shí)別,以進(jìn)行準(zhǔn)確可靠的目標(biāo)檢測(cè)。 主流的目標(biāo)檢測(cè)方法基于兩階段法,其中首先生成感興趣區(qū)域候選框,然后進(jìn)行目標(biāo)分類和邊界框回歸來(lái)細(xì)化候選框。盡管目標(biāo)檢測(cè)可以處理不同的視角,但本文專注于鳥(niǎo)瞰圖,因?yàn)樗院侠淼牡统杀菊{(diào)解了不同傳感模式之間的視角差異。但是,即使有這種成本降低,目標(biāo)檢測(cè)與基礎(chǔ)學(xué)習(xí)任務(wù)(如分類)之間的根本區(qū)別仍導(dǎo)致其神經(jīng)網(wǎng)絡(luò)模型參數(shù)遠(yuǎn)遠(yuǎn)大于正常參數(shù),使其訓(xùn)練難以收斂,更不用說(shuō)我們還要訓(xùn)練多個(gè)分布式模型。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-626689.html
到了這里,關(guān)于概念解析 | AutoFed:面向異構(gòu)數(shù)據(jù)的聯(lián)邦多模態(tài)自動(dòng)駕駛的學(xué)習(xí)框架的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!