国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

多傳感器融合算法-后融合

這篇具有很好參考價值的文章主要介紹了多傳感器融合算法-后融合。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

??自動駕駛系統通常由定位、環(huán)境感知和規(guī)劃控制等模塊組成,近年來主流的環(huán)境感知傳感器包括攝像頭、激光雷達毫米波雷達、超聲波雷達等。不同種類傳感器由于其探測原理不同,所具備的優(yōu)劣勢也有所差異,且現階段單一種類的傳感器往往很難覆蓋所有場景,為了使感知層獲得的信息更為豐富、準確,通常需要將不同傳感器的數據進行融合。
多傳感器怎么融合,多傳感器融合感知,算法
??多傳感器融合(Multi-sensor Fusion, MSF)是指借助計算機和數據處理技術,將來自多傳感器或者多源的數據以一定準則進行分析綜合,增強整個傳感器信息系統信息利用率的方法。根據數據融合方式的不同,主要可以分為前融合和后融合。前融合主要是指數據/特征層次的融合,優(yōu)點在于數據利用更加充分;而后融合主要是指目標/結果層次的融合,優(yōu)點在于處理相對簡單,運行效率更高。
??本文主要是對近期學習的感知-后融合模塊進行簡單介紹,僅做自學用途,如果不對之處歡迎大家留言溝通。
多傳感器怎么融合,多傳感器融合感知,算法
多傳感器怎么融合,多傳感器融合感知,算法
??這里多模數據選取激光雷達(LiDAR)、相機(Camera)和毫米波雷達(Radar)。利用算法進行多傳感器數據融合,輸出更加穩(wěn)定可靠的感知結果。

  • LiDAR:原始數據為三維空間點云數據,通過對其進行3D檢測和分割,以及多目標跟蹤,得到3D空間的目標元素;
  • Camera:原始數據為圖像,通過對其進行2D的檢測,得到2D空間的目標元素;
  • Radar:原始數據為稀疏的二維離散點云,但具備徑向速度信息,通過對其進行數據處理,得到2.5D的目標元素。

1. 后融合系統輸入輸出解析

??輸入主要包括LiDAR、Camera和Radar的檢測處理結果。

傳感器類型 處理流程 輸出結果形式
LiDAR 3D檢測任務:多傳感器怎么融合,多傳感器融合感知,算法 輸出為LiDARObject形式的列表:多傳感器怎么融合,多傳感器融合感知,算法
3D分割任務:多傳感器怎么融合,多傳感器融合感知,算法 輸出為點云或者Polygons形式數據:多傳感器怎么融合,多傳感器融合感知,算法
Camera 2D檢測任務:多傳感器怎么融合,多傳感器融合感知,算法 輸出為CameraObject形式的列表:多傳感器怎么融合,多傳感器融合感知,算法
2D分割任務:多傳感器怎么融合,多傳感器融合感知,算法 輸出為帶標簽的同尺寸Image數據:多傳感器怎么融合,多傳感器融合感知,算法
Radar 檢測任務:多傳感器怎么融合,多傳感器融合感知,算法 輸出為RadarObejct形式的列表:多傳感器怎么融合,多傳感器融合感知,算法

??輸出主要是3D空間下完整的boundingbox目標及其語義信息。
多傳感器怎么融合,多傳感器融合感知,算法

2. 后融合系統問題建模

融合系統的核心是希望對不同模態(tài)的傳感器數據進行綜合處理,提高傳感器系統的信息豐富度,輸出更加穩(wěn)定可靠的感知結果。
  1. 從上述后融合系統的輸入輸出角度來看,需要將多傳感器獲取的觀測量與待估計的目標狀態(tài)量進行融合,由此可以將問題轉化為系統的狀態(tài)估計問題。
  2. 不同傳感器的數據采集頻率和數據處理的耗時不同,使得各模態(tài)數據結果接入到后融合模塊的時間通常也是存在差異的,由此也會導致時空對齊的問題。
  3. 通常傳感器單幀數據中會存在多個目標,如何將不同傳感器觀測到的目標及單個傳感器幀和幀之間的目標信息關聯起來,由此也就涉及目標匹配問題。

多傳感器怎么融合,多傳感器融合感知,算法

3. 后融合系統結構設計

??針對上述多傳感器后融合中涉及到的三個問題:多觀測條件下的系統狀態(tài)估計問題、時空對齊(預測)問題、目標匹配問題,進行多傳感器后融合系統結構的設計構建。
多傳感器怎么融合,多傳感器融合感知,算法

3.1 預測-時空問題

??通常LiDAR的頻率為10hz,Camera為30+hz,Radar為20hz。假設狀態(tài)量是100ms更新一次,則在兩次狀態(tài)量之間,狀態(tài)量相對于新到來的觀測量在時空維度上都是滯后的,因此需要時空對齊,保證狀態(tài)量與觀測量在融合時是一致的。由于要做的工作是時空對齊,因此只需要關注引起空間位置變換的狀態(tài)量和觀測量即可:

  • 位姿狀態(tài):如yaw和yaw_rate;
  • 運動狀態(tài):如位置、速度和加速度。

對齊方法
??對于不同頻率的LiDAR、Camera、Radar檢測結果,將其輸入到預測模塊中,根據自車的運動和目標的狀態(tài)估計,進行時空對齊,使得融合時的狀態(tài)量和觀測量是位于同一時空下的。原則上下述兩種方式均可以,但更推薦方式一,原因是State本身是基于多傳感器數據的得到的狀態(tài)量,精度上比各單傳感器精度更高,預測誤差也更小。

方式一:將 t-1 時刻的狀態(tài) S t a t e t ? 1 State_{t-1} Statet?1? 對齊到 t 時刻的各傳感器觀測量( M e a t L i D A R Mea^{LiDAR}_{t} MeatLiDAR? 、 M e a t C a m e r a Mea^{Camera}_{t} MeatCamera? 、 M e a t R a d a r Mea^{Radar}_{t} MeatRadar?) 處;

方式二:將 t 時刻的各傳感器觀測量( M e a t L i D A R Mea^{LiDAR}_{t} MeatLiDAR? M e a t C a m e r a Mea^{Camera}_{t} MeatCamera? 、 M e a t R a d a r Mea^{Radar}_{t} MeatRadar?)對齊到 t-1 時刻的狀態(tài) S t a t e t ? 1 State_{t-1} Statet?1? 處;
多傳感器怎么融合,多傳感器融合感知,算法

3.2目標關聯-匹配問題

??不同傳感器經處理后得到的目標維度也不盡相同,那么如何進行目標級對象的匹配呢?首先,需要明確的是,融合的目的是希望通過多傳感器(LiDAR + Camera + Radar)的目標數據,得到不同時刻下同一目標的3D bounding box信息。當然,如果只有Camera + Radar,則融合得到的可能是2D 的bounding box及其對應的距離、速度信息,但最終的目的還是希望得到3D 的bounding box信息。

3.2.1 目標級對象匹配算法—關聯的度量

??以LiDAR + Camera + Radar融合為例:三者融合之后得到的目標狀態(tài)量通常為完整的 3D bounding box,估狀態(tài)量與觀測量之間的匹配度量可以表示如下:
多傳感器怎么融合,多傳感器融合感知,算法

  1. LiDAR觀測量 與 3D bounding box

??通常LiDAR輸入的觀測量也會3D bounding box,因此兩者之間的匹配可以通過計算兩個目標 3D bounding box之間的交并比** IoU(Intersection over Union)** 來度量。
d = 3 D I o U ( b b o x 3 D , 1 , b b o x 3 D , 2 ) d =3DIoU(bbox_{3D,1}, bbox_{3D,2}) d=3DIoU(bbox3D,1?,bbox3D,2?)

  1. Camera 觀測量 與 3D bounding box

??通常Camera輸入的觀測量是2D bounding box,而狀態(tài)量是3D bounding box,因此需要先將 3D bounding box 投影到圖像上以獲取其 2D bounding box信息,然后計算兩個2D bounding box 的 IoU 來度量。
d = 2 D I o U ( P r o j e c t ( b b o x 3 D , 1 ) , b b o x 2 D , 1 ) d = 2DIoU(Project(bbox_{3D,1}), bbox_{2D,1}) d=2DIoU(Project(bbox3D,1?),bbox2D,1?)

  1. Radar觀測量 與 3D bounding box

??通常毫米波雷達輸入的觀測量沒有尺寸和高度信息(這里暫不考慮4D毫米波雷達,僅以L2常用車載毫米波雷達為例),因此通常認為其檢測到的目標點處于3D bounding box 內部時,及認為滿足匹配要求。
d = { ∣ x ′ ? x ∣ < l e g n t h ∣ y ′ ? y ∣ < w i d t h d= \begin{cases} |x' - x| < legnth \\ |y' - y| < width \end{cases} d={x?x<legnthy?y<width?

3.2.2目標級對象匹配算法—幀間匹配算法

??通常每幀數據檢測出的Object可能會有若干個,而為了實現不同模態(tài)檢測結果的融合,勢必設計到Object集合之間的匹配問題,即下圖中紅色點和綠色點的匹配。
多傳感器怎么融合,多傳感器融合感知,算法
??一般而言,待匹配的目標是帶有權重的(如單個紅色與其他任意綠色點之間的權重可以通過前面提到的目標關聯的度量值來表示),這樣幀間的目標匹配工作就可以轉化成兩個帶權重集合的匹配問題。假設有兩個目標點集 f ( O ) t ? 1 = { x 0 , x 1 , x 2 , x 3 , x 4 } 和 f ( O ) t = { y 0 , y 1 , y 2 , y 3 , y 4 } f(O)_{t-1} = \{x_0,x_1,x_2,x_3,x_4\} 和 f(O)_t = \{y_0, y_1, y_2,y_3,y_4\} f(O)t?1?={x0?,x1?,x2?,x3?,x4?}f(O)t?={y0?,y1?,y2?,y3?,y4?} 需要進行匹配。對于目標x0 而言,如果取最大權重的y4 與之對應,則會出現一個目標匹配多個對象的情況,如下圖所示。
多傳感器怎么融合,多傳感器融合感知,算法
??對于這種帶權二分圖最優(yōu)匹配問題,可以考慮使用KM算法(Kuhn-Munkres Algorithm)。待補充。。。

3.3 狀態(tài)估計問題

??多傳感器融合的數學本質:在輸入、輸出和狀態(tài)空間已知的條件下,獲取系統狀態(tài)最優(yōu)估計。
??經過前面的時空對齊和目標關聯處理之后,已經可以拿到時空對齊后的 t-1 時刻目標狀態(tài)量、t 時刻的目標觀測量,以及狀態(tài)量和觀測量之間的目標匹配關系了?,F在就需要在已知這些信息的基礎上,對目標狀態(tài)量進行更新,獲取 t時刻 下目標狀態(tài)的最優(yōu)估計量。
首先需要進行融合信息的拆解,融合對象包括目標級的運動屬性融合(位置、速度、角速度、加速度等)、語義級的對象融合(位置、屬性)以及目標級其他屬性融合(尺寸、類型等),各部分融合都可以單獨看做狀態(tài)估計問題。
多傳感器怎么融合,多傳感器融合感知,算法

3.3.1 狀態(tài)估計問題的求解思路

??假設系統 k 時刻的觀測量為 z k z_k zk?,狀態(tài)量為 x k x_k xk? ,這兩個變量是符合某種分布的隨機變量,且兩者不相互獨立。目的是需要根據初始狀態(tài)量和觀測量,獲取當前 k 時刻的狀態(tài)量 P ( x k ∣ x 0 , z 1 : k ) P(x_k|x_0,z_{1:k}) P(xk?x0?,z1:k?)。根據貝葉斯法則,將系統狀態(tài)的概率求解拆分如下:
P ( x k ∣ x 0 , z 1 : k ) ∝ P ( z k ∣ x k ) P ( x k ∣ x 0 , z 1 : k ? 1 ) P(x_k|x_0,z_{1:k}) ∝P(z_k|x_k)P(x_k|x_0,z_{1:k-1}) P(xk?x0?,z1:k?)P(zk?xk?)P(xk?x0?,z1:k?1?)
對于上述,可以采取如下兩類解法:

解法一:假設系統 滿足馬爾可夫性質,即 x k x_k xk? 僅與 x k ? 1 x_{k-1} xk?1? 有關,與更早的狀態(tài)無關;
多傳感器怎么融合,多傳感器融合感知,算法
??基于上述假設,系統狀態(tài)的概率求解,可進一步簡化為:
P ( x k ∣ x 0 , z 1 : k ) ∝ P ( z k ∣ x k ) P ( x k ∣ x k ? 1 ) P(x_k|x_0,z_{1:k}) ∝P(z_k|x_k)P(x_k|x_{k-1}) P(xk?x0?,z1:k?)P(zk?xk?)P(xk?xk?1?)
其中:

  • P ( z k ∣ x k ) P(z_k|x_k) P(zk?xk?)似然項,可由觀測方程給出。(似然項是指結果已知的情況下,該事件在不同條件下發(fā)生的可能性);
  • P ( x k ∣ x k ? 1 ) P(x_k|x_{k-1}) P(xk?xk?1?)先驗項,可通過狀態(tài)轉移方程得到。(先驗項是指根據歷史規(guī)律推測該事件發(fā)生的可能性)。
  • 這類問題可用濾波器相關算法解決,如卡爾曼濾波KF/EKF。

解法二:假設 k 時刻狀態(tài)與之前時刻的狀態(tài)相關;
多傳感器怎么融合,多傳感器融合感知,算法
??基于上述假設,根據狀態(tài)受歷史狀態(tài)影響的不同,又可以進一步分為兩種:

  • k 時刻的狀態(tài)與之前所有時刻相關:

P ( x k ∣ x 0 , z 1 : k ) = P ( x 1 : k ∣ x 0 , z 1 : k ) P(x_k|x_0,z_{1:k}) = P(x_{1:k}|x_0,z_{1:k}) P(xk?x0?,z1:k?)=P(x1:k?x0?,z1:k?)

  • k 時刻的狀態(tài)與前 s 個時刻相關:

P ( x k ∣ x 0 , z 1 : k ) = P ( x k ? s : k ∣ x 0 , z 1 : k ) P(x_k|x_0,z_{1:k})=P(x_{k-s:k}|x_0,z_{1:k}) P(xk?x0?,z1:k?)=P(xk?s:k?x0?,z1:k?)
??這類問題可用非線性優(yōu)化方法來求解之前所有時刻的系統狀態(tài) x 1 : k x_{1:k} x1:k? 。

3.3.2 狀態(tài)估計問題求解:卡爾曼濾波器

??卡爾曼濾波是一種時域遞推算法,能夠根據上一時刻狀態(tài)的估計值和當前時刻狀態(tài)的觀測值推測出當前時刻狀態(tài)的最優(yōu)值,是一種能排除隨機干擾,提高測量精度的方法。
首先需要進行狀態(tài)方程觀測方程的構建,先明確幾個變量的含義:

  • x k x_k xk?— 系統狀態(tài)的真實值(通常無法得到);
  • x k ˉ \bar{x_k} xk?ˉ?— 系統狀態(tài)的預測值(可以通過狀態(tài)轉移方程及上一時刻狀態(tài)估計值 x k ? 1 ^ \hat{x_{k-1}} xk?1?^?得到,也叫先驗狀態(tài));
  • x k ^ \hat{x_k} xk?^?— 系統狀態(tài)的估計值(可以通過預測量及觀測量聯合估計得到,也叫后驗狀態(tài))。
狀態(tài)方程的構建:

??假設 k 時刻系統的狀態(tài)量為 x k x_k xk? ,包含位置和速度信息: x k = [ p k v k ] x_k= \begin{bmatrix}p_k\\v_k\\ \end{bmatrix} xk?=[pk?vk??],同時引入 x k = [ Σ p p Σ p v Σ v p Σ v v ] x_k= \begin{bmatrix} \Sigma_{pp} & \Sigma_{pv}\\ \Sigma_{vp}& \Sigma_{vv}\\ \end{bmatrix} xk?=[Σpp?Σvp??Σpv?Σvv??]來表示 x k x_k xk? 各成員的不確定性和各維度之間的相關關系。
其中: Σ p p \Sigma_{pp} Σpp? Σ v v \Sigma_{vv} Σvv?為狀態(tài)分量的方差, Σ p v \Sigma_{pv} Σpv? Σ v p \Sigma_{vp} Σvp?描述 pv 之間的協方差。
多傳感器怎么融合,多傳感器融合感知,算法
??在已知 k-1 時刻狀態(tài)量 x k ? 1 x_{k-1} xk?1? 情況下,如何預測 k 時刻的狀態(tài) x k x_k xk? ,也就是狀態(tài)方程的構建。 這里可以通過運動學模型來構建狀態(tài)方程,假設系統短時間內滿足勻速運動的條件,那么

x k ˉ = [ 1 Δ t 0 1 ] x ^ k ? 1 = F k x ^ k ? 1 \bar{x_k} = \begin{bmatrix} 1 & \Delta t\\ 0& 1\\ \end{bmatrix} \hat{x}_{k-1} = F_k \hat{x}_{k-1} xk?ˉ?=[10?Δt1?]x^k?1?=Fk?x^k?1?
其中:

  • x k ˉ \bar{x_k} xk?ˉ?為 k 時刻系統狀態(tài)的先驗分布

  • x ^ k ? 1 \hat{x}_{k-1} x^k?1?為k-1 時刻系統狀態(tài)的后驗分布

  • F k F_k Fk?為狀態(tài)轉移矩陣
    ??進一步,如果系統存在外部干預 u k u_k uk? 以及考慮系統噪聲 w k w_k wk? 時,該怎樣對系統狀態(tài)轉換關系進行建模?
    x k ˉ = F k x ^ k ? 1 + B k u k + w k \bar{x_k} = F_k \hat{x}_{k-1} +B_ku_k +w_k xk?ˉ?=Fk?x^k?1?+Bk?uk?+wk?
    其中:

  • u k u_k uk?表示外部輸入

  • B k B_k Bk?表示外部輸入與系統狀態(tài)變化的轉換關系矩陣

  • w k ~ N ( 0 , Q k ) w_k\sim N(0, Q_k) wk?N(0,Qk?)— 高斯噪聲

??同樣的,基于誤差協方差傳播定律,預測得到的先驗狀態(tài)量的誤差協方差可以表示為:
多傳感器怎么融合,多傳感器融合感知,算法
考慮過程噪聲 w k w_k wk?的影響,先驗狀態(tài)量 x k ˉ \bar{x_k} xk?ˉ?的誤差協方差 P k ˉ \bar{P_k} Pk?ˉ?
P k ˉ = F k P ^ k ? 1 F k T + Q k \bar{P_k} = F_k\hat{P}_{k-1}F_k^T+Q_k Pk?ˉ?=Fk?P^k?1?FkT?+Qk?

觀測方程的構建:

??假設通過一些傳感器得到了系統 k 時刻的觀測量 z k z_k zk?,而觀測量與狀態(tài)量可能不是同一種表現形式下,需要通過線性變化H 來轉換得到。
z k = H k x k z_k=H_kx_k zk?=Hk?xk?
進一步,傳感器本身是存在觀測誤差的,考慮觀測的高斯噪聲 v k ~ N ( 0 , R k ) v_k\sim N(0, R_k) vk?N(0,Rk?)情況下,可以整理為:
z k = H k x k + v k z_k=H_kx_k+v_k zk?=Hk?xk?+vk?
即認為觀測量 z k z_k zk?是 k 時刻的系統真實狀態(tài) x k x_k xk?經過線性變換H,再加上高斯噪聲得到的。
同樣的,之前通過狀態(tài)方程預測得到的 x k ˉ \bar{x_k} xk?ˉ?也可以經過線性變化轉換到觀測量 z k z_k zk?所在的維度。這樣我們就拿到了兩個表示 k 時刻系統的狀態(tài)量(觀測域下):先驗狀態(tài) H k x k ˉ H_k\bar{x_k} Hk?xk?ˉ?和觀測量 z k z_k zk?,現在就需要根據這兩個帶有噪聲的狀態(tài)量來對 k 時刻系統真正的狀態(tài)量進行估計。

卡爾曼濾波原理的推導:

??常見的有兩種方法,一種是利用高斯乘積定理和貝葉斯公式推導,可以參考:卡爾曼濾波基本公式推導(高斯乘積法);一種是基于方差最小準則進行推導,可以參考:卡爾曼增益推導。此處不再贅述。

卡爾曼濾波的工作過程:
  • 多傳感器怎么融合,多傳感器融合感知,算法

??總的來說,卡爾曼濾波器的工作流程分為預測和更新兩部分:

  • 預測:

    • 輸入:過去的最優(yōu)狀態(tài) ( x ^ k ? 1 , P k ^ ) (\hat{x}_{k-1}, \hat{P_k}) (x^k?1?,Pk?^?),外界對過程的影響 u k u_k uk?,環(huán)境的不確定度 Q k Q_k Qk?
    • 輸出:預測的當前時刻系統狀態(tài) ( x ˉ k , P k ˉ ) (\bar{x}_{k}, \bar{P_k}) (xˉk?,Pk?ˉ?);
    • 其他:對過程的描述轉換 ( F k , B k ) (F_k,B_k) (Fk?,Bk?),與時間有關;
      x k ˉ = F k x ^ k ? 1 + B k u k (1) \tag{1} \bar{x_k} = F_k \hat{x}_{k-1} +B_ku_k xk?ˉ?=Fk?x^k?1?+Bk?uk?(1)
      P k ˉ = F k P ^ k ? 1 F k T + Q k (2) \tag{2} \bar{P_k} = F_k\hat{P}_{k-1}F_k^T+Q_k Pk?ˉ?=Fk?P^k?1?FkT?+Qk?(2)
  • 更新:

    • 輸入:預測的當前時刻系統狀態(tài) ( x ˉ k , P k ˉ ) (\bar{x}_{k}, \bar{P_k}) (xˉk?,Pk?ˉ?),觀測值的狀態(tài) ( z k , R k ) (z_k,R_k) (zk?,Rk?),狀態(tài)量到觀測量維度的變換矩陣 H k H_k Hk?;
    • 輸出:經過觀測值修正后的最優(yōu)估計狀態(tài) ( x ^ k , P k ^ ) (\hat{x}_{k}, \hat{P_k}) (x^k?,Pk?^?);
      K = P k ˉ H k T ( H k P k ˉ H k T + R k ) ? 1 (3) \tag{3} K = \bar{P_k}H_k^T(H_k\bar{P_k}H_k^T+R_k)^{-1} K=Pk?ˉ?HkT?(Hk?Pk?ˉ?HkT?+Rk?)?1(3)
      x k ^ = x k ˉ + K ( z k ? H k x k ˉ ) (4) \tag{4} \hat{x_k} = \bar{x_k} + K(z_k-H_k\bar{x_k}) xk?^?=xk?ˉ?+K(zk??Hk?xk?ˉ?)(4)
      P k ^ = P k ˉ ? K H k P k ˉ = ( I ? K H k ) P k ˉ (5) \tag{5} \hat{P_k} = \bar{P_k}-KH_k\bar{P_k}=(I-KH_k)\bar{P_k} Pk?^?=Pk?ˉ??KHk?Pk?ˉ?=(I?KHk?)Pk?ˉ?(5)
      ??補充:因卡爾曼濾波本身是基于線性馬爾科夫性質進行求解的,當狀態(tài)方程和觀測方程不不滿足線性系統時,可以考慮使用擴展卡爾曼濾波。主要差別在于,需要將原有狀態(tài)方程中的狀態(tài)轉移矩陣 F k F_k Fk?和觀測方程中的測量矩陣 H k H_k Hk?進行線性轉換才可以使用。通過泰勒公式一階展開來對其進行局部線性化展開,進而來實現線性系統的狀態(tài)估計。展開過程可參考如下:
      多傳感器怎么融合,多傳感器融合感知,算法

3.3.3狀態(tài)估計-目標級運動屬性融合建模

運動方程
??在自動駕駛系統中,通常假設對象滿足勻加速/勻速旋轉運動,狀態(tài)轉移方程(運動方程)如下:
x k = = F k x k ? 1 + B k u k + w k x_k = = F_k x_{k-1} +B_ku_k +w_k xk?==Fk?xk?1?+Bk?uk?+wk?
其中, F k F_k Fk?為狀態(tài)轉移矩陣, u k u_k uk?k 時刻系統的輸入量(通常為0), w k ~ N ( 0 , Q k ) w_k\sim N(0, Q_k) wk?N(0,Qk?),則可進一步簡化為:
x k = = F k x k ? 1 + w k x_k = = F_k x_{k-1} +w_k xk?==Fk?xk?1?+wk?多傳感器怎么融合,多傳感器融合感知,算法
觀測方程
??在自動駕駛系統中,通常假設對象滿足勻加速/勻速旋轉運動,觀測方程如下:
z k = H k x k + v k z_k=H_kx_k+v_k zk?=Hk?xk?+vk?
其中, H k H_k Hk?為觀測矩陣, v k v_k vk?為觀測噪聲, v k ~ N ( 0 , R k ) v_k\sim N(0, R_k) vk?N(0,Rk?)。多傳感器怎么融合,多傳感器融合感知,算法

3.3.4 狀態(tài)估計-語義級對象融合建模

多傳感器怎么融合,多傳感器融合感知,算法

3.3.5 狀態(tài)估計-目標級其它屬性融合

多傳感器怎么融合,多傳感器融合感知,算法

3.3.6關于卡爾曼濾波建模中的噪聲協方差

多傳感器怎么融合,多傳感器融合感知,算法文章來源地址http://www.zghlxwxcb.cn/news/detail-858358.html

參考資料:
  1. 多傳感器融合系列之感知后融合_多傳感器融合感知-CSDN博客
  2. 自動駕駛感知——多傳感器融合技術_汽車多傳感器融合-CSDN博客
  3. 多傳感器融合感知-深藍學院 - 專注人工智能與自動駕駛的學習平臺
  4. (三十九)通俗易懂理解——卡爾曼濾波與擴展卡爾曼濾波

到了這里,關于多傳感器融合算法-后融合的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 自動駕駛定位算法:基于多傳感器融合的狀態(tài)估計(muti-Sensors Fusion)

    自動駕駛定位算法:基于多傳感器融合的狀態(tài)估計(muti-Sensors Fusion)

    1、傳感器(Sensor)選取 自動駕駛系統中用于狀態(tài)估計(State?Estimation)的常用傳感器包括GPS/GNSS、IMU、激光雷達(Lidar)。 狀態(tài)估計(State?Estimation)選用傳感器需要考慮哪些因素: 1)誤差不相關性。也就是說,用于Sensor?Fusion的傳感器其中單個傳感器(Sensor?Measurement)測量失敗,不會導

    2024年04月13日
    瀏覽(28)
  • 自動駕駛感知傳感器標定安裝說明

    自動駕駛感知傳感器標定安裝說明

    1. 概述 本標定程序為整合現開發(fā)的高速車所有標定模塊,可實現相機內參標定和激光、相機、前向毫米波 至車輛后軸中心標定,標定參數串聯傳遞并提供可視化工具驗證各個模塊標定精度。整體標定流程如下,標定順序為下圖前標0--1--2--3,相同編號標定順序沒有強制要求,

    2024年02月11日
    瀏覽(35)
  • 多傳感器融合定位十五-多傳感器時空標定(綜述)

    多傳感器融合定位十五-多傳感器時空標定(綜述)

    Reference: 深藍學院-多傳感器融合 多傳感器融合定位理論基礎 文章跳轉: 多傳感器融合定位一-3D激光里程計其一:ICP 多傳感器融合定位二-3D激光里程計其二:NDT 多傳感器融合定位三-3D激光里程計其三:點云畸變補償 多傳感器融合定位四-3D激光里程計其四:點云線面特征提取

    2024年02月14日
    瀏覽(37)
  • 毫米波雷達與其他傳感器的協同工作:傳感器融合的未來

    毫米波雷達與其他傳感器的協同工作:傳感器融合的未來

    隨著科技的不斷進步,傳感技術在各個領域的應用愈發(fā)廣泛。毫米波雷達作為一種重要的傳感器技術,以其高精度、強穿透力和適應性強等優(yōu)點,在軍事、醫(yī)療、汽車、工業(yè)等領域都得到了廣泛應用。然而,單一傳感器的局限性也逐漸顯現,為了更全面、精準地獲取信息,傳

    2024年02月07日
    瀏覽(24)
  • 多傳感器數據融合技術

    多傳感器數據融合技術形成于上世紀80年代,目前已成為研究的熱點。它不同于一般信號處理,也不同于單個或多個傳感器的監(jiān)測和測量,而是對基于多個傳感器測量結果基礎上的更高層次的綜合決策過程。把分布在不同位置的多個同類或不同類傳感器所提供的局部數據資源

    2024年02月06日
    瀏覽(23)
  • 機器人傳感器及其信息融合技術

    機器人傳感器及其信息融合技術

    第一章 傳感器的基礎知識 第五章 多傳感器信息融合技術概述 信息融合三個核心特征: 信息融合是在多個層次上完成對多源信息處理的過程,其中每一個層次都表示不同級別的信息抽象。 信息融合包括探測、互聯、相關、估計以及信息組合。 信息融合的結果包括較低層次上

    2024年02月01日
    瀏覽(39)
  • 傳感器融合 | 適用于自動駕駛場景的激光雷達傳感器融合項目_將激光雷達的高分辨率成像+測量物體速度的能力相結合

    傳感器融合 | 適用于自動駕駛場景的激光雷達傳感器融合項目_將激光雷達的高分辨率成像+測量物體速度的能力相結合

    項目應用場景 面向自動駕駛場景的激光雷達傳感器融合,將激光雷達的高分辨率成像+測量物體速度的能力相結合,項目是一個從多個傳感器獲取數據并將其組合起來的過程,可以更加好地進行環(huán)境感知。項目支持 ubuntu、mac 和 windows 平臺。 項目效果 項目細節(jié) == 具體參見項目

    2024年04月24日
    瀏覽(103)
  • 虹科方案丨自動駕駛多傳感器數據融合方法

    虹科方案丨自動駕駛多傳感器數據融合方法

    文章來源:雅名特自動駕駛 點此閱讀原文:https://mp.weixin.qq.com/s/QsPMWZDGZaPdEx47L2VmeA 近年來,深度學習技術在涉及高維非結構化數據領域展現出了最先進的性能,如計算機視覺、語音、自然語言處理等方面,并且開始涉及更大、更復雜的多模態(tài)信息問題。 不同傳感器在進行同一

    2024年02月07日
    瀏覽(19)
  • 用ChatGPT學習多傳感器融合中的基礎知識

    用ChatGPT學習多傳感器融合中的基礎知識

    該列表會不定期更新… 解答 : 匈牙利算法是解決二分圖最大匹配的經典算法之一。其中的增廣矩陣路徑指的是在當前匹配下,從一個未匹配節(jié)點開始,沿著交替路(交替路是指依次經過未匹配點、已匹配點、未匹配點……的路徑)不斷尋找增廣路(增廣路是指起點和終點都

    2023年04月16日
    瀏覽(23)
  • 無線傳感器網絡數據壓縮與融合及安全機制的matlab仿真

    目錄 一、理論基礎 二、案例背景 三、MATLAB程序 四、仿真結論分析

    2023年04月09日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包