国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

多傳感器融合定位十五-多傳感器時空標定(綜述)

這篇具有很好參考價值的文章主要介紹了多傳感器融合定位十五-多傳感器時空標定(綜述)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Reference:

  1. 深藍學院-多傳感器融合
  2. 多傳感器融合定位理論基礎(chǔ)

文章跳轉(zhuǎn):

  1. 多傳感器融合定位一-3D激光里程計其一:ICP
  2. 多傳感器融合定位二-3D激光里程計其二:NDT
  3. 多傳感器融合定位三-3D激光里程計其三:點云畸變補償
  4. 多傳感器融合定位四-3D激光里程計其四:點云線面特征提取
  5. 多傳感器融合定位五-點云地圖構(gòu)建及定位
  6. 多傳感器融合定位六-慣性導航原理及誤差分析
  7. 多傳感器融合定位七-慣性導航解算及誤差分析其一
  8. 多傳感器融合定位八-慣性導航解算及誤差分析其二
  9. 多傳感器融合定位九-基于濾波的融合方法Ⅰ其一
  10. 多傳感器融合定位十-基于濾波的融合方法Ⅰ其二
  11. 多傳感器融合定位十一-基于濾波的融合方法Ⅱ
  12. 多傳感器融合定位十二-基于圖優(yōu)化的建圖方法其一
  13. 多傳感器融合定位十三-基于圖優(yōu)化的建圖方法其二
  14. 多傳感器融合定位十四-基于圖優(yōu)化的定位方法
  15. 多傳感器融合定位十五-多傳感器時空標定(綜述)

1. 多傳感器標定簡介

1.1 標定內(nèi)容及方法

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

1.2 講解思路

  1. 以思路講解為主,并給出參考文獻和開源代碼,不做過多細節(jié)展開;
  2. 對已有方法做匯總分析,以求能在新的任務(wù)中掌握標定方案設(shè)計思路。

2. 內(nèi)參標定

2.1 雷達內(nèi)參標定

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  1. 目的
    由于安裝原因,線束之間的夾角和設(shè)計不一致,會導致測量不準。

  2. 方法
    多線束打在平面上,利用共面約束,求解夾角誤差。

  3. 參考
    論文:Calibration of a rotating multi-beam Lidar
    論文:Improving the Intrinsic Calibration of a Velodyne LiDAR Sensor
    論文:3D LIDAR–camera intrinsic and extrinsic calibration: Identifiability and analytical least-squares-based initialization

2.2 IMU內(nèi)參標定

  1. 目的
    由于加工原因,產(chǎn)生零偏、標度因數(shù)誤差、安裝誤差。

  2. 方法
    分立級標定:基于轉(zhuǎn)臺;
    迭代優(yōu)化標定:不需要轉(zhuǎn)臺。

  3. 參考
    論文:A Robust and Easy to Implement Method for IMU Calibration without External Equipments
    代碼:https://github.com/Kyle-ak/imu_tk

2.3 編碼器內(nèi)參標定

  1. 目的
    用編碼器輸出解算車的位移增量和角度增量,需已知輪子半徑和兩輪軸距。

  2. 方法
    以車中心雷達/組合導航做觀測,以此為真值,反推模型參數(shù)。

  3. 參考
    論文:Simultaneous Calibration of Odometry and Sensor Parameters for Mobile Robots

2.4 相機內(nèi)參標定

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  1. 目的
    相機與真實空間建立關(guān)聯(lián),需已知其內(nèi)參。

  2. 方法
    張正友經(jīng)典方法

3. 外參標定

3.1 雷達和相機外參標定

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  1. 目的
    解算雷達和相機之間的相對旋轉(zhuǎn)和平移。

  2. 方法
    PnP是主流,視覺提取特征點,雷達提取邊緣,建立幾何約束。

  3. 參考
    論文: LiDAR-Camera Calibration using 3D-3D Point correspondences
    代碼: https://github.com/ankitdhall/lidar_camera_calibration
    論文: Automatic Extrinsic Calibration for Lidar-Stereo Vehicle Sensor Setups
    代碼: https://github.com/beltransen/velo2cam_calibration

3.2 多雷達外參標定

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  1. 目的
    多雷達是常見方案,使用時將點云直接拼接,但前提是已知雷達之間的外參(相對旋轉(zhuǎn)和平移)。

  2. 方法
    基于特征(共面)建立幾何約束,從而優(yōu)化外參。

  3. 參考
    論文:A Novel Dual-Lidar Calibration Algorithm Using Planar Surfaces
    代碼:https://github.com/ram-lab/lidar_appearance_calibration

3.3 手眼標定

多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  1. 目的
    手眼標定適用于所有無共視,但是能輸出位姿的傳感器之間標定。包括:
    ? 無共視的相機、雷達,或雷達與雷達之間;
    ? 相機與IMU,或雷達與IMU之間(前提是IMU要足夠好,或直接使用組合導航)。

  2. 方法
    均基于公式 A X = X B AX=XB AX=XB

  3. 參考
    論文:LiDAR and Camera Calibration using Motion Estimated by Sensor Fusion Odometry
    代碼:https://github.com/ethz-asl/lidar_align

3.4 融合中標定

  1. 目的
    ? 脫離標靶,實現(xiàn)在線標定;
    ? 某些器件無法提供準確位姿(如低精度IMU),不能手眼標定。

  2. 方法
    在融合模型中,增加外參作為待估參數(shù)。

  3. 參考
    眾多vio/lio系統(tǒng),如vins、 lio-mapping、 M-Loam 等

3.5 總結(jié)

  1. 這些方法中,推薦優(yōu)先級從高到低為:
    a. 基于共視的標定
    b. 融合中標定
    c. 手眼標定

  2. 建議
    應(yīng)在良好環(huán)境下標定,盡量避免不分場景的在線標定。良好環(huán)境指觀測數(shù)據(jù)優(yōu)良的場景,例如:
    a. GNSS 信號良好;
    b. 點云面特征豐富,沒有特征退化;
    c. 動態(tài)物體較少

4. 時間標定

4.1 離散時間

  1. 目的
    在原有離散時間融合模式下,簡單地解決時間同步問題。
    多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合

  2. 方案 I
    多傳感器時間標定,SLAM,激光雷達,人工智能,多傳感器融合簡單但巧妙的策略: IMU時間保持不變,圖像上特征點基于勻速運動模型修改位置。
    與不考慮時間誤差時相比,架構(gòu)不變,使用極小的改動,實現(xiàn)了期望的效果。
    e l k = z l k ? π ( R c k w T ( P l ? p c k w ) ) z l k = [ u l k v l k ] T . ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ e l k = z l k ( t d ) ? π ( R c k w T ( P l ? p c k w ) ) z l k ( t d ) = [ u l k v l k ] T + t d V l k . \begin{array}{l} \mathbf{e}_l^k=\mathbf{z}_l^k-\pi\left(\mathbf{R}_{c_k}^{w^T}\left(\mathbf{P}_l-\mathbf{p}_{c_k}^w\right)\right) \\ \mathbf{z}_l^k=\left[\begin{array}{ll} u_l^k & v_l^k \end{array}\right]^T . \\ \downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow\downarrow \\ \mathbf{e}_l^k=\mathbf{z}_l^k\left(t_d\right)-\pi\left(\mathbf{R}_{c_k}^{w^T}\left(\mathbf{P}_l-\mathbf{p}_{c_k}^w\right)\right) \\ \mathbf{z}_l^k\left(t_d\right)=\left[\begin{array}{ll} u_l^k & v_l^k \end{array}\right]^T+t_d \mathbf{V}_l^k . \end{array} elk?=zlk??π(Rck?wT?(Pl??pck?w?))zlk?=[ulk??vlk??]T.↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓elk?=zlk?(td?)?π(Rck?wT?(Pl??pck?w?))zlk?(td?)=[ulk??vlk??]T+td?Vlk?.?參考文獻:Online Temporal Calibration for Monocular Visual-Inertial Systems

  3. 方案 II
    在濾波中計算相機位姿時,直接按時間差對積分區(qū)間進行調(diào)整。
    狀態(tài)量: x = [ x I T I C q  ̄ T C p I T t d c 1 T ? c M T ] T \mathbf{x}=\left[\begin{array}{lllllll} \mathbf{x}_I^T & { }_I^C \overline{\mathbf{q}}^T & { }^C \mathbf{p}_I^T & t_d & \mathbf{c}_1^T & \cdots & \mathbf{c}_M^T \end{array}\right]^T x=[xIT??IC?q?T?CpIT??td??c1T????cMT??]T
    相機位姿估計: c ^ n e w = [ G C q ( t + t d ) ^ G p C ( t + t d ) ^ ] = [ I C q ^ ? G I q ^ ( t + t ^ d ) G p ^ I ( t + t ^ d ) + G I R ^ ( t + t ^ d ) T I p ^ C ] \hat{\mathbf{c}}_{n e w}=\left[\begin{array}{c}{ }_G^C \widehat{\mathbf{q}\left(t+t_d\right)} \\ { }^G \widehat{\mathbf{p}_C\left(t+t_d\right)}\end{array}\right]=\left[\begin{array}{c}{ }_I^C \hat{\mathbf{q}} \otimes{ }_G^I \hat{\mathbf{q}}\left(t+\hat{t}_d\right) \\ { }^G \hat{\mathbf{p}}_I\left(t+\hat{t}_d\right)+{ }_G^I \hat{\mathbf{R}}\left(t+\hat{t}_d\right)^T{ }^I \hat{\mathbf{p}}_C\end{array}\right] c^new?=[GC?q(t+td?) ?GpC?(t+td?) ??]=[IC?q^??GI?q^?(t+t^d?)Gp^?I?(t+t^d?)+GI?R^(t+t^d?)TIp^?C??]
    參考文獻:Online Temporal Calibration for Camera-IMU Systems: Theory and Algorithms文章來源地址http://www.zghlxwxcb.cn/news/detail-620433.html

4.2 連續(xù)時間

  1. 原因
    預(yù)積分中把時間差作為待估狀態(tài)量,對時間差進行建模,如下:
    Δ p m i = ∑ k = κ i ? 1 ( Δ v m k Δ t k + Δ R m k 2 f ? ( t k ? δ t m ? b f m ) Δ t k 2 ) Δ v m i = ∑ k = κ i ? 1 Δ R m k f ( t k ? δ t m ) ? b f m ) Δ t k Δ R m i = ∏ k = κ i = 1 Exp ? ( ω ( t k ? δ t m ) ? b ω m ) Δ t k ) , \begin{array}{l} \Delta \mathbf{p}_m^i=\sum_{k=\kappa}^{i-1}\left(\Delta \mathbf{v}_m^k \Delta t_k+\frac{\Delta \mathbf{R}_m^k}{2} \operatorname{f}\left(t_k-\delta_t^m-\mathbf_f^m\right) \Delta t_k^2\right) \\ \left.\Delta \mathbf{v}_m^i=\sum_{k=\kappa}^{i-1} \Delta \mathbf{R}_m^k \mathbf{f}\left(t_k-\delta_t^m\right)-\mathbf_f^m\right) \Delta t_k \\ \left.\Delta \mathbf{R}_m^i=\prod_{k=\kappa}^{i=1} \operatorname{Exp}\left(\omega\left(t_k-\delta_t^m\right)-\mathbf_\omega^m\right) \Delta t_k\right), \end{array} Δpmi?=k=κi?1?(Δvmk?Δtk?+2ΔRmk??f(tk??δtm??bfm?)Δtk2?)Δvmi?=k=κi?1?ΔRmk?f(tk??δtm?)?bfm?)Δtk?ΔRmi?=k=κi=1?Exp(ω(tk??δtm?)?bωm?)Δtk?),?由于要對時間差求雅可比,因此插值函數(shù)必須可導,雅可比如下:
    Δ R m ( b ω , δ t ) i ≈ Δ R m ( b ˉ ω m , δ ˉ δ m ) i Exp ? ( ? Δ R m i ? b ω b ^ ω m + ? Δ R m i ? δ t δ ^ t m ) . Δ v m ( b f , b ω , δ t ) i ≈ Δ Δ v m ( b ˉ f m , b ˉ m m , δ ˉ t m ) i + ? Δ v m i ? b f b ^ f m + ? Δ v m i ? b ω b ^ ω m + ? Δ v m i ? δ t δ ^ t m Δ p m ( b f , b ω , , δ t ) i ≈ Δ p m ( b f m  ̄ , b ˉ m m , δ ˉ t m ) i + ? Δ p m m ? b f b ^ f m + ? Δ p m i ? b ω b ^ ω m + ? Δ p m i ? δ t δ ^ t m \begin{array}{l} \Delta \mathbf{R}_{m\left(\mathbf_\omega, \delta_t\right)}^i \approx \Delta \mathbf{R}_{m\left(\bar_\omega^m, \bar{\delta}_\delta^m\right)}^i \operatorname{Exp}\left(\frac{\partial \Delta \mathbf{R}_m^i}{\partial \mathbf_\omega} \hat{\mathbf}_\omega^m+\frac{\partial \Delta \mathbf{R}_m^i}{\partial \delta_t} \hat{\delta}_t^m\right). \\ \Delta \mathbf{v}_{m\left(\mathbf_f, \mathbf_\omega, \delta_t\right)}^i \approx \Delta \Delta \mathbf{v}_{m\left(\bar_f^m, \bar_m^m, \bar{\delta}_t^m\right)}^i+\frac{\partial \Delta \mathbf{v}_m^i}{\partial \mathbf_f} \hat{\mathbf}_f^m +\frac{\partial \Delta \mathbf{v}_m^i}{\partial \mathbf_\omega} \hat{\mathbf}_\omega^m+\frac{\partial \Delta \mathbf{v}_m^i}{\partial \delta_t} \hat{\delta}_t^m \\ \Delta \mathbf{p}_{m\left(\mathbf_f, \mathbf_{\omega,}, \delta_t\right)}^i \approx \Delta \mathbf{p}_{m\left(\overline{\mathbf_f^m}, \bar_m^m, \bar{\delta}_t^m\right)}^i+\frac{\partial \Delta \mathbf{p}_m^m}{\partial \mathbf_f} \hat{\mathbf}_f^m +\frac{\partial \Delta \mathbf{p}_m^i}{\partial \mathbf_\omega} \hat_\omega^m+\frac{\partial \Delta \mathbf{p}_m^i}{\partial \delta_t} \hat{\delta}_t^m \\ \end{array} ΔRm(bω?,δt?)i?ΔRm(bˉωm?,δˉδm?)i?Exp(?bω??ΔRmi??b^ωm?+?δt??ΔRmi??δ^tm?).Δvm(bf?,bω?,δt?)i?ΔΔvm(bˉfm?,bˉmm?,δˉtm?)i?+?bf??Δvmi??b^fm?+?bω??Δvmi??b^ωm?+?δt??Δvmi??δ^tm?Δpm(bf?,bω,?,δt?)i?Δpm(bfm??,bˉmm?,δˉtm?)i?+?bf??Δpmm??b^fm?+?bω??Δpmi??b^ωm?+?δt??Δpmi??δ^tm??參考文獻:3D Lidar-IMU Calibration based on Upsampled Preintegrated Measurements for Motion Distortion Correction
  2. 方法
    把輸入建立為連續(xù)時間函數(shù),從而可以在任意時間求導。
  3. 參考
    a. kalibr 系列
    論文:Continuous-Time Batch Estimation using Temporal Basis Functions
    論文:Unified Temporal and Spatial Calibration for Multi-Sensor Systems
    論文:Extending kalibr Calibrating the Extrinsics of Multiple IMUs and of Individual Axes
    代碼:https://github.com/ethz-asl/kalibr
    b. 其他
    論文:Targetless Calibration of LiDAR-IMU System Based on Continuous-time Batch Estimation
    代碼:https://github.com/APRIL-ZJU/lidar_IMU_calib

4.3 總結(jié)

  1. 時間差估計,在某些情況下不得已而為之,實際中應(yīng)盡量創(chuàng)造條件實現(xiàn)硬同步;
  2. 不得不估計時,也應(yīng)盡量在良好環(huán)境下估計。

到了這里,關(guān)于多傳感器融合定位十五-多傳感器時空標定(綜述)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 論文閱讀綜述:自動駕駛感知的多模態(tài)傳感器融合Multi-modal Sensor Fusion for Auto Driving Perception: A Survey

    論文閱讀綜述:自動駕駛感知的多模態(tài)傳感器融合Multi-modal Sensor Fusion for Auto Driving Perception: A Survey

    題目 :Multi-modal Sensor Fusion for Auto Driving Perception: A Survey 用于自動駕駛感知的多模態(tài)傳感器融合:綜述 鏈接 :https://arxiv.org/abs/2202.02703 只翻譯了個人認為比較重要的東西,有些官方話就省了。這篇文章通俗易懂,不過綜述都是標記文獻[xx]干了啥,其實咱也不知道他具體是咋

    2023年04月08日
    瀏覽(30)
  • 智能汽車實驗二(視覺傳感器標定)

    智能汽車實驗二(視覺傳感器標定)

    實驗二 視覺傳感器標定(實驗報告) 【實驗?zāi)康摹??????? 1、了解開源圖像處理庫OpenCV的結(jié)構(gòu),掌握OpenCV的基本使用方法。 ?????? 2、了解開源圖像處理庫OpenCV的基本模塊功能,掌握常用圖像處理方法。 ?????? 3、掌握攝像機標定算法,學會使用OpenCV進行攝像機標定

    2024年02月04日
    瀏覽(30)
  • 自動駕駛感知傳感器標定安裝說明

    自動駕駛感知傳感器標定安裝說明

    1. 概述 本標定程序為整合現(xiàn)開發(fā)的高速車所有標定模塊,可實現(xiàn)相機內(nèi)參標定和激光、相機、前向毫米波 至車輛后軸中心標定,標定參數(shù)串聯(lián)傳遞并提供可視化工具驗證各個模塊標定精度。整體標定流程如下,標定順序為下圖前標0--1--2--3,相同編號標定順序沒有強制要求,

    2024年02月11日
    瀏覽(35)
  • 多傳感器融合算法-后融合

    多傳感器融合算法-后融合

    ??自動駕駛系統(tǒng)通常由定位、環(huán)境感知和規(guī)劃控制等模塊組成,近年來主流的環(huán)境感知傳感器包括 攝像頭 、 激光雷達 、 毫米波雷達 、超聲波雷達等。不同種類傳感器由于其探測原理不同,所具備的優(yōu)劣勢也有所差異,且現(xiàn)階段單一種類的傳感器往往很難覆蓋所有場景,

    2024年04月26日
    瀏覽(19)
  • 指紋識別綜述(2): 指紋傳感器

    指紋識別綜述(2): 指紋傳感器

    本文主要基于《Handbook of Fingerprint Recognition》第三版第二章“Fingerprint Sensing”的內(nèi)容。本文會不定期更新,以反映一些新的進展和思考。 指紋識別系統(tǒng)利用傳感器、圖像處理、模式識別技術(shù)自動識別兩個指紋是否一致。指紋識別系統(tǒng)主要有三個模塊,分別為指紋采集模塊、特

    2024年02月05日
    瀏覽(30)
  • 毫米波雷達與其他傳感器的協(xié)同工作:傳感器融合的未來

    毫米波雷達與其他傳感器的協(xié)同工作:傳感器融合的未來

    隨著科技的不斷進步,傳感技術(shù)在各個領(lǐng)域的應(yīng)用愈發(fā)廣泛。毫米波雷達作為一種重要的傳感器技術(shù),以其高精度、強穿透力和適應(yīng)性強等優(yōu)點,在軍事、醫(yī)療、汽車、工業(yè)等領(lǐng)域都得到了廣泛應(yīng)用。然而,單一傳感器的局限性也逐漸顯現(xiàn),為了更全面、精準地獲取信息,傳

    2024年02月07日
    瀏覽(24)
  • 多傳感器數(shù)據(jù)融合技術(shù)

    多傳感器數(shù)據(jù)融合技術(shù)形成于上世紀80年代,目前已成為研究的熱點。它不同于一般信號處理,也不同于單個或多個傳感器的監(jiān)測和測量,而是對基于多個傳感器測量結(jié)果基礎(chǔ)上的更高層次的綜合決策過程。把分布在不同位置的多個同類或不同類傳感器所提供的局部數(shù)據(jù)資源

    2024年02月06日
    瀏覽(23)
  • 車載測試:詳解ADAS傳感器(相機)標定數(shù)據(jù)采集方法

    車載測試:詳解ADAS傳感器(相機)標定數(shù)據(jù)采集方法

    1.基本原理 相機外參標定,通過拍攝多角度棋盤格標定相機外參。 2.外參標定板設(shè)計 標定板分為垂直標定板和水平標定板,由于地面的水平標定板不容易被檢測到,本文采用垂直標定板進行相機標定。 在標定過程中標定板需要和車身坐標成正交狀態(tài),也就是標定板垂直邊需

    2024年02月13日
    瀏覽(78)
  • 機器人傳感器及其信息融合技術(shù)

    機器人傳感器及其信息融合技術(shù)

    第一章 傳感器的基礎(chǔ)知識 第五章 多傳感器信息融合技術(shù)概述 信息融合三個核心特征: 信息融合是在多個層次上完成對多源信息處理的過程,其中每一個層次都表示不同級別的信息抽象。 信息融合包括探測、互聯(lián)、相關(guān)、估計以及信息組合。 信息融合的結(jié)果包括較低層次上

    2024年02月01日
    瀏覽(39)
  • 傳感器融合 | 適用于自動駕駛場景的激光雷達傳感器融合項目_將激光雷達的高分辨率成像+測量物體速度的能力相結(jié)合

    傳感器融合 | 適用于自動駕駛場景的激光雷達傳感器融合項目_將激光雷達的高分辨率成像+測量物體速度的能力相結(jié)合

    項目應(yīng)用場景 面向自動駕駛場景的激光雷達傳感器融合,將激光雷達的高分辨率成像+測量物體速度的能力相結(jié)合,項目是一個從多個傳感器獲取數(shù)據(jù)并將其組合起來的過程,可以更加好地進行環(huán)境感知。項目支持 ubuntu、mac 和 windows 平臺。 項目效果 項目細節(jié) == 具體參見項目

    2024年04月24日
    瀏覽(103)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包