国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

視覺SLAM十四講|【五】相機(jī)與IMU時(shí)間戳同步

這篇具有很好參考價(jià)值的文章主要介紹了視覺SLAM十四講|【五】相機(jī)與IMU時(shí)間戳同步。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

視覺SLAM十四講|【五】相機(jī)與IMU時(shí)間戳同步

相機(jī)成像方程

Z [ u v 1 ] = [ f x 0 c x 0 f y c y 0 0 1 ] [ X Y Z ] = K P Z \begin{bmatrix} u \\ v \\ 1 \end{bmatrix}= \begin{bmatrix} f_x & 0 & c_x \\ 0 & f_y & c_y \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} X \\ Y \\ Z \end{bmatrix}= KP Z ?uv1? ?= ?fx?00?0fy?0?cx?cy?1? ? ?XYZ? ?=KP
其中,
K = [ f x 0 c x 0 f y c y 0 0 1 ] K=\begin{bmatrix} f_x & 0 & c_x \\ 0 & f_y & c_y \\ 0 & 0 & 1 \end{bmatrix} K= ?fx?00?0fy?0?cx?cy?1? ?

時(shí)間戳同步

假設(shè)視覺特征在圖像平面上勻速移動,則特征在相機(jī)成像平面上的運(yùn)動速度為
V l k = ( [ u l k + 1 v l k + 1 ] ? [ u l k v l k ] ) / ( t k + 1 ? t k ) V_l^k =( \begin{bmatrix} u_l^{k+1} \\ v_l^{k+1} \end{bmatrix} - \begin{bmatrix} u_l^{k} \\ v_l^{k} \end{bmatrix})/(t_{k+1}-t_k) Vlk?=([ulk+1?vlk+1??]?[ulk?vlk??])/(tk+1??tk?)
設(shè)世界坐標(biāo)系中 l l l個(gè)地圖點(diǎn)坐標(biāo)為
f l w = [ x , y , z ] T f_l^w = [x, y,z]^T flw?=[x,y,z]T
變換到相機(jī)坐標(biāo)系下則為
f l c i = R c b R w b i T ( f l w ? p w b i ) + p c b f_l^{c_i} = R_{cb}R_{wb_i}^T(f_l^w - p_{wb_i}) + p_{cb} flci??=Rcb?Rwbi?T?(flw??pwbi??)+pcb?再投影到圖像平面,并計(jì)算重投影殘差
r c = [ x l i z l i ? u l i , y l i z l i ? v l i ] T r_c = [\frac{x_l^i}{z_l^i}-u_l^i, \frac{y_l^i}{z_l^i}-v_l^i]^T rc?=[zli?xli???uli?,zli?yli???vli?]T
考慮時(shí)間延遲對特征坐標(biāo)的補(bǔ)償為
z l i ( t d ) = [ u l i , v l i ] T + t d v l i z_l^i(t_d) = [u_l^i, v_l^i]^T + t_d v_l^i zli?(td?)=[uli?,vli?]T+td?vli?

逆深度參數(shù)化方式

SLAM中特征點(diǎn)的參數(shù)化表示有很多,最直接的是用三維坐標(biāo)XYZ來表示,但通常大家更喜歡用逆深度表示,因?yàn)槟嫔疃葍?yōu)勢在于能夠建模無窮遠(yuǎn)點(diǎn)?;仡櫹鄼C(jī)成像方程
Z [ u v 1 ] = [ f x 0 c x 0 f y c y 0 0 1 ] [ X Y Z ] = K P Z \begin{bmatrix} u \\ v \\ 1 \end{bmatrix}= \begin{bmatrix} f_x & 0 & c_x \\ 0 & f_y & c_y \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} X \\ Y \\ Z \end{bmatrix}= KP Z ?uv1? ?= ?fx?00?0fy?0?cx?cy?1? ? ?XYZ? ?=KP

P = 1 λ K ? 1 [ u v 1 ] P=\frac{1}{\lambda}K^{-1} \begin{bmatrix}u \\v \\ 1 \end{bmatrix} P=λ1?K?1 ?uv1? ?
對于世界坐標(biāo)系中的某相機(jī)觀測點(diǎn) f l c i f_l^{c_i} flci??,可以用相機(jī)逆深度成像公式得到,如下所示
f l c i = 1 λ K ? 1 [ u l i v l i 1 ] f_l^{c_i}=\frac{1}{\lambda}K^{-1} \begin{bmatrix}u_l^i \\v_l^i \\ 1 \end{bmatrix} flci??=λ1?K?1 ?uli?vli?1? ?
考慮到坐標(biāo)系轉(zhuǎn)換關(guān)系
f l w = R w c i f l c i + p w c i f_l^w = R_{wc_i}f_l^{c_i}+p_{wc_i} flw?=Rwci??flci??+pwci??
觀測點(diǎn) f l c i f_l^{c_i} flci??也可以通過運(yùn)動姿態(tài)進(jìn)行推測,有
f l c i ~ = R c i w f l w + p c i w \tilde{{f_l^{c_i}}} = R_{c_iw}f_l^w+p_{c_iw} flci??~?=Rci?w?flw?+pci?w?
我們研究的是投影面內(nèi)的殘差,因此,不考慮時(shí)間延遲的殘差可以寫為如下形式
r c 3 = [ u l j v l j 1 ] ? λ K f l c j ~ r_{c3} = \begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} - \lambda K \tilde{{f_l^{c_j}}} rc3?= ?ulj?vlj?1? ??λKflcj??~?
r c 3 = [ u l j v l j 1 ] ? λ K ( R c j w f l w + p c j w ) r_{c3} = \begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} - \lambda K(R_{c_jw}f_l^w + p_{c_jw}) rc3?= ?ulj?vlj?1? ??λK(Rcj?w?flw?+pcj?w?)
r c 3 = [ u l j v l j 1 ] ? λ K ( R c j w ( R w c i f l c i + p w c i ) + p c j w ) r_{c3} = \begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} - \lambda K(R_{c_jw}(R_{w c_i}f_l^{c_i}+p_{wc_i})+ p_{c_jw}) rc3?= ?ulj?vlj?1? ??λK(Rcj?w?(Rwci??flci??+pwci??)+pcj?w?)
又因?yàn)?br> f l c i = 1 λ K ? 1 [ u l i v l i 1 ] f_l^{c_i}=\frac{1}{\lambda}K^{-1} \begin{bmatrix}u_l^i \\v_l^i \\ 1 \end{bmatrix} flci??=λ1?K?1 ?uli?vli?1? ?
r c 3 = [ u l j v l j 1 ] ? λ K ( R c j w ( R w c i ( 1 λ K ? 1 [ u l i v l i 1 ] ) + p w c i ) + p c j w ) r_{c3} = \begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} - \lambda K(R_{c_jw}(R_{w c_i}(\frac{1}{\lambda}K^{-1} \begin{bmatrix}u_l^i \\v_l^i \\ 1 \end{bmatrix})+p_{wc_i})+ p_{c_jw}) rc3?= ?ulj?vlj?1? ??λK(Rcj?w?(Rwci??(λ1?K?1 ?uli?vli?1? ?)+pwci??)+pcj?w?)
[ u l j v l j ] = [ 1 0 0 0 1 0 ] [ u l j v l j 1 ] \begin{bmatrix} u_l^j\\ v_l^j \end{bmatrix} = \begin{bmatrix} 1 & 0 &0 \\ 0 & 1 & 0 \end{bmatrix} \begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} [ulj?vlj??]=[10?01?00?] ?ulj?vlj?1? ?

C = [ 1 0 0 0 1 0 ] C = \begin{bmatrix} 1 & 0 &0 \\ 0 & 1 & 0 \end{bmatrix} C=[10?01?00?]

r c = C r c 3 r_c = C r_{c3} rc?=Crc3?
r c = C [ u l j v l j 1 ] ? λ C K ( R c j w ( R w c i ( 1 λ K ? 1 [ u l i v l i 1 ] ) + p w c i ) + p c j w ) r_{c} = C\begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} - \lambda CK(R_{c_jw}(R_{w c_i}(\frac{1}{\lambda}K^{-1} \begin{bmatrix}u_l^i \\v_l^i \\ 1 \end{bmatrix})+p_{wc_i})+ p_{c_jw}) rc?=C ?ulj?vlj?1? ??λCK(Rcj?w?(Rwci??(λ1?K?1 ?uli?vli?1? ?)+pwci??)+pcj?w?)
現(xiàn)在考慮時(shí)間延遲
r c = C ( [ u l j v l j 1 ] + v j t d ) ? λ C K ( R c j w ( R w c i ( 1 λ K ? 1 [ u l i v l i 1 ] ) + p w c i ) + p c j w ) r_{c} = C(\begin{bmatrix} u_l^j\\ v_l^j \\1 \end{bmatrix} + v_jt_d) - \lambda CK(R_{c_jw}(R_{w c_i}(\frac{1}{\lambda}K^{-1} \begin{bmatrix}u_l^i \\v_l^i \\ 1 \end{bmatrix})+p_{wc_i})+ p_{c_jw}) rc?=C( ?ulj?vlj?1? ?+vj?td?)?λCK(Rcj?w?(Rwci??(λ1?K?1 ?uli?vli?1? ?)+pwci??)+pcj?w?)
其中
v j = ( [ u k + 1 v k + 1 1 ] ? [ u k v k 1 ] ) / ( t k + 1 ? t k ) v_j =(\begin{bmatrix} u_{k+1} \\ v_{k+1} \\ 1\end{bmatrix} - \begin{bmatrix} u_{k} \\ v_{k} \\ 1\end{bmatrix})/(t_{k+1}-t_k) vj?=( ?uk+1?vk+1?1? ?? ?uk?vk?1? ?)/(tk+1??tk?)文章來源地址http://www.zghlxwxcb.cn/news/detail-808079.html

到了這里,關(guān)于視覺SLAM十四講|【五】相機(jī)與IMU時(shí)間戳同步的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 視覺SLAM十四講——ch10實(shí)踐(后端2)

    視覺SLAM十四講——ch10實(shí)踐(后端2)

    視覺SLAM(Simultaneous Localization and Mapping)后端是一種用于處理視覺SLAM問題的算法。視覺SLAM是指機(jī)器在未知環(huán)境中同時(shí)實(shí)現(xiàn)自身的定位和地圖構(gòu)建的技術(shù)。 視覺SLAM后端的任務(wù)是在視覺SLAM中負(fù)責(zé)維護(hù)一個(gè)優(yōu)化后的地圖和機(jī)器人的軌跡。常見的視覺SLAM后端算法包括基于圖優(yōu)化的

    2024年02月09日
    瀏覽(21)
  • 視覺SLAM十四講——ch9實(shí)踐(后端1)

    視覺SLAM十四講——ch9實(shí)踐(后端1)

    Ceres BA使用的是BAL數(shù)據(jù)集。在本例中,使用problem-16-22106-pre.txt文件。 BAL的數(shù)據(jù)集自身存在的特殊 BAL的相機(jī)內(nèi)參模型由焦距f和畸變參數(shù)k1,k2給出。 因?yàn)锽AL數(shù)據(jù)在投影時(shí)假設(shè)投影平面在相機(jī)光心之后,所以按照我們之前用的模型計(jì)算,需要在投影之后乘以系數(shù)-1。 安裝meshlab,

    2024年02月09日
    瀏覽(21)
  • 《視覺SLAM十四講》報(bào)錯(cuò)信息和解決方案

    ch4-Sophus 編譯報(bào)錯(cuò) 報(bào)錯(cuò)信息: 解決方法:修改Sophus下的so2.cpp文件 將下面這個(gè)修改一下: 修改為: ch5/imageBasics 安裝opencv4.x報(bào)錯(cuò) 環(huán)境:Unbuntu22.04,安裝opencv4.x 報(bào)錯(cuò)信息: 解決方案:參照https://blog.csdn.net/qq_51022848/article/details/128095476 ch5/joinMap/CMakeLists.txt 編譯報(bào)錯(cuò) 報(bào)錯(cuò)信息:

    2024年02月14日
    瀏覽(45)
  • 踩坑 Sophus 模板庫安裝及編譯(視覺SLAM 十四講第二版 ch4 )

    踩坑 Sophus 模板庫安裝及編譯(視覺SLAM 十四講第二版 ch4 )

    在《視覺slam十四講》第二版中,第4、7、8、9、10講都需要Sophus庫,因此我們需要安裝Sophus庫,并且需要的是Sophus模板庫,因此很多人因?yàn)榘惭b了非模板版本導(dǎo)致報(bào)錯(cuò),下面提供Sophus模板版本安裝方式,以及對應(yīng)不報(bào)錯(cuò)版本。 只要是?3.3以上的版本即可 官網(wǎng)進(jìn)入,然后下載T

    2024年01月22日
    瀏覽(18)
  • 【深藍(lán)學(xué)院】手寫VIO第8章--相機(jī)與IMU時(shí)間戳同步--筆記

    【深藍(lán)學(xué)院】手寫VIO第8章--相機(jī)與IMU時(shí)間戳同步--筆記

    時(shí)間戳同步的原因 :如果不同步,由于IMU頻率高,可能由于時(shí)間戳不同步而導(dǎo)致在兩幀camera之間的時(shí)間內(nèi)用多了或者用少了IMU的數(shù)據(jù),且時(shí)間不同步會導(dǎo)致我們首尾camera和IMU數(shù)據(jù)時(shí)間不同,會使估計(jì)存在誤差,使我們的系統(tǒng)精度下降甚至出現(xiàn)錯(cuò)誤的預(yù)測。如果以IMU時(shí)間為準(zhǔn)確

    2024年02月05日
    瀏覽(88)
  • slam十四講~環(huán)境安裝以及問題記錄

    slam十四講~環(huán)境安裝以及問題記錄

    參考資料: https://zhuanlan.zhihu.com/p/452256687 https://blog.csdn.net/qq_38629044/article/details/95355859 https://blog.csdn.net/Bonaventure/article/details/122835996 https://blog.csdn.net/weixin_44986556/article/details/108962861 https://blog.csdn.net/qq_38364548/article/details/122055690 https://blog.csdn.net/rong11417/article/details/103905794 http

    2023年04月15日
    瀏覽(35)
  • 自學(xué)SLAM(8)《第四講:相機(jī)模型與非線性優(yōu)化》作業(yè)

    自學(xué)SLAM(8)《第四講:相機(jī)模型與非線性優(yōu)化》作業(yè)

    小編研究生的研究方向是視覺SLAM,目前在自學(xué),本篇文章為初學(xué)高翔老師課的第四次作業(yè)。 現(xiàn)實(shí)?活中的圖像總存在畸變。原則上來說,針孔透視相機(jī)應(yīng)該將三維世界中的直線投影成直線,但是當(dāng)我們使???和魚眼鏡頭時(shí),由于畸變的原因,直線在圖像?看起來是扭曲的

    2024年02月05日
    瀏覽(26)
  • 最新綜述!基于相機(jī)、LiDAR和IMU的多傳感器融合SLAM

    最新綜述!基于相機(jī)、LiDAR和IMU的多傳感器融合SLAM

    作者:蕭炎 | 來源:3DCV 在公眾號「 3DCV 」后臺,回復(fù)「原論文」可獲取論文pdf和代碼鏈接 近年來,同步定位與建圖(SLAM)技術(shù)在自動駕駛、智能機(jī)器人、增強(qiáng)現(xiàn)實(shí)(AR)、虛擬現(xiàn)實(shí)(VR)等領(lǐng)域得到廣泛應(yīng)用。使用最流行的三種類型傳感器(例如視覺傳感器、LiDAR傳感器和

    2024年03月26日
    瀏覽(41)
  • 基于全景相機(jī)的視覺SLAM

    基于全景相機(jī)的視覺SLAM

    相機(jī)坐標(biāo)系中空間點(diǎn)投影到二維圖像的過程可以簡化為將空間點(diǎn)投影到單位球面上,然后將此球面展開成全景圖像。 式中:ri一空間點(diǎn)在相機(jī)坐標(biāo)系中與原點(diǎn)的距離;t0一投影函數(shù)??梢钥闯觯跋鄼C(jī)的投影過程是非線性的。 能看出全景圖像的畸變系數(shù)為cosp,圖2-4為全景機(jī)

    2024年02月10日
    瀏覽(28)
  • 視覺SLAM中的相機(jī)分類及用途

    目錄 1. 單目相機(jī) 2. 雙目相機(jī) 3. 深度相機(jī)(RGB-D相機(jī)) 4. 全景相機(jī) 5. 結(jié)構(gòu)光相機(jī) 6. 激光雷達(dá)相機(jī)(Lidar) 應(yīng)用場景與選擇 7.熱感相機(jī) 熱感相機(jī)用于SLAM的挑戰(zhàn) 視覺SLAM(Simultaneous Localization and Mapping)算法主要用于機(jī)器人和自動導(dǎo)航系統(tǒng)中,用于同時(shí)進(jìn)行定位和建立環(huán)境地圖。

    2024年02月04日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包