国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

立體匹配入門指南(8):視差圖、深度圖、點(diǎn)云

這篇具有很好參考價(jià)值的文章主要介紹了立體匹配入門指南(8):視差圖、深度圖、點(diǎn)云。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本篇是比較簡(jiǎn)單的基礎(chǔ)概念,剛?cè)腴T的朋友可能是需要的。

視差圖
立體匹配入門指南(8):視差圖、深度圖、點(diǎn)云
三維點(diǎn)云

首先,我們要介紹下這三個(gè)概念。

視差(disparity)

視差 d d d 等于同名點(diǎn)對(duì)在左視圖的列坐標(biāo)減去在右視圖上的列坐標(biāo),是像素單位
d = x l ? x r d=x_l-x_r d=xl??xr?立體視覺里,視差概念在極線校正后的像對(duì)里使用。

深度(depth)

深度D等于像素在該視圖相機(jī)坐標(biāo)系下 Z Z Z坐標(biāo),是空間單位。深度并不特在校正后的圖像對(duì)里使用,而是任意圖像都可獲取深度圖。

視差圖(disparity map)

視差圖指存儲(chǔ)立體校正后單視圖所有像素視差值的二維圖像。

  1. 視差圖是一張二維圖像,和原圖等大小
  2. 視差圖每個(gè)位置保存的以像素為單位的該位置像素的視差值
  3. 以左視圖視差圖為例,在像素位置p的視差值等于該像素在右圖上的匹配點(diǎn)的列坐標(biāo)減去其在左圖上的列坐標(biāo)
深度圖(depth map)

深度圖指存儲(chǔ)單視圖所有像素的深度值的二維圖像,是空間單位,比如毫米。

  1. 深度圖是一張二維圖像,和原圖等大小,也就和視差圖等大小
  2. 深度圖每個(gè)位置保存的是該位置像素的深度值
  3. 深度值就是相機(jī)坐標(biāo)系下的Z坐標(biāo)值
點(diǎn)云(point cloud)

點(diǎn)云指三維空間的三維點(diǎn)集合,坐標(biāo)屬性( X , Y , Z X,Y,Z X,Y,Z),法線屬性( N x , N y , N z N_x,N_y,N_z Nx?,Ny?,Nz?)(可選),顏色屬性( R , G , B R,G,B R,G,B)(可選)

其次,為什么會(huì)有視差圖和深度圖呢?

我們知道,立體匹配一般是指逐像素的稠密匹配,這意味著每個(gè)像素都會(huì)得到一個(gè)視差值(包括無(wú)效值),如何存儲(chǔ)這些視差值呢,顯然以二維圖的方式存儲(chǔ)是很合適的,最大的兩點(diǎn)優(yōu)勢(shì)是一方面可以通過像素坐標(biāo)快速的在二維圖中找到對(duì)應(yīng)位置的視差值,而且和圖像一樣是有序的,鄰域檢索、視差濾波等將會(huì)變得非常方便;另一方面是可以直觀的通過觀察視差圖和原圖的對(duì)比,對(duì)視差圖的質(zhì)量有初步的判定。

而深度圖的意義則是以更少的存儲(chǔ)空間、有序的表達(dá)圖像匹配的三維成果。更少的存儲(chǔ)空間是因?yàn)橹槐4媪艘粋€(gè)深度值,而不是三維點(diǎn)云的三個(gè)坐標(biāo)值,而深度值是可以結(jié)合像素坐標(biāo)計(jì)算三維點(diǎn)坐標(biāo)值的。有序是因?yàn)樯疃葓D和原圖像素是一一對(duì)應(yīng)的,所以原圖的鄰域信息完全繼承到了深度圖里。

這就是視差圖和深度圖的意義,視差圖是立體匹配算法的產(chǎn)出,而深度圖則是立體匹配到點(diǎn)云生成的中間橋梁。

視差圖和深度圖中間,有著一對(duì)一的轉(zhuǎn)換公式:
D = B f d + ( x 0 r ? x 0 l ) D=\frac {Bf}{d+(x_{0r}-x_{0l})} D=d+(x0r??x0l?)Bf?
其中, D D D為深度, d d d為視差, B B B為基線長(zhǎng)度, f f f為焦距(像素單位), x 0 l x_{0l} x0l? x 0 r x_{0r} x0r?分別為左右視圖主點(diǎn)的列坐標(biāo)。,另一個(gè)較為熟知的公式是
D = B f d D=\frac {Bf}n5n3t3z D=dBf?
這是在左右視圖主點(diǎn)的列坐標(biāo)相同的特殊情況,比如主點(diǎn)都在中心。

深度圖計(jì)算相機(jī)坐標(biāo)系下的點(diǎn)云,也有著簡(jiǎn)單的公式:
Z = D X = D ( x ? x 0 l ) f Y = D ( y ? y 0 l ) f \begin{aligned} Z &= D\\ X &= \frac {D(x-x_{0l})}{f}\\ Y &= \frac {D(y-y_{0l})}{f} \end{aligned} ZXY?=D=fD(x?x0l?)?=fD(y?y0l?)??
其中, x , y x,y x,y為像素的列坐標(biāo)和行坐標(biāo), x 0 l x_{0l} x0l? y 0 l y_{0l} y0l?為主點(diǎn)的像素坐標(biāo)。

常見問答:
問:為什么我從.png格式的視差圖里讀取到的視差值和真實(shí)值有很大差異?
答: 我們要先搞清楚,視差圖是如何存儲(chǔ)的。通常而言,我們是把二維視差圖以圖像格式存儲(chǔ),常見的格式有png、tif、pfm等,但這些圖像格式存儲(chǔ)的數(shù)據(jù)類型是有區(qū)別的,其中png只能存儲(chǔ)整數(shù),而tif和pfm則可以存儲(chǔ)小數(shù)。而顯然準(zhǔn)確的視差值必然是浮點(diǎn)型的小數(shù),所以存儲(chǔ)為tif和pfm可以原值無(wú)損存儲(chǔ),而存儲(chǔ)為png必然會(huì)損失精度,所以有的代碼比如opencv會(huì)把得到的浮點(diǎn)型視差值乘以16倍取整,存儲(chǔ)到png里,這樣存儲(chǔ)視差值的精度變?yōu)?/16,對(duì)于這種情況我們?cè)谧x取png后要先除以16才是真實(shí)視差值,且視差會(huì)有階梯分層現(xiàn)象。

那有同學(xué)就問,既然這樣為什么要存儲(chǔ)png呢?是因?yàn)槟壳爸髁鞯膱D像軟件,不支持直接看浮點(diǎn)格式的tif和pfm,存儲(chǔ)為png可以更好的觀看視差圖,當(dāng)然要是實(shí)際生產(chǎn)使用,是必然不建議存儲(chǔ)為png的,用來查看視差結(jié)果是可以的。

還有人會(huì)直接把視差值拉伸或者壓縮到0~255,存儲(chǔ)到png或bmp等存儲(chǔ)整數(shù)的格式中,這樣的視差圖只能用來觀看視差效果,沒有其他作用,比如我的代碼里的存儲(chǔ)方式。

問:極線像對(duì)下的深度圖和原圖的深度圖是一樣的嗎?如何轉(zhuǎn)換?
答: 不一樣,因?yàn)樯疃葓D是在視圖所在的相機(jī)坐標(biāo)系下的,所以和相機(jī)坐標(biāo)系強(qiáng)掛鉤,極限校正后的左視圖和原始的左視圖是不一樣的相機(jī)坐標(biāo)系,所以它們的深度圖是不一樣的。文章來源地址http://www.zghlxwxcb.cn/news/detail-401948.html

  1. 對(duì)于極線像對(duì)左視圖某像素 p p p,通過單應(yīng)變換 H H H 轉(zhuǎn)換到原左視圖上,得到原圖上的像素坐標(biāo) q q q。
  2. p p p的相機(jī)坐標(biāo)系坐標(biāo)通過一個(gè)旋轉(zhuǎn) R R R 變換到原左視圖的相機(jī)坐標(biāo)系坐標(biāo),得到 q q q 的深度。
  3. H H H R R R在極線校正步驟可以獲?。O線校正的必然產(chǎn)出)。

到了這里,關(guān)于立體匹配入門指南(8):視差圖、深度圖、點(diǎn)云的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 2023年的深度學(xué)習(xí)入門指南(1) - 從chatgpt入手

    2023年的深度學(xué)習(xí)入門指南(1) - 從chatgpt入手

    2012年,加拿大多倫多大學(xué)的Hinton教授帶領(lǐng)他的兩個(gè)學(xué)生Alex和Ilya一起用AlexNet撞開了深度學(xué)習(xí)的大門,從此人類走入了深度學(xué)習(xí)時(shí)代。 2015年,這個(gè)第二作者80后Ilya Sutskever參與創(chuàng)建了openai公司?,F(xiàn)在Ilya是openai的首席科學(xué)家,帶領(lǐng)工程師研發(fā)出了可能再次改變世界的chatgpt. 上圖

    2024年02月01日
    瀏覽(21)
  • 2023年的深度學(xué)習(xí)入門指南(20) - LLaMA 2模型解析

    2023年的深度學(xué)習(xí)入門指南(20) - LLaMA 2模型解析

    上一節(jié)我們把LLaMA 2的生成過程以及封裝的過程的代碼簡(jiǎn)單介紹了下。還差LLaMA 2的模型部分沒有介紹。這一節(jié)我們就來介紹下LLaMA 2的模型部分。 這一部分需要一些深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),不懂的話不用著急,后面的文章我們都會(huì)介紹到。 RMSNorm是一種改進(jìn)的LayerNorm技術(shù),

    2024年02月15日
    瀏覽(18)
  • 2023年的深度學(xué)習(xí)入門指南(19) - LLaMA 2源碼解析

    2023年的深度學(xué)習(xí)入門指南(19) - LLaMA 2源碼解析

    上一節(jié)我們學(xué)習(xí)了LLaMA 2的補(bǔ)全和聊天兩種API的使用方法。本節(jié)我們來看看LLaMA 2的源碼。 上一節(jié)我們講了LLaMA 2的編程方法。我們來復(fù)習(xí)一下: 我們先來看看text_completion函數(shù)的參數(shù)是什么意思,該函數(shù)的原型為: 我們來看下這些參數(shù)的含義: prompts:這是一個(gè)字符串列表,每

    2024年02月15日
    瀏覽(15)
  • 2023年的深度學(xué)習(xí)入門指南(2) - 給openai API寫前端

    2023年的深度學(xué)習(xí)入門指南(2) - 給openai API寫前端

    上一篇我們說了,目前的大規(guī)模預(yù)訓(xùn)練模型技術(shù)還避免不了回答問題時(shí)出現(xiàn)低級(jí)錯(cuò)誤。 但是其實(shí),人類犯的邏輯錯(cuò)誤也是層出不窮。 比如,有人就認(rèn)為要想學(xué)好chatgpt,就要先學(xué)好Python。 其隱含的推理過程可能是這樣的: TensorFlow需要使用Python PyTorch需要使用Python Scikit-Learn需

    2023年04月08日
    瀏覽(27)
  • 2023年的深度學(xué)習(xí)入門指南(9) - SIMD和通用GPU編程

    2023年的深度學(xué)習(xí)入門指南(9) - SIMD和通用GPU編程

    深度學(xué)習(xí)從一開始就跟GPU有不解之緣,因?yàn)樗懔κ巧疃葘W(xué)習(xí)不可或缺的一部分。 時(shí)至今日,雖然多任務(wù)編程早已經(jīng)深入人心,但是很多同學(xué)還沒有接觸過CPU上的SIMD指令,更不用說GPGPU的編程。這一篇我們先給SIMD和GPU編程掃個(gè)盲,讓大家以后用到的時(shí)候有個(gè)感性認(rèn)識(shí)。 從多線

    2024年02月02日
    瀏覽(27)
  • 2023年的深度學(xué)習(xí)入門指南(6) - 在你的電腦上運(yùn)行大模型

    2023年的深度學(xué)習(xí)入門指南(6) - 在你的電腦上運(yùn)行大模型

    上一篇我們介紹了大模型的基礎(chǔ),自注意力機(jī)制以及其實(shí)現(xiàn)Transformer模塊。因?yàn)門ransformer被PyTorch和TensorFlow等框架所支持,所以我們只要能夠配置好框架的GPU或者其他加速硬件的支持,就可以運(yùn)行起來了。 而想運(yùn)行大模型,恐怕就沒有這么容易了,很有可能你需要一臺(tái)Linux電腦

    2024年02月16日
    瀏覽(24)
  • 2023年的深度學(xué)習(xí)入門指南(26) - 在自己電腦上運(yùn)行通義千問7b模型

    2023年的深度學(xué)習(xí)入門指南(26) - 在自己電腦上運(yùn)行通義千問7b模型

    通過量化,通義千問4位量化的模型大小為5.86G,可以在3060等小于16G的家用GPU上也可以運(yùn)行起來。 通義千問7b提供了4位量化好的Qwen/Qwen-7B-Chat-Int4模型,我們直接調(diào)用就好。 首先安裝依賴包: 如果你是Linux環(huán)境的話,可以安裝下Flash-Attention來加速: Windows下暫時(shí)還用不了,這個(gè)

    2024年02月10日
    瀏覽(24)
  • 手把手帶你入門深度學(xué)習(xí)(一):保姆級(jí)Anaconda和PyTorch環(huán)境配置指南

    手把手帶你入門深度學(xué)習(xí)(一):保姆級(jí)Anaconda和PyTorch環(huán)境配置指南

    B站:馬上就更?。?!_bilibili CSDN:手把手帶你入門深度學(xué)習(xí)(一):保姆級(jí)Anaconda和PyTorch環(huán)境配置指南_百年后封筆-CSDN博客 Github:封筆 公眾號(hào):百年后封筆 你好,我是封筆! 如今深度學(xué)習(xí)技術(shù)的不斷演進(jìn),我們的生活發(fā)生著翻天覆地的變化,無(wú)論是計(jì)算機(jī)視覺、自然語(yǔ)言處

    2024年02月08日
    瀏覽(96)
  • 從雙目標(biāo)定到立體匹配:pyton實(shí)踐指南

    從雙目標(biāo)定到立體匹配:pyton實(shí)踐指南

    立體匹配是計(jì)算機(jī)視覺中的一個(gè)重要領(lǐng)域,旨在將從不同角度拍攝的圖像匹配起來,以創(chuàng)建類似人類視覺的3D效果。實(shí)現(xiàn)立體匹配的過程需要涉及許多步驟,包括雙目標(biāo)定、立體校正、視差計(jì)算等。在這篇文章中,將介紹如何使用Python實(shí)現(xiàn)立體匹配的基本步驟和技巧。 下面的

    2024年02月11日
    瀏覽(24)
  • rabbitMQ入門指南:管理頁(yè)面全面指南及實(shí)戰(zhàn)操作

    rabbitMQ入門指南:管理頁(yè)面全面指南及實(shí)戰(zhàn)操作

    ??在前一篇文章在centos stream 9環(huán)境中部署和使用rabbitMQ,我們已經(jīng)詳細(xì)介紹了如何在CentOS下安裝和配置RabbitMQ,我們不僅啟動(dòng)了RabbitMQ服務(wù),還通過插件安裝了管理后臺(tái),并且登陸到管理頁(yè)面。 ??RabbitMQ管理后臺(tái)提供了一個(gè)直觀的用戶界面,允許我們查看和管理RabbitMQ服務(wù)器

    2024年02月12日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包