国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記

這篇具有很好參考價值的文章主要介紹了RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

原文:

Houston, Ben, Mark Wiebe, and Chris Batty. “RLE sparse level sets.” ACM SIGGRAPH 2004 Sketches. 2004. 137.

只有一頁,這就是技術(shù)草案的含金量嗎

RLE 稀疏水平集

run-length encoded, RLE 游程編碼

為什么 run-length 會被翻譯為游程
我理解它把連續(xù)的重復(fù)出現(xiàn)的數(shù)字編碼成 值+出現(xiàn)次數(shù) 的思想
但是還是理解不了這個翻譯
只能把 run 理解為 值 - 出現(xiàn)次數(shù) 的 pair
或許這個 pair 就被稱為游程

RLE 稀疏水平集表示具有許多有益的特性:

(1)高度可擴(kuò)展,

(2)快速隨機(jī)訪問,

(3)窄帶的順序遍歷是最佳的,

(4)在整個包圍體中提供近似距離值,

(5)易于適應(yīng)大多數(shù)為常規(guī)網(wǎng)格結(jié)構(gòu)開發(fā)的現(xiàn)有水平集方法。

這些優(yōu)點(diǎn)并不都是八叉樹、稀疏域方法或稀疏塊網(wǎng)格可擴(kuò)展水平集表示所共有的(在 [Bridson 2003] 中進(jìn)行了評論)。

隨機(jī)訪問

實(shí)現(xiàn):

  1. 在每行開始時重新啟動 RLE

  2. 將兩個表添加到 RLE 結(jié)構(gòu)中

    run-start table 游程起點(diǎn)表 將每個游程與其沿壓縮軸的起始體素坐標(biāo)相關(guān)聯(lián)

    第二個表將其他兩個軸的體素坐標(biāo)與相應(yīng)游程長度編碼行的第一游程相關(guān)聯(lián)

那么隨機(jī)訪問的過程是

  1. 使用上述第二個表查找與感興趣的行相對應(yīng)的 run-start table 中的段

  2. 如果這個游程已經(jīng)被定義的話,對 run-start table 的已識別段使用二分搜索來查找感興趣的游程

  3. 使用游程數(shù)據(jù)起始偏移量來確定體素值的數(shù)據(jù)索引。因此,隨機(jī)訪問時間減少到 O(log r) 而不是 O?,其中 r 是單行中的平均運(yùn)行次數(shù),R 是運(yùn)行總數(shù)。

RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記,Fluid Simulation,筆記

水平集游程類型

定義三種類型,有定義、正無窮、負(fù)無窮

如果是窄帶水平集,有定義對應(yīng)窄帶之內(nèi),正無窮對應(yīng) SDF 值大于寬度,負(fù)無窮對應(yīng) SDF 值小于寬度的負(fù)數(shù)

需要注意的是,定義的運(yùn)行類型與所有其他運(yùn)行類型的不同之處在于,此類表示的單元格的值顯式存儲在關(guān)聯(lián)的平面值數(shù)組中。

他這句話的意思應(yīng)該就是,”有定義“就是表示有實(shí)際對應(yīng)的值?

編碼

構(gòu)建 RLE 稀疏場結(jié)構(gòu)的空間和時間復(fù)雜度均為 O(n^2 +R+D),其中 n 是包圍體的邊長,D 是定義的體素總數(shù)。

假設(shè)在任何 O(n^3 ) 網(wǎng)格中,只有 O(n^2 ) 個單元靠近表面,就像足夠光滑的幾何形狀的情況一樣,RLE 稀疏場結(jié)構(gòu)的縮放比例接近最優(yōu)的,O(n^2 + R)的,空間和時間成本

不確定他是不是說的”最優(yōu)的,O(n^2 + R)的成本“

CSG 操作

當(dāng)輸入 RLE 稀疏水平集的編碼軸匹配時,僅使用 O(R_a+D_a+R_b+D_b) 操作即可非常高效地執(zhí)行常見水平集 CSG 操作(例如并集、交集和減法)

增強(qiáng)水平集

與許多稀疏結(jié)構(gòu)不同,RLE 稀疏字段與定義值的存儲分離。因此,對于用輔助數(shù)據(jù)增強(qiáng)的水平集,例如 [Houston et al 2003] 中引入的全局遮擋表示形式,單個 RLE 稀疏字段結(jié)構(gòu)可以與多個定義的平面值數(shù)組相關(guān)聯(lián),每個值對應(yīng)一個所需的輔助字段

這個 Augmented 與其翻譯為增強(qiáng),不如翻譯為拓展?

表現(xiàn)動畫角色

轉(zhuǎn)換為 RLE 形式

RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記,Fluid Simulation,筆記

網(wǎng)格面到 RLE 水平集

在 [Houston et al. 2003] 中介紹的,將網(wǎng)格轉(zhuǎn)換為密集水平集的結(jié)構(gòu)化射線投射方法,可以適用于 RLE 稀疏水平集,這樣既不需要 O(n^3) 中間存儲,也不需要 O(n^3) 操作。這種效率源于射線投射算子能夠同時為體積的大型線性部分提供 SDF 的上界。

雖然結(jié)構(gòu)化低密度射線投射本身并不能產(chǎn)生精確的距離場解,但可以使用較慢但精確的方法作為后處理,將已識別窄帶的水平集值提高到亞體素精度

自相交

為了處理傳統(tǒng)動畫角色中經(jīng)常出現(xiàn)的自相交問題,我們采用以下消歧方案:與網(wǎng)格點(diǎn)相交的每個光線投射都會產(chǎn)生內(nèi)部或外部投票以及相應(yīng)的帶符號距離值。經(jīng)過多個通道 pass 后,得票最多的符號對應(yīng)的距離將被解析為最終的水平集的值

時間抗鋸齒

動畫角色通常具有子體素特征,例如尖銳的折疊或邊緣,當(dāng)在規(guī)則的網(wǎng)格結(jié)構(gòu)上進(jìn)行動畫處理時,可能會導(dǎo)致視覺上令人不快的鋸齒偽影。為了消除這些偽影,無需美術(shù)師干預(yù)或調(diào)節(jié),可以將網(wǎng)格轉(zhuǎn)換為所需分辨率兩倍的 RLE 稀疏水平集,然后使用低通濾波器下采樣至所需分辨率

總結(jié)

看上去核心就是那個隨機(jī)訪問的過程

但是我理解不了他是怎么做到的文章來源地址http://www.zghlxwxcb.cn/news/detail-834852.html

到了這里,關(guān)于RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 論文閱讀筆記

    VL 模型 Open-Set Domain Adaptation with Visual-Language Foundation Models 論文閱讀筆記

    寫在前面 ??又是一周周末,在家的時間感覺過得很快呀,下周就能回學(xué)校啦~ 論文地址:Open-Set Domain Adaptation with Visual-Language Foundation Models 代碼地址:當(dāng)前版本暫未提供代碼地址 預(yù)計提交于:CVPR 2024 Ps:2023 年每周一篇博文閱讀筆記,主頁 更多干貨,歡迎關(guān)注呀,期待 5

    2024年02月14日
    瀏覽(26)
  • 【論文閱讀】【3d目標(biāo)檢測】Embracing Single Stride 3D Object Detector with Sparse Transformer

    【論文閱讀】【3d目標(biāo)檢測】Embracing Single Stride 3D Object Detector with Sparse Transformer

    論文標(biāo)題:Embracing Single Stride 3D Object Detector with Sparse Transformer 源碼地址:https://github.com/TuSimple/SST CVPR2022 文章寫得很好! 文章從2d 3d目標(biāo)檢測目標(biāo)的尺寸的不同入手,在2d目標(biāo)檢測中確實(shí)由于圖像近大遠(yuǎn)小的尺寸關(guān)系 存在著圖像中物體尺寸長尾的問題: 如coco數(shù)據(jù)集中,大小

    2023年04月15日
    瀏覽(25)
  • 論文閱讀:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

    論文閱讀:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

    CVPR2022 首先我們由一組室內(nèi)的RGB圖像 { I i } i = 0 N ? 1 , I i ∈ [ 0 , 1 ] H × W × 3 {I_i}^{N-1}_{i=0}, I_i in [0,1]^{H times W times 3} { I i ? } i = 0 N ? 1 ? , I i ? ∈ [ 0 , 1 ] H × W × 3 。 通過SFM的方法,我們可以獲得相機(jī)位姿 p i ∈ R 6 p_i in mathbb{R}^6 p i ? ∈ R 6 , 內(nèi)參矩陣 K i ∈ R 3 ×

    2024年02月09日
    瀏覽(24)
  • 【論文閱讀+復(fù)現(xiàn)】SparseCtrl: Adding Sparse Controls to Text-to-Video Diffusion Models

    【論文閱讀+復(fù)現(xiàn)】SparseCtrl: Adding Sparse Controls to Text-to-Video Diffusion Models

    SparseCtrl:在文本到視頻擴(kuò)散模型中添加稀疏控制。 (AnimateDiff V3,官方版AnimateDiff+ControlNet,效果很絲滑) code:GitHub - guoyww/AnimateDiff: Official implementation of AnimateDiff. paper:https://arxiv.org/abs/2311.16933 目錄 文章 1 介紹 2 背景 3 方法 4 實(shí)驗 5 結(jié)論 復(fù)現(xiàn) 1 問題 2 結(jié)果 1 介紹 動機(jī):不斷

    2024年02月03日
    瀏覽(20)
  • sparse conv稀疏卷積

    sparse conv稀疏卷積

    ?很好的教程,感謝作者的分享 通俗易懂的解釋Sparse Convolution過程 - 知乎 稀疏卷積和普通卷積的區(qū)別 spconv和普通卷積沒有區(qū)別,最重要的區(qū)別在于卷積的數(shù)據(jù)的存儲方式和計算方法,這種計算方法可以增加計算稀疏點(diǎn)云的效率,其他的都是完全相同的(但SubMConv3d還是稍微有點(diǎn)

    2024年02月11日
    瀏覽(28)
  • [論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations

    [論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations

    [論文地址] [代碼] [CVPR 23] Abstract 我們考慮了檢測圖像中低層次結(jié)構(gòu)的通用問題,其中包括分割被操縱的部分,識別失焦像素,分離陰影區(qū)域,以及檢測隱藏的物體。每個問題通常都有一個特定領(lǐng)域的解決方案,我們表明,一個統(tǒng)一的方法在所有這些問題上都表現(xiàn)良好。我們從

    2024年02月15日
    瀏覽(21)
  • 論文閱讀|OUTRAGEOUSLY LARGE NEURAL NETWORKS- THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER

    ICLR 2017 神經(jīng)網(wǎng)絡(luò)吸收信息的能力受到其參數(shù)數(shù)量的限制。條件計算,即網(wǎng)絡(luò)的某些部分在每個示例的基礎(chǔ)上處于活動狀態(tài),在理論上已被提出作為一種在不按比例增加計算量的情況下大幅增加模型容量的方法。然而,在實(shí)踐中,存在重大的算法和性能挑戰(zhàn)。在這項工作中,我

    2024年02月02日
    瀏覽(18)
  • 【scipy.sparse包】Python稀疏矩陣詳解

    【scipy.sparse包】Python稀疏矩陣詳解

    數(shù)組和矩陣是數(shù)值計算的基礎(chǔ)元素 。目前為止,我們都是使用NumPy的ndarray數(shù)據(jù)結(jié)構(gòu)來表示數(shù)組,這是一種同構(gòu)的容器,用于存儲數(shù)組的所有元素。 有一種特殊情況, 矩陣的大部分元素都為零,這種矩陣被稱為稀疏矩陣 。對于稀疏矩陣,將所有零保存在計算機(jī)內(nèi)存中的效率很

    2024年01月21日
    瀏覽(24)
  • 【論文閱讀及代碼實(shí)現(xiàn)】BiFormer: 具有雙水平路由注意的視覺變壓器

    【論文閱讀及代碼實(shí)現(xiàn)】BiFormer: 具有雙水平路由注意的視覺變壓器

    BiFormer: Vision Transformer with Bi-Level Routing Attention 視覺轉(zhuǎn)換器的核心組成部分,注意力是捕捉長期依賴關(guān)系的有力工具 計算跨所有空間位置的成對token交互時,計算負(fù)擔(dān)和沉重的內(nèi)存占用 提出了一種新的動態(tài)稀疏注意,通過雙層路由實(shí)現(xiàn)更靈活的內(nèi)容感知計算分配 ? ? 過程:

    2024年02月12日
    瀏覽(22)
  • 【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    論文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代碼:https://github.com/hengcai-nju/3d2dct 問題1 :醫(yī)學(xué)圖像分割通常需要大量且精確標(biāo)注的數(shù)據(jù)集。但是獲取像素級標(biāo)注是一項勞動密集型的任務(wù),需要領(lǐng)域?qū)<腋冻鼍薮蟮呐?,這使得在實(shí)際臨床場

    2024年02月05日
    瀏覽(82)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包