国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【四】3D Object Model之創(chuàng)建Creation——read_object_model_3d()算子

這篇具有很好參考價值的文章主要介紹了【四】3D Object Model之創(chuàng)建Creation——read_object_model_3d()算子。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


??????歡迎來到本博客??????

?????? Halcon算子太多,學習查找都沒有系統(tǒng)的學習查找路徑,本專欄主要分享Halcon各類算子含義及用法,有時間會更新具體案例。

?????? 具體食用方式:可以點擊本專欄【Halcon算子快速查找】–>搜索你要查詢的算子名稱;或者點擊Halcon算子匯總博客,即可食用。

??????支持:如果覺得博主的文章還不錯或者您用得到的話,可以悄悄關注一下博主哈,如果三連收藏支持就更好啦!這就是給予我最大的支持!??????


學習目標

  • read_object_model_3d()

學習內(nèi)容

算子簡介

函數(shù)名 解釋
read_object_model_3d() 從文件中讀取三維對象模型。

1、read_object_model_3d()

??read_object_model_3d( : : FileName, Scale, GenParamName, GenParamValue : ObjectModel3D, Status)

??函數(shù)說明: read_object_model_3d從文件FileName讀取一個3D對象模型,并將一個3D對象模型句柄返回給ObjectModel3D。

??函數(shù)參數(shù):
????FileName輸入要讀取的文件的文件名,具體如下:

參數(shù)名 解釋
'om3' 使用此格式可以通過write_object_model_3d函數(shù)將文件寫入。此格式的默認文件擴展名為'om3'
'dxf' AUTOCAD格式。此格式的默認文件擴展名為'dxf'。
'off' Object File Format(.off)。這是一種基于ASCII的簡單格式,可以存儲3D點和多邊形。不支持二進制OFF格式。此格式的默認文件擴展名為'off'。
'ply' 多邊形文件格式(也稱為斯坦福三角形格式)。這是一種簡單的格式,可以存儲3D點、點法線和多邊形。HALCON支持該格式的ASCII和二進制版本。此格式的默認文件擴展名為'ply'
'obj' OBJ文件格式,也稱為’Wavefront OBJ格式’。這是一種基于ASCII的格式,可以存儲3D點、多邊形、法線、紋理坐標、材質(zhì)和其他信息。HALCON支持點('v’行)和多邊形面(‘f’行)。其他實體將被忽略。此格式的默認文件擴展名為'obj'
'stl','stl_binary','stl_ascii' STL文件格式,也稱為’立體光刻格式’、‘表面三角化語言’、‘標準三角化語言’和’標準三角剖分語言’。該格式存儲三角形和三角形法線。然而,由于HALCON 3D對象模型不支持三角形法線,只讀取三角形,而忽略三角形法線。如果需要,法線會從三角形重新計算。HALCON同時支持該格式的ASCII和二進制版本。如果設置為’stl’,HALCON將自動檢測格式類型。將類型設置為’stl_binary’或’stl_ascii’將強制使用相應的格式。此格式的默認文件擴展名為'stl'。

????Scale輸入 文件中數(shù)據(jù)的比例,單位與縮放因子的關系如下表所示:

readobjectmodel3d,# 【四】3D Object Model,3d,圖像處理,算法,halcon,計算機視覺

????GenParamName輸入 參數(shù)名,可以設置一組額外的可選參數(shù)。參數(shù)的名稱和值分別通過GenParamNameGenParamValue傳遞,參數(shù)名如下表

參數(shù)名 解釋
'file_type' 設置文件類型,如: 'om3', 'dxf', 'off', 'ply', 'obj', 'stl'
'convert_to_triangles' 將所有面轉(zhuǎn)換為三角形。如果將此參數(shù)設置為“true”,則從文件中讀取的所有面都會被轉(zhuǎn)換為三角形。默認值'false';適用格式: 'dxf', 'ply', 'off', 'obj', 'stl'
'invert_normals' 反轉(zhuǎn)法線和面的方向。如果將此參數(shù)設置為“true”,則所有法線和面的方向?qū)⒈环崔D(zhuǎn)。默認值'false';適用格式: 'dxf', 'ply', 'off', 'obj'
'max_approx_error','min_num_points DXF特定參數(shù),適用格式: 'dxf
'xyz_map_width' 為讀取的3D物體模型創(chuàng)建一個映射,將每個讀取的3D點分配給一個圖像坐標,類似于xyz_to_object_model_3d。假設讀取的文件按行包含了3D點。傳入的值將用作圖像的寬度,圖像的高度會自動計算。如果設置了該參數(shù),可以使用object_model_3d_to_xyz方法中的’from_xyz_map’選項對讀取的3D物體模型進行投影。只能設置兩個參數(shù)中的一個:‘xyz_map_width’和’xyz_map_height’。范圍: ‘xyz_map_width’ > 0;默認值'-1;適用格式: 'ply', 'off', 'obj'
'xyz_map_height' 與’xyz_map_width’類似,但假設3D點是按列對齊的。圖像的寬度將自動計算。只能設置’xyz_map_width’和’xyz_map_height’中的一個參數(shù)。范圍: ‘xyz_map_height’ > 0; 默認值'-1;適用格式: 'ply', 'off', 'obj'

????GenParamValue輸入 對應參數(shù)名的參數(shù)值,詳見上表;
????ObjectModel3D輸出 3D對象模型句柄;
????Status輸出狀態(tài)信息;

Halcon例程

vector_to_hom_mat3d.hdev						從點對應關系近似不同類型的仿射三維變換
triangulate_object_model_3d_implicit.hdev		對三維對象模型進行三角化(隱式)
triangulate_object_model_3d_greedy.hdev			對三維對象模型進行三角化(顯式)
select_points_object_model_3d.hdev				使用閾值刪除三維對象模型的部分
reduce_object_model_3d_by_view.hdev				按視圖刪除三維對象模型的部分
locate_pipe_joints_stereo.hdev					使用多視圖立體和基于曲面的三維匹配定位管道接頭
locate_cylinder_3d.hdev							通過結(jié)合立體和3D匹配找到堆中最高的圓柱體
intersect_plane_object_model_3d.hdev			計算三維對象模型和平面之間的交點
interactive_intersection.hdev					交互式計算三維對象模型和平面之間的交點
find_deformable_surface_model.hdev				使用基于可變形曲面的匹配在三維場景中查找對象
create_shape_model_3d_lowest_model_level.hdev	減少3D形狀模型所需的內(nèi)存
create_shape_model_3d_ignore_part_polarity.hdev	加快紋理背景上基于形狀的3D匹配
connection_object_model_3d.hdev					計算三維對象模型的連接組件
calibrate_sheet_of_light_3d_calib_object.hdev	使用3D校準對象校準光測量系統(tǒng)

【3D Object Model之創(chuàng)建Creation】 待更新算子

  • clear_object_model_3d()
  • copy_object_model_3d()
  • deserialize_object_model_3d()
  • gen_box_object_model_3d()
  • gen_cylinder_object_model_3d()
  • gen_empty_object_model_3d()
  • gen_object_model_3d_from_points()
  • gen_plane_object_model_3d()
  • gen_sphere_object_model_3d()
  • gen_sphere_object_model_3d_center()
  • read_object_model_3d()
  • serialize_object_model_3d()
  • set_object_model_3d_attrib()
  • set_object_model_3d_attrib_mod()
  • union_object_model_3d()
  • write_object_model_3d()

匯總

??本專欄博客匯總:Halcon算子匯總


??????今天的文章就到這里啦~
喜歡的話,點贊??、收藏??、關注??哦 ~文章來源地址http://www.zghlxwxcb.cn/news/detail-790351.html

到了這里,關于【四】3D Object Model之創(chuàng)建Creation——read_object_model_3d()算子的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【論文筆記】SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model

    【論文筆記】SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model

    原文鏈接:https://arxiv.org/pdf/2306.02245.pdf ??分割一切模型(SAM)作為視覺領域的基石模型,有強大的泛化性,能解決很多2D視覺問題。但是SAM是否可以適用于3D視覺任務,仍需要被探索。 ??目前幾乎沒有關于3D目標檢測的零樣本學習,如何使SAM的零樣本能力適用于3D目標檢測

    2024年02月16日
    瀏覽(23)
  • 【論文筆記】SVDM: Single-View Diffusion Model for Pseudo-Stereo 3D Object Detection

    【論文筆記】SVDM: Single-View Diffusion Model for Pseudo-Stereo 3D Object Detection

    原文鏈接:https://arxiv.org/abs/2307.02270 ??目前的從單目相機生成偽傳感器表達的方法依賴預訓練的深度估計網(wǎng)絡。這些方法需要深度標簽來訓練深度估計網(wǎng)絡,且偽立體方法通過圖像正向變形合成立體圖像,會導致遮擋區(qū)域的像素偽影、扭曲、孔洞。此外,特征級別的偽立體

    2024年02月08日
    瀏覽(22)
  • 【EAI 010】MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World

    【EAI 010】MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World

    論文標題:MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World 論文作者:Yining Hong, Zishuo Zheng, Peihao Chen, Yian Wang, Junyan Li, Chuang Gan 作者單位:UMass Amherst, UCLA, MIT-IBM Watson AI Lab 論文原文:https://arxiv.org/abs/2401.08577 論文出處:– 論文被引:–(02/02/2024) 項目主頁:

    2024年02月22日
    瀏覽(24)
  • springCloudNetFlex hystrix 服務降級報錯:FactoryBean threw exception on object creation;

    在做服務降級的時候,老是報錯 先看一下具體錯誤: 我是在api模塊做的服務降級 springCloudApi IServiceProvider testFallBackService 以上是服務降級的全部代碼,然后我搜上面的報錯,大部分都是在說我FallbackFactory類,沒有加@Component這個注解,但我加了還是報這個錯 我仔細看了這個錯

    2024年02月14日
    瀏覽(47)
  • 論文解讀《Learning Deep Network for Detecting 3D Object Keypoints and 6D Poses》 無需位姿標注的model-free 6D位姿估計

    論文解讀《Learning Deep Network for Detecting 3D Object Keypoints and 6D Poses》 無需位姿標注的model-free 6D位姿估計

    論文:《Learning Deep Network for Detecting 3D Object Keypoints and 6D Poses》 摘要: 解決問題:標注困難且沒有CAD模型。 開發(fā)了一種基于關鍵點的6D對象姿態(tài)檢測方法,Object Keypoint based POSe Estimation (OK-POSE)。通過使用大量具有多視點之間的 相對變換信息 的圖像對(相對變換信息可以很容

    2024年02月04日
    瀏覽(19)
  • COM,Component Object Model 簡介

    COM,Component Object Model 簡介

    COM 的英文全稱是,Component Object Model,中文譯為,組件對象模型。它官方的概念是: 與其說 COM 是 System,更確切的說,應該叫做 Standard。因為它實際上是一套公共的 binary 標準,用于規(guī)定 software component 的接口的標準。也有人會把 COM 叫做 Common Object Model,但這其實是一種誤傳

    2024年02月14日
    瀏覽(29)
  • DiffusionDet: Diffusion Model for Object Detection

    DiffusionDet: Diffusion Model for Object Detection

    論文題目:DiffusionDet: Diffusion Model for Object Detection 論文來源:arXiv preprint 2022 論文地址:https://arxiv.org/abs/2211.09788 論文代碼:https://github.com/ShoufaChen/DiffusionDet DDPM DDIM 傳統(tǒng)方法根據(jù)經(jīng)驗設計region proposals/anchor boxes/queries等 本文可從隨機初始化的boxes進行回歸和分類 方法概述:

    2024年02月12日
    瀏覽(26)
  • 【Paper Reading】CenterNet:Keypoint Triplets for Object Detection

    【Paper Reading】CenterNet:Keypoint Triplets for Object Detection

    首先是借鑒Corner Net 表述了一下基于Anchor方法的不足: anchor的大小/比例需要人工來確認 anchor并沒有完全和gt的bbox對齊,不利于分類任務。 但是CornerNet也有自己的缺點 CornerNet 只預測了top-left和bottom-right 兩個點,并沒有關注整體的信息,因此缺少一些全局的信息 上述的點導致

    2024年02月14日
    瀏覽(28)
  • 已解決AttributeError: ‘str‘ object has no attribute ‘read‘

    已解決AttributeError: ‘str‘ object has no attribute ‘read‘

    已解決(json.load()讀取json文件報錯)AttributeError: ‘str‘ object has no attribute ‘read‘ 粉絲群里面的一個粉絲在用Python讀取json文件的時候,出現(xiàn)了報錯(跑來找我求助,然后順利幫助他解決了,順便記錄一下希望可以幫助到更多遇到這個bug不會解決的小伙伴),報錯信息和代碼

    2024年02月12日
    瀏覽(41)
  • 【論文閱讀】DQnet: Cross-Model Detail Querying for Camouflaged Object Detection

    【論文閱讀】DQnet: Cross-Model Detail Querying for Camouflaged Object Detection

    DQnet:偽裝目標檢測中的跨模型細節(jié)查詢 論文地址:https://arxiv.org/abs/2212.08296 這篇文章提出了一個交叉模型框架(CNN-Transformer并行)來檢測偽裝目標 出發(fā)點還是:CNN局部感知,感受野受限 ,Transformer全局信息豐富但細節(jié)信息不足。希望結(jié)合二者優(yōu)勢 這個思路目前做的挺多的

    2024年02月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包