国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

從抓取規(guī)劃角度來看,抓取位姿檢測(cè)可以分為基于模型的方法(Model-Based Methods)和基于傳感器反饋的方法Sensor Feedback-Based Methods)。

基于模型的方法依賴于預(yù)先構(gòu)建的物體模型或場(chǎng)景模型,并在規(guī)劃階段使用模型進(jìn)行位姿檢測(cè)和規(guī)劃。一些常見的基于模型的方法包括基于物體表面特征的抓取規(guī)劃基于物體幾何約束的抓取規(guī)劃等。該方法的優(yōu)勢(shì)在于可以在離線階段進(jìn)行計(jì)算,并且可以預(yù)測(cè)不同抓取位姿的成功概率,但是可移植率低,不能應(yīng)用于未知的無模型物體。

基于傳感器的方法依賴于傳感器獲得的實(shí)時(shí)反饋信息,例如視覺、力覺或觸覺傳感器的數(shù)據(jù),利用視覺估計(jì)、力控抓取、接觸感知來進(jìn)行抓取位姿檢測(cè)和調(diào)整。由于該方法可以根據(jù)當(dāng)前環(huán)境的變化來實(shí)時(shí)地調(diào)整抓取位姿,所以這種基于傳感器反饋的方法具有更強(qiáng)的實(shí)時(shí)性和適應(yīng)性。

基于傳感器反饋的方法

  1. 視覺估計(jì)(Visual Grasp Estimation):
    • 方法:通過攝像頭或深度傳感器捕獲物體圖像或點(diǎn)云數(shù)據(jù),然后使用計(jì)算機(jī)視覺技術(shù)(例如卷積神經(jīng)網(wǎng)絡(luò))來估計(jì)抓取位姿。
    • 經(jīng)典方法:GQ-CNN、PointNetGPD
    • 作者:Mahler等
  2. 力控抓?。‵orce Control Grasping):
    • 方法:使用力覺傳感器或力-力矩傳感器來感知物體與機(jī)器人手爪之間的接觸力,基于力信息進(jìn)行抓取位姿規(guī)劃和控制。
    • 經(jīng)典方法:基于PID控制、力閉環(huán)控制的方法
    • 作者:無特定作者,領(lǐng)域內(nèi)有多位研究者在力控抓取領(lǐng)域進(jìn)行了研究。
  3. 觸覺傳感抓?。═actile Sensing Grasping):
    • 方法:使用觸覺傳感器來獲取物體表面的觸覺信息,如形狀、硬度等,結(jié)合力信息進(jìn)行抓取位姿檢測(cè)和調(diào)整。
    • 經(jīng)典方法:基于觸覺數(shù)據(jù)融合的方法
    • 作者:R. Detry等

基于模型的方法

  1. 物體幾何模型:
    • 方法:通過先驗(yàn)知識(shí)或離線建模,獲得物體的幾何模型,如點(diǎn)云模型、CAD模型等,然后在規(guī)劃階段對(duì)模型進(jìn)行分析和規(guī)劃。
    • 經(jīng)典方法:隨機(jī)抓取、基于凸包的方法
    • 作者:J. Bohg等
  2. 物體形狀特征:
    • 方法:使用物體的形狀特征,如表面法線、曲率等,來進(jìn)行抓取位姿規(guī)劃??梢曰谔卣鞯钠ヅ浜头治鰜砉烙?jì)合適的抓取位姿。
    • 經(jīng)典方法:基于表面法線的抓取規(guī)劃
    • 作者:S. Levine等
  3. 物體運(yùn)動(dòng)模型:
    • 方法:使用物體的運(yùn)動(dòng)模型,預(yù)測(cè)物體在抓取過程中的運(yùn)動(dòng)和姿態(tài)變化,從而規(guī)劃合適的抓取位姿。
    • 經(jīng)典方法:基于物體動(dòng)力學(xué)的抓取規(guī)劃
    • 作者:無特定作者,領(lǐng)域內(nèi)有多位研究者在物體運(yùn)動(dòng)模型方面進(jìn)行了研究。

基于點(diǎn)云的機(jī)器人抓取識(shí)別綜述 - 3D視覺工坊 - 博客園 (cnblogs.com)

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀 劉亞欣_CV-楊帆的博客-CSDN博客

1.分析法

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人圖 1 為分析法在進(jìn)行抓取檢測(cè)時(shí)所采用的 一般策略[3]

[3]Sahbani A, El-Khoury S, Bidaud P. An overview of 3D object grasp synthesis algorithms[J]. Robotics and Autonomous Systems, 2012, 60(3): 326-336.

首先,基于環(huán)境限制和機(jī)械手與物體模 型進(jìn)行抓取檢測(cè),抓取檢測(cè)是指找到滿足與抓取任 務(wù)相關(guān)的一組候選抓取位姿的過程;然后,基于一定的選擇標(biāo)準(zhǔn)和任務(wù)導(dǎo)向?qū)?chǎng)景輸出的一組抓取位姿 進(jìn)行選擇,輸出最佳抓取位姿;最后,傳遞給機(jī)器人執(zhí) 行抓取. 實(shí)際應(yīng)用時(shí)不一定包含圖1中介紹的所有元 素. 圖2就分析法所涉及的動(dòng)力學(xué)、運(yùn)動(dòng)學(xué)、幾何、結(jié) 構(gòu)關(guān)系進(jìn)行了詳細(xì)的展開說明. 在閱讀文獻(xiàn)的過程 中發(fā)現(xiàn),因?yàn)橛?jì)算困難,當(dāng)下應(yīng)用的分析法多數(shù)沒有 考慮到任務(wù)約束,實(shí)際情況大多是基于任務(wù)導(dǎo)向的; 分析法還有一個(gè)主要缺點(diǎn),它要求對(duì)象參數(shù)是已知 的,因此分析法不適合在非結(jié)構(gòu)環(huán)境下廣泛使用.

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人

2.經(jīng)驗(yàn)法

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人

已知物體抓取流程:
已知物體抓取參考:Bohg J, Morales A, Asfour T, et al. Data-driven grasp synthesis— A survey[J]. IEEE Transactions on Robotics, 2014, 30(2): 289-309.

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人

在離線階段,對(duì)物體模型數(shù)據(jù)庫(kù)的每個(gè)物體進(jìn)行處理,生成候選抓取位姿,基于一定的選擇標(biāo)準(zhǔn)進(jìn)行評(píng)分排序,將抓取位姿存入抓取經(jīng)驗(yàn)數(shù)據(jù)庫(kù),與物體模型數(shù)據(jù)庫(kù)進(jìn)行一一對(duì)應(yīng),以便檢索

在在線階段,將場(chǎng)景進(jìn)行分割,識(shí)別出物體,找 到物體模型數(shù)據(jù)庫(kù)中的物體與之對(duì)應(yīng),然后進(jìn)行物體 姿態(tài)估計(jì),根據(jù)位姿檢索找到抓取經(jīng)驗(yàn)數(shù)據(jù)庫(kù)中的抓 取位姿,最后進(jìn)行抓取選擇和可達(dá)性過濾,執(zhí)行抓取.

基于感知方法對(duì)未知物體抓取檢測(cè)的流程

對(duì)于未知對(duì)象,該方 法基于啟發(fā)式將感知數(shù)據(jù)中的結(jié)構(gòu)與候選抓取姿態(tài) 直接鏈接起來,根據(jù)使用數(shù)據(jù)特征的不同將這類方法 分為兩種:一是提取分割后的點(diǎn)云或圖片數(shù)據(jù)中的 二維或三維特征,基于啟發(fā)式進(jìn)行抓取規(guī)劃[26-29];二 是根據(jù)已經(jīng)分割好的點(diǎn)云直接擬合或估計(jì)基本幾何 形狀,進(jìn)而根據(jù)該幾何形狀進(jìn)行抓取規(guī)劃[30-31] .

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人

基于學(xué)習(xí)方法進(jìn)行抓取的分類

使用學(xué)習(xí)的方法檢測(cè)抓取可分為兩大類,如圖6 所示:一是基于抓取檢測(cè)的抓取方法(需要一個(gè)單獨(dú) 抓取規(guī)劃控制系統(tǒng)),通過抓取檢測(cè)方法生成抓取位 姿,再使用單獨(dú)的規(guī)劃控制系統(tǒng)基于軌跡規(guī)劃生成軌 跡,實(shí)現(xiàn)完整的抓取;二是基于視覺運(yùn)動(dòng)控制策略的 端到端抓取方法,實(shí)現(xiàn)從圖像直接到抓取動(dòng)作的映 射. 其中,第1類按照學(xué)習(xí)內(nèi)容的不同又包含兩種方法,一種是學(xué)習(xí)抓取表示的結(jié)構(gòu)化輸出,例如抓取框 等;另一種是學(xué)習(xí)抓取魯棒性評(píng)估[2] . 表1列出了基 于學(xué)習(xí)的抓取檢測(cè)方法的分類以及相關(guān)文獻(xiàn)的檢測(cè) 準(zhǔn)確率、速度等結(jié)果,并展示了文獻(xiàn)所采用的數(shù)據(jù)集 和算法,下文將緊緊圍繞表1進(jìn)行詳細(xì)說明.

機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人
機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人
機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀,機(jī)器人,機(jī)器人文章來源地址http://www.zghlxwxcb.cn/news/detail-706704.html

到了這里,關(guān)于機(jī)器人抓取檢測(cè)技術(shù)的研究現(xiàn)狀的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包