色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

物體抓取領(lǐng)域的機(jī)器視覺

新機(jī)器視覺 ? 來源:知乎 ? 作者:知乎 ? 2021-06-18 11:44 ? 次閱讀

機(jī)器視覺的角度,由簡入繁從相機(jī)標(biāo)定,平面物體檢測、有紋理物體、無紋理物體、深度學(xué)習(xí)、與任務(wù)/運(yùn)動規(guī)劃結(jié)合等6個方面深度解析文章的標(biāo)題。

首先,我們要了解,機(jī)器人領(lǐng)域的視覺(Machine Vision)跟計算機(jī)領(lǐng)域(Computer Vision)的視覺有一些不同:機(jī)器視覺的目的是給機(jī)器人提供操作物體的信息。所以,機(jī)器視覺的研究大概有這幾塊:

1. 物體識別(Object Recognition):在圖像中檢測到物體類型等,這跟 CV 的研究有很大一部分交叉;

2. 位姿估計(Pose Estimation):計算出物體在攝像機(jī)坐標(biāo)系下的位置和姿態(tài),對于機(jī)器人而言,需要抓取東西,不僅要知道這是什么,也需要知道它具體在哪里;

3. 相機(jī)標(biāo)定(Camera Calibration):因?yàn)樯厦孀龅闹皇怯嬎懔宋矬w在相機(jī)坐標(biāo)系下的坐標(biāo),我們還需要確定相機(jī)跟機(jī)器人的相對位置和姿態(tài),這樣才可以將物體位姿轉(zhuǎn)換到機(jī)器人位姿。

當(dāng)然,我這里主要是在物體抓取領(lǐng)域的機(jī)器視覺;SLAM 等其他領(lǐng)域的就先不講了。

由于視覺是機(jī)器人感知的一塊很重要內(nèi)容,所以研究也非常多了,我就我了解的一些,按照由簡入繁的順序介紹吧。

一。 相機(jī)標(biāo)定

這其實(shí)屬于比較成熟的領(lǐng)域。由于我們所有物體識別都只是計算物體在相機(jī)坐標(biāo)系下的位姿,但是,機(jī)器人操作物體需要知道物體在機(jī)器人坐標(biāo)系下的位姿。所以,我們先需要對相機(jī)的位姿進(jìn)行標(biāo)定。

內(nèi)參標(biāo)定就不說了,參照張正友的論文,或者各種標(biāo)定工具箱;

外參標(biāo)定的話,根據(jù)相機(jī)安裝位置,有兩種方式:

Eye to Hand:相機(jī)與機(jī)器人極坐標(biāo)系固連,不隨機(jī)械臂運(yùn)動而運(yùn)動

Eye in Hand:相機(jī)固連在機(jī)械臂上,隨機(jī)械臂運(yùn)動而運(yùn)動

兩種方式的求解思路都類似,首先是眼在手外(Eye to Hand)

279ce6d4-cf69-11eb-9e57-12bb97331649.jpg

只需在機(jī)械臂末端固定一個棋盤格,在相機(jī)視野內(nèi)運(yùn)動幾個姿態(tài)。由于相機(jī)可以計算出棋盤格相對于相機(jī)坐標(biāo)系的位姿A_i 、機(jī)器人運(yùn)動學(xué)正解可以計算出機(jī)器人底座到末端抓手之間的位姿變化E_i 、而末端爪手與棋盤格的位姿相對固定不變。

這樣,我們就可以得到一個坐標(biāo)系環(huán) CX=XD

這種結(jié)構(gòu)的求解有很多方法,我這邊給出一個參考文獻(xiàn):

Shiu, Yiu Cheung, and Shaheen Ahmad. “Calibration of wrist-mounted robotic sensors by solving homogeneous transform equations of the form AX= XB.”ieee Transactions on Robotics and Automation 5.1 (1989): 16-29.

而對于眼在手上(Eye in Hand)的情況,也類似,在地上隨便放一個棋盤格(與機(jī)器人基座固連),然后讓機(jī)械臂帶著相機(jī)走幾個位姿,然后也可以形成一個AX=XB 的坐標(biāo)環(huán)。

27bcf64a-cf69-11eb-9e57-12bb97331649.jpg

二. 平面物體檢測

這是目前工業(yè)流水線上最常見的場景。目前來看,這一領(lǐng)域?qū)σ曈X的要求是:快速、精確、穩(wěn)定。所以,一般是采用最簡單的邊緣提取+邊緣匹配/形狀匹配的方法;而且,為了提高穩(wěn)定性、一般會通過主要打光源、采用反差大的背景等手段,減少系統(tǒng)變量。

目前,很多智能相機(jī)(如 cognex)都直接內(nèi)嵌了這些功能;而且,物體一般都是放置在一個平面上,相機(jī)只需計算物體的(x,y,θ)T 三自由度位姿即可。

另外,這種應(yīng)用場景一般都是用于處理一種特定工件,相當(dāng)于只有位姿估計,而沒有物體識別。

當(dāng)然,工業(yè)上追求穩(wěn)定性無可厚非,但是隨著生產(chǎn)自動化的要求越來越高,以及服務(wù)類機(jī)器人的興起。對更復(fù)雜物體的完整位姿(x,y,z,rx,ry,rz)T 估計也就成了機(jī)器視覺的研究熱點(diǎn)。

三.有紋理的物體

機(jī)器人視覺領(lǐng)域是最早開始研究有紋理的物體的,如飲料瓶、零食盒等表面帶有豐富紋理的都屬于這一類。

當(dāng)然,這些物體也還是可以用類似邊緣提取+模板匹配的方法。但是,實(shí)際機(jī)器人操作過程中,環(huán)境會更加復(fù)雜:光照條件不確定(光照)、物體距離相機(jī)距離不確定(尺度)、相機(jī)看物體的角度不確定(旋轉(zhuǎn)、仿射)、甚至是被其他物體遮擋(遮擋)。

幸好有一位叫做 Lowe 的大神,提出了一個叫做 SIFT (Scale-invariant feature transform)的超強(qiáng)局部特征點(diǎn):

Lowe, David G. “Distinctive image features from scale-invariant keypoints.”International journal of computer vision 60.2 (2004): 91-110.

具體原理可以看上面這篇被引用 4萬+ 的論文或各種博客,簡單地說,這個方法提取的特征點(diǎn)只跟物體表面的某部分紋理有關(guān),與光照變化、尺度變化、仿射變換、整個物體無關(guān)。

因此,利用 SIFT 特征點(diǎn),可以直接在相機(jī)圖像中尋找到與數(shù)據(jù)庫中相同的特征點(diǎn),這樣,就可以確定相機(jī)中的物體是什么東西(物體識別)。

對于不會變形的物體,特征點(diǎn)在物體坐標(biāo)系下的位置是固定的。所以,我們在獲取若干點(diǎn)對之后,就可以直接求解出相機(jī)中物體與數(shù)據(jù)庫中物體之間的單應(yīng)性矩陣。

如果我們用深度相機(jī)(如Kinect)或者雙目視覺方法,確定出每個特征點(diǎn)的 3D 位置。那么,直接求解這個 PnP 問題,就可以計算出物體在當(dāng)前相機(jī)坐標(biāo)系下的位姿。

↑ 這里就放一個實(shí)驗(yàn)室之前畢業(yè)師兄的成果

當(dāng)然,實(shí)際操作過程中還是有很多細(xì)節(jié)工作才可以讓它真正可用的,如:先利用點(diǎn)云分割和歐氏距離去除背景的影響、選用特征比較穩(wěn)定的物體(有時候 SIFT 也會變化)、利用貝葉斯方法加速匹配等。

而且,除了 SIFT 之外,后來又出了一大堆類似的特征點(diǎn),如 SURF、ORB 等。

四. 無紋理的物體

好了,有問題的物體容易解決,那么生活中或者工業(yè)里還有很多物體是沒有紋理的:

我們最容易想到的就是:是否有一種特征點(diǎn),可以描述物體形狀,同時具有跟 SIFT 相似的不變性?

不幸的是,據(jù)我了解,目前沒有這種特征點(diǎn)。

所以,之前一大類方法還是采用基于模板匹配的辦法,但是,對匹配的特征進(jìn)行了專門選擇(不只是邊緣等簡單特征)。

這里,我介紹一個我們實(shí)驗(yàn)室之前使用和重現(xiàn)過的算法 LineMod:

Hinterstoisser, Stefan, et al. “Multimodal templates for real-time detection of texture-less objects in heavily cluttered scenes.” Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011.

簡單而言,這篇論文同時利用了彩色圖像的圖像梯度和深度圖像的表面法向作為特征,與數(shù)據(jù)庫中的模板進(jìn)行匹配。

由于數(shù)據(jù)庫中的模板是從一個物體的多個視角拍攝后生成的,所以這樣匹配得到的物體位姿只能算是初步估計,并不精確。

但是,只要有了這個初步估計的物體位姿,我們就可以直接采用 ICP 算法(Iterative closest point)匹配物體模型與 3D 點(diǎn)云,從而得到物體在相機(jī)坐標(biāo)系下的精確位姿。

當(dāng)然,這個算法在具體實(shí)施過程中還是有很多細(xì)節(jié)的:如何建立模板、顏色梯度的表示等。另外,這種方法無法應(yīng)對物體被遮擋的情況。(當(dāng)然,通過降低匹配閾值,可以應(yīng)對部分遮擋,但是會造成誤識別)。

針對部分遮擋的情況,我們實(shí)驗(yàn)室的張博士去年對 LineMod 進(jìn)行了改進(jìn),但由于論文尚未發(fā)表,所以就先不過多涉及了。

五.深度學(xué)習(xí)

由于深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域得到了非常好的效果,我們做機(jī)器人的自然也會嘗試把 DL 用到機(jī)器人的物體識別中。

首先,對于物體識別,這個就可以照搬 DL 的研究成果了,各種 CNN 拿過來用就好了。在 2016 年的『亞馬遜抓取大賽』中,很多隊(duì)伍都采用了 DL 作為物體識別算法。

然而, 在這個比賽中,雖然很多人采用 DL 進(jìn)行物體識別,但在物體位姿估計方面都還是使用比較簡單、或者傳統(tǒng)的算法。似乎并未廣泛采用 DL。如 周博磊 所說,一般是采用 semantic segmentation network 在彩色圖像上進(jìn)行物體分割,之后,將分割出的部分點(diǎn)云與物體 3D 模型進(jìn)行 ICP 匹配。

當(dāng)然,直接用神經(jīng)網(wǎng)絡(luò)做位姿估計的工作也是有的,如這篇:

Doumanoglou, Andreas, et al. “Recovering 6d object pose and predicting next-best-view in the crowd.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.

它的方法大概是這樣:對于一個物體,取很多小塊 RGB-D 數(shù)據(jù)(只關(guān)心一個patch,用局部特征可以應(yīng)對遮擋);每小塊有一個坐標(biāo)(相對于物體坐標(biāo)系);然后,首先用一個自編碼器對數(shù)據(jù)進(jìn)行降維;之后,用將降維后的特征用于訓(xùn)練Hough Forest。

六。 與任務(wù)/運(yùn)動規(guī)劃結(jié)合

這部分也是比較有意思的研究內(nèi)容,由于機(jī)器視覺的目的是給機(jī)器人操作物體提供信息,所以,并不限于相機(jī)中的物體識別與定位,往往需要跟機(jī)器人的其他模塊相結(jié)合。

我們讓機(jī)器人從冰箱中拿一瓶『雪碧』,但是這個 『雪碧』 被『美年達(dá)』擋住了。

我們?nèi)祟惖淖龇ㄊ沁@樣的:先把 『美年達(dá)』 移開,再去取 『雪碧』 。

所以,對于機(jī)器人來說,它需要先通過視覺確定雪碧在『美年達(dá)』后面,同時,還需要確定『美年達(dá)』這個東西是可以移開的,而不是冰箱門之類固定不可拿開的物體。 當(dāng)然,將視覺跟機(jī)器人結(jié)合后,會引出其他很多好玩的新東西。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28466

    瀏覽量

    207310
  • 機(jī)器視覺
    +關(guān)注

    關(guān)注

    162

    文章

    4378

    瀏覽量

    120394
  • 定位技術(shù)
    +關(guān)注

    關(guān)注

    7

    文章

    290

    瀏覽量

    25360
  • 工業(yè)機(jī)器人
    +關(guān)注

    關(guān)注

    91

    文章

    3367

    瀏覽量

    92694

原文標(biāo)題:工業(yè)機(jī)器人抓取定位技術(shù)

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    機(jī)器視覺與運(yùn)動控制:科技協(xié)同下的完美搭檔

    在當(dāng)今先進(jìn)的工業(yè)制造和科技領(lǐng)域中,機(jī)器視覺與運(yùn)動控制這兩項(xiàng)關(guān)鍵技術(shù)正發(fā)揮著日益重要的作用。它們之間的關(guān)系緊密而復(fù)雜,共同推動著各個行業(yè)的發(fā)展與進(jìn)步。 一、機(jī)器
    的頭像 發(fā)表于 09-10 10:03 ?232次閱讀

    探索3D視覺技術(shù)在活塞桿自動化抓取中的應(yīng)用

    隨著工業(yè)4.0時代的到來,智能制造成為工業(yè)發(fā)展的重要趨勢。作為智能制造的關(guān)鍵技術(shù)之一,3D視覺技術(shù)在活塞桿抓取領(lǐng)域的應(yīng)用前景十分廣闊。
    的頭像 發(fā)表于 09-07 15:38 ?279次閱讀

    基于機(jī)器視覺的鐵路轉(zhuǎn)轍機(jī)精準(zhǔn)定位與故障抓取自動化解決方案

    隨著鐵路交通的快速發(fā)展,轉(zhuǎn)轍機(jī)作為確保列車安全、順暢運(yùn)行的關(guān)鍵設(shè)備,其維護(hù)和故障處理的重要性日益凸顯。傳統(tǒng)的轉(zhuǎn)轍機(jī)維護(hù)和故障處理方式往往依賴人工,不僅效率低下,而且存在安全風(fēng)險。為了提升鐵路運(yùn)營的效率和安全性,基于機(jī)器視覺的鐵路轉(zhuǎn)轍機(jī)精準(zhǔn)定位與故障
    的頭像 發(fā)表于 08-13 15:27 ?327次閱讀

    水星Mercury X1輪式人形機(jī)器人結(jié)合openc算法&STag標(biāo)記碼視覺系統(tǒng)實(shí)現(xiàn)精確抓取

    本案例展示了如何利用視覺系統(tǒng)提升機(jī)械臂的抓取精度,成功實(shí)現(xiàn)了人形機(jī)器人的雙臂抓取不在局限于單臂抓取。 引言 如今市面上已經(jīng)有了許多不同類型的
    的頭像 發(fā)表于 08-12 11:02 ?1469次閱讀
    水星Mercury X1輪式人形<b class='flag-5'>機(jī)器</b>人結(jié)合openc算法&STag標(biāo)記碼<b class='flag-5'>視覺</b>系統(tǒng)實(shí)現(xiàn)精確<b class='flag-5'>抓取</b>!

    機(jī)器視覺和人工智能的關(guān)系與應(yīng)用

    機(jī)器視覺和人工智能的關(guān)系是一個廣泛而深入的話題,涉及到計算機(jī)科學(xué)、電子工程、光學(xué)、圖像處理、模式識別等多個領(lǐng)域。 一、機(jī)器視覺和人工智能的定
    的頭像 發(fā)表于 07-16 10:27 ?964次閱讀

    工業(yè)機(jī)器視覺技術(shù)的應(yīng)用分為哪幾種?

    工業(yè)機(jī)器視覺技術(shù)的應(yīng)用非常廣泛,涉及到許多不同的領(lǐng)域和場景。以下是一些主要的應(yīng)用領(lǐng)域和相關(guān)技術(shù): 物體識別與定位
    的頭像 發(fā)表于 07-09 09:38 ?746次閱讀

    計算機(jī)視覺機(jī)器視覺區(qū)別在哪

    ,旨在實(shí)現(xiàn)對圖像和視頻的自動分析和理解。 機(jī)器視覺 機(jī)器視覺是計算機(jī)視覺的一個分支,主要應(yīng)用于工業(yè)自動化
    的頭像 發(fā)表于 07-09 09:22 ?462次閱讀

    機(jī)器視覺控制的優(yōu)缺點(diǎn)有哪些

    機(jī)器視覺控制是一種利用計算機(jī)視覺技術(shù)對機(jī)器進(jìn)行控制的方法,它在工業(yè)自動化、機(jī)器人技術(shù)、智能交通等領(lǐng)域
    的頭像 發(fā)表于 07-04 10:43 ?748次閱讀

    機(jī)器視覺控制軸運(yùn)動原理是什么

    機(jī)器視覺控制軸運(yùn)動原理是一個復(fù)雜而深入的主題。下面將從以下幾個方面進(jìn)行介紹: 機(jī)器視覺概述 機(jī)器視覺
    的頭像 發(fā)表于 07-04 10:42 ?562次閱讀

    機(jī)器視覺控制器哪種好

    機(jī)器視覺控制器是機(jī)器視覺系統(tǒng)中的核心部件,負(fù)責(zé)圖像的采集、處理和分析。隨著工業(yè)自動化和智能制造的快速發(fā)展,機(jī)器
    的頭像 發(fā)表于 07-04 10:35 ?563次閱讀

    機(jī)器視覺有哪些優(yōu)缺點(diǎn)

    隨著科技的不斷進(jìn)步和人工智能的飛速發(fā)展,機(jī)器視覺技術(shù)已成為工業(yè)自動化、智能制造、質(zhì)量控制等領(lǐng)域不可或缺的一部分。機(jī)器視覺是指通過光學(xué)設(shè)備和非
    的頭像 發(fā)表于 06-06 17:27 ?958次閱讀

    機(jī)器視覺系統(tǒng)的工作原理和應(yīng)用領(lǐng)域

      隨著科技的飛速發(fā)展,機(jī)器視覺系統(tǒng)已成為工業(yè)自動化領(lǐng)域不可或缺的一部分。機(jī)器視覺系統(tǒng),顧名思義,就是使用
    的頭像 發(fā)表于 06-06 14:04 ?1070次閱讀

    3D視覺技術(shù)無序抓取引導(dǎo)活塞桿

    隨著工業(yè)4.0時代的到來,智能制造成為工業(yè)發(fā)展的重要趨勢。作為智能制造的關(guān)鍵技術(shù)之一,3D視覺技術(shù)在活塞桿抓取領(lǐng)域的應(yīng)用前景十分廣闊。
    的頭像 發(fā)表于 05-13 13:40 ?292次閱讀
    3D<b class='flag-5'>視覺</b>技術(shù)無序<b class='flag-5'>抓取</b>引導(dǎo)活塞桿

    富唯智能案例|3D視覺引導(dǎo)機(jī)器抓取鞋墊上下料

    隨著制造業(yè)對自動化、智能化需求的不斷提升,如何實(shí)現(xiàn)鞋墊上下料的精準(zhǔn)、高效操作成為了企業(yè)亟待解決的問題。傳統(tǒng)的上下料方式往往依賴人工,存在效率低下、精度不足等問題。而富唯智能的3D視覺引導(dǎo)機(jī)器抓取解決方案,則能夠有效解決這些問題
    的頭像 發(fā)表于 04-08 16:57 ?412次閱讀
    富唯智能案例|3D<b class='flag-5'>視覺</b>引導(dǎo)<b class='flag-5'>機(jī)器</b>人<b class='flag-5'>抓取</b>鞋墊上下料

    機(jī)器視覺軟件有哪些 機(jī)器視覺軟件的優(yōu)點(diǎn)

    機(jī)器視覺軟件是一種利用計算機(jī)視覺技術(shù)來模擬和彌補(bǔ)人眼視覺功能的軟件系統(tǒng)。它可以通過對圖像和視頻進(jìn)行分析,識別和理解目標(biāo)物體,以實(shí)現(xiàn)自動化和智
    的頭像 發(fā)表于 02-02 10:53 ?1617次閱讀
    主站蜘蛛池模板: 国产成人在线视频网站| 国产一区精选播放022| 伊人精品久久久大香线蕉99| 玩高中女同桌肉色短丝袜脚文| 日韩在线中文字幕无码| 少妇两个奶头喷出奶水了怎么办| 色婷婷亚洲五月| 亚洲 欧美 国产 综合 播放| 亚洲国产日韩欧美高清片a| 亚洲视频免费| 2021国产精品视频| 菠萝菠萝蜜在线观看视频| 国产福利秒拍weipai.ee| 国产在线不卡| 毛片免费观看的视频| 青春草国产成人精品久久| 天天看高清影视在线18| 亚洲深夜在线| 97成人在线| 国产成人免费片在线视频观看| 饥渴的40岁熟妇完整版在线| 麻豆久久婷婷五月国产| 少妇被躁爽到高潮无码久久| 亚洲精品无码不卡| 99视频在线国产| 国产精品无码亚洲精品| 久久精品国产亚洲AV未满十八| 欧美性猛交XXXX乱大交极品| 无套内射纹身女视频| 中文字幕精品AV内射夜夜夜| 第一怡春院| 久久re热在线视频精69| 欧洲精品一区二区不卡观看| 亚洲AV成人无码网天堂| 3d在线看小舞被躁视频| 国产国拍亚洲精品永久软件 | 亚洲 欧美 日韩 国产 视频| 在线观看免费av网| 国产AV精品无码免费看| 老师的玉足高跟鞋满足我| 伸进同桌奶罩里摸她胸作文|