色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

iNeRF對RGB圖像進行類別級別的物體姿態(tài)估計

電子工程師 ? 來源:IROS 2021 ? 作者:Lin Yen-Chen, Pete Fl ? 2022-08-10 11:37 ? 次閱讀

作者:Lin Yen-Chen, Pete Florence, Jonathan T. Barron, Alberto Rodriguez, Phillip Isola, Tsung-Yi Lin

摘要

我們提出了iNeRF,一個通過 “反轉 ”神經輻射場(NeRF)來進行無網格姿勢估計的框架。NeRFs已經被證明對合成真實世界場景或物體的逼真的新視圖非常有效。在這項工作中,我們研究了是否可以通過NeRF來應用無網格、純RGB的6DoF姿態(tài)估計的分析合成法:給定一個圖像,找到攝像機相對于三維物體或場景的平移和旋轉。我們的方法假定在訓練或測試期間沒有物體網格模型可用。從最初的姿勢估計開始,我們使用梯度下降法來最小化從NeRF渲染的像素和觀察到的圖像中的像素之間的殘差。在我們的實驗中,我們首先研究:1)如何在iNeRF的姿勢精化過程中對射線進行取樣以收集信息梯度;2)不同批次的射線如何影響合成數據集上的iNeRF。然后我們表明,對于來自LLFF數據集的復雜的真實世界場景,iNeRF可以通過估計新的圖像的相機姿態(tài)和使用這些圖像作為NeRF的額外訓練數據來改善NeRF。最后,我們展示了iNeRF可以通過反轉從單一視圖推斷出的NeRF模型,對RGB圖像進行類別級別的物體姿態(tài)估計,包括訓練期間未見的物體實例。

主要貢獻

總而言之,我們的主要貢獻如下。

(i) 我們表明,iNeRF可以使用NeRF模型來估計具有復雜幾何形狀的場景和物體的6DoF姿態(tài),而不需要使用3D網格模型或深度感應--只使用RGB圖像作為輸入。

(ii) 我們對射線采樣和梯度優(yōu)化的批量大小進行了深入研究,以確定iNeRF的穩(wěn)健性和局限性。

(iii) 我們表明,iNeRF可以通過預測更多圖像的相機姿態(tài)來改善NeRF,這些圖像可以被添加到NeRF的訓練集中。

(iv) 我們展示了對未見過的物體的類別級姿勢估計結果,包括一個真實世界的演示。

主要方法

9eed7b3a-17e4-11ed-ba43-dac502259ad0.png

我們現(xiàn)在提出了iNeRF,一個通過 “反轉 ”訓練過的NeRF來執(zhí)行6DoF姿態(tài)估計的框架。讓我們假設一個場景或物體的NeRF的參數化Θ已經被恢復,并且相機的本征是已知的,但是圖像觀測I的相機位姿T還沒有確定。與NeRF不同的是,NeRF使用一組給定的相機位姿和圖像觀測值來優(yōu)化Θ,而我們要解決的是在給定權重Θ和圖像I的情況下恢復相機姿勢T的逆問題。

9f0ca69a-17e4-11ed-ba43-dac502259ad0.png

為了解決這個優(yōu)化問題,我們利用NeRF的能力,在NeRF模型的坐標框架中采取一些估計的相機姿勢T∈SE(3),并渲染相應的圖像觀察。然后,我們可以使用與NeRF相同的光度損失函數L,但我們不是通過反向傳播來更新MLP的權重Θ,而是更新姿勢T以最小化L。雖然倒置NeRF來進行姿勢估計的概念可以簡明扼要地說明,但這樣的問題是否可以實際解決到一個有用的程度并不明顯。損失函數L在SE(3)的6DoF空間上是非凸的,而且全圖像的NeRF渲染在計算上很昂貴,特別是在優(yōu)化程序的循環(huán)中使用。

1.基于梯度的SE(3)優(yōu)化

將Θ定義為經過訓練的固定的NeRF的參數,先驗Ti是當前優(yōu)化步驟i的估計相機姿勢,I是觀察到的圖像,L(Ti | I, Θ)是用于訓練NeRF中的精細模型的損失。我們采用基于梯度的優(yōu)化來解決上面方程中定義的先驗T。為了確保在基于梯度的優(yōu)化過程中,估計的姿勢先驗Ti繼續(xù)位于SE(3)流形上,我們用指數坐標為先驗Ti設置參數。給定一個從相機幀到模型幀的初始姿勢估計值先驗T0∈SE(3),我們將先驗Ti表示為:

9f22f634-17e4-11ed-ba43-dac502259ad0.png

我們通過MLP對損失函數進行迭代,得到梯度?SθL(e [S]θT0 |I, Θ),用于更新估計的相對變換。我們使用Adam優(yōu)化器,其學習率為指數衰減。對于每個觀察到的圖像,我們將Sθ初始化到0附近,其中每個元素都是從零均值正態(tài)分布N(0,σ=10-6)中隨機抽取的。在實踐中,用e[S]θ T0進行參數化,如果利用T0e[S]θ會導致旋轉中心在初始估計的中心,而不是在攝像機幀的中心。這就減輕了優(yōu)化過程中旋轉和平移之間的耦合

2.光線采樣

這里討論了三種采樣方法

隨機采樣:一個直觀的策略是在圖像平面上隨機抽取M個像素點{p i x , piy}M i=0,并計算其對應的射線。事實上,NeRF本身在優(yōu)化Θ時就使用了這種策略(假設不使用圖像批處理)。我們發(fā)現(xiàn),當射線的批處理量b較小時,這種隨機采樣策略的性能是無效的。大多數隨機采樣的像素對應于圖像中平坦的、無紋理的區(qū)域,這些區(qū)域在姿勢方面提供的信息很少(這與著名的光圈問題一致)。

興趣特征點采樣:我們提出了興趣點抽樣來指導iNeRF的優(yōu)化,我們首先采用興趣點檢測器來定位觀察圖像中的一組候選像素位置。然后,我們從檢測到的興趣點中抽出M個點,如果檢測到的興趣點不夠多,就回落到隨機抽樣。雖然這種策略使優(yōu)化收斂得更快,因為引入了較少的隨機性,但我們發(fā)現(xiàn)它很容易出現(xiàn)局部最小值,因為它只考慮觀察圖像上的興趣點,而不是來自觀察圖像和渲染圖像的興趣點。然而,獲得渲染圖像中的興趣點需要O(HW n)個前向MLP通道,因此在優(yōu)化中使用的成本過高。

興趣特征區(qū)域采樣:為了防止只從興趣點取樣造成的局部最小值,我們建議使用 “興趣區(qū)域 ”取樣,這是一種放寬興趣點取樣的策略,從以興趣點為中心的擴張掩模中取樣。在興趣點檢測器對興趣點進行定位后,我們應用5×5的形態(tài)學擴張進行I次迭代以擴大采樣區(qū)域。在實踐中,我們發(fā)現(xiàn)當射線的批量大小較小時,這樣做可以加快優(yōu)化速度。請注意,如果I被設置為一個大數字,興趣區(qū)域采樣就會退回到隨機采樣。

3.用iNeRF自我監(jiān)督學習NeRF

除了使用iNeRF對訓練好的NeRF進行姿態(tài)估計外,我們還探索使用估計的姿態(tài)來反饋到訓練NeRF表示中。具體來說,我們首先根據一組已知相機姿勢的訓練RGB圖像9f39b536-17e4-11ed-ba43-dac502259ad0.png來訓練NeRF,產生NeRF參數Θtrain。然后,我們使用iNeRF來接收額外的未知姿勢的觀察圖像{Ii}。Ntest i=1,并求解估計姿勢先驗Ti。Ntest i=1。鑒于這些估計的姿勢,我們可以使用自我監(jiān)督的姿勢標簽,將9f428800-17e4-11ed-ba43-dac502259ad0.png加入訓練集。這個過程允許NeRF在半監(jiān)督的情況下被訓練。

主要結果

9f58ce1c-17e4-11ed-ba43-dac502259ad0.png

9f7b4bae-17e4-11ed-ba43-dac502259ad0.png

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 攝像機
    +關注

    關注

    3

    文章

    1596

    瀏覽量

    60016
  • 輻射
    +關注

    關注

    1

    文章

    598

    瀏覽量

    36335

原文標題:iNeRF:用于姿態(tài)估計的反向神經輻射場(IROS 2021)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于PoseDiffusion相機姿態(tài)估計方法

    的約束結合在一起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機位置,他們在概率擴散框架內公式化了SfM問題,對給定輸入圖像的相機姿態(tài)的條件分布進行建模,用Diffusion模型來輔助進行
    的頭像 發(fā)表于 07-23 15:22 ?1381次閱讀
    基于PoseDiffusion相機<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>方法

    納米位移計真的可以測到納米級別的物體的位移?

    納米位移計真的可以測到納米級別的物體的位移?
    發(fā)表于 07-23 10:36

    源碼交流=圖像處理 識別圓形物體

    本帖最后由 乂統(tǒng)天下 于 2020-4-20 12:59 編輯 新手學習,多多關照,互相交流,共同進步^-^【實現(xiàn)功能】識別圖像中的圓形物體[Tested]【處理效果】NO.1:原圖NO.2
    發(fā)表于 04-02 10:43

    光照變化情況下的靜態(tài)頭部姿態(tài)估計

    針對圖像光照的變化對靜態(tài)頭部姿態(tài)估計的影響,該文提出一種基于有向梯度直方圖和主成分分析的姿態(tài)特征,并利用SVM分類器進行分類。該算法分別在C
    發(fā)表于 04-22 09:34 ?28次下載

    不同類別的電池是如何回收的?

    不同類別的電池是如何回收的? 電池為我們的汽車、可移動電子設備及每天使用的物體提供電力。我們甚至可以用植物來制造電池。在這個越來越機動化的世界上,電
    發(fā)表于 11-04 16:22 ?815次閱讀

    基于RGB-D圖像物體識別方法

    針對傳統(tǒng)的顏色一深度(RGB-D)圖像物體別的方法所存在的圖像特征學習不全面、特征編碼魯棒性不夠等問題,提出了基于核描述子局部約束線性編碼
    發(fā)表于 12-07 10:22 ?1次下載
    基于<b class='flag-5'>RGB</b>-D<b class='flag-5'>圖像</b><b class='flag-5'>物體</b>識別方法

    基于深度學習的二維人體姿態(tài)估計方法

    基于深度學習的二維人體姿態(tài)估計方法通過構建特定的神經網絡架構,將提取的特征信息根據相應的特征融合方法進行信息關聯(lián)處理,最終獲得人體姿態(tài)估計
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學習的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>方法

    基于深度學習的二維人體姿態(tài)估計算法

    近年來人體姿態(tài)估計作為計算機視覺領域的熱點,在視頻監(jiān)控、人機交互、智慧校園等領域具有廣泛的應用前景。隨著神經網絡的快速發(fā)展,采用深度學習方法進行二維人體姿態(tài)
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學習的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法

    基于視點與姿態(tài)估計的視頻監(jiān)控行人再識別

    行人再識別是視頻監(jiān)控中一項極具挑戰(zhàn)性的仼務。圖像中的遮擋、光照、姿態(tài)、視角等因素,會對行人再識別的準確率造成極大影響。為了提高行人再識別的準確率,提出一種融合視點機制與
    發(fā)表于 05-28 16:41 ?5次下載

    基于OnePose的無CAD模型的物體姿態(tài)估計

    基于CAD模型的物體姿態(tài)估計:目前最先進的物體6DoF姿態(tài)估計方法可以大致分為回歸和關鍵點技術。
    的頭像 發(fā)表于 08-10 11:42 ?1550次閱讀

    一種基于去遮擋和移除的3D交互手姿態(tài)估計框架

    與被充分研究的單手姿態(tài)估計任務不同,交互手3D姿態(tài)估計是近兩年來剛興起的學術方向。現(xiàn)存的工作會直接同時預測交互手的左右兩手的姿態(tài),而我們則另
    的頭像 發(fā)表于 09-14 16:30 ?933次閱讀

    無需實例或類級別3D模型的對新穎物體的6D姿態(tài)追蹤

    跟蹤RGBD視頻中物體的6D姿態(tài)對機器人操作很重要。然而,大多數先前的工作通常假設目標對象的CAD 模型,至少類別級別,可用于離線訓練或在線測試階段模板匹配。
    的頭像 發(fā)表于 01-12 17:23 ?1933次閱讀

    基于飛控的姿態(tài)估計算法作用及原理

    ? 姿態(tài)估計的作用? 姿態(tài)估計是飛控算法的一個基礎部分,而且十分重要。為了完成飛行器平穩(wěn)的姿態(tài)控制,首先需要精準的
    發(fā)表于 11-13 11:00 ?998次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法作用及原理

    圖像增強三大類別介紹

    圖像增強是圖像模式識別中非常重要的圖像預處理過程。圖像增強的目的是通過對圖像中的信息進行處理,使
    的頭像 發(fā)表于 11-14 14:34 ?1455次閱讀

    從單張圖像中揭示全局幾何信息:實現(xiàn)高效視覺定位的新途徑

    我們提出了一種新穎的方法,它可以從單個 RGB 圖像進行全局 6 自由度姿態(tài)估計。我們的方法與大多數現(xiàn)有的
    的頭像 發(fā)表于 01-08 14:58 ?714次閱讀
    從單張<b class='flag-5'>圖像</b>中揭示全局幾何信息:實現(xiàn)高效視覺定位的新途徑
    主站蜘蛛池模板: 鬼灭之刃花街篇免费樱花动漫| 色欲AV无码乱码精品国产| 辣文肉高h粗暴| 内射少妇36P亚洲区| 日本撒尿特写| 亚洲AV综合99一二三四区| 中文字幕在线播放| 国产99精品视频一区二区三区| 护士12p| 男人天堂999| 性XXXXX搡XXXXX搡景甜| 3d无遮挡h肉动漫在线播放| 俄罗斯搜索引擎Yandex推广入口| 花蝴蝶在线观看免费中文版高清 | 欧美手机在线| 在教室伦流澡到高潮H女攻视频 | 久久免费看少妇高潮A片特爽| 摸董事长的裤裆恋老小说| 麻豆AV无码精品一区二区| 日韩爽爽影院在线播放| 曰本女人牲交视频免费| 动漫护士被乳羞羞漫| 老师给美女同学开嫩苞| 亚洲精品久久久WWW游戏好玩| 打扑克床上视频不用下载免费观看| 欧美无码专区| 岳扒开让我添| 精品国产自在天天线2019| 羞羞答答影院在线| 干了快生了的孕妇| 人人听力网mp3下载| 99久免费精品视频在线观看2| 精品国产午夜肉伦伦影院| 午夜视频在线网站| 国产69精品久久久久麻豆| 日本一区精品久久久久影院| a级男女性高爱潮高清试看| 暖暖 视频 免费 高清 在线观看| 最新在线黄色网址| 免费看的一级毛片| WWW亚洲精品久久久乳|