色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NerfingMVS:引導(dǎo)優(yōu)化神經(jīng)輻射場(chǎng)實(shí)現(xiàn)室內(nèi)多視角三維重建

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-02-13 11:20 ? 次閱讀

本文是對(duì)我們ICCV 2021被接收的文章NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor Multi-view Stereo 的介紹。在這個(gè)工作中,我們通過(guò)對(duì)神經(jīng)輻射場(chǎng)(NeRF)進(jìn)行引導(dǎo)優(yōu)化,實(shí)現(xiàn)了室內(nèi)的多視角三維重建(multi-view stereo)。很榮幸地,我們的文章被接收為ICCV 2021的Oral論文,目前項(xiàng)目代碼已開(kāi)源,歡迎大家試用和star~

a062c806-ab48-11ed-bfe3-dac502259ad0.png

a07158bc-ab48-11ed-bfe3-dac502259ad0.gif

效果展示

arXiv:https://arxiv.org/abs/2109.01129

主頁(yè):https://weiyithu.github.io/NerfingMVS/

Code:https://github.com/weiyithu/NerfingMVS

概述

熟悉3D視覺(jué)領(lǐng)域的朋友們都知道,近一年來(lái)NeRF大火。NeRF概括來(lái)說(shuō)是一個(gè)用MLP學(xué)習(xí)得到的神經(jīng)輻射場(chǎng)。它的訓(xùn)練數(shù)據(jù)是多視角的RGB圖片。學(xué)得的神經(jīng)輻射場(chǎng)可以表示場(chǎng)景的三維結(jié)構(gòu),從而實(shí)現(xiàn)新視角的視圖合成。對(duì)NeRF更加具體的介紹,請(qǐng)大家參考林天威:https://zhuanlan.zhihu.com/p/360365941

既然Nerf可以表示場(chǎng)景的三維信息,一個(gè)自然的想法是能不能將NeRF應(yīng)用到室內(nèi)場(chǎng)景三維重建任務(wù)中呢。NeRF有著一些優(yōu)勢(shì):相較于傳統(tǒng)的MVS,SfM算法,NeRF蘊(yùn)含了整個(gè)場(chǎng)景的信息,所以有潛力重建出低紋理區(qū)域的三維結(jié)構(gòu);而相較于另一個(gè)在線優(yōu)化的深度估計(jì)算法CVD ,NeRF不需要顯示地對(duì)不同視角的像素進(jìn)行匹配,這一點(diǎn)在室內(nèi)場(chǎng)景是很難做到的。但可惜的是,原生NeRF在室內(nèi)場(chǎng)景中存在形狀輻射歧義(shape-radiance ambiguity)的問(wèn)題。這個(gè)問(wèn)題的大致意思是NeRF可以合成出高質(zhì)量的新視角的RGB圖片,但它卻沒(méi)有學(xué)會(huì)場(chǎng)景的三維結(jié)構(gòu)。

為了解決這個(gè)問(wèn)題,我們提出了NerfingMVS。我們方法的核心是用網(wǎng)絡(luò)預(yù)測(cè)出來(lái)的深度先驗(yàn)去引導(dǎo)神經(jīng)輻射場(chǎng)的優(yōu)化過(guò)程。我們首先用SfM得到的稀疏深度訓(xùn)練一個(gè)專屬于當(dāng)前場(chǎng)景的單目深度網(wǎng)絡(luò)。之后用這個(gè)單目深度網(wǎng)絡(luò)預(yù)測(cè)的深度圖來(lái)指導(dǎo)NeRF的學(xué)習(xí)。最后我們根據(jù)視角合成的結(jié)果利用濾波器去進(jìn)一步提升深度圖的質(zhì)量。在ScanNet上的實(shí)驗(yàn)結(jié)果表明,我們的方法超過(guò)了當(dāng)前最好方法的性能,并且我們還提升了新視角RGB圖片的質(zhì)量以及縮短了三倍的NeRF訓(xùn)練時(shí)間。

方法

a90a4970-ab48-11ed-bfe3-dac502259ad0.jpg

我們的方法分為三個(gè)步驟:場(chǎng)景敏感的深度先驗(yàn),神經(jīng)輻射場(chǎng)的引導(dǎo)優(yōu)化,基于合成視圖的深度圖濾波。

場(chǎng)景敏感的深度先驗(yàn):與CVD類似,我們同樣利用了神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)出來(lái)的深度先驗(yàn)。但不同的是,為了進(jìn)一步提升深度先驗(yàn)在當(dāng)前場(chǎng)景的精度,我們利用SfM重建出的稀疏深度對(duì)單目深度網(wǎng)絡(luò)進(jìn)行了微調(diào)(finetune)。這一步的目的其實(shí)是讓這個(gè)深度網(wǎng)絡(luò)過(guò)擬合在當(dāng)前場(chǎng)景上。具體來(lái)說(shuō),我們使用了COLMAP算法得到了多視角融合的點(diǎn)云,并將點(diǎn)云投影到各個(gè)視角下得到每個(gè)視角的稀疏深度。由于多視角融合的點(diǎn)云是經(jīng)過(guò)了幾何一致性校驗(yàn)的,因此雖然深度是稀疏的,但也是相對(duì)準(zhǔn)確的。此外,由于尺度歧義的問(wèn)題,我們使用了尺度不變的損失函數(shù):

a939fe54-ab48-11ed-bfe3-dac502259ad0.png

神經(jīng)輻射場(chǎng)的引導(dǎo)優(yōu)化:我們發(fā)現(xiàn)如果簡(jiǎn)單地在室內(nèi)場(chǎng)景應(yīng)用NeRF無(wú)法得到正確的三維重建結(jié)果。這其實(shí)就是所謂的形狀輻射歧義現(xiàn)象,換句話說(shuō),NeRF可以很好地?cái)M合出訓(xùn)練視角的RGB圖片(圖(a)),但卻沒(méi)有學(xué)到正確的場(chǎng)景3D結(jié)構(gòu)(圖(c))。造成這個(gè)問(wèn)題的本質(zhì)原因是對(duì)于同一組RGB圖片,會(huì)有多個(gè)神經(jīng)輻射場(chǎng)與之對(duì)應(yīng)。此外,現(xiàn)實(shí)室內(nèi)場(chǎng)景的RGB圖片會(huì)比較模糊并且圖片之間的位姿變換也會(huì)比較大,這導(dǎo)致了網(wǎng)絡(luò)的學(xué)習(xí)能力下降,加劇了這個(gè)問(wèn)題。

a94f5c68-ab48-11ed-bfe3-dac502259ad0.jpg

為了解決這個(gè)問(wèn)題,我們利用深度先驗(yàn)去指導(dǎo)NeRF的采樣過(guò)程。我們首先根據(jù)幾何一致性校驗(yàn)計(jì)算得到每個(gè)視角深度先驗(yàn)的誤差圖。具體來(lái)講,我們將每個(gè)視角的深度投影到其它視角下并與其它視角的深度計(jì)算相對(duì)誤差。NeRF中每個(gè)視角下每條ray的采樣中心點(diǎn)為對(duì)應(yīng)位置處的深度先驗(yàn),采樣范圍由誤差圖決定。誤差越小,深度先驗(yàn)的置信度越高,那么采樣范圍就越小;反之,誤差越大,深度先驗(yàn)的置信度越低,那么采樣范圍就越大。

a96e42a4-ab48-11ed-bfe3-dac502259ad0.jpg

基于合成視圖的深度圖濾波:為了進(jìn)一步提升深度圖的質(zhì)量,我們最后進(jìn)行了一步濾波。這步操作是基于一個(gè)假設(shè):如果渲染出的RGB都不對(duì),那么對(duì)應(yīng)位置處算出來(lái)的深度也往往是錯(cuò)的。因此我們可以根據(jù)渲染得到的RGB與真實(shí)RGB之間的誤差計(jì)算逐像素的置信度圖:

a98438ac-ab48-11ed-bfe3-dac502259ad0.png

這個(gè)置信度圖可以被用來(lái)濾波,我們這里使用的是平面雙邊濾波器(plane bilateral filtering)。

實(shí)驗(yàn)結(jié)果

與SOTA方法對(duì)比:

a9a1190e-ab48-11ed-bfe3-dac502259ad0.jpg

a9d9900e-ab48-11ed-bfe3-dac502259ad0.jpg

無(wú)論是從定量還是定性的結(jié)果來(lái)看,我們的方法都達(dá)到了當(dāng)前最好性能,甚至超過(guò)了一些有監(jiān)督的方法:DELTAS,Atlas,DeepV2D。

視圖合成結(jié)果:

a9f5be0a-ab48-11ed-bfe3-dac502259ad0.jpg

前兩行是訓(xùn)練視角,后兩行是新視角。盡管視圖合成不是我們的主要任務(wù),我們的方法仍顯著地提升了NeRF視圖合成的結(jié)果。訓(xùn)練視角的提升也說(shuō)明了我們的方法可以幫助NeRF聚焦在更重要的區(qū)域并提升網(wǎng)絡(luò)的性能。此外,我們將NeRF的訓(xùn)練時(shí)間縮短至三分之一。

In-the-wild結(jié)果展示:

我們用手持相機(jī)在家拍攝了一些demo。

aa06ff76-ab48-11ed-bfe3-dac502259ad0.gif

aa6ad9c4-ab48-11ed-bfe3-dac502259ad0.gif

總結(jié)與討論

在這個(gè)工作中,我們將傳統(tǒng)SfM算法與NeRF結(jié)合解決室內(nèi)多視角重建問(wèn)題。我們方法的核心是將深度先驗(yàn)引入NeRF中指導(dǎo)它的采樣過(guò)程。在真實(shí)室內(nèi)場(chǎng)景數(shù)據(jù)集ScanNet上的實(shí)驗(yàn)結(jié)果表明,NerfingMVS取得了很好的效果。當(dāng)然我們的方法現(xiàn)在也存在一些limitations:1. 盡管我們大大加速了NeRF的訓(xùn)練過(guò)程,但現(xiàn)在仍無(wú)法達(dá)到實(shí)時(shí)。2. 我們需要SfM提供位姿和稀疏深度,因此比較依賴COLMAP的重建結(jié)果。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4607

    瀏覽量

    92839
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24689
  • 3D視覺(jué)
    +關(guān)注

    關(guān)注

    4

    文章

    431

    瀏覽量

    27521

原文標(biāo)題:ICCV 2021 Oral | NerfingMVS:引導(dǎo)優(yōu)化神經(jīng)輻射場(chǎng)實(shí)現(xiàn)室內(nèi)多視角三維重建

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    怎樣去設(shè)計(jì)一種基于RGB-D相機(jī)的三維重建無(wú)序抓取系統(tǒng)?

    為什么要開(kāi)發(fā)一種三維重建無(wú)序抓取系統(tǒng)?三維重建無(wú)序抓取系統(tǒng)是由哪些部分組成的?三維重建無(wú)序抓取系統(tǒng)有哪些關(guān)鍵技術(shù)和創(chuàng)新點(diǎn)?
    發(fā)表于 07-02 06:29

    如何去開(kāi)發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)

    基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)有哪些關(guān)鍵技術(shù)?如何去開(kāi)發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)?基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)是由哪些部分組成的?
    發(fā)表于 09-08 06:12

    無(wú)人機(jī)三維建模的信息

    建模。(參考另外室內(nèi)建模也是三維重建吧,基于激光掃描的。其他資料:三維重建技術(shù)在無(wú)人機(jī)方面的應(yīng)用如何?三維重建未來(lái)的學(xué)術(shù)前景如...
    發(fā)表于 09-16 06:55

    基于紋理映射的醫(yī)學(xué)圖像三維重建

    提出了一種基于紋理映射的體繪制算法,提高了圖像的重建效率,增強(qiáng)了圖像的重建效果。算法實(shí)現(xiàn)了對(duì)二醫(yī)學(xué)圖像序列的三維重建,在目前通用的個(gè)人計(jì)算
    發(fā)表于 12-14 11:10 ?19次下載

    基于FPGA的醫(yī)學(xué)圖像三維重建系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)

    目前大部分的醫(yī)學(xué)圖像三維重建過(guò)程都是在PC機(jī)上完成的,由于PC機(jī)本身性能的限制和重建算法的復(fù)雜性,使得重建效率不高。針對(duì)這個(gè)問(wèn)題,設(shè)計(jì)與實(shí)現(xiàn)了一個(gè)基于FPGA(Field Progra
    發(fā)表于 03-15 13:52 ?44次下載

    基于MC算法的光刻仿真微結(jié)構(gòu)的三維重建_宮珊珊

    基于MC算法的光刻仿真微結(jié)構(gòu)的三維重建_宮珊珊
    發(fā)表于 03-18 09:06 ?0次下載

    為什么說(shuō)三維重建才是計(jì)算機(jī)視覺(jué)的靈魂?

    權(quán)龍教授為我們介紹了三維重建的歷史發(fā)展與應(yīng)用前景。
    的頭像 發(fā)表于 07-02 14:18 ?3.1w次閱讀

    透明物體的三維重建研究綜述

    透明物體的三維重建一直以來(lái)都被認(rèn)為是很有挑戰(zhàn)性的問(wèn)題。不同于傳統(tǒng)重建算法對(duì)物體表面的漫反射屬性假設(shè),因?yàn)橥该魑矬w與光線之間存在復(fù)雜的,如反射和折射等,與視角相關(guān)的光學(xué)效應(yīng),將導(dǎo)致傳統(tǒng)重建
    發(fā)表于 04-21 14:21 ?4次下載
    透明物體的<b class='flag-5'>三維重建</b>研究綜述

    基于分布式傳感的實(shí)時(shí)三維重建系統(tǒng)

    基于分布式傳感的實(shí)時(shí)三維重建系統(tǒng)
    發(fā)表于 06-25 11:25 ?15次下載

    NVIDIA Omniverse平臺(tái)助力三維重建服務(wù)協(xié)同發(fā)展

    計(jì)算機(jī)視覺(jué)的進(jìn)步為元宇宙的數(shù)字孿生應(yīng)用打下堅(jiān)實(shí)基礎(chǔ)。在計(jì)算機(jī)視覺(jué)中,三維重建是指根據(jù)單視圖或者視圖的圖像重建三維信息的過(guò)程。數(shù)字孿生開(kāi)發(fā)者可借助
    的頭像 發(fā)表于 10-13 09:45 ?1172次閱讀

    深度學(xué)習(xí)背景下的圖像三維重建技術(shù)進(jìn)展綜述

    根據(jù)三維模型的表示形式可以將圖像三維重建方法分類為基于體素的三維重建、基于點(diǎn)云的三維重建和基于網(wǎng)格的三維重建,其中基于網(wǎng)格的
    的頭像 發(fā)表于 01-09 14:26 ?2513次閱讀

    視角圖像做三維場(chǎng)景重建 (CVPR&apos;22 Oral)

    最近,有方法提出基于隱式神經(jīng)表示做三維重建。NeRF [3] 通過(guò)可微分的體積渲染技術(shù)從圖像中學(xué)習(xí)隱式輻射場(chǎng)。NeRF可以實(shí)現(xiàn)有真實(shí)感的
    的頭像 發(fā)表于 02-20 10:11 ?2814次閱讀

    三維重建:從入門到入土

    經(jīng)典三維重建系統(tǒng)的整個(gè)pipeline從相機(jī)標(biāo)定、基礎(chǔ)矩陣與本質(zhì)矩陣估計(jì)、特征匹配到運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM),從SFM到稠密點(diǎn)云重建、表面重建、紋理貼圖。熟悉SFM的工程師已經(jīng)是行業(yè)內(nèi)的佼佼者,能掌握
    的頭像 發(fā)表于 03-03 10:17 ?1184次閱讀

    如何實(shí)現(xiàn)整個(gè)三維重建過(guò)程

    在計(jì)算機(jī)視覺(jué)中,三維重建是指根據(jù)單視圖或者視圖的圖像重建三維信息的過(guò)程。由于單視頻的信息不完全,因此三維重建需要利用經(jīng)驗(yàn)知識(shí),而
    發(fā)表于 09-01 11:06 ?1649次閱讀
    如何<b class='flag-5'>實(shí)現(xiàn)</b>整個(gè)<b class='flag-5'>三維重建</b>過(guò)程

    基于光學(xué)成像的物體三維重建技術(shù)研究

    隨著計(jì)算機(jī)科學(xué)和數(shù)字成像技術(shù)的飛速發(fā)展,光學(xué)成像技術(shù)在許多領(lǐng)域中得到了廣泛應(yīng)用,其中之一便是物體三維重建。物體三維重建技術(shù)是一種通過(guò)計(jì)算機(jī)處理圖像數(shù)據(jù),獲得物體三維信息的技術(shù)。光學(xué)成像技術(shù)作為物體
    的頭像 發(fā)表于 09-15 09:29 ?885次閱讀
    基于光學(xué)成像的物體<b class='flag-5'>三維重建</b>技術(shù)研究
    主站蜘蛛池模板: 9久久免费国产精品特黄| 老女老肥熟国产在线视频| 视频一区在线免费观看| 9位美女厕所撒尿11分| 美国一级大黄一片免费的网站| 一本之道高清在线观看一区| 国产视频www| 武汉美女洗澡| 国产啪视频在线播放观看| 特黄AAAAAAA片免费视频| 调教椅上的调教SM总裁被调教 | 后入内射国产一区二区| 性春院| 国产欧美国产综合第一区| 婷婷精品国产亚洲AV在线观看| 第四色播日韩AV第一页| 日韩一区二区三区精品 | 扒开腿狂躁女人GIF动态图 | CHINA末成年VIDEO学生| 男生在床上脱美女 胸| 97影院理论午夜伦不卡偷| 免费国产足恋网站| 97在线视频免费播放| 男宿舍里的呻吟h| free高跟丝袜秘书hd| 青青草偷拍国产亚洲欧洲| 趁老师睡着吃她的奶水| 色多多污网站在线观看| 国产成人久视频免费| 午夜福利体检| 好大好爽CAO死我了BL| 亚洲午夜久久影院| 最近2018年手机中文字幕| 久久精品亚洲热综合一本| 精品久久久噜噜噜久久久app| 亚洲色播永久网址大全| 久久国产免费观看精品1| 18和谐综合色区| 欧美xxxx印度| 丰满的女友1在线观看| 无止侵犯高H1V3无止侵犯|