色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于深度的關鍵點匹配算法實現單步多人絕對三維姿態

智能感知與物聯網技術研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-09-02 17:03 ? 次閱讀

由單幀彩色圖像恢復多人的三維姿態和人與相機的絕對位置關系是一個具有挑戰性的任務,因為圖像在拍攝過程中損失了深度和尺度信息。在 ECCV2020 上,商湯與浙大聯合實驗室提出了單步多人絕對三維姿態估計網絡和 2.5D 人體姿態表示方法,并且基于所提出的深度已知的關鍵點匹配算法,得到絕對三維人體姿態。該方法結合圖像的全局特征和局部特征,能獲得準確的人體前后關系和人與相機的距離,在 CMU Panoptic 和 MuPoTS-3D 多人三維人體姿態估計數據集上均達到 SOTA(state-of-the-art),并且在未見過的場景中具有很好的泛化能力。

論文名稱:SMAP: Single-Shot Multi-PersonAbsolute 3D Pose Estimation

動機

基于單幀圖像的人體絕對三維姿態估計在混合現實、視頻分析、人機交互等領域有很廣泛的應用。近幾年研究人員多將注意力集中于人體相對三維姿態估計任務上,并且取得了不錯的成果。但是對于多人場景下人體絕對三維姿態估計任務,除了要估計相對人體三維姿態,更重要的是估計人與相機的絕對位置關系。

當前大多數方法對檢測到的人體區域進行裁剪后,分別估計絕對位置。有的方法利用檢測框的大小作為人體尺寸的先驗,通過網絡回歸深度信息,但是這樣的方法忽略了圖像的全局信息;另外一些方法基于一些假設,通過后處理的手段估計人體深度,如地面約束,但是這樣的方法依賴于姿態估計的準確度,而且很多假設在實際場景中無法滿足(比如人腳不可見)。

我們認為要準確地估計人的絕對三維位置需要利用圖像中所有與深度相關的信息,比如人體尺寸、前后遮擋關系、人在場景中的位置等。近年來有很多工作利用卷積神經網絡回歸場景的深度信息,這啟發我們使用網絡直接估計場景中所有人的深度信息,而不是在后處理過程中恢復深度。

綜上,我們提出了新的單步自底向上的方法估計多人場景的人體絕對三維姿態,它可以在一次網絡推理后得到所有人的絕對位置信息和三維姿態信息。另外,我們還提出了基于深度信息的人體關鍵點匹配算法,包括深度優先匹配和自適應骨長約束,進一步優化關鍵點的匹配結果。

方法介紹

上圖展示了所提出方法的流程,包括 SMAP 網絡,基于深度的關鍵點匹配(Depth-Aware Part Association), 和可選的微型優化網絡(RefineNet)。輸入一張彩色圖像,SMAP 網絡同時輸出人體根節點深度圖(Root Depth Map)、二維關鍵點熱度圖(Heatmaps)、關鍵點連接向量場(PAFs)和骨骼相對深度圖(Part Relative-Depth Maps)。基于以上的 2.5D 特征表示方法,進行關鍵點匹配,然后利用相機模型得到人體絕對三維關鍵點坐標。最后,可以使用微型優化網絡對結果進行補全和優化。

2.12.5D特征表示方式

2.1.1人體根節點深度圖(RootDepthMap)
由于圖像中人體數目是未知的,我們提出了人體根節點深度圖來表示場景中人的絕對深度,根節點深度圖中,每個人根節點(如脖子或腰部)位置的值表示其根節點的絕對深度,在訓練時,只對根節點位置進行監督。其優勢在于,不受圖中人數限制,并且只需要三維人體姿態數據便可以訓練,而不需要整張圖的深度信息。
對于同一個深度下的同一個人,具有不同內參(FoV, field of view)的相機會得到不同的二維圖像,這對建立二維信息(如人體尺寸)和絕對深度之間的映射關系是不利的,所以需要對輸入網絡的深度利用 FoV 進行歸一化:

2.1.2Heatmaps和 PAFs

對于二維信息,我們采用與 OpenPose 相同的表示方式。關鍵點熱度圖(Heatmaps)表示關鍵點位于某個像素的概率,關鍵點連接向量場(PAFs)表示關鍵點之間相連的方向和概率。

2.1.3骨骼相對深度圖(PartRelative-DepthMaps)
骨骼相對深度圖生成方式與 PAFs 相同,區別在于它的值表示的是關鍵點之間的深度差。

2.2基于深度的關鍵點匹配算法

由關鍵點熱度圖(Heatmap)得到人體根節點位置后,便可以從根節點深度圖(Root DepthMap)中讀取每個人的深度信息,我們利用深度信息進一步優化人體關鍵點匹配算法,以解決二維關鍵點匹配算法中存在的歧義性問題。

如圖第一行所示,我們提出深度優先匹配,當兩個人存在遮擋時,如果同一個關鍵點有所重疊,單純基于二維信息的匹配方式無法確定該關鍵點的所屬關系,有可能導致大部分關鍵點的錯連,如第三列所示。而重疊的關鍵點在絕大多數場景中應該屬于前一個人,所以基于網絡推斷的深度信息,我們給予靠近相機的人更大的連接優先級,如第四列所示。 另外,我們還提出了自適應骨長距離約束。在二維匹配算法中,一般設置圖像寬度的一半為關鍵點匹配的距離約束,但是由于人與相機距離不同,在二維圖像中呈現的尺寸不同,固定的約束無法起到很好的效果,如圖中第二行第三列所示。對于每個骨骼,我們使用訓練集中該骨骼的平均長度作為其實際長度,然后利用網絡輸出的深度計算其在二維圖像中的最大長度如下:

2.3絕對三維姿態恢復
由基于深度的匹配算法獲得人體關鍵點匹配結果后,可以由根節點絕對深度和骨骼相對深度得到每一個關鍵點的絕對深度,然后利用如下公式

反投影得到人體關鍵點絕對三維坐標。其中 K 是相機內參矩陣,在絕大部分應用中都是已知的,如果未知,可以使用估計值。

由上述步驟恢復的結果可能會引入兩種誤差:由于骨架是以級聯的方式表示的,在恢復末端關節點深度時,會有累計誤差;另外,嚴重的遮擋和圖像截斷會導致人體某些關鍵點的缺失。對此,我們提出了微型補全網絡 RefineNet,輸入估計的相對二維和三維關鍵點坐標,輸出優化和補全后的相對三維關鍵點坐標。RefinNet 并不會對人體根節點絕對深度進行優化。

實驗結果 我們提出的方法在 CMU Panoptic 和 MuPoTS-3D 多人三維人體姿態估計數據集上均達到 SOTA。

另外,我們對不同可選的深度估計方法進行了對比。第一種,回歸全圖的深度[1],如圖第一列;第二種,根據檢測框的尺寸回歸人體深度[2],如圖第二列。散點圖的橫坐標為人體深度估計值,縱坐標為實際值,散點越靠近 x=y 直線說明回歸的深度越準確。可以看出,我們提出的方法(Root Depth Map)具有更好的深度一致性和泛化能力。

為了體現單步自底向上網絡相對于自頂向下網絡[2]的優勢,我們進行了定性分析。圖中左邊為自頂向下網絡的結果,可見自頂向下的方法會受到姿態變化、人體遮擋、人體截斷的影響,而我們提出的自底向上的方法可以利用全局信息緩解這個問題。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 三維
    +關注

    關注

    1

    文章

    510

    瀏覽量

    29000
  • 匹配算法
    +關注

    關注

    0

    文章

    24

    瀏覽量

    9384
  • SMAP
    +關注

    關注

    0

    文章

    4

    瀏覽量

    8850

原文標題:ECCV2020 | SMAP: 單步多人絕對三維姿態估計

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于深度學習的三維云配準方法

    基于深度學習的三維云配準方法成為研究的主流,并隨之誕生了DeepVCP、DGR、Predator等著名的方法。
    發表于 11-29 11:41 ?1854次閱讀

    起點,經過,終點,三點xyz,畫三維圓弧。

    大家好!已知,起點,經過,終點,三點xyz,畫三維圓弧。在三維圖片框里面畫。該如何實現?甚至三維
    發表于 07-17 21:33

    基于OpenGL 的汽車轉向三維模型設計

    汽車軌跡的誤差。使用OpenGL 設計汽車三維模型,通過估算橫擺角速度得出簡化的轉向軌跡模型。據此設計汽車轉向三維動畫,實驗結果表明汽車軌跡和姿態都取得了較好的可視化效果。關鍵詞: O
    發表于 05-17 11:53

    三維快速建模技術與三維掃描建模的應用

    的HANDYSCAN三維激光掃描儀采集它的三維云信息,然后利用Vxelements軟件對多站式云數據進行拼接、統一化和去燥,將處理后的
    發表于 08-07 11:14

    視頻運動捕獲系統中多標記三維跟蹤算法

    針對視頻運動參數捕獲系統中標記無法被正確匹配及跟蹤的問題,提出一種多目標三維立體跟蹤算法。該算法通過二
    發表于 04-08 09:00 ?21次下載

    三維模型的空間匹配與拼接

    為獲得敦煌莫高窟第172窟的全景三維模型,實現文化遺產數字化保護,提出一種三維模型的空間匹配與拼接方法。首先通過基于四目立體視覺系統的復雜場景三維
    發表于 11-22 16:46 ?0次下載
    <b class='flag-5'>三維</b>模型的空間<b class='flag-5'>匹配</b>與拼接

    利用并查集的多視匹配提取算法

    重建的核心問題之一。對于多視影像集,由于缺少影像間空間關系的先驗信息,現有的三維重建算法通常首先對所有可能的像對進行匹配,然后從所有兩視影像的匹配結果中提取多視
    發表于 12-18 09:56 ?0次下載
    利用并查集的多視<b class='flag-5'>匹配</b><b class='flag-5'>點</b>提取<b class='flag-5'>算法</b>

    彩色分割立體匹配三維目標快速重建

    本文將彩色分割立體匹配和簡化云技術用于三維目標的快速重建。對于采集的左右兩幅三維目標圖像,首先采用均值漂移算法進行彩色圖像分割,然后按區域
    發表于 01-08 11:36 ?0次下載

    計算機視覺:三維云數據處理學習內容總結

    三維匹配的目的就是把相鄰掃描的云數據拼接在一起。三維匹配重點關注匹配
    的頭像 發表于 11-27 10:32 ?4871次閱讀

    圖像匹配應用及方法

    圖像匹配 應用: 目標識別、目標跟蹤、超分辨率影像重建、視覺導航、圖像拼接、三維重建、視覺定位、場景深度計算 方法: 基于深度學習的特征
    的頭像 發表于 12-26 11:08 ?7029次閱讀

    基于深度學習的三維云語義分割研究分析

    近年來,深度傳感器和三維激光掃描儀的普及推動了三維云處理方法的快速發展。云語義分割作為理解三維
    發表于 04-01 14:48 ?16次下載
    基于<b class='flag-5'>深度</b>學習的<b class='flag-5'>三維</b><b class='flag-5'>點</b>云語義分割研究分析

    面向機器人的三維形狀多層次局部匹配算法

    面向機器人的三維形狀多層次局部匹配算法
    發表于 06-25 11:51 ?18次下載

    什么樣的可以稱為三維云中的關鍵呢?

    本工作受D2-Net啟發,提出了一種新的三維關鍵點定義方式,將其與三維的特征描述子關聯起來,有效的回答了什么是
    的頭像 發表于 11-22 09:46 ?1346次閱讀

    三維計算視覺研究分析

    掃描。三維匹配的目的就是把相鄰掃描的云數據拼接在一起。三維匹配重點關注匹配
    的頭像 發表于 06-19 11:06 ?675次閱讀

    總結!三維云基礎知識

    該方法具體通過六個步驟實現:圖像的采集、系統相機標定、特征模板匹配、圖像處理、三維仿真匹配以及三維重建。首先,通過兩個相機于不同位置對待測物
    的頭像 發表于 09-01 16:12 ?2257次閱讀
    總結!<b class='flag-5'>三維</b><b class='flag-5'>點</b>云基礎知識
    主站蜘蛛池模板: 亚洲精品午睡沙发系列| 污文乖不疼的| 神马午夜不卡片| 99久久re6热精品首页| 精品一产品大全| 亚洲国产精麻豆| 国产免费毛片在线观看| 熟女人妻久久精品AV天堂| 超碰在线公开视频| 人人啪日日观看在线| RUNAWAY韩国动漫免费官网版| 毛片无码免费无码播放| 中文无码有码亚洲 欧美| 久久久精品久久久久久| 伊人精品国产| 午夜福利体验免费体验区| 草莓视频在线看免费高清观看| 女仆乖H调教跪趴| 999视频在线观看| 欧美 亚洲 有码中文字幕| 99手机在线视频| 祺鑫WRITEAS流出来了| 大香伊人中文字幕精品| 失禁h啪肉尿出来高h| 国产伦精品一区二区三区免费观看| 午夜看片网| 娇妻归来在线观看免费完整版电影 | 精品国产乱码久久久久久软件 | 樱花之恋动漫免费观看| 麻豆高潮AV久久久久久久 | 在线播放免费人成毛片视频| 狼人无码伊人AV啪啪| bbw极度另类孕妇| 色欲久久综合亚洲精品蜜桃| 国产人妻人伦精品久久无码| 一起碰一起噜一起草视频| 免费啪视频观试看视频| 99视频导航| 午夜日本大胆裸艺术| 久久久久久91香蕉国产| jiucao在线观看精品|