在近期舉行的SIGGRAPH ASIA 2018大會上,中英科學家提出了首個全自動3D模型變形傳播方法,不需要配對訓練數據,也無需任何手工調整,自動將物體A的形變傳播到物體B上,效果自然,解決了真實應用場景中配對模型數據少的老大難。
還記得黃教主的那段炫酷舞蹈嗎,和邁克爾·杰克遜一樣舞出太空步!
當然,教主沒有真的在跳舞,只是錄了一段普通的視頻。有算法將邁克爾·杰克遜源視頻中的“舞姿”識別出來,再將相關的肢體動作投射到教主身上,這樣,就得到了右邊的魔性視頻。
這樣的算法屬于模型變形傳播方法。傳統上講,要實現這樣的轉換,需要在源-目標模型對的模型上手工標注關鍵對應點,或是需要成對的模型輸入用以訓練轉換算法。
然而,手工標注費時費力,而且在真實應用場景中,也難以能找到成對匹配的兩種模型庫。
為了解決這個問題,中科院計算所、卡迪夫大學和浙江大學的研究人員合作,提出了一種全新的3D模型變形傳播方法,可以全自動地將一個人體的3D模型運動序列傳播到另一個機器人的運動序列上(如下圖一所示),這中間不需要任何的手工交互。圖二展示了一個手的運動自動驅動牛仔褲運動的效果。
圖一:運動人體到機器人模型的自動變形傳播與模型合成
圖二:通過手勢運動自動驅動牛仔褲運動
研究人員在日前于日本東京舉行的計算機圖形學頂會SIGGRAPH ASIA 2018展示了他們的研究成果。本屆SIGGRAPH ASIA 2018有超過一萬人參會,包括學者、工程師、藝術家和學生等。相關研究論文“Automatic Unpaired Shape Deformation Transfer”,被期刊ACM Transactions on Graphics(中科院JCR分區Q1區)收錄。
研究人員表示,“這項工作提出了第一個全自動的、不需要成對模型訓練的模型自動變形傳播算法。”
現實世界中廣泛存在的“模仿”行為,在某種意義上就是變形傳播。例如,人想模仿丹頂鶴走路的樣子,人會先觀察自身和丹頂鶴的各種動作,推斷兩種生物做動作的特點,思考人和鶴之間相似之處,最后推斷出人如何能做出最像丹頂鶴的動作。
基于這一思考,研究人員提出了一種新的深度學習模型VAE-Cycle GAN(簡稱VC-GAN)來完成自動變形傳播任務。相對于圖像,三維網格模型是更不規則的數據結構,該方法通過一種可以表示大尺度三維模型變形的ACAP特征對三維模型進行特征提取,之后在此特征上用VAE降維,用以更緊湊地表示三維模型。
圖三:VAE-Cycle GAN (VC-GAN)的網絡結構圖示
VC-GAN的網絡模型則如上圖三所示:它首先對輸入的3D模型計算了適用于處理大幅度變形的ACAP 變形特征表示;然后,通過一個作用于3D網格結構上的變分自編碼器(VAE)網絡,將源模型和目標模型的特征表示分布映射到低維隱含層空間上,再使用Cycle-GAN來學習出兩個模型隱含層之間的對應映射;最后,作者引入了光場距離(lightfield distance)來確保生成的目標模型和源模型盡可能相似,由于光場距離的計算并不可導,他們還設計了一個網絡simNet來回歸該光場距離。
與具有規則定義域的2D圖像不同,3D模型缺乏規則的定義域,同時源模型和目標模型之間缺乏對應關系,這使得基于GAN的網絡難以直接應用,而基于體素的3D-GAN又難以生成具有高精細度的三維模型,VC-GAN的引入解決了這些問題。
基于三維網格數據的VAE網絡將三維模型的變形規律映射到一個規則的隱空間,并通過上述VC-GAN來建立隱空間上的映射關系,進而可以進行全自動變形傳播,同時基于ACAP特征的VAE的引入,也使得生成的三維模型具有更好的細節和更加真實的效果。
-
機器人
+關注
關注
211文章
28632瀏覽量
207972 -
3D模型
+關注
關注
1文章
72瀏覽量
15793
原文標題:中科院計算所、浙大等提出首個全自動3D模型變形傳播法,無需配對訓練數據
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論