色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌AI與機器人實驗室聯合發布的最新研究結果,效果可媲美LiDAR

DPVg_AI_era ? 來源:lp ? 2019-04-23 10:59 ? 次閱讀

視頻中估計3D結構和相機運動是計算機視覺中的一個關鍵問題,這個技術在自動駕駛領域有著廣闊的工業應用前景。今日,谷歌AI機器人實驗室聯合發布的最新成果:無需相機參數、單目、以無監督學習的方式從未標記場景視頻中搞定深度圖,效果堪比激光雷達。

目前自動駕駛的核心技術是LiDAR(激光雷達),一種運用雷達原理,采用光和激光作為主要傳感器的汽車視覺系統。LiDAR傳感器賦予了自動駕駛汽車能夠看到周邊環境的“雙眼”,激光雷達技術越先進,視覺感知的精準程度越高,這是自動駕駛得以實現的底層技術基礎。

但是最近幾年,放在攝像頭上的深度學習研究,發展很蓬勃。相比之下, 雖然激光雷達 (LiDAR)的數據有諸多優點,但相關學術進展并不太多。相機+數據+神經網絡的組合,正在迅速縮小與LiDAR的能力差距。

無需相機參數、單目、以無監督學習的方式從未標記場景視頻中搞定深度圖!

這是谷歌AI與機器人實驗室聯合發布的最新研究結果,效果可媲美LiDAR。

什么是深度圖?

深度圖像(depth image)也被稱為距離影像(range image),由相機拍攝,是指將從圖像采集器到場景中各點的距離(深度)作為像素值的圖像,它直接反映了景物可見表面的幾何形狀。單位為mm,效果參考下圖:

在場景視頻景深學習領域,谷歌AI和機器人實驗室聯合公布了三項最新研究突破:

第一,證明了可以以一種無監督的方式訓練深度網絡,這個深度網絡可以從視頻本身預測相機的內在參數,包括鏡頭失真(見圖1)。

第二,在這種情況下,他們是第一個以幾何方式從預測深度直接解決遮擋的問題。

第三,大大減少了處理場景中移動元素所需的語義理解量:只需要一個覆蓋可能屬于移動對象的像素的單個掩碼,而不是分割移動對象的每個實例并跨幀跟蹤它。

圖1:從未知來源的視頻中學習深度的方法的定性結果,通過同時學習相機的外在和內在參數來實現。由于該方法不需要知道相機參數,因此它可以應用于任何視頻集。所有深度圖(在右側可視化,作為差異)都是從原始視頻中學習而不使用任何相機內在函數。從上到下:來自YouTube8M的幀,來自EuRoC MAV數據集,來自Cityscapes和來自KITTI的幀。

推特網友對此不吝贊美:“這是我見過的最令人印象深刻的無監督結果之一。來自未標記視頻的深度圖對于自動駕駛非常有用:)“

以下是論文具體內容:

從視頻中估計3D結構和相機運動是計算機視覺中的一個關鍵問題,這個技術在自動駕駛領域有著廣闊的工業應用前景。

解決該問題的傳統方法依賴于在多個連續幀中識別場景中的相同點,并求解在這些幀上最大程度一致的3D結構和相機運動。

但是,幀之間的這種對應關系只能針對所有像素的子集建立,這導致了深度估計不確定的問題。與通常處理逆問題一樣,這些缺口是由連續性和平面性等假設填充的。

深度學習能夠從數據中獲得這些假設,而不是手工指定這些假設。在信息不足以解決模糊性的地方,深度網絡可以通過對先前示例進行歸納,以生成深度圖和流場。

無監督方法允許單獨從原始視頻中學習,使用與傳統方法類似的一致性損失,但在訓練期間對其進行優化。在推論中,經過訓練的網絡能夠預測來自單個圖像的深度以及來自成對或更長圖像序列的運動。

隨著對這個方向的研究越來越有吸引力,很明顯,物體運動是一個主要障礙,因為它違反了場景是靜態的假設。已經提出了幾個方向來解決該問題,包括通過實例分割利用對場景的語義理解。

遮擋是另一個限制因素,最后,在此方向的所有先前工作中,必須給出相機的內在參數。這項工作解決了這些問題,因此減少了監督,提高了未標記視頻的深度和運動預測質量。

首先,我們證明了可以以一種無監督的方式訓練深度網絡,這個深度網絡從視頻本身預測相機的內在參數,包括鏡頭失真(見圖1)。

其次,在這種情況下,我們是第一個以幾何方式從預測深度直接解決遮擋的問題。

最后,我們大大減少了處理場景中移動元素所需的語義理解量:我們需要一個覆蓋可能屬于移動對象的像素的單個掩碼,而不是分割移動對象的每個實例并跨幀跟蹤它。

這個掩模可能非常粗糙,實際上可以是矩形邊界框的組合。獲得這樣的粗糙掩模是一個簡單得多的問題,而且與實例分割相比,使用現有的模型可以更可靠地解決這個問題。

除了這些定性進展之外,我們還對我們的方法進行了廣泛的定量評估,并發現它在多個廣泛使用的基準數據集上建立了新的技術水平。將數據集匯集在一起,這種能力通過我們的方法得到了極大的提升,證明可以提高質量。

表1:總結了在KITTI上訓練的模型和評估結果,使用給定相機內建和學習相機內建兩種方式來評估我們方法的深度估計,結果顯而易見,我們獲得了當前最佳SOTA。

表2:總結了在Cityscapes上訓練和測試的模型的評估結果,我們的方法優于以前的方法,并從學習的內建中獲益。

表3:深度估計的消融實驗。在所有實驗中,訓練集是Cityscapes(CS)和KITTI組合,我們分別在Cityscapes(CS)和KITTI(Eigen partition)上測試模型。每行代表一個實驗,其中與主方法相比進行了一次更改,如“實驗”行中所述。數字越小越好。

除了這些定性的進步,我們對我們的方法進行了廣泛的定量評估,發現它在多個廣泛使用的基準數據集上建立了一個新的技術狀態。將數據集集中在一起,這種方法大大提高了數據集的質量。

最后,我們首次演示了可以在YouTube視頻上學習深度和相機內在預測,這些視頻是使用多個不同的相機拍攝的,每個相機的內建都是未知的,而且通常是不同的。

來自YouTube8M收集的圖像和學習的視差圖。

論文摘要

《場景視頻景深學習——非特定相機單眼圖片景深無監督學習》

我們提出了一種新穎的方法,僅使用相鄰視頻幀的一致性作為監督信號,用于同時學習單眼視頻的深度,運動,物體運動和相機內建。與先前的工作類似,我們的方法通過將可微變形應用于幀,并將結果與相鄰結果進行比較來學習,但它提供了若干改進:我們直接使用在訓練期間預測的深度圖,以幾何和可微的方式處理遮擋。我們介紹了隨機層標準化,一種新穎的強大正則化器,并考慮了目標相對于場景的運動。據我們所知,我們的工作是第一個以無監督的方式從視頻中學習相機固有參數(包括鏡頭失真)的工作,從而使我們能夠從規模未知原點的任意視頻中提取準確的深度圖和運動信息。

我們在Cityscapes,KITTI和EuRoC數據集上評估我們的結果,建立深度預測和測距的新技術水平,并定性地證明,深度預測可以從YouTube上的一系列視頻中學到。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2550

    文章

    51035

    瀏覽量

    753077
  • 谷歌
    +關注

    關注

    27

    文章

    6161

    瀏覽量

    105300
  • 自動駕駛
    +關注

    關注

    784

    文章

    13784

    瀏覽量

    166388

原文標題:谷歌AI:根據視頻生成深度圖,效果堪比激光雷達

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    谷歌公布機器人研究細節 軟件如何支持機器人互相學習?

    據AFR報道,谷歌本周公布了機器人研究細節,詳細介紹其軟件如何支持機器人互相學習。為了證明其技術,谷歌科學家展示了視頻,顯示
    發表于 10-09 14:05 ?1234次閱讀

    代替人類完成危險性較大實驗的雙臂機器人——Mahoro

    ` 由日本自電機巨頭安川株式會社和日本國立先進工業技術(AIST)研發一款機器人Mahoro。它可以代替人類成為實驗室的操作人員。不像以往的機器人,Mahoro擁有7個關節,這樣可以讓它像人類那樣
    發表于 01-22 14:42

    如何建設機器人實驗室

    歡迎大家提供一些機器人實驗室建設的建議,比如硬件設備、軟件、元器件和常用工具的需求。有清單更好。 多謝!
    發表于 03-01 09:19

    LabVIEW 的Tripod 機器人視覺處理和定位研究

    為對幾何體的識別和抓放過程?利用邊緣提取、濾波去噪、圓心檢測等算法采用LabVIEW視覺模塊及其庫函數進行了圖像的預處理、特征提取以及中心點定位?研究結果表明基于LabVIEW的Tripod機器人系統能夠準確識別平臺幾何體的顏色和形狀
    發表于 06-01 06:00

    【HarmonyOS HiSpark AI Camera】基于Hi3516DV300的機器人集群系統

    項目名稱:基于Hi3516DV300的機器人集群系統試用計劃:申請理由本人所在實驗室為重慶大學機器人協同創新實驗室,一直開展機器人領域相關
    發表于 10-29 14:20

    機器人視覺系統研究

    視覺系統成為研究的新課題。1965年, Stanford建立機器人實驗室開始研究機器人機器人
    發表于 09-07 08:37

    基于DSP和FPGA的四關節實驗室機器人控制器的研制

    機器人學的研究領域中,如何有效地提高機器人控制系統的控制性能始終是研究學者十分關注的一個重要內容。在分析了工業機器人的發展歷程和
    發表于 09-01 11:25 ?11次下載
    基于DSP和FPGA的四關節<b class='flag-5'>實驗室</b><b class='flag-5'>機器人</b>控制器的研制

    英特爾攜手今日頭條成立技術創新聯合實驗室

    近日,英特爾公司聯合今日頭條在北京召開了以“數據賦能AI正當時”為主題聯合發布會,雙方宣布成立技術創新聯合實驗室
    的頭像 發表于 08-24 15:50 ?3304次閱讀

    NVIDIA在西雅圖開設機器人研究實驗室,聚集跨學科研究團隊

    NVIDIA今天在西雅圖開設了機器人研究實驗室,該實驗室將容納50名機器人專家、20名來自NVIDIA的
    發表于 01-13 09:51 ?670次閱讀

    英偉達機器人實驗室專注于廚房輔助機器人等10多個項目

    最近,計算機顯卡霸主“英偉達”在西雅圖開設了一個機器人實驗室,后者將容納50名機器人專家、20名英偉達研究員以及其他更廣泛的學術研究團體。
    發表于 01-14 15:38 ?2510次閱讀

    香港高校與小i機器人共建“機器學習和認知推理聯合實驗室

    3月25日,香港科技大學聯合小i機器人共同成立的“機器學習和認知推理聯合實驗室”舉辦揭幕儀式,香港科技大學副校長葉玉如教授、工學院院長鄭光廷
    發表于 03-26 13:32 ?675次閱讀

    機械工業機器人試驗驗證技術重點實驗室順利通過驗收

    機械工業機器人試驗驗證技術重點實驗室是中國機械工業聯合會于2016年8月批準建設的第六批機械工業重點實驗室之一。
    的頭像 發表于 11-25 14:23 ?3117次閱讀

    NVIDIA西雅圖機器人技術研究實驗室負責人是誰?

    Fox是公司機器人研究高級主管、NVIDIA西雅圖機器人技術研究實驗室負責人,同時在華盛頓大學的保羅·艾倫計算機科學與工程學院(UW Rob
    的頭像 發表于 06-09 16:05 ?2354次閱讀

    IBM推新型工業化學實驗室機器人遠程訪問實驗室

    IBM已經推出了一種名為RoboRXN的新型工業化學實驗室機器人,稱其為“第一個遠程訪問的自治化學實驗室”。
    的頭像 發表于 09-08 09:56 ?2660次閱讀

    晶泰科技攜手ABB機器人打造柔性智能自動化的實驗室

    晶泰科技與ABB機器人聯合打造柔性自動化、智能化的未來實驗室,讓自動化設備成為科研的手中利器,成為突破各科研領域效率瓶頸的日常工具。
    的頭像 發表于 01-19 16:49 ?1166次閱讀
    主站蜘蛛池模板: 日日噜噜大屁股熟妇| 男人就爱吃这套下载| 精品淑女少妇AV久久免费| 精品国产免费人成视频| 久久久久国产精品嫩草影院| 久久久无码精品亚洲欧美| 蜜桃视频一区二区| 青柠在线观看免费完整版| 三级网站视频在线观看| 性女传奇 快播| 用震蛋调教女性下面视频| 973午夜伦伦电影论片| 超碰免费碰免费视频| 国产精品亚洲第一区二区三区 | 用震蛋调教女性下面视频| 99久久国产综合精品| 囯产愉拍亚洲精品一区| 国拍在线精品视频免费观看| 麻豆国产成人AV在线| 日韩经典欧美一区二区三区| 亚洲AV成人无码999WWW| 91在线一区二区| 搞基福利社| 久久国产精品久久国产精品| 欧美日韩北条麻妃一区二区| 无码一区国产欧美在线资源| 曰本女人牲交视频免费| 波多野结衣的AV一区二区三区| 国产午夜一级淫片| 蜜桃成熟时33D在线嘟嘟网| 泰国淫乐园实录| 重口味av| 国产精品爽爽久久久久久蜜桃网站 | 国产一区二区三区影院 | 十八禁久久成人一区二区| 一二三四在线视频社区| qvod伦理片| 精品在线观看一区| 软糯白嫩双性受h| 综合久久久久久久综合网| 高H短篇辣肉纯肉|