色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

最新3D表征自監督學習+對比學習:FAC

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-05-17 09:28 ? 次閱讀

論文題目:《FAC: 3D Representation Learning via Foreground Aware Feature Contrast》

作者機構:Nanyang Technological University(南洋理工大學)

項目主頁:https://github.com/KangchengLiu/FAC_Foreground_Aware_Contrast (基于 PyTorch )

對比學習,最近在 3D 場景理解任務中展示了無監督預訓練的巨大潛力。該作者提出了一個通用的前景感知特征對比 (FAC) 框架, 一種用于大規模 3D 預訓練的前景感知特征對比框架。FAC 由兩個新穎的對比設計組成,以構建更有效和信息豐富的對比對。構建區域級對比,以增強學習表征中的局部連貫性和更好的前景意識。設計了一個孿生對應框架,可以定位匹配良好的鍵,以自適應增強視圖內和視圖間特征相關性,并增強前景-背景區分。

對多個公共基準的廣泛實驗表明,FAC 在各種下游3D 語義分割和對象檢測任務中實現了卓越的知識轉移和數據效率。

摘要

對比學習最近在 3D 場景理解任務中展示了無監督預訓練的巨大潛力。然而,大多數現有工作在建立對比度時隨機選擇點特征作為錨點,導致明顯偏向通常在 3D 場景中占主導地位的背景點。此外,對象意識和前景到背景的辨別被忽略,使對比學習效果不佳。

為了解決這些問題,我們提出了一個通用的前景感知特征對比 (FAC) 框架,以在預訓練中學習更有效的點云表示。FAC 由兩個新穎的對比設計組成,以構建更有效和信息豐富的對比對。

第一個是在相同的前景段內構建正對,其中點往往具有相同的語義。

第二個是我們防止 3D 片段/對象之間的過度判別,并通過 Siamese 對應網絡中的自適應特征學習鼓勵片段級別的前景到背景的區別,該網絡有效地自適應地學習點云視圖內和點云視圖之間的特征相關性。

使用點激活圖進行可視化表明,我們的對比對在預訓練期間捕獲了前景區域之間的清晰對應關系。定量實驗還表明,FAC 在各種下游 3D 語義分割和對象檢測任務中實現了卓越的知識轉移和數據效率。

46cfc6e0-f44f-11ed-90ce-dac502259ad0.png

圖1

圖 1構建信息對比對在對比學習中很重要:傳統對比需要嚴格的點級對應。

所提出的 FAC 方法同時考慮了前景分組 fore-ground 和前景-背景 foreground-background 區分線索,從而形成更好的對比對以學習更多信息和辨別力的 3D 特征表示。

一、前言

3D 場景理解對于許多任務至關重要,例如機器人抓取和自主導航。

然而,大多數現有工作都是全監督的,這在很大程度上依賴于通常很難收集的大規模帶注釋的 3D 數據。自監督學習 (SSL)允許從大規模未注釋的數據中學習豐富且有意義的表示,最近顯示出減輕標注約束的巨大潛力。它通過來自未標注數據的輔助監督信號進行學習,這些數據通常更容易收集。特別是,對比學習作為一種流行的 SSL 方法在各種視覺 2D 識別任務中取得了巨大成功。

在語義分割、實例分割和對象檢測等各種下游任務中,還探索了用于點云表示學習的對比學習。然而,許多成功的 2D 對比學習方法對 3D 點云效果不佳,這主要是因為點云通常捕獲由許多不規則分布的前景對象的復雜點以及大的背景點的數量。一些研究試圖設計特定的對比度來迎合點云的幾何形狀和分布。

例如,[14, 55] 使用兩個增強場景的最大池化特征來形成對比,但它們往往過分強調整體信息而忽略了前景對象的信息特征。

[12,19,51] 直接使用配準的點/體素特征作為正對,并對待所有未配準為否定對,導致語義上有許多錯誤的對比對。

我們建議利用場景前景 foreground 證據和前景-背景 foreground-background 區別來構建更多的前景分組意識和前景-背景區別意識對比,以學習有區別的 3D 表示。

對于前景分組感知對比,我們首先獲得與過度分割的區域對應關系,然后在視圖中與同一區域的點建立正對,從而產生語義連貫的表示。此外,我們設計了一種采樣策略,在建立對比的同時采樣更多的前景點特征,因為背景點特征通常信息量較少,并且具有重復或同質的模式。

對于前景-背景對比,我們首先增強前景-背景點特征區分,然后設計一個 Siamese 對應網絡,通過自適應學習前景和背景視圖內,及跨視圖的特征對之間的親和力來選擇相關特征,以避免部分/對象之間的過度判別。

可視化顯示,前景增強對比度引導學習朝向前景區域,而前景-背景對比度以互補的方式有效地增強了前景和背景特征之間的區別,兩者合作學習更多的信息和判別表示,如圖 1 所示。

這項工作的貢獻可以概括為三個方面。

第一,我們提出了 FAC,一種用于大規模 3D 預訓練的前景感知特征對比框架。

第二,我們構建區域級對比,以增強學習表征中的局部連貫性和更好的前景意識。

第三,最重要的是,我們設計了一個孿生對應框架,可以定位匹配良好的鍵,以自適應增強視圖內和視圖間特征相關性,并增強前景-背景區分。

最后,對多個公共基準的廣泛實驗表明,與最先進的技術相比,FAC 實現了卓越的自監督學習。

FAC 兼容流行的 3D 分割主干網絡 SparseConv 和 3D 檢測主干網絡,包括 PV-RCNN、PointPillars 和 PointRCNN。

它也適用于室內密集 RGB-D 和室外稀疏 LiDAR 點云。

二、相關工作

2.1 3D 場景理解

3D 場景理解旨在理解 3D 深度或點云數據,它涉及多個下游任務,例如 3D 語義分割 ,3D 對象檢測等。在 3D 深度學習策略的進步和不斷增加的大規模 3D 數據集的推動下,它最近取得了令人矚目的進展。已經提出了不同的方法來解決 3D 場景理解中的各種挑戰。

例如,基于點的方法可以很好地學習點云,但在面對大規模點云數據集時往往會受到高計算成本的困擾。

基于體素的方法具有計算和內存效率,但通常會因體素量化而丟失信息。

此外,基于體素的 SparseConv 網絡在室內場景分割中表現出非常有前途的性能,而結合點和體素通常在基于 LiDAR 的室外檢測中具有明顯的優勢。我們提出的 SSL 框架在室內/室外 3D 感知任務中顯示出一致的優勢,并且它也是 backbone 不可知論的。

2.2 點云的自監督預訓練。

對比預訓練

近年來,在學習無監督表示的對比學習方面取得了顯著的成功。

例如,對比場景上下文 (CSC)使用場景上下文描述符探索對比預訓練。然而,它過于關注優化低級配準點特征,而忽視了區域同質語義模式和高級特征相關性。

一些工作使用最大池化場景級信息進行對比,但它往往會犧牲局部幾何細節和對象級語義相關性,從而導致語義分割等密集預測任務的次優表示。

不同的是,我們明確考慮區域前景意識以及前景和背景區域之間的特征相關性和區別,這會導致 3D 下游任務中提供更多信息和判別性表示。

此外,許多方法結合了輔助時間或空間 3D 信息,用于與增強的未標記數據集和合成 CAD 模型進行自監督對比:

例如通過將 3D 場景視為 RGB-D 視頻序列,從動態 3D 場景中引入學習合成 3D。

Randomrooms 通過將合成 CAD 模型隨機放入常規合成 3D 場景中,來合成人造 3D 場景。

一些作品利用合成 3D 形狀的時空運動先驗,來學習更好的 3D 表示。

然而,大多數這些先前的研究都依賴于輔助時空信息的額外監督。不同的是,我們在沒有額外合成 3D 模型的情況下對原始 3D 掃描進行自監督學習。

基于 mask 生成的預訓練

隨著視覺轉換器的成功,mask 圖像建模已證明其在各種圖像理解任務中的有效性 。最近,基于掩碼的預訓練也被探索用于理解小型 3D 形狀。

然而,基于掩碼的設計通常涉及一個 transformer 主干,它在處理大型 3D 場景時對計算和內存都有很高的要求。

我們專注于對比學習的預訓練,它與基于點和基于體素的 backbone 網絡兼容。

470a1412-f44f-11ed-90ce-dac502259ad0.png

圖 2. 我們提議的 FAC 的框架。

FAC 將兩個增強的 3D 點云視圖作為輸入,首先提取主干特征 和 以與 進行前景感知對比。

然后將主干特征重塑為正則化表示 和 ,以找到兩個視圖之間的對應關系以進行特征匹配。具體來說,我們采用投影頭將 和 傳輸到特征圖 和 ,以自適應地學習它們的相關性并產生增強的表示 和 。

最后, 和 被重塑回 和 ,其中匹配的特征對通過特征對比度損失 得到增強。

因此,FAC 在視圖內和視圖之間利用互補的前景意識,以及前景-背景區別來進行更多信息表示學習。

三、方法

如圖 2 所示,我們提出的 FAC 框架由四個部分組成:數據增強、骨干網絡特征提取、特征匹配和具有匹配對比對的前景-背景感知特征對比優化。

在下文中,我們首先重新審視 3D 點云的典型對比學習方法,并討論它們可能導致信息較少的表示的局限性。

然后,我們從三個主要方面闡述了我們提出的 FAC:

區域分組對比,利用過度分割的局部幾何同質性,來鼓勵局部區域的語義連貫性;

一個由連體網絡和特征對比損失組成的對應框架,用于捕獲所學特征表示之間的相關性;

利用更好的對比對,進行更具辨別力的自監督學習的優化損失。

3.1 重新思考點級和場景級對比

基于對比學習的 3D SSL 的關鍵是在兩個增強視圖之間構建有意義的對比對。正對已在 PointContrast (PCon) 中的點級別或 DepthContrast (DCon) 中的場景級別中構建。

具體來說,給定 3D 局部點/深度掃描的增強視圖,應用對比損失來最大化正對的相似性和負對之間的區別。在大多數情況下,可以應用 InfoNCE loss來進行對比:

這里:

和 是兩個增強視圖的特征向量,用于對比。

是匹配正對的索引集。 是正對,其特征嵌入被強制相似;

而 是負對,其特征嵌入被鼓勵相似與眾不同。

PCon 直接采用配準點級特征對,而 DCon 使用最大池化場景級特征對進行對比。盡管它們在 3D 下游任務中表現不錯,但先前研究中構建的對比對往往是次優的。如圖 1 所示:

點級對比度往往過分強調細粒度的低級細節,而忽略了通常提供對象級信息的區域級幾何連貫性。

場景級對比聚合了整個場景的特征以進行對比,這可能會丟失對象級空間上下文和獨特的特征,從而導致下游任務的信息表示較少。

因此,我們推測區域級對應更適合形成對比度,并且如圖 1 所示,這已經通過實驗驗證,更多細節將在隨后的小節中詳細說明。

3.2 前景感知對比度

Region-wise 特征表示已被證明在考慮下游任務(如語義分割和檢測)的上下文時非常有用。在我們提出的幾何區域級前景感知對比中,我們通過利用現成的點云過分割技術來獲得區域。采用過度分割(over-segmentation)的動機是其在三個主要方面的優點。

首先,它可以以完全無監督的方式工作,不需要任何帶標注的數據。

其次,我們提出的區域采樣(稍后描述)允許我們以無監督的方式過濾掉天花板、墻壁和地面等背景區域,其中背景區域通常由具有大量點的幾何均勻圖案表示。也可以過濾掉點數非常有限的區域,這些區域在幾何和語義上都是嘈雜的。

第三,過分割提供了具有高語義相似性的幾何連貫區域,而不同的遠距離區域在采樣后往往在語義上是不同的,這有效地促進了判別特征學習。

具體來說,過分割將原始點云場景劃分為 類不可知區域 , 對于任何 來說:。

我們的實證實驗表明,我們的框架 FAC 在沒有微調的情況下,可以有效地與主流的過分割方法一起工作。

平衡學習的區域抽樣

我們設計了一種簡單但有效的區域采樣技術,以從通過過度分割導出的幾何均勻區域獲得有意義的前景。具體來說:

我們首先統計每個區域的點數,并根據區域包含的點數對區域進行排序。

然后我們將具有中位數點數的區域識別為 。

接下來,我們選擇點數與 最接近的 個區域來形成對比對。

本地區域一致性的對比

與上述 PCon 和 DCon 不同,我們直接利用區域同質性來獲得對比度對。

具體來說,以區域內的平均點特征為錨點,我們將同一區域內的選定特征視為正鍵,將不同區域內的選定特征視為負鍵。

受益于區域采樣策略,我們可以專注于前景以更好地表示學習。將區域內的點數表示為 ,將主干特征表示為 ,我們將它們的點特征聚合以產生區域內的平均區域特征作為錨點,以增強魯棒性:

將 作為錨點,我們提出了一種前景感知幾何對比度損失,將點特征拉到局部幾何區域中對應的正特征,并將其與不同分離區域的負點特征推開:

這里, 和 分別表示具有 的正樣本和負樣本。

我們將每個區域錨點的正負點特征對的數量均等地設置為 。請注意,我們提出的前景對比度是 PCon 的通用版本,前景增強,如果所有區域都縮小到一個點,它會返回到 PCon。受益于區域幾何一致性和平衡的前景采樣,僅前景感知對比度就在經驗實驗結果的數據效率方面優于最先進的 CSC 。

3.3 前景-背景(foreground-background)感知對比度

如圖 2 所示,我們提出了一個連體對應網絡 (SCN) ,來明確識別視圖內和視圖之間的特征對應關系,并引入特征對比度損失以自適應地增強它們的相關性。 SCN 僅在預訓練階段用于提高表示質量。預訓練后,只有骨干網絡針對下游任務進行微調。

用于自適應相關挖掘的孿生通信網絡。給定具有 個點的輸入3D場景

FAC首先將其轉換為兩個增強視圖和

并通過將兩個視圖輸入骨干網絡 及其動量來獲得骨干特征和 分別更新(通過指數移動平均)( 是特征通道數)。

為了公平比較,我們采用與現有工作相同的增強方案。

此外,我們將主干點級特征重塑為特征圖 和 ,以獲得正則化點云表示并降低計算成本。

然后,我們將投影儀分別應用于 和 ,以獲得與 和 相同維度的特征圖 和 。我們采用兩個簡單的點 MLP,中間有一個 ReLU 層來形成投影儀 。特征圖 和 作為可學習的分數,自適應地增強兩個視圖內和跨兩個視圖的重要和相關特征。

最后,我們在 and 之間進行逐元素乘積,以獲得增強的特征 和 進一步轉化回逐點特征 和 進行對應挖掘。所提出的 SCN 增強了全局特征級判別表示學習,從而能夠與匹配的特征進行后續對比。

與 Matched Feature 和 ForegroundBackground Distinction 對比。

將獲得的采樣前景-背景對標記為負,我們進行特征匹配以選擇最相關的正對比對。如圖 2 所示,我們評估 和 之間的相似性并選擇最相關的對進行對比。區域錨點的選擇方式與 3.2 小節相同。

具體地,我們首先引入一個區域內點特征的平均特征作為形成對比時的錨點,給出,基于點的觀察在同一局部區域中往往具有相同的語義。

對于 中的第 個點級特征 ,我們計算其與區域特征 的相似度:

這里 表示向量 和 之間的余弦相似度。我們從 中采樣前 個元素作為正鍵,同時從前景和背景點特征中提取區域特征 。通過將 操作重新表述為最優傳輸問題,很容易使其變得可微分。

此外,我們同樣選擇其他 個前景-背景對作為負對:

這里, 表示在另一個視圖中從 中識別出的與 最相似的 個元素的正鍵。 分別表示一批中采樣的其他 個負點特征。因此,通過學習 3D 場景的點級特征圖 和 ,可以自適應地增強相關的交叉視點特征。

我們的特征對比通過明確地找到前景錨點的區域到點最相關的鍵作為查詢來增強視圖內和視圖之間特征級別的相關性。通過學習特征圖,自適應地強調相關前景/背景點的特征,同時抑制前景-背景特征。FAC 在點激活圖中定性有效,在下游遷移學習和數據效率方面定性有效。

3.4 FAC聯合優化

同時考慮局部區域級前景幾何對應和視圖內與視圖間的全局前景-背景區分,FAC框架 的總體目標函數如下:

這里 是平衡兩個損失項的權重。我們根據經驗設置 而不進行調整。

472bd3c2-f44f-11ed-90ce-dac502259ad0.png

圖3

圖 3. 室內 ScanNet(第 1-4 行)和室外 KITTI (第 5-8 行)投影點相關圖關于黃色十字突出顯示的查詢點的可視化。

每個示例中的視圖 1 和視圖 2 ,分別顯示視圖內和交叉視圖相關性。

我們將 FAC 與最先進的 CSC 在分割(第 1-4 行)和 ProCo 在檢測(第 5-8 行)方面進行比較。

FAC 清楚地捕獲了視圖內和視圖之間更好的特征相關性(第 3-4 列)。

四、實驗

數據高效學習和知識轉移能力已被廣泛用于評估自監督預訓練和學習的無監督表示[12]。在下面的實驗中,我們首先在大規模未標記數據上預訓練模型,然后對其進行微調使用下游任務的少量標記數據來測試其數據效率。

我們還將預訓練模型轉移到其他數據集,以評估它們的知識轉移能力。這兩個方面通過多個下游任務進行評估,包括3D 語義分割、實例分割和對象檢測。附錄中提供了所涉及數據集的詳細信息。

4.1.實驗設置

3D 對象檢測。

對象檢測實驗涉及兩個主干,包括 VoxelNet 和 PointPillars。按照 ProCo,我們在 Waymo 上預訓練模型并在 KITTI 和 Waymo 上對其進行微調。繼 ProCo 和 CSC 之后,我們通過隨機旋轉、縮放和翻轉以及隨機點丟失來增強數據以進行公平比較。

我們在 ProCo 之后將 和 中的超參數 設置為 ,,并且在所有實驗中正/負對的總數為 ,包括檢測和分割而不調整。

在 Waymo 和 KITTI [8] 的室外目標檢測中,我們使用 Adam 優化器對網絡進行預訓練,并遵循 ProCo 的 epoch和批量大小設置,以便與現有作品進行公平比較。

在 ScanNet 上的室內物體檢測中,我們遵循 CSC 采用 SparseConv 作為骨干網絡和 VoteNet 作為 3D 檢測器,并遵循其訓練設置,場景重建數量有限。

3D 語義分割。

對于 3D 分割,我們在有限的重建設置中嚴格遵循 CSC。具體來說,我們在 ScanNet 上進行預訓練,并對室內 S3DIS、ScanNet 和室外 SemanticKITTI (SK)上的預訓練模型進行微調。

我們在預訓練中使用 SGD,學習率為 ,批量大小為 ,步長為 ,以確保與其他 3D 預訓練方法(包括 CSC 和 PCon)進行公平比較。此外,我們在 SK 上測試了 ScanNet 預訓練模型,以評估其對室外稀疏 LiDAR 點云的學習能力。

唯一的區別是我們對 SK 的模型進行了 次微調,而對室內數據集進行了 次微調。使用 SK 進行更長時間的微調是因為將在室內數據上訓練的模型轉移到室外數據需要更多時間來優化和收斂。

47b7d1ec-f44f-11ed-90ce-dac502259ad0.png

表1

表 1. KITTI 上的數據高效3D 對象檢測。

我們在 Waymo 上預訓練了 PointRCNN 和 PV-RCNN 的骨干網絡,并在微調中以 和 的注釋比例轉移到 KITTI。對于兩種設置,FAC 始終優于最先進的 ProCo。“From Scratch”表示從頭開始訓練的模型。所有實驗結果均取三個運行的平均值。

4.2.數據高效的遷移學習

3D 對象檢測。

自監督預訓練的一個主要目標是使用更少的標記數據進行更高效的數據遷移學習以進行微調。我們評估了從 Waymo 到 KITTI 的數據高效傳輸,如表 1 和圖 4 所示。

我們可以看到 FAC 始終優于最新技術。通過使用 的標記數據進行微調,FAC 通過使用 的訓練數據實現了與從頭開始訓練相當的性能,展示了它在減輕 3D 對象檢測中對大量標記工作的依賴方面的潛力。如圖 3 所示,FAC 對車輛和行人等視圖間和視圖內對象具有明顯更大的激活,表明其學習到的信息和判別表示。

我們還研究了數據高效學習,同時在具有 1% 標簽的標簽極其稀缺的情況下執行域內傳輸到 Waymo 驗證集。如表 2 所示,FAC 明顯且一致地優于 ProCo,證明了其在減少數據注釋方面的潛力。此外,我們在 ScanNet 上進行了室內檢測實驗。

如表 3 所示,與 From Scratch 相比,FAC 實現了出色的轉移,并將 AP 顯著提高了 ,標簽為 10%。此外,當應用較少的注釋數據時,改進會更大。卓越的對象檢測性能主要歸功于我們利用信息前景區域形成對比度的前景感知對比度,以及增強整體對象級表示的自適應特征對比度。

47da5b86-f44f-11ed-90ce-dac502259ad0.png

表2

表 2. Waymo 上具有 1% 和 10% 標記訓練數據的數據高效3D 對象檢測實驗結果。與最先進的 ProCo 相比,表 1 中針對 FAC 的 KITTI 獲得了類似的實驗結果。

47f7beba-f44f-11ed-90ce-dac502259ad0.png

表3

表 3. 以 VoteNet 作為主干網絡的 ScanNet 上,有限數量的場景重建的數據高效3D 對象檢測平均精度 (AP%) 結果。

3D 語義分割。

我們首先對數據集 ScanNet 上的點激活圖進行定性分析。如圖 3 所示,與最先進的 CSC 相比,FAC 可以在 3D 場景內和之間找到更多的語義關系。這表明 FAC 可以學習捕捉相似特征同時抑制不同特征的極好的表征。

我們還進行了如表 4 所示的定量實驗,我們在訓練中采用有限的標簽(例如,{1%、5%、10%、20%})。我們可以看到,對于不同標記百分比下的兩個語義分割任務,FAC 的性能始終大大優于基線 From Scratch。

此外,當僅使用 1% 的標簽時,FAC 的性能顯著優于最先進的 CSC,證明其在使用有限標簽學習信息表示方面的強大能力。注意 FAC 在使用較少標記數據的同時實現了更多改進。對于數據集 SK 上的語義分割,FAC 在標記數據減少的情況下實現了一致的改進和類似的趨勢。

4806f416-f44f-11ed-90ce-dac502259ad0.png

表4

表 4. 具有不同標簽比率的 ScanNet、S3DIS 和 SemanticKITTI (SK) 上有限場景重建 的數據高效3D 語義分割(mIoU%) 結果。

48278a0a-f44f-11ed-90ce-dac502259ad0.png

圖 4. 與 CSC 相比,ScanNet 的室內 3D 分割可視化與 ProCo 相比,使用 10% 標記訓練數據和 KITTI 進行微調,帶有 20% 標記訓練數據。

不同的分割實例和檢測到的對象,用不同的顏色突出顯示。

預測的差異,用黃色橢圓和紅色框突出顯示。

歡迎關注微信公眾號「3D視覺工坊」,加群/文章投稿/課程主講,請加微信:dddvisiona,添加時請備注:加群/投稿/主講申請

方向主要包括:3D視覺領域各細分方向,比如相機標定|三維點云|三維重建|視覺/激光SLAM|感知|控制規劃|模型部署|3D目標檢測|TOF|多傳感器融合|AR|VR|編程基礎等。

4.3.消融研究和分析

我們對 FAC 中的關鍵設計進行廣泛的消融研究。具體來說,我們檢查了所提出的區域采樣、特征匹配網絡和兩個損失的有效性。最后,我們提供t-SNE 可視化以將 FAC 學習的特征空間與最先進的進行比較。

在消融研究中,我們在語義分割實驗中采用 5% 的標簽,在 ScanNet 上的室內檢測實驗中采用 10% 的標簽,在 KITTI 上采用 PointRCNN 作為 3D 檢測器的室外物體檢測實驗中采用 20% 的標簽。

區域抽樣和特征匹配。

區域采樣將前景區域中的點采樣為錨點。表 5 顯示了由抽樣表示的相關消融研究。

我們可以看到,在沒有采樣的情況下,分割和檢測都會惡化,這表明過度分割中的前景區域在形成對比度的同時可能提供重要的對象信息。它驗證了所提出的區域采樣不僅可以抑制噪聲,還可以減輕對背景的學習偏差,從而在下游任務中提供更多信息。

此外,我們用匈牙利二分匹配(即H-FAC)替換建議的 Siamese 對應網絡,如表 5 所示。我們可以觀察到一致的性能下降,表明我們的 Siamese 對應框架可以實現更好的特征匹配并提供用于下游任務的相關性良好的特征對比對。附錄中報告了更多匹配策略的比較。

FAC 損失。

FAC 采用前景感知幾何損失 和特征損失 ,這對其在各種下游任務中的學習表示至關重要。幾何損失指導前景感知對比度以捕獲局部一致性,而特征損失指導前景背景區分。它們是互補的,并且協作學習下游任務的判別表示。

如表 5 中的案例 4 和案例 6 所示,包括損失明顯優于基線以及最先進的 CSC 在分割方面和 ProCo 在檢測方面的表現。

例如,僅包括 (案例 6)在 KITTI 和 ScanNet 上的目標檢測平均精度達到 67.22% 和 18.79%,分別優于 ProCo(66.20% 和 12.64%)1.02% 和 6.15%,如表 1 和表3。

最后,表 5 中的完整 FAC(包括兩種損失)在各種下游任務中學習到具有最佳性能的更好表示。

483ca21e-f44f-11ed-90ce-dac502259ad0.png

表5

表 5. FAC 不同模塊在 ScanNet (Sc) 和 SemanticKITTI (SK) , 及 KITTI (K) 下游任務的消融研究

使用 t-SNE 進行特征可視化。

我們使用 tSNE 來可視化為 SemanticKITTI 語義分割任務學習的特征表示,如圖 5 所示。

與 PCon 和 CSC 等其他對比學習方法相比,FAC 學習了更緊湊和判別特征空間,可以清楚地區分不同語義類的特征。

如圖 5 所示,FAC 學習的特征具有最小的類內方差和最大的類間方差,表明 FAC 學習的表示有助于在下游任務中學習更多的判別特征。

4855384c-f44f-11ed-90ce-dac502259ad0.png

圖 5. t-SNE SemanticKITTI 語義分割的特征嵌入可視化,使用 5% 的標簽進行微調(ScanNet 預訓練)。

顯示了具有最少點數的十個類,其中 表示類內和類間方差。

與最先進的方法 PCon、CSC 相比,FAC 學習了更緊湊的特征空間,具有最小的類內方差和最大的類間方差。

五、結論

我們提出了一種用于 3D 無監督預訓練的前景感知對比框架 (FAC)。FAC 構建更好的對比對以產生更多幾何信息和語義意義的 3D 表示。

具體來說,我們設計了一種區域采樣技術,來促進過度分割的前景區域的平衡學習并消除噪聲區域,這有助于基于區域對應構建前景感知對比對。

此外,我們增強了前景-背景的區別,并提出了一個即插即用的 Siamese 對應網絡,以在前景和背景部分的視圖內和視圖之間找到相關性良好的特征對比對。

大量實驗證明了 FAC 在知識轉移和數據效率方面的優越性。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2928

    瀏覽量

    108470
  • 框架
    +關注

    關注

    0

    文章

    403

    瀏覽量

    17614
  • FAC
    FAC
    +關注

    關注

    0

    文章

    7

    瀏覽量

    7606

原文標題:CVPR2023 | 最新 3D 表征自監督學習+對比學習:FAC

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深非監督學習-Hierarchical clustering 層次聚類python的實現

    【深度學習基礎-17】非監督學習-Hierarchical clustering 層次聚類-python實現
    發表于 04-28 10:07

    基于半監督學習的跌倒檢測系統設計_李仲年

    基于半監督學習的跌倒檢測系統設計_李仲年
    發表于 03-19 19:11 ?4次下載

    基于半監督學習框架的識別算法

    人體行為識別是計算機視覺研究的熱點問題,現有的行為識別方法都是基于監督學習框架.為了取得較好的識別效果,通常需要大量的有標記樣本來建模.然而,獲取有標記樣本是一個費時又費力的工作.為了解決這個
    發表于 01-21 10:41 ?1次下載

    你想要的機器學習課程筆記在這:主要討論監督學習和無監督學習

    with experience E(一個程序從經驗E中學習解決任務T進行某一任務量度P,通過P測量在T的表現而提高經驗E(另一種定義:機器學習是用數據或以往的經驗,以此優化計算機程序的性能標準。) 不同類型的機器學習算法:主要
    發表于 12-03 17:12 ?623次閱讀

    如何用Python進行無監督學習

    監督學習是一種用于在數據中查找模式的機器學習技術。無監督算法給出的數據不帶標記,只給出輸入變量(X),沒有相應的輸出變量。在無監督學習中,算法自己去發現數據中有趣的結構。
    的頭像 發表于 01-21 17:23 ?4374次閱讀

    機器學習算法中有監督和無監督學習的區別

    監督學習的好處之一是,它不需要監督學習必須經歷的費力的數據標記過程。但是,要權衡的是,評估其性能的有效性也非常困難。相反,通過將監督學習算法的輸出與測試數據的實際標簽進行比較,可以很容易地衡量
    的頭像 發表于 07-07 10:18 ?5891次閱讀

    最基礎的半監督學習

    導讀 最基礎的半監督學習的概念,給大家一個感性的認識。 半監督學習(SSL)是一種機器學習技術,其中任務是從一個小的帶標簽的數據集和相對較大的未帶標簽的數據中學習得到的。SSL的目標是
    的頭像 發表于 11-02 16:08 ?2750次閱讀

    監督學習最基礎的3個概念

    導讀 今天給大家介紹半監督學習中的3個最基礎的概念:一致性正則化,熵最小化和偽標簽,并介紹了兩個經典的半監督學習方法。 沒看一的點這里哈:半監督學習入門基礎(一) 半
    的頭像 發表于 11-02 16:14 ?3084次閱讀
    半<b class='flag-5'>監督學習</b>最基礎的<b class='flag-5'>3</b>個概念

    為什么半監督學習是機器學習的未來?

    為什么半監督學習是機器學習的未來。 監督學習是人工智能領域的第一種學習類型。從它的概念開始,無數的算法,從簡單的邏輯回歸到大規模的神經網絡,都已經被研究用來提高精確度和預測能力。 然而
    的頭像 發表于 11-27 10:42 ?4004次閱讀

    監督學習:比監督學習做的更好

    監督學習是人工智能領域的第一種學習類型。從它的概念開始,無數的算法,從簡單的邏輯回歸到大規模的神經網絡,都已經被研究用來提高精...
    的頭像 發表于 12-08 23:32 ?1522次閱讀

    基于人工智能的自監督學習詳解

    監督學習讓 AI 系統能夠從很少的數據中學習知識,這樣才能識別和理解世界上更微妙、更不常見的表示形式。
    的頭像 發表于 03-30 17:09 ?6128次閱讀
    基于人工智能的自<b class='flag-5'>監督學習</b>詳解

    機器學習中的無監督學習應用在哪些領域

    監督學習|機器學習| 集成學習|進化計算| 非監督學習| 半監督學習| 自監督學習|?無
    發表于 01-20 10:52 ?5044次閱讀
    機器<b class='flag-5'>學習</b>中的無<b class='flag-5'>監督學習</b>應用在哪些領域

    監督學習的一些思考

    監督學習的流行是勢在必然的。在各種主流有監督學習任務都做到很成熟之后,數據成了最重要的瓶頸。從無標注數據中學習有效信息一直是...
    發表于 01-26 18:50 ?1次下載
    自<b class='flag-5'>監督學習</b>的一些思考

    設計時空自監督學習框架來學習3D點云表示

    限數據的情況下,半監督學習的顯著改進;并且通過轉移預訓練模型來提升下游任務。例如,通過微調改進了SUN RGB-D和 KITTI 數據集上的 3D 對象檢測,以及S3DIS上進行的
    的頭像 發表于 12-06 10:23 ?963次閱讀

    深度學習中的無監督學習方法綜述

    應用中往往難以實現。因此,無監督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監督學習方法,包括自編碼器、生成對抗網絡、聚類算法等,并分析它們的原理、應用場景以及優
    的頭像 發表于 07-09 10:50 ?1128次閱讀
    主站蜘蛛池模板: 亚洲国产在线视频中文字 | 麻豆人妻换人妻X99 麻豆区蜜芽区 | 暖暖视频免费观看高清完整版 | 男人J桶女人P视频无遮挡网站 | 最美白嫩的极品美女ASSPICS | 蜜桃视频无码区在线观看 | 国产99久久久国产精品免费看 | 又粗又大又爽又黄的免费视频 | ewp系列虐杀在线视频 | 高中生被C到爽哭视频免费 高挑人妻无奈张开腿 | 99精品99 | 国产伊人自拍 | 18av 在线| 国产精品久久久久永久免费看 | 亚洲AV成人片色在线观看网站 | 久久视频在线视频观看精品15 | 手机在线免费看毛片 | 无码AV熟妇素人内射V在线 | 换脸国产AV一区二区三区 | 国产精品99久久久久久人韩国 | 国产乱码免费卡1卡二卡3卡四卡 | 天天综合网网欲色 | 天天操天天干天天爽 | 国产看午夜精品理论片 | 亚洲一级毛片免费在线观看 | 精品国产乱码久久久久久人妻 | 快播欧美大片 | 日韩中文无线码在线视频 | 国产麻豆剧果冻传媒免费网站 | 亚洲在线中文无码首页 | 男女啪啪久久精品亚洲A | WWW国产色情在线观看APP | 亚洲视频中文字幕 | 亚洲蜜桃AV色情精品成人 | 国拍自产精品福利区 | 99婷婷久久精品国产一区二区 | 被窝伦理电影午夜 | 美女内射视频WWW网站午夜 | 一本道无码v亚洲 | 国产AV午夜精品一区二区入口 | 办公室的秘密2中文字幕 |