色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ICCV 2023:實現實時六自由度物體跟蹤

3D視覺工坊 ? 來源:機器之心 ? 2023-10-16 17:13 ? 次閱讀

本文介紹了一篇由國防科技大學劉煜教授團隊和浙江大學 - 商湯聯合實驗室周曉巍教授團隊聯合撰寫的論文《Deep Active Contours for Real-time 6-DoF Object Tracking》,該論文已被計算機視覺人工智能頂尖國際會議 ICCV 2023 錄用。僅需要提供 CAD 框架模型,就可以在多種光照條件和局部遮擋情況下實現對立體物體的實時跟蹤。傳統的基于優化的方法根據手工特征將物體 CAD 模型的投影與查詢圖像對齊來求解位姿,容易陷入局部最優解;最近的基于學習的方法使用深度網絡來預測位姿,但其要么預測精度有限,要么需要提供 CAD 紋理模型。

為此,研究員王龍和博士生顏深創新性地提出一種解決方案 DeepAC。DeepAC 結合了傳統方法和深度學習方法的優勢,提出了一個深度主動輪廓模型,以解決六自由度物體跟蹤的問題。給定初始位姿,首先物體 CAD 模型會投影到圖像平面上以獲得初始輪廓,然后一個輕量級網絡用于預測該輪廓應如何移動,以匹配圖像中物體的真實邊界,從而為物體位姿優化提供梯度。最后,提出了一種可微的優化算法,可以使用物體位姿真值端到端監督訓練所提模型。在半合成和真實六自由度物體跟蹤數據集上的實驗結果表明,所提模型在定位精度方面大幅超過了當前最先進方法,并在移動端達到了實時性能。

f25edb38-6bf8-11ee-939d-92fbcf53809c.png

論文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Wang_Deep_Active_Contours_for_Real-time_6-DoF_Object_Tracking_ICCV_2023_paper.pdf

項目主頁:https://zju3dv.github.io/deep_ac/

背景

目前主流的六自由度物體跟蹤方法分為基于關鍵點、基于邊緣和基于區域三類。基于關鍵點的方法通過在二維圖像和三維物體模型之間匹配關鍵點特征,來求解物體位姿;基于邊緣的方法利用邊緣信息 (顯式或隱式) 計算兩幅連續圖像之間的相對位姿;基于區域的方法利用物體區域與背景區域在顏色統計上的區別,來求解物體位姿。然而,上述基于優化的方法存在一個共同缺點:它們需要手工設計特征和細致調整超參數,使其不能穩健地應用于各類真實場景。

近年來,一些端到端學習方法被提出以增強六自由度物體定位的魯棒性,包括:直接回歸幾何參數;采用渲染 - 比對來迭代地優化位姿。盡管基于學習的方法具有潛力,但是直接回歸法精度有限、泛化能力差;而渲染 - 比對法計算量大、不適用于實時應用,且需要提供帶紋理的 CAD 模型。如何結合了傳統優化方法和基于學習方法的優勢,能夠僅在 CAD 網格模型引導下,準確、魯棒、實時地求解物體位姿,是一個亟待解決的問題。

六自由度物體跟蹤的相關工作

1 基于優化的六自由度物體跟蹤方法

基于優化的方法常用于解決六自由度物體跟蹤問題,具體可以分為三種不同的類別:基于關鍵點 (Keypoint)、基于邊緣 (Edge) 和基于區域 (Region)。基于關鍵點的方法利用局部特征匹配或光流技術建立 2D-3D 對應關系。雖然這種方法表現出了出色的性能,但它需要提供物體的紋理模型。為了解決這個問題,研究人員提出了基于邊緣的方法,通過隱式或顯示地分析物體邊緣位移,判斷物體六自由度位姿變化。例如,RAPiD 通過在投影邊緣的正交方向上搜索最大梯度,來估計連續幀之間的相對位姿。然而,基于邊緣的方法處理不好背景有雜物和運動模糊的情況。

這幾年,基于區域的方法在復雜環境的跟蹤任務中取得了顯著進展。該研究最早可以追溯到 PWP3D 的工作,其有效地結合了前背景分割的統計模型和物體投影的邊界距離場來優化物體位姿。近年來,RBGT 引入了多視角預計算的稀疏對應線 (Correspondence lines),建立符合了高斯分布的概率模型,并使用牛頓法快速收斂到物體位姿。SRT3D 引入了平滑的階躍函數,考慮到全局和局部不確定性,相較于現有方法有明顯改進。然而,基于區域的物體連續位姿估計算法會受到人工定義的特征和超參數限制。

2 基于學習的六自由度物體跟蹤方法

近年來,深度學習方法在六自由度物體姿態估計領域取得了顯著進展。其中一種方法是直接預測旋轉和平移參數。另一種方法則是通過檢測或回歸物體坐標生成 2D-3D 對應關系,進而使用 PnP 求解器估計六自由度位姿。然而,僅通過單個網絡預測物體位姿,其輸出往往不準確。

為了克服這個問題,一些研究采用迭代優化的技術以取得更精確的結果。這類方法的關鍵是迭代的 “渲染 - 比對” 思想。在每次迭代中,利用當前估計的物體位姿渲染三維紋理模型,然后將渲染圖像與實際圖像進行比較,并用神經網絡更新位姿,從而使兩者逐漸對齊。目前,基于學習的方法的主要不足是需要使用 GPU,這使得它們不適合在移動應用程序中部署,例如虛擬現實、增強現實應用。此外,這類方法需要提供物體的紋理模型,但在實際任務中,用戶預先獲取的往往是一個三維掃描或者人工設計的 CAD 網格模型。

方法

針對上述背景和相關工作,論文提出了提出了一種傳統方法和學習方法結合的方案。給定一個視頻序列f26a5594-6bf8-11ee-939d-92fbcf53809c.png和初始時刻的物體位姿,所提方法使用當前幀的單個 RGB 圖像f26e681e-6bf8-11ee-939d-92fbcf53809c.jpg和前一幀該物體位姿f27a6614-6bf8-11ee-939d-92fbcf53809c.png來求解當前幀的物體位姿f28a5e20-6bf8-11ee-939d-92fbcf53809c.png

f2920418-6bf8-11ee-939d-92fbcf53809c.png

1 輪廓特征圖提取

利用上一幀的物體位姿,在 RGB 圖像上裁剪出一個包含目標物體的矩陣區域

f29bf144-6bf8-11ee-939d-92fbcf53809c.png

,并使用以 MobileNetV2 為基礎的 FPN-Lite 網絡,對圖像

f29bf144-6bf8-11ee-939d-92fbcf53809c.png

提取多層特征。提取的多尺度特征圖表示為

f2ae6f68-6bf8-11ee-939d-92fbcf53809c.png

,包含一系列由粗到細的特征信息。其中,

f2b95a04-6bf8-11ee-939d-92fbcf53809c.png

f2c40012-6bf8-11ee-939d-92fbcf53809c.png

f2ccec7c-6bf8-11ee-939d-92fbcf53809c.png

f2dbe808-6bf8-11ee-939d-92fbcf53809c.png

分別表示尺度為 s 的特征圖寬度、高度和維度,

f2e04c5e-6bf8-11ee-939d-92fbcf53809c.png

為提取特征的層數。這種由粗到細的網絡設計可以使得神經網絡編碼到更廣的空間信息,從而提高在物體大幅度運動情況下的定位精度。下圖可視化了一組 FPN-Lite 網絡提取的多層次特征圖,先用 PCA 對特征圖

f2edbdc6-6bf8-11ee-939d-92fbcf53809c.png

進行降維,再表示成 RGB 圖像。

f2f626be-6bf8-11ee-939d-92fbcf53809c.png

受到 RBGT 的啟發,論文使用對應線模型 (Correspondence Line Model) 描述二維輪廓的局部區域。具體來說,對應線模型在二維輪廓上均勻采樣若干個二維點,并建立相應的對應線f2ffbcec-6bf8-11ee-939d-92fbcf53809c.png。每條對應線由一個中心點

f3054004-6bf8-11ee-939d-92fbcf53809c.png

和一個單位法向量

f3147786-6bf8-11ee-939d-92fbcf53809c.png

組成,它們通過三維輪廓點f31c6f04-6bf8-11ee-939d-92fbcf53809c.png及其相關的三維法向量f328826c-6bf8-11ee-939d-92fbcf53809c.png投影到二維圖像平面上得到。通過在特征圖

f330b040-6bf8-11ee-939d-92fbcf53809c.png

上插值采樣這些二維點集 (使用 PyTorch 的 grid_sample 函數),可生成輪廓特征圖

f340217e-6bf8-11ee-939d-92fbcf53809c.png

f35201f0-6bf8-11ee-939d-92fbcf53809c.png是采樣的二維輪廓點的數量。

2 邊界圖預測

論文設計了一個輕量化網絡,用于預測邊界概率圖

f35622c6-6bf8-11ee-939d-92fbcf53809c.png

f3646c96-6bf8-11ee-939d-92fbcf53809c.png動態設定,以移除圖像邊緣外的區域。在邊界概率圖f376c27e-6bf8-11ee-939d-92fbcf53809c.png中,位于

f37c0eb4-6bf8-11ee-939d-92fbcf53809c.png

坐標處的值表示二維點f381a536-6bf8-11ee-939d-92fbcf53809c.png作為第

f3910094-6bf8-11ee-939d-92fbcf53809c.png

條對應線邊界的概率。為了提高網絡的泛化能力,論文將基于傳統統計方法所得到的前景概率圖f39cdf5e-6bf8-11ee-939d-92fbcf53809c.png和邊界概率圖f3a99096-6bf8-11ee-939d-92fbcf53809c.png與輪廓特征圖f3b4db68-6bf8-11ee-939d-92fbcf53809c.png融合,作為輕量化網絡的輸入。

f3c3a4e0-6bf8-11ee-939d-92fbcf53809c.png

上圖詳細介紹了邊界預測模塊的前向傳播過程。其使用了三種不同的輸入,分別是前景概率圖

f3d1aa40-6bf8-11ee-939d-92fbcf53809c.png

和邊界概率圖

f3d62066-6bf8-11ee-939d-92fbcf53809c.png

與輪廓特征圖

f3e18488-6bf8-11ee-939d-92fbcf53809c.png

。通過在不同階段使用拼接 (Concat) 操作,將這些信息融入到神經網絡中,來預測邊界概率圖f3e8854e-6bf8-11ee-939d-92fbcf53809c.png。實驗表明,將傳統統計信息和深度特征進行融合并作為網絡的輸入,能夠顯著的提高定位算法的性能指標。

3 位姿優化

本小節基于輕量化網絡學習得到的邊界概率圖

f3ee1afe-6bf8-11ee-939d-92fbcf53809c.png

,采用迭代優化方法恢復當前幀物體的位姿

f3f3777e-6bf8-11ee-939d-92fbcf53809c.png

。在位姿

f3f3777e-6bf8-11ee-939d-92fbcf53809c.png

每一輪迭代更新時,二維輪廓點

f40d004a-6bf8-11ee-939d-92fbcf53809c.png

和三維輪廓點f411e4de-6bf8-11ee-939d-92fbcf53809c.png之間重投影誤差f415ae16-6bf8-11ee-939d-92fbcf53809c.png計算如下:

f425bef0-6bf8-11ee-939d-92fbcf53809c.png

其中,

f43586f0-6bf8-11ee-939d-92fbcf53809c.png

為投影輪廓法向向量,

f439c008-6bf8-11ee-939d-92fbcf53809c.png

f44c2018-6bf8-11ee-939d-92fbcf53809c.png

分別為物體在第 k 幀的旋轉和平移,π 表示針孔相機模型的投影函數:

f4545558-6bf8-11ee-939d-92fbcf53809c.png

其中,f45be28c-6bf8-11ee-939d-92fbcf53809c.png分別為x,y圖像空間方向焦距及光心。給定位姿f4624bea-6bf8-11ee-939d-92fbcf53809c.png后,重投影f46e4c9c-6bf8-11ee-939d-92fbcf53809c.png距離刻畫了三維輪廓點f479f34e-6bf8-11ee-939d-92fbcf53809c.png的投影在第i條的對應線上的位置。該位置作為邊界點的似然估計是:

f4851f12-6bf8-11ee-939d-92fbcf53809c.png

每條對應線上邊界點似然估計相互獨立,則所有對應線整體似然估計為:

f4903b4a-6bf8-11ee-939d-92fbcf53809c.png

本小節的目標為尋找使得似然估計最大化的位姿f4988d5e-6bf8-11ee-939d-92fbcf53809c.png

為了最大化該似然估計,本小節采用了迭代牛頓法和 Tikhonov 正則化來優化位姿求解。具體的位姿更新方式如下:

f4aae01c-6bf8-11ee-939d-92fbcf53809c.png

式中H為海森矩陣,g是梯度向量,f4b68a20-6bf8-11ee-939d-92fbcf53809c.png為 3×3 的單位矩陣。f4c81452-6bf8-11ee-939d-92fbcf53809c.pngf4d0b094-6bf8-11ee-939d-92fbcf53809c.png分別表示三維旋轉和三維平移的正則化參數。由于三維旋轉R屬于一個李群,所以它可用一個李代數的指數映射表示:

f4d712ea-6bf8-11ee-939d-92fbcf53809c.png

式中,三維向量f4ddcb94-6bf8-11ee-939d-92fbcf53809c.png是李代數空間 so (3) 的元素,f4ebbbb4-6bf8-11ee-939d-92fbcf53809c.pngf4f06358-6bf8-11ee-939d-92fbcf53809c.png的斜對稱矩陣。因此一個位姿f4fbe9b2-6bf8-11ee-939d-92fbcf53809c.png能夠被一個六自由度的變量表示f50a2eb4-6bf8-11ee-939d-92fbcf53809c.pngf51b87ae-6bf8-11ee-939d-92fbcf53809c.png。根據鏈式求導法則,海森矩陣H和梯度向量g的計算如下:

f52d0588-6bf8-11ee-939d-92fbcf53809c.png

式中

f538a262-6bf8-11ee-939d-92fbcf53809c.png

為三維輪廓點f547d818-6bf8-11ee-939d-92fbcf53809c.png在相機坐標空間的位置。f550c8c4-6bf8-11ee-939d-92fbcf53809c.png為重投影誤差相對于相機坐標空間點f5560258-6bf8-11ee-939d-92fbcf53809c.png的一階偏導數,它的計算公式如下:

f55c51a8-6bf8-11ee-939d-92fbcf53809c.png

對于相機坐標空間下的三維點相對于六自由度位姿的一階偏導數f56e2400-6bf8-11ee-939d-92fbcf53809c.png的計算,本小節采用經典的擾動模型推導得到如下公式:

f579fe9c-6bf8-11ee-939d-92fbcf53809c.png

為了端到端訓練之前所提出的網絡模型,本小節采用兩種近似方法來估計

f584cc82-6bf8-11ee-939d-92fbcf53809c.png

關于f58c56a0-6bf8-11ee-939d-92fbcf53809c.png的一階導數。第一種近似方法直接使用每條對應線的均值f594f1fc-6bf8-11ee-939d-92fbcf53809c.png和方差f5a9bfba-6bf8-11ee-939d-92fbcf53809c.png計算導數,具體計算方式如下:

f5add096-6bf8-11ee-939d-92fbcf53809c.png

第二種近似方法利用了三維輪廓投影點附近區域的邊界概率,具體計算公式如下:

f5bd1ea2-6bf8-11ee-939d-92fbcf53809c.png

這兩種近似方法具有不同的特性:第一種近似用于直接學習每條對應線上的邊界位置f5c5f9fa-6bf8-11ee-939d-92fbcf53809c.png,從而實現快速收斂。第二種近似用于學習局部邊界概率,從而細致優化位姿。此外,方差f5cb4b6c-6bf8-11ee-939d-92fbcf53809c.png用于刻畫每條對應線的不確定性,在位姿求解過程中起到了增強魯棒性的作用。為了分析邊界不確定性對于物體姿態預測的影響,論文采用了一種基于顏色漸變的可視化方法,使用用較暖 (紅色) 的顏色來表示邊界不確 定性值 (即f5cb4b6c-6bf8-11ee-939d-92fbcf53809c.png) 較小的區域。從下圖中可以看出,物體沒有被遮擋的邊界對于位姿預測更有幫助,而被遮擋的邊界則相對無關緊要。

f5dfad8c-6bf8-11ee-939d-92fbcf53809c.png

4 網絡監督

論文提出的方法以每次迭代優化后所得的位姿

f5ed05ae-6bf8-11ee-939d-92fbcf53809c.png

與真實位姿f5f4a11a-6bf8-11ee-939d-92fbcf53809c.png間的差異為依據:

f5fe87b6-6bf8-11ee-939d-92fbcf53809c.png

其中,P是 Huber 魯棒核函數。為了避免困難樣例對模型訓練產生不利影響,論文采用了條件損失函數:只有在前一次迭代優化后所得的位姿在真實解附近時,才將其納入損失函數的計算中;如果某次迭代優化后所得的位姿偏離真實解過大,則忽略其對應的損失項。這樣可以保證模型只使用可信度高的訓練樣本。

結果

1 與基于優化的方法比較

(1)RBOT 數據集

在 RBOT 數據集上,論文采用 5cm?5?召回率,來評估定位的精度。具體而言,每一幀圖像是否被成功定位取決于其平移誤差是否小于 5cm 且旋轉誤差是否小于5?。

實驗結果表明,在常規、動態光照和場景遮擋下,現有的基于優化的方法已經非常接近性能上限,SRT3D 和 LDT3D 的 5cm?5?召回率已接近或超過 95%。在這三種情況下,DeepAC 表現出了相似的性能,在常規和動態光照情況下小幅領先,在場景遮擋情況下略微落后。但是,在噪聲情況下,所提方法顯著優于其他基于優化的方法,5cm?5?召回率從 83.2% 提高到 88.0%,這一結果證明了 DeepAC 對圖像噪聲具有較強的魯棒性。

f60fc8fa-6bf8-11ee-939d-92fbcf53809c.png

(2)BCOT 數據集

論文在 BCOT 數據集上對所提方法進行了實驗驗證,并采用 ADD-(s) d 和厘米 - 度召回率來評估位姿估計的精度。與在 RBOT 數據集上進行的實驗不同,在 BCOT 數據集上,增加了一些更嚴格的評價指標,即 ADD-0.02d、ADD-0.05d、 ADD-0.1d 以及 2cm?2?召回率,以評估算法的高精度定位能力。其中,d 表示物體模型 3D 包圍盒的最大長度。

實驗結果表明,DeepAC 在所有閾值下的 ADD-(s) d 和厘米 - 度召回率均優于其他基于優化的基線方法。特別是,在非常嚴格的 ADD-(s) d 標準下,所提方法表現出顯著的優勢,相比于排名第二的 LDT3D,在 ADD-0.02d、ADD-0.05d 和 ADD-0.1d 上分別提高了 9.1 個百分點、14.1 個百分點和 9.6 個百分點。這些結果充分表明了 DeepAC 具有高精度定位的能力。

f626ab92-6bf8-11ee-939d-92fbcf53809c.png

(3) OPT 數據集

在 OPT 數據集上,論文先計算不同誤差閾值 s 下的 ADD-(s) d 得分,再通過計算曲線下面積 (AUC) 得分來衡量視頻序列中物體位姿估計的質量。其中,誤差閾值 s 的范圍設定為 [0, 0.2]。

下表顯示了 DeepAC 在六個物體上均優于當前最先進的基于優化的方法,在 AUC 分數上取得了明顯提升。在平均 AUC 分數方面,DeepAC 達到 16.69,比排名第二的方法 SRT3D 高出 6.10%。這些結果表明 DeepAC 在真實場景下具有優異的跟蹤能力。

f62beb20-6bf8-11ee-939d-92fbcf53809c.png

2 與基于學習的方法比較

為了驗證 DeepAC 模型在不同數據集上具有很好的泛化能力,論文在 RBOT 數據集上與當前最先進的基于學習的方法進行了對比實驗。論文選取了除 “Clown” 物體外 (因為其紋理圖有誤) 所有序列作為測試集,并使用平均 ADD-(s) d 和厘米 - 度召回率作為評估指標。為了與其他基于學習的方法公平比較,所提方法 DeepAC 使用相同的訓練數據和方式,并記作 DeepAC?。

f63c5384-6bf8-11ee-939d-92fbcf53809c.png

實驗結果顯示,其他典型的基于學習的方法定位精度遠低于 DeepAC,這充分說明了 DeepAC 在不同數據集上具有很強大且穩定的泛化能力。

3 消融分析

論文通過消融實驗分析 DeepAC 中三個主要的設計對物體六自由度定位性能的影響,分別是:1) 統計信息融入;2) 多層特征提取;3) 邊界不確定性估計。實驗在 RBOT 和 BCOT 數據集上進行,并將結果展示在下表。

f64dac10-6bf8-11ee-939d-92fbcf53809c.png

應用前景

該研究成果在民用和軍事領域都有廣泛的應用。在民用領域,該研究可用于強現實、機器人操作和人機交互等眾多應用。在軍事領域,該研究可用于支持空中無人裝備與巡飛彈在復雜光照條件下對目標的多角度實時跟蹤與打擊。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人機交互
    +關注

    關注

    12

    文章

    1206

    瀏覽量

    55382
  • 機器人
    +關注

    關注

    211

    文章

    28380

    瀏覽量

    206918
  • 計算機視覺
    +關注

    關注

    8

    文章

    1698

    瀏覽量

    45976
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113

原文標題:ICCV 2023 | 實現實時六自由度物體跟蹤

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    DSP在自由度電磁跟蹤系統中的應用

    自由度電磁跟蹤系統根據電磁感應的原理來計算出目標的自由度參數,從而唯一確定目標的位置和姿態。怎樣由接收到的模擬信號計算得到目標的位置和
    發表于 01-25 00:11 ?1313次閱讀
    DSP在<b class='flag-5'>六</b><b class='flag-5'>自由度</b>電磁<b class='flag-5'>跟蹤</b>系統中的應用

    基于FPGA EtherCAT的自由度機器人視覺伺服控制設計

    機器人視覺伺服中有著廣闊的應用,本實驗將集成攝像頭的 伊瑟特主站應用在自主研發的自由度串聯機器人上,將機器人運動學算法編寫入 伊瑟特主站,使得機器人可以隨著攝像頭檢測到的物體實時
    發表于 05-29 16:17

    基于STM32、以太網、Labview的自由度Stewart并聯運動平臺模型

    自由度Stewart并聯運動平臺模型-X,Y,Z平移、旋轉測試自由度Stewart并聯運動平臺-Z向旋轉正弦波復現
    發表于 04-16 23:25

    關于自由度座椅的控制

    最近在參與一個自由度座椅控制的課題,需要查閱哪些方面的相關書籍,有什么推薦嗎?謝謝各位
    發表于 01-13 14:46

    【芯靈思A83T試用申請】嵌入式視覺--遠距離物體跟蹤與定位

    方法,邊緣提取,以及由擬合圓的方法,達到能獲取自由度物體的微小位移或者旋轉角度,實現物體實時
    發表于 04-27 14:18

    基于Matlab的開源自由度協作機器人實驗平臺

    一前言針對機器人相關專業的教學需求,商飛信息科技開發出此開源自由度協作機器人實驗平臺。該平臺有以下幾大特色機器人本體采用自主設計的3Kg負載自由度協作機器人,機器人每個關節集成電機
    發表于 09-07 07:10

    基于磁阻傳感器的虛擬現實跟蹤系統

    介紹了虛擬現實跟蹤系統的概念、用途以及磁阻傳感器的特點闡述了利用磁阻傳感器開發虛擬現實自由度自由
    發表于 06-27 09:19 ?16次下載

    自由度液壓運動平臺的迭代學習控制盧穎

    自由度液壓運動平臺的迭代學習控制_盧穎
    發表于 03-15 08:00 ?1次下載

    ADIS16485:戰術級自由度慣性傳感器數據表

    ADIS16485:戰術級自由度慣性傳感器數據表
    發表于 05-23 17:32 ?9次下載
    ADIS16485:戰術級<b class='flag-5'>六</b><b class='flag-5'>自由度</b>慣性傳感器數據表

    ADIS16365:自由度慣性傳感器數據表

    ADIS16365:自由度慣性傳感器數據表
    發表于 05-23 20:27 ?2次下載
    ADIS16365:<b class='flag-5'>六</b><b class='flag-5'>自由度</b>慣性傳感器數據表

    ADIS16385:自由度慣性傳感器報廢數據表

    ADIS16385:自由度慣性傳感器報廢數據表
    發表于 05-24 09:14 ?1次下載
    ADIS16385:<b class='flag-5'>六</b><b class='flag-5'>自由度</b>慣性傳感器報廢數據表

    ADIS16495:戰術級自由度慣性傳感器數據表

    ADIS16495:戰術級自由度慣性傳感器數據表
    發表于 05-25 18:04 ?9次下載
    ADIS16495:戰術級<b class='flag-5'>六</b><b class='flag-5'>自由度</b>慣性傳感器數據表

    自由度激光跟蹤儀的特點

    GTS6000激光跟蹤儀與空間姿態探頭配合組成自由度激光跟蹤儀,能夠根據合作目標的精確空間姿態對被測工件的內部特征、隱藏特征或曲面等復雜特征進行快速、高精度的測量。
    的頭像 發表于 07-21 10:58 ?706次閱讀
    <b class='flag-5'>六</b><b class='flag-5'>自由度</b>激光<b class='flag-5'>跟蹤</b>儀的特點

    專家點贊!國家重點研發計劃“自由度激光自動精準跟蹤測量關鍵技術”項目通過驗收

    2023年9月26日,中圖儀器牽頭的國家重點研發計劃——“自由度激光自動精準跟蹤測量關鍵技術”的項目綜合績效評價會議在深圳順利召開。本項目瞄準我國航空航天、汽車船舶、軌道交通、機器人
    發表于 10-07 11:34 ?0次下載

    一文讀懂自由度激光跟蹤

    激光跟蹤儀與空間姿態探頭(iProbe 6D姿態探頭)配合使用,就組成自由度激光跟蹤儀。它能夠根據合作目標的精確空間姿態對被測工件的內部特征、隱藏特征或曲面等復雜特征進行快速、高精度
    的頭像 發表于 12-12 09:39 ?754次閱讀
    一文讀懂<b class='flag-5'>六</b><b class='flag-5'>自由度</b>激光<b class='flag-5'>跟蹤</b>儀
    主站蜘蛛池模板: www国产av偷拍在线播放| 97国产精品人妻无码免费| 2019中文字幕乱码免费| 成人国产一区| 精品AV综合导航| 欧美午夜精品A片一区二区HD| 久久免费精品国产72精品剧情| 琪琪热热色原日韩在线| 亚洲精品123区| 91亚洲精品| 国产亚洲精品首页在线播放| 鲁大师影院在线视频在线观看| 少妇系列之白嫩人妻| 中文字幕绝色少妇性| 国产精品九九久久精品视| 麻豆乱码一卡二卡三卡视频| 小草观看免费高清视频| 99视频这里只有精品| 河南老太XXXXXHD| 日本视频中文字幕一区二区| 一个人在线观看免费高清视频在线观看| 办公室激情在线观看| 久久只精品99品免费久| 双性h浪荡受bl| 99精品欧美一区二区三区美图| 国语自产二区高清国语自产拍| 人曽交Z00Z0OA片| 中文字幕无线观看不卡网站| 国产精品永久在线| 奇米色偷偷| 最新无码国产在线视频9299 | 中文字幕专区高清在线观看| 国产高清美女一级a毛片久久w| 男人一进一出桶女人视频| 亚洲视频网站欧美视频网站| 国产精品18久久久久网站 | 少女亚洲free| 99热久久精品国产一区二区| 精品午夜国产福利观看| 天天夜夜草草久久亚洲香蕉| s8sp视频高清在线播放|