色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

NVIDIA英偉達 ? 來源:未知 ? 2023-11-09 10:45 ? 次閱讀

在訓練那些部署在自主移動機器人(AMR)上的感知 AI 模型時,合成數據可以發揮關鍵作用。這一過程在制造業中變得越來越重要。有關使用合成數據生成預訓練模型,用于檢測倉庫中托盤的示例,可參見使用《OpenUSD 和合成數據開發托盤檢測模型》一文:https://developer.nvidia.com/blog/developing-a-pallet-detection-model-using-openusd-and-synthetic-data/

本文將探討如何訓練 AMR 使用合成數據來檢測倉庫中的托盤千斤頂。托盤千斤頂通常用于抬起和運輸重型托盤。在擁擠的倉庫中,AMR 進行檢測并避免與托盤千斤頂相撞是很重要的。

為了實現這一目標,有必要在不同的光照條件和遮擋下使用大量不同的數據集來訓練 AI 模型。真實的數據很少能捕捉到潛在環境的全部范圍,而合成數據生成(SDG)是由 3D 仿真生成的注釋數據,使開發人員能夠克服數據差距并引導模型訓練過程。

視頻 1:使用 NVIDIA Omniverse Replicator

為 NVIDIA Isaac Sim 生成合成數據

本次用例將通過處理數據來踐行以數據為中心的方法,而不是通過更改模型參數去適應數據。這一過程首先使用 NVIDIA Isaac Sim 中的 NVIDIA Omniverse Replicator 生成合成數據,隨后使用 NVIDIA TAO Toolkit 中的合成數據對模型進行訓練,最后,將模型在真實數據上的性能可視化,并修改參數以生成更好的合成數據,達到期望的性能水平。

Omniverse Replicator 是 NVIDIA Omniverse 的核心擴展,是一個使個人和團隊能夠基于通用場景描述(OpenUSD)開發工作流的計算平臺。Replicator 使開發者能夠構建定制的合成數據生成管線,以生成數據來引導計算機視覺模型的訓練。

迭代合成數據以提高模型性能

以下解釋了本團隊如何迭代合成數據,來提高目標檢測模型的實際性能,并通過兼容 Omniverse Replicator API 的 Python 腳本詳細介紹了這些步驟。

在每次迭代時,我們增量改變模型中的各種參數,并生成新的訓練數據集,然后用實際數據驗證模型的性能。我們持續這一過程,直到能夠縮小仿真與現實之間的差距。

對象或場景參數變化的過程被稱為域隨機化。您可以隨機化許多參數來快速生成新數據用于模型訓練,這些參數包括位置、顏色、紋理、背景、物體和場景的光照。

OpenUSD 是一個可擴展的框架,一種 3D 場景描述技術,也是 NVIDIA Omniverse 的基礎,讓試驗一個場景中的不同參數變得很容易。參數可以在單獨的層中修改和測試,用戶可以在這些層之上創建非破壞性編輯。

準備

在起步階段,我們需要一個安裝有 NVIDIA RTX GPU最新版本的 NVIDIA Isaac Sim 的系統。Isaac Sim 是一個可擴展的機器人仿真應用程序,其利用 Omniverse Replicator 的核心功能生成合成數據。有關安裝和配置的詳細信息,請參見文檔:https://docs.omniverse.nvidia.com/isaacsim/latest/installation/requirements.html

當 Isaac Sim 啟動并運行時,我們可以從 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow 下載所有資產。

第一次迭代:改變顏色和攝像頭位置

在第一次迭代中,我們改變了托盤千斤頂的顏色和姿勢,以及攝像頭的姿勢。可以按照以下步驟在自己的會話中復制此場景。

首先加載舞臺(Stage):

ENV_URL = "/Isaac/Environments/Simple_Warehouse/warehouse.usd"
open_stage(prefix_with_isaac_asset_server(ENV_URL))

然后添加托盤千斤頂和攝像頭到場景中。托盤千斤頂可以從 SimReady 資產庫中加載。

PALLETJACKS = ["http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Scale_A/PalletTruckScale_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Heavy_Duty_A/HeavyDutyPalletTruck_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Low_Profile_A/LowProfilePalletTruck_A01_PR_NVD_01.usd"]
 
cam = rep.create.camera(clipping_range=(0.1, 1000000))

SimReady 或仿真就緒資產是包含精確物理屬性和行為的物理精確 3D 對象。它們預裝有模型訓練所需的元數據和注釋。

接下來,為托盤千斤頂和攝像頭添加域隨機化:

with cam:
        rep.modify.pose(position=rep.distribution.uniform((-9.2, -11.8,   0.4), (7.2, 15.8, 4)),look_at=(0, 0, 0))
 
   # Get the Palletjack body mesh and modify its color
   with rep.get.prims(path_pattern="SteerAxles"):
      rep.randomizer.color(colors=rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
 
  # Randomize the pose of all the added palletjacks
  with rep_palletjack_group:
   rep.modify.pose(
  position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
  rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
  scale=rep.distribution.uniform((0.01, 0.01, 0.01), (0.01, 0.01, 0.01)))

wKgZomVMSNyACi0RAARLy7nLidY827.png

圖 1. 顯示托盤千斤頂隨機顏色和位置與

隨機攝像機的位置的合成圖像

最后,配置用于注釋數據的編寫器:

writer = rep.WriterRegistry.get("KittiWriter") 
writer.initialize(output_dir=output_directory,
          omit_semantic_type=True,)

本例使用 Replicator 提供的 KittiWriter,以 KITTI 格式存儲對象檢測標簽的注釋,這將確保更容易與訓練管線兼容。

結果

對于第一批合成數據,團隊使用了 LOCO 數據集,這是一個用于物流的場景理解數據集,涵蓋了檢測物流特定對象的問題,以可視化現實世界的模型性能。

生成的圖像顯示,該模型仍然試圖在擁擠的倉庫中檢測托盤千斤頂(圖 2),在托盤千斤頂附近的物體周圍創建了許多邊界框。考慮到這是第一次訓練迭代,這個結果在一定程度上是意料之中的,減少域差距將是后續迭代的重點。

wKgZomVMSNyANl7OAAWuFwdCimU233.png

圖 2:在根據現實數據來驗證模型后,

現實世界的圖像顯示了許多報錯

第二次迭代:添加紋理和改變環境照明

在這次迭代中,除了第一次迭代中的托盤顏色和攝像頭位置外,團隊還隨機化了紋理和環境照明。

激活紋理和光照的隨機化:

# Randomize the lighting of the scene
  with rep.get.prims(path_pattern="RectLight"):
   rep.modify.attribute("color", rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
   rep.modify.attribute("intensity", rep.distribution.normal(100000.0, 600000.0))
   rep.modify.visibility(rep.distribution.choice([True, False, False, False, False, False, False]))
 
# select floor material
random_mat_floor = rep.create.material_omnipbr(diffuse_texture=rep.distribution.choice(textures),                          roughness=rep.distribution.uniform(0, 1),                        metallic=rep.distribution.choice([0, 1]),                          emissive_texture=rep.distribution.choice(textures),      emissive_intensity=rep.distribution.uniform(0, 1000),)
     
     
   with rep.get.prims(path_pattern="SM_Floor"):
     rep.randomizer.materials(random_mat_floor)

圖 3 顯示了生成的合成圖像。可以看到已經添加到背景中的各種紋理和入射到物體上的不同類型的環境光。

wKgZomVMSN2AEa1lAATb2dwb-vY445.png

圖 3:不同紋理背景的托盤千斤頂的合成圖像

結果

本次迭代的報錯數量減少,增加了紋理和光照隨機化。生成合成數據時的一個關鍵因素是確保結果數據集中數據的多樣性。來自合成域的類似或重復數據可能無助于改善現實世界中的模型性能。

為了提高數據集的多樣性,可以在場景中添加更多的隨機化對象。這將在第三次迭代中解決,并且應該有助于改善模型的穩健性。

wKgZomVMSN2AAyvOAAVyCERfk2A136.png

圖 4. 現實世界的圖像表明,經過隨機紋理和光照圖像的訓練,該模型檢測托盤千斤頂的精度更高

第三次迭代:添加干擾

本次迭代將額外的對象(稱為干擾物)引入到場景中,這些干擾物增加了數據集的多樣性。此次迭代還包括前兩次迭代中的所有更改。

在場景中添加干擾物:

DISTRACTORS_WAREHOUSE = ["/Isaac/Environments/Simple_Warehouse/Props/S_TrafficCone.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/S_WetFloorSign.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_01.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_02.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_03.usd"]
 
# Modify the pose of all the distractors in the scene
with rep_distractor_group:
    rep.modify.pose(
position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
      rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
      scale=rep.distribution.uniform(1, 1.5))

這個項目使用的所有資源都可以通過默認的 Isaac Sim 安裝獲得,并通過指定它們在核心服務器上的路徑來加載它們。

wKgZomVMSN2AeJd1AAU8vEhnFPc666.png

圖 5. 被常見倉庫物體(干擾物)包圍的

托盤千斤頂的合成圖像

結果

圖 6 顯示了第三次迭代的結果。該模型能夠準確地檢測到托盤千斤頂,并且邊界框較少。與第一次迭代相比,模型性能得到了顯著改善。

wKgZomVMSN2ANCeIAAWgfea1mto418.png

圖 6. 現實世界的圖像顯示,

該模型能夠準確檢測到托盤千斤頂

持續迭代

該團隊在每次迭代中使用 5000 張圖像來訓練模型。您可以通過生成更多的變量和增加合成數據來繼續迭代此工作流,以達到所需的精度。

我們使用 NVIDIA TAO Toolkit 來訓練帶有 resnet18 主干的 DetectNet_v2 模型進行這些實驗。使用這個模型并不是工作流的要求,您可以利用使用注釋生成的數據來訓練您所選擇的體系架構和框架的模型。

我們在實驗中使用了 KITTI 編寫器。也可以使用 Omniverse Replicator 編寫自己的自定義編寫器,以正確的注釋格式生成數據,這將使您的訓練工作流無縫兼容。

您還可以在訓練過程中混合現實數據和合成數據來進行實驗。在獲得滿意的評價指標后,最終模型可以在 NVIDIA Jetson 上進行優化和部署。

使用 Omniverse Replicator

開發合成數據管線

通過使用 Omniverse Replicator,您可以構建自己的自定義合成數據生成管線或工具,以編程方式生成大量不同的合成數據集,以引導模型并快速迭代。引入各種類型的隨機化為數據集增加了必要的多樣性,使模型能夠在各種條件下識別對象或是感興趣的對象。

使用本文中的工作流,請訪問 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow。要查看完整的工作流,NVIDIA 的團隊成員展示了如何使用 Omniverse Replicator 和合成數據來訓練制造流程的對象檢測模型(視頻 2)。

視頻 2:學習如何用合成數據訓練計算機視覺模型

要構建自己的自定義合成數據生成管線,請免費下載 Omniverse,并按照說明開始使用 Omniverse 代碼中的 Replicator。您也可以參加自定進度的在線課程“合成數據生成訓練計算機視覺模型”,并觀看最新的 Omniverse Replicator 教程

  • 免費下載 Omniverse:

    https://www.nvidia.com/en-us/omniverse/download/

  • 開始使用 Omniverse 代碼中的 Replicator:

    https://docs.omniverse.nvidia.com/extensions/latest/ext_replicator/getting_started.html

  • 通過合成數據生成訓練計算機視覺模型:

    https://courses.nvidia.com/courses/course-v1:DLI+S-OV-10+V1/

  • 最新的 Omniverse Replicator 教程:

    https://www.nvidia.com/en-us/on-demand/playlist/playList-35d98b97-8abf-4f92-883a-c898801f28b4/

NVIDIA 最近發布了 Omniverse Replicator 1.10,為開發者構建低代碼 SDG 工作流提供了新的支持。相關詳細信息,請參見“在 NVIDIA Omniverse Replicator 1.10 中使用低代碼工作流促進合成數據生成”:https://developer.nvidia.com/blog/boost-synthetic-data-generation-with-low-code-workflows-in-nvidia-omniverse-replicator-1-10/

NVIDIA Isaac ROS 2.0 和 NVIDIA Isaac Sim 2023.1 現已可用,其對性能感知和高保真仿真進行了重要更新。如需了解更多信息,請參閱《NVIDIA Isaac 平臺先進的仿真和感知工具助力 AI 機器人技術加速發展》。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3800

    瀏覽量

    91356

原文標題:如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    移動機器人核心科技解碼:導航、感知與掌控力的深度剖析

    富唯智能移動機器人的核心技術主要包括導航、感知與控制。這些技術共同決定了移動機器人在不同環境中的自主行動能力和工作效率。
    的頭像 發表于 01-02 16:01 ?102次閱讀

    自主移動機器人設計指南

    自主移動機器人(AMR)是一種復雜的系統,與自動駕駛汽車有許多共同之處--它們需要感知、電機驅動、電源轉換、照明和電池管理。也許最大的挑戰是將這些子系統整合到一個最終產品中--由于需要集成來自不同供應商的不同子系統,這一挑戰變得更加困難。
    的頭像 發表于 12-29 11:45 ?364次閱讀
    <b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>設計指南

    思嵐科技榮獲雙年度移動機器人優質供應鏈獎

    移動機器人(AGV/AMR)產業聯盟、人形機器人場景應用聯盟主辦的“2024中國移動機器人(AGV/AMR)產業發展年會”于12月13日在江蘇蘇州圓滿落幕!
    的頭像 發表于 12-16 17:54 ?488次閱讀

    移動機器人的技術突破和未來展望

    移動機器人已經成為現代社會不可或缺的一部分,在各個領域發揮著越來越重要的作用。在這個過程中,富唯智能機器人以其卓越的技術突破,引領著移動機器人領域的發展潮流。
    的頭像 發表于 12-13 17:57 ?211次閱讀
    <b class='flag-5'>移動機器人</b>的技術突破和未來展望

    智能移動機器人系統方案指南

    自主移動機器人 (AMR) 和自動導引車 (AGV) 是具有移動、感知和連接能力的無人機器人,用于運輸和移動各種重量和尺寸的負載,以及執行其
    的頭像 發表于 11-14 10:30 ?454次閱讀
    智能<b class='flag-5'>移動機器人</b>系統方案指南

    傳感器融合如何賦能自主移動機器人

    自主移動機器人(AMR)可幫助制造商提高生產效率、增強安全性并節省大量成本,因而在各行各業得到廣泛應用。2022年全球AMR市場規模為86.5億美元,預計2022年至2028年間的復合年增長率(CAGR)將達到18.3%。
    的頭像 發表于 11-14 10:11 ?218次閱讀
    傳感器融合如何賦能<b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>

    新松移動機器人批量進軍歐洲新能源市場

    近日,新松智慧園內呈現出一派繁忙的景象。百余臺移動機器人整齊地排列在車間內,它們蓄勢待發,即將踏上前往歐洲的旅程。這批機器人代表著新松移動機器人大規模進軍歐洲本土新能源市場的重要里程碑。
    的頭像 發表于 10-11 16:55 ?454次閱讀

    智能移動機器人

    富唯智能移動機器人分為復合機器人和轉運機器人,搭載ICD核心控制器,實現一體化控制,最快可實現15分鐘現場機器人的快速部署,無縫對接產線,配合自研2D/3D視覺系統,精準抓取搬運工件。
    的頭像 發表于 08-27 17:22 ?363次閱讀
    智能<b class='flag-5'>移動機器人</b>

    如何借助恩智浦MCX系列MCU糾錯功能,打造可靠安全的移動機器人

    安全挑戰。MCX MCU基于高性能Arm Cortex-M33內核,具有先進的錯誤檢測和糾正功能,非常適合開發開發對可靠性和安全性要求極高的移動機器人。? 移動機器人常見的可靠性和安全問題
    的頭像 發表于 08-02 11:04 ?1860次閱讀
    如何借助恩智浦MCX系列MCU糾錯功能,打造可靠安全的<b class='flag-5'>移動機器人</b>?

    智能移動機器人系統的用途和市場趨勢

    自主移動機器人 (AMR) 和自動導引車 (AGV) 是具有移動、感知和連接能力的無人機器人,用于運輸和移動各種重量和尺寸的負載,以及執行其
    的頭像 發表于 07-16 09:37 ?684次閱讀

    海康機器人第100000臺移動機器人下線

    海康機器人第100000臺移動機器人已經成功下線 。這是一個重要的里程碑,標志著海康機器人在全品類移動機器人(AMR)領域取得了顯著的進展。
    的頭像 發表于 05-24 14:43 ?1080次閱讀

    自主移動機器人的發展路徑與前沿解決方案探究

    安森美使用DIN導軌制造了自主移動機器人,以便能夠添加新產品和功能,持續進行更多的傳感器融合,也可以通過使用新的安森美電子保險絲產品e-Fuse NIS3071來擴展電源子系統。
    發表于 04-24 11:52 ?636次閱讀
    <b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>的發展路徑與前沿解決方案探究

    機械臂和移動機器人兩種控制系統方案對比

    機械臂對精度和運動穩定性的要求較高,因此計算量大、周期短,比移動機器人一般要高1到2個量級。移動機器人一般對同步精度要求不高,其配置相對較低。
    發表于 03-11 09:53 ?1109次閱讀
    機械臂和<b class='flag-5'>移動機器人</b>兩種控制系統方案對比

    自主移動機器人(AMR)功能和特點

    復合機器人是一種集成了移動機器人、協作機器人機器視覺等多項功能的新型機器人。它的開發目的是為了解決工廠物流中最后一米的問題,提供智能搬運解
    的頭像 發表于 02-28 15:05 ?2142次閱讀
    <b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>(AMR)功能和特點

    富唯智能機器人集成了協作機器人移動機器人和視覺引導技術

    富唯智能移動機器人是一款擁有自主導航能力和物料轉移抓取功能的智能機器人,采用先進的無線通信技術和高精度傳感器,能夠實現自主導航和避障,完成生產線上的物料轉運任務,并與其他設備實現無縫對
    的頭像 發表于 01-17 11:58 ?446次閱讀
    主站蜘蛛池模板: 607080老太太AW| 新妺妺窝人体色WWW| 秋霞电影在线观看午夜伦| 一一本之道高清视频在线观看中文字幕| 处女座历史名人| 欧美日韩精品一区二区三区高清视频 | 99久久免费视频6| 美女脱光app| 97豆奶视频国产| 免费国产久久啪在线| 超碰在线视频97| 日韩亚洲国产欧美免费观看| 八妻子秋霞理在线播放| 欧美 亚洲 日韩 中文2019| 99成人在线| 欧美性xxx极品| 成人做视频免费| 日韩一区二区三区四区区区| 国产三区在线成人AV| 亚洲精品久久久久久偷窥| 精品国产人妻国语| 一本之道高清在线观看一区| 久久青草热热在线精品| 91chinesevideo| 香蕉久久一区二区三区啪啪| 蜜桃成熟时2在线观看完整版hd| 成人免费毛片观看| 中国人泡妞xxxxxxxx19| 欧美成人中文字幕在线看| 国产精品久久久久久无码专区 | 欧美日韩一级黄色片| 果冻传媒2021精品影视| 野花影院手机在线观看| 日本人的xxxxxxxxx69| 国产精品VIDEOS麻豆TUBE| 亚洲成人精品| 久久伊人中文字幕有码| BT7086福利二区最新| 色婷婷五月综合中文字幕| 好吊射视频988gaocom| 最近更新2019中文字幕国语|