色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook讓機(jī)器人學(xué)會(huì)了自主繞道走路

Hf1h_BigDataDig ? 來源:fqj ? 2019-06-06 14:21 ? 次閱讀

人類每天都在進(jìn)行不同層次的規(guī)劃活動(dòng),比如說每天早上起床以后,你習(xí)慣性走到廚房喝一杯咖啡:你會(huì)先走下走廊,左轉(zhuǎn)進(jìn)入過道,然后進(jìn)入右邊的房間。

對(duì)于這些習(xí)慣成自然的流程,你無需思考,不會(huì)刻意去想你要使用哪一個(gè)肢體動(dòng)作。但對(duì)于機(jī)器人而言,這并非易事。

Facebook剛剛發(fā)布了主導(dǎo)研究的新系統(tǒng),讓機(jī)器人也可以通過觀看視頻拆解動(dòng)作,并學(xué)習(xí)如何組合這些動(dòng)作形成自己的規(guī)劃。

層級(jí)抽象結(jié)構(gòu)(hierarchal abstractions)

已經(jīng)有越來越多的研究表明,層級(jí)抽象結(jié)構(gòu)(即視覺運(yùn)動(dòng)子程序)可以提高強(qiáng)化學(xué)習(xí)中的采樣效率,這是一種利用獎(jiǎng)勵(lì)驅(qū)動(dòng)智能體達(dá)到目標(biāo)的AI訓(xùn)練技術(shù)。

在過去,這些層次結(jié)構(gòu)必須通過端到端的訓(xùn)練來手動(dòng)編碼或獲取,而這需要大量的時(shí)間、注意力和長久的耐心。

Facebook這次的新研究提出,刻意讓機(jī)器人通過觀看視頻學(xué)習(xí)導(dǎo)航,描述一個(gè)通過用逆向機(jī)器學(xué)習(xí)模型攝取視頻偽標(biāo)簽(在本文中,偽標(biāo)簽指智能體想象的行為),從而學(xué)習(xí)層次結(jié)構(gòu)的系統(tǒng)。

論文作者分別來自Facebook AI研究室,加州大學(xué)伯克利分校和伊利諾伊大學(xué)厄巴納—香檳分校。

這讓人想起去年Facebook開源的一組模型——Talk the Walk。它只需要360°的全景圖像、自然語言以及一張有當(dāng)?shù)氐貥?biāo)(比如銀行和餐館)的地圖就可以通過問路,實(shí)現(xiàn)在整個(gè)紐約市的街道導(dǎo)航。

具體實(shí)現(xiàn)方式

機(jī)器人通過觀看這些視頻,研究這些簡單的視覺運(yùn)動(dòng)子程序是如何組合以達(dá)到高級(jí)的抽象層次,這些視覺運(yùn)動(dòng)子程序能夠解決一些已知問題,即經(jīng)典的規(guī)劃中的高計(jì)算成本和強(qiáng)化學(xué)習(xí)中的樣本復(fù)雜性的問題。

研究者提出的系統(tǒng)分為兩個(gè)階段,在第一階段,研究人員通過運(yùn)行在隨機(jī)探索數(shù)據(jù)上自我監(jiān)督的智能體模型生成偽標(biāo)簽。模型從分布在四個(gè)環(huán)境中的1500個(gè)不同位置學(xué)習(xí),在不同的位置隨機(jī)執(zhí)行30個(gè)不同步驟的動(dòng)作,從而產(chǎn)生45,000個(gè)交互樣本。

在系統(tǒng)的第二階段,大約217,000個(gè)偽標(biāo)記視頻被剪輯成220萬個(gè)單獨(dú)的小視頻,再將其輸入預(yù)測(cè)參考視頻中相應(yīng)動(dòng)作的模型,同時(shí)再通過一個(gè)單獨(dú)的網(wǎng)絡(luò)檢查參考視頻中的動(dòng)作序列,并編碼其行為作為向量。另一個(gè)模型通過推斷第一幀的軌跡的編碼,來預(yù)測(cè)哪一個(gè)子程序可以調(diào)用給已有的視頻幀。

交互樣本從1000萬減少到4.5萬

在一個(gè)部署在辦公環(huán)境的真實(shí)世界中的機(jī)器人實(shí)驗(yàn)中,研究人員表明,相比單純交互的方法,至少應(yīng)用在之前從未見過的環(huán)境上,通過觀看視頻來學(xué)習(xí)技能(這里指采用最高效的方式前往目標(biāo)位置)的方式能達(dá)到更好的效果。

最令人印象深刻的是,訓(xùn)練有素的模型學(xué)會(huì)了自主地前進(jìn)導(dǎo)航并避開障礙物,比通過單純交互方式要快4倍,這使得機(jī)器人能夠做到完全自主地長距離行進(jìn)。

“特別引人注目的是,這些模型從總計(jì)45,000次的環(huán)境交互中學(xué)習(xí),”研究人員寫道,“從第一視角的視頻中成功學(xué)習(xí),使得智能體能夠執(zhí)行連貫的軌跡,即使它只執(zhí)行過隨機(jī)動(dòng)作。此外,它優(yōu)于最先進(jìn)的技能學(xué)習(xí)技術(shù),該技術(shù)需要更大量的訓(xùn)練樣本,大致1000萬個(gè)。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28466

    瀏覽量

    207309
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1429

    瀏覽量

    54788

原文標(biāo)題:Facebook讓機(jī)器人“觀看”上萬次視頻后,TA學(xué)會(huì)了自主繞道走路

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    中取得了令人矚目的效果。 閱讀感悟 從傳統(tǒng)的手動(dòng)編程到借助大模型實(shí)現(xiàn)智能化、自主化,從單一模態(tài)的交互到多模態(tài)信息的深度融合,再到擴(kuò)散模型的應(yīng)用,機(jī)器人控制技術(shù)正在以驚人的速度進(jìn)化。這不僅機(jī)器
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    工智能 認(rèn)知發(fā)展機(jī)器人學(xué) 進(jìn)化機(jī)器人學(xué) 物理體現(xiàn)與互動(dòng) 五、具身智能的現(xiàn)代技術(shù)方向 另外,隨著GPT等大語言模型的發(fā)展,這些技術(shù)也在具身智能機(jī)器人領(lǐng)域掀起了一股浪潮,那就是基于大模型的具身智能技術(shù)
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    動(dòng)態(tài)互動(dòng)的。 該理論強(qiáng)調(diào)智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環(huán)境并在其中執(zhí)行任務(wù)的能力。具身智能的實(shí)現(xiàn)涵蓋了機(jī)器學(xué)習(xí)、人工智能、機(jī)器人學(xué)、計(jì)算機(jī)視覺、自然語言處理及強(qiáng)化學(xué)習(xí)等領(lǐng)域
    發(fā)表于 12-20 19:17

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識(shí)與基礎(chǔ)模塊

    的導(dǎo)引,讀者對(duì)于具身智能機(jī)器人系統(tǒng)的相關(guān)背景知識(shí)、基礎(chǔ)模塊都有一個(gè)初步的認(rèn)識(shí)和掌握。除了在\"5.3.2 自主機(jī)器人定位算法原理”這一小節(jié)將基于貝葉斯濾波的機(jī)器人定位部分,涉及有需要
    發(fā)表于 12-19 22:26

    【書籍評(píng)測(cè)活動(dòng)NO.51】具身智能機(jī)器人系統(tǒng) | 了解AI的下一個(gè)浪潮!

    的。 這種理論強(qiáng)調(diào),智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環(huán)境并在其中執(zhí)行任務(wù)的能力。 具身智能的實(shí)現(xiàn)涵蓋了機(jī)器學(xué)習(xí)、人工智能、機(jī)器人學(xué)、計(jì)算機(jī)視覺、自然語言處理和強(qiáng)化學(xué)習(xí)等領(lǐng)域
    發(fā)表于 11-11 10:20

    麻省理工學(xué)院推出新型機(jī)器人訓(xùn)練模型

    近日,據(jù)TechCrunch報(bào)道,麻省理工學(xué)院的研究團(tuán)隊(duì)展示了一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)集,而是借鑒了大型語言模型(LLM)如GPT-4等所使用的大規(guī)模信息處理方式,為機(jī)器人學(xué)習(xí)新技能開辟了全新的道路。
    的頭像 發(fā)表于 11-04 14:56 ?498次閱讀

    機(jī)器人的三大矩陣是什么及關(guān)系式

    機(jī)器人學(xué)中,三大矩陣主要指的是與機(jī)器人位移、速度和力相關(guān)的矩陣,它們分別揭示了機(jī)器人在不同空間(如關(guān)節(jié)空間和作業(yè)空間)之間的映射關(guān)系。這三大矩陣及其關(guān)系式可以概括如下: 1. T矩陣(變換矩陣
    的頭像 發(fā)表于 09-04 09:37 ?1541次閱讀

    “卷不動(dòng)了”?OTA來救場!智能機(jī)器人“永葆青春”的秘訣

    的掃地機(jī)器人突然學(xué)會(huì)了拖地,是不是很酷?OTA就是這種“逆天改命”成為可能的魔法! 1、智能機(jī)器人的發(fā)展趨勢(shì)與OTA機(jī)遇 智能機(jī)器人3.0
    的頭像 發(fā)表于 08-06 16:01 ?437次閱讀
    “卷不動(dòng)了”?OTA來救場!智能<b class='flag-5'>機(jī)器人</b>“永葆青春”的秘訣

    ROS機(jī)器人開發(fā)更便捷,基于RK3568J+Debian系統(tǒng)發(fā)布!

    本帖最后由 Tronlong創(chuàng)龍科技 于 2024-7-19 17:18 編輯 ROS系統(tǒng)是什么 ROS(Robot Operating System)是一個(gè)適用于機(jī)器人的開源的元操作系統(tǒng)。它
    發(fā)表于 07-09 11:38

    NVIDIA Isaac 機(jī)器人平臺(tái)利用最新的生成式 AI 和先進(jìn)的仿真技術(shù),加速 AI 機(jī)器人技術(shù)的發(fā)展

    觀眾展示了用于人形機(jī)器人學(xué)習(xí)的通用基礎(chǔ)模型 Project GR00T(代表通用機(jī)器人 00 技術(shù))。Project GR00T 利用 NVIDIA Isaac 機(jī)器人平臺(tái)的各種工具來創(chuàng)建用于人形
    的頭像 發(fā)表于 06-04 18:00 ?7715次閱讀
    NVIDIA Isaac <b class='flag-5'>機(jī)器人</b>平臺(tái)利用最新的生成式 AI 和先進(jìn)的仿真技術(shù),加速 AI <b class='flag-5'>機(jī)器人</b>技術(shù)的發(fā)展

    奧比中光攜手新加坡LionsBot,智能清潔機(jī)器人落地超過30個(gè)國家

    近年來,隨著AI 3D視覺技術(shù)飛速發(fā)展,各類創(chuàng)新型自主移動(dòng)機(jī)器人不斷涌現(xiàn)。行業(yè)領(lǐng)先的機(jī)器人視覺與AI視覺科技公司奧比中光與新加坡自主清潔機(jī)器人
    的頭像 發(fā)表于 04-16 09:32 ?615次閱讀

    NVIDIA Isaac機(jī)器人平臺(tái)升級(jí),加速AI機(jī)器人技術(shù)革新

    NVIDIA Isaac機(jī)器人平臺(tái)近期實(shí)現(xiàn)重大升級(jí),通過引入最新的生成式AI技術(shù)和先進(jìn)的仿真技術(shù),顯著加速了AI機(jī)器人技術(shù)的發(fā)展步伐。該平臺(tái)正不斷擴(kuò)展其基礎(chǔ)模型、機(jī)器人學(xué)習(xí)框架、AI工作流編排以及
    的頭像 發(fā)表于 03-27 10:36 ?692次閱讀

    機(jī)器人學(xué)習(xí)中主流智能抓取方案

    RGB顏色空間由紅綠藍(lán)三種基本色組成,疊加成任意色彩,同樣地,任意一種顏色也可以拆解為三種基本色的組合,機(jī)器人通過顏色坐標(biāo)值來理解“顏色”。
    發(fā)表于 03-13 10:07 ?309次閱讀
    <b class='flag-5'>機(jī)器人學(xué)</b>習(xí)中主流智能抓取方案

    自主移動(dòng)機(jī)器人(AMR)功能和特點(diǎn)

    復(fù)合機(jī)器人是一種集成了移動(dòng)機(jī)器人、協(xié)作機(jī)器人機(jī)器視覺等多項(xiàng)功能的新型機(jī)器人。它的開發(fā)目的是為了解決工廠物流中最后一米的問題,提供智能搬運(yùn)解
    的頭像 發(fā)表于 02-28 15:05 ?2113次閱讀
    <b class='flag-5'>自主</b>移動(dòng)<b class='flag-5'>機(jī)器人</b>(AMR)功能和特點(diǎn)

    5個(gè)問題,洞悉自主移動(dòng)機(jī)器人未來發(fā)展方向

    隨著科技的日新月異,人類與機(jī)器人的互動(dòng)將愈發(fā)頻繁。從早晨在本地咖啡店里,協(xié)作機(jī)器人(cobot)為顧客精心沖泡咖啡,到在倉庫中,自主移動(dòng)機(jī)器人(AMR)自由穿梭各處揀選包裹。協(xié)作
    的頭像 發(fā)表于 01-09 08:30 ?695次閱讀
    5個(gè)問題,洞悉<b class='flag-5'>自主</b>移動(dòng)<b class='flag-5'>機(jī)器人</b>未來發(fā)展方向
    主站蜘蛛池模板: 最新中文字幕在线视频| 少妇第一次交换| 日本一卡二卡三卡四卡无卡免费播放| 夜色视频社区| 国产品无码一区二区三区在线| 日本无码免费久久久精品| 99久久久无码国产精品免费人妻| 久久精品视在线观看2| 亚洲熟伦熟女专区| 精品国产自在现线拍国语| 午夜精品久久久久久久爽牛战| 粗大分开挺进内射| 日本午夜福利无码高清| 啊灬啊灬啊灬快高潮视频| 欧美性暴力变态xxxx| 超碰 无码 中文字幕| 日韩欧美中文字幕在线| 国产成A人片在线观看| 忘忧草在线| 好男人好资源在线观看免费视频| 亚洲成年人影院| 狠狠色在在线视频观看| 伊人网久久网| 男男女女爽爽爽视频免费| a毛片基地免费全部视频| 日本丝袜护士| 国产午夜免费不卡精品理论片| 亚洲国产日韩欧美高清片a| 精品欧美一区二区三区四区| 在线亚洲黄色| 妻子撸av中文字幕| 国产精品成人A蜜柚在线观看 | 97视频免费在线| 鸥美一级黄色片| 国产精品v片在线观看不卡| 亚洲精品在线免费| 久久久久久久久免费视频| 99精品免费在线观看| 挺弄抽插喷射HH| 久久亚洲精品2017| 成人毛片手机版免费看|