色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AlphaPose是一個實時多人姿態(tài)估計系統(tǒng)

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-08 09:11 ? 次閱讀

上海交通大學盧策吾團隊MVIG實驗室最新上線了他們此前開源的實時人體姿態(tài)估計系統(tǒng)AlphaPose的升級版。新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計標準測試集COCO上達到當前最高精度71mAP,同時平均速度20FPS,比Mask-RCNN速度快3倍。

AlphaPose是一個實時多人姿態(tài)估計系統(tǒng)。

今年2月,上海交通大學盧策吾團隊MVIG實驗室AlphaPose 系統(tǒng)上線,是首個在 COCO 數(shù)據(jù)集上可達到 70+ mAP 的開源姿態(tài)估計系統(tǒng)。本次更新,在精度不下降情況下,實時性是一大提升亮點。

新系統(tǒng)采用 PyTorch 框架,在姿態(tài)估計(Pose Estimation)標準測試集COCO validation set上,達到 71mAP的精度(比 OpenPose 相對提升17%,Mask-RCNN相對提升8%),同時,速度達到了20FPS(比 OpenPose 相對提高66%,Mask-RCNN相對提高300%)。

再次感受一下升級后AlphaPose的速度

檢測精度不變,平均速度比Mask-RCNN快3倍

人體關鍵點檢測對于描述人體姿態(tài),預測人體行為至關重要。因此,人體關鍵點檢測是諸多計算機視覺任務的基礎。其在動作分類,異常行為檢測,以及人機交互等領域有著很廣闊的應用前景,是計算機視覺領域中一個既具有研究價值、同時又極具挑戰(zhàn)性的熱門課題。

AlphaPose系統(tǒng),是基于上海交大MVIG組提出的 RMPE 二步法框架(ICCV 2017論文)構建的,相比其他開源系統(tǒng)在準確率有很大提高,比OpenPose相對提高17%,Mask-RCNN相對提高8.2%。

升級后,各個開源框架在COCO-Validation上性能,時間在單卡1080ti GPU測出指標如下:


基于PyTorch框架,在人體姿態(tài)估計模型中引入Attention模塊

新版 AlphaPose 系統(tǒng),架設在 PyTorch 框架上,得益于Python的靈活性,新系統(tǒng)對用戶更加友好,安裝使用過程更加簡易,同時支持Linux與Windows系統(tǒng)使用,方便進行二次開發(fā)。此外,系統(tǒng)支持圖片、視頻、攝像頭輸入,實時在線計算出多人的姿態(tài)結果。

為了在兼顧速度的同時保持精度,新版AlphaPose提出了一個新的姿態(tài)估計模型。模型的骨架網絡使用 ResNet101,同時在其下采樣部分添加 SE-block 作為 attention 模塊——已經有很多實驗證明,在 Pose Estimation 模型中引入 attention 模塊能提升模型的性能,而僅在下采樣部分添加 SE-block 能使 attention 以更少的計算量發(fā)揮更好的效果。

除此之外,使用PixelShuffle + Conv進行3次上采樣,輸出關鍵點的熱度圖。傳統(tǒng)的上采樣方法會使用反卷積或雙線性插值。而使用 PixelShuffle 的好處在于,在提高分辨率的同時,保持特征信息不丟失。對比雙線性插值,運算量低;對比反卷積,則不會出現(xiàn)網格效應。

在系統(tǒng)架構方面,新版 AlphaPose 采用多級流水的工作方式,使用多線程協(xié)作,將速度發(fā)揮到極致。

AlphaPose 系統(tǒng)目前在COCO的 Validation 集上的運行速度是 20FPS(平均每張圖片4.6人),精度達到71mAP。 在擁擠場景下(平均每張圖片15人),AlphaPose系統(tǒng)速度仍能保持 10FPS 以上。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人機交互
    +關注

    關注

    12

    文章

    1231

    瀏覽量

    56103
  • pytorch
    +關注

    關注

    2

    文章

    808

    瀏覽量

    13703

原文標題:最高比Mask-RCNN快3倍!上交大實時姿態(tài)估計AlphaPose升級

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦
    熱點推薦

    基于PoseDiffusion相機姿態(tài)估計方法

    的約束結合在起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機位置,他們在概率擴散框架內公式化了SfM問題,對給定輸入圖像的相機姿態(tài)的條件分布進行建模,用Diffusion模型來輔助進行姿態(tài)
    的頭像 發(fā)表于 07-23 15:22 ?1647次閱讀
    基于PoseDiffusion相機<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>方法

    【愛芯派 Pro 開發(fā)板試用體驗】人體姿態(tài)估計模型部署前期準備

    部署模型的整體架構。接下來就回到最開始定的主線上了——人體姿態(tài)估計。這篇文章就是記錄對些輕量化人體姿態(tài)估計模型的調研,和前期準備。 1、人
    發(fā)表于 01-01 01:04

    請問下end-to-end的人臉姿態(tài)估計器開發(fā)流程有哪些

    請問下end-to-end的人臉姿態(tài)估計器開發(fā)流程有哪些?
    發(fā)表于 02-16 07:25

    衛(wèi)星姿態(tài)測量系統(tǒng)中模糊神經網絡的應用

    為了提高衛(wèi)星姿態(tài)測量系統(tǒng)姿態(tài)估計精度,研究設計了模糊神經網絡,對各
    發(fā)表于 07-13 11:34 ?22次下載

    基于深度學習的二維人體姿態(tài)估計方法

    基準、姿態(tài)估計方法和評測標準等方面,對近年來基于深度學習的二維人體姿態(tài)估計的諸多研究工作進行系統(tǒng)歸納與整理,將現(xiàn)有方法分為單人
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學習的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>方法

    基于深度學習的二維人體姿態(tài)估計算法

    近年來人體姿態(tài)估計作為計算機視覺領域的熱點,在視頻監(jiān)控、人機交互、智慧校園等領域具有廣泛的應用前景。隨著神經網絡的快速發(fā)展,采用深度學習方法進行二維人體姿態(tài)估計,相較于傳統(tǒng)需要人工設定
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學習的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法

    基于編解碼殘差的人體姿態(tài)估計方法

    人體姿態(tài)估計尤其是多人姿態(tài)估計逐漸滲透到教育、體育等各個方面,精度高、輕量級的多人
    發(fā)表于 05-28 16:35 ?2次下載

    基于OnePose的無CAD模型的物體姿態(tài)估計

    基于CAD模型的物體姿態(tài)估計:目前最先進的物體6DoF姿態(tài)估計方法可以大致分為回歸和關鍵點技術。第類方法直接將姿勢參數(shù)與每個感興趣區(qū)域(R
    的頭像 發(fā)表于 08-10 11:42 ?1744次閱讀

    種基于去遮擋和移除的3D交互手姿態(tài)估計框架

    與被充分研究的單手姿態(tài)估計任務不同,交互手3D姿態(tài)估計是近兩年來剛興起的學術方向。現(xiàn)存的工作會直接同時預測交互手的左右兩手的姿態(tài),而我們則另
    的頭像 發(fā)表于 09-14 16:30 ?1082次閱讀

    硬件加速人體姿態(tài)估計開源分享

    電子發(fā)燒友網站提供《硬件加速人體姿態(tài)估計開源分享.zip》資料免費下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>開源分享

    AI技術:種聯(lián)合迭代匹配和姿態(tài)估計框架

    由于噪聲和退化,并非所有正確匹配都能給出良好的姿態(tài)。之前的操作僅保證具有判別性高的描述子的特征點有更高的匹配分數(shù),并且首先被識別以參與姿態(tài)估計,但忽略了魯棒姿態(tài)
    發(fā)表于 07-18 12:58 ?649次閱讀
    AI技術:<b class='flag-5'>一</b>種聯(lián)合迭代匹配和<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>框架

    AI深度相機-人體姿態(tài)估計應用

    我們非常高興地發(fā)布新的代碼示例,展示虹科AI深度相機SDK的驚人功能。只需6行源代碼,您就可以實時準確地估計和跟蹤人體姿態(tài)!我們最新的代
    的頭像 發(fā)表于 07-31 17:42 ?1220次閱讀
    AI深度相機-人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>應用

    基于飛控的姿態(tài)估計算法作用及原理

    ? 姿態(tài)估計的作用? 姿態(tài)估計是飛控算法的基礎部分,而且十分重要。為了完成飛行器平穩(wěn)的
    發(fā)表于 11-13 11:00 ?1597次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法作用及原理

    用于6D姿態(tài)估計和跟蹤的統(tǒng)基礎模型

    今天筆者將為大家分享NVIDIA的最新開源方案FoundationPose,是用于 6D 姿態(tài)估計和跟蹤的統(tǒng)基礎模型。只要給出CAD模
    的頭像 發(fā)表于 12-19 09:58 ?1372次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>個</b>用于6D<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>和跟蹤的統(tǒng)<b class='flag-5'>一</b>基礎模型

    基于RV1126開發(fā)板的人臉姿態(tài)估計算法開發(fā)

    人臉姿態(tài)估計是通過對張人臉圖像進行分析,獲得臉部朝向的角度信息。姿態(tài)估計是多姿態(tài)問題中較為關鍵
    的頭像 發(fā)表于 04-14 17:21 ?767次閱讀
    基于RV1126開發(fā)板的人臉<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法開發(fā)
    主站蜘蛛池模板: 国内精品久久久久影院亚洲 | 丰满的大白屁股ass 丰满大屁俄罗斯肥女 | 特级做A爰片毛片免费69 | 奶头从情趣内衣下露了出来AV | 亚洲 欧美 国产 综合 在线 | 在线看片av以及毛片 | 久久视频精品38在线播放 | 麻花豆传媒剧国产免费mv观看 | DASD-700美谷朱里 | 成熟YIN荡美妞A片视频麻豆 | 美女被爆羞羞天美传媒 | 前后灌满白浆护士 | 成都电影免费中文高清 | 国产AV精品白浆一区二 | 黄色日本女人 | 国产成人拍精品免费视频爱情岛 | AV无码久久无遮挡国产麻豆 | 色欲AV精品人妻一二三区 | 在线视频 国产精品 中文字幕 | 奶头被客人吸得又红又肿 | 日韩一区二区三区射精 | 校园全肉高h湿一女多男 | 亚洲 国产 日韩 欧美 在线 | 九九热视频在线观看 | 人妻插B视频一区二区三区 人妻 中文无码 中出 | 高清国语自产拍在线 | 521人成a天堂v | 97视频免费在线 | 青青青手机视频 | 一本道久在线综合色色 | 国产传媒麻豆剧精品AV | 久久99国产亚洲高清观着 | 吉吉影音先锋av资源 | 国产亚洲精品97在线视频一 | 4438全国免费观看 | 私密按摩师在线观看 百度网盘 | 国产精品无码亚洲精品 | 刘梓晨啪啪啪 | 国产精品久久一区二区三区蜜桃 | 强奷乱码欧妇女中文字幕熟女 | 乱淫67194 |

    電子發(fā)燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品