色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研究人員最近開(kāi)發(fā)了一種新的CNN,用于識(shí)別視頻中的人類(lèi)行為

倩倩 ? 來(lái)源:百度粉絲網(wǎng) ? 2020-09-10 13:48 ? 次閱讀

諸如卷積神經(jīng)網(wǎng)絡(luò)(CNN)之類(lèi)的深度學(xué)習(xí)算法已在各種任務(wù)上取得了顯著成果,包括那些涉及識(shí)別圖像中特定人物或物體的任務(wù)?;谝曈X(jué)的人類(lèi)動(dòng)作識(shí)別(HAR)是計(jì)算機(jī)科學(xué)家經(jīng)常嘗試使用深度學(xué)習(xí)解決的任務(wù),它特別需要識(shí)別圖像或視頻中捕獲的人類(lèi)動(dòng)作。

HITEC大學(xué)和巴基斯坦伊斯蘭堡基礎(chǔ)大學(xué),韓國(guó)世宗大學(xué)和中正大學(xué),英國(guó)萊斯特大學(xué)和沙特阿拉伯蘇丹王子大學(xué)的研究人員最近開(kāi)發(fā)了一種新的CNN,用于識(shí)別視頻中的人類(lèi)行為。該CNN在Springer Link的“多媒體工具和應(yīng)用程序”期刊上發(fā)表的一篇論文中進(jìn)行了介紹,經(jīng)過(guò)培訓(xùn)可以區(qū)分幾種不同的人類(lèi)動(dòng)作,包括拳擊,拍手,揮舞,慢跑,跑步和散步。

研究人員在論文中寫(xiě)道:“我們?cè)O(shè)計(jì)了一種新的26層卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),用于精確的復(fù)雜動(dòng)作識(shí)別?!?“這些特征是從全局平均池化層和完全連接(FC)層中提取的,并通過(guò)建議的基于高熵的方法進(jìn)行融合。”

當(dāng)試圖識(shí)別人類(lèi)在圖像或視頻中的動(dòng)作時(shí),CNN通常會(huì)將其分析重點(diǎn)放在許多潛在的相關(guān)特征上。但是,某些人類(lèi)動(dòng)作(例如慢跑和步行)可能非常相似,這使得這些算法很難區(qū)分它們,特別是如果它們專(zhuān)注于相似性核心的特征時(shí)。為了克服這一挑戰(zhàn),研究人員使用了一種方法,該方法將稱(chēng)為Poisson分布的特征選擇方法與單變量測(cè)量(PDaUM)合并在一起。

研究人員觀察到,CNN所基于的分析功能有時(shí)可能不相關(guān)或多余,這導(dǎo)致它們做出錯(cuò)誤的預(yù)測(cè)。為了降低發(fā)生這種情況的風(fēng)險(xiǎn),他們的PDaUM方法僅選擇最強(qiáng)大的功能來(lái)識(shí)別特定的人類(lèi)行為,并確保CNN基于這些功能做出最終預(yù)測(cè)。

研究人員在HMDB51,UFC Sports,KH和Weizmann數(shù)據(jù)集這四個(gè)數(shù)據(jù)集上訓(xùn)練和評(píng)估了兩個(gè)截然不同的CNN,一個(gè)極端機(jī)器學(xué)習(xí)(EML)和一個(gè)Softmax分類(lèi)器。這些數(shù)據(jù)集包含幾個(gè)人類(lèi)執(zhí)行不同類(lèi)型動(dòng)作的視頻。

然后,研究人員比較了兩個(gè)CNN的性能,這兩個(gè)CNN均使用其特征選擇方法進(jìn)行了增強(qiáng)。在他們的評(píng)估中,ELM分類(lèi)器的性能明顯優(yōu)于Softmax算法,可以從視頻中識(shí)別出人類(lèi)動(dòng)作,其在HMDB51數(shù)據(jù)集上的準(zhǔn)確性為81.4%,在UCF Sports數(shù)據(jù)集上的準(zhǔn)確性為99.2%,在KTH數(shù)據(jù)集上的準(zhǔn)確性為98.3%,在KTH數(shù)據(jù)集上的準(zhǔn)確性為98.7%。魏茨曼數(shù)據(jù)集。

值得注意的是,PDaUM增強(qiáng)的ELM分類(lèi)器在準(zhǔn)確性和預(yù)測(cè)時(shí)間方面也優(yōu)于研究人員將其與之相比的所有現(xiàn)有深度學(xué)習(xí)技術(shù)。因此,這些結(jié)果凸顯了研究人員介紹的特征選擇方法在提高CNN在HAR任務(wù)上的性能方面的潛力。

將來(lái),本文介紹的ELM分類(lèi)器和PDaUM方法可以開(kāi)發(fā)更有效的工具,以自動(dòng)區(qū)分人類(lèi)在錄制和實(shí)況錄像中正在做什么。這些工具可以通過(guò)幾種不同的方式證明其價(jià)值,例如,幫助執(zhí)法人員監(jiān)視CCTV視頻上嫌疑犯的行為,或者允許研究人員快速分析大量視頻。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4789

    瀏覽量

    101598
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5527

    瀏覽量

    121879
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22441
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI行為識(shí)別攝像機(jī)

    攝像機(jī)是一種利用深度學(xué)習(xí)算法和計(jì)算機(jī)視覺(jué)技術(shù),對(duì)視頻圖像進(jìn)行實(shí)時(shí)分析的智能設(shè)備。它能夠自動(dòng)識(shí)別并分析人類(lèi)的各種行為,如抽煙、打斗、跌倒等,并
    的頭像 發(fā)表于 11-21 10:49 ?357次閱讀
    AI<b class='flag-5'>行為</b><b class='flag-5'>識(shí)別</b>攝像機(jī)

    加油站視頻監(jiān)控行為識(shí)別分析系統(tǒng) OpenCV

    智慧加油站視頻監(jiān)控行為識(shí)別分析系統(tǒng)選用視頻監(jiān)控系統(tǒng)智能分析技術(shù),對(duì)給油區(qū)和卸油區(qū)工作人員抽煙、通電話、用火、濃煙等異?,F(xiàn)象開(kāi)展智能
    的頭像 發(fā)表于 07-06 10:40 ?364次閱讀
    加油站<b class='flag-5'>視頻</b>監(jiān)控<b class='flag-5'>行為</b><b class='flag-5'>識(shí)別</b>分析系統(tǒng) OpenCV

    AI行為識(shí)別視頻監(jiān)控系統(tǒng) Python

    AI行為識(shí)別視頻監(jiān)控系統(tǒng)來(lái)自機(jī)器視覺(jué)技術(shù)的革新。機(jī)器視覺(jué)技術(shù)應(yīng)用是人工智能技術(shù)分析的個(gè)支系。它可以在圖形和圖象具體內(nèi)容敘述中間創(chuàng)建投射關(guān)聯(lián),使電腦可以根據(jù)圖像處理和剖析比較,進(jìn)而熟悉
    的頭像 發(fā)表于 07-06 10:36 ?708次閱讀
    AI<b class='flag-5'>行為</b><b class='flag-5'>識(shí)別</b><b class='flag-5'>視頻</b>監(jiān)控系統(tǒng) Python

    如何利用CNN實(shí)現(xiàn)圖像識(shí)別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中一種特別適用于圖像識(shí)別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過(guò)模擬人類(lèi)視覺(jué)系統(tǒng)的處理方式,利用卷積、池化等操作,自動(dòng)
    的頭像 發(fā)表于 07-03 16:16 ?1702次閱讀

    日本九州大學(xué)開(kāi)發(fā)了名為QDyeFinder的人工智能(AI)工具

    在探索大腦這宇宙中最復(fù)雜結(jié)構(gòu)的征途中,科學(xué)家們不斷突破技術(shù)的邊界,以更精細(xì)、更高效的方式揭示其奧秘。近期,日本九州大學(xué)的研究團(tuán)隊(duì)在《自然·通訊》雜志上發(fā)表了項(xiàng)革命性的研究成果,他們
    的頭像 發(fā)表于 07-03 14:43 ?617次閱讀

    研究人員提出一種電磁微鏡驅(qū)動(dòng)系統(tǒng)

    領(lǐng)域。MEMS微鏡作為一種微光機(jī)電系統(tǒng)(MOEMS),已廣泛應(yīng)用于醫(yī)療、汽車(chē)、消費(fèi)和軍事電子等眾多領(lǐng)域。當(dāng)前,業(yè)界對(duì)具有廣闊前景的小型激光雷達(dá)的需求不斷增長(zhǎng)。之前,已有研究開(kāi)發(fā)了大量使
    的頭像 發(fā)表于 07-02 17:04 ?1.1w次閱讀

    人員跌倒識(shí)別檢測(cè)算法

    人員跌倒識(shí)別檢測(cè)算法是基于視頻的檢測(cè)方法,通過(guò)對(duì)目標(biāo)人體監(jiān)測(cè),當(dāng)目標(biāo)人體出現(xiàn)突然倒地行為時(shí),自動(dòng)監(jiān)測(cè)并觸發(fā)報(bào)警。人員跌倒
    的頭像 發(fā)表于 06-30 11:47 ?575次閱讀
    <b class='flag-5'>人員</b>跌倒<b class='flag-5'>識(shí)別</b>檢測(cè)算法

    基于一種AI輔助可穿戴微流控比色傳感器系統(tǒng)

    存在的挑戰(zhàn)限制了這項(xiàng)技術(shù)的實(shí)際應(yīng)用。 據(jù)麥姆斯咨詢(xún)報(bào)道,為了克服這些挑戰(zhàn),來(lái)自中國(guó)石油大學(xué)(華東)的研究人員開(kāi)發(fā)了一種人工智能(AI)輔助的可穿戴微流控比色傳感器系統(tǒng)(AI-WMCS),用于
    的頭像 發(fā)表于 06-29 10:57 ?1.1w次閱讀
    基于<b class='flag-5'>一種</b>AI輔助可穿戴微流控比色傳感器系統(tǒng)

    基于毫米波雷達(dá)的手勢(shì)識(shí)別算法

    不夠,即他們無(wú)法識(shí)別距離相當(dāng)大的噪聲運(yùn)動(dòng)超過(guò)米的手勢(shì)。在本文中,我們利用一種新的數(shù)據(jù)處理方法和定制的人工卷積神經(jīng)網(wǎng)絡(luò)(CNN)設(shè)計(jì)了
    發(fā)表于 06-05 19:09

    基于深度神經(jīng)網(wǎng)絡(luò)的嬰兒哭聲識(shí)別算法

    具體的軟硬件實(shí)現(xiàn)點(diǎn)擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁(yè)_MCU-AI 嬰兒哭鬧識(shí)別項(xiàng)具有挑戰(zhàn)性的任務(wù),因?yàn)楹茈y確定能夠讓研究人員清楚區(qū)分不同類(lèi)型哭鬧的語(yǔ)音特征。然而
    發(fā)表于 05-20 19:20

    鼾聲監(jiān)測(cè)神經(jīng)網(wǎng)絡(luò)

    聲音。 提出了一種用于打鼾聲音識(shí)別的混合1D-2D CNN框架,該框架比我們數(shù)據(jù)集上最先進(jìn)的深度學(xué)習(xí)模型更準(zhǔn)確、更穩(wěn)健。 我們?cè)?019年3月至2019年12月的實(shí)驗(yàn)
    發(fā)表于 05-15 12:14

    基于毫米波的人體跟蹤和識(shí)別算法

    了RadHAR,這是一種使用稀疏和非均勻點(diǎn)云執(zhí)行精確HAR的框架。RadHAR利用滑動(dòng)時(shí)間窗口來(lái)累積毫米波雷達(dá)的點(diǎn)云,并生成體素化表示,作為分類(lèi)器的輸入。 我們?cè)谑占木哂?不同活動(dòng)的人類(lèi)活動(dòng)數(shù)據(jù)集上
    發(fā)表于 05-14 18:40

    研究人員發(fā)現(xiàn)提高激光加工分辨率的新方法

    通過(guò)透明玻璃聚焦定制激光束可以在材料內(nèi)部形成個(gè)小光斑。東北大學(xué)的研究人員發(fā)了一種利用這種小光斑改進(jìn)激光材料加工、提高加工分辨率的方法。 他們的
    的頭像 發(fā)表于 04-18 06:30 ?431次閱讀
    <b class='flag-5'>研究人員</b>發(fā)現(xiàn)提高激光加工分辨率的新方法

    一種用于化學(xué)和生物材料識(shí)別的便攜式拉曼光譜解決方案

    基于掃頻光源的緊湊型拉曼光譜系統(tǒng):美國(guó)麻省理工學(xué)院(MIT)和韓國(guó)科學(xué)技術(shù)院(KAIST)的研究人員開(kāi)發(fā)了一種用于化學(xué)和生物材料識(shí)別的便攜式
    的頭像 發(fā)表于 04-16 10:35 ?639次閱讀
    <b class='flag-5'>一種</b><b class='flag-5'>用于</b>化學(xué)和生物材料<b class='flag-5'>識(shí)別</b>的便攜式拉曼光譜解決方案

    一種基于單像素光電探測(cè)器的高光譜視頻成像系統(tǒng)設(shè)計(jì)

    日前,北京理工大學(xué)光電學(xué)院王涌天教授、劉越教授團(tuán)隊(duì)成員徐怡博教授與來(lái)自谷歌公司和美國(guó)萊斯大學(xué)研究人員合作,開(kāi)發(fā)了一種具有優(yōu)異壓縮比和吞吐量的基于單像素光電探測(cè)器的高光譜視頻成像系統(tǒng)
    的頭像 發(fā)表于 03-15 09:40 ?1005次閱讀
    <b class='flag-5'>一種</b>基于單像素光電探測(cè)器的高光譜<b class='flag-5'>視頻</b>成像系統(tǒng)設(shè)計(jì)
    主站蜘蛛池模板: 脱jk裙的美女露小内内无遮挡 | 一本大道熟女人妻中文字幕在线 | 国产免费福利在线视频 | 人妻互换免费中文字幕 | 久久久久久久免费 | 翁止熄痒禁伦短文合集免费视频 | 国产AV精品白浆一区二 | 国际老妇高清在线观看 | 处 女 开 破小说 | 日本熟妇乱人伦A片精品软件 | 99精品视频在线观看re | 高清国语自产拍在线 | 美女被爽cao免费漫画 | 国产精品成人无码久免费 | 亚洲中文无码亚洲人在线观看- | 秘密影院久久综合亚洲综合 | 人人澡人人爽人人精品 | 大中国免费视频大全在线观看 | 含羞草免费完整视频在线观看 | 奇米网一区二区三区在线观看 | 翁熄性放纵交换01 | 我和黑帮老大第365天第2季在线 | 朝鲜女人性猛交 | 秋霞在线观看视频一区二区三区 | 玩弄放荡人妻一区二区三区 | 国产精品熟女人妻 | 中文字幕伊人香蕉在线 | 久久视频这里只精品99re8久 | 云南14学生真实初次破初视频 | 艳妇臀荡乳欲伦岳TXT下载 | 男人天堂2018亚洲男人天堂 | 外国xxxx | ping色堂 | 91精品国产色综合久久不 | 亚洲精品国偷拍自产在线观看蜜臀 | 国语92电影网午夜福利 | 国产传媒18精品A片在线观看 | 乡村教师电影版 | 亚洲无遮挡无码A片在线 | 青青草AV国产精品 | 亚洲精品成人AV在线观看爽翻 |