色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于TensorFlow Lite的幾項(xiàng)技術(shù)更新

Tensorflowers ? 來(lái)源:TensorFlow ? 作者:Yu-hui Chen ? 2021-09-23 15:38 ? 次閱讀

自年初在 Google I/O 大會(huì)上宣布推出 MoveNet 以來(lái),我們已經(jīng)收到了眾多積極反饋和功能請(qǐng)求。今天,我們很高興能與大家分享以下幾項(xiàng)技術(shù)更新:

MoveNet 的 TensorFlow Lite 版本現(xiàn)已在 TensorFlow Hub 上推出。我們對(duì)該版本進(jìn)行了一些可提升準(zhǔn)確率的更新,并使其與硬件加速器兼容,其中包括 GPU 和獲得 Android NN API 支持的其他加速器。

TensorFlow Hub

http://hub.tensorflow.google.cn/s?deployment-format=lite&q=movenet

我們發(fā)布了可在 Android 環(huán)境下使用 Raspberry Pi 的全新姿態(tài)預(yù)測(cè)示例,可讓您在移動(dòng)設(shè)備和 IoT 設(shè)備上試用 MoveNet。(即將支持 iOS 系統(tǒng))

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi

同時(shí),我們還發(fā)布了 Colab notebook,旨在教會(huì)您如何利用 MoveNet 對(duì)自定義姿勢(shì)進(jìn)行分類(例如,識(shí)別不同的瑜伽姿勢(shì))。您可以在上文提到的 Android、iOS 和 Raspberry Pi 應(yīng)用中試用姿態(tài)分類。

notebook

https://tensorflow.google.cn/lite/tutorials/pose_classification

什么是姿態(tài)預(yù)測(cè)?

姿態(tài)預(yù)測(cè)是一項(xiàng)機(jī)器學(xué)習(xí)任務(wù),即通過(guò)預(yù)測(cè)圖像或視頻中特定身體部位(關(guān)鍵點(diǎn))的空間位置來(lái)預(yù)測(cè)人物姿態(tài)。MoveNet 是目前最先進(jìn)的姿態(tài)預(yù)測(cè)模型,能夠檢測(cè)以下 17 個(gè)關(guān)鍵點(diǎn):

鼻子

左眼和右眼

左耳和右耳

左肩和右肩

左肘和右肘

左腕和右腕

左臀和右臀

左膝和右膝

左腳踝和右腳踝

我們發(fā)布了以下兩個(gè) MoveNet 版本:

MoveNet.Lightning 模型體積更小、速度更快,但在準(zhǔn)確性方面不如 Thunder 模型。該模型能在現(xiàn)代智能手機(jī)上實(shí)時(shí)運(yùn)行。

MoveNet.Lightning

http://hub.tensorflow.google.cn/google/movenet/singlepose/lightning/

MoveNet.Thunder 模型準(zhǔn)確性更高,但體積較 Lightning 模型而言更大,速度也相對(duì)較慢。

MoveNet.Thunder

http://hub.tensorflow.google.cn/google/movenet/singlepose/thunder/

各種基準(zhǔn)數(shù)據(jù)集(參見(jiàn)下文表中的評(píng)估/基準(zhǔn)結(jié)果)中的數(shù)據(jù)表明,MoveNet 模型的表現(xiàn)優(yōu)于我們先前的 TensorFlow Lite 姿態(tài)預(yù)測(cè)模型 Posenet(論文、文章和模型)。

論文

https://arxiv.org/abs/1803.08225

文章

https://medium.com/tensorflow/track-human-poses-in-real-time-on-android-with-tensorflow-lite-e66d0f3e6f9e

模型

https://storage.googleapis.com/download.tensorflow.org/models/tflite/posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite

以上 MoveNet 模型支持 TensorFlow Lite FP16 和 INT8 量化格式,可最大限度與硬件加速器兼容。

此次 MoveNet 版本可識(shí)別輸入圖像中的單一姿態(tài)。如果圖像中的人數(shù)超過(guò)一個(gè),該模型會(huì)通過(guò)剪裁算法將盡可能地聚焦在離圖像中心最近的人物身上。同時(shí),我們還采用了智能剪裁算法,來(lái)提高視頻檢測(cè)的準(zhǔn)確率。簡(jiǎn)而言之,該模型將放大前一幀中檢測(cè)到姿態(tài)的區(qū)域,繼而查看更細(xì)節(jié)的部分,然后根據(jù)當(dāng)前幀做出更準(zhǔn)確的預(yù)測(cè)。

如果您想深入了解 MoveNet 的實(shí)現(xiàn)過(guò)程,請(qǐng)查看之前發(fā)布的文章,其中包括 MoveNet 模型架構(gòu)和其訓(xùn)練時(shí)用到的數(shù)據(jù)集。

Android 與 Raspberry Pi

的示例應(yīng)用

我們發(fā)布了全新的姿態(tài)預(yù)測(cè)示例應(yīng)用,便于您在所選平臺(tái)上快速試用不同的姿態(tài)預(yù)測(cè)模型(MoveNet Lightning、MoveNet Thunder 和 Posenet)。

Android 示例

iOS 示例

Raspberry Pi 示例

在 Android 和 iOS 示例中,您也可以選擇使用加速器(GPU、NNAPI 或 CoreML)來(lái)運(yùn)行姿態(tài)預(yù)測(cè)模型。

Android 示例應(yīng)用屏幕截圖。圖像來(lái)自 Pixabay

MoveNet 性能

我們已對(duì) MoveNet 進(jìn)行優(yōu)化,使其能在由 TensorFlow Lite 提供支持的硬件加速器(包括 GPU 和獲得 Android NN API 支持的加速器)上更好地運(yùn)行。MoveNet 的性能基準(zhǔn)結(jié)果可助您選擇最適合您用例的運(yùn)行時(shí)配置。

模型大小 (MB)mAP*延遲時(shí)間 (ms) **

Pixel 5 -

CPU 4 線程Pixel 5 - GPURaspberry Pi 4 -

CPU 4 線程

MoveNet.

Thunder

(FP16 量化)12.6MB72.0155ms45ms594ms

MoveNet.

Thunder

(INT8 量化)7.1MB68.9100ms52ms251ms

MoveNet.

Lightning

(FP16 量化)4.8MB63.060ms25ms186ms

MoveNet.

Lightning

(INT8 量化)2.9MB57.452ms28ms95ms

PoseNet(MobileNetV1

主干,F(xiàn)P32)13.3MB45.680ms40ms338ms

* 我們?cè)?COCO 關(guān)鍵點(diǎn)數(shù)據(jù)集的子集上測(cè)量 mAP,并在其中篩選并裁剪每張圖像,使其只包含一個(gè)人像。

** 在持續(xù)負(fù)載下,我們使用帶有 TensorFlow 2.5 的 Android 和 Raspberry Pi 示例應(yīng)用測(cè)量端到端的延遲時(shí)間。

選擇 Lightning 或 Thunder 模型。首先,您應(yīng)該了解 Lightning 模型的準(zhǔn)確率能否滿足您的用例。

對(duì)于您的用例而言,如果 Lightning INT8 模型的準(zhǔn)確率足夠高,則可以選擇該模型,因?yàn)樗窍盗心P椭畜w積最小、速度最快的模型。模型的越快則意味著其能耗越少。

如果準(zhǔn)確率對(duì)于您的用例而言至關(guān)重要,Thunder FP16 模型則是理想之選。

選擇加速器。加速器的性能會(huì)因不同的制造商制造的 Android 設(shè)備而異。

CPU 是最為安全便捷的選擇,因?yàn)榭梢钥隙ǖ氖牵珻PU 幾乎可以在任何能運(yùn)行 TensorFlow Lite 的 Android 設(shè)備上正常工作。但在通常情況下,相較于在加速器上運(yùn)行模型,在 CPU 運(yùn)行模型時(shí)速度更慢,且耗能更高。所有 MoveNet 模型都能在 CPU 上運(yùn)行良好,因此您應(yīng)該根據(jù)自身的準(zhǔn)確率需求選擇模型。

GPU 是應(yīng)用最廣泛的加速器,能夠提供出色的性能提升。如果您想使用 GPU,F(xiàn)P16 量化模型則是理想之選。

Android NNAPI 是一種能在 Android 設(shè)備上支持其他 ML 加速器的便捷方式。如果您已經(jīng)將 CPU 或 GPU 用于其他工作負(fù)載,并且用戶設(shè)備運(yùn)行版本為 Android 10 或更高版本,則您可以選擇滿足您準(zhǔn)確率需求的模型,并讓 NNAPI 選擇最適合您模型的路徑。

如果您是 IoT 開(kāi)發(fā)者,不妨使用 Coral 來(lái)提升推理速度。請(qǐng)?jiān)诖颂幉榭?Coral 基準(zhǔn)數(shù)據(jù)。

此處

https://coral.ai/models/pose-estimation/

對(duì)模型進(jìn)行無(wú)線部署,而非將其捆綁在應(yīng)用的二進(jìn)制文件中。

由于 Android 生態(tài)系統(tǒng)的多元化,我們無(wú)法提供適用于所有用戶的統(tǒng)一模型。對(duì)于使用低端設(shè)備的用戶而言,Lightning INT8 模型是最佳選擇,因?yàn)樵撃P退俣茸羁欤夷芎淖钌佟H欢鴮?duì)于使用高端設(shè)備的用戶而言,不妨憑借 Thunder FP16 模型提供更為出色的性能。如果您想根據(jù)用戶設(shè)備更改模型,則可以考慮使用免費(fèi)版Firebase ML 托管您的模型,而非將所有打算使用的模型捆綁到應(yīng)用中。如果用戶開(kāi)始使用需要 TFLite 模型的應(yīng)用功能,則您可以編寫(xiě)邏輯,為每個(gè)用戶設(shè)備下載最佳模型。

Firebase ML

https://firebase.google.com/docs/ml/manage-hosted-models

姿態(tài)分類

TensorBoard 是 TensorFlow 的可視化工具包。通過(guò)將 TensorFlow Quantum 模型與 TensorBoard 進(jìn)行集成,您將獲得許多開(kāi)箱可用的模型可視化數(shù)據(jù),例如訓(xùn)練損失和準(zhǔn)確性、可視化模型圖和程序分析。

為簡(jiǎn)化姿態(tài)分類流程,我們還發(fā)布了 Colab notebook,該工具能夠教您如何通過(guò)結(jié)合 MoveNet 和 TensorFlow Lite,并根據(jù)自定義姿態(tài)數(shù)據(jù)集來(lái)訓(xùn)練自定義姿態(tài)分類模型。這表示如果您想要識(shí)別瑜伽姿勢(shì),您需要做的就是收集您想識(shí)別的姿態(tài)圖像并為其添加標(biāo)簽,然后按照教程進(jìn)行訓(xùn)練,接著將瑜伽姿勢(shì)分類器部署到您的應(yīng)用中。

姿態(tài)分類器由兩個(gè)階段構(gòu)成:

1. 利用 MoveNet 檢測(cè)輸入圖像中的關(guān)鍵點(diǎn)。

2. 利用小型 TensorFlow Lite 模型,對(duì)已檢測(cè)到的關(guān)鍵點(diǎn)進(jìn)行姿態(tài)分類。

利用 MoveNet 進(jìn)行姿態(tài)分類的示例。輸入圖像來(lái)自 Pixabay

為訓(xùn)練自定義姿態(tài)分類器,您需要準(zhǔn)備姿態(tài)圖像,并將它們放入下圖所示的文件夾結(jié)構(gòu)中。您可以根據(jù)想要識(shí)別的類別為每個(gè)子文件夾命名。然后運(yùn)行 notebook 來(lái)訓(xùn)練自定義姿態(tài)分類器,并將其轉(zhuǎn)換為 TensorFlow Lite 格式。

yoga_poses

|__ downdog

|______ 00000128.jpg

|______ 00000181.bmp

|______ 。..

|__ goddess

|______ 00000243.jpg

|______ 00000306.jpg

|______ 。..

。..

TensorFlow Lite 姿態(tài)分類模型非常小,其大小只有 30KB 左右。該模型從 MoveNet 中獲取標(biāo)記點(diǎn)輸出,使姿態(tài)坐標(biāo)標(biāo)準(zhǔn)化,并將坐標(biāo)傳遞至幾個(gè)完全連接的層中。模型的輸出是一個(gè)概率列表,即姿態(tài)為每個(gè)已知的姿態(tài)類別。

TensorFlow Lite 姿態(tài)分類模型概覽

您可以在任何已發(fā)布的 Android 或 Raspberry Pi 姿態(tài)預(yù)測(cè)示例應(yīng)用中試用姿態(tài)分類模型。

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi#run-the-pose-classification-sample

未來(lái)計(jì)劃

我們的目標(biāo)是提供核心的姿態(tài)預(yù)測(cè)技術(shù)以及動(dòng)作識(shí)別引擎,讓開(kāi)發(fā)者在此基礎(chǔ)上構(gòu)建創(chuàng)新性應(yīng)用。以下是我們目前正在積極研究的一些方向:

對(duì) MoveNet 當(dāng)前版本做出改進(jìn),使其能在同一轉(zhuǎn)接路徑中檢測(cè)多種姿態(tài)。

研發(fā)新型動(dòng)作識(shí)別技術(shù),使其能在多個(gè)幀上檢測(cè)姿態(tài)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3500

    瀏覽量

    50109
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    61065
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    718

原文標(biāo)題:MoveNet 技術(shù)更新|基于 TensorFlow Lite 的姿態(tài)模型預(yù)測(cè)及分類

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FlexBuild構(gòu)建Debian 12,在“tflite_ethosu_delegate”上構(gòu)建失敗了怎么解決?

    /workspace/tn_debian_FlexBuild 構(gòu)建/components_lsdk2412/apps/ml/tflite/tensorflow/lite/tools/cmake
    發(fā)表于 04-01 06:53

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlowTensorFlow是一個(gè)專為深度學(xué)習(xí)開(kāi)發(fā)的大型軟件庫(kù),它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?345次閱讀
    用樹(shù)莓派搞深度學(xué)習(xí)?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    OpenVINO?是否與TensorFlow集成支持Raspberry Pi?

    無(wú)法確定OpenVINO?是否與 TensorFlow* 集成支持 Raspberry Pi。
    發(fā)表于 03-05 08:26

    EE-217:更新ADSP-TS101S TigerSHARC EZ-KIT Lite固件

    電子發(fā)燒友網(wǎng)站提供《EE-217:更新ADSP-TS101S TigerSHARC EZ-KIT Lite固件.pdf》資料免費(fèi)下載
    發(fā)表于 01-14 16:39 ?0次下載
    EE-217:<b class='flag-5'>更新</b>ADSP-TS101S TigerSHARC EZ-KIT <b class='flag-5'>Lite</b>固件

    請(qǐng)問(wèn)為ADC選Driver主要要看哪幾項(xiàng)技術(shù)指標(biāo)呢?

    to 20-Bit, Differential, High-Speed SAR Drivers,這時(shí)說(shuō)THS4561就不適合做Delta-Sigma (ΔΣ) ADC Drivers嗎?請(qǐng)問(wèn)為ADC選Driver主要要看哪幾項(xiàng)技術(shù)指標(biāo)呢?
    發(fā)表于 12-16 06:00

    第四章:在 PC 交叉編譯 aarch64 的 tensorflow 開(kāi)發(fā)環(huán)境并測(cè)試

    本文介紹了在 PC 端交叉編譯 aarch64 平臺(tái)的 tensorflow 庫(kù)而非 tensorflow lite 的心酸過(guò)程。
    的頭像 發(fā)表于 08-25 11:38 ?2345次閱讀
    第四章:在 PC 交叉編譯 aarch64 的 <b class='flag-5'>tensorflow</b> 開(kāi)發(fā)環(huán)境并測(cè)試

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開(kāi)發(fā)的一個(gè)開(kāi)源深度學(xué)習(xí)框架,它允許開(kāi)發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計(jì)算性能、靈活的架構(gòu)以及豐富的工具和庫(kù),在學(xué)
    的頭像 發(fā)表于 07-12 16:38 ?1237次閱讀

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型更新

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型的更新是一個(gè)涉及多個(gè)步驟的過(guò)程,包括模型定義、訓(xùn)練、評(píng)估以及根據(jù)新數(shù)據(jù)或需求進(jìn)行模型微調(diào)(Fine-tuning)或重新訓(xùn)練。下面我將詳細(xì)闡述這個(gè)過(guò)程,并附上相應(yīng)的TensorFlow代碼
    的頭像 發(fā)表于 07-12 11:51 ?809次閱讀

    請(qǐng)問(wèn)ESP32如何運(yùn)行TensorFlow模型?

    請(qǐng)問(wèn)ESP32如何運(yùn)行TensorFlow模型?
    發(fā)表于 07-09 07:30

    tensorflow和pytorch哪個(gè)更簡(jiǎn)單?

    PyTorch更簡(jiǎn)單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一個(gè)易于使用、靈活且具有強(qiáng)大社區(qū)支持的框架,PyTorch可能是一個(gè)更好的選擇。如果您需要一個(gè)在
    的頭像 發(fā)表于 07-05 09:45 ?1387次閱讀

    tensorflow和pytorch哪個(gè)好

    tensorflow和pytorch都是非常不錯(cuò)的強(qiáng)大的框架,TensorFlow還是PyTorch哪個(gè)更好取決于您的具體需求,以下是關(guān)于這兩個(gè)框架的一些關(guān)鍵點(diǎn): TensorFlow : 發(fā)布時(shí)間
    的頭像 發(fā)表于 07-05 09:42 ?1144次閱讀

    tensorflow簡(jiǎn)單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡(jiǎn)單的模型訓(xùn)練。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)庫(kù),廣泛用于各種機(jī)器學(xué)習(xí)任務(wù),包括圖像識(shí)別、自然語(yǔ)言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?1246次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡(jiǎn)介 Keras是一個(gè)高級(jí)神經(jīng)網(wǎng)絡(luò)API,它提供了一種簡(jiǎn)單、快速的方式來(lái)構(gòu)建
    的頭像 發(fā)表于 07-05 09:36 ?819次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個(gè)廣泛使用的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),它提供了豐富的API來(lái)構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在模型訓(xùn)練完成后,保存模型以便將來(lái)使用或部署是一項(xiàng)常見(jiàn)的需求。同樣,加載已保存的模型進(jìn)行預(yù)測(cè)或
    的頭像 發(fā)表于 07-04 13:07 ?2573次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個(gè)由谷歌人工智能團(tuán)隊(duì)谷歌大腦(Google Brain)開(kāi)發(fā)和維護(hù)的開(kāi)源機(jī)器學(xué)習(xí)庫(kù)。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的數(shù)學(xué)運(yùn)算表示為
    的頭像 發(fā)表于 07-02 14:14 ?1376次閱讀
    主站蜘蛛池模板: 国产成人精品视频频 | 欧美xxxxx九色视频免费观看 | 好男人在线观看免费视频WWW | 国产一卡在线观看完整版 | 国产乱码免费卡1卡二卡3卡四卡 | 亚洲国产五月综合网 | 日韩亚洲人成在线 | 一线高清视频在线播放 | 无码天堂亚洲内射精品课堂 | 樱桃熟了A级毛片 | 免费A级毛片无码鲁大师 | 九九99热久久精品在线6 | 91精品专区 | 午夜AV内射一区二区三区红桃视 | 边吃胸边膜下床震免费版视频 | 激情床戏视频片段有叫声 | 欧美成人性色生活18黑人 | 亚洲在线国产日韩欧美 | 免费乱理伦片在线观看夜 | 午夜伦理电影在线观免费 | 亚洲影院在线播放 | 麻豆精品传媒卡一卡二传媒短视频 | 小776 论坛 | 人妻超级精品碰碰在线97视频 | 成人毛片一区二区三区 | 日本中文字幕巨大的乳专区 | 日韩精品 电影一区 亚洲高清 | 一道本无吗d d在线播放 | 亚洲精品无码成人AAA片 | 成人影院午夜久久影院 | 青青草原影视 | 果冻传媒视频在线播放 免费观看 | 亚洲一区免费看 | 久久精品视频uu | 精彩国产萝视频在线 | 亚洲一区二区女搞男 | 浪荡女天天不停挨CAO日常视 | 337p欧洲亚大胆精品 | 无限资源在线完整高清观看1 | YELLOW视频直播在线观看 | 国产东北男同志videos网站 |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品