色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于TensorFlow Lite的幾項(xiàng)技術(shù)更新

Tensorflowers ? 來(lái)源:TensorFlow ? 作者:Yu-hui Chen ? 2021-09-23 15:38 ? 次閱讀

自年初在 Google I/O 大會(huì)上宣布推出 MoveNet 以來(lái),我們已經(jīng)收到了眾多積極反饋和功能請(qǐng)求。今天,我們很高興能與大家分享以下幾項(xiàng)技術(shù)更新:

MoveNet 的 TensorFlow Lite 版本現(xiàn)已在 TensorFlow Hub 上推出。我們對(duì)該版本進(jìn)行了一些可提升準(zhǔn)確率的更新,并使其與硬件加速器兼容,其中包括 GPU 和獲得 Android NN API 支持的其他加速器。

TensorFlow Hub

http://hub.tensorflow.google.cn/s?deployment-format=lite&q=movenet

我們發(fā)布了可在 Android 環(huán)境下使用 Raspberry Pi 的全新姿態(tài)預(yù)測(cè)示例,可讓您在移動(dòng)設(shè)備和 IoT 設(shè)備上試用 MoveNet。(即將支持 iOS 系統(tǒng))

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi

同時(shí),我們還發(fā)布了 Colab notebook,旨在教會(huì)您如何利用 MoveNet 對(duì)自定義姿勢(shì)進(jìn)行分類(例如,識(shí)別不同的瑜伽姿勢(shì))。您可以在上文提到的 Android、iOS 和 Raspberry Pi 應(yīng)用中試用姿態(tài)分類。

notebook

https://tensorflow.google.cn/lite/tutorials/pose_classification

什么是姿態(tài)預(yù)測(cè)?

姿態(tài)預(yù)測(cè)是一項(xiàng)機(jī)器學(xué)習(xí)任務(wù),即通過(guò)預(yù)測(cè)圖像或視頻中特定身體部位(關(guān)鍵點(diǎn))的空間位置來(lái)預(yù)測(cè)人物姿態(tài)。MoveNet 是目前最先進(jìn)的姿態(tài)預(yù)測(cè)模型,能夠檢測(cè)以下 17 個(gè)關(guān)鍵點(diǎn):

鼻子

左眼和右眼

左耳和右耳

左肩和右肩

左肘和右肘

左腕和右腕

左臀和右臀

左膝和右膝

左腳踝和右腳踝

我們發(fā)布了以下兩個(gè) MoveNet 版本:

MoveNet.Lightning 模型體積更小、速度更快,但在準(zhǔn)確性方面不如 Thunder 模型。該模型能在現(xiàn)代智能手機(jī)上實(shí)時(shí)運(yùn)行。

MoveNet.Lightning

http://hub.tensorflow.google.cn/google/movenet/singlepose/lightning/

MoveNet.Thunder 模型準(zhǔn)確性更高,但體積較 Lightning 模型而言更大,速度也相對(duì)較慢。

MoveNet.Thunder

http://hub.tensorflow.google.cn/google/movenet/singlepose/thunder/

各種基準(zhǔn)數(shù)據(jù)集(參見(jiàn)下文表中的評(píng)估/基準(zhǔn)結(jié)果)中的數(shù)據(jù)表明,MoveNet 模型的表現(xiàn)優(yōu)于我們先前的 TensorFlow Lite 姿態(tài)預(yù)測(cè)模型 Posenet(論文、文章和模型)。

論文

https://arxiv.org/abs/1803.08225

文章

https://medium.com/tensorflow/track-human-poses-in-real-time-on-android-with-tensorflow-lite-e66d0f3e6f9e

模型

https://storage.googleapis.com/download.tensorflow.org/models/tflite/posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite

以上 MoveNet 模型支持 TensorFlow Lite FP16 和 INT8 量化格式,可最大限度與硬件加速器兼容。

此次 MoveNet 版本可識(shí)別輸入圖像中的單一姿態(tài)。如果圖像中的人數(shù)超過(guò)一個(gè),該模型會(huì)通過(guò)剪裁算法將盡可能地聚焦在離圖像中心最近的人物身上。同時(shí),我們還采用了智能剪裁算法,來(lái)提高視頻檢測(cè)的準(zhǔn)確率。簡(jiǎn)而言之,該模型將放大前一幀中檢測(cè)到姿態(tài)的區(qū)域,繼而查看更細(xì)節(jié)的部分,然后根據(jù)當(dāng)前幀做出更準(zhǔn)確的預(yù)測(cè)。

如果您想深入了解 MoveNet 的實(shí)現(xiàn)過(guò)程,請(qǐng)查看之前發(fā)布的文章,其中包括 MoveNet 模型架構(gòu)和其訓(xùn)練時(shí)用到的數(shù)據(jù)集。

Android 與 Raspberry Pi

的示例應(yīng)用

我們發(fā)布了全新的姿態(tài)預(yù)測(cè)示例應(yīng)用,便于您在所選平臺(tái)上快速試用不同的姿態(tài)預(yù)測(cè)模型(MoveNet Lightning、MoveNet Thunder 和 Posenet)。

Android 示例

iOS 示例

Raspberry Pi 示例

在 Android 和 iOS 示例中,您也可以選擇使用加速器(GPU、NNAPI 或 CoreML)來(lái)運(yùn)行姿態(tài)預(yù)測(cè)模型。

Android 示例應(yīng)用屏幕截圖。圖像來(lái)自 Pixabay

MoveNet 性能

我們已對(duì) MoveNet 進(jìn)行優(yōu)化,使其能在由 TensorFlow Lite 提供支持的硬件加速器(包括 GPU 和獲得 Android NN API 支持的加速器)上更好地運(yùn)行。MoveNet 的性能基準(zhǔn)結(jié)果可助您選擇最適合您用例的運(yùn)行時(shí)配置。

模型大小 (MB)mAP*延遲時(shí)間 (ms) **

Pixel 5 -

CPU 4 線程Pixel 5 - GPURaspberry Pi 4 -

CPU 4 線程

MoveNet.

Thunder

(FP16 量化)12.6MB72.0155ms45ms594ms

MoveNet.

Thunder

(INT8 量化)7.1MB68.9100ms52ms251ms

MoveNet.

Lightning

(FP16 量化)4.8MB63.060ms25ms186ms

MoveNet.

Lightning

(INT8 量化)2.9MB57.452ms28ms95ms

PoseNet(MobileNetV1

主干,F(xiàn)P32)13.3MB45.680ms40ms338ms

* 我們?cè)?COCO 關(guān)鍵點(diǎn)數(shù)據(jù)集的子集上測(cè)量 mAP,并在其中篩選并裁剪每張圖像,使其只包含一個(gè)人像。

** 在持續(xù)負(fù)載下,我們使用帶有 TensorFlow 2.5 的 Android 和 Raspberry Pi 示例應(yīng)用測(cè)量端到端的延遲時(shí)間。

選擇 Lightning 或 Thunder 模型。首先,您應(yīng)該了解 Lightning 模型的準(zhǔn)確率能否滿足您的用例。

對(duì)于您的用例而言,如果 Lightning INT8 模型的準(zhǔn)確率足夠高,則可以選擇該模型,因?yàn)樗窍盗心P椭畜w積最小、速度最快的模型。模型的越快則意味著其能耗越少。

如果準(zhǔn)確率對(duì)于您的用例而言至關(guān)重要,Thunder FP16 模型則是理想之選。

選擇加速器。加速器的性能會(huì)因不同的制造商制造的 Android 設(shè)備而異。

CPU 是最為安全便捷的選擇,因?yàn)榭梢钥隙ǖ氖牵珻PU 幾乎可以在任何能運(yùn)行 TensorFlow Lite 的 Android 設(shè)備上正常工作。但在通常情況下,相較于在加速器上運(yùn)行模型,在 CPU 運(yùn)行模型時(shí)速度更慢,且耗能更高。所有 MoveNet 模型都能在 CPU 上運(yùn)行良好,因此您應(yīng)該根據(jù)自身的準(zhǔn)確率需求選擇模型。

GPU 是應(yīng)用最廣泛的加速器,能夠提供出色的性能提升。如果您想使用 GPU,F(xiàn)P16 量化模型則是理想之選。

Android NNAPI 是一種能在 Android 設(shè)備上支持其他 ML 加速器的便捷方式。如果您已經(jīng)將 CPU 或 GPU 用于其他工作負(fù)載,并且用戶設(shè)備運(yùn)行版本為 Android 10 或更高版本,則您可以選擇滿足您準(zhǔn)確率需求的模型,并讓 NNAPI 選擇最適合您模型的路徑。

如果您是 IoT 開(kāi)發(fā)者,不妨使用 Coral 來(lái)提升推理速度。請(qǐng)?jiān)诖颂幉榭?Coral 基準(zhǔn)數(shù)據(jù)。

此處

https://coral.ai/models/pose-estimation/

對(duì)模型進(jìn)行無(wú)線部署,而非將其捆綁在應(yīng)用的二進(jìn)制文件中。

由于 Android 生態(tài)系統(tǒng)的多元化,我們無(wú)法提供適用于所有用戶的統(tǒng)一模型。對(duì)于使用低端設(shè)備的用戶而言,Lightning INT8 模型是最佳選擇,因?yàn)樵撃P退俣茸羁欤夷芎淖钌佟H欢鴮?duì)于使用高端設(shè)備的用戶而言,不妨憑借 Thunder FP16 模型提供更為出色的性能。如果您想根據(jù)用戶設(shè)備更改模型,則可以考慮使用免費(fèi)版Firebase ML 托管您的模型,而非將所有打算使用的模型捆綁到應(yīng)用中。如果用戶開(kāi)始使用需要 TFLite 模型的應(yīng)用功能,則您可以編寫邏輯,為每個(gè)用戶設(shè)備下載最佳模型。

Firebase ML

https://firebase.google.com/docs/ml/manage-hosted-models

姿態(tài)分類

TensorBoard 是 TensorFlow 的可視化工具包。通過(guò)將 TensorFlow Quantum 模型與 TensorBoard 進(jìn)行集成,您將獲得許多開(kāi)箱可用的模型可視化數(shù)據(jù),例如訓(xùn)練損失和準(zhǔn)確性、可視化模型圖和程序分析。

為簡(jiǎn)化姿態(tài)分類流程,我們還發(fā)布了 Colab notebook,該工具能夠教您如何通過(guò)結(jié)合 MoveNet 和 TensorFlow Lite,并根據(jù)自定義姿態(tài)數(shù)據(jù)集來(lái)訓(xùn)練自定義姿態(tài)分類模型。這表示如果您想要識(shí)別瑜伽姿勢(shì),您需要做的就是收集您想識(shí)別的姿態(tài)圖像并為其添加標(biāo)簽,然后按照教程進(jìn)行訓(xùn)練,接著將瑜伽姿勢(shì)分類器部署到您的應(yīng)用中。

姿態(tài)分類器由兩個(gè)階段構(gòu)成:

1. 利用 MoveNet 檢測(cè)輸入圖像中的關(guān)鍵點(diǎn)。

2. 利用小型 TensorFlow Lite 模型,對(duì)已檢測(cè)到的關(guān)鍵點(diǎn)進(jìn)行姿態(tài)分類。

利用 MoveNet 進(jìn)行姿態(tài)分類的示例。輸入圖像來(lái)自 Pixabay

為訓(xùn)練自定義姿態(tài)分類器,您需要準(zhǔn)備姿態(tài)圖像,并將它們放入下圖所示的文件夾結(jié)構(gòu)中。您可以根據(jù)想要識(shí)別的類別為每個(gè)子文件夾命名。然后運(yùn)行 notebook 來(lái)訓(xùn)練自定義姿態(tài)分類器,并將其轉(zhuǎn)換為 TensorFlow Lite 格式。

yoga_poses

|__ downdog

|______ 00000128.jpg

|______ 00000181.bmp

|______ 。..

|__ goddess

|______ 00000243.jpg

|______ 00000306.jpg

|______ 。..

。..

TensorFlow Lite 姿態(tài)分類模型非常小,其大小只有 30KB 左右。該模型從 MoveNet 中獲取標(biāo)記點(diǎn)輸出,使姿態(tài)坐標(biāo)標(biāo)準(zhǔn)化,并將坐標(biāo)傳遞至幾個(gè)完全連接的層中。模型的輸出是一個(gè)概率列表,即姿態(tài)為每個(gè)已知的姿態(tài)類別。

TensorFlow Lite 姿態(tài)分類模型概覽

您可以在任何已發(fā)布的 Android 或 Raspberry Pi 姿態(tài)預(yù)測(cè)示例應(yīng)用中試用姿態(tài)分類模型。

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi#run-the-pose-classification-sample

未來(lái)計(jì)劃

我們的目標(biāo)是提供核心的姿態(tài)預(yù)測(cè)技術(shù)以及動(dòng)作識(shí)別引擎,讓開(kāi)發(fā)者在此基礎(chǔ)上構(gòu)建創(chuàng)新性應(yīng)用。以下是我們目前正在積極研究的一些方向:

對(duì) MoveNet 當(dāng)前版本做出改進(jìn),使其能在同一轉(zhuǎn)接路徑中檢測(cè)多種姿態(tài)。

研發(fā)新型動(dòng)作識(shí)別技術(shù),使其能在多個(gè)幀上檢測(cè)姿態(tài)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3238

    瀏覽量

    48824
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    329

    瀏覽量

    60530
  • TensorFlow Lite
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    621

原文標(biāo)題:MoveNet 技術(shù)更新|基于 TensorFlow Lite 的姿態(tài)模型預(yù)測(cè)及分類

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    請(qǐng)問(wèn)為ADC選Driver主要要看哪幾項(xiàng)技術(shù)指標(biāo)呢?

    to 20-Bit, Differential, High-Speed SAR Drivers,這時(shí)說(shuō)THS4561就不適合做Delta-Sigma (ΔΣ) ADC Drivers嗎?請(qǐng)問(wèn)為ADC選Driver主要要看哪幾項(xiàng)技術(shù)指標(biāo)呢?
    發(fā)表于 12-16 06:00

    第四章:在 PC 交叉編譯 aarch64 的 tensorflow 開(kāi)發(fā)環(huán)境并測(cè)試

    本文介紹了在 PC 端交叉編譯 aarch64 平臺(tái)的 tensorflow 庫(kù)而非 tensorflow lite 的心酸過(guò)程。
    的頭像 發(fā)表于 08-25 11:38 ?1046次閱讀
    第四章:在 PC 交叉編譯 aarch64 的 <b class='flag-5'>tensorflow</b> 開(kāi)發(fā)環(huán)境并測(cè)試

    如何在Tensorflow中實(shí)現(xiàn)反卷積

    TensorFlow中實(shí)現(xiàn)反卷積(也稱為轉(zhuǎn)置卷積或分?jǐn)?shù)步長(zhǎng)卷積)是一個(gè)涉及多個(gè)概念和步驟的過(guò)程。反卷積在深度學(xué)習(xí)領(lǐng)域,特別是在圖像分割、圖像超分辨率、以及生成模型(如生成對(duì)抗網(wǎng)絡(luò)GANs)等任務(wù)中
    的頭像 發(fā)表于 07-14 10:46 ?611次閱讀

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開(kāi)發(fā)的一個(gè)開(kāi)源深度學(xué)習(xí)框架,它允許開(kāi)發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計(jì)算性能、靈活的架構(gòu)以及豐富的工具和庫(kù),在學(xué)
    的頭像 發(fā)表于 07-12 16:38 ?698次閱讀

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型更新

    使用TensorFlow進(jìn)行神經(jīng)網(wǎng)絡(luò)模型的更新是一個(gè)涉及多個(gè)步驟的過(guò)程,包括模型定義、訓(xùn)練、評(píng)估以及根據(jù)新數(shù)據(jù)或需求進(jìn)行模型微調(diào)(Fine-tuning)或重新訓(xùn)練。下面我將詳細(xì)闡述這個(gè)過(guò)程,并附上相應(yīng)的TensorFlow代碼
    的頭像 發(fā)表于 07-12 11:51 ?408次閱讀

    請(qǐng)問(wèn)ESP32如何運(yùn)行TensorFlow模型?

    請(qǐng)問(wèn)ESP32如何運(yùn)行TensorFlow模型?
    發(fā)表于 07-09 07:30

    tensorflow和pytorch哪個(gè)更簡(jiǎn)單?

    PyTorch更簡(jiǎn)單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一個(gè)易于使用、靈活且具有強(qiáng)大社區(qū)支持的框架,PyTorch可能是一個(gè)更好的選擇。如果您需要一個(gè)在
    的頭像 發(fā)表于 07-05 09:45 ?854次閱讀

    tensorflow和pytorch哪個(gè)好

    tensorflow和pytorch都是非常不錯(cuò)的強(qiáng)大的框架,TensorFlow還是PyTorch哪個(gè)更好取決于您的具體需求,以下是關(guān)于這兩個(gè)框架的一些關(guān)鍵點(diǎn): TensorFlow : 發(fā)布時(shí)間
    的頭像 發(fā)表于 07-05 09:42 ?682次閱讀

    tensorflow簡(jiǎn)單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡(jiǎn)單的模型訓(xùn)練。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)庫(kù),廣泛用于各種機(jī)器學(xué)習(xí)任務(wù),包括圖像識(shí)別、自然語(yǔ)言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?645次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡(jiǎn)介 Keras是一個(gè)高級(jí)神經(jīng)網(wǎng)絡(luò)API,它提供了一種簡(jiǎn)單、快速的方式來(lái)構(gòu)建
    的頭像 發(fā)表于 07-05 09:36 ?519次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個(gè)廣泛使用的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),它提供了豐富的API來(lái)構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在模型訓(xùn)練完成后,保存模型以便將來(lái)使用或部署是一項(xiàng)常見(jiàn)的需求。同樣,加載已保存的模型進(jìn)行預(yù)測(cè)或
    的頭像 發(fā)表于 07-04 13:07 ?1499次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個(gè)由谷歌人工智能團(tuán)隊(duì)谷歌大腦(Google Brain)開(kāi)發(fā)和維護(hù)的開(kāi)源機(jī)器學(xué)習(xí)庫(kù)。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的數(shù)學(xué)運(yùn)算表示為
    的頭像 發(fā)表于 07-02 14:14 ?766次閱讀

    微軟Office Outlook Lite服務(wù)升級(jí),支持短信功能

    據(jù)報(bào)道,微軟于今日宣布更新 Outlook Lite 服務(wù),使其支持 SMS 短信功能。微軟稱,通過(guò)此項(xiàng)升級(jí),用戶現(xiàn)可整合管理電子郵件及 SMS 短信,有效提升溝通效率。
    的頭像 發(fā)表于 05-28 11:41 ?583次閱讀

    基于TensorFlow和Keras的圖像識(shí)別

    TensorFlow和Keras最常見(jiàn)的用途之一是圖像識(shí)別/分類。通過(guò)本文,您將了解如何使用Keras達(dá)到這一目的。定義如果您不了解圖像識(shí)別的基本概念,將很難完全理解本文的內(nèi)容。因此在正文開(kāi)始之前
    的頭像 發(fā)表于 01-13 08:27 ?815次閱讀
    基于<b class='flag-5'>TensorFlow</b>和Keras的圖像識(shí)別

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?981次閱讀
    如何使用<b class='flag-5'>TensorFlow</b>構(gòu)建機(jī)器學(xué)習(xí)模型
    主站蜘蛛池模板: 午夜国产视频| 国产高清美女一级a毛片久久w| 久久精品国产亚洲AV忘忧草蜜臀| 无码人妻视频又大又粗欧美| 成人影片下载网站| 女性露出奶头流出精子| 80岁色老头69av| 恋夜影院支持安卓视频美女| 一个人在线观看免费高清视频在线观看| 国产人妻777人伦精品HD| 午夜福利体检| 国产精品青青青高清在线密亚| 少妇一夜未归暴露妓女身份| 丰满少妇被猛烈进出69影院 | 日本人六九视频| beeg日本高清xxxx| 欧美精品乱码99久久蜜桃| cctv网站| 任你躁国语自产二区在线播放| yin乱教师系列合集| 秋霞影院福利电影| 成人在无码AV在线观看一| 日韩无码在线| 国产成人免费在线| 性派对xxxhd| 含羞草影院AE在线观看| 亚洲精品国产高清不卡在线| 加勒比一本之道高清视频在线观看| 亚洲色综合狠狠综合区| 久久99亚洲AV无码四区碰碰| 在线亚洲97se| 免费可以看污动画软件| fyeex性欧美人与曾| 日韩精品一区VR观看| 国产传媒18精品免费观看| 午夜理论片日本中文在线| 国产在线午夜| 影音先锋av色咪影院| 伦理79电影网在线观看| jzz大全18| 色聚网久久综合|