色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分享TensorFlow Lite應用案例

Tensorflowers ? 來源:未知 ? 作者:工程師郭婷 ? 2018-07-26 10:37 ? 次閱讀

從2016年開始,Kika 技術團隊一直致力于 AI 技術在移動端落地,尤其是在 keyboard 輸入法引擎做了很多算法與工程上的探索工作。2017 年 5 月,Kika 技術團隊基于 TensorFlow Mobile 研發了 Kika AI Engine,將其應用于 Kika 的全系輸入法產品中。2017 年 11 月,Google 發布 TensorFlow Lite (TF Lite) 后,Kika 技術團隊迅速進行了跟進,并于 2018 年 1 月成功地開發了基于 TF Lite 全新一代的 Kika AI Engine,同時進行了線上產品的更新。

1、移動端深度學習的技術選型

輸入法引擎的技術要求包括:快、準、全。需要在客戶端環境下,根據用戶輸入的上文內容以及當前鍵入的鍵碼,實時進行『預測』。預測的內容包括:單詞,詞組,emoji 等等一切可能通過輸入法發送的內容。從算法的原理上來講,這是一個典型的 RNN 應用場景。

輸入法引擎預測效果圖

作為輸入法這樣的一個重度使用的工具類 APP,在移動端做輕量化部署非常重要,具體包括以下四個方面:模型壓縮、快速的響應時間、較低的內存占用以及 較小的 so 庫(shared object,共享庫)大小等。

在 Kika 將 TF Mobile 部署到移動端的過程中,除了 CPU 占用偏高,還有由于 TF Mobile 內存管理與內存保護設計的問題,導致:

內存保護機制不完善,在實際內存不是很充足的情況(尤其對于部分低端機型以及在內存消耗較大的應用,如大型手游中彈起輸入法),容易引發內存非法操作。

內存大小控制機制存在一定的問題,例如模型本身在計算時只有 20MB,但加載到內存之后的運行時峰值可能會飆升 40 到 70MB。

TF Lite 對于 CNN 類的應用支持較好,目前對于 RNN 的支持尚存在 op 支持不足的缺點。但是考慮到內存消耗和性能方面的提升,Kika 仍然建議投入一部分的研發力量,在移動端考慮采用 TF Lite 做為基于 RNN 深度學習模型的 inference 部署方案。

2. TensorFlow Lite 對 RNN/LSTM based 模型的原生支持情況

相對于 CNN 而言,TF Lite 對于 RNN/LSTM 的支持程度稍顯不足。目前的情況是,RNN 相關的基本元素的 op 目前都已經支持,最近也剛剛支持了 LSTM,但遺憾的是 beamSearch 支持暫時還沒有完成。

不支持的 op 主要集中有兩大類情況:

包括控制流 (control flow) 的 op

相對于 TF mobile,TF Lite 的部分 op 只支持最簡單的 case

目前的一個好的消息就是 TensorFlow 項目組一直在持續的推進對 RNN 系列的支持。

3. 如何應對 op 缺失的情況

對于移動端用 TF Lite 部署最友好的開發姿勢是在設計模型之處就了解當前的 TF Lite版本哪些 op 是缺失或者功能不完整的,然后在模型設計過程中:

盡量避免使用這些 TF Lite 不支持的 op;

對于不得不使用的情況,也需要結合具體的業務邏輯,優化設計,使得在移動端部署的二次開發的工作量盡可能的小。

以下是應對 op 缺失的一些常見做法。

組合

最為常見的處理方式,例如在早期的 TF Lite 版本中,tf.tile 和 tf.range 都不支持,這個時候建議采用 broadcast_add 來組合代替實現。

補充

TF mobile 的 op 相當于完整版的 TensorFlow,于此相比,TF Lite 缺失最嚴重的是包含控制流的部分。例如 seq2seq 模型中常用的 beam search。

補充的方式有兩種:

直接開發一個全新的 op;

在 TF Lite 之外的上層 api 中實現 (此時可能需要拆解模型)。

兩種方式各有優劣,具體的需要根據功能的復雜度和業務邏輯決定。

模型拆分

1) 原因

需要模型拆分的原因一般有 3 個:

訓練時用流程控制的方式(如 batch)一次性跑完多個樣本,但在 Inference 的過程中,需要用到單步運行;

某些 op 不支持,需要在 TF Lite 的上層『手動』實現,可能需要將原有的模型拆分為若干的子模型 (sub graph);

有部分的冗余,但是重新設計 graph 再訓練的時間代價較大。

2) 方法與坑

以下通過一個實例來描述如何進行模型的拆分。

將 variable 共享給不同的 op,甚至于不同的 sub graph,通用做法是 采用 `placeholder` 的方式將輸入輸出分開,然后在導出 freeze graph 的時候用 `tf.graph_util.convert_variables_to_constants` 只抓取需要的部分。

代碼實例:

python

vars = tf.get_variable(。..)

inputs = tf.placeholder(‘inputids’, shape=[BATCH, None], 。..)

embs = tf.nn.embedding_lookup(vars, inputs)

cells = tf.nn.rnn_cell.MultiRNNCell(。..)

output, state = tf.nn.dynamic_rnn(cells, embs, 。..)

實際整合進入客戶端產品 inference 的時候,可能存在的坑:

可能不需要 `BATCH`,雖然可以每次都指定 batch 為 1,但對于 TF 來說,

batch = 1 跟直接沒有這個維度的模型結構并不同;

如果都需要單步運行的話,`dynamic_rnn` 也不需要,而且這里有大量流程控制 (最新的 TF Lite 開始逐步的對 dynamic rnn 進行了支持)。

對于后端的模型算法工作者來說,寫出上述的訓練代碼是一件非常自然的事情。如果我們既想保持后端代碼的普適和自然度,又想要快速實現能夠在客戶端部署,需要作出如下的事情:

python

prod_inputs = tf.placeholder(‘prod_inputids’, shape=[None], 。..)

prod_embs = tf.nn.embedding_lookup(vars, prod_inputs)

prod_output, prod_state = cells(prod_embs, 。..)

其中有 3 個需要被注意的地方:

RNN cell 本身可以被調用。同一個 cell 如果想讓多個地方同時調用,內部 variable 只會產生一次。

一般聲明的 variables 如果是用 `tf.get_variable()` 出來的,直接用即可。

另外一個方式是可以考慮采用 `tf.variable_scope(reuse=True)` 的方式重寫 inference 的過程,以解耦 training 和 inference 的代碼,代價就是整個 graph 會偏大,但是優點使得進行 sub graph 切分的工作變得更加簡單。

python

with tf.variable_scope(‘my_network’):

vars = tf.get_variable(。..)

inputs = tf.placeholder(‘inputids’, shape=[BATCH, None], 。..)

embs = tf.nn.embedding_lookup(vars, inputs)

cells = tf.nn.rnn_cell.MultiRNNCell(。..)

output, state = tf.nn.dynamic_rnn(cells, embs, 。..)

# 。..

with tf.variable_scope(‘my_network’, reuse=True):

vars = tf.get_variable(。..)

prod_inputs = tf.placeholder(‘prod_inputids’, shape=[None], 。..)

prod_embs = tf.nn.embedding_lookup(vars, prod_inputs)

prod_cells = tf.nn.rnn_cell.MultiRNNCell(。..)

prod_output, prod_state = prod_cells(prod_embs, 。..)

在進行這些『切分』操作的時候需要注意到幾個問題:

1. `tf.Variable()` 和 `tf.get_variable()`

盡量用后者,因為`tf.Variable()`對 variable scope 無效。

2. 部分 op 有隱藏的 optional argument

有些 op 有 optional argument,如果不指定的話,可能會自動引入一些額外的 op 來代入默認值。這樣偶爾會引入一些 TF Lite 不支持的 op。例如:

python

softmax = tf.nn.softmax(logits)

其實有個參數 axis 默認是 -1 ,也就是最后一個維度。不寫明的話 TF 會『默認』插入一些 op 在運行時幫你計算:

python

axis = tf.sub(tf.shape(logits), tf.constant(1))

`tf.shape()` 在 TF Lite 一直到最近才支持,而且只要調用的時候直接寫明,并不需要在運行時算:

python

# logits has shape [1, VOCABS]

softmax = tf.nn.softmax(logits, axis=1)

這類 op 暫時沒有系統性的方式可以辨認 (spec 上沒寫),只能等到試錯的時候才會被發現。

因此,在實際操作的時候對于默認參數,需要特別的注意。

4. toolchain -- 模型轉換與整合

拆完以后的模型仍然是一個 protobuffer 格式,要先把它轉換成 tflite 的 flatbuffers 格式才能用。

轉換工具可以直接采用 TF 官方的轉換工具。比如在kika 我們的 toolchain 是這樣的:

bash

git clone -b tflite https://github.com/KikaTech/tensorflow.git

cd tensorflow/kika

bazel build -s -c dbg

@org_tensorflow//tensorflow/contrib/lite/toco:toco

//graph_tools/python:tf2lite

//graph_tools/python:tfecho

//graph_tools/python:quantize

第一個就是模型轉換工具 toco,建議采用獨立的命令行版本,而不是采用 python API,目前對于 OSX 這樣的系統,會有一些編譯上的問題,同時編譯的耗時也比較長。

第二個是一個包含 toco 的小啟動器,因為 toco 從命令列呼叫起來的話要填的參數比較多,所以這個啟動器會使用 tensorflow 查詢一些可以自動填的參數,來降低手動填的參數數量。

第三個就是量化工具。如果只是要驗證 graph 能否在 TF Lite 上運行,不需要用到。如果要整合進客戶端產品的話,還會經過量化把模型體積壓縮后才推送至用戶手機 (或打包進安裝包),在用戶手機上做一次性的還原后才能運行。

5. 效果分析: TF Lite 帶來的收益

在客戶端實現基于 TF Lite 模型的部署之后,我們分別測試了同一模型在 TF 完全版(TF Mobile)和 TF Lite 10, 000 次 Inference 的資源消耗情況,如下圖所示。主要的 Metrics 包括內存占用 (memory),運行時間(speed)和靜態鏈接庫的大小 (image size)。

TF Lite based model performance metrics

可以看到,各項 Metrics 都得到的大幅的優化,這對于提升產品的整體性能與穩定度都是十分有利的。

6. TensorFlow 與 Kika

除了輸入法引擎之外,Kika 技術團隊近年來也一直在致力于采用 AI 技術解決內容推薦語音識別和自然語義理解方面等方面的諸多實際問題,在客戶端和服務端部署分別采用 TF Lite 和 TF Serving 這兩個基于 TensorFlow 的優秀框架。后續 Kika 技術團隊將持續帶來關于 Kika 在 TF Lite 和 TF Serving 實踐中的經驗分享。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30833

    瀏覽量

    268996
  • 引擎
    +關注

    關注

    1

    文章

    361

    瀏覽量

    22558
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121145
  • TensorFlow Lite
    +關注

    關注

    0

    文章

    26

    瀏覽量

    621

原文標題:TensorFlow Lite在Kika Keyboard中的應用案例分享

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    HM-BT2401DA,首次“AI化”的藍牙模組有多“能打”?

    與FLASH,同時華普微還借助TensorFlow Lite Micro將機器學習模型進行了量化和優化,使其能夠在HM-BT2401DA MCU的有限資源中高效運行。
    的頭像 發表于 12-20 14:16 ?139次閱讀
    HM-BT2401DA,首次“AI化”的藍牙模組有多“能打”?

    在設備上利用AI Edge Torch生成式API部署自定義大語言模型

    我們很高興地發布 AI Edge Torch 生成式 API,它能將開發者用 PyTorch 編寫的高性能大語言模型 (LLM) 部署至 TensorFlow Lite (TFLite) 運行時
    的頭像 發表于 11-14 10:23 ?429次閱讀
    在設備上利用AI Edge Torch生成式API部署自定義大語言模型

    U盤存儲并聯,算法交互輸出

    FreeRTOS),負責任務調度和資源管理。 使用C/C++語言編寫數據管理、算法和通信模塊,確保代碼的高效性和可靠性。 利用現有的庫和框架(如TensorFlow Lite Micro)來實現輕量級的機器
    發表于 10-28 07:36

    【社區工程師專題系列第七期】沒有興趣推動是不會有成就的——李海

    文檔,學習i.MX的AI開發環境和相關的程序框架。 2)利用TensorFlow Lite框架進行語音識別的模型建立和訓練工作。 3)將所訓練的模型移植到NXP的硬件平臺上。 4)利用語音指令控制其他
    發表于 10-23 16:53

    第四章:在 PC 交叉編譯 aarch64 的 tensorflow 開發環境并測試

    本文介紹了在 PC 端交叉編譯 aarch64 平臺的 tensorflow 庫而非 tensorflow lite 的心酸過程。
    的頭像 發表于 08-25 11:38 ?1048次閱讀
    第四章:在 PC 交叉編譯 aarch64 的 <b class='flag-5'>tensorflow</b> 開發環境并測試

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開發的一個開源深度學習框架,它允許開發者方便地構建、訓練和部署各種復雜的機器學習模型。TensorFlow憑借其高效的計算性能、靈活的架構以及豐富的工具和庫,在學
    的頭像 發表于 07-12 16:38 ?698次閱讀

    請問ESP32如何運行TensorFlow模型?

    請問ESP32如何運行TensorFlow模型?
    發表于 07-09 07:30

    tensorflow和pytorch哪個更簡單?

    PyTorch更簡單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一個易于使用、靈活且具有強大社區支持的框架,PyTorch可能是一個更好的選擇。如果您需要一個在
    的頭像 發表于 07-05 09:45 ?856次閱讀

    tensorflow和pytorch哪個好

    tensorflow和pytorch都是非常不錯的強大的框架,TensorFlow還是PyTorch哪個更好取決于您的具體需求,以下是關于這兩個框架的一些關鍵點: TensorFlow : 發布時間
    的頭像 發表于 07-05 09:42 ?684次閱讀

    tensorflow簡單的模型訓練

    在本文中,我們將詳細介紹如何使用TensorFlow進行簡單的模型訓練。TensorFlow是一個開源的機器學習庫,廣泛用于各種機器學習任務,包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發表于 07-05 09:38 ?647次閱讀

    keras模型轉tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉換為TensorFlow session。 Keras和TensorFlow簡介 Keras是一個高級神經網絡API,它提供了一種簡單、快速的方式來構建
    的頭像 發表于 07-05 09:36 ?520次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個由谷歌人工智能團隊谷歌大腦(Google Brain)開發和維護的開源機器學習庫。它基于數據流編程(dataflow programming)的概念,將復雜的數學運算表示為
    的頭像 發表于 07-02 14:14 ?766次閱讀

    【正點原子i.MX93開發板試用連載體驗】基于深度學習的語音本地控制

    實現語音智能識別功能。 項目計劃 1)根據文檔,學習i.MX的AI開發環境和相關的程序框架。 2)利用TensorFlow Lite框架進行語音識別的模型建立和訓練工作。 3)將所訓練的模型移植到NXP
    發表于 06-30 10:49

    如何使用TensorFlow構建機器學習模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創建一個簡單的機器學習模型。
    的頭像 發表于 01-08 09:25 ?983次閱讀
    如何使用<b class='flag-5'>TensorFlow</b>構建機器學習模型

    【飛騰派4G版免費試用】第五章:使用C++部署tflite模型到飛騰派

    Pose Detection in C++ using Machine Learning with TensorFlow Lite Tensorflow 1 vs Tensorflow
    發表于 12-27 21:17
    主站蜘蛛池模板: 亚洲国产综合久久精品| 久久久久久人精品免费费看| 苍老师刺激的120分钟| 97ganmeizi| 洲精品无码高潮喷水A片| 伊人激情综合网| 影音先锋av天堂| 约艺术院校96年清纯白嫩| 影音先锋av333资源网| 最近日本字幕免费高清| 最近中文字幕免费高清MV视频6| 正在播放国产精品| 7723日本高清完整版在线观看 | 精选国产AV精选一区二区三区| 国产在线高清视频无码| 国内极度色诱视频网站| 狠狠色狠狠色综合系列| 久久精品国产清白在天天线 | 耽肉高h喷汁呻吟| 国产成人精品男人免费| 国产精品久久久久久久A片冻果 | 邓奴的视频IVK| 国产精品久久久久久久久LI无码| 国产精品私人玩物在线观看 | 成人性生交片无码免费看| 高清国产在线观看| 国产手机在线亚洲精品观看| 黑色丝袜美女被网站| 久久午夜免费视频| 欧美成人性色生活18黑人| 日韩视频在线观看| 午夜视频在线网站| 永久免费精品影视网站| 999资源站| 国产成人精品综合在线| 狠狠躁天天躁小说| 美女被C污黄网站免费观看| 日本高清无人区影院| 鸭子玩富婆流白浆视频| 在线看片av以及毛片| 柏木舞子在线|