色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用 TensorFlow Serving 賦能

Tensorflowers ? 來源:TensorFlow ? 作者:黃鴻波 ? 2021-09-24 15:01 ? 次閱讀

隨著互聯(lián)網(wǎng)的發(fā)展和人工智能的進(jìn)步,各個廠家都開始針對性的向用戶推薦自己的內(nèi)容,這些內(nèi)容包括了文章、視頻商品以及一些其他的希望被用戶看到的內(nèi)容了,能夠讓用戶有好的內(nèi)容的體驗,更好的捕捉到用戶所需要的內(nèi)容,這背后的成功都?xì)w功于推薦系統(tǒng)。

企業(yè)中的推薦系統(tǒng)包括哪幾個部分

上面是企業(yè)中一個常見的推薦系統(tǒng)的架構(gòu)圖,一般來講,一個完整的推薦系統(tǒng)企業(yè)級的架構(gòu)應(yīng)該包括數(shù)據(jù)的存儲、業(yè)務(wù)模型、服務(wù)層以及上層對于用戶來講可見的 App 或者一些其他可視化是產(chǎn)品

數(shù)據(jù)存儲

對于數(shù)據(jù)存儲來講,幾乎是每一個完整的推薦系統(tǒng)必不可少的一個部分,所有的用戶數(shù)據(jù)、候選內(nèi)容的所有的信息、日志系統(tǒng)以及緩存等,全都屬于數(shù)據(jù)存儲的一部分,后續(xù)我們要做的與用戶相關(guān)的畫像、內(nèi)容畫像以及其他需要提取的特征信息也全都來自于數(shù)據(jù)系統(tǒng)。

一般來講,數(shù)據(jù)系統(tǒng)是一個很大的概念,它不僅限于某一個數(shù)據(jù)庫,或者某一個數(shù)據(jù)處理邏輯,而是一整套與數(shù)據(jù)相關(guān)的系統(tǒng),用于存儲用戶信息的關(guān)系型數(shù)據(jù)庫、用戶存儲商品信息的數(shù)據(jù)模型、用于進(jìn)行大數(shù)據(jù)運算的數(shù)據(jù)湖和數(shù)據(jù)集群等,我們把這些處理數(shù)據(jù)的系統(tǒng)整合,形成了推薦系統(tǒng)的數(shù)據(jù)存儲部分。

業(yè)務(wù)模型

業(yè)務(wù)模型是推薦系統(tǒng)的核心。推薦系統(tǒng)的效果好壞可以說 90% 以上是由于業(yè)務(wù)模型決定的。在一個推薦系統(tǒng)中,數(shù)據(jù)系統(tǒng)一般包含三個部分,數(shù)據(jù)邏輯層、召回層和排序?qū)印?/p>

一般來講,我們當(dāng)從用戶進(jìn)入到我們的系統(tǒng)的時候,推薦系統(tǒng)就已經(jīng)在發(fā)揮作用了。首先,我們會將用戶的數(shù)據(jù)通過各種數(shù)據(jù)處理、深度學(xué)習(xí)或者機(jī)器學(xué)習(xí)的方法進(jìn)行數(shù)據(jù)的處理,這一部分的處理一般包括類似于用戶日志采集,分詞、內(nèi)容畫像、用戶畫像等,這里可用使用大量的深度學(xué)習(xí)方式來做。

接下來,我們可以使用這些畫像和特征來進(jìn)行針對于特定用戶的內(nèi)容召回,這里的召回實際上就是通過各種方法來找到用戶可能感興趣的內(nèi)容。

當(dāng)找到用戶可能感興趣的內(nèi)容之后,我們一般會對這些內(nèi)容進(jìn)行進(jìn)一步的篩選和排序,找到在這些內(nèi)容中,用戶最感興趣的前面的幾個或者幾十個內(nèi)容分別是什么,這一步,一般我們稱之為排序?qū)印?/p>

最后,我們可以將排序后的結(jié)果輸出給用戶進(jìn)行界面的展示,從而達(dá)到最后的推薦效果。

使用 TensorFlow Serving 賦能

目前來講,無論是數(shù)據(jù)邏輯、召回層還是排序?qū)樱伎梢允褂煤芏嗌疃葘W(xué)習(xí)的方法來做。例如數(shù)據(jù)邏輯中有關(guān)命名實體識別的部分可以使用 TensorFlow 來實現(xiàn),召回層可以使用 TensorFlow 來實現(xiàn) YoutubeDNN 模型并部署到生產(chǎn)環(huán)境中,在排序?qū)游覀円部梢允褂?xDeepFM 等深度學(xué)習(xí)方法來實現(xiàn)。

那么對于這些深度學(xué)習(xí)模型來講,最好的模型上線和部署方式莫過于使用 TensorFlow Serving 進(jìn)行部署了。

由于 TensorFlow Serving 本身就是 Google 自家的產(chǎn)品,也是 TensorFlow 大家族的一部分,因此,使用 TensorFlow Serving 對 TensorFlow 的模型進(jìn)行部署無疑是最好的選擇。

在我所在的企業(yè)中,幾乎所有的深度學(xué)習(xí)所涉及到的模型都會被轉(zhuǎn)換成 TensorFlow Serving 的模式進(jìn)行部署。在使用 TensorFlow Serving 進(jìn)行模型部署的時候,實際上會有很多個 tricks。

例如,在實際的操作當(dāng)中,很多人會發(fā)現(xiàn),自己也把模型轉(zhuǎn)換成了 PB 模型,也能自己使用代碼的方式加載這個 pb 模型進(jìn)行推理,但是,放到 TensorFlow Serving 上之后就無法進(jìn)行推理,然后還會報各種各樣莫名其妙的錯誤。一般來講,造成這個問題的原因有以下幾種。

1. pb 模型轉(zhuǎn)換的類型錯誤

pb 模型轉(zhuǎn)換的類型錯誤是大部分 TensorFlow 開發(fā)人員常見的錯誤之一,一般來講,TensorFlow 可以轉(zhuǎn)換的 pb 文件大致可以分成兩種,一種是直接轉(zhuǎn)換成一個 pb 文件,這種文件只是一個以模型名稱命名,以 .pb 為格式的單個文件,這個文件一般使用在終端的推理中,比如移動端的推理,或者是給到 C++ 等語言進(jìn)行模型的調(diào)用,但是如果把它直接使用 TensorFlow Serving 進(jìn)行部署的話,往往就會出錯。

實際上,如果想使用 TensorFlow Serving 進(jìn)行部署,那么我們就需要將我們的模型轉(zhuǎn)換成 Saved Model 格式的 pb 文件。Saved Model 格式的 pb 文件與一般的 pb 文件相比不同之處在于,Saved Model 格式的 pb 文件一般是凍結(jié)圖文件,它可以更方便的部署。一般來講,使用 Saved Model 格式進(jìn)行打包之后,除了模型文件本身,會生成 variables 目錄,其中 pb 文件是模型的定義文件,variables 目錄下存放的是模型的各個推理所需要的參數(shù)

因此,如果你生成了一個 pb 文件在本地可以推理,但是放在 TensorFlow Serving 中部署的時候不能推理的話,首先看看是不是這里的問題。

2. 在 TensorFlow Serving 中推理的時候沒有加入版本標(biāo)識

有些同學(xué)在使用 TensorFlow Serving 的時候,也能夠轉(zhuǎn)換成 Saved Model 格式的 pb 文件了,而且在本地驗證也沒有問題了,但是放到 TensorFlow Serving 的相關(guān)服務(wù)上就會報錯,總是提示找不到版本,一般來講,這種問題是你導(dǎo)出的模型中沒有添加模型的版本號所導(dǎo)致的,我們在 TensorFlow Serving 中進(jìn)行模型部署的時候,往往都需要在最外層定義一個模型的版本號,而 TensorFlow Serving 也會通過判斷模型的版本號來進(jìn)行模型的更新。

3. 模型沒有標(biāo)明正確的輸入輸出

有些同學(xué)在模型轉(zhuǎn)換完之后,發(fā)現(xiàn)無法在推理環(huán)境中運行,一直提示輸入的 tensor 不正確,這種情況下一般來講是在對模型進(jìn)行導(dǎo)出時,沒有對輸入輸出的參數(shù)進(jìn)行命名,從而使得模型使用了標(biāo)準(zhǔn)的命名,導(dǎo)致無法進(jìn)行推理。

TensorFlow Serving 的性能優(yōu)化

之前很多人在使用 TensorFlow Serving 在做模型部署的時候,都跟我說它的性能不好,部署 Albert tiny 模型的 QPS 連 50 都不到,還不如使用傳統(tǒng)的部署方法,當(dāng)我跟大家說,我使用 TensorFlow Serving 部署時,在 CPU 服務(wù)器上 QPS 能上到 2000 多,在 GPU 服務(wù)器上 QPS 甚至能達(dá)到 5000 以上,那么,為什么差異會這么大呢?

實際上,如果按照正常的部署方式,沒有帶任何參數(shù)的話,它的并發(fā)確實會很低,但是實際上,TensorFlow Serving 給我們提供了針對于高并發(fā)的部署方案,在 http://tensorflow.google.cn/tfx/serving/serving_config 中,有一個叫做 Batching Configuration 的配置的示例:

max_batch_size { value: 128 }

batch_timeout_micros { value: 0 }

max_enqueued_batches { value: 1000000 }

num_batch_threads { value: 8 }

這個示例,很大程度上決定了并發(fā)的性能。一般來講,在使用 CPU 部署的時候,我們可以將 num_batch_threads 設(shè)置為 CPU 核數(shù)的 2 倍加 1,例如我們的 CPU 是 48 核,這里可以設(shè)置為 97;當(dāng)我們使用 GPU 進(jìn)行部署的時候,這里面的 num_batch_threads 最好設(shè)置為 GPU 的個數(shù)。這樣的設(shè)置,能夠最大的程度上利用到我們的 CPU 和 GPU,使得并發(fā)提高。

在部署方面,TensorFlow Serving 給我們提供了 2 種大類別的 docker,一個是 GPU 的一個是 CPU 的,這個在做 docker 部署的時候一定要注意區(qū)分,否則很容易導(dǎo)致部署之后的性能低;另外,在 TensorFlow Serving 所提供的 docker 中,又可以分為 devel 版本和正常版本,其中 devel 里面帶有一些內(nèi)置的開發(fā)環(huán)境,一般用于調(diào)試用,在正式環(huán)境中,我們更建議使用正常的 docker 版本。

實際上,在工業(yè)界,將 TensorFlow 與推薦系統(tǒng)結(jié)合的例子很多,我們可以利用好 TensorFlow Serving 做好模型的推理,從而更好的提供相關(guān)的服務(wù)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47350

    瀏覽量

    238744

原文標(biāo)題:社區(qū)分享 | TensorFlow Serving如何結(jié)合推薦系統(tǒng)在企業(yè)中落地

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    海外動態(tài)IP:突破地域限制,數(shù)字時代

    海外動態(tài)IP作為一種強大的網(wǎng)絡(luò)工具,正在突破地域限制,數(shù)字時代,為企業(yè)和個人提供網(wǎng)絡(luò)自由與便利。
    的頭像 發(fā)表于 11-01 05:55 ?203次閱讀

    時間頻率設(shè)備 時鐘同步 機(jī)場系統(tǒng)-安徽京準(zhǔn)

    時間頻率設(shè)備(時鐘同步)機(jī)場系統(tǒng)-安徽京準(zhǔn)
    的頭像 發(fā)表于 08-06 14:29 ?332次閱讀
    時間頻率設(shè)備 時鐘同步 <b class='flag-5'>賦</b><b class='flag-5'>能</b>機(jī)場系統(tǒng)-安徽京準(zhǔn)

    RK3568 數(shù)字廣告,推動智能化新時代

    RK3568 數(shù)字廣告,推動智能化新時代
    的頭像 發(fā)表于 08-05 14:42 ?364次閱讀
    RK3568 <b class='flag-5'>賦</b><b class='flag-5'>能</b>數(shù)字廣告,推動智能化新時代

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開發(fā)的一個開源深度學(xué)習(xí)框架,它允許開發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計算性能、靈活的架構(gòu)以及豐富的工具和庫,在學(xué)
    的頭像 發(fā)表于 07-12 16:38 ?727次閱讀

    請問ESP32如何運行TensorFlow模型?

    請問ESP32如何運行TensorFlow模型?
    發(fā)表于 07-09 07:30

    tensorflow和pytorch哪個更簡單?

    PyTorch更簡單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要一個易于使用、靈活且具有強大社區(qū)支持的框架,PyTorch可能是一個更好的選擇。如果您需要一個在
    的頭像 發(fā)表于 07-05 09:45 ?882次閱讀

    tensorflow和pytorch哪個好

    tensorflow和pytorch都是非常不錯的強大的框架,TensorFlow還是PyTorch哪個更好取決于您的具體需求,以下是關(guān)于這兩個框架的一些關(guān)鍵點: TensorFlow : 發(fā)布時間
    的頭像 發(fā)表于 07-05 09:42 ?697次閱讀

    tensorflow簡單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡單的模型訓(xùn)練。TensorFlow是一個開源的機(jī)器學(xué)習(xí)庫,廣泛用于各種機(jī)器學(xué)習(xí)任務(wù),包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?701次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡介 Keras是一個高級神經(jīng)網(wǎng)絡(luò)API,它提供了一種簡單、快速的方式來構(gòu)建
    的頭像 發(fā)表于 07-05 09:36 ?552次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個由谷歌人工智能團(tuán)隊谷歌大腦(Google Brain)開發(fā)和維護(hù)的開源機(jī)器學(xué)習(xí)庫。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的數(shù)學(xué)運算表示為
    的頭像 發(fā)表于 07-02 14:14 ?798次閱讀

    5G執(zhí)法記錄儀數(shù)字城管智能化

    5G執(zhí)法記錄儀數(shù)字城管智能化
    的頭像 發(fā)表于 04-16 07:08 ?406次閱讀
    5G執(zhí)法記錄儀<b class='flag-5'>賦</b><b class='flag-5'>能</b>數(shù)字城管智能化

    億緯動力憑借卓越的技術(shù)實力與表現(xiàn)榮獲“開發(fā)獎”

    近日,開瑞新能源2024年供應(yīng)商年會在河南開封舉行,億緯動力憑借卓越的技術(shù)實力與表現(xiàn)榮獲“開發(fā)獎”,億緯鋰高級副總裁朱延春受邀出席
    的頭像 發(fā)表于 03-29 10:41 ?431次閱讀

    華為數(shù)據(jù)存儲伙伴六大亮點解讀

    精彩回顧 | 華為數(shù)據(jù)存儲伙伴六大亮點解讀
    的頭像 發(fā)表于 03-28 11:33 ?565次閱讀
    華為數(shù)據(jù)存儲伙伴<b class='flag-5'>賦</b><b class='flag-5'>能</b>六大亮點解讀

    NVIDIA宣布推出NVIDIA Blackwell平臺以計算新時代

    全新 Blackwell GPU、NVLink 和可靠性技術(shù)萬億參數(shù)規(guī)模的 AI 模型
    的頭像 發(fā)表于 03-20 09:44 ?629次閱讀

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?999次閱讀
    如何使用<b class='flag-5'>TensorFlow</b>構(gòu)建機(jī)器學(xué)習(xí)模型
    主站蜘蛛池模板: 欧美精品熟妇乱| 国产精品麻豆a啊在线观看| 青青热久精品国产亚洲AV无码| 国产在线aaa片一区二区99| 丝袜美女被艹| 免费国产黄线在线播放| 国产免费不卡| yellow在线中文| 伊人久久青草青青综合| 谁有成人网站地址| 国产在线精品亚洲二品区| 伊人久久大香线蕉综合网站| 色婷婷亚洲精品天天综合影院| acg全彩无遮挡口工漫画网址| 美女洗澡脱得一二干净| 国产福利视频在线观看福利| 三级黄色在线免费观看| 国产午夜精品不卡观看| 3D内射动漫同人资源在线观看| 久久伊人影院| 国产色精品久久人妻无码| 扒开美女下面粉嫩粉嫩冒白浆| 亚洲AV蜜桃永久无码精品红樱桃| 国产精品大陆在线视频| 99国产精品成人免费视频| 亚洲一区国产| 亚洲国产精品特色大片观看| 色婷婷欧美在线播放内射| 欧美123区| 韩国成人理伦片免费播放| 国产成人精视频在线观看免费| 忘忧草直播| 凌晨三点免费WWW| 久久99久久成人免费播放| 成人短片迅雷下载| 色橹| 欧美卡1卡2卡三卡2021精品 | 最近更新2019中文字幕国语| 绝色娇嫩美人妻老师| 精品麻豆一卡2卡三卡4卡乱码| 正在播放黑人杂交派对卧槽|