色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

最新終端機(jī)器學(xué)習(xí)研究的最新進(jìn)展

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2021-03-11 16:44 ? 次閱讀

演講內(nèi)容主要包括介紹回顧最新終端機(jī)器學(xué)習(xí)研究的最新進(jìn)展,介紹Google發(fā)布終端設(shè)備視覺開發(fā)工具,包括TFLite視覺任務(wù)API、開源MediaPipe系統(tǒng)、ML Kit開發(fā)包等,以及實戰(zhàn)開發(fā)經(jīng)驗。同時還包括高效終端機(jī)器設(shè)備視覺技術(shù)未來發(fā)展方向,例如硬件加速下的深度學(xué)習(xí)以及端上多任務(wù)學(xué)習(xí)等等。

大家好,我是來自Google Research的高級軟件工程師汪啟扉,首先感謝LiveVideoStack邀請我在此處演講。今天,我的主題是高效終端設(shè)備機(jī)器學(xué)習(xí)的最新進(jìn)展 。

883c392c-7e1a-11eb-8b86-12bb97331649.jpg

本次演講將包括五個主要部分。首先,我將簡要介紹端上機(jī)器學(xué)習(xí)。其次我將討論如何建立適合移動端的機(jī)器學(xué)習(xí)模型,在第三和第四部分 ,我將分別介紹適用于移動應(yīng)用的端上機(jī)器學(xué)習(xí)優(yōu)化,以及基于隱私保護(hù)的端上機(jī)器學(xué)習(xí)的最新研究。最后,我將討論端上機(jī)器智能的未來工作的展望。

1 端上機(jī)器學(xué)習(xí)

1.1 什么是端上機(jī)器學(xué)習(xí)

得益于深度學(xué)習(xí)的巨大成功,我們周圍的設(shè)備、機(jī)器、事物都變得越來越智能。智能手機(jī)、家庭助理、可穿戴設(shè)備等設(shè)備、自動駕駛汽車、無人機(jī)之類的機(jī)器,以及諸如電燈開關(guān)、家用傳感器之類的機(jī)器,正在利用機(jī)器智能來支持自動翻譯、自動駕駛、智能家居等應(yīng)用。比如智能手機(jī)、家庭助理、可穿戴設(shè)備等;機(jī)器方面有自動駕駛汽車、無人機(jī),生活中的器件包括電燈開關(guān)、家用傳感器之類的機(jī)器 。這些機(jī)器都正在利用自動翻譯、自動駕駛、智能家居等功能。用戶可以隨心所以地使用機(jī)器智能并享受其中。

早年,由于移動端上的計算資源非常有限,大多數(shù)機(jī)器智能都利用云計算實現(xiàn)。在基于云的機(jī)器智能中,源數(shù)據(jù)會發(fā)送到云端進(jìn)行智能推理,然后將結(jié)果下載到本地設(shè)備。此類基于云和客戶端的系統(tǒng)可能會遭受延遲、隱私和可靠性方面的困擾。不過最近,我們注意到將智能推理從云端遷移到邊緣端以改善這些問題的趨勢。

1.2為什么我們需要端上機(jī)器學(xué)習(xí)

在基于云的機(jī)器智能應(yīng)用中,用戶和設(shè)備間的長交互延遲通常是由不穩(wěn)定的網(wǎng)絡(luò)帶寬引起的。通過將機(jī)器智能轉(zhuǎn)移到客戶端可以提供穩(wěn)定的低交互延遲。

機(jī)器智能需要訪問私有用戶數(shù)據(jù),例如用戶圖片、文檔、電子郵件、語音等。機(jī)器將所有數(shù)據(jù)上傳到云中可能會引起隱私和安全問題。由于端上機(jī)器只能在本地設(shè)備上處理所有數(shù)據(jù),因此可以保護(hù)用戶私有數(shù)據(jù)免受惡意軟件攻擊。

最后,即使在網(wǎng)絡(luò)不可用或云服務(wù)關(guān)閉的情況下,將智能計算移到端上可以保持智能服務(wù)始終可用。

8a750782-7e1a-11eb-8b86-12bb97331649.jpg

因此,端上機(jī)器智能已成為智能和移動領(lǐng)域重點研究方向。通過隱私保護(hù)的云端計算可以很好地平衡延遲、可靠性、隱私和性能等問題。

1.3端上推理

基本上,因此,端上智能是通過使用來自設(shè)備傳感器(例如攝像頭、麥克風(fēng)、和所有其他傳感器)的輸入信號在設(shè)備上運行深度學(xué)習(xí)推理來實現(xiàn)。該模型完全在設(shè)備上運行而無需與服務(wù)器通信

1.4 挑戰(zhàn)

有限的計算資源

雖然應(yīng)用終端設(shè)備機(jī)器學(xué)習(xí)顯示出巨大優(yōu)勢,但仍然面臨許多挑戰(zhàn)。首要的挑戰(zhàn)是有限的計算資源,在過去的幾十年中,我們注意到了移動芯片組的計算能力遵循摩爾定律而不斷提高。但是,與具有分布式計算系統(tǒng)的云集群相比,單臺設(shè)備的計算資源仍然非常有限,無法滿足新興應(yīng)用程序不斷增長的計算需求。

有限的功率

如今,用戶對設(shè)備的使用比以往任何時候都多,每款新手機(jī)都在不斷提升電池容量并且支持快速充電功能。但是,設(shè)備的有限功率仍然是長續(xù)航時間的主要挑戰(zhàn)。

設(shè)備過熱

此外,高功耗通常導(dǎo)致設(shè)備過熱,尤其是對于可穿戴設(shè)備,這會影響用戶體驗并引起安全隱患。

8d0ff4ca-7e1a-11eb-8b86-12bb97331649.jpg

從實驗數(shù)據(jù)中可以看出,機(jī)器學(xué)習(xí)使用的浮點計算會比整數(shù)計算需要更高的功耗。為了快速學(xué)習(xí)并降低功耗和內(nèi)存的使用,我們必須優(yōu)化機(jī)器智能模型以滿足終端設(shè)備應(yīng)用在功耗、內(nèi)存和延遲上的限制。

2 建立適合移動端的機(jī)器學(xué)習(xí)模型

8d8c90ca-7e1a-11eb-8b86-12bb97331649.jpg

現(xiàn)在,讓我們討論如何建立適合移動端的智能模型。

2.1模型效率

8dd2e87c-7e1a-11eb-8b86-12bb97331649.jpg

在深入探討開發(fā)移動端智能模型的細(xì)節(jié)之前,我們先了解一下傳統(tǒng)服務(wù)器端智能模型和移動端智能模型的性能數(shù)據(jù)。上圖顯示了模型大小和準(zhǔn)確性之間的數(shù)據(jù);而下圖顯示了模型準(zhǔn)確性和延遲之間的數(shù)據(jù)。其中紅色虛線框顯示了傳統(tǒng)智能模型的性能數(shù)據(jù),藍(lán)色虛線框顯示的移動端智能模型。從圖中可以看出就模型大小和推理延遲而言 Google Inceptiom等傳統(tǒng)服務(wù)器端智能模型比MobileNet模型要繁重得多。因此,傳統(tǒng)模型過于繁重,無法應(yīng)用于移動應(yīng)用。

2.2 MobileNetV1

8e1d2d24-7e1a-11eb-8b86-12bb97331649.jpg

2017年 谷歌發(fā)布了著名的MobileNnet端上深度學(xué)習(xí)架構(gòu),它的主要貢獻(xiàn)之一是將標(biāo)準(zhǔn)卷積運算轉(zhuǎn)換為逐通道卷積運算。如左圖所示,逐通道卷積運算將標(biāo)準(zhǔn)卷積運算分解為兩個單獨的卷積運算:

第一步,它通過M個卷積內(nèi)核對M個輸入通道進(jìn)行卷積;

第二步,它對第一步的輸出進(jìn)行1x1卷積,而不是通過其他N-1個不同的卷積運算組作為標(biāo)準(zhǔn)卷積運算對輸入進(jìn)行卷積 。

通過這樣做可以使模型計算復(fù)雜度和參數(shù)數(shù)量減少約10倍,并使性能與Inception等最新服務(wù)器端智能模型保持一致。

此外,MobileNetmobilenetV1還通過可以控制全局比例系數(shù)來對模型大小進(jìn)行等比例縮放。

2.3 MobileNet V3

8e6ae53c-7e1a-11eb-8b86-12bb97331649.jpg

2019年研究人員設(shè)計了一個全新的MobileNet V3平臺。它通過硬件性能關(guān)聯(lián)的模型結(jié)構(gòu)搜索來構(gòu)建新的MobileNetMobilenet模型。新平臺通過將網(wǎng)絡(luò)適應(yīng)性和移動網(wǎng)絡(luò)結(jié)構(gòu)搜索融合在一起,并設(shè)置了具有目標(biāo)延遲、 內(nèi)存和功耗的目標(biāo)函數(shù)來構(gòu)建智能模型。

2.4MobileNet 性能基準(zhǔn)測試

8fa92238-7e1a-11eb-8b86-12bb97331649.jpg

如圖所示,研究人員正在通過MobileNetmobilenetvV3和有效的神經(jīng)體系結(jié)構(gòu)搜索提升端上機(jī)器學(xué)習(xí)模型的性能。這些端上智能模型都達(dá)到了與最新服務(wù)器端智能模型相似的性能。但保持了較低的計算復(fù)雜度。更具體地說MobileNet V3以最低的計算復(fù)雜度限制實現(xiàn)了最高的準(zhǔn)確性。這有些類似MobileNetmobilenet的體系結(jié)構(gòu)已成為應(yīng)用端上智能模型的參考和基準(zhǔn)。

MLPerf

8ff90db6-7e1a-11eb-8b86-12bb97331649.jpg

此外,我想向大家介紹機(jī)器學(xué)習(xí)性能基準(zhǔn)測試平臺MLPerf。這是一個開放的平臺供研究人員發(fā)布智能模型在不同硬件平臺上的最新性能基準(zhǔn),包括準(zhǔn)確性、延遲、內(nèi)存占用和功耗。

每項測試結(jié)果涵蓋最常見的任務(wù),包括在最流行的數(shù)據(jù)集上進(jìn)行的圖像分類、對象檢測、圖像分割和自然語言處理。基于這些基準(zhǔn),用戶可以輕松查看,模型性能并為他們的應(yīng)用選擇合適的模型。

2.5TFLite

90613ee0-7e1a-11eb-8b86-12bb97331649.jpg

另一方面,Google發(fā)布了端上智能的基礎(chǔ)架構(gòu)TFLite,并將其作為輕量級的機(jī)器學(xué)習(xí)庫以及用于移動和嵌入式設(shè)備的工具。它已嵌入到TensorFlow生態(tài)系統(tǒng)內(nèi),開發(fā)人員可以通過內(nèi)置轉(zhuǎn)換器將訓(xùn)練后的TensorFlow模型轉(zhuǎn)換為TFLite模型格式。轉(zhuǎn)換后的TFLite模型可用于構(gòu)建跨平臺應(yīng)用程序。

Android系統(tǒng)中 ,Android神經(jīng)網(wǎng)絡(luò)API提供了本機(jī)接口用于運行TFLitetflite模型,并將解釋器提供給開發(fā)人員,應(yīng)用開發(fā)人員可以構(gòu)建自定義的C ++和 Java API以在設(shè)備上調(diào)用模型進(jìn)行智能推斷。在iosiOS系統(tǒng)中,用戶可以通過C ++ 直接調(diào)用解釋器。

TFLite的推理速度更快

90a344c0-7e1a-11eb-8b86-12bb97331649.jpg

TFLite通過以下功能在終端設(shè)備機(jī)器學(xué)習(xí)中脫穎而出。首先,其統(tǒng)一的基于FlatBuffer的模型格式與不同平臺兼容;其次,它為移動端優(yōu)化了預(yù)融合激活和偏差計算;此外,它還提供了針對ARM上的NEON優(yōu)化的內(nèi)核從而顯著提高了執(zhí)行速度;最后,它還支持訓(xùn)練后量化。作為最流行的模型優(yōu)化方法之一,模型量化將浮點系數(shù)轉(zhuǎn)換為整數(shù)。通常,量化可以使模型大小減少4倍,并使執(zhí)行時間加快10-50%。

從圖中可以發(fā)現(xiàn)由TFLite自帶量化工具量化的模型顯著減少了類MobileNet模型和Inception V3模型的推理時間。此外,采用后期量化開發(fā)人員可以利用最新模型而無需從頭開始重新訓(xùn)練模型。

模型壓縮

910d65f8-7e1a-11eb-8b86-12bb97331649.jpg

最近TFLite還發(fā)布了一個綜合庫用于將傳統(tǒng)的大型模型壓縮為較小的模型供給終端設(shè)備情形,這被稱為Learn2Compress。這項技術(shù)采用用戶提供的預(yù)先訓(xùn)練的大型TensorFlow模型作為輸入進(jìn)行訓(xùn)練和優(yōu)化 并自動生成尺寸更小、內(nèi)存效率更高、能源效率更高、推理速度更快、準(zhǔn)確性損失最小即用型端上智能模型。具體來說,模型壓縮是通過刪除對預(yù)測最無用的權(quán)重或操作(如低分?jǐn)?shù)權(quán)重)實現(xiàn)。

它還引入了8位量化以及聯(lián)合模型訓(xùn)練和模型蒸餾,以從大型模型中獲得緊湊的小型模型。對于圖像分類Learn2Compress可以生成小型且快速的模型并具有適合移動應(yīng)用的良好預(yù)測精度。例如在ImageNet任務(wù)上Learn2Compress所獲得的模型比Inception V3基準(zhǔn)模型小22倍,比MobileNet V1基準(zhǔn)模型小4倍,準(zhǔn)確度僅下降4.6-7%。

TFLite 任務(wù)API

91c840a8-7e1a-11eb-8b86-12bb97331649.jpg

除了穩(wěn)定的框架和先進(jìn)的學(xué)習(xí)技術(shù),TFLite還公開了一組功能強(qiáng)大且易于使用的工具庫供應(yīng)用程序開發(fā)人員使用TFLite創(chuàng)建ML體驗。它為流行的機(jī)器學(xué)習(xí)任務(wù)(包括基于Bert NLP引擎的自然語言分類器、問題回答器)以及視覺任務(wù)API(包括分類器、檢測器和分段器)提供了優(yōu)化的即用型模型接口

TFLite任務(wù)庫可以實現(xiàn)跨平臺工作,并且在支持JAVA、 C++和Swift等上開發(fā)接受支持。這套TFLite ML機(jī)器學(xué)習(xí)任務(wù)API提供了四個主要優(yōu)點。首先,它提供了簡潔且明確的API供非ML機(jī)器學(xué)習(xí)專家使用。其次,它為開發(fā)人員提供了高度可擴(kuò)展性和自定義功能,開發(fā)者可在不了解模型的情況下構(gòu)建自己的Android和iosOS應(yīng)用程序。第三,它還發(fā)布了功能強(qiáng)大但通用的數(shù)據(jù)處理工具庫支持通用視覺和自然語言處理邏輯,以在用戶數(shù)據(jù)和模型所需的數(shù)據(jù)格式之間進(jìn)行轉(zhuǎn)換,工具庫還提供了可以同時用于訓(xùn)練和推理的處理邏輯。最后,它通過優(yōu)化處理獲得了較高的性能,數(shù)據(jù)處理流程將不超過幾毫秒 從而確保使用TensorFlowTFLite的快速推理體驗,所有任務(wù)庫所用到的模型均由Google研究部門提供支持。接下來,我將討論如何使用TFLite任務(wù)API 在設(shè)備上構(gòu)建機(jī)器智能應(yīng)用程序。

從Java運行TFLite Task APIs

此處,我將展示一個Android客戶端使用TFLite任務(wù)API 的示例 。Android客戶端將調(diào)用JAVA接口以傳遞輸入信號,輸入信號將通過自身API進(jìn)一步轉(zhuǎn)發(fā)給模型調(diào)用,模型推斷完成后,將輸出結(jié)果發(fā)送給java接口,并進(jìn)一步回傳到Android客戶端。

在示例中,用戶需要將模型文件復(fù)制到設(shè)備上的本地目錄 :

第一步:導(dǎo)入gradle依賴關(guān)系和模型文件的其他設(shè)置;

第二步:可以使用對象檢測器選項創(chuàng)建對象檢測器,并通過調(diào)用檢測方法進(jìn)行同步推斷。在端到端系統(tǒng)設(shè)計中,可以利用MediaPipe框架以同步或異步方式進(jìn)行設(shè)計,請進(jìn)一步參考開放源代碼的MediaPipe系統(tǒng)以獲取構(gòu)建端到端視覺系統(tǒng)的詳細(xì)信息

3 建立適合移動端的機(jī)器學(xué)習(xí)模型

961e0944-7e1a-11eb-8b86-12bb97331649.jpg

看上去我們已經(jīng)為智能社區(qū)建立端上機(jī)器智能應(yīng)用程序做出了卓越的貢獻(xiàn),那我們是否可以做得更好?答案是肯定的。

3.1硬件加速

965fb27c-7e1a-11eb-8b86-12bb97331649.jpg

端上機(jī)器學(xué)習(xí)社區(qū)當(dāng)前正在研究的一項主要工作,通過諸如GPU EdgeTPU 和DSP之類的等硬件加速器來加速ML機(jī)器學(xué)習(xí)推理。上圖顯示了一些最近為移動設(shè)備開發(fā)的硬件加速器。從圖中可以發(fā)現(xiàn)最新的芯片組(如海思、麒麟980、驍龍855和MediaTtek P9)的性能顯著提高。這個令人振奮的消息將鼓勵開發(fā)人員在終端設(shè)備上開發(fā)更多的應(yīng)用程序。

973563e0-7e1a-11eb-8b86-12bb97331649.jpg

這張幻燈片中的圖顯示了在ARM GPU和FPGA上運行基本濾波操作和圖像分析操作的功耗基準(zhǔn)與在CPU上運行相比通過在GPU和FPGA上進(jìn)行優(yōu)化來降低能源成本具有顯著優(yōu)勢。

對于Filter2D(這是深度學(xué)習(xí)中最常用的操作之一)在GPU上運行可以將GPU的功耗降低一半。在FPGA上運行可以將功耗進(jìn)一步降低到CPU的四分之一。

97e726de-7e1a-11eb-8b86-12bb97331649.jpg

我們通過運行移動模型(如mobilenetMobileNet) 和服務(wù)器端流行模型(如Iinception)列出了不同硬件平臺的基準(zhǔn)。在臺式機(jī)CPU上運行MobileNet V1和V2大約需要45毫秒 ;在CPU和FPGA上協(xié)同運行時將顯著減少20倍 。

此外 在嵌入式CPU(如四核Cortex A53 )上運行MobileNet V1和V2將超過150毫秒,而在EdgeTPU上使用不到2.5毫秒。

通過對比CPU和 EdgeTPU上運行inception模型,我們同樣可以觀察到運行在EdgeTPU的延遲比運行在CPU上的延遲顯著減少。

令人難以置信的是上述顯著的延遲降低是通過右圖所示的微型芯片組實現(xiàn)的。

EfficientNet-EdgeTPU

9850924a-7e1a-11eb-8b86-12bb97331649.jpg

在這里,我們要展示一個利用自動機(jī)器學(xué)習(xí)構(gòu)建硬件加速的端上機(jī)器學(xué)習(xí)模型的示例。我們將EfficientNet(也是最先進(jìn)的移動神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)之一)作為這項工作的基礎(chǔ)。為了構(gòu)建旨在利用Edge TPU的加速器體系結(jié)構(gòu)的 EfficientNets,我們調(diào)用了自動網(wǎng)絡(luò)結(jié)構(gòu)搜索框架 ,并使用可以在Edge上高效執(zhí)行的構(gòu)建塊來擴(kuò)展原始的EfficientNet的神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)搜索空間。我們還構(gòu)建并集成了一個“延遲預(yù)測器”模塊,該模塊通過在周期精確的模型結(jié)構(gòu)結(jié)構(gòu)模擬器上運行模型來提供在Edge TPU上執(zhí)行時模型延遲的估計。自動網(wǎng)絡(luò)結(jié)構(gòu)搜索控制器通過強(qiáng)化學(xué)習(xí)算法以在嘗試通過搜索實現(xiàn)最大化預(yù)測延遲和模型準(zhǔn)確性的聯(lián)合獎勵函數(shù)。

根據(jù)過去的經(jīng)驗 我們知道當(dāng)該模型適合其片上存儲器時Edge TPU的功耗和性能就將得到最大化。因此,我們還修改了獎勵函數(shù)以便為滿足此約束的模型生成更高的獎勵。

與現(xiàn)有EfficientNet, ResNet, 以及Inception 模型相比,EfficientNet-EdgeTPU-小/中/大模型通過專用于Edge硬件的網(wǎng)絡(luò)架構(gòu)可實現(xiàn)更好的延遲和準(zhǔn)確性,特別值得注意的是比起ResNet-50,我們獲得的,EfficientNet-EdgeTPU-小模型具有更高的精度但運行速度快10倍。

98a48242-7e1a-11eb-8b86-12bb97331649.jpg

作為廣泛采用的終端設(shè)備推理平臺,TFLite還支持原生硬件加速。在這里,我們顯示在CPU, GPU 和邊緣TPU上運行MobileNet V1TFLite模型的示例。

從總體上看CPU在MobileNet Vv1上運行浮點,推理一幀數(shù)據(jù)大約需要124毫秒。在CPU上運行量化的MobileNet Vv1比浮點模型快1.9倍,在GPU上運行浮點模型的速度比CPU快7.7倍,每幀僅使用16毫秒左右。

最后,在Edge TPU上運行量化模型僅需2毫秒。這比CPU上的浮點模型快62倍。因為我們可以得出通過硬件加速,可以在延遲、功耗和內(nèi)存方面顯著優(yōu)化模型推理的結(jié)論。

4 端上機(jī)器學(xué)習(xí)的隱私意識

99463d26-7e1a-11eb-8b86-12bb97331649.jpg

我們是否已經(jīng)實現(xiàn)端上機(jī)器智能的最終目標(biāo)?我們才剛開始。

4.1 終端上的數(shù)據(jù)很有意義

正如我們在開始時提到的,數(shù)據(jù)隱私是促使我們,轉(zhuǎn)向終端設(shè)備機(jī)器智能的另一個主要原因。但是,最新的端上機(jī)器智能模型的訓(xùn)練仍然需要在服務(wù)器端進(jìn)行。舉一個典型的應(yīng)用案例:為了使機(jī)器能夠為人類識別狗之類的動物,我們可以使用左側(cè)的公共訓(xùn)練圖像來訓(xùn)練模型,但是 我們通常需要在如右側(cè)圖片所示的極具挑戰(zhàn)性的場景下使用該模型。那么在具有挑戰(zhàn)性的日常個性化使用案例中如何使模型達(dá)到高精度?一種簡單的解決方案是,收集私有圖像并通過集中數(shù)據(jù)中心來重新訓(xùn)練模型。雖然像Google這樣的大公司已經(jīng)建立了最安全、最強(qiáng)大的云基礎(chǔ)架構(gòu)來處理這些數(shù)據(jù),以提供更好的服務(wù)。但這顯然仍然不是最佳的解決方案。因為它引起了使用用戶私人數(shù)據(jù)的問題,其中可能包含敏感信息,例如用戶人臉、用戶居住空間等。我們?nèi)绾胃纳颇P偷膫€性化性能并保護(hù)用戶的隱私。

4.2聯(lián)邦學(xué)習(xí)

9a0a67b4-7e1a-11eb-8b86-12bb97331649.jpg

現(xiàn)在,對于通過用戶與移動設(shè)備交互進(jìn)行訓(xùn)練而得到的模型。我們將引入另一種方法——聯(lián)邦學(xué)習(xí)。

聯(lián)邦學(xué)習(xí)使手機(jī)能夠協(xié)作學(xué)習(xí)共享的預(yù)測模型。同時將所有訓(xùn)練數(shù)據(jù)保留在設(shè)備上,從而將進(jìn)行機(jī)器學(xué)習(xí)的能力與將數(shù)據(jù)存儲在云中的需求脫鉤,這超出了通過將模型訓(xùn)練帶入設(shè)備對移動設(shè)備進(jìn)行預(yù)測使用本地模型的范圍。它的工作方式如下:用戶的設(shè)備下載當(dāng)前模型,通過從手機(jī)上的數(shù)據(jù)學(xué)習(xí)來改進(jìn)當(dāng)前模型,然后將更改匯總為一個小的局部更新,僅使用加密通信將模型的更新發(fā)送到云,并在此立即將其與其他用戶更新平均以改善共享模型。所有訓(xùn)練數(shù)據(jù)都保留在用戶的設(shè)備上,并沒有將用戶個人的數(shù)據(jù)更新存儲在云端,聯(lián)邦學(xué)習(xí)可在確保隱私的同時 提供更智能的模型、更低的延遲和更低的功耗。

這種方法的另一個直接優(yōu)勢是除了提供對共享模型的更新之外,還可以立即使用手機(jī)上改進(jìn)的模型,從而為您使用手機(jī)的方式提供個性化的體驗。

用Gboard測試聯(lián)邦學(xué)習(xí)

9a8c0bd4-7e1a-11eb-8b86-12bb97331649.jpg

我們目前正在Android的Google鍵盤應(yīng)用Gboard上測試聯(lián)邦學(xué)習(xí)。當(dāng)Gboard顯示建議的查詢時,您的手機(jī)將在本地存儲有關(guān)當(dāng)前上下文,以及是否接受建議的信息。聯(lián)邦學(xué)習(xí)會處理終端設(shè)備上的歷史記錄以提出對Gboard查詢建議模型下一次迭代的改進(jìn)建議。

對于擁有數(shù)百萬用戶的Gboard而言,將該技術(shù)部署到的不同的設(shè)備中是一個非常有挑戰(zhàn)的任務(wù)。在實際部署中,我們使用微型版本的TensorFlow來實現(xiàn)在設(shè)備上的模型訓(xùn)練,精心安排的時間表可確保僅在設(shè)備閑置插入電源和免費無線連接時進(jìn)行訓(xùn)練,因此不會影響終端的使用性能。

5 未來的工作

9b4625aa-7e1a-11eb-8b86-12bb97331649.jpg

看起來我們已經(jīng)達(dá)成了不錯的目標(biāo),那么未來會是什么樣?

9c0efe1c-7e1a-11eb-8b86-12bb97331649.jpg

過去,所有的訓(xùn)練和推理都是在集中式云系統(tǒng)上進(jìn)行的。這引起人們對隱私、延遲和可靠性的日益關(guān)注。今天,我們通過節(jié)省功效的智能設(shè)備,推理來制作部分分布式機(jī)器智能模型仍在集中式數(shù)據(jù)中心上訓(xùn)練并在本地設(shè)備上運行。

在不久的將來,借助聯(lián)邦學(xué)習(xí)技術(shù)我們將擁有完全分布式的AI以解決隱私問題和終身終端設(shè)備學(xué)習(xí)的支持。最近,5G正在全球范圍內(nèi)部署,5G的低延遲和高容量還將使AI處理能夠在設(shè)備、邊緣云和中央云之間分布從而為各種新的和增強(qiáng)的體驗提供靈活的混合系統(tǒng)解決方案。

這種無線邊緣架構(gòu)具有適應(yīng)性,并且可以根據(jù)每個用例進(jìn)行適當(dāng)?shù)臋?quán)衡。例如,性能和經(jīng)濟(jì)權(quán)衡可能有助于確定如何分配工作負(fù)載以滿足特定應(yīng)用程序所需的延遲或計算要求。到那時,我們可以看到loT(物聯(lián)網(wǎng)) 智慧城市和個性化領(lǐng)域中大量的新興應(yīng)用。

總結(jié)

9c5c4bd6-7e1a-11eb-8b86-12bb97331649.jpg

在本次報告中,我們簡要概述了端上機(jī)器學(xué)習(xí)的機(jī)遇和挑戰(zhàn)。其次 我們討論關(guān)于終端設(shè)備機(jī)器學(xué)習(xí)的資源效率計算。在這一部分中,我們介紹了移動模型體系結(jié)構(gòu)TFLite框架用于壓縮模型的高級技術(shù),以及用于用戶構(gòu)建端上機(jī)器智能應(yīng)用的開源機(jī)器學(xué)習(xí)任務(wù)API。最后,我們介紹了隱私保護(hù)的端上機(jī)器學(xué)習(xí)技術(shù)(聯(lián)邦學(xué)習(xí))的最新進(jìn)展。我們還指出了端上人工智能的未來發(fā)展方向。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視覺系統(tǒng)
    +關(guān)注

    關(guān)注

    3

    文章

    335

    瀏覽量

    30784
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8425

    瀏覽量

    132771
  • 自動駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13867

    瀏覽量

    166604

原文標(biāo)題:高效終端設(shè)備視覺系統(tǒng)開發(fā)與優(yōu)化

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    FF將發(fā)布FX品牌最新進(jìn)展

    "、"FF"或 "公司")今天宣布,將于2025年1月8日盤后公布其自2024年9月19日FX品牌發(fā)布以來的最新進(jìn)展,包括最新項目進(jìn)展、重大里程碑、新產(chǎn)品品類戰(zhàn)略及下一步計劃。
    的頭像 發(fā)表于 01-03 15:58 ?169次閱讀

    揭秘超以太網(wǎng)聯(lián)盟(UEC)1.0 規(guī)范最新進(jìn)展(2024Q4)

    近期,由博通、思科、Arista、微軟、Meta等國際頂級半導(dǎo)體、設(shè)備和云廠商牽頭成立的超以太網(wǎng)聯(lián)盟(UEC)在OCP Global Summit上對外公布其最新進(jìn)展——UEC規(guī)范1.0的預(yù)覽版本。讓我們一睹為快吧!
    的頭像 發(fā)表于 11-18 16:53 ?476次閱讀
    揭秘超以太網(wǎng)聯(lián)盟(UEC)1.0 規(guī)范<b class='flag-5'>最新進(jìn)展</b>(2024Q4)

    Qorvo在射頻和電源管理領(lǐng)域的最新進(jìn)展

    了半導(dǎo)體行業(yè)的重大變革,還成功引領(lǐng)Qorvo成為射頻技術(shù)的領(lǐng)導(dǎo)者。在本次專訪中,Philip將為大家分享Qorvo在射頻和電源管理領(lǐng)域的最新進(jìn)展,并探討HPA事業(yè)部如何通過技術(shù)創(chuàng)新應(yīng)對全球電氣化和互聯(lián)化的挑戰(zhàn)。
    的頭像 發(fā)表于 11-17 10:57 ?505次閱讀

    芯片和封裝級互連技術(shù)的最新進(jìn)展

    近年來,計算領(lǐng)域發(fā)生了巨大變化,通信已成為系統(tǒng)性能的主要瓶頸,而非計算本身。這一轉(zhuǎn)變使互連技術(shù) - 即實現(xiàn)計算系統(tǒng)各組件之間數(shù)據(jù)交換的通道 - 成為計算機(jī)架構(gòu)創(chuàng)新的焦點。本文探討了通用、專用和量子計算系統(tǒng)中芯片和封裝級互連的最新進(jìn)展,并強(qiáng)調(diào)了這一快速發(fā)展領(lǐng)域的關(guān)鍵技術(shù)、挑戰(zhàn)和機(jī)遇。
    的頭像 發(fā)表于 10-28 09:50 ?469次閱讀

    AI大模型的最新研究進(jìn)展

    AI大模型的最新研究進(jìn)展體現(xiàn)在多個方面,以下是對其最新進(jìn)展的介紹: 一、技術(shù)創(chuàng)新與突破 生成式AI技術(shù)的爆發(fā) : 生成式AI技術(shù)正在迅速發(fā)展,其強(qiáng)大的生成能力使得AI大模型在多個領(lǐng)域得到廣泛應(yīng)用
    的頭像 發(fā)表于 10-23 15:19 ?488次閱讀

    5G新通話技術(shù)取得新進(jìn)展

    在探討5G新通話這一話題時,我們需首先明確其背景與重要性。自2022年4月國內(nèi)運營商正式推出以來,5G新通話作為傳統(tǒng)語音通話的升級版,迅速吸引了公眾的目光,并引起了社會的廣泛關(guān)注。它基于5G網(wǎng)絡(luò),代表了通信技術(shù)的新進(jìn)展
    的頭像 發(fā)表于 10-12 16:02 ?626次閱讀

    中國科學(xué)院西安光機(jī)所智能光學(xué)顯微成像研究取得新進(jìn)展

    近日,瞬態(tài)光學(xué)與光子技術(shù)國家重點實驗室在智能光學(xué)顯微成像研究方面取得新進(jìn)展研究成果在線發(fā)表于國際高水平學(xué)術(shù)期刊《光電進(jìn)展》(Opto-Electronic Advances,IF:
    的頭像 發(fā)表于 09-29 06:20 ?394次閱讀
    中國科學(xué)院西安光機(jī)所智能光學(xué)顯微成像<b class='flag-5'>研究</b>取得<b class='flag-5'>新進(jìn)展</b>

    中國科學(xué)技術(shù)大學(xué)科研團(tuán)隊取得量子計算研究新進(jìn)展

    中國科學(xué)技術(shù)大學(xué)科研團(tuán)隊取得量子計算研究新進(jìn)展 據(jù)央視新聞報道,中國科學(xué)技術(shù)大學(xué)科研團(tuán)隊利用自主研發(fā)的關(guān)鍵設(shè)備,利用“自底而上”的量子模擬方法,在國際上首次實現(xiàn)光子的反常分?jǐn)?shù)量子霍爾態(tài)。 據(jù)中國科大
    的頭像 發(fā)表于 05-08 16:40 ?741次閱讀

    廣東的5G-A、信號升格和低空經(jīng)濟(jì),又有新進(jìn)展

    了兩地的5G/5G-A、智算等數(shù)字基礎(chǔ)設(shè)施建設(shè),深入了解了他們在信號升格和低空經(jīng)濟(jì)方面的最新進(jìn)展。活動一共持續(xù)了三天,前后跑了8個項目,雖然很累,但收獲滿滿。接下
    的頭像 發(fā)表于 04-19 08:05 ?821次閱讀
    廣東的5G-A、信號升格和低空經(jīng)濟(jì),又有<b class='flag-5'>新進(jìn)展</b>!

    百度首席技術(shù)官王海峰解讀文心大模型的關(guān)鍵技術(shù)和最新進(jìn)展

    4月16日,以“創(chuàng)造未來”為主題的Create 2024百度AI開發(fā)者大會在深圳國際會展中心成功舉辦。百度首席技術(shù)官王海峰以“技術(shù)筑基,星河璀璨”為題,發(fā)表演講,解讀了智能體、代碼、多模型等多項文心大模型的關(guān)鍵技術(shù)和最新進(jìn)展
    的頭像 發(fā)表于 04-18 09:20 ?715次閱讀
    百度首席技術(shù)官王海峰解讀文心大模型的關(guān)鍵技術(shù)和<b class='flag-5'>最新進(jìn)展</b>

    從原子到超級計算機(jī):NVIDIA與合作伙伴擴(kuò)展量子計算應(yīng)用

    量子計算領(lǐng)域的最新進(jìn)展包括分子研究、部署巨型超級計算機(jī),以及通過一項新的學(xué)術(shù)計劃培養(yǎng)量子從業(yè)人員。
    的頭像 發(fā)表于 03-22 10:05 ?442次閱讀

    高通AI Hub助力開發(fā)者解鎖終端側(cè)AI潛力

    在巴塞羅那世界移動通信大會(MWC)上,高通技術(shù)公司宣布了其在AI領(lǐng)域的最新進(jìn)展,包括全新的高通AI Hub和前沿研究成果
    的頭像 發(fā)表于 03-04 16:15 ?808次閱讀

    四個50億+,多個半導(dǎo)體項目最新進(jìn)展

    來源:全球半導(dǎo)體觀察,謝謝 編輯:感知芯視界 Link 近日,半導(dǎo)體行業(yè)多個項目迎來最新進(jìn)展,其中浙江麗水特色工藝晶圓制造項目、浙江中寧硅業(yè)硅碳負(fù)極材料及高純硅烷系列產(chǎn)品項目、晶隆半導(dǎo)體材料及器件
    的頭像 發(fā)表于 02-27 09:35 ?1052次閱讀

    清華大學(xué)在電子鼻傳感器仿生嗅聞方向取得新進(jìn)展

    近日,清華大學(xué)機(jī)械系在電子鼻仿生嗅聞研究中取得新進(jìn)展,相關(guān)研究成果以“Sniffing Like a Wine Taster: Multiple Overlapping Sniffs (MOSS
    的頭像 發(fā)表于 02-20 10:57 ?1058次閱讀
    清華大學(xué)在電子鼻傳感器仿生嗅聞方向取得<b class='flag-5'>新進(jìn)展</b>

    兩家企業(yè)有關(guān)LED項目的最新進(jìn)展

    近日,乾富半導(dǎo)體與英創(chuàng)力兩家企業(yè)有關(guān)LED項目傳來最新進(jìn)展
    的頭像 發(fā)表于 01-15 13:37 ?702次閱讀
    主站蜘蛛池模板: 麻花传媒MD0044视频| 国产自拍视频在线一区| 亚洲精品高清中文字幕完整版| 嗯啊好爽视频| 久久欧洲视频| 久草青青在线| 花蝴蝶高清影视视频在线播放| 国产精品一库二库三库| 国产成人免费高清视频| 成人在线免费| 俄罗斯大肥BBXX| 东北嫖妓对白粗口| 丰满女友bd高清在线观看| 超碰免费视频caopoom9| www.97干| 成人小视频免费在线观看| 爱做久久久久久| 俄罗斯6一12呦女精品| 纲手裸乳被爆白浆| 国产成人综合在线视频| 国产精品一区二区在线观看| 国产精品成人免费观看| 国产人妻午夜无码AV天堂| 含羞草在线| 久久久久嫩草影院精品| 美女被日出水| 琪琪see色原网色原网站| 青柠在线观看视频在线高清| 日日噜噜大屁股熟妇| 无套内射无矿码免费看黄| 亚洲AV日韩AV欧美在线观看网| 亚洲黄网站wwwwww| 正在播放一区二区| 国内精品久久久久影院老司| 扒开老师大腿猛进AAA片软件| 116美女写真成人午夜视频| 亚洲 日本 中文字幕 制服| 亚洲精品97福利在线| 一本久道久久综合婷婷五月| 中文字幕不卡在线高清| 99久久精品6在线播放|