色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過(guò)深度學(xué)習(xí)為蒙娜麗莎添加動(dòng)畫效果

Tensorflowers ? 來(lái)源:TensorFlow ? 作者:TensorFlow ? 2020-11-18 17:29 ? 次閱讀

背景

坊間傳聞,當(dāng)您在房間里走動(dòng)時(shí),蒙娜麗莎的眼睛會(huì)一直盯著您。

這就是所謂的“蒙娜麗莎效應(yīng)”。興趣使然,我最近就編寫了一個(gè)可互動(dòng)的數(shù)字肖像,通過(guò)瀏覽器和攝像頭將這一傳說(shuō)變成現(xiàn)實(shí)。

這個(gè)項(xiàng)目的核心是利用 TensorFlow.js、深度學(xué)習(xí)和一些圖像處理技術(shù)。總體思路如下:首先,我們必須為蒙娜麗莎的頭部以及從左向右注視的眼睛生成一系列圖像。從這個(gè)動(dòng)作池中,我們根據(jù)觀看者的實(shí)時(shí)位置連續(xù)選擇并顯示單個(gè)幀。

TensorFlow.js
https://tensorflow.google.cn/js

接下來(lái),我將從技術(shù)層面詳細(xì)介紹該項(xiàng)目的設(shè)計(jì)和實(shí)現(xiàn)過(guò)程:

通過(guò)深度學(xué)習(xí)為蒙娜麗莎添加動(dòng)畫效果

圖像動(dòng)畫是一種調(diào)整靜止圖像的技術(shù)。使用基于深度學(xué)習(xí)的方式,我可以生成極其生動(dòng)的蒙娜麗莎注視動(dòng)畫。

具體來(lái)說(shuō),我使用了 Aliaksandr Siarohin 等人在 2019 年發(fā)布的一階運(yùn)動(dòng)模型 (First Order Motion Model, FOMM)。直觀地講,此方法由兩個(gè)模塊構(gòu)成:一個(gè)模塊用于提取運(yùn)動(dòng),另一個(gè)模塊用于生成圖像。運(yùn)動(dòng)模塊從攝像頭記錄的視頻檢測(cè)關(guān)鍵點(diǎn)并進(jìn)行局部仿射變換 (Affine Transformation)。然后,將在相鄰幀之間這些關(guān)鍵點(diǎn)的值的差值作為預(yù)測(cè)密集運(yùn)動(dòng)場(chǎng)的網(wǎng)絡(luò)的輸入,并且用作遮擋掩模 (Occlusion Mask),遮擋掩??梢灾付ɑ蚋鶕?jù)上下文推斷需要修改的圖像區(qū)域。之后,圖像生成網(wǎng)絡(luò)會(huì)檢測(cè)面部特征,并生成最終輸出,即根據(jù)運(yùn)動(dòng)模塊結(jié)果重繪源圖像。

一階運(yùn)動(dòng)模型
http://papers.nips.cc/paper/8935-first-order-motion-model-for-image-animation.pdf

我之所以選擇 FOMM 是因?yàn)樗子谑褂?。此領(lǐng)域以前使用的模型都“針對(duì)特定目標(biāo)”:需要提供詳細(xì)的特定目標(biāo)數(shù)據(jù)才能添加動(dòng)畫效果,而 FOMM 則不需要知道這些數(shù)據(jù)。更為重要的是,這些作者發(fā)布了開箱即用的開源實(shí)現(xiàn),其中包含預(yù)先訓(xùn)練的面部動(dòng)畫權(quán)重。因此,將該模型應(yīng)用到蒙娜麗莎的圖像上就變得十分簡(jiǎn)單:我只需將倉(cāng)庫(kù)克隆到 Colab Notebook,生成一段我眼睛四處觀看的簡(jiǎn)短視頻,并將其與蒙娜麗莎頭部的屏幕截圖一起傳進(jìn)模型。得到的影片超級(jí)棒。我最終僅使用了 33 張圖片就完成了最終的動(dòng)畫的制作。

源視頻和 FOMM 生成的圖像動(dòng)畫預(yù)測(cè)示例

使用 FOMM 生成的幀示例

圖像融合

雖然我可以根據(jù)自己的目的重新訓(xùn)練該模型,但我決定保留 Siarohin 得到的權(quán)重,以免浪費(fèi)時(shí)間和計(jì)算資源。但是,這意味著得到的幀的分辨率較低,且輸出僅有主體的頭部。介于我希望最終圖像包含整個(gè)蒙娜麗莎,即包括手部、軀干和背景,我選擇將生成的頭部動(dòng)畫疊加到油畫圖像上。

頭部幀疊加到基礎(chǔ)圖像上的示例:為了說(shuō)明問(wèn)題,此處顯示的版本來(lái)自項(xiàng)目的早期迭代,其中頭部幀存在嚴(yán)重的分辨率損失

然而,這帶來(lái)了一系列難題。查看上述示例時(shí),您會(huì)發(fā)現(xiàn),模型輸出的分辨率較低(由于經(jīng)過(guò)了 FOMM 的扭曲程序,背景附帶有一些細(xì)微的更改),從而導(dǎo)致頭部幀在視覺(jué)上有突出的效果。換句話說(shuō),很明顯這是一張照片疊加在另一張照片上面。為了解決這個(gè)問(wèn)題,我使用 Python 對(duì)圖像進(jìn)行了一些處理,將頭部圖像“融合”到基礎(chǔ)圖像中。

首先,我將頭部幀重新 resize 到其原始分辨率。然后,我構(gòu)造一個(gè)新的幀,該幀的每個(gè)像素值由原圖像素和模型輸出的像素求均值后加權(quán) (alpha) 求得,離頭部中心越遠(yuǎn)的像素權(quán)值越低。

用于確定 alpha 的函數(shù)改編自二維 sigmoid,其表達(dá)式為:

其中,j 確定邏輯函數(shù)的斜率,k 為拐點(diǎn),m 為輸入值的中點(diǎn)。以下是函數(shù)的圖形表示:

我將上述過(guò)程應(yīng)用到動(dòng)畫集中的所有 33 個(gè)幀之后,得到的每個(gè)合成幀都會(huì)讓人深信不疑這就是一個(gè)圖像:

通過(guò) BlazeFace 跟蹤觀看者的頭部

此時(shí),剩下的工作就是確定如何通過(guò)攝像頭來(lái)跟蹤用戶并顯示相應(yīng)的幀。

當(dāng)然,我選擇了 TensorFlow.js 來(lái)完成此工作。這個(gè)庫(kù)提供了一組十分可靠的模型,用于檢測(cè)人體,經(jīng)過(guò)一番研究和思考后,我選擇了 BlazeFace。

BlazeFace
https://github.com/tensorflow/tfjs-models/tree/master/blazeface

BlazeFace 是基于深度學(xué)習(xí)的目標(biāo)識(shí)別模型,可以檢測(cè)人臉和面部特征。它經(jīng)過(guò)專門訓(xùn)練,可以使用移動(dòng)相機(jī)輸入。它特別適合我的這個(gè)項(xiàng)目,因?yàn)槲翌A(yù)計(jì)大部分觀看者都會(huì)以類似方式(即頭部位于框內(nèi)、正面拍攝以及非常貼近相機(jī))使用攝像頭,無(wú)論是使用移動(dòng)設(shè)備還是筆記本電腦。

但是,在選擇此模型時(shí),我最先考慮到的是它異??斓臋z測(cè)速度。為了讓這一項(xiàng)目有意義,我必須能夠?qū)崟r(shí)運(yùn)行整個(gè)動(dòng)畫,包括面部識(shí)別步驟。BlazeFace 采用 Single-Shot 檢測(cè) (SSD) 模型,這是一種基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,在網(wǎng)絡(luò)的一次正向傳遞中可以同時(shí)移動(dòng)邊界框并檢測(cè)目標(biāo)。BlazeFace 的輕量檢測(cè)器能夠以每秒 200 幀的速度識(shí)別面部特征。

BlazeFace 在給定輸入圖像時(shí)的捕獲內(nèi)容演示:包圍人體頭部以及面部特征的邊界框

選定模型后,我持續(xù)將用戶的攝像頭數(shù)據(jù)輸入 BlazeFace 中。每次運(yùn)行后,模型都會(huì)輸出一個(gè)含有面部特征及其相應(yīng)二維坐標(biāo)位置的數(shù)組。借助此數(shù)組,我計(jì)算兩只眼睛之間的中點(diǎn),從而粗略估算出面部中心的 X 坐標(biāo)。

最后,我將此結(jié)果映射到介于 0 與 32 之間的某個(gè)整數(shù)。您可能還記得,其中的每一個(gè)值分別表示動(dòng)畫序列中的一個(gè)幀,0 表示蒙娜麗莎的眼睛看向左側(cè),32 表示她的眼睛看向右側(cè)。之后,就是在屏幕上顯示結(jié)果了。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2716

    瀏覽量

    47543
  • 圖像處理
    +關(guān)注

    關(guān)注

    27

    文章

    1293

    瀏覽量

    56781
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5504

    瀏覽量

    121246

原文標(biāo)題:“來(lái)自蒙娜麗莎的凝視”— 結(jié)合 TensorFlow.js 和深度學(xué)習(xí)實(shí)現(xiàn)

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門深度
    的頭像 發(fā)表于 11-14 15:17 ?647次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?407次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?869次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?205次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),不同的應(yīng)用場(chǎng)景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計(jì)中僅使用所需的計(jì)算資源,從而避免不必要
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    方法,它通過(guò)模擬人腦的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)對(duì)數(shù)據(jù)的自動(dòng)特征提取和學(xué)習(xí)。深度學(xué)習(xí)的核心是構(gòu)建多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層都包含大量的神經(jīng)元,這些神經(jīng)元通過(guò)
    的頭像 發(fā)表于 07-05 09:47 ?960次閱讀

    深度學(xué)習(xí)常用的Python庫(kù)

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過(guò)模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來(lái)解決復(fù)雜問(wèn)題。Python作為一種流行的編程語(yǔ)言,憑借其簡(jiǎn)潔的語(yǔ)法和豐富的庫(kù)支持,成為了深度
    的頭像 發(fā)表于 07-03 16:04 ?663次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無(wú)疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,眾多領(lǐng)域帶來(lái)了革命性的變化。然而,盡管它們都屬于機(jī)器
    的頭像 發(fā)表于 07-01 11:40 ?1420次閱讀

    HarmonyOS開發(fā)案例:【自定義下拉刷新動(dòng)畫

    主要介紹組件動(dòng)畫animation屬性設(shè)置。當(dāng)組件的某些通用屬性變化時(shí),可以通過(guò)屬性動(dòng)畫實(shí)現(xiàn)漸變效果,提升用戶體驗(yàn)。
    的頭像 發(fā)表于 04-29 16:06 ?976次閱讀
    HarmonyOS開發(fā)案例:【自定義下拉刷新<b class='flag-5'>動(dòng)畫</b>】

    OpenHarmony實(shí)戰(zhàn)開發(fā)-如何實(shí)現(xiàn)組件動(dòng)畫。

    ArkUI組件提供了通用的屬性動(dòng)畫和轉(zhuǎn)場(chǎng)動(dòng)畫能力的同時(shí),還為一些組件提供了默認(rèn)的動(dòng)畫效果。例如,List的滑動(dòng)動(dòng)效,Button的點(diǎn)擊動(dòng)效
    的頭像 發(fā)表于 04-28 15:49 ?640次閱讀
    OpenHarmony實(shí)戰(zhàn)開發(fā)-如何實(shí)現(xiàn)組件<b class='flag-5'>動(dòng)畫</b>。

    HarmonyOS開發(fā)案例:【動(dòng)畫

    使用動(dòng)畫樣式,實(shí)現(xiàn)幾種常見(jiàn)動(dòng)畫效果:平移、旋轉(zhuǎn)、縮放以及透明度變化。
    的頭像 發(fā)表于 04-25 15:13 ?482次閱讀
    HarmonyOS開發(fā)案例:【<b class='flag-5'>動(dòng)畫</b>】

    深度學(xué)習(xí)檢測(cè)小目標(biāo)常用方法

    深度學(xué)習(xí)效果在某種意義上是靠大量數(shù)據(jù)喂出來(lái)的,小目標(biāo)檢測(cè)的性能同樣也可以通過(guò)增加訓(xùn)練集中小目標(biāo)樣本的種類和數(shù)量來(lái)提升。
    發(fā)表于 03-18 09:57 ?733次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>檢測(cè)小目標(biāo)常用方法

    為什么深度學(xué)習(xí)效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理到自動(dòng)駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?638次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>效果</b>更好?

    【RISC-V開放架構(gòu)設(shè)計(jì)之道|閱讀體驗(yàn)】先睹快-學(xué)習(xí)RISC-V的案頭好書

    蒙娜麗莎讓人想到的就是優(yōu)雅,這也契合RISC-V的設(shè)計(jì)哲學(xué)。本書從電子發(fā)燒友申請(qǐng)到,扉頁(yè)有電子發(fā)燒友的簽名。 前面附錄了RISC-V的指令集參考卡,這個(gè)比較有用,有時(shí)看下匯編代碼可以參考。參考卡
    發(fā)表于 01-20 22:37

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過(guò)深度學(xué)習(xí)來(lái)獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時(shí)代的步伐,必須對(duì)深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)有所
    的頭像 發(fā)表于 01-11 10:51 ?2067次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
    主站蜘蛛池模板: 日韩特黄特色大片免费视频| 在线中文字幕亚洲日韩| 摥管专用动态图399期| 亚洲黄色录像片| 97色在线视频| 国产精品亚洲在钱视频| 久久视频在线视频观品15| 日本久久和电影| 亚洲熟妇色自偷自拍另类| 99精品免费久久久久久久久日本 | 最新国自产拍天天更新| 成片在线看一区二区草莓| 健身房被教练啪到腿软H | 久久999视频| 日本人69xxx| 野花视频在线观看免费| 成人AV精品视频| 久久精品黄AA片一区二区三区| 飘雪在线观看免费高清完整版韩国 | 久久成人午夜电影mp4| 日本污ww视频网站| 一二三区乱码不卡手机版| 调教日本美女| 麻豆国产自制在线观看| 先锋影音av最新资源| 99九九99九九九视频精品| 国产一级特黄a大片99| 青青青青草| 在野外被男人躁了一夜动图| 国产h视频在线观看免费| 麻花豆传媒剧国产免费mv观看| 羞羞影院午夜男女爽爽免费| bbwxxxx交女警| 久久观看视频| 武侠艳妇屈辱的张开双腿| MM131亚洲精品久久安然| 久久国产乱子伦精品免费不卡| 婷婷精品国产亚洲AV在线观看| 最新黄yyid| 精品视频一区二区三三区四区| 手机看片国产免费久久网|