色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

3個(gè)神經(jīng)網(wǎng)絡(luò),讓蒙娜麗莎活起來(lái)

DPVg_AI_era ? 來(lái)源:lq ? 2019-05-25 09:05 ? 次閱讀

還記得哈利?波特第一次來(lái)到霍格沃茨看到墻上那些既會(huì)動(dòng)又會(huì)說(shuō)話(huà)的掛畫(huà)是多么驚訝嗎?如果我們可以將掛畫(huà) “復(fù)活”,和 500 多年前的蒙娜麗莎來(lái)場(chǎng)穿越時(shí)空的對(duì)話(huà)會(huì)怎樣呢?感謝 AI 技術(shù),把畫(huà) “復(fù)活” 不再是夢(mèng)!

名畫(huà)《蒙娜麗莎的微笑》,會(huì)動(dòng)了!

夢(mèng)娜麗莎轉(zhuǎn)過(guò)頭,嘴里說(shuō)著話(huà),微微眨了眨眼,臉上帶著溫婉的微笑。

是的,《哈利·波特》世界中”會(huì)動(dòng)的畫(huà)“魔法實(shí)現(xiàn)了!來(lái)自三星AI中心(Samsung AI Center)和莫斯科斯的Skolkovo 科學(xué)技術(shù)研究所的一組研究人員,開(kāi)發(fā)了一個(gè)能將讓JPEG變GIF的AI系統(tǒng)。

《哈利·波特》中守衛(wèi)格蘭芬多學(xué)院休息室的胖夫人畫(huà)像

更牛逼的是,該技術(shù)完全無(wú)需3D建模,僅需一張圖片就能訓(xùn)練出惟妙惟肖的動(dòng)畫(huà)。研究人員稱(chēng)這種學(xué)習(xí)方式為“few-shot learning"。

當(dāng)然,如果有多幾張照片——8張或32張——?jiǎng)?chuàng)造出來(lái)動(dòng)圖效果就更逼真了。比如:

愛(ài)因斯坦給你講物理:

瑪麗蓮夢(mèng)露和你 flirt:

本周,三星AI實(shí)驗(yàn)室的研究人員發(fā)表了一篇題為 “Few-Shot Adversarial Learning of Realistic Neural Talking Head Models” 的論文,概述了這種技術(shù)。該技術(shù)基于卷積神經(jīng)網(wǎng)絡(luò),其目標(biāo)是獲得一個(gè)輸入源圖像,模擬目標(biāo)輸出視頻中某個(gè)人的運(yùn)動(dòng),從而將初始圖像轉(zhuǎn)換為人物正在說(shuō)話(huà)的短視頻。

論文一發(fā)表馬上引起轟動(dòng),畢竟這項(xiàng)技術(shù)創(chuàng)造了巨大的想象空間!

類(lèi)似這樣的項(xiàng)目有很多,所以這個(gè)想法并不特別新穎。但在這篇論文中,最有趣的是,該系統(tǒng)不需要大量的訓(xùn)練示例,而且系統(tǒng)只需要看一次圖片就可以運(yùn)行。這就是為什么它讓《蒙娜麗莎》活起來(lái)。

3個(gè)神經(jīng)網(wǎng)絡(luò),讓蒙娜麗莎活起來(lái)

這項(xiàng)技術(shù)采用“元學(xué)習(xí)”架構(gòu),如下圖所示:

圖2:“讓照片動(dòng)起來(lái)”元學(xué)習(xí)架構(gòu)

具體來(lái)說(shuō),涉及三個(gè)神經(jīng)網(wǎng)絡(luò):

首先,嵌入式網(wǎng)絡(luò)映射輸入圖像中的眼睛、鼻子、嘴巴大小等信息,并將其轉(zhuǎn)換為向量;

其次,生成式網(wǎng)絡(luò)通過(guò)繪制人像的面部地標(biāo)(face landmarks)來(lái)復(fù)制人在視頻中的面部表情;

第三,鑒別器網(wǎng)絡(luò)將來(lái)自輸入圖像的嵌入向量粘貼到目標(biāo)視頻的landmark上,使輸入圖像能夠模擬視頻中的運(yùn)動(dòng)。

最后,計(jì)算“真實(shí)性得分”。該分?jǐn)?shù)用于檢查源圖像與目標(biāo)視頻中的姿態(tài)的匹配程度。

元學(xué)習(xí)過(guò)程:只需1張輸入圖像

研究人員使用VoxCeleb2數(shù)據(jù)集對(duì)這個(gè)模型進(jìn)行了預(yù)訓(xùn)練,這是一個(gè)包含許多名人頭像的數(shù)據(jù)庫(kù)。在這個(gè)過(guò)程中,前面描述的過(guò)程是一樣的,但是這里的源圖像和目標(biāo)圖像只是同一視頻的不同幀。

因此,這個(gè)系統(tǒng)不是讓一幅畫(huà)去模仿視頻中的另一個(gè)人,而是有一個(gè)可以與之比較的ground truth。通過(guò)持續(xù)訓(xùn)練,直到生成的幀與訓(xùn)練視頻中的真實(shí)幀十分相似為止。

預(yù)訓(xùn)練階段允許模型在只有很少示例的輸入上工作。哪怕只有一張圖片可用時(shí),結(jié)果也不會(huì)太糟,但當(dāng)有更多圖片可用時(shí),結(jié)果會(huì)更加真實(shí)。

實(shí)驗(yàn)和結(jié)果

研究人員使用2個(gè)數(shù)據(jù)集分別進(jìn)行定量和定性評(píng)估:VoxCeleb1數(shù)據(jù)集用于與基準(zhǔn)模型進(jìn)行比較,VoxCeleb2用于展示他們所提出方法的效果。

研究人員在三種不同的設(shè)置中將他們的模型與基準(zhǔn)模型進(jìn)行了比較,使用fine-tuning集中的1幀、8幀和32幀。

表1:few-shot learning設(shè)置下不同方法的定量比較

結(jié)果如表1上半部分所示,基線模型在兩個(gè)相似性度量上始終優(yōu)于我們的方法。

不過(guò),這些指標(biāo)不能完全代表人類(lèi)的感知,因?yàn)檫@兩種方法都會(huì)產(chǎn)生恐怖谷偽影,從圖3的定性比較和用戶(hù)研究結(jié)果可以看出。

另一方面,余弦相似度與視覺(jué)質(zhì)量有更好的相關(guān)性,但仍然傾向于模糊、不太真實(shí)的圖像,這也可以通過(guò)表1-Top與圖3中的比較結(jié)果看出。

圖3:使用1張、8張和32張訓(xùn)練圖像時(shí)的三個(gè)示例。系統(tǒng)采用一個(gè)源圖像(第1列),并嘗試將該圖像映射到ground truth幀中的相同位置(第2列)。研究人員將他們的結(jié)果與X2Face、PixtopixHD模型進(jìn)行了比較。

大規(guī)模的結(jié)果。

隨后,我們擴(kuò)展可用的數(shù)據(jù),并在更大的VoxCeleb2數(shù)據(jù)集中訓(xùn)練我們的方法。

下面是2個(gè)變體模型的結(jié)果:

圖4:在VoxCeleb2數(shù)據(jù)集中的最佳模型的結(jié)果。

同樣,訓(xùn)練幀的數(shù)量是T(左邊的數(shù)字),第1列是示例訓(xùn)練幀。第2列是ground truth圖像,后3列分別是我們的FF feed-forward 模型及微調(diào)前后的結(jié)果。雖然 feed-forward變體的學(xué)習(xí)更快速,但fine-tuning 最終提供了更好的真實(shí)感和保真度。

最后,我們展示了的照片和繪畫(huà)的結(jié)果。

圖5:讓靜態(tài)照片“活”起來(lái)

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100718
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1083

    瀏覽量

    40449
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1266

    瀏覽量

    24287

原文標(biāo)題:蒙娜麗莎一鍵“復(fù)活”!三星AI Lab:只需一張圖片就能合成動(dòng)畫(huà)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    人工神經(jīng)網(wǎng)絡(luò)是根據(jù)人的認(rèn)識(shí)過(guò)程而開(kāi)發(fā)出的一種算法。假如我們現(xiàn)在只有一些輸入和相應(yīng)的輸出,而對(duì)如何由輸入得到輸出的機(jī)理并不清楚,那么我們可以把輸入與輸出之間的未知過(guò)程看成是一個(gè)網(wǎng)絡(luò)”,通過(guò)不斷地給
    發(fā)表于 06-19 14:40

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    超過(guò)閾值,輸出就一躍而起。但我們一般用S函數(shù)作為激活函數(shù)。如下圖:圖2 該函數(shù)相比階越函數(shù)更加接近現(xiàn)實(shí)。神經(jīng)網(wǎng)絡(luò)原理如圖所示是一個(gè)具有兩層的神經(jīng)網(wǎng)絡(luò),每層有兩個(gè)
    發(fā)表于 03-03 22:10

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART
    發(fā)表于 07-21 04:30

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    matlab實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

    習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)是如何一直沒(méi)有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練的輸入數(shù)據(jù):對(duì)應(yīng)的輸出數(shù)據(jù):我們這里設(shè)置:
    發(fā)表于 08-18 07:25

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴(lài)于上位機(jī)。所以要解決
    發(fā)表于 01-11 06:20

    神經(jīng)網(wǎng)絡(luò)運(yùn)用領(lǐng)域

    神經(jīng)網(wǎng)絡(luò)可以研究特定藝術(shù)品的筆畫(huà),顏色和陰影中的圖案。在此基礎(chǔ)上,可以將原作的風(fēng)格轉(zhuǎn)化為新的形象。DeepArt.io就是一個(gè)例子,該公司創(chuàng)建的應(yīng)用程序使用深度學(xué)習(xí)來(lái)學(xué)習(xí)數(shù)百種不同的風(fēng)格,可以將其
    的頭像 發(fā)表于 11-24 09:28 ?6033次閱讀

    用一張圖像合成動(dòng)圖,蒙娜麗莎開(kāi)口說(shuō)話(huà)

    蒙娜麗莎開(kāi)口說(shuō)話(huà)你見(jiàn)過(guò)嗎?這位神秘的畫(huà)中人也能做出各種 gif 表情?
    的頭像 發(fā)表于 05-27 13:58 ?4554次閱讀

    用Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理1

    個(gè)事情可能會(huì)初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-27 15:05 ?688次閱讀
    用Python從頭實(shí)現(xiàn)一<b class='flag-5'>個(gè)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理1

    用Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理2

    個(gè)事情可能會(huì)初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-27 15:06 ?619次閱讀
    用Python從頭實(shí)現(xiàn)一<b class='flag-5'>個(gè)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理2

    用Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理3

    個(gè)事情可能會(huì)初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-27 15:06 ?724次閱讀
    用Python從頭實(shí)現(xiàn)一<b class='flag-5'>個(gè)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理<b class='flag-5'>3</b>

    用Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理4

    個(gè)事情可能會(huì)初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-27 15:06 ?681次閱讀
    用Python從頭實(shí)現(xiàn)一<b class='flag-5'>個(gè)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>來(lái)理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理4

    個(gè)最流行神經(jīng)網(wǎng)絡(luò)

    在本文中,我們將了解深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)和三個(gè)最流行神經(jīng)網(wǎng)絡(luò):多層神經(jīng)網(wǎng)絡(luò)(MLP),卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸
    發(fā)表于 05-15 14:19 ?1404次閱讀
    三<b class='flag-5'>個(gè)</b>最流行<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>
    主站蜘蛛池模板: 樱花动漫成人隐藏入口| 大桥未久电影在线| 人人干人人爽| 久久精品99热超碰| 99视频这里只有精品国产| 亚洲 欧洲 国产 日产 综合| 国产精品自在在线午夜蜜芽tv在线| 日韩亚洲视频一区二区三区| 久久久久青草大香线综合精品| 俄罗斯1819y0u| 在线看片av以及毛片| 性生大片免费看| 久久这里只精品热在线99| 国产不卡在线观看视频| 99精品国产在热久久| 伊人久久大香线蕉资源| 性夜影院爽黄A爽免费动漫| 日本一区精品久久久久影院| 毛片在线看片| 久久久96人妻无码精品蜜桃| 国产亚洲精品久久久久久线投注 | 野花高清在线观看免费3中文| 色多多污污在线播放免费| 美女脱内衣裸身尿口露出来| 国模沟沟一区二区三区| 国产精品亚洲在钱视频| 德国美女密密麻麻浓毛| 办公室韩国电影免费完整版| 2021精品高清卡1卡2卡3麻豆| 亚洲中文日韩日本在线视频| 亚洲国产区中文在线观看| 小妇人电影免费完整观看2021| 日韩美一区二区| 日本阿v片在线播放免费| 欧美gay69| 欧美日韩一区二区三区四区| 美女扒开尿孔| 乱码国产丰满人妻WWW| 老熟人老女人国产老太| 久久亚洲国产成人影院| 国产360激情盗摄全集|