色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

用生成模型來做圖像恢復的介紹和回顧

新機器視覺 ? 來源:AI公園 ? 作者:Chu-Tak Li ? 2021-06-10 15:56 ? 次閱讀

導讀

本文給出了圖像恢復的一般性框架,編解碼器 + GAN,后面的圖像復原基本都是這個框架。

本文會介紹圖像修復的目的,它的應用,等等。然后,我們將深入研究文獻中關于圖像修復的第一個生成模型(即第一個基于GAN的修復算法,上下文編碼器)。

目標

很簡單的!我們想要填補圖像中缺失的部分。

應用

移除圖像中不需要的部分(即目標移除)

修復損壞的圖像(可以擴展到修復電影)

很多其他應用!

術語

給出一個有一些缺失區(qū)域的圖像,我們定義

缺失像素/生成像素/空洞像素:待填充區(qū)域的像素。

有效像素/ground truth像素:和缺失像素含義相反。需要保留這些像素,這些像素可以幫助我們填補缺失的區(qū)域。

傳統(tǒng)方法

給出一個有一些缺失區(qū)域的圖像,最典型的傳統(tǒng)方法填充缺失區(qū)域是復制粘貼。

主要思想是從圖像本身或一個包含數(shù)百萬張圖像的大數(shù)據(jù)集中尋找最相似的圖像補丁,然后將它們粘貼到缺失的區(qū)域。

然而,搜索算法可能是耗時的,它涉及到手工設計距離的度量方法。在通用化和效率方面仍有改進的空間。

數(shù)據(jù)驅動的基于深度學習的方法

由于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks, CNNs)在圖像處理方面的成功,很多人開始將CNNs應用到自己的任務中。基于數(shù)據(jù)驅動的深度學習方法的強大之處在于,如果我們有足夠的訓練數(shù)據(jù),我們就可以解決我們的問題。

如上所述,圖像修復就是將圖像中缺失的部分補上。這意味著我們想要生成一些不存在或沒有答案的東西。因此,所有基于深度學習的修復算法都使用生成對抗網(wǎng)絡(GANs)來產(chǎn)生視覺上吸引人的結果。為什么視覺上吸引人呢?由于沒有模型來回答生成的問題,人們更喜歡有良好視覺質量的結果,這是相當主觀的!

對于那些可能不知道GANs的讀者,我推薦你先去了解一下。這里以圖像修復為例,簡單地說,典型的GAN由一個生成器和一個鑒別器組成。生成器負責填補圖像中缺失的部分,鑒別器負責區(qū)分已填充圖像和真實圖像。請注意,真實的圖像是處于良好狀態(tài)的圖像(即沒有缺失的部分)。我們將隨機地將填充的圖像或真實的圖像輸入識別器來欺騙它。最終,如果鑒別器不能判斷圖像是被生成器填充的還是真實的圖像,生成器就能以良好的視覺質量填充缺失的部分!

第一個基于GAN的修復方法:上下文編碼器

在對image inpainting做了簡單的介紹之后,我希望你至少知道什么是image inpainting, GANs(一種生成模型)是inpainting領域常用的一種。現(xiàn)在,我們將深入研究本系列的第一篇論文。

Intention

作者想訓練一個CNN來預測圖像中缺失的像素。眾所周知,典型的CNNs(例如LeNet手寫數(shù)字識別和AlexNet圖像分類)包含許多的卷積層來提取特征,從簡單的結構特征到高級的語義特征(即早期層簡單的特征,比如邊緣,角點,到后面的層的更復雜的特征模式)。對于更復雜的功能模式,作者想利用學到的高層語義特征(也稱為隱藏特征)來幫助填充缺失的區(qū)域。

此外,為修復而學習的特征需要對圖像進行更深層次的語義理解。因此,學習到的特征對于其他任務也很有用,比如分類、檢測和語義分割。

背景

在此,我想為讀者提供一些背景信息

Autoencoders:這是一種通常用于重建任務的CNN結構。由于其形狀,也有人稱之為沙漏結構模型。對于這個結構,輸出大小與輸入大小相同,我們實際上有兩個部分,一個是編碼器,另一個是解碼器。

編碼器部分用于特征編碼,針對輸入得到緊湊潛在的特征表示,而解碼器部分則對潛在特征表示進行解碼。我們通常把中間層稱為低維的“瓶頸”層,或者簡單地稱之為“瓶頸”,因此整個結構看起來就像一個沙漏。

讓我們想象一下,我們將一幅完好無損的圖像輸入到這個自動編碼器中。在這種情況下,我們期望輸出應該與輸入完全相同。這意味著一個完美的重建。如果可能的話,“瓶頸”是輸入的一個完美的緊湊潛在特征表示。

更具體地說,我們可以使用更少的數(shù)字來表示輸入(即更有效,它與降維技術有關)。因此,這個“瓶頸”包含了幾乎所有的輸入信息(可能包括高級語義特征),我們可以使用它來重構輸入。

上下文編碼器進行圖像生成

首先,輸入的是mask圖像(即有中心缺失的圖像)。輸入編碼器以獲得編碼后的特征。然后,本文的主要貢獻是在編碼特征和解碼特征之間放置通道全連接層,以獲得更好的語義特征(即“瓶頸”)。最后,解碼器利用“瓶頸”特征重建缺失的部分。讓我們來看看他們的網(wǎng)絡內(nèi)部。

編碼器

編碼器使用AlexNet結構,他們用隨機初始化權值從頭開始訓練他們的網(wǎng)絡。

與原始的AlexNet架構和圖2所示的自動編碼器相比,主要的區(qū)別是中間的通道全連接層。如果網(wǎng)絡中只有卷積層,則無法利用特征圖上距離很遠的空間位置的特征。為了解決這個問題,我們可以使用全連接層,即當前層的每個神經(jīng)元的值依賴于上一層的所有神經(jīng)元的值。然而,全連接層會引入許多參數(shù),8192x8192=67.1M,這甚至在GPU上也很難訓練,作者提出了通道全連接層來解決這個問題。

通道全連接層

實際上,通道全連接層非常簡單。我們只是完全獨立地連接每個通道而不是所有的通道。例如,我們有m個大小為n x n的特征映射。如果使用標準的全連接層,我們會有m2n?個參數(shù),對于通道級的全連接層,我們只有mn?個參數(shù)。因此,我們可以在距離很遠的空間位置上捕獲特征,而不需要添加那么多額外的參數(shù)。

解碼器

對于解碼器來說,這只是編碼過程的反向。我們可以使用一系列的轉置卷積來獲得期望大小的重建圖像。

損失函數(shù)

本文使用的損失函數(shù)由兩項組成。第一項是重建損失(L2損失),它側重于像素級的重建精度(即PSNR方向的損失),但總是會導致圖像模糊。第二個是對抗損失,它通常用于GANs。它鼓勵真實圖像和填充圖像之間數(shù)據(jù)分布更接近。

對于那些對損失函數(shù)感興趣的讀者,我強烈推薦你們閱讀這篇論文中的方程。在這里,我只是口頭描述每個損失項。

04b0fa4a-c9b8-11eb-9e57-12bb97331649.png

重建損失(L2損失),M表示缺失的區(qū)域(1表示缺失區(qū)域,0表示有效像素),F(xiàn)是生成器

L2損失:計算生成的像素與對應ground truth像素之間的L2距離(歐幾里得距離)。只考慮缺失區(qū)域。

04cbfdd6-c9b8-11eb-9e57-12bb97331649.png

對抗損失,D是鑒別器。我們希望訓練出一種能夠區(qū)分填充圖像和真實圖像的鑒別器

對抗損失:對抗鑒別器的結構如圖4所示。鑒別器的輸出是一個二進制值0或1。如果輸入是真實圖像,則為1,如果輸入是填充圖像,則為0。

04e52932-c9b8-11eb-9e57-12bb97331649.png

聯(lián)合損失,Lambda_rec為0.999,Lambda_adv為0.001

使用隨機梯度下降(SGD),Adam優(yōu)化器交替訓練生成器和鑒別器。

實驗結果

評估使用了兩個數(shù)據(jù)集,即Paris Street View和ImageNet。

作者首先展示了修復結果,然后他們還表明,作為預訓練步驟,學習到的特征可以遷移到其他任務中。

語義修復

作者與傳統(tǒng)的最近鄰修復算法進行了比較。顯然,該方法優(yōu)于最近鄰修復方法。

我們可以看到L2損失傾向于給出模糊的圖像(第二列)。L2 +對抗性的損失給更清晰的填充圖像。對于NN-Inpainting,他們只是復制和粘貼最相似的圖像補丁到缺失的區(qū)域。

特征學習

為了顯示他們學習到的特征的有用性,作者嘗試編碼不同的圖像patch,并根據(jù)編碼的特征得到最相似的patch。在圖7中。作者將其與傳統(tǒng)的HOG和典型的AlexNet進行了比較。它們實現(xiàn)了與AlexNet類似的表現(xiàn),但AlexNet是在一百萬張標有數(shù)據(jù)集的圖像上預訓練的。

如表2所示,在ImageNet上預訓練過的模型具有最好的性能,但需要昂貴的標簽。在該方法中,上下文是用于訓練模型的監(jiān)督。這就是他們所謂的通過修復圖像來學習特征。很明顯,它們學習到的特征表示與其他借助輔助監(jiān)督訓練的模型相當,甚至更好。

總結

所提出的上下文編碼器訓練可以在上下文的條件下生成圖像。在語義修復方面達到了最先進的性能。

學習到的特征表示也有助于其他任務,如分類,檢測和語義分割。

要點

我想在這里強調(diào)一些要點。

對于圖像修復,我們必須使用來自有效像素的“提示”來幫助填充缺失的像素。“上下文”一詞是指對整個圖像本身的理解。

本文的主要貢獻是通道全連接層。其實,理解這一層并不難。對我來說,它是Non-Local Neural Networks或Self-Attention的早期版本/簡化版本。主要的一點是,前一層的所有特征位置對當前層的每個特征位置都有貢獻。從這個角度來看,我們對整個圖像的語義理解會更加深入。這個概念在后面的文章中被廣泛采用!

所有后來的修復論文都遵循了GAN-based結構(即編碼器-解碼器結構)。人們的目標是具有良好視覺質量的充滿圖像。

英文原文:https://medium.com/analytics-vidhya/introduction-to-generative-models-for-image-inpainting-and-review-context-encoders-13e48df30244

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1144

    瀏覽量

    40803
  • 編碼器
    +關注

    關注

    45

    文章

    3651

    瀏覽量

    134775
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1947

    瀏覽量

    73701
  • cnn
    cnn
    +關注

    關注

    3

    文章

    353

    瀏覽量

    22254

原文標題:用生成模型來做圖像恢復的介紹和回顧:上下文編碼器

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    借助谷歌Gemini和Imagen模型生成高質量圖像

    在快速發(fā)展的生成式 AI 領域,結合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型制作詳細且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?357次閱讀
    借助谷歌Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質量<b class='flag-5'>圖像</b>

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出其視頻生成模型Sora的應用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成視頻,引發(fā)了廣泛關
    的頭像 發(fā)表于 12-20 14:23 ?164次閱讀

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網(wǎng)站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶提
    的頭像 發(fā)表于 11-12 10:43 ?276次閱讀

    Meta發(fā)布Imagine Yourself AI模型,重塑個性化圖像生成未來

    Meta公司近日在人工智能領域邁出了重要一步,隆重推出了其創(chuàng)新之作——“Imagine Yourself”AI模型,這一突破性技術為個性化圖像生成領域帶來了前所未有的變革。在社交媒體與虛擬現(xiàn)實技術
    的頭像 發(fā)表于 08-26 10:59 ?537次閱讀

    經(jīng)典卷積網(wǎng)絡模型介紹

    經(jīng)典卷積網(wǎng)絡模型在深度學習領域,尤其是在計算機視覺任務中,扮演著舉足輕重的角色。這些模型通過不斷演進和創(chuàng)新,推動了圖像處理、目標檢測、圖像生成
    的頭像 發(fā)表于 07-11 11:45 ?556次閱讀

    如何用C++創(chuàng)建簡單的生成式AI模型

    生成式AI(Generative AI)是一種人工智能技術,它通過機器學習模型和深度學習技術,從大量歷史數(shù)據(jù)中學習對象的特征和規(guī)律,從而能夠生成全新的、完全原創(chuàng)的內(nèi)容,包括文本、圖像
    的頭像 發(fā)表于 07-05 17:53 ?910次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成式AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方
    的頭像 發(fā)表于 06-19 09:25 ?591次閱讀

    OpenAI發(fā)布圖像檢測分類器,可區(qū)分AI生成圖像與實拍照片

    據(jù)OpenAI介紹,初步測試結果表明,該分類器在辨別非AI生成圖像與DALL·E 3生成圖像時,成功率高達近98%,僅有不到0.5%的非AI
    的頭像 發(fā)表于 05-09 09:57 ?478次閱讀

    請問圖像處理可以k210嗎?

    圖像處理可以k210嗎?
    發(fā)表于 03-19 08:29

    KOALA人工智能圖像生成模型問世

    近日,韓國科學團隊宣布研發(fā)出名為 KOALA 的新型人工智能圖像生成模型,該模型在速度和質量上均實現(xiàn)了顯著突破。KOALA 能夠在短短 2 秒內(nèi)生成
    的頭像 發(fā)表于 03-05 10:46 ?804次閱讀

    韓國科研團隊發(fā)布新型AI圖像生成模型KOALA,大幅優(yōu)化硬件需求

    由此模型的核心在于其運用了“知識蒸餾”(knowledge distillation)技術,這使得開源圖像生成工具Stable Diffusion XL可大幅縮小其規(guī)模。原Stable Diffusion XL擁有25.6億個參
    的頭像 發(fā)表于 03-01 14:10 ?652次閱讀

    谷歌模型合成工具怎么

    谷歌模型合成工具主要是指Dreamfusion,這是Google的大型AI圖像模型Imagen與NeRF的3D功能相結合的一種技術。Dreamfusion是Dream Fields的演變,Dream Fields是谷歌于2021
    的頭像 發(fā)表于 02-29 17:33 ?826次閱讀

    谷歌Gemini AI模型因人物圖像生成問題暫停運行

    據(jù)報道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?606次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術報告 ,正式入局視頻生成領域 。Sora能夠根據(jù)提示詞生成60s的連貫視頻,“碾壓”了
    的頭像 發(fā)表于 02-21 16:45 ?1299次閱讀

    Stability AI試圖通過新的圖像生成人工智能模型保持領先地位

    Stability AI的最新圖像生成模型Stable Cascade承諾比其業(yè)界領先的前身Stable Diffusion更快、更強大,而Stable Diffusion是許多其他文本到圖像
    的頭像 發(fā)表于 02-19 16:03 ?960次閱讀
    Stability AI試圖通過新的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>人工智能<b class='flag-5'>模型</b>保持領先地位
    主站蜘蛛池模板: 免费xxx成年大片| 正在播放一区二区| 超大号黑吊magnet| 无限资源在线观看高清| 黑丝美女被人操| 99久久精品费精品蜜臀AV| 色中色论坛网站| 久久www成人看片| 超嫩校花被灌醉在线观看| 亚洲国产中文字幕在线视频| 美女被强奷到抽搐的动态图| 国产极品白嫩超清在线观看| 中文字幕人成人乱码亚洲影视| 日日碰狠狠躁久久躁77777| 久久超碰色中文字幕| 国产成人无码AV麻豆| 99精品国产高清自在线看超| 学生妹被爆插到高潮无遮挡| 欧美区 bt| 免费果冻传媒2021视频| 娇小萝被两个黑人用半米长| 国产AV99激情久久无码天堂| 992交通广播| 曰批视频免费40分钟不要钱| 亚州综合网| 忘忧草下载| 全黄H全肉细节文NP| 免费视频精品38| 乱VODAFONEWIFI熟妇| 精品无人区麻豆乱码无限制| 国产伦精品一区二区三区免费| 爱情岛aqdlttv| GAY空少被体育生开菊| 91热久久免费频精品99欧美| 野花日本大全免费高清完整版| 小夫妻天天恶战| 无人区在线日本高清免费| 手机在线成人精品视频网| 日本吃孕妇奶水免费观看| 秋霞伦理机在线看片| 人与人特黄一级|