最近用文本來引導圖像編輯取得了非常大的進展以及關注度,特別是基于去噪擴散模型如 StableDiffusion 或者 DALLE 等。但是基于 GAN 的文本 - 圖像編輯依舊有一些問題等待解決,例如經典的 StyleCILP 中針對每一個文本必須要訓練一個模型,這種單文本對單模型的方式在實際應用中是不方便的。
本文我們提出 FFCLIP 并解決了這個問題,針對靈活的不同文本輸入,FFCLIP 只需要一個模型就能夠對圖片進行相應的編輯,無需針對每個文本重新訓練模型,并且在多個數據集上都取得了非常不錯的效果。
論文簡要概述
利用文本對圖像進行編輯的相關研究非常火熱,最近許多研究都基于去噪擴散模型來提升效果而少有學者繼續關注 GAN 的相關研究。本文基于經典的 StyleGAN 和 CLIP 并提出語義調制模塊,從而對不同的文本僅需要單個模型就可以進行文本 - 圖像編輯。
本文首先利用已有的編碼器將需要編輯的圖像轉換到 StyleGAN 的 語義空間中的潛在編碼 w,再通過提出的語義調制模塊對該隱編碼進行自適應的調制。該語義調制模塊包括語義對齊和語義注入模塊,首先通過注意力機制對齊文本編碼和 GAN 的隱編碼之間的語義,再將文本信息注入到對齊后的隱編碼中,從而保證該隱編碼擁有文本信息從而達到利用文本編輯圖像能力。 不同于經典的 StyleCLIP 模型,我們的模型無需對每個文本單獨訓練一個模型,一個模型就可以響應多個文本從而對圖像做有效的編輯,所以我們的模型成為 FFCLIP-Free Form Text-Driven Image Manipulation。同時我們的模型在經典的教堂,人臉以及汽車數據集上都取得了非常不錯的效果。
論文鏈接:
https://arxiv.org/pdf/2210.07883.pdf
代碼鏈接:
https://github.com/KumapowerLIU/FFCLIP
背景和啟示最近,描述用戶意圖的自由文本提示已被用于編輯 StyleGAN 潛在空間以進行圖像編輯操作 [1、2]。一句話(例如,‘Blue’)或短語(例如,‘Man aged 10’)作為輸入,這些方法通過調制 StyleGAN 潛在空間中的潛在編碼來相應地編輯所描述的圖像屬性。 精確的文本 - 圖像編輯依賴于 StyleGAN 的視覺語義空間與 CLIP 的文本語義空間之間的精確潛在映射。比如當文本提示是 “驚喜”,我們首先在視覺語義空間中識別其相關的語義子空間(即 “表情”,因為驚喜屬于表情這個屬性)。找到與文本相對應的語義子空間后,文本會告訴我們隱編碼的變化方向,從讓隱編碼從當前的表情變化到驚喜的表情。 TediGAN [1] 和 StyleCLIP [2] 等開創性研究憑經驗預先定義了哪個潛在視覺子空間對應于目標文本提示嵌入(即 TediGAN 中的特定屬性選擇和 StyleCLIP 中的分組映射)。這種經驗識別限制了給定一個文本提示,他們必須訓練相應的編輯模型。 不同的文本提示需要不同的模型來調制 StyleGAN 的潛在視覺子空間中的潛在代碼。雖然 StyleCLIP 中的全局方向方法沒有采用這樣的過程,但參數調整和編輯方向是手動預定義的。為此,我們有理由來探索如何通過顯性的文本自動的找到隱性的視覺語義子空間,從而達到單個模型就可以應對多個文本。 在這篇論文中,我們提出了 FFCLIP-Free Form CLIP,它可以針對不同的文本自動找到相對應視覺子空間。FFCLIP 由幾個語義調制模塊組成,這些語義調制模塊把 StyleGAN 潛在空間 中的潛在編碼 和文本編碼 e 作為輸入。 語義調制模塊由一個語義對齊模塊和一個語義注入模塊組成。語義對齊模塊將文本編碼 e 作為 query,將潛在編碼 w 作為 key 和 Value。然后我們分別在 position 和 channel 維度上計算交叉注意力,從而得到兩個注意力圖。 接著我們使用線性變換將當前的視覺空間轉換到與文本對應的子空間,其中線性變換參數(即平移和縮放參數)是基于這兩個注意力圖計算的。通過這種對齊方式,我們可以自動的為每個文本找到相應的視覺子空間。最后,語義注入模塊 [3] 通過之后的另一個線性變換修改子空間中的潛在代碼。 從 FFCLIP 的角度來看,[1, 2] 中子空間經驗選擇是我們在語義對齊模塊中線性變換的一種特殊形式。他們的組選擇操作類似于我們的縮放參數的二進制值,以指示 w 的每個位置維度的用法。另一方面,我們觀察到 空間的語義仍然存在糾纏的現象,經驗設計無法找到 StyleGAN 的潛在空間和 CLIP 的文本語義空間之間的精確映射。 相反,我們的語義對齊模塊中的縮放參數自適應地修改潛在代碼 w 以映射不同的文本提示嵌入。然后通過我們的平移參數進一步改進對齊方式。我們在基準數據集上評估我們的方法,并將 FFCLIP 與最先進的方法進行比較。結果表明,FFCLIP 在傳達用戶意圖的同時能夠生成更加合理的內容。
FFCLIP
圖 1 所展示的就是我們的整體框架。FFCLIP 首先通過預訓練好的 GAN inversion 編碼器和文本編碼器得到圖像和文本的潛在編碼,其中圖像的潛在編碼則是之前提到的 StyleGAN 視覺語義空間 中的 w,而文本編碼則是 。我們和 StyleCLIP 一樣采用 e4e GAN inversion 編碼器 [4] 和 CLIP 中的文本編碼器來分別得到相應的潛在編碼。接著我們將 和 w 作為調制模塊的輸入并輸出得到 w 的偏移量 ,最后將 與原始的 w 相加并放入預訓練好的 StyleGAN 中得到相應的結果。
▲圖1. 整體框架圖
下圖二就是我們的語義調制模塊。在語義對齊模塊中(Semantic Alignment),我們可以清晰地看到我們將 設置為 Key 和 Value 并將 設置為 Query 來計算兩個注意力圖,這兩個注意力圖的大小分別是 18×1 以及 512×512。接著我們將 18×1 的注意力圖當作線性變換中縮放系數 S,我們計算該注意力圖的過程如下:
同時我們將 512×512 的注意力圖與 Value 相乘以后再經過 Pooling 操作得到顯性變換中的平移系數 T。我們計算該注意力圖的過程如下:
擁有了平移和縮放系數后,我們就可以通過線性變換為當前文本找到相對應的視覺子空間,計算步驟如下:
其中 是我們第 i 個語義調制模塊的輸出結果。由于 的大小是 18×512,所以 18×1 和 512×512 的注意力圖分別是在 的 position 和 channel 兩個維度上進行注意力圖的計算,這個操作類似于 Dual Attention [5]。
▲圖2. 語義調制模塊 我們通過以上的操作可以得到與文本對應的視覺子空間,緊接著我們采用類似 AdaIN 的方式,將文本信息注入到這個空間中,從而得到最后的結果,我們稱這個操作為語義注入模塊(Semantic Injection)。整個模塊的實現步驟如下:
最終我們的 FFCLIP 中一共堆疊了 4 個語義調制模塊,并最終得到最后的偏移量 。
實驗結果
▲圖3. 視覺對比圖
如圖 3 所示,我們與 StyleCLIP [1],TediGAN [2] 以及 HairCLIP [3] 進行了視覺上的對比:可以看到 FFCLIP 能夠更好的反應文本的語義,并且生成更加真實的編輯圖像。同時相對應的數值對比結果如下表所示,我們的方法無論是在客觀數值還是在主觀數值上都能取得最好的效果。
▲表1.數值對比
同時我們的方法還展現出了非好的魯棒性,FFCLIP 在訓練中并未見過詞的組合而是用單個的單詞進行訓練,但是在測試中能夠很好的針對詞組的語義對圖像進行編輯,視覺效果如圖 4 所示。
▲圖4. 詞組編輯
更多的實驗結果和消融實驗請看原文。
總結我們在本文中提出了 FFCLIP,一種可以針對不同文本但只需要單個模型就能進行有效圖像編輯的新方法。本文動機是現有方法是根據已有的經驗來匹配當前文本和 GAN 的語義子空間,因此一個編輯模型只能處理一個文本提示。我們通過對齊和注入的語義調制來改進潛在映射。它有利于一個編輯模型來處理多個文本提示。多個數據集的實驗表明我們的 FFCLIP 有效地產生語義相關和視覺逼真的結果。
審核編輯 :李倩
-
圖像
+關注
關注
2文章
1085瀏覽量
40486 -
模型
+關注
關注
1文章
3254瀏覽量
48876 -
文本
+關注
關注
0文章
118瀏覽量
17087
原文標題:NIPS 2022 | 文本圖片編輯新范式:單個模型實現多文本引導圖像編輯
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論