作為我的論文《基于分辨率的GAN插值用于域間的可控圖像合成》的一部分,我使用浮世繪人臉圖像的數據集來訓練StyleGAN模型,本文包含該數據集的鏈接和該數據集的詳細信息。
更新
V2 - 刪除了28張質量不好的圖像(對準不良或沒有正面)。
V1 - 最初發行的版本,被使用在與分辨率相關的GAN插值的論文中,用于域之間的可控圖像合成。
數據集 浮世繪人臉數據集包含來自浮世繪照片的5209張臉部圖像。圖像像素為1024x1024、jpeg格式,并已根據FFHQ數據集所使用的過程進行對齊。上面是數據集中(幾乎)所有圖像的地圖,對圖像進行了繪制,以使相似的面孔看起來靠近在一起[2]。為了便于顯示, 圖像已縮小為256x256。 細節 圖片是從數個博物館網站上下載來的,然后我使用Amazon Rekognition嘗試從每個圖片中檢測面部和面部標志。Rekognition在這兩個任務上都做得很合理,但是顯然并不完美,很多面部都被遺漏了,并且許多圖像中都存在對齊錯誤。同時,許多圖像的分辨率並不是很高,因此為了生成1024x1024分辨率的可用數據集,我使用了在Manga109數據集上訓練的預訓練的ESRGAN [3]模型來按需放大圖像,盡管這些圖像會留下一些瑕疵,但大體上的結果還是不錯的。 其他數據集
KaoKore是浮世繪人臉的另一個數據集[4],它具有更多的多樣性和標簽,但是圖像分辨率較低且人臉未對齊。 許可和使用 此數據集是根據``知識共享署名-相同方式共享4.0國際許可證''提供的。 如果使用數據集,請引用為“Aligned ukiyo-e faces dataset, Justin Pinkney 2020”或一個bibtex條目:
1. Pinkney, Justin N. M., and Doron Adler. ‘Resolution Dependent GAN Interpolation for Controllable Image Synthesis Between Domains’. ArXiv:2010.05334[Cs, Eess], 20 October 2020.http://arxiv.org/abs/2010.05334. 2. 為了生成此圖像,我首先使用在Imagenet上預訓練的ResNet50從每個圖像中提取CNN的特征。然后使用UMAP將這些高維特征向量投影到二維,最后使用lapjv算法完成網格劃分。 3. Wang, Xintao, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Chen Change Loy, Yu Qiao, and Xiaoou Tang. ‘ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks’. ArXiv:1809.00219[Cs], 1 September 2018.http://arxiv.org/abs/1809.00219. 4. Tian, Yingtao, Chikahiko Suzuki, Tarin Clanuwat, Mikel Bober-Irizar, Alex Lamb, and Asanobu Kitamoto. ‘KaoKore: A Pre-Modern Japanese Art Facial Expression Dataset’. ArXiv:2002.08595[Cs, Stat], 20 February 2020.http://arxiv.org/abs/2002.08595.
責任編輯:lq
-
圖像
+關注
關注
2文章
1083瀏覽量
40449 -
分辨率
+關注
關注
2文章
1058瀏覽量
41922 -
數據集
+關注
關注
4文章
1208瀏覽量
24689
原文標題:Ukiyo-e faces dataset 浮世繪面孔數據集
文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論