转载自:极市平台   作者丨Tengfei Wang

来源丨港科大、腾讯 AI Lab

b0e72e82e3453037477b3f4672892d87.png论文:https://arxiv.org/abs/2109.06590

代码:https://github.com/Tengfei-Wang/HFGI

主页:https://tengfei-wang.github.io/HFGI/

视频:https://www.bilibili.com/video/BV1Xq4y1i7ev

只需一张照片,这个AI算法就能按照用户需求快速编辑图像属性,下面是AI脑补出照片微笑的样子:

802c6f5fa8340231980baa111ea57877.png

b6f922bb4786100b6de29430aaa8f35c.gif

d04ae90fabece6249c80b6da1a85a09d.png

50159ffa79f98030b28e1a3401eac94e.gif

171d1f1dd79f1f0529e009f0b87ba89d.png

1d9cf38f29a91161b30b6ba4ed9fbe6c.gif

再也不用担心拍照时把握不住微笑的时机了呢。除了表情,年龄、姿态也可以随心所欲变变变:

5f70e53be6396b4b25d43ab75b1f3c31.png

194b88d341e4e3b17efd849284ca9f1d.gif

f00bb94894eb7bfa79345ad67b6472f2.png

9545f8ea230d17d2799f6e68277b2a5c.gif

而且编辑后的图像可以高保真地保留原图的细节,比如背景、光照、装扮。

再从网络上找几张大家熟悉的名人照片试试,十年后的马斯克,假笑男孩Lecun,还有… … 涂了口红的约翰逊?

440d0b37a1bb2d842dd96886856f5f43.png

该项研究已经被CVPR 2022收录。

一、基于GAN Inversion的高保真图像编辑

GAN inversion技术最近被广泛研究,它可以将一张照片映射到一个GAN生成器的隐空间中,从而利用StyleGAN强大的能力对图片进行编辑。目前的GAN inversion方法分为三类:

  1. 基于编码器(encoder-based) 这类方法编辑图片的速度很快 (每张图 < 1s),但是编辑后的图片会丢掉很多原图中的细节,保真度低。

  2. 基于优化 (optimization-based) 这类方法对每张照片分别迭代,保真度高,但速度很慢(每张图几分钟)。

  3. 混合方法 这类方法先用编码器得到一个初始化的隐变量,然后对每个隐变量优化,速度介于基于第一类和第二类之间 (每张图数十秒至数分钟),但依旧缓慢,影响实用性。

这就导致大家在选择模型的时候需要做出权衡和取舍,是选择更快的速度呢,还是选择更高的保真度呢?对于有选择困难的小伙伴来说,简直太纠结了!

那么,本篇论文是如何选择速度和质量的呢?答案是:全都要。养一只会捕鱼(丢失的细节)的熊(补充编码器),就可以鱼和熊掌一块得到啦。在快速处理(每张图 0.2s)的同时,又能保证编辑后图像的高保真度高质量

二、方法

在介绍算法之前,作者先分析了基于编码器的方法进行重建或者编辑保真度低的原因。这里提到信息论中大名鼎鼎的率失真理论(Rate-Distortion theory),即对于一个编码-解码系统,隐编码(latent code)的bit-rate对重建信号的保真度(重建信号与源信号的distortion)存在限制。

713a867405bd7a4fca004067a7df6eda.png

也就是说,之前的编码器压缩得到的隐编码很小(low-rate),通常是1x512或者18x512,这就会导致在生成器重建过程中必然会损伤掉一些信息,造成较大的distortion,使得重建或者编辑后的图像和原图相比发生失真。

那么,是不是我们直接增大编码器输出隐编码的大小(high-rate),问题就解决了呢?答案是:yes and no。这样做确实可以提升重建图像的保真度,但是我们的目的是对图像进行编辑而不是重建。Low-rate隐编码由于是通过高度压缩的,所以可以编码一些高级、丰富、解耦的语义,这些隐编码在隐空间里通过操控(vector arithmetic)可以方便的编辑图像属性。但对于high-rate隐编码,冗余会造成隐编码耦合,而且编码通常缺乏语义信息(low-level),这就导致图像难以有效编辑。

9a77e183e27b8e5a63bea34317cc0652.png

为了解决这个问题,本文提出了一种名为信息参照(information consultation)的方法,同时利用low-rate和high-rate隐编码。该模型包括两个编码器,基础编码器压缩低率隐编码,用于保证图像的可编辑性;参照编码器对低率重建图像的失真信息进行补充编码,得到一个高率的隐编码,补充丢失的细节信息。

089a09f83fd667ed147dccc15b9b05d5.png

这两部分隐编码在生成器中通过参照融合层(consultation fusion)整合,共同用于图像生成。参照融合层参照下图:

a451109ebb7487940f64b417e87dec4d.png

由于缺少成对的编辑图像进行训练,作者还提出了相应的自监督训练方法以及自适应失真校正模块(ADA)。

三、实验结果

论文提供了人脸和车辆照片上的对比结果。首先是和基于编码的方法的对比:

9a833590a4a0631733a1294286b0e10b.png

然后是和优化方法以及混合方法的对比:

c4652f955b8f7b355aef5b9e9dbd5333.png

以及定量对比:

72e7dd064ec527fcac347a5e7360b164.png

四、更多结果

该方法不仅可以用于图像编辑,也可以用来做视频的编辑,更多结果可以在作者的主页找到:https://tengfei-wang.github.io/HFGI/

e6be4252902a881cc643fbbe7411e103.gif

f677a5502f4f6ebe314e8bf932e2ac92.gif

85c274c5064d6b29cb30fb45f2baec56.gif

7e7ef93980cb6a65157b2bf0861936db.gif

6639d2f169662cf0a4da1da7a2f34282.png

五、在线试玩

这么好玩的方法,想不想用自己或者朋友的照片来体验一下?作者提供了一个online demo,可以自己上传图片或者用摄像头拍照来进行编辑。

在线试玩地址:https://replicate.com/tengfei-wang/hfgi

a9d7415108350e43e3a29186c5193109.png

猜您喜欢:

5eb2f79fe7bbe76255257eac58f86b67.png 戳我,查看GAN的系列专辑~!

一顿午饭外卖,成为CV视觉的前沿弄潮儿!

超110篇!CVPR 2021最全GAN论文汇总梳理!

超100篇!CVPR 2020最全GAN论文梳理汇总!

拆解组新的GAN:解耦表征MixNMatch

StarGAN第2版:多域多样性图像生成

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

《基于深度学习的表面缺陷检测方法综述》

《零样本图像分类综述: 十年进展》

《基于深度神经网络的少样本学习综述》

d2fd32cc2dad2f9ee358a123bb9f1a6c.png

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐