互联网的内容繁杂,一不小心就会看到一些“辣眼睛”的内容,比如裸女,这也是为什么我们需要审核人员的存在。当然,受益于 AI 技术的发展,现在很多审核工作已经自动化了。不过,仅仅识别出来还不够,要是能为她们穿上衣服就更好了。
南大河州天主教大学(Pontifícia Universidade Católica do Rio Grande do Sul)是巴西南大河州的一所天主教私立大學,这里的研究人员为了不让那些裸露的图片污染大众的眼睛煞费苦心,特意开发了一种技术,为裸女们自动“穿”上比基尼。当然,这也是为了她们好,毕竟裸照在网上流传并不是一件好事。
下面,我们就为大家简单介绍下这项工作。
▌摘要
我们可以将裸体和色情信息的审查工作视为二分类任务,分类的结果用于决定是否能够完全忽略所访问的内容。这样的方法可能会损害用户的体验,因为无论是图像还是视频,最终都必须被移除或者阻断。在本文中,我们提出了一种范式转换来过滤掉图像中的一些敏感区域,而不是检测并移除识别的内容,并将其用于成人审查任务。为此,我们基于对抗训练的方法开发了一种图像翻译技术,它能够隐式地定位出图像中的敏感区域,并在保留语义信息的同时覆盖该区域。我们在裸体女性图像上测试这种新颖的方法,我们的方法能够为裸体自动进行生成比基尼并覆盖敏感部位,而不需要额外标注身体部位的工作。
▌方法
我们将敏感内容区域 X 的图像 x (包含女性裸体图像) 翻译到非敏感内容域 Y 的图像 y (包含比基尼女性的图像),这个过程我们在保留敏感区域语义信息的同时,用比基尼覆盖了图像中的敏感区域。此任务所需的数据很容易获得,分别来自图像 X 和 Y 域,且不需要特殊数据标注。我们使用的两个域数据是从网上爬取的,包括裸体女性和穿比基尼女性的照片。我们对结果进行过滤,仅保留单个人出现的图像并将该数据集进一步分为训练和测试集。对于穿比基尼女性 (X),最终有 1044 张训练图像和 117 张测试图像;而对于裸体女性 (Y),最终有 921 张训练图像和 103 张测试图像。
我们提出的方法在图像转换过程无需数据配对,其模型结构如下图 1 所示。该模型的关键思想在于利用对抗性训练的方式来学习域之间的现实映射。具体来说,框架由两个映射生成器组成,G:X → Y 和 F:Y → X 和两个判别器 DX和DY 构成。其中 DX 用于区分真实图像 {x} 和翻译图像 {F (y)} = {^x},而 DY 用于区分真实图像 {y} 和翻译的图像 {G(x)} = {^y}。我们采用了 LSGANs 中的损失函数,它能够更稳定的训练以产生不错的结果表现。为了很好地衡量跨领域图像的相似度,我们还探索了 cycle-consistent 的性质并用于衡量图像翻译结果的质量。
我们的判别器采用标准的多层次卷积滤波结构。除了第一层和最后一层外,我们采用 Leaky ReLU 作为每层卷积的激活函数并进行实例正则化 (instance normalization, IN)。
对于生成器,我们测试了两种流行的结构。首先我们测试了 9-Blocks ResNet 结构的生成器,这种结构由带残余连接的自编码器构成,我们在每层的卷积后采用 ReLU 激活函数和 IN 正则化。此外,我们还采用了 U-Net 256 结构的生成器。U-Net 由一个带残余连接的自动编码器构成,它能够在相同的空间维度上进行残余操作。同样地,我们也采用 IN 正则化,并对编码器采用 Leaky ReLU 激活函数,而解码器采用 ReLU 激活函数。
▌实验结果
我们模型的训练分辨率为 256×256 像素。生成器和判别器都同时采用梯度下降法进行训练,每个训练步骤分别更新 DY,DX,以及 G 和 F 的权重。我们使用 Adam 优化器,学习率为0.0002,β1 = 0.5,β2 = 0.99,并将 cycle consistent 项的权重值设为10。我们的网络以批次 1 重复训练 400 步,学习率随着训练的进行而线性衰减。此外,每 100 秒我们将翻译的图像进行可视化以查看实验结果。
原始数据集的结果
下图 2 展示了我们的方法在原始数据集中的结果。可以看到,与 U-Net 方法 (第三排) 相比,采用 ResNet 作为生成器结构 (第二排) 时始终能够产生更好的结果。
图2:在原始数据集上的训练结果。顶行:真实图像 (手动删除以保护读者)。中间行:使用 9-Blocks esNet 结构的生成器结果。底行:使用 U-Net 256 结构的生成器结果 (产生模糊、令人不满意的结果)。
移除背景后的结果
下图3显示了我们的方法在无背景数据集上的结果。可以看到,这些结果比图2原始数据集中的结果更加一致。基于 ResNet 结构的模型表现更优于 U-Net 结构,它能够通过生成敏感性的图像组件来正确覆盖真实的比基尼区域。 此外,ResNet 结构模型生成的图像失真度更低。
图3:在无背景数据集上的结果。顶行:真实图像 (手动删除以保护读者)。间行:使用9-Blocks esNet 结构的生成器结果。底行:使用 U-Net 256 结构的生成器结果 (产生模糊、令人不满意的结果)。
▌鲁棒性结果分析
图5:鲁棒性分析。左:真实图像;右:由生成器 F 创建的最小修改图。
▌结论
本文我们提出了一种基于对抗训练的图像翻译技术,用于隐式地定位裸体图像中的敏感区域并在保留其语义信息的同时覆盖该区域。我们的方法不需要训练样本的配对工作,在实验验证过程中产生令人印象深刻而又高度逼真的结果,为解决裸体图像审查任务提供了一种新方法。
|