摘要

本发明公开了一种基于生成对抗网络的双驱动人脸属性编辑方法,其特点是采用基于标签和参考图像的双驱动网络结构,使用共享的编码器将att-(diff)、原图片、参考图片和噪声融合到隐空间,最后通过SPADE的方式加入对抗生成网络的中间层,而且在隐空间添加双驱动间的插值约束,还利用修改后的att-(diff)创建损失函数对假图和原图进行约束,训练一个生成对抗网络,实现对人脸图片中各个属性的可控编辑。本发明与现有技术相比具有对人脸属性进行可控编辑,方法简便,生成图的质量高,属性准确率高,有效的解决了双驱动模型生图质量低和属性编辑准确率低的问题。