软文:
来自谷歌的一组研究人员,与马克斯·普朗克信息学研究所和麻省理工学院CSAIL一起,最近发布了Drag GAN,这是一种用于直观的基于点的图像编辑的交互式方法。这种新方法利用预先训练的GAN来合成图像,这些图像不仅精确地遵循用户输入,而且保持在逼真图像的流形上。
满足用户需求的合成视觉内容通常需要对生成的对象的姿态、形状、表情和布局具有灵活而精确的可控性。现有的方法通过手动注释tag的训练数据或先前的3D模型来实现生成对抗网络(GANs)的可控性,但往往缺乏灵活性、精确性和普适性。在这项工作中,我们研究了一种功能强大但相对较少探索的GAN控制方式,即以用户交互的方式"拖动"图像中的任意点,精确地达到目标点, 我们提出了DragGAN,它包括两个主要组成部分:
1)基于特征的运动监督,驱使控制点向目标位置移动;
2)一种新的点跟踪方法,利用判别性GAN特征来持续定位控制点的位置。通过DragGAN,任何人都可以以精确控制像素位置的方式对图像进行变形,从而操纵动物、汽车、人物、风景等多种类别的姿态、形状、表情和布局。由于这些操作是在GAN的学习生成图像流形上执行的,它们往往可以产生逼真的输出,即使在挑战性场景下,如产生遮挡内容和变形形状,仍能保持对象的刚性。定性和定量的比较结果表明,DragGAN在图像操作和点跟踪任务中相对于先前的方法具有优势。我们还展示了通过GAN反演对真实图像进行操作的示例。
图像AI推展概率演化有点猛 不过视频是被加速的。👍
超强液化涂抹工具
是不是秒杀PS默认组建😁
如果这个GAN可以类似link 这里的集成插件一样操作,那样修图就太有意思了喔。
Stable Diffusion和Dalle-2用来开拓找图
GANs就用来对精选图做二次生成开发
提高工作效率(最低成本下最高的效益投产比🤔)
以后修图可以不求人了😏🙈(坐等大佬)
https://vcai.mpi-inf.mpg.de/projects/DragGAN/
关联reddit抱抱脸github
----------------------
Video is too big
----------------------
via MJJ出征 - Telegram Channel