您的位置:首页>商业观察网 > 频道 > 财经 >

GAN“泰裤辣”,DragGAN点点鼠标就能让狮子开口,未开源已破8k star

声明:本文来自于微信公众号 OSC开源社区(ID:oschina2013),作者:OSC开源社区,授权站长之家转载发布。

先来看一段最近在网上非常火的视频:

视频展示了一项最新的AI 技术——用户只需拖拽图片中的像素点和方向即可实现精确控制,从而对图片进行局部微调。


(资料图片仅供参考)

看到如此“神一般的操作”,国外科技大V直言 Photoshop “寄了”:

这项称作「DragGAN」的技术与最近火热的大语言模型无关,它是来自 Google 的研究人员与 Max Planck 信息学研究所和麻省理工学院 CSAIL 一起打造的新模型。

从名字来看 (Drag Your GAN),其本质上是为各种 GAN 开发的一种交互式图像操作方法。

GAN 是生成对抗网络 (Generative Adversarial Networks) 的缩写,是深度学习中一种重要的方法。GAN 由两个神经网络组成,分别是生成器 (Generator) 和判别器 (Discriminator)。这两个网络相互对抗,同时也在相互学习,因此得名"对抗"。

在一个典型的 GAN 训练过程中,生成器的目标是生成尽可能真实的假样本,以欺骗判别器,而判别器的目标是识别出这些由生成器生成的假样本。这个过程类似于警察与伪钞制作者的博弈:伪钞制作者尽可能地制造真实的伪钞,而警察则尽可能地去识别这些伪钞。

这个对抗过程会导致生成器生成的样本越来越逼真,判别器对真假样本的判别能力也越来越强。这种模型已经在很多领域取得了成功,包括图像生成、超分辨率、图像修复等。

可以看到,这款基于 DragGAN 的工具能够非常直观地实现图像编辑,用户只需要控制图像中的像素点和方向,就可以让图像变形。

如下面的 GIF 图所示。一句话总结:DragGAN 可以让用户快速调整照片主体的位置、姿态、表情、大小和角度等。

如今文本转图像的工具已经非常多了,但你输入的提示词跟你最终想要的图像并不一定能够完全一致,可能在大小、角度等各个方面存在一些偏差

DragGAN 真正有趣的地方在于,它不仅可以生成逼真的图像,还可以灵活和精确地控制图像

与之前的许多方法相比,DragGAN 的研究人员通过不依赖领域特定的建模或辅助网络,提出了一个通用框架。

为了实现这一点,DragGAN 包含两个主要组成部分:

基于特征的运动监督,引导手柄点向目标位置移动;

以及一种新的点追踪方法,利用判别生成器特征来定位手柄点的位置。

DragGAN 模型提供了一个明确的解决方案。界面与传统图像变形的方法相同,但与简单地模糊和涂抹现有像素不同,该模型的变形在 GAN 学习的图像流形上进行,会重新生成对象

正如研究人员所写:“我们的方法可以产生遮挡内容的“幻象”,比如狮子嘴里的牙齿,也可以根据对象的刚性进行变形,比如马腿的弯曲。”

研究人员表示,他们的方法在基于 GAN 的操作中优于 SOTA,并为图像编辑开辟了新方向。在接下来的几个月里,他们希望将基于点的编辑扩展到3D 生成模型。

据称该项目的代码将在6月开源,目前其在 GitHub 上的 star 数量已超过8K。

参考链接

https://vcai.mpi-inf.mpg.de/projects/DragGAN/

https://vcai.mpi-inf.mpg.de/projects/DragGAN/data/paper.pdf

https://github.com/XingangPan/DragGAN

(举报)

关键词:

热门资讯

文章排行

图片新闻