当前位置:静雅生活网 > 数码百科 >

10 年研究积累,推动图像合成进入「PS」时代

导读:选自 zentralwerkstatt.org  作者:Fabian offer  机器之心编译  编辑:袁铭怿  今年大火的图像合成方向已走过十年。  2022 年已经接

  选自 zentralwerkstatt.org

  作者:Fabian offer

  机器之心编译

  编辑:袁铭怿

  今年大火的图像合成方向已走过十年。

  2022 年已经接近尾声。深度学习模型在生成图像方面的表现愈发出色,显然,未来该模型还将继续发展。今天的局面是如何一步步发展而来的呢?这得追溯到十年前,也就是当今所说的 "AI 之夏 " 的起源。下文以时间轴的形式追溯了一些里程碑,从论文、架构、模型、数据集到实验。

  Hacker News 评论中有人指出,Hinton 等人的深度信念网早在 2006 年就被用于生成合成 MNIST 数字,参见深度信念网的快速学习算法 。

  Durk Kingma 让我注意到变分自动编码器 ( VAEs ) 稍微先于 GANs,参见自动编码变分贝叶斯和这些早期结果在野外标记面部数据集。

  @Merzmensch 在推特上强调了 DeepDream 的重要性,它可以被视为一种原始生成方法,对于图像合成的艺术方面。参见 inception: 深入神经网络。

  起源 ( 2012-2015 )

  一旦知道深度神经网络将彻底改变图像分类,研究人员就开始朝着 " 相反 " 的方向探索:如果可以使用一些能有效分类的技术 ( 例如卷积层 ) 来制作图像呢?

10 年研究积累,推动图像合成进入「PS」时代

  Hello world!这是 GAN 生成的人脸样本,来自 Goodfellow 等人 2014 年的论文。该模型是在 Toronto Faces 数据集上训练的,该数据集已从网络上删除。

  2012 年 12 月:"AI 之夏 " 的开始。Hinton 等人撰写的《ImageNet Classification with Deep Convolutional Neural Networks》一文发布,他们第一次将深度卷积神经网络 ( CNN ) 、GPU 和来自互联网的大型数据集 ( ImageNet ) 结合在一起。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf

  2014 年 12 月:Ian Goodfellow 等人发表了《Generative Adversarial Nets》。GAN 是 2012 年之后第一个致力于图像合成而非分析的现代神经网络架构。它引入了一种基于博弈论的独特学习方法,其中两个子网络 —— " 生成器 " 和 " 鉴别器 " 互相竞争。最终,只有 " 生成器 " 从系统中保留下来,用于图像合成。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接 https://proceedings.neurips.cc/paper/2014/file/5ca3e9b122f61f8f06494c97b1afccf3-Paper.pdf

  2015 年 11 月:《Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks》发表,描述了第一个实际可用的 GAN 体系结构 ( DCGAN ) ,并且首次提出了潜在空间操纵的问题 —— 概念是否映射到潜在空间方向?

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/1511.06434.pdf

  GAN 的五年(2015-2020)

10 年研究积累,推动图像合成进入「PS」时代

  Mario Klingenmann 所作《路人回忆 I》,2018 年。培根式的脸是这一领域 AI 艺术的典型,生成模型的非摄影现实主义是艺术探索的焦点。

  GAN 可以应用于各种图像处理任务,如风格迁移,图像修复,去噪和超分辨率。与此同时,GAN 的艺术实验开始兴起,Mike Tyka、Mario Klingenmann、Anna Ridler、Helena Sarin 等人的第一批作品相继出现。2018 年发生了第一桩 " 人工智能艺术 " 丑闻 —— 三名法国学生借用一位美国 19 岁高中毕业学生开源的 AI 算法创作的画作在佳士得拍卖行拍得 43 万美元。与此同时, transformer 架构彻底改变了 NLP,并且在不久的将来对图像合成产生了重大影响。

  2017 年 6 月:文章《Attention is all you need》发表。transformer 架构 ( 以 BERT 等预训练模型的形式 ) 彻底改变了自然语言处理 ( NLP ) 领域。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/1706.03762.pdf

  2018 年 7 月:文章《Conceptual Captions: A Cleaned, Hypernymed, Image Alt-text Dataset For Automatic Image Captioning》发表。对于后来的 CLIP 和 DALL-E 这样的模型来说,这篇文章和其他多模态数据集将变得至关重要。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://aclanthology.org/P18-1238.pdf

10 年研究积累,推动图像合成进入「PS」时代

  该面孔来自 thispersondoesnotexist.com 网站。2010 年代后期 GAN 架构的质量主要是在对齐的人脸图像上进行评估,而对于更异构的数据集,其成功程度有限。因此,在学术 / 工业和艺术实验中,人物面孔仍是重要参照依据。

  2018 年 - 2020 年:NVIDIA 研究人员对 GAN 架构进行了一系列重要改进。GAN 生成的图像第一次做到与自然图像高度相似,至少对于像 Flickr-Faces-HQ ( FFHQ ) 这样高度优化的数据集来说是如此。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/1812.04948.pdf

  2020 年 12 月:文章《Taming Transformers for High-Resolution Image Synthesis》发布。Vision transformer ( ViT ) 表明,transformer 架构可以用于图像。本文中提出的方法 —— VQGAN 取得了 SOTA 结果。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/2012.09841.pdf

  Transformer 时代(2020-2022)

  Transformer 架构彻底变革了图像合成的方式,GAN 的使用也逐渐开始减少。「多模态」深度学习巩固了来自 NLP 和计算机视觉的技术,「prompt 工程」取代了模型训练和微调,成为图像合成的新兴方法。

  论文《Learning transferable visual models from natural language supervision》提出了 CLIP 架构,引入了多模态功能,推动了当前图像合成的热潮。

10 年研究积累,推动图像合成进入「PS」时代

  CLIP 是一种结合了视觉 transformer 和正则化 transformer 的多模态模型,学习图像和文本描述的「共享潜在空间」。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/2103.00020.pdf

  2021 年 1 月,论文《Zero-shot text-to-image generation》发布,其中提出了 DALL-E 的第一个版本。该模型的原理是在单个数据流中组合文本和图像(被 VAE 压缩为「token」),模型只是简单地「续写句子」。训练数据(250M 图像)包括来自 Wikipedia、Conceptual Captions 和 YFCM100M ( http://projects.dfki.uni-kl.de/yfcc100m/ ) 的文本 - 图像对。CLIP 为图像合成的「多模态」方法奠定了基础。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/2102.12092.pdf

  下图是 DALL-E 2 模型的一个生成例子,文本描述是「一个金发女人的肖像照片,用单反相机拍摄,中性背景,高分辨率」。

10 年研究积累,推动图像合成进入「PS」时代

  2021 年 6 月,论文《Diffusion models beat GANs on image synthesis》发表。扩散模型引入了一种不同于 GAN 的图像合成方法,从噪声中重建图像。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/abs/2105.05233

  2021 年 7 月,DALL-E mini ( https://huggingface.co/spaces/dalle-mini/dalle-mini ) 发布,它是 DALL-E 的复制版本(比 DALL-E 更小,但对架构和数据的调整很少)。

10 年研究积累,推动图像合成进入「PS」时代

  2022 年 4 月,论文《Hierarchical text-conditional image generation with CLIP latents》提出了以 GLIDE 为基础的 DALL-E 2。

10 年研究积累,推动图像合成进入「PS」时代

  论文链接:https://arxiv.org/pdf/2204.06125.pdf

  2022 年 5 月,论文《Photorealistic text-to-image diffusion models with deep language understanding ( https://arxiv.org/pdf/2205.11487.pdf ) 》提出了 Imagegen 和 Parti,这是谷歌对标 DALL-E 2 的两个模型。

  论文链接:https://arxiv.org/pdf/2206.10789.pdf

  Photoshop 一般的人工智能 ( 2022 至今 )

  虽然 DALL-E 2 为图像模型设置了一个新的标准,但它的商业化限制了模型的创造性。虽然 DALL-E 2 已经发布,但大部分用户仍在继续使用 DALL-E mini。

  而这一切随着 Stable Diffusion 的发布发生了改变,Stable Diffusion 标志着图像合成进入「Photoshop 时代」。

  2022 年 8 月,Stability.ai 发布了 Stable Diffusion,这个模型可以实现与 DALL-E 2 相同的照片真实感,最重要的是该模型公开可用,并且可以在 CoLab 和 Huggingface 平台上运行。

  下图是 Stable Diffusion 生成的巴洛克风格的艺术画作:

10 年研究积累,推动图像合成进入「PS」时代

  谷歌也不甘落后,也是在 2022 年 8 月,谷歌发布了一种「个性化」的文本到图像扩散模型 —— DreamBooth。

10 年研究积累,推动图像合成进入「PS」时代

  论文地址:https://arxiv.org/pdf/2208.12242.pdf

  2022 年 10 月,全球最大图片交易商 Shutterstock 宣布与 OpenAI 合作,提供 / 授权生成图像,预计图片市场将受到 Stable Diffusion 等生成模型的严重影响。

  原文链接:https://zentralwerkstatt.org/blog/ten-years-of-image-synthesis

   THE END

  转载请联系本公众号获得授权

  投稿或寻求报道:content@jiqizhixin.com

版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/74969.html,如需转载,请注明出处!

联系我们

在线咨询:点击这里给我发消息

微信号:weixin888

工作日:9:30-18:30,节假日休息