英伟达的新技术-称为自适应鉴别器增强(ADA)-使研究人员可以使用有限的数据集来训练AI模型

0
3061
Image 资源: //www.youtube.com/watch?v=nh9oiz3F9ZA&feature=emb_logo

Nvidia引入了一种使用有限数据集训练AI模型的新方法。现在,只需使用一般GAN所需的最少学习材料,它就可以学习复杂的技能,无论是重建癌症组织的图像还是模仿著名画家。

英伟达的研究人员根据大都会艺术博物馆(Metropolitan Museum of Art)的不到1,500张图像重新设计了艺术品。通过对StyleGAN2模型采用独特的神经网络训练技术,使之成为可能。  

StyleGAN2是Nvidia的开源GAN,由两个合作网络组成,一个用于生成合成图像的生成器,另一个用于根据训练数据集学习逼真的照片外观的鉴别器。 StyleGAN2训练了各种AI模型,例如GauGAN–AI绘画应用程序GameGAN–游戏引擎模仿者和GANimal–宠物照片变压器。

自适应鉴别器增强(阿达)技术可将训练图像的数量减少10到20倍,并且仍然可以产生出色的效果。通过创建癌症组织学图像以训练其他AI模型,此方法可以对医疗保健领域做出重大贡献。

//www.youtube.com/watch?v=nh9oiz3F9ZA&feature=emb_logo

与在有限的数据集上训练GAN相关的问题:

多数GAN遵循一个基本原则,即通过使用更多训练数据来创建高效的AI模型。鉴别器通过提供逐像素反馈来指导生成器,以帮助使合成图像更加逼真。但是,如果训练数据有限,则鉴别器无法帮助发生器充分发挥其潜力。 

训练高质量的GAN通常需要50,000至100,000的训练图像。但是,在某些情况下,可能无法收集到手头上的许多样本图像。如果训练数据有限,许多GAN将无法产生现实的结果。这个问题称为过度拟合。当鉴别器保留训练数据并且无法向生成器提供有用的反馈时,就会发生这种情况。

为了解决图像分类中的过拟合问题,研究人员使用了数据增强。此技术使用变形的现有图像副本来扩展较小的数据集,从而推动模型更好地推广。但是,较早尝试将增强应用于GAN训练图像的结果是生成器模仿了这些失真,而不是创建可靠的合成图像。

英伟达的ADA方法可以灵活地应用数据增强 

Nvidia的ADA方法通过调整训练过程中不同点的失真量来解决此问题。使用ADA方法,StyleGAN2神经网络可以从更少的训练图像中学习,从而获得出色的结果。

艺术家使用不同版本的StyleGAN创作了出色的作品,并以著名插画家Osamu Tezuka的著名风格创作了新的漫画。 Adobe还采用​​了它来增强Photoshop的新AI工具“神经过滤器”的功能。

目前,医疗保健中几种罕见疾病(包括癌症)的医学影像大大减少。因此,培训能够帮助医生发现这些罕见疾病的人工智能具有挑战性。研究人员现在可以应用GAN,在这种情况下提取数据既费时又困难。  

可以使用ADA使用GAN创建合成图像,从而为另一个AI模型生成训练数据,该模型可以发现病理图像或MRI研究中的罕见情况。由于没有患者数据或隐私问题,它还使医疗机构更容易轻松共享AI生成的数据。

纸: //arxiv.org/pdf/2006.06676.pdf

Github: //github.com/NVlabs/stylegan2-ada

资源: //blogs.nvidia.com/blog/2020/12/07/neurips-research-limited-data-gan

广告deeplearning.ai与一名学习者的深度学习专业化横幅,戴着眼镜在笔记本电脑上。

发表评论

请输入您的评论!
请在这里输入您的名字

该网站使用Akismet减少垃圾邮件。 了解如何处理您的评论数据.