GAN作为近几年深度学习的大坑以其优雅的理论和惊艳的效果而大火,并且生成模型 GAN 成为机器学习领域里最为重要的发展方向之一。但这类算法需要消耗巨量算力,大多数研究者已经很难得出新成果,并且这一方向颇有被大型机构垄断的趋势。
近日,来自麻省理工学院(MIT)、Adobe、上海交通大学的研究者提出了一种用于压缩条件 GAN 的通用方法。这一新技术在保持视觉保真度的同时,将 pix2pix,CycleGAN 和 GauGAN 等广泛使用的条件 GAN 模型的计算量是普通模型的9-21倍。该方法适用于多种生成器架构、学习目标,配对或非配对设置。
通用条件GAN压缩框架的PyTorch实现已发布。
目前该研究的论文已被 CVPR 2020 大会收录,有关 GAN 压缩框架的 PyTorch 版实现也于已开源。
项目链接:https://github.com/mit-han-lab/gan-compression