CV大神何恺明也进军扩散模型啦!这可是计算机视觉领域的一大新闻。何大神的最新研究成果刚刚发布在arXiv上,立刻就引起了广泛关注。他这次的研究可不是小打小闹,而是对扩散模型进行了深度解构,提出了一个超级简洁的新架构——l-DAE。
工作流程就非常简单:输入是一张有噪声的图片,噪声添加在PCA潜空间里。输出是原始的干净图片。
为了让大家更好地理解扩散模型的工作原理,何恺明还特意拿自己的视觉自监督学习代表作MAE来做了对比。这么一比较,扩散模型的内部机制一下子就清晰多了。而且,何大神还发现,在扩散模型中,去噪过程的重要性竟然超过了扩散过程!这可是个意想不到的发现哦。
这次研究工作的阵容也是相当豪华,除了何恺明本人之外,还有纽约大学计算机科学的助理教授、CV领域的另一位大牛谢赛宁也参与了进来。另外,曾经和何恺明一起发表过ConvNeXT工作的刘壮也是这次研究的合著者之一。说起刘壮,他可是DenseNet的共同一作哦!有这么多大咖联手,这篇论文的质量自然是毋庸置疑的。
扩散模型 Denoising Diffusion Models (DDM)
论文地址:https://arxiv.org/pdf/2401.14404.pdf
如果有其他疑问,欢迎朋友关注留言!
论文核心
简单来说,这篇论文告诉我们,DDM可以变得更简单、更高效。通过剔除那些不必要的组件,我们不仅能够让模型更轻便,还能让它更专注于学习图像的本质特征。这就像我们整理房间一样,把杂物清理掉,空间就变得更宽敞、更整洁了。
那么,这个简化版的DDM是怎么工作的呢?它其实很像经典的去噪自动编码器(DAE)。在处理图像时,它会先添加一些噪声,然后通过编码器和解码器的配合,逐步去除这些噪声,最终得到清晰的图像。这个过程就像是我们在拼图游戏中,通过不断试错和调整,最终拼出完整的图案一样。
如果有其他疑问,欢迎朋友关注留言!
我是 李孟聊AI,独立开源软件开发者,SolidUI作者,对于新技术非常感兴趣,专注AI和数据领域,如果对我的文章内容感兴趣,请帮忙关注点赞收藏,谢谢!