发表时间:2021(ICML 2021)
文章要点:这篇文章就是在网络结构的准确率和训练速度之间trade off。NAS的逻辑就是搜一个网络结构出来,然后就测这个结构在数据集上train出来准确率能到多少,然后基于之前的结构和准确率再接着搜下一个网络。这里面如果每次都要重新train网络的话就会很慢,于是就有了one-shot NAS。one-shot NAS思路就是我先train一个supernetwork,然后之后搜索出来的网络结构通过这个supernetwork来预测,具体就是mask掉一些边来变成那个搜出来的网络结构,然后得出准确率。虽然免去了训练的开销,但是这个显然是非常不准确的(co-adaption)。然后这篇文章就说,那我们就搞个few-shot NAS,train多个supernetwork来做这个事情(In this paper, we propose few-shot NAS that uses multiple supernetworks, called sub-supernet, each covering different regions of the search space to alleviate the undesired co-adaption)。
总结:这篇文章感觉就是疯狂做实验。
疑问:其实有一个问题一直没想明白,如果supernetwork可以拿来预测各种结构的准确率,而且速度也快的话,为啥不直接把这些结构都遍历一遍直接用supernetwork来预测了,还NAS干啥?我看文章中这个搜索空间一共就1296个结构,遍历一遍应该没问题吧。如果以后真的有很大的搜索空间,不能遍历的话,感觉要train这个supernetwork好像也不现实啊。有点矛盾的感觉。
Few-shot Neural Architecture Search
转载上一篇:Learning Search Space Partition for Black-box Optimization using Monte Carlo Tree Search
下一篇:Difference Based Metrics for Deep Reinforcement Learning Algorithms

-
ES6的Object.fromEntries()和Object.hasOwn()
Object.fromEntries()方法是Object.entries()的逆操作,用于将一个键值对数组转为对象。
键值对 Object.hasOwn() Object.fromEntries -
Few-Shot Learning
Few-Shot Learning
特征向量 归一化 数据集 -
few-shot / one shot / zero shot object counting论文汇总
Meta AI最近发布了“分段任何东西模型”别是对于小的和拥挤的对象。
人工智能 深度学习 sed 数据集 github -
zero、one、few-shot
few-shot样本数量
人工智能 Powered by 金山文档 数据 -
Few-shot Learning进展调研
小样本学习主要研究如何通过少量样本学习识别模型。目前学术界普遍研究的是N-way-K-shot问...
python 计算机视觉 神经网络 机器学习 人工智能 -
Zero-shot Learning / One-shot Learning / Few-shot Learning
在 迁移学习 中,由于传统深度学习的 学习能力弱,往往需要 海量数据 和 反为: Zero-shot ...
one-shot learning zero-shot learnig 海量数据 深度学习 泛化 -
论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML)
论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML) 通常的,元学习可以
元学习 meta-learning few-shot 最小化 初始模型 -
瑞斯康达5800 添加 vlan
设置计算机配置中的脚本 <?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" /> 实验目的: 在网吧经常可以看见,用户登陆的时候,电脑会跳出一个脚本。欢迎光临**网吧! 通过设置组策略中
瑞斯康达5800 添加 vlan 操作系统 xml microsoft 计算机配置