AutoML.org

弗莱堡-汉诺威-图宾根

神经网络架构搜索

神经网络架构搜索 (NAS) 自动化了神经网络架构设计的过程。NAS 方法优化网络的拓扑结构,包括如何连接节点以及选择哪些操作符。用户定义的优化指标可以包括准确性、模型大小或推理时间,以获得特定应用的最佳架构。由于搜索空间极其庞大,传统的基于进化或强化学习的 AutoML 算法往往计算成本高昂。因此,近期关于该主题的研究侧重于探索更高效的 NAS 方法。特别是,最近开发的基于梯度和多保真度方法为这些方向的研究提供了有前景的途径并推动了研究进展。我们团队一直积极开发最先进的 NAS 方法,并走在推动 NAS 研究前沿。我们总结了我们团队最近发布的一些重要工作 –

精选 NAS 论文

文献综述

NAS 是 AutoML 蓬勃发展的子领域之一,论文数量正在迅速增加。为了提供近期趋势的全面概述,我们提供以下资源:

一次性 NAS 方法

神经网络架构的元学习

神经集成搜索

联合 NAS 和超参数优化

多目标 NAS

特定应用的 NAS

NAS 方法的大规模研究

我们的博客

另请查看有关相关工作的博客文章