在超参数优化 (HPO) 中,多目标优化是一种强大的方法,旨在在多个相互竞争的目标之间取得和谐的平衡。由于不同的目标通常相互冲突,传统的单目标优化无法捕捉到获得最佳解决方案所需的复杂权衡。多目标优化应运而生,它通过同时考虑多个目标来增强 HPO,例如准确性、计算效率、公平性和模型可解释性。通过采用进化算法和贝叶斯优化等先进算法,多目标 HPO 遍历超参数空间,探索多样化的解决方案,并为决策者提供一套全面的选项。这使研究人员和实践者能够做出明智的选择,发现竞争目标之间的微妙平衡,并为改进与现实世界需求相符的机器学习模型铺平道路。
贝叶斯优化
MO-SMAC 是 SMAC 的一个 MO 版本,用于优化多个目标,并支持多保真度优化
进化算法
MO-DEHB 是 DEHB 的一个扩展,支持多目标和多保真度优化
其他工具
一个用于可视化多次运行中帕累托前沿变化的 Python 包:一个经验达成曲面工具,用于实现对多次运行的不确定性可视化
