随着机器学习在社会中变得越来越普遍,我们使用的方法公平、非歧视性,并且从业者意识到数据和他们使用的方法中存在的偏见非常重要。我们强调“公平”一词,因为在机器学习中,没有一个单一的公平概念可以优化,从而捕捉到机器学习模型实际输出方式的所有细微差别。那么AutoML能做什么呢? 我们在AutoML和公平性的交叉点上撰写了一篇博客文章,其中包含完整的论文在此。
为了强调,AutoML可以做到公平性感知,让真正了解他们关心的公平概念的专家来掌控。AutoML系统将人类排除在循环之外,但越来越多的先例表明将人类重新纳入循环,让他们掌握主动权。AutoML如何做到这一点?
多目标和约束优化
AutoML提供了针对多个指标进行优化的工具,例如一些可计算的公平性指标和准确性。这些指标通常是并列的,需要考虑权衡。通过使用约束优化,AutoML可以找到性能良好的模型,达到被认为是良好公平性指标的最低阈值,但它并不能让领域专家真正理解这种权衡。AutoML工具可以提供所谓的帕累托前沿,一组可能的模型,捕捉到这些指标固有的权衡,允许领域专家仔细考虑哪种权衡适合他们的用例。这让领域专家掌握主动权,因为只有他们才能了解模型的下游影响,AutoML无法了解。
AutoML在人脸识别中的公平性应用
我们表明,神经架构搜索和超参数优化可用于发现固有公平且准确的架构。
.
