On Formalizing Fairness in Prediction with Machine Learning

公平的定义和衡量标准
文献中提出了几种公平的定义,但还没有形成明确的共识。然而,这些定义可以用作在ML测试中检测违反公平性的预言。
 
为了帮助说明ML公平性的形式化,我们使用X表示一组个体,Y表示在对X中的每个个体进行决策时的真实标签集。设h是训练好的机器学习预测模型。设A为敏感属性集,Z为剩余属性。
 
1)Fairness Through Unawareness 无意识公平。无意识公平(FTU)意味着只要在决策过程中没有明确使用受保护的属性,算法就是公平的[206]。这是一种成本相对较低的界定和确保公平的方式。然而,有时X中的非敏感属性可能包含与敏感属性相关的信息,从而可能导致歧视。排除敏感属性还可能影响模型精度并产生较不有效的预测结果。
 
2)Group Fairness 群体公平。 如果基于敏感属性选择的组具有相等的决策结果概率,则被测模型具有组公平性。有几种类型的群体公平。
 
 
5)个性化公平Preference-based fairness  如果预测因子H对所有组的益处至少和预测因子H'一样多,那么与另一个预测因子H'相比,预测因子H具有优先影响。