菜单
技术

Ethical bias testing

Nov 2019
评估?

在过去的一年,我们已经看到人们对机器学习尤其是深度神经网络的兴趣正在发生变化。到目前为止,这些模型的卓越功能推动了工具和技术上令人兴奋的发展。虽然目前,人们越来越担心这些模型可能会造成意外伤害。例如,一个模型可以经过训练,通过简单地排除弱势申请人,而做出有利可图的信用决策。幸运的是,我们看到人们对道德偏见测试的兴趣与日俱增,这将有助于发现潜在的有害决策。一些工具,例如limeAI Fairness 360或者What-If,可以帮助我们发现一些训练数据和可视化工具中未被充分代表的群体而导致的不准确性。可视化工具中,Google FacetsFacets Dive可以用来发现大量训练数据中的子组。但是,这是一个正在发展的领域,我们期待随着时间的推移,出现针对道德偏见测试的标准和实践。