菜单
技术

道德偏见测试

May 2020
试验?

在过去的一年中,人们对机器学习,尤其是深度神经网络的兴趣发生了转变。到目前为止,人们对各个模型无限潜能的兴奋,驱动了多种工具及技术的发展。然而近期以来,人们越来越担心这些模型可能无意间造成的伤害。例如,模型可以无意中被训练做出有利可图的信用决策,粗暴地排除处于不利地位的申请人。幸运的是, 道德偏见测试 越来越受关注,这将有助于发现潜在的有害决定。limeAI Fairness 360What-If Tool 等工具可以帮助发现训练数据中由少数群体导致的偏差,Google FacetsFacets Dive 等可视化工具可用于发现训练数据集内的子组。除了道德偏见测试,我们还将 lime(local interpretable model-agnostic explanations,局部可知、模型不可知的解释)用于理解机器学习分类器的预测以及分类器(或模型)的功能。

Nov 2019
评估?

在过去的一年,我们已经看到人们对机器学习尤其是深度神经网络的兴趣正在发生变化。到目前为止,这些模型的卓越功能推动了工具和技术上令人兴奋的发展。虽然目前,人们越来越担心这些模型可能会造成意外伤害。例如,一个模型可以经过训练,通过简单地排除弱势申请人,而做出有利可图的信用决策。幸运的是,我们看到人们对道德偏见测试的兴趣与日俱增,这将有助于发现潜在的有害决策。一些工具,例如limeAI Fairness 360或者What-If,可以帮助我们发现一些训练数据和可视化工具中未被充分代表的群体而导致的不准确性。可视化工具中,Google FacetsFacets Dive可以用来发现大量训练数据中的子组。但是,这是一个正在发展的领域,我们期待随着时间的推移,出现针对道德偏见测试的标准和实践。