Enable javascript in your browser for better experience. Need to know to enable it? Go here.
Last updated : May 19, 2020
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
May 2020
试验 ? 值得一试。了解为何要构建这一能力是很重要的。企业应当在风险可控的前提下在项目中尝试应用此项技术。

在过去的一年中,人们对机器学习,尤其是深度神经网络的兴趣发生了转变。到目前为止,人们对各个模型无限潜能的兴奋,驱动了多种工具及技术的发展。然而近期以来,人们越来越担心这些模型可能无意间造成的伤害。例如,模型可以无意中被训练做出有利可图的信用决策,粗暴地排除处于不利地位的申请人。幸运的是, 道德偏见测试 越来越受关注,这将有助于发现潜在的有害决定。limeAI Fairness 360What-If Tool 等工具可以帮助发现训练数据中由少数群体导致的偏差,Google FacetsFacets Dive 等可视化工具可用于发现训练数据集内的子组。除了道德偏见测试,我们还将 lime(local interpretable model-agnostic explanations,局部可知、模型不可知的解释)用于理解机器学习分类器的预测以及分类器(或模型)的功能。

Nov 2019
评估 ? 在了解它将对你的企业产生什么影响的前提下值得探索

在过去的一年,我们已经看到人们对机器学习尤其是深度神经网络的兴趣正在发生变化。到目前为止,这些模型的卓越功能推动了工具和技术上令人兴奋的发展。虽然目前,人们越来越担心这些模型可能会造成意外伤害。例如,一个模型可以经过训练,通过简单地排除弱势申请人,而做出有利可图的信用决策。幸运的是,我们看到人们对道德偏见测试的兴趣与日俱增,这将有助于发现潜在的有害决策。一些工具,例如limeAI Fairness 360或者What-If,可以帮助我们发现一些训练数据和可视化工具中未被充分代表的群体而导致的不准确性。可视化工具中,Google FacetsFacets Dive可以用来发现大量训练数据中的子组。但是,这是一个正在发展的领域,我们期待随着时间的推移,出现针对道德偏见测试的标准和实践。

已发布 : Nov 20, 2019
Radar

下载第25期技术雷达

English | Español | Português | 中文

Radar

获取最新技术洞见

 

立即订阅

查看存档并阅读往期内容