Enable javascript in your browser for better experience. Need to know to enable it? Go here.
更新于 : Oct 26, 2022
Oct 2022
试验 ? 值得一试。了解为何要构建这一能力是很重要的。企业应当在风险可控的前提下在项目中尝试应用此项技术。

我们看到许多客户项目正在使用 联邦学习 (ML)。传统上机器学习模型训练时需将数据放在集中运行模型训练算法的地址。在隐私角度上,这存在问题,特别是当训练数据包括敏感或者可用于身份识别信息时;用户也许不愿意分享数据,当地的数据保护法律也可能不允许我们将数据转移至一个中心化的位置。联邦学习是一个去中心化的技术,它使模型可以在大量不同来源的数据集上训练,并让数据保持在远端,例如用户的设备上。尽管网络带宽和设备的算力限制目前仍是这项技术重大的挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。

Nov 2019
评估 ? 在了解它将对你的企业产生什么影响的前提下值得探索

模型训练通常需要从数据源收集大量的数据,并将这些数据传输到集中运行模型训练算法的服务器上。但是如果训练数据集中包括个人身份信息,这就会成为问题。而联邦学习这项技术的出现让我们备受鼓舞。联邦学习是一种隐私保护方法,用于训练大量的,与个人信息相关的各种数据集。联邦学习技术可以让数据保留在用户的设备上,并完全控制在用户的手中,但最终会仍然可以组合成一个整体的训练数据集。在联邦学习中,每个用户设备独立地更新模型。然后将模型的参数(而不是数据本身)组合成一个集中式的视图。尽管网络带宽和设备算力限制会给这项技术带来一些重大的技术挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。

发布于 : Nov 20, 2019

下载第27期技术雷达

English | Español | Português | 中文

获取最新技术洞见

 

立即订阅

查看存档并阅读往期内容