Technology Radar
Last updated : Oct 26, 2022
NOT ON THE CURRENT EDITION
This blip is not on the current edition of the Radar. If it was on one of the last few editions, it is likely that it is still relevant. If the blip is older, it might no longer be relevant and our assessment might be different today. Unfortunately, we simply don't have the bandwidth to continuously review blips from previous editions of the Radar.
Understand more
Oct 2022
Trial
我们看到许多客户项目正在使用 联邦学习 (ML)。传统上机器学习模型训练时需将数据放在集中运行模型训练算法的地址。在隐私角度上,这存在问题,特别是当训练数据包括敏感或者可用于身份识别信息时;用户也许不愿意分享数据,当地的数据保护法律也可能不允许我们将数据转移至一个中心化的位置。联邦学习是一个去中心化的技术,它使模型可以在大量不同来源的数据集上训练,并让数据保持在远端,例如用户的设备上。尽管网络带宽和设备的算力限制目前仍是这项技术重大的挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。
Nov 2019
Assess
模型训练通常需要从数据源收集大量的数据,并将这些数据传输到集中运行模型训练算法的服务器上。但是如果训练数据集中包括个人身份信息,这就会成为问题。而联邦学习这项技术的出现让我们备受鼓舞。联邦学习是一种隐私保护方法,用于训练大量的,与个人信息相关的各种数据集。联邦学习技术可以让数据保留在用户的设备上,并完全控制在用户的手中,但最终会仍然可以组合成一个整体的训练数据集。在联邦学习中,每个用户设备独立地更新模型。然后将模型的参数(而不是数据本身)组合成一个集中式的视图。尽管网络带宽和设备算力限制会给这项技术带来一些重大的技术挑战,但是我们喜欢联邦学习的思路,让用户可以完全控制自己的个人信息。
Published : Nov 20, 2019