联邦学习 (FL) 是一种机器学习方法,模型在去中心化的设备或服务器上进行训练,而无需传输原始数据。 这种方法特别适用于数据隐私、法规遵从性或带宽限制使得集中式训练不切实际的场景。 以下是 FL 的三个实际应用示例,重点介绍它们的工作原理和技术优势。
医疗保健:协作肿瘤检测 在医学研究中,FL 使医院能够在不共享敏感记录的情况下训练患者数据模型。 例如,医疗保健 AI 公司 Owkin 与医院合作以提高癌症检测率。 每家医院都在本地使用自己的影像数据(例如,MRI 或组织病理学切片)训练模型,并且仅将模型更新(而非患者数据)发送到中央服务器。 服务器聚合这些更新以创建全局模型,然后重新分发以进行进一步训练。 这种方法避免了违反 GDPR 或 HIPAA 法规,同时允许较小的机构为强大的模型做出贡献。 开发人员可以使用 TensorFlow Federated 或 PyTorch 的 Substra 等框架来实现类似的系统,从而确保数据保留在本地。
智能手机键盘:设备端个性化 谷歌的 Gboard 使用 FL 来改进输入建议,而无需上传用户击键。 当您键入时,您的手机会在本地训练一个轻量级模型,以预测您的下一个单词。 只有模型更新(例如,权重调整)会被发送到谷歌的服务器,并在那里与来自数百万其他设备的更新相结合。 这在保留隐私的同时提高了自动更正和建议的准确性。 苹果公司对 Siri 采用了类似的方法,其中语音数据保留在设备上。 对于开发人员而言,这需要设计可以在边缘设备上高效运行的模型(例如,使用量化),并实施安全的聚合协议来合并更新,而不会暴露个人贡献。
工业物联网:预测性维护 西门子等制造商使用 FL 来预测工厂设备的故障。 每个工厂都在本地根据机械的传感器数据(例如,温度、振动)训练模型。 模型更新会被聚合以创建全局预测性维护模型,该模型可以识别指示潜在故障的模式。 这样可以避免将大量传感器数据传输到中央服务器,从而降低延迟和带宽成本。 从事类似系统开发的开发人员通常使用与边缘兼容的框架,例如 NVIDIA 的 Clara 或 OpenFL,从而确保模型可以在计算资源有限的工业硬件上运行。 FL 还允许具有不同数据分布的工厂(例如,不同类型的机器)为共享模型做出贡献,而不会损害专有数据。
这些示例突出了 FL 在解决无法集中数据的实际问题中的实用性。 通过专注于隐私保护协作、高效的边缘计算和安全聚合,开发人员可以使 FL 适应不同的领域,而无需彻底修改现有基础设施。