联邦学习
探索联邦学习:一种以隐私为中心的 AI 方法,支持跨设备进行去中心化模型训练,而无需共享原始数据。
联邦学习 (FL) 是一种 机器学习 (ML) 技术,它允许多个持有本地数据样本的去中心化设备或服务器训练模型,而无需交换数据本身。这种方法通过将原始数据保留在用户设备上来解决关键的 数据隐私 和安全问题。FL 的工作方式是将全局模型发送到本地设备,而不是将数据汇集到中央服务器进行 模型训练。每个设备都使用自己的数据训练模型,并且只有生成的模型更新(小的、集中的改进)会发送回中央服务器进行聚合。这种协作过程改进了共享的全局模型,而不会泄露用户信息。
联邦学习如何运作
联邦学习过程通常涉及由中央协调服务器编排的重复循环步骤:
- 模型分发: 中央服务器初始化一个全局 AI 模型,例如 神经网络,并将其分发到选定的一组客户端设备(例如,手机或医院计算机)。
- 本地训练: 每个客户端设备都在其本地数据集上训练模型。由于这些数据永远不会离开设备,因此它仍然是私有的。这种本地训练是设备上智能的关键组成部分,通常与 边缘 AI 相关联。
- 更新提交: 在训练几个迭代后,每个客户端将其计算的模型更新(例如梯度或模型权重)发送回中央服务器。这比原始数据本身更小、更安全。
- 安全聚合: 中央服务器聚合来自所有客户端的更新——例如,通过平均它们——以改进全局模型。可以使用诸如安全多方计算之类的技术来确保服务器无法对单个更新进行逆向工程。
- 模型改进: 然后,将改进后的全局模型发送回客户端,以进行下一轮训练。此迭代过程将持续进行,直到模型的性能达到所需的准确率水平。
实际应用
联邦学习不仅仅是一个理论概念,它还为多个主流应用程序提供支持,并正在改变数据敏感性至关重要的行业。
- 智能键盘预测: 像谷歌这样的公司使用联邦学习(FL)来改进移动键盘上的预测文本。您的手机会从您的打字历史记录中学习,以建议下一个单词,并且这些学习内容会作为匿名模型更新共享,从而在您的实际消息永远不会离开您设备的情况下,改进所有用户的预测引擎。
- 协作医疗研究:FL 允许医院和研究机构合作构建强大的诊断模型,用于执行诸如检测肿瘤的医学影像分析等任务。 每家医院都可以在其患者数据上训练共享模型,这些数据受到诸如 HIPAA 等隐私法的保护,而无需将敏感的患者记录暴露给其他机构或中央存储库。 这使得能够创建在各种 数据集 上训练的更强大的模型。
联邦学习 vs. 相关概念
区分联邦学习与其他学习范式非常重要:
- 集中式训练:传统的训练方法,将所有数据收集在一个地方进行训练。FL与之截然相反,专门设计用于避免数据集中化。
- 分布式训练: 此技术也使用多台机器来加速训练,但它假设训练数据存储在中心位置,并且可以在训练节点之间自由分发。相比之下,FL 适用于本质上分散且无法移动的数据。
- 主动学习:此方法侧重于有效地选择要标注的信息量最大的数据点,以降低标注成本。虽然 FL 处理的是训练发生的地点,但主动学习处理的是使用的什么数据。正如本关于主动学习的博客中所讨论的,两者可以结合使用,以进一步提高隐私和效率。
挑战与框架
尽管联邦学习具有优势,但也面临着诸多挑战,例如高昂的通信成本、管理具有不同计算能力(CPU/GPU)的设备,以及处理可能导致模型偏差的非独立同分布(non-IID)数据。该系统还容易受到针对模型更新的对抗性攻击。为了应对这些复杂性,TensorFlow Federated和PySyft等框架应运而生,它们由OpenMined等组织开发。随着技术的成熟,管理整个模型部署和监控生命周期变得至关重要,而 Ultralytics HUB 等平台简化了这一过程。