Glosario

Aprendizaje federado

Descubra el aprendizaje federado: un enfoque de IA centrado en la privacidad que permite el entrenamiento descentralizado de modelos a través de dispositivos sin compartir datos brutos.

El aprendizaje federado (FL) es una técnica de aprendizaje automático (ML) que permite entrenar modelos a través de múltiples dispositivos o servidores descentralizados que contienen muestras de datos locales, sin intercambiar los datos en sí. Este enfoque aborda problemas críticos de privacidad y seguridad de los datos al mantener los datos en bruto en el dispositivo del usuario. En lugar de agrupar los datos en un servidor central para el entrenamiento del modelo, FL funciona enviando un modelo global a los dispositivos locales. Cada dispositivo entrena el modelo con sus propios datos, y sólo las actualizaciones resultantes del modelo -pequeñas mejoras específicas- se envían al servidor central para su agregación. Este proceso colaborativo mejora el modelo global compartido sin comprometer la información del usuario.

Cómo funciona el aprendizaje federado

El proceso de aprendizaje federado suele implicar un ciclo repetitivo de pasos orquestados por un servidor central de coordinación:

  1. Distribución de modelos: El servidor central inicializa un modelo global de IA, como una red neuronal, y lo distribuye a una selección de dispositivos cliente (por ejemplo, teléfonos móviles u ordenadores de hospitales).
  2. Entrenamiento local: Cada dispositivo cliente entrena el modelo en su conjunto de datos local. Como estos datos nunca salen del dispositivo, siguen siendo privados. Este entrenamiento local es un componente clave de la inteligencia en el dispositivo, a menudo asociada con Edge AI.
  3. Envío de actualizaciones: Después de entrenar durante algunas iteraciones, cada cliente envía las actualizaciones de su modelo calculado (como gradientes o pesos del modelo) al servidor central. Se trata de una carga útil mucho más pequeña y segura que los propios datos en bruto.
  4. Agregación segura: El servidor central agrega las actualizaciones de todos los clientes -por ejemplo, promediándolas- para mejorar el modelo global. Pueden utilizarse técnicas como el cálculo multipartito seguro para garantizar que el servidor no pueda aplicar ingeniería inversa a las actualizaciones individuales.
  5. Mejora del modelo: El modelo global perfeccionado se envía de nuevo a los clientes para la siguiente ronda de entrenamiento. Este proceso iterativo continúa hasta que el rendimiento del modelo alcanza el nivel de precisión deseado.

Aplicaciones reales

El aprendizaje federado no es sólo un concepto teórico; impulsa varias aplicaciones de uso generalizado y está transformando sectores en los que la sensibilidad de los datos es primordial.

  • Predicciones para teclados inteligentes: Empresas como Google utilizan FL para mejorar el texto predictivo en los teclados de los móviles. Tu teléfono aprende de tu historial de escritura para sugerirte la siguiente palabra, y estos aprendizajes se comparten como actualizaciones anonimizadas del modelo para mejorar el motor predictivo para todos los usuarios sin que tus mensajes reales salgan nunca de tu dispositivo.
  • Investigación médica colaborativa: FL permite a hospitales e institutos de investigación colaborar en la creación de potentes modelos de diagnóstico para tareas como el análisis de imágenes médicas para detectar tumores. Cada hospital puede entrenar un modelo compartido con los datos de sus pacientes, protegidos por leyes de protección de la intimidad como la HIPAA, sin exponer nunca los historiales sensibles de los pacientes a otras instituciones o a un repositorio central. Esto permite crear modelos más robustos entrenados en diversos conjuntos de datos.

Aprendizaje federado frente a conceptos afines

Es importante distinguir la FL de otros paradigmas de aprendizaje:

  • Formación centralizada: El enfoque tradicional en el que todos los datos se recogen en un solo lugar para la formación. FL es directamente lo contrario, diseñado específicamente para evitar la centralización de datos.
  • Formación distribuida: Esta técnica también utiliza varias máquinas para acelerar el entrenamiento, pero supone que los datos de entrenamiento se almacenan en una ubicación central y pueden distribuirse libremente entre los nodos de entrenamiento. FL, en cambio, trabaja con datos que están intrínsecamente descentralizados y no pueden moverse.
  • Aprendizaje activo: Este método se centra en la selección eficaz de los puntos de datos más informativos que deben etiquetarse para reducir los costes de anotación. Mientras que FL se ocupa de dónde tiene lugar la formación, el aprendizaje activo se ocupa de qué datos se utilizan. Ambos pueden combinarse para mejorar aún más la privacidad y la eficiencia, como se explica en este blog sobre aprendizaje activo.

Retos y marcos

A pesar de sus ventajas, FL se enfrenta a retos como los elevados costes de comunicación, la gestión de dispositivos con distinta potencia de cálculo(CPU/GPU) y el manejo de datos no IID (no distribuidos de forma idéntica e independiente), que pueden sesgar el modelo. El sistema también puede ser vulnerable a ataques de adversarios dirigidos contra las actualizaciones del modelo. Para abordar estas complejidades, se han desarrollado marcos como TensorFlow Federated y PySyft de organizaciones como OpenMined. A medida que la tecnología madura, la gestión de todo el ciclo de vida de despliegue y monitorización del modelo se vuelve crucial, un proceso simplificado por plataformas como Ultralytics HUB.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles