Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

Aprendizado Federado

Descubra o aprendizado federado: uma abordagem de IA focada na privacidade, que permite o treinamento descentralizado de modelos em dispositivos sem compartilhar dados brutos.

O Federated Learning (FL) é uma técnica de aprendizado de máquina (ML) que permite que os modelos sejam treinados em vários dispositivos ou servidores descentralizados que possuem amostras de dados locais, sem trocar os próprios dados. Essa abordagem aborda questões críticas de privacidade de dados e segurança, mantendo os dados brutos no dispositivo do usuário. Em vez de agrupar os dados em um servidor central para treinamento do modelo, o FL funciona enviando um modelo global para os dispositivos locais. Cada dispositivo treina o modelo com seus próprios dados e apenas as atualizações do modelo resultantes — melhorias pequenas e focadas — são enviadas de volta a um servidor central para serem agregadas. Esse processo colaborativo aprimora o modelo global compartilhado sem comprometer as informações do usuário.

Como funciona o aprendizado federado

O processo de aprendizado federado normalmente envolve um ciclo repetitivo de etapas orquestradas por um servidor central de coordenação:

  1. Distribuição de Modelo: O servidor central inicializa um modelo de IA global, como uma rede neural, e o distribui para uma seleção de dispositivos cliente (por exemplo, telefones celulares ou computadores de hospitais).
  2. Treinamento Local: Cada dispositivo cliente treina o modelo em seu conjunto de dados local. Como esses dados nunca saem do dispositivo, eles permanecem privados. Este treinamento local é um componente chave da inteligência no dispositivo, frequentemente associada à Edge AI.
  3. Atualizar Submissão: Após o treino por algumas iterações, cada cliente envia as suas atualizações de modelo calculadas (como gradientes ou pesos do modelo) de volta para o servidor central. Esta é uma carga muito menor e mais segura do que os dados brutos em si.
  4. Agregação Segura: O servidor central agrega as atualizações de todos os clientes—por exemplo, calculando a média delas—para melhorar o modelo global. Técnicas como computação multipartidária segura podem ser usadas para garantir que o servidor não possa fazer engenharia reversa de atualizações individuais.
  5. Melhoria do Modelo: O modelo global refinado é então enviado de volta aos clientes para a próxima rodada de treinamento. Este processo iterativo continua até que o desempenho do modelo atinja um nível desejado de precisão.

Aplicações no Mundo Real

O Federated Learning não é apenas um conceito teórico; ele alimenta diversas aplicações convencionais e está transformando setores onde a sensibilidade dos dados é fundamental.

  • Previsões Inteligentes do Teclado: Empresas como o Google usam FL para melhorar o texto preditivo em teclados móveis. Seu telefone aprende com seu histórico de digitação para sugerir a próxima palavra, e esses aprendizados são compartilhados como atualizações de modelo anonimizadas para melhorar o mecanismo preditivo para todos os usuários, sem que suas mensagens reais saiam do seu dispositivo.
  • Pesquisa Médica Colaborativa: O FL permite que hospitais e instituições de pesquisa colaborem na construção de modelos de diagnóstico poderosos para tarefas como análise de imagens médicas para detectar tumores. Cada hospital pode treinar um modelo compartilhado em seus dados de pacientes, que são protegidos por leis de privacidade como a HIPAA, sem nunca expor registros confidenciais de pacientes a outras instituições ou a um repositório central. Isso permite a criação de modelos mais robustos treinados em diversos conjuntos de dados.

Federated Learning vs. Conceitos Relacionados

É importante distinguir o FL de outros paradigmas de aprendizado:

  • Treinamento Centralizado: A abordagem tradicional onde todos os dados são coletados em um único local para treinamento. O FL é o oposto direto, projetado especificamente para evitar a centralização de dados.
  • Distributed Training: Esta técnica também usa várias máquinas para acelerar o treinamento, mas assume que os dados de treinamento são armazenados em um local central e podem ser distribuídos livremente entre os nós de treinamento. O FL, em contraste, funciona com dados que são inerentemente descentralizados e não podem ser movidos.
  • Aprendizado Ativo: Este método se concentra em selecionar eficientemente os pontos de dados mais informativos para serem rotulados, a fim de reduzir os custos de anotação. Enquanto o FL lida com onde o treinamento acontece, o aprendizado ativo lida com quais dados são usados. Os dois podem ser combinados para aprimorar ainda mais a privacidade e a eficiência, conforme discutido neste blog sobre Aprendizado Ativo.

Desafios e Estruturas

Apesar de suas vantagens, o FL enfrenta desafios como altos custos de comunicação, gerenciamento de dispositivos com poder computacional variável (CPU/GPU) e tratamento de dados não-IID (não distribuídos de forma idêntica e independente), o que pode enviesar o modelo. O sistema também pode ser vulnerável a ataques adversários que visam atualizações de modelo. Para resolver essas complexidades, foram desenvolvidas estruturas como TensorFlow Federated e PySyft de organizações como a OpenMined. À medida que a tecnologia amadurece, o gerenciamento de todo o implantação do modelo e o ciclo de vida de monitoramento tornam-se cruciais, um processo simplificado por plataformas como o Ultralytics HUB.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência