Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Apprendimento Federato

Scopri il federated learning: un approccio di IA incentrato sulla privacy che consente l'addestramento decentralizzato dei modelli su diversi dispositivi senza condividere dati grezzi.

Il Federated Learning (FL) è una tecnica di machine learning (ML) che consente di addestrare modelli su più dispositivi o server decentralizzati che detengono campioni di dati locali, senza scambiare i dati stessi. Questo approccio affronta le principali problematiche di privacy dei dati e sicurezza mantenendo i dati grezzi sul dispositivo dell'utente. Invece di raggruppare i dati in un server centrale per l'addestramento del modello, il FL funziona inviando un modello globale ai dispositivi locali. Ogni dispositivo addestra il modello con i propri dati e solo gli aggiornamenti del modello risultanti, ovvero piccoli miglioramenti mirati, vengono rispediti a un server centrale per essere aggregati. Questo processo collaborativo migliora il modello globale condiviso senza compromettere le informazioni dell'utente.

Come funziona il Federated Learning?

Il processo di federated learning in genere prevede un ciclo ripetuto di passaggi orchestrati da un server centrale di coordinamento:

  1. Distribuzione del Modello: Il server centrale inizializza un modello di IA globale, come una rete neurale, e lo distribuisce a una selezione di dispositivi client (ad esempio, telefoni cellulari o computer ospedalieri).
  2. Addestramento locale: Ogni dispositivo client addestra il modello sul proprio set di dati locale. Poiché questi dati non lasciano mai il dispositivo, rimangono privati. Questo addestramento locale è un componente chiave dell'intelligenza on-device, spesso associata all'Edge AI.
  3. Invio dell'aggiornamento: Dopo l'addestramento per alcune iterazioni, ogni client invia i suoi aggiornamenti del modello calcolati (come gradienti o pesi del modello) al server centrale. Questo è un payload molto più piccolo e sicuro rispetto ai dati grezzi stessi.
  4. Aggregazione Sicura: Il server centrale aggrega gli aggiornamenti da tutti i client, ad esempio calcolandone la media, per migliorare il modello globale. Tecniche come il calcolo multipartitico sicuro possono essere utilizzate per garantire che il server non possa decodificare i singoli aggiornamenti.
  5. Miglioramento del Modello: Il modello globale perfezionato viene quindi rispedito ai client per il successivo ciclo di training. Questo processo iterativo continua fino a quando le prestazioni del modello non raggiungono il livello di accuratezza desiderato.

Applicazioni nel mondo reale

Il Federated Learning non è solo un concetto teorico; alimenta diverse applicazioni tradizionali e sta trasformando i settori in cui la sensibilità dei dati è fondamentale.

  • Predizioni intelligenti della tastiera: Aziende come Google utilizzano il FL per migliorare il testo predittivo sulle tastiere mobili. Il tuo telefono impara dalla tua cronologia di digitazione per suggerire la parola successiva e questi apprendimenti vengono condivisi come aggiornamenti anonimi del modello per migliorare il motore predittivo per tutti gli utenti senza che i tuoi messaggi effettivi lascino mai il tuo dispositivo.
  • Ricerca medica collaborativa: FL consente a ospedali e istituti di ricerca di collaborare alla creazione di modelli diagnostici potenti per attività come l'analisi di immagini mediche per rilevare tumori. Ogni ospedale può addestrare un modello condiviso sui dati dei propri pazienti, protetti da leggi sulla privacy come HIPAA, senza mai esporre cartelle cliniche sensibili ad altre istituzioni o a un repository centrale. Ciò consente la creazione di modelli più robusti addestrati su diversi set di dati.

Federated Learning vs. Concetti correlati

È importante distinguere il FL da altri paradigmi di apprendimento:

  • Training centralizzato: L'approccio tradizionale in cui tutti i dati vengono raccolti in un unico luogo per il training. FL è l'esatto opposto, progettato specificamente per evitare la centralizzazione dei dati.
  • Addestramento Distribuito (Distributed Training): Questa tecnica utilizza anche più macchine per accelerare l'addestramento, ma presuppone che i dati di addestramento siano archiviati in una posizione centrale e possano essere liberamente distribuiti tra i nodi di addestramento. L'FL, al contrario, funziona con dati che sono intrinsecamente decentralizzati e non possono essere spostati.
  • Active Learning: Questo metodo si concentra sulla selezione efficiente dei punti dati più informativi da etichettare per ridurre i costi di annotazione. Mentre l'FL si occupa di dove avviene l'addestramento, l'active learning si occupa di quali dati vengono utilizzati. I due possono essere combinati per migliorare ulteriormente la privacy e l'efficienza, come discusso in questo blog sull'Active Learning.

Sfide e Framework

Nonostante i suoi vantaggi, il FL affronta sfide come gli elevati costi di comunicazione, la gestione di dispositivi con diversa potenza di calcolo (CPU/GPU) e la gestione di dati non-IID (non distribuiti in modo identico e indipendente), che possono distorcere il modello. Il sistema può anche essere vulnerabile ad attacchi avversari che prendono di mira gli aggiornamenti del modello. Per affrontare queste complessità, sono stati sviluppati framework come TensorFlow Federated e PySyft da organizzazioni come OpenMined. Con la maturazione della tecnologia, la gestione dell'intero ciclo di vita della distribuzione del modello e del monitoraggio diventa cruciale, un processo semplificato da piattaforme come Ultralytics HUB.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti