Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Federated Learning

Entdecken Sie Federated Learning: ein datenschutzorientierter KI-Ansatz, der dezentrales Modelltraining über verschiedene Geräte hinweg ermöglicht, ohne Rohdaten auszutauschen.

Federated Learning (FL) ist eine Technik des maschinellen Lernens (ML), die es ermöglicht, Modelle über mehrere dezentrale Geräte oder Server zu trainieren, die lokale Datenbeispiele enthalten, ohne die Daten selbst auszutauschen. Dieser Ansatz berücksichtigt kritische Aspekte des Datenschutzes und der Datensicherheit, indem Rohdaten auf dem Gerät des Benutzers verbleiben. Anstatt Daten in einem zentralen Server für das Modelltraining zu bündeln, sendet FL ein globales Modell an lokale Geräte. Jedes Gerät trainiert das Modell mit seinen eigenen Daten, und nur die daraus resultierenden Modellaktualisierungen – kleine, fokussierte Verbesserungen – werden an einen zentralen Server zurückgesendet, um aggregiert zu werden. Dieser kollaborative Prozess verbessert das gemeinsam genutzte globale Modell, ohne die Benutzerinformationen zu gefährden.

Wie Federated Learning funktioniert

Der Federated-Learning-Prozess umfasst typischerweise einen sich wiederholenden Zyklus von Schritten, die von einem zentralen Koordinierungsserver gesteuert werden:

  1. Modellverteilung: Der zentrale Server initialisiert ein globales KI-Modell, z. B. ein neuronales Netzwerk, und verteilt es an eine Auswahl von Client-Geräten (z. B. Mobiltelefone oder Krankenhauscomputer).
  2. Lokales Training: Jedes Client-Gerät trainiert das Modell mit seinem lokalen Datensatz. Da diese Daten das Gerät nie verlassen, bleiben sie privat. Dieses lokale Training ist eine Schlüsselkomponente der On-Device-Intelligenz, die oft mit Edge AI in Verbindung gebracht wird.
  3. Update Submission (Aktualisierungsübermittlung): Nach dem Training für einige Iterationen sendet jeder Client seine berechneten Modellaktualisierungen (wie z. B. Gradienten oder Modellgewichte) zurück an den zentralen Server. Dies ist eine viel kleinere und sicherere Nutzlast als die Rohdaten selbst.
  4. Sichere Aggregation: Der zentrale Server aggregiert die Aktualisierungen von allen Clients—zum Beispiel durch Mittelung—, um das globale Modell zu verbessern. Techniken wie Secure Multiparty Computation können verwendet werden, um sicherzustellen, dass der Server einzelne Aktualisierungen nicht rekonstruieren kann.
  5. Modellverbesserung: Das verfeinerte globale Modell wird dann zur nächsten Trainingsrunde an die Clients zurückgesendet. Dieser iterative Prozess wird fortgesetzt, bis die Leistung des Modells ein gewünschtes Maß an Genauigkeit erreicht.

Anwendungsfälle in der Praxis

Federated Learning ist nicht nur ein theoretisches Konzept; es treibt mehrere Mainstream-Anwendungen an und verändert Branchen, in denen Datenvertraulichkeit von größter Bedeutung ist.

  • Smart Keyboard Predictions: Unternehmen wie Google verwenden FL, um die Textvorhersage auf mobilen Tastaturen zu verbessern. Ihr Telefon lernt aus Ihrem Tippverlauf, um das nächste Wort vorzuschlagen, und diese Erkenntnisse werden als anonymisierte Modellaktualisierungen weitergegeben, um die Vorhersage-Engine für alle Benutzer zu verbessern, ohne dass Ihre tatsächlichen Nachrichten jemals Ihr Gerät verlassen.
  • Kollaborative medizinische Forschung: FL ermöglicht es Krankenhäusern und Forschungseinrichtungen, gemeinsam leistungsstarke Diagnosemodelle für Aufgaben wie die medizinische Bildanalyse zur Erkennung von Tumoren zu entwickeln. Jedes Krankenhaus kann ein gemeinsames Modell mit seinen Patientendaten trainieren, die durch Datenschutzgesetze wie HIPAA geschützt sind, ohne sensible Patientendaten an andere Institutionen oder ein zentrales Repository weiterzugeben. Dies ermöglicht die Erstellung robusterer Modelle, die mit verschiedenen Datensätzen trainiert wurden.

Federated Learning vs. verwandte Konzepte

Es ist wichtig, Federated Learning (FL) von anderen Lernparadigmen zu unterscheiden:

  • Zentralisiertes Training: Der traditionelle Ansatz, bei dem alle Daten an einem Ort für das Training gesammelt werden. Föderiertes Lernen (FL) ist das direkte Gegenteil und wurde speziell entwickelt, um die Zentralisierung von Daten zu vermeiden.
  • Verteiltes Training: Diese Technik verwendet ebenfalls mehrere Maschinen, um das Training zu beschleunigen, geht aber davon aus, dass die Trainingsdaten an einem zentralen Ort gespeichert sind und frei auf die Trainingsknoten verteilt werden können. FL hingegen arbeitet mit Daten, die von Natur aus dezentralisiert sind und nicht verschoben werden können.
  • Aktives Lernen: Diese Methode konzentriert sich auf die effiziente Auswahl der informativsten Datenpunkte, die zur Reduzierung der Annotationskosten gelabelt werden sollen. Während sich FL damit beschäftigt, wo das Training stattfindet, befasst sich Active Learning damit, welche Daten verwendet werden. Die beiden können kombiniert werden, um die Privatsphäre und Effizienz weiter zu verbessern, wie in diesem Blog über Active Learning erläutert wird.

Herausforderungen und Frameworks

Trotz seiner Vorteile steht FL vor Herausforderungen wie hohen Kommunikationskosten, der Verwaltung von Geräten mit unterschiedlicher Rechenleistung (CPU/GPU) und dem Umgang mit Non-IID-Daten (nicht identisch und unabhängig verteilt), was das Modell verzerren kann. Das System kann auch anfällig für Adversarial Attacks sein, die auf Modellaktualisierungen abzielen. Um diese Komplexität zu bewältigen, wurden Frameworks wie TensorFlow Federated und PySyft von Organisationen wie OpenMined entwickelt. Mit zunehmender Reife der Technologie wird die Verwaltung des gesamten Lebenszyklus der Modellbereitstellung und -überwachung entscheidend, ein Prozess, der durch Plattformen wie Ultralytics HUB vereinfacht wird.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert