Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

LightGBM

Entdecken Sie LightGBM, das schnelle, effiziente Gradient Boosting Framework für große Datensätze, das eine hohe Genauigkeit in Machine-Learning-Anwendungen liefert.

LightGBM, was für Light Gradient Boosting Machine steht, ist ein leistungsstarkes Open-Source Gradient Boosting Framework, das von Microsoft entwickelt wurde. Es ist auf Geschwindigkeit und Effizienz ausgelegt und somit eine ausgezeichnete Wahl für Machine Learning (ML)-Aufgaben, die große Datensätze beinhalten und schnelle Trainingszeiten erfordern. Basierend auf Entscheidungsbaumalgorithmen verwendet LightGBM eine neuartige blattweise Baumwachstumsstrategie, die es ihm ermöglicht, viel schneller zu konvergieren als andere Boosting-Algorithmen. Seine Effizienz bei der Handhabung von Big Data hat es zu einem beliebten Werkzeug sowohl in Industrieanwendungen als auch in Data-Science-Wettbewerben gemacht.

Wie LightGBM eine hohe Leistung erzielt

Die Geschwindigkeit und der geringe Speicherverbrauch von LightGBM sind auf mehrere wichtige Innovationen zurückzuführen, die es von anderen Gradient Boosting Methoden unterscheiden. Diese Techniken arbeiten zusammen, um den Trainingsprozess zu optimieren, ohne die Genauigkeit zu beeinträchtigen.

  • Blattweises Baumwachstum: Im Gegensatz zu traditionellen Algorithmen, die Bäume Ebene für Ebene wachsen lassen, lässt LightGBM sie Blatt für Blatt wachsen. Es wählt das Blatt mit dem maximalen Delta-Verlust aus, um es wachsen zu lassen, was es dem Modell ermöglicht, schneller zu konvergieren und oft zu einem geringeren Verlust für die gleiche Anzahl von Iterationen führt.
  • Gradient-based One-Side Sampling (GOSS): Diese Methode konzentriert sich auf Dateninstanzen mit größeren Gradienten (d. h. solche, die schlecht vorhergesagt werden). Sie behält alle Instanzen mit großen Gradienten bei und zieht zufällig Stichproben aus solchen mit kleinen Gradienten, wodurch ein Gleichgewicht zwischen Genauigkeit und Trainingsgeschwindigkeit erreicht wird.
  • Exclusive Feature Bundling (EFB): Um mit hochdimensionalen, spärlichen Daten umzugehen, bündelt EFB sich gegenseitig ausschließende Features. Diese Bündelung reduziert die Anzahl der berücksichtigten Features, was den Modelltrainings-Prozess erheblich beschleunigt.

Für einen tiefergehenden technischen Einblick bietet das originale LightGBM-Forschungsdokument umfassende Details zu seiner Architektur und seinen Algorithmen.

Anwendungsfälle in der Praxis

Die Stärken von LightGBM machen es für verschiedene Anwendungen geeignet, die strukturierte oder tabellarische Daten beinhalten.

  1. Betrugserkennung: Im Finanzsektor kann LightGBM schnell Millionen von Transaktionsdatensätzen verarbeiten, um subtile Muster zu identifizieren, die auf betrügerische Aktivitäten in nahezu Echtzeit hindeuten. Seine Geschwindigkeit ist entscheidend für ein rechtzeitiges Eingreifen, und Betrugserkennungssysteme profitieren stark von seiner Effizienz im Bereich KI im Finanzwesen.
  2. Predictive Maintenance: KI in der Fertigung verwendet LightGBM, um Sensordaten von Maschinen zu analysieren. Durch das Training mit historischen Daten zur Anlagenleistung und zu Ausfällen kann das Modell potenzielle Ausfälle vorhersagen, bevor sie auftreten, wodurch eine proaktive Wartung ermöglicht und Ausfallzeiten reduziert werden. Sie können mehr über die Kernkonzepte von Predictive Maintenance erfahren.

Weitere gängige Anwendungen sind die Vorhersage von Kundenabwanderung, Empfehlungssysteme, die Vorhersage von Click-Through-Raten und das Kredit-Scoring. Seine Leistung hat es zu einer beliebten Wahl bei Data-Science-Wettbewerben gemacht, wie z. B. denen, die auf Kaggle veranstaltet werden.

LightGBM im Vergleich zu anderen Modellen

LightGBM gehört zu einer Familie von Gradient Boosting Modellen und sollte von anderen Arten von ML-Modellen unterschieden werden.

  • Vergleich mit XGBoost und CatBoost: LightGBM wird oft mit XGBoost und CatBoost verglichen, da alle drei leistungsstarke Gradient-Boosting-Bibliotheken sind. Der Hauptunterschied liegt im Baumwachstumsalgorithmus; das blattweise Wachstum von LightGBM ist in der Regel schneller als das stufenweise Wachstum von XGBoost. CatBoost zeichnet sich durch die integrierte Verarbeitung kategorialer Merkmale aus, während LightGBM und XGBoost oft eine Vorverarbeitung für solche Daten erfordern. Die Wahl zwischen ihnen hängt oft von dem spezifischen Datensatz und den Leistungsanforderungen ab.
  • Vergleich mit Deep-Learning-Modellen: Während LightGBM sich durch tabellarische Daten für klassische ML-Aufgaben auszeichnet, unterscheidet es sich von Modellen wie Ultralytics YOLO. YOLO-Modelle sind spezialisierte Deep-Learning (DL)-Architekturen, die für Computer Vision (CV)-Aufgaben wie Objekterkennung, Bildklassifizierung und Bildsegmentierung auf unstrukturierten Bild- oder Videodaten ausgelegt sind. Plattformen wie Ultralytics HUB erleichtern die Entwicklung und den Einsatz solcher fortschrittlichen CV-Modelle. LightGBM bleibt ein wichtiges Werkzeug für strukturierte Datenprobleme, bei denen Geschwindigkeit und Effizienz bei großen Datensätzen von größter Bedeutung sind. Sie können die offizielle LightGBM-Dokumentation einsehen, um mit der Implementierung zu beginnen.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert