Entdecken Sie die Grundlagen der linearen Regression und ihre Rolle in der KI. Erfahren Sie, wie Ultralytics Regression für die präzise Objekterkennung und die Koordinaten von Begrenzungsrahmen nutzt.
Die lineare Regression ist eine grundlegende statistische Methode und ein grundlegender Algorithmus im überwachten Lernen, der zur Modellierung der Beziehung zwischen einer abhängigen Variablen (Ziel) und einer oder mehreren unabhängigen Variablen (Merkmale) verwendet wird. Im Gegensatz zu Klassifizierungsalgorithmen, die diskrete Kategorien vorhersagen, prognostiziert die lineare Regression eine kontinuierliche Ausgabe, was sie für Aufgaben, bei denen das Ziel darin besteht, bestimmte numerische Werte vorherzusagen, unverzichtbar macht. Ihre Einfachheit und Interpretierbarkeit dienen als Einstieg zum Verständnis komplexerer Konzepte des maschinellen Lernens (ML), da sie die Kernmechanismen vorstellt, mit denen Modelle aus Daten lernen, indem sie Fehler minimieren.
Das Hauptziel dieser Technik besteht darin, die „beste Anpassungslinie“ – oder eine Hyperfläche in höheren Dimensionen – zu finden, die das Datenmuster am besten beschreibt. Um dies zu erreichen, berechnet der Algorithmus eine gewichtete Summe der Eingabemerkmale zuzüglich eines Bias-Terms. Während des Trainingsprozesses passt das Modell diese internen Parameter, die als Gewichte und Bias bezeichnet werden, iterativ an weights and biases, um die Diskrepanz zwischen seinen Vorhersagen und der tatsächlichen Grundwahrheit zu verringern.
Diese Diskrepanz wird mithilfe einer Verlustfunktion quantifiziert, wobei die häufigste Wahl der mittlere quadratische Fehler (MSE) ist. Um den Verlust effektiv zu minimieren, wird ein Optimierungsalgorithmus wie die Gradientenabstiegsmethode verwendet, um die Gewichte zu aktualisieren. Wenn das Modell zu stark an das Rauschen in den Trainingsdaten angepasst ist, besteht die Gefahr einer Überanpassung, während ein Modell, das zu einfach ist, um den zugrunde liegenden Trend zu erfassen, unter einer Unteranpassung leidet.
Obwohl sie oft mit einfachen Vorhersagemodellen in der Datenanalyse in Verbindung gebracht werden, sind die Prinzipien der linearen Regression tief in fortschrittlichen Deep-Learning-Architekturen (DL) verankert.
Es ist wichtig, diesen Begriff von der logistischen Regression zu unterscheiden. Obwohl beide lineare Modelle sind, unterscheiden sich ihre Ergebnisse erheblich. Die lineare Regression sagt einen kontinuierlichen numerischen Wert voraus (z. B. den Preis eines Autos). Im Gegensatz dazu wird die logistische Regression für Klassifizierungsaufgaben verwendet und sagt die Wahrscheinlichkeit voraus, dass eine Eingabe zu einer bestimmten Kategorie gehört (z. B. ob eine E-Mail „Spam” oder „kein Spam” ist), indem die lineare Ausgabe durch eine Aktivierungsfunktion wie die Sigmoid-Funktion geleitet wird.
Wenn im Kontext der Computervision ein Modell wie YOLO26 ein Objekt erkennt, sind die Koordinaten des Begrenzungsrahmens das Ergebnis einer Regressionsaufgabe. Das Modell sagt kontinuierliche Werte voraus, um das Objekt präzise zu lokalisieren.
from ultralytics import YOLO
# Load the YOLO26 model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
# The model uses regression to determine the exact box placement
results = model("https://ultralytics.com/images/bus.jpg")
# Display the continuous regression outputs (x, y, width, height)
for box in results[0].boxes:
print(f"Box Regression Output (xywh): {box.xywh.numpy()}")
Benutzer, die benutzerdefinierte Modelle trainieren möchten, die diese Regressionsfunktionen für spezielle Datensätze nutzen, können die Ultralytics für optimierte Annotation und Cloud-Training verwenden. Das Verständnis dieser grundlegenden Regressionsprinzipien bildet eine solide Grundlage für die Bewältigung komplexer Aufgaben in den Bereichen künstliche Intelligenz (KI) und Computervision.