Esplora i fondamenti della regressione lineare e il suo ruolo nell'IA. Scopri come Ultralytics utilizza la regressione per il rilevamento preciso degli oggetti e le coordinate dei riquadri di delimitazione.
La regressione lineare è un metodo statistico fondamentale e un algoritmo di base nell' apprendimento supervisionato utilizzato per modellare la relazione tra una variabile dipendente (target) e una o più variabili indipendenti (caratteristiche). A differenza degli algoritmi di classificazione che prevedono categorie discrete, la regressione lineare prevede un output continuo, rendendola essenziale per compiti in cui l'obiettivo è prevedere valori numerici specifici. La sua semplicità e interpretabilità fungono da porta d'accesso alla comprensione di concetti più complessi di apprendimento automatico (ML), poiché introduce i meccanismi fondamentali di come i modelli apprendono dai dati riducendo al minimo l'errore.
L'obiettivo principale di questa tecnica è trovare la "linea di miglior adattamento" — o un iperpiano in dimensioni superiori — che descriva al meglio il modello dei dati. Per ottenere questo risultato, l'algoritmo calcola una somma ponderata delle caratteristiche di input più un termine di bias. Durante il processo di addestramento, il modello regola in modo iterativo questi parametri interni, noti come pesi weights and biases, per ridurre la discrepanza tra le sue previsioni e la verità di base effettiva.
Questa discrepanza viene quantificata utilizzando una funzione di perdita, con la scelta più comune che è l' errore quadratico medio (MSE). Per ridurre al minimo la perdita in modo efficace, viene utilizzato un algoritmo di ottimizzazione come il gradiente discendente per aggiornare i pesi. Se il modello si allinea troppo strettamente al rumore nei dati di addestramento, rischia di sovradattamento, mentre un modello troppo semplice per cogliere la tendenza sottostante soffre di sottodattamento.
Sebbene spesso associati alla semplice modellazione predittiva nell' analisi dei dati, i principi della regressione lineare sono profondamente radicati nelle architetture avanzate di deep learning (DL).
È importante distinguere questo termine dalla regressione logistica. Sebbene entrambi siano modelli lineari , i loro risultati differiscono in modo significativo. La regressione lineare prevede un valore numerico continuo (ad esempio, il prezzo di un'auto). Al contrario, la regressione logistica viene utilizzata per attività di classificazione, prevedendo la probabilità che un input appartenga a una categoria specifica (ad esempio, se un'e-mail è "spam" o "non spam") passando il risultato lineare attraverso una funzione di attivazione come la funzione sigmoide.
Nel contesto della visione artificiale, quando un modello come YOLO26 rileva un oggetto, le coordinate del riquadro di delimitazione sono il risultato di un'operazione di regressione. Il modello prevede valori continui per individuare l'oggetto con precisione.
from ultralytics import YOLO
# Load the YOLO26 model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
# The model uses regression to determine the exact box placement
results = model("https://ultralytics.com/images/bus.jpg")
# Display the continuous regression outputs (x, y, width, height)
for box in results[0].boxes:
print(f"Box Regression Output (xywh): {box.xywh.numpy()}")
Gli utenti che desiderano addestrare modelli personalizzati che sfruttano queste capacità di regressione per set di dati specializzati possono utilizzare la Ultralytics per l'annotazione semplificata e l'addestramento cloud. La comprensione di questi principi di base della regressione fornisce una solida base per padroneggiare compiti complessi nell'ambito dell' intelligenza artificiale (AI) e della visione artificiale.