Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Apprendimento semi-supervisionato

Scopri come l'apprendimento semi-supervisionato combina dati etichettati e non etichettati per aumentare la precisione del modello. Impara a implementare flussi di lavoro SSL utilizzando Ultralytics .

L'apprendimento semi-supervisionato (SSL) è un paradigma strategico nell' apprendimento automatico (ML) che funge da ponte tra due metodi di formazione tradizionali. Mentre l' apprendimento supervisionato si basa interamente su set di dati completamente annotati e l' apprendimento non supervisionato cerca di trovare modelli nei dati senza alcun tag, l'SSL opera combinando una piccola quantità di dati etichettati con un pool significativamente più ampio di dati non etichettati. Questo approccio è particolarmente prezioso negli scenari reali di visione artificiale (CV) in cui la raccolta di immagini grezze, come filmati provenienti da telecamere di sicurezza o satelliti, è relativamente economica, ma il processo di etichettatura dei dati da parte di esperti umani è costoso, lento e laborioso. Utilizzando in modo efficace la struttura nascosta negli esempi non etichettati, SSL può migliorare significativamente l'accuratezza e la generalizzazione del modello senza richiedere un budget di annotazione esaustivo.

Meccanismi fondamentali dell'apprendimento semi-supervisionato

L'obiettivo principale dell'SSL è quello di propagare le informazioni contenute nel piccolo insieme di esempi etichettati all'insieme più ampio non etichettato. Ciò consente alla rete neurale di apprendere i confini decisionali che attraversano le regioni a bassa densità dei dati, con conseguente classificazione o rilevamento più robusto.

Due tecniche molto diffuse guidano la maggior parte dei flussi di lavoro semi-supervisionati:

  • Pseudo-etichettatura: in questo metodo, un modello viene prima addestrato sui dati etichettati limitati. Viene quindi utilizzato per eseguire l'inferenza sui dati non etichettati. Le previsioni che superano una specifica soglia di confidenza vengono trattate come "pseudo-etichette" o verità di base. Queste previsioni affidabili vengono aggiunte ai dati di addestramento e il modello viene riaddestrato, migliorando iterativamente le sue prestazioni.
  • Regolarizzazione della coerenza: questa tecnica si basa sull' aumento dei dati. L'idea è che un modello dovrebbe fornire previsioni simili per un'immagine e una versione leggermente modificata (aumentata) della stessa immagine. Riducendo al minimo la differenza nelle previsioni tra la versione originale e quella aumentata, il modello impara a concentrarsi sulle caratteristiche principali dell'oggetto piuttosto che sul rumore, migliorando la sua capacità di gestire l' overfitting.

Implementazione pratica con YOLO

Il seguente Python mostra un semplice flusso di lavoro di pseudo-etichettatura utilizzando ultralytics . Qui, addestriamo un modello YOLO26 su un piccolo set di dati e poi lo utilizziamo per generare etichette per una directory di immagini non etichettate.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train initially on a small available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on unlabeled data to generate pseudo-labels
# Setting save_txt=True saves the detections as text files for future training
results = model.predict(source="./unlabeled_images", save_txt=True, conf=0.85)

Applicazioni nel mondo reale

L'apprendimento semi-supervisionato sta trasformando i settori in cui i dati sono abbondanti ma le competenze sono scarse.

  • Imaging medico: nell' assistenza sanitaria basata sull'intelligenza artificiale, l'acquisizione di scansioni (radiografie, risonanze magnetiche) è una procedura standard, ma affidare a un radiologo certificato l'annotazione di ogni pixel per il rilevamento dei tumori è proibitivo dal punto di vista economico. L'SSL consente ai ricercatori di addestrare modelli ad alte prestazioni utilizzando solo una parte dei casi annotati da esperti, sfruttando migliaia di scansioni archiviate per affinare la comprensione del modello delle strutture biologiche .
  • Guida autonoma: le aziende produttrici di auto a guida autonoma raccolgono ogni giorno petabyte di dati video dai veicoli della loro flotta. Etichettare ogni fotogramma per il rilevamento degli oggetti e la segmentazione semantica è impossibile. Attraverso l'SSL, il sistema può imparare dalla stragrande maggioranza delle ore di guida non etichettate per comprendere meglio gli ambienti stradali complessi , le condizioni meteorologiche e i casi limite rari.

Distinguere i concetti correlati

Per implementare efficacemente le soluzioni di IA, è fondamentale comprendere in che modo l'SSL differisce da strategie simili:

  • vs. Apprendimento attivo: sebbene entrambi trattino dati non etichettati, il loro approccio all'etichettatura è diverso. L'SSL assegna automaticamente le etichette in base alle previsioni del modello . Al contrario, l'apprendimento attivo identifica i punti dati più "confusi" o incerti e richiede esplicitamente a un operatore umano di etichettarli, ottimizzando il tempo dell'operatore piuttosto che rimuoverli completamente.
  • vs. Transfer Learning: Il transfer learning consiste nell'utilizzare un modello pre-addestrato su un enorme set di dati esterno (come ImageNet) e la sua messa a punto in base al compito specifico . L'SSL, invece, si concentra sullo sfruttamento della parte non etichettata della distribuzione del set di dati specifico durante il processo di addestramento stesso.
  • vs. Apprendimento auto-supervisionato: Sebbene i nomi siano simili, l'apprendimento auto-supervisionato spesso si riferisce a "attività pretestuose" (come risolvere un puzzle di frammenti di immagini) in cui i dati generano i propri segnali di supervisione senza etichette esterne. L'SSL implica specificamente l'uso di un insieme più piccolo di etichette verificate per guidare il processo.

Strumenti e prospettive future

Con l'aumentare delle dimensioni dei modelli di deep learning (DL), l' efficienza nell'utilizzo dei dati diventa fondamentale. I framework moderni come PyTorch e TensorFlow forniscono il backend computazionale per questi cicli di formazione avanzati . Inoltre, strumenti come la Ultralytics stanno semplificando il ciclo di vita della gestione dei set di dati. Utilizzando funzionalità come l' annotazione automatica, i team possono implementare più facilmente flussi di lavoro semi-supervisionati, trasformando rapidamente i dati grezzi in pesi di modelli pronti per la produzione. Questa evoluzione nel MLOps garantisce che la barriera all' ingresso per la creazione di sistemi di visione ad alta precisione continui ad abbassarsi.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora