Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Impostazioni dei cookie
Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Scopri come Ultralytics utilizza l'intelligenza artificiale per automatizzare l'annotazione, gestire grandi set di dati, migliorare la coerenza e accelerare lo sviluppo della visione artificiale.
Scala i tuoi progetti di visione artificiale con Ultralytics
Le soluzioni di visione artificiale che analizzano immagini e video stanno diventando parte integrante dei flussi di lavoro in molti settori, dalla produzione all'imaging medico. Nel settore manifatturiero, ad esempio, l'individuazione dei difetti superficiali sui prodotti che si muovono lungo un nastro trasportatore si basa su modelli di visione artificiale in grado di rilevare pattern impercettibili.
Affinché questi modelli funzionino correttamente, devono essere addestrati su dati etichettati in cui ogni difetto sia chiaramente identificato. Ciò consente loro di imparare cosa cercare e di riconoscere schemi simili.
Il processo di creazione di queste etichette è chiamato "annotazione dei dati". In particolare, l'annotazione delle immagini e dei video consiste nel disegnare riquadri di delimitazione, tracciare contorni o contrassegnare aree specifiche all'interno delle immagini e dei fotogrammi video.
Sebbene ciò sia gestibile per piccoli set di dati, diventa rapidamente più complesso man mano che i dati aumentano. Etichettare migliaia di immagini richiede un impegno manuale costante, rendendo l'annotazione un importante collo di bottiglia. Gli strumenti tradizionali sono spesso lenti, frammentati e difficili da scalare.
Ultralytics , la piattaforma all-in-one di visione artificiale, contribuisce a risolvere queste sfide grazie all'annotazione assistita dall'intelligenza artificiale. Utilizzando l'intelligenza artificiale per generare automaticamente etichette iniziali che possono essere rapidamente riviste e perfezionate, riduce il lavoro manuale e migliora l'efficienza.
In questo articolo vedremo come funziona l'annotazione assistita dall'intelligenza artificiale all'interno Ultralytics e in che modo migliora il processo di etichettatura. Cominciamo!
Una panoramica del processo di annotazione dei dati
Prima di approfondire il funzionamento dell'annotazione basata sull'intelligenza artificiale sulla Ultralytics , diamo prima un'occhiata più da vicino all'annotazione dei dati.
L'annotazione dei dati, nota anche come etichettatura dei dati, è il processo che consiste nell'assegnare etichette strutturate ai dati grezzi affinché possano essere utilizzati per addestrare modelli di apprendimento automatico. Nella visione artificiale, queste etichette definiscono gli oggetti, le aree o le caratteristiche di interesse all'interno di immagini o video.
Durante l'addestramento, i modelli o gli algoritmi imparano ad associare i dati di input a queste etichette, rendendo la qualità delle annotazioni un fattore chiave per le prestazioni del modello. Set di dati etichettati in modo accurato e coerente consentono al modello di apprendere modelli corretti, mentre annotazioni scadenti o incoerenti possono portare a previsioni inaffidabili.
Ad esempio, in un caso d'uso relativo al rilevamento dei difetti, è possibile annotare l'immagine di un prodotto su un nastro trasportatore indicando dove compaiono i difetti e specificandone il tipo. Questo aiuta il modello a imparare l'aspetto dei difetti, in modo da poterli identificare nelle nuove immagini.
Una panoramica sulle attività di annotazione più comuni
Vediamo ora alcuni metodi comuni utilizzati per l'annotazione delle immagini nella visione artificiale. Questi metodi vengono impiegati per etichettare i dati visivi in vista di attività quali il rilevamento di oggetti, la segmentazione di istanze e la classificazione delle immagini. Ogni metodo di annotazione svolge una funzione diversa, come individuare oggetti, rilevare forme o identificare strutture chiave.
Riquadri di delimitazione
I riquadri di delimitazione sono semplici rettangoli tracciati attorno agli oggetti in un'immagine per indicarne la posizione. Rappresentano uno dei metodi più comuni per etichettare i dati nella visione artificiale.
Allenandosi su immagini che contengono questi riquadri, i modelli di rilevamento degli oggetti imparano a riconoscere oggetti diversi e a individuarne la posizione all'interno di un'immagine. Ciò consente loro di detect oggetti contemporaneamente e di identificare dove si trova ciascuno di essi.
Prendiamo ad esempio una partita di baseball analizzata tramite la visione artificiale. In ogni fotogramma è possibile tracciare dei riquadri attorno ai giocatori, alla mazza e alla palla, consentendo al modello detect identificare questi oggetti durante tutta la partita.
Fig. 1. I riquadri di delimitazione possono essere utilizzati per etichettare e individuare più oggetti. (Fonte)
Poligoni o maschere di segmentazione
I poligoni, noti anche come maschere di segmentazione, vanno oltre i riquadri di delimitazione in quanto identificano gli oggetti a livello di pixel. Anziché disegnare un rettangolo approssimativo, catturano la forma esatta e i contorni di ciascun oggetto presente nell'immagine. Ciò li rende utili per attività che richiedono una comprensione più dettagliata.
Ad esempio, nella guida autonoma, le maschere di segmentazione vengono utilizzate in attività quali la segmentazione semantica, in cui a ciascun pixel viene assegnata una categoria (ad esempio strada o cielo), e la segmentazione di istanze, in cui singoli oggetti come veicoli o pedoni vengono identificati separatamente.
Vengono utilizzati anche per operazioni come la rimozione dello sfondo, in cui un oggetto, ad esempio una persona, deve essere isolato dal resto dell'immagine.
Punti chiave
I punti chiave servono a contrassegnare punti specifici su un oggetto, come le articolazioni del corpo umano o le parti di un animale. Identificando questi punti, i modelli possono comprendere la struttura di un oggetto e il modo in cui le sue parti sono posizionate l'una rispetto all'altra.
Nella visione artificiale, questo processo è noto come stima della posa, il cui obiettivo è individuare la posizione di questi punti chiave e comprendere come si relazionano tra loro. Il tracciamento di questi punti nel tempo consente di analizzare i movimenti e i cambiamenti di postura.
Fig. 2. Le annotazioni dei punti chiave possono essere utilizzate per contrassegnare le articolazioni ai fini della stima della postura umana. (Fonte)
Un esempio comune è l'identificazione dei punti di articolazione del corpo in un video per analizzare il movimento umano. Concentrandosi su questi punti chiave, i modelli sono in grado di rilevare la posizione di una persona e come la sua postura cambi nel tempo.
Riquadro di delimitazione orientato (OBB)
Non tutti gli oggetti presenti in un'immagine sono perfettamente allineati. In molti casi reali, gli oggetti appaiono inclinati, ruotati o vengono osservati da diverse angolazioni.
In questi casi, i riquadri di delimitazione standard spesso non sono sufficienti, poiché possono includere parti di sfondo superflue o non adattarsi perfettamente all'oggetto. I riquadri di delimitazione orientati risolvono questo problema utilizzando rettangoli ruotati che si allineano alla direzione dell'oggetto. Ciò consente di ottenere annotazioni più precise e accurate.
Questo approccio viene utilizzato nel rilevamento tramite bounding box orientati (OBB), in cui i modelli identificano sia la posizione di un oggetto sia il suo orientamento. Un esempio è rappresentato dalle immagini aeree, in cui oggetti come edifici, navi o veicoli appaiono spesso da diverse angolazioni. I riquadri ruotati rendono più facile cogliere la loro vera forma e direzione all'interno della scena.
Etichette di classificazione
Le etichette di classificazione adottano un approccio diverso rispetto ad altri metodi di annotazione, in quanto assegnano un'unica etichetta all'intera immagine, anziché contrassegnare oggetti o aree specifiche. Vengono utilizzate quando l'obiettivo è identificare ciò che è presente in un'immagine, senza concentrarsi sulla sua posizione.
Ad esempio, un'immagine può essere etichettata come "gatto" o "cane" in base al suo contenuto complessivo. Ciò rende la classificazione delle immagini utile per attività in cui è sufficiente una comprensione di alto livello dell'immagine.
Limiti degli strumenti di annotazione tradizionali
Molti strumenti tradizionali di etichettatura prevedono diverse fasi e flussi di lavoro non integrati. I team di sviluppo dell'IA devono spesso passare da una piattaforma all'altra per l'etichettatura, l'archiviazione e la convalida, il che rallenta i progetti di IA.
La maggior parte degli strumenti supporta solo un numero limitato di tipi di annotazioni e di dati, per cui i team finiscono per utilizzare strumenti diversi per i riquadri di delimitazione, la segmentazione e i punti chiave. Questa configurazione frammentata può risultare difficile da gestire, specialmente per i team che si avvicinano per la prima volta alla visione artificiale.
Il lavoro manuale rappresenta un'altra sfida importante. Sebbene l'annotazione di una singola immagine possa richiedere solo pochi minuti, lavorare con grandi set di dati diventa rapidamente dispendioso in termini di tempo, soprattutto quando immagini simili comportano attività ripetitive.
Con l'aumentare dei set di dati, i team devono anche gestire i file, track delle versioni track e garantire la coerenza tra le annotazioni. Ciò comporta un aumento del carico di lavoro: si dedica più tempo alla gestione dei dati e meno al miglioramento delle prestazioni dei modelli.
Un approccio più efficiente consiste nell'utilizzare l'annotazione assistita dall'intelligenza artificiale all'interno della Ultralytics , che impiega l'intelligenza artificiale per generare e perfezionare le etichette, riducendo il lavoro manuale e migliorando al contempo la velocità e l'uniformità, il tutto in un unico ambiente che riunisce la gestione dei set di dati, l'annotazione, l'addestramento dei modelli, l'implementazione e il monitoraggio.
In che modo Ultralytics facilita il processo di annotazione
Ultralytics semplifica l'annotazione integrandola direttamente nel resto del flusso di lavoro di visione artificiale. Anziché ricorrere a strumenti separati, i team possono lavorare con dati, annotazioni e modelli in un unico ambiente.
Supporta una vasta gamma di attività di visione artificiale, tra cui il rilevamento di oggetti, la classificazione delle immagini, la segmentazione delle istanze, la stima della posa e il rilevamento di bounding box orientati.
In questo contesto, l'annotazione può essere effettuata in diversi modi. I team possono etichettare i dati manualmente per avere il pieno controllo, utilizzare l'annotazione intelligente SAM per un'etichettatura interattiva e puntuale, oppure applicare l'annotazione intelligente YOLO per generare automaticamente annotazioni che possono essere riviste e perfezionate. Questa flessibilità semplifica il lavoro con diversi set di dati e requisiti di annotazione.
Fig. 3. Una panoramica delle annotazioni nella Ultralytics (Fonte)
Poiché l'annotazione assistita dall'intelligenza artificiale e quella manuale sono integrate nella gestione dei set di dati e nell'addestramento dei modelli, i team possono passare senza soluzione di continuità dall'etichettatura dei dati all'organizzazione dei set di dati e all'addestramento dei modelli. Ciò garantisce la strutturazione dei flussi di lavoro ed elimina la necessità di passare da uno strumento all'altro o di riformattare le annotazioni.
La piattaforma supporta ancheYOLO Ultralytics , come Ultralytics YOLO11 e Ultralytics , consentendo di utilizzare direttamente i dati annotati per l'addestramento e il test. Ciò rende più facile identificare le lacune nei set di dati, perfezionare le annotazioni e riaddestrare i modelli attraverso un processo di iterazione continua.
Caratteristiche principali della funzione di annotazione SAM sulla Ultralytics
La funzione di annotazione intelligente SAM Ultralytics è stata progettata per velocizzare l'annotazione nelle attività di rilevamento di oggetti, segmentazione di istanze e bounding box orientati (OBB).
La piattaforma offre diverse varianti SAM , tra cui SAM .1 Tiny, SAM .1 Small, SAM .1 Base, SAM .1 Large e SAM , consentendo agli utenti di scegliere tra velocità e precisione.
Fig. 4. Annotazione intelligente SAM sulla Ultralytics (Fonte)
I modelli più piccoli, come Tiny e Small, sono più veloci e particolarmente adatti a flussi di lavoro di annotazione rapidi, mentre i modelli più grandi, come Large e SAM , offrono una maggiore precisione per scene più complesse. Passando da un modello all'altro, il comportamento di annotazione si aggiorna immediatamente.
Nell'editor di annotazioni, una volta selezionato un SAM , gli annotatori umani possono attivare la modalità Smart per iniziare l'etichettatura. Anziché disegnare le forme manualmente, il modello viene guidato tramite semplici input basati su punti.
Cliccando con il tasto sinistro del mouse si aggiunge un punto positivo per includere un'area, mentre cliccando con il tasto destro si aggiunge un punto negativo per escludere le aree indesiderate. Sulla base di questi dati, il modello genera una maschera precisa in tempo reale.
Per velocizzare il flusso di lavoro, è possibile attivare la modalità di applicazione automatica. Quando è attiva, ogni clic genera e salva automaticamente un'annotazione senza richiedere una conferma manuale. Per gli oggetti più complessi, gli annotatori possono tenere premuto il tasto "Shift" per posizionare più punti prima che la maschera venga applicata oppure disattivare l'applicazione automatica per aggiungere liberamente i punti e poi premere "Invio" per applicare la maschera.
Comprendere l'annotazione YOLO sulla Ultralytics
Analogamente all'annotazione intelligente SAM, l'annotazione YOLO sulla Ultralytics utilizza l'intelligenza artificiale per accelerare il processo di etichettatura. Anziché guidare il modello tramite clic, utilizza le previsioni del modello per generare automaticamente le annotazioni.
Questo approccio supporta attività quali il rilevamento di oggetti, la segmentazione di istanze e l'annotazione con bounding box orientati (OBB). Funziona in particolare conYOLO Ultralytics , inclusi i modelli preaddestrati forniti da Ultralytics YOLO addestrati su misura.
All'interno dell'editor di annotazioni, gli annotatori possono attivare la modalità Smart, selezionare un YOLO dal selettore di modelli e fare clic su "Predict". Il selettore di modelli mostra solo YOLO compatibili con l'attività corrente del set di dati, garantendo così la compatibilità delle annotazioni generate.
Il modello analizza l'immagine e genera annotazioni sulla base delle proprie previsioni, che vengono poi aggiunte direttamente all'immagine. Se le previsioni si sovrappongono a annotazioni esistenti appartenenti alla stessa classe, i rilevamenti duplicati vengono automaticamente ignorati quando la sovrapposizione supera una soglia prestabilita, contribuendo così a mantenere etichette pulite e coerenti.
Fig. 5. Annotazione intelligente abilitata daiYOLO Ultralytics sulla Ultralytics (Fonte)
Una volta generate le previsioni, gli annotatori umani possono esaminarle, modificarle o eliminarle a seconda delle necessità. Ciò semplifica l'etichettatura rapida di grandi set di dati, poiché si parte dalle annotazioni generate dal modello per poi perfezionarle, invece di annotare tutto manualmente.
Nel corso del tempo, YOLO ottimizzati possono essere riutilizzati per generare previsioni più accurate, favorendo un flusso di lavoro iterativo di etichettatura automatica.
L'applicazione dell'etichettatura assistita dall'intelligenza artificiale nelle pipeline reali
Vediamo ora alcuni esempi di come la Ultralytics consenta l'annotazione dei dati in contesti reali.
La segmentazione nella guida autonoma
I veicoli autonomi dotati di modelli di visione artificiale si basano su dati visivi accuratamente annotati per comprendere l'ambiente circostante in tempo reale. I modelli addestrati su questi dati sono in grado di detect segment , pedoni, segnali stradali e i bordi della carreggiata.
Le attività di segmentazione richiedono contorni precisi a livello di pixel, il che rende l'annotazione un'operazione fondamentale ma anche dispendiosa in termini di tempo. L'etichettatura manuale di grandi volumi di dati dei sensori può rapidamente diventare un collo di bottiglia, specialmente in scene di guida complesse.
Ultralytics semplifica questo processo grazie all'annotazione assistita dall'intelligenza artificiale, che utilizza sia YOLO SAM YOLO . L'annotazione intelligente SAM consente una segmentazione rapida tramite clic con maschere precise, mentre YOLO possono essere utilizzati per generare automaticamente annotazioni su tutte le immagini.
Nel loro insieme, questi approcci facilitano la gestione di scene complesse con oggetti sovrapposti.
Poiché l'annotazione è direttamente collegata all'addestramento dei modelli, i set di dati su larga scala aggiornati possono essere utilizzati immediatamente per riaddestrare e valutare i modelli. Ciò consente ai team di migliorare continuamente le prestazioni e di adattarsi alle nuove condizioni di guida in modo più efficiente.
Miglioramento dei sistemi di garanzia della qualità nel settore manifatturiero
Nel settore manifatturiero, garantire un controllo di qualità costante dipende dall'accuratezza nell'individuazione dei difetti durante la produzione. I modelli di visione artificiale vengono spesso utilizzati per identificare i problemi in tempo reale, ma le loro prestazioni dipendono dalla capacità dei dati di addestramento di rispecchiare le effettive condizioni di produzione.
I cambiamenti negli ambienti di produzione, come le variazioni nelle materie prime, nelle impostazioni delle macchine o nell'illuminazione, possono far emergere tipi di difetti nuovi e rari che non erano presenti nei dati di addestramento originali. Ciò crea un divario tra ciò che il modello ha appreso e ciò che si verifica sulla linea di produzione.
Per garantire la coerenza, i set di dati devono essere aggiornati regolarmente con annotazioni interne di alta qualità. Ultralytics semplifica l'aggiornamento delle annotazioni e l'ampliamento dei set di dati man mano che emergono nuovi modelli di difetti. Questi set di dati aggiornati possono quindi essere utilizzati per riaddestrare i modelli, aiutando i team ad adattarsi più rapidamente alle mutevoli condizioni di produzione.
Monitoraggio dei cantieri e sicurezza nell'edilizia
I cantieri sono ambienti dinamici, caratterizzati dalla presenza di più squadre, attrezzature in movimento e configurazioni in continuo cambiamento. Garantire la sicurezza in queste condizioni dipende dalla disponibilità di dati visivi chiari e ben annotati.
Annotazioni accurate possono migliorare la qualità dei dati e aiutare i sistemi di intelligenza artificiale a identificare lavoratori, attrezzature, dispositivi di protezione e potenziali rischi in una vasta gamma di condizioni sul campo, tra cui scene affollate, sfondi mutevoli e condizioni di illuminazione variabili.
Ultralytics supporta questa funzionalità consentendo di aggiornare e perfezionare facilmente le annotazioni man mano che le condizioni del sito cambiano. È possibile acquisire nuove immagini e aggiungerle al set di dati non appena vengono disponibili, garantendo così che rimanga in linea con gli scenari reali.
Punti chiave
Un'annotazione di alta qualità è fondamentale per sviluppare modelli affidabili di visione artificiale e intelligenza artificiale, ma i flussi di lavoro tradizionali spesso rallentano i team. Ultralytics semplifica questo processo grazie a strumenti di annotazione automatizzati e a un flusso di lavoro scalabile. Di conseguenza, i team possono passare più rapidamente dai dati al modello, mantenendo al contempo precisione e coerenza.