Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

Realizza un sistema di ispezione visiva basato su telecamera senza competenze in materia di IA

Scopri come realizzare un sistema di ispezione visiva basato su telecamera senza competenze specifiche in materia di IA utilizzando la Ultralytics , dall'etichettatura alla messa in funzione.

Scala i tuoi progetti di visione artificiale con Ultralytics

Inizia

Ogni prodotto che utilizziamo, che si tratti di un telefono, di un articolo confezionato o di un ricambio per auto, viene sottoposto a una qualche forma di controllo qualità prima di arrivare a noi, i consumatori finali. Tradizionalmente, ciò avveniva tramite controlli manuali o semplici sistemi basati su regole. Sebbene questi metodi funzionino, sono spesso lenti, inaffidabili e difficili da scalare all'aumentare della produzione.

Per migliorare il processo di controllo qualità, molti settori industriali stanno ricorrendo alla visione artificiale, una branca dell'intelligenza artificiale che consente alle macchine di interpretare immagini e video. Ad esempio, modelli di IA per la visione come Ultralytics possono aiutare detect, classify e localizzare i difetti con un elevato livello di precisione.

In contesti produttivi reali, questi modelli possono essere utilizzati per analizzare immagini acquisite direttamente da linee di assemblaggio ad alta velocità. Man mano che i prodotti avanzano attraverso le diverse fasi, le telecamere industriali track e il sistema verifica la presenza di eventuali problemi quali graffi, parti mancanti o disallineamenti. Ciò rende il rilevamento dei difetti più rapido e coerente, consentendo al contempo ispezioni ad alta produttività.

In passato, la realizzazione di questi sistemi richiedeva l'uso di numerosi strumenti e una solida competenza tecnica, il che rendeva il processo complesso e dispendioso in termini di tempo. Ultralytics , la nostra nuova soluzione end-to-end per la visione artificiale, semplifica il tutto riunendo in un unico posto la preparazione dei dati, l'annotazione, l'addestramento dei modelli e la distribuzione.

In questo articolo vedremo come utilizzare Ultralytics per realizzare sistemi di ispezione visiva basati su telecamere senza bisogno di competenze approfondite in materia di IA. Cominciamo!

Il ruolo della visione artificiale nel controllo qualità

Prima di approfondire come Ultralytics semplifichi la creazione di sistemi di ispezione, facciamo un passo indietro per capire il ruolo della visione artificiale nell'ispezione della qualità.

Il controllo qualità è una fase fondamentale del processo produttivo che garantisce che i prodotti rispettino gli standard di qualità e siano privi di difetti. Tuttavia, i risultati possono variare, soprattutto durante i turni di lavoro prolungati o in caso di produzione su larga scala.

Per rendere più affidabile il processo di ispezione, molti settori industriali ricorrono alla visione artificiale, nota anche come visione computerizzata, per analizzare le immagini provenienti dalla linea di produzione e individuare eventuali difetti. Questi sistemi si avvalgono del deep learning, in cui modelli e algoritmi apprendono schemi ricorrenti da ampi insiemi di immagini etichettate di alta qualità.

Durante l'addestramento, al modello vengono mostrati esempi sia di prodotti normali che di diversi tipi di difetti. Con il tempo, impara a riconoscere autonomamente questi schemi. Una volta addestrato, il modello è in grado di ispezionare grandi volumi di prodotti e di applicare gli stessi criteri in modo coerente, migliorando così la precisione.

Compiti comuni di visione artificiale utilizzati nel controllo qualità

Le applicazioni di visione artificiale sono rese possibili da modelli di visione artificiale come YOLO Ultralytics , in grado di supportare diversi tipi di attività di visione. Ecco una panoramica di come queste attività di visione basate sull'intelligenza artificiale vengono utilizzate nei flussi di lavoro di ispezione automatizzata:

  • Classificazione delle immagini: questa operazione serve ad assegnare un'unica etichetta all'intera immagine, ad esempio "buona" o "difettosa". Fornisce una valutazione generale della qualità del prodotto senza indicare la posizione dei difetti.
  • Rilevamento di oggetti: consente di identificare i difetti all'interno di un'immagine e di localizzarli tramite riquadri di delimitazione. Ciò permette di detect localizzare problemi quali crepe, graffi o componenti mancanti.
  • Segmentazione delle istanze: andando oltre il semplice rilevamento degli oggetti, questa funzione prevede maschere a livello di pixel per ogni difetto rilevato. Ciò consente un'analisi precisa della forma, delle dimensioni e dei contorni dei difetti.
  • Tracciamento degli oggetti: quando si tracciano i prodotti su più fotogrammi, il sistema segue gli articoli mentre si spostano lungo la linea di produzione. Ciò garantisce la coerenza e assicura che nessun difetto venga trascurato.
  • Rilevamento tramite bounding box orientati (OBB): questa attività rileva gli oggetti utilizzando bounding box ruotati anziché allineati agli assi. È particolarmente utile quando i difetti o i componenti appaiono con angolazioni diverse, consentendo una localizzazione più accurata.

Uno sguardo alle applicazioni relative al controllo qualità nei vari settori industriali

La visione artificiale è ampiamente utilizzata in diversi settori industriali per garantire la qualità dei prodotti, soddisfare gli standard e ridurre la necessità di ispezioni manuali. Svolge funzioni fondamentali quali il rilevamento dei difetti, la classificazione, il riconoscimento degli oggetti, la misurazione e il rilevamento delle anomalie. 

Fig. 1. Un esempio di rilevamento e tracciamento dei prodotti tramite sistemi di visione artificiale (Fonte)

Ecco alcuni esempi di casi d'uso reali in cui viene applicato:

  • Produzione: il rilevamento dei difetti superficiali viene utilizzato per individuare problemi quali graffi, ammaccature, crepe e scolorimenti, analizzando le immagini dei prodotti sulla linea di produzione per il rilevamento in linea dei difetti. È inoltre in grado di detect in tempo reale detect componenti o errori di assemblaggio, consentendo un’ispezione continua.
  • Settore automobilistico: i sistemi di visione artificiale analizzano le parti del motore e i pannelli della carrozzeria per verificarne l'allineamento e detect . Sono particolarmente efficaci nell'ispezione di forme complesse e aree difficili da raggiungere, e spesso operano in combinazione con sistemi robotici per garantire un posizionamento preciso e un'ispezione automatizzata.
  • Elettronica e semiconduttori: questi sistemi detect difetti in componenti quali i circuiti stampati (PCB), tra cui problemi di saldatura, microfessurazioni e circuiti danneggiati. Grazie all'analisi delle immagini ad alta risoluzione, è possibile individuare anche difetti molto sottili che spesso sfuggono durante l'ispezione manuale.
  • Imballaggio e logistica: i sistemi visivi eseguono la scansione dei codici a barre, leggono le etichette dei prodotti e controllano la qualità degli imballaggi. Garantiscono che i prodotti siano correttamente imballati, sigillati e pronti per la spedizione, riducendo così gli errori.
  • Settore alimentare e delle bevande: i sistemi di ispezione basati su telecamere o sensori di visione analizzano l'aspetto dei prodotti per individuare problemi quali sigillature difettose, rischi di contaminazione, etichettatura errata o incongruenze visive, contribuendo a garantire la qualità e la sicurezza.
  • Settore farmaceutico: la visione artificiale viene utilizzata per ispezionare compresse, fiale e confezioni alla ricerca di difetti quali crepe, contaminazioni, etichettatura errata o livelli di riempimento non uniformi, garantendo il rispetto dei rigorosi standard normativi e preservando la sicurezza dei prodotti.

Ottimizzazione dei flussi di lavoro relativi alle ispezioni visive con Ultralytics

Si consideri una linea di produzione in cui i prodotti passano attraverso diverse fasi mentre delle telecamere riprendono continuamente immagini a scopo di ispezione. Queste immagini vengono utilizzate per individuare difetti quali graffi, parti mancanti o disallineamenti.

Finora, la creazione e la gestione di tali sistemi di ispezione ha richiesto l'uso di diversi strumenti e una discreta competenza tecnica. 

In effetti, noi di Ultralytics abbiamo ricevuto numerosi riscontri dalla comunità dell’IA visiva su quanto questo processo possa risultare frammentato e dispendioso in termini di tempo, con colli di bottiglia comuni quali strumenti dispersi, configurazione complessa dell’ambiente, flussi di lavoro inefficienti per l’etichettatura dei dati, ritardi nell’addestramento dei modelli e difficoltà nell’implementazione. Questi riscontri hanno svolto un ruolo fondamentale nella definizione della Ultralytics .

Fig. 2. Una panoramica della Ultralytics (Fonte)

Grazie alla Ultralytics , l'intero processo di sviluppo e implementazione può essere gestito da un'unica piattaforma. È possibile caricare e annotare i dati grezzi per creare set di dati di addestramento, che vengono poi utilizzati per addestrare i modelli al detect . Una volta addestrati, questi modelli possono essere implementati per analizzare nuove immagini provenienti dalla linea di produzione, con strumenti integrati per monitorarne le prestazioni nel tempo.

Oltre a riunire l'intero flusso di lavoro in un unico posto, Ultralytics è progettata per essere facile da usare. Anche gli utenti con un'esperienza limitata nel campo del machine learning possono passare rapidamente dall'ideazione alla produzione.

Utilizzo Ultralytics per contrassegnare i difetti nelle immagini

Ora che abbiamo visto come la Ultralytics coordini il flusso di lavoro, vediamo come utilizzarla in ciascuna fase della pipeline di visione artificiale, a partire dal caricamento dei dati e dall'etichettatura dei difetti.

Gestione dei set di dati di ispezione sulla Ultralytics

Il primo passo consiste nell'importare i dati nella piattaforma. È possibile caricare immagini, video o archivi di set di dati, come file ZIP, TAR o GZ. COCO supportati i formati più comuni, come YOLO COCO , quindi i set di dati esistenti possono essere importati senza ulteriori passaggi.

Puoi anche iniziare più rapidamente utilizzando i set di dati condivisi dalla comunità. Questi set di dati possono essere esaminati e clonati nel tuo spazio di lavoro, consentendoti di partire da dati esistenti invece che da zero. Una volta clonati, possono essere aggiornati e ampliati in base alle tue specifiche esigenze.

Se stai lavorando a diversi esperimenti, puoi riutilizzare i set di dati importandoli come file NDJSON, il che semplifica la loro ricreazione o condivisione senza bisogno di ulteriori conversioni.

Una volta caricati i dati, la piattaforma li elabora automaticamente. Verifica i formati dei file, elabora le annotazioni, ridimensiona le immagini se necessario e genera statistiche di base sul set di dati. I video vengono suddivisi in fotogrammi in modo da poter essere utilizzati per l'addestramento, mentre le immagini vengono ottimizzate per facilitarne la consultazione e l'analisi.

Annotazione dei dati basata sulla Ultralytics

Una volta che i dati sono pronti, il passo successivo è l'annotazione dei dati. È in questa fase che i difetti vengono contrassegnati, in modo che il modello possa imparare cosa detect. Ultralytics include un editor di annotazione integrato che supporta attività quali il rilevamento di oggetti, la segmentazione di istanze, la classificazione delle immagini, la stima della posa e il rilevamento di bounding box orientati.

È possibile etichettare i dati manualmente utilizzando strumenti quali riquadri di delimitazione, poligoni o punti chiave, a seconda delle proprie esigenze. Per velocizzare il processo, la piattaforma offre anche la possibilità di etichettare con l'aiuto dell'intelligenza artificiale.

Ad esempio, l'annotazione intelligente SAM consente di etichettare gli oggetti con semplici clic. Selezionando le aree da includere o escludere, il sistema genera una maschera in tempo reale, che può poi essere modificata se necessario.


Fig. 3. Annotazione intelligente SAM all'interno Ultralytics (Fonte)

Inoltre, l'annotazione intelligente YOLO è in grado di generare etichette automaticamente utilizzando le previsioni del modello. Queste possono essere riviste e perfezionate, rendendo più semplice l'elaborazione di grandi set di dati senza dover etichettare manualmente ogni singolo elemento.

L'editor di annotazioni include anche funzioni quali la gestione delle classi, la modifica delle annotazioni, le scorciatoie da tastiera e le opzioni di annullamento e ripetizione. Queste funzioni rendono più facile mantenere la coerenza e rivedere le annotazioni man mano che il set di dati cresce.

Man mano che si etichettano i dati, la piattaforma fornisce informazioni quali la distribuzione per classi e il numero di annotazioni. Ciò consente di individuare eventuali lacune, correggere le incongruenze e migliorare la qualità del set di dati prima di passare alla fase di addestramento.

Addestramento di YOLO26 per il rilevamento dei difetti sulla Ultralytics

Il passo successivo consiste nell'addestrare un modello affinché detect automaticamente detect utilizzando i dati etichettati. La Ultralytics supporta l'addestramento conYOLO Ultralytics YOLO , tra cui YOLO26, che possono essere utilizzati per attività quali il rilevamento di oggetti, la segmentazione di istanze e la classificazione delle immagini.

L'addestramento viene gestito tramite una dashboard unificata che consente di configurare, eseguire e monitorare i processi di addestramento da un'unica interfaccia. Per iniziare, è possibile selezionare un set di dati, che può essere stato caricato dall'utente, annotato sulla piattaforma, proveniente da set di dati pubblici disponibili sulla piattaforma o clonato dalla community.

Una volta selezionato, il set di dati viene automaticamente associato alla sessione di addestramento, facilitando il track e garantendo la coerenza. 

Successivamente, è possibile configurare i parametri di addestramento, quali il numero di epoche, la dimensione dei batch, la dimensione delle immagini e il tasso di apprendimento. Queste impostazioni determinano il modo in cui il modello apprende e influiscono direttamente sia sui tempi di addestramento che sulle prestazioni.

Esecuzione e monitoraggio dell'allenamento

È quindi possibile scegliere come eseguire l'addestramento. La piattaforma supporta l'addestramento su cloud tramite GPU gestite, l'addestramento locale utilizzando il proprio hardware e flussi di lavoro basati su browser attraverso ambienti come Google . 

Quando si utilizza l'addestramento su cloud, è possibile scegliere tra una gamma di GPU quali RTX 2000 Ada e RTX A4500 per esperimenti di piccole dimensioni, RTX 4090 o RTX A6000 per carichi di lavoro più impegnativi e opzioni ad alte prestazioni come A100 o H100 per l'addestramento su larga scala.

Una volta avviata la formazione, è possibile monitorarne i progressi direttamente all'interno della piattaforma. La dashboard offre una visione in tempo reale delle metriche chiave, quali le curve di perdita e gli indicatori di prestazione, oltre ai dati sull'utilizzo del sistema e ai registri di formazione. Ciò consente di comprendere con facilità come il modello stia apprendendo e di individuare tempestivamente eventuali problemi.

Fig. 4. È possibile monitorare facilmente i progressi dell'allenamento utilizzando Ultralytics (Fonte)

Man mano che si eseguono più esperimenti, la piattaforma tiene track configurazioni, dei set di dati e track risultati in un unico posto. Ciò rende semplice confrontare diversi cicli di addestramento, valutare le prestazioni utilizzando metriche quali precisione, richiamo e mAP, e selezionare il modello più performante da implementare.

Implementazione di un modello di visione tramite Ultralytics

Una volta completato l'addestramento, il passo successivo consiste nel verificare le prestazioni del modello addestrato su dati nuovi e non visti in precedenza, prima di procedere alla distribuzione. Ultralytics include una scheda "Predict" integrata che consente di testare i modelli direttamente nel browser senza alcuna configurazione. 

È possibile caricare immagini, utilizzare dati di esempio o acquisire input tramite webcam; i risultati vengono visualizzati immediatamente con sovrapposizioni grafiche e punteggi di affidabilità. Ciò consente di verificare rapidamente le prestazioni del modello e individuare eventuali problemi prima di integrarlo nei sistemi reali. 

Una volta convalidato, il modello può essere implementato utilizzando diverse opzioni a seconda del caso d'uso. Ecco una panoramica delle opzioni di implementazione del modello supportate dalla Ultralytics :

  • Inferenza condivisa: questa opzione consente di accedere al modello tramite REST API, facilitando l'integrazione in applicazioni o flussi di lavoro. Funziona su un sistema multi-tenant distribuito su alcune regioni principali, dove le richieste vengono automaticamente indirizzate al servizio disponibile più vicino. Ciò la rende particolarmente adatta allo sviluppo, al collaudo e a un utilizzo meno intensivo prima del passaggio alla produzione.
  • Endpoint dedicati: per l'uso in produzione, i modelli possono essere distribuiti come endpoint dedicati con risorse di elaborazione dedicate. Questi funzionano come servizi a tenant singolo in 43 regioni globali, contribuendo a ridurre la latenza grazie a una distribuzione più vicina agli utenti finali. Supportano inoltre l'autoscaling e lo scale-to-zero, consentendo alle risorse di adattarsi automaticamente in base al traffico.
  • Esportazione dei modelli: i modelli possono essere esportati ed eseguiti al di fuori della piattaforma su sistemi locali o dispositivi periferici. La piattaforma supporta 17 formati, tra cui ONNX, TensorRT, OpenVINO, CoreML e TensorFlow . Le opzioni di esportazione supportano inoltre ottimizzazioni quali la quantizzazione FP16 e INT8, volte a ridurre le dimensioni dei modelli e a migliorare la velocità di inferenza in diversi ambienti hardware.

Monitoraggio dei modelli implementati tramite Ultralytics

Il ciclo di vita di una soluzione di elaborazione delle immagini o di visione artificiale non si esaurisce con l'implementazione del modello. Ciò vale anche per i sistemi di ispezione visiva. Una volta che un modello è in funzione in produzione, deve essere monitorato costantemente per garantire che funzioni in modo affidabile al variare delle condizioni.

Ultralytics offre un pannello di controllo integrato che fornisce una panoramica chiara delle prestazioni dei modelli distribuiti. Da un'unica interfaccia è possibile track l'attività track , visualizzare i log e verificare lo stato di integrità di ciascuna distribuzione. È possibile comprendere come vengono utilizzati i modelli e come si comportano nel tempo.

La dashboard include metriche chiave quali il numero totale di richieste, i tassi di errore e la latenza, aiutandoti a valutare le prestazioni e la reattività. Queste metriche vengono aggiornate regolarmente e forniscono informazioni sia sui modelli di utilizzo che sull'affidabilità del sistema.

Una mappa del mondo integrata mostra la distribuzione delle richieste e delle distribuzioni nelle varie regioni. Grazie al supporto per le distribuzioni in più sedi globali, questa visualizzazione consente di track a livello geografico e di comprendere le prestazioni dei modelli in diversi ambienti.

Fig. 5. Monitoraggio dei modelli implementati sulla Ultralytics (Fonte)

Per un'analisi più approfondita, ogni distribuzione include registri dettagliati con timestamp, informazioni sulle richieste e messaggi di errore. I registri possono essere filtrati in base al livello di gravità, semplificando il debug dei problemi e consentendo di individuare rapidamente eventuali anomalie. Inoltre, i controlli di integrità forniscono indicatori di stato in tempo reale, segnalando se una distribuzione funziona come previsto o se richiede un intervento.

Anche il monitoraggio svolge un ruolo importante nell'ottimizzazione. Man mano che i dati di input, il traffico o i modelli di utilizzo cambiano, le prestazioni possono variare. Monitorando le metriche e i log, è possibile individuare problemi quali elevata latenza, aumento dei tassi di errore o limiti di scalabilità e intervenire per garantire prestazioni costanti.

Vantaggi dell'utilizzo della Ultralytics per lo sviluppo di soluzioni di visione artificiale

Ecco alcuni dei principali vantaggi dell'utilizzo della Ultralytics per la realizzazione e il potenziamento di sistemi di ispezione visiva:

  • Ottimizzato per l'uso pratico: funzionalità quali il ridimensionamento automatico degli endpoint, l'implementazione perimetrale e l'esportazione dei modelli garantiscono che il sistema funzioni in modo affidabile negli ambienti di produzione. 
  • Cicli di sviluppo più rapidi: gli strumenti integrati e le configurazioni predefinite consentono di passare dai dati grezzi a un sistema funzionante in modo più efficiente.
  • Facilità d'uso: interfacce intuitive, flussi di lavoro semplificati e requisiti di configurazione minimi rendono la piattaforma accessibile sia ai principianti che agli utenti esperti.
  • Meno lavoro manuale: funzioni come l'annotazione assistita dall'intelligenza artificiale e l'elaborazione automatizzata dei dati riducono il tempo dedicato alle attività ripetitive.
  • Scalabile nel tempo: man mano che i requisiti cambiano, il sistema può essere aggiornato aggiungendo nuovi dati e riaddestrando i modelli, consentendo così l'adattamento a nuovi tipi di difetti, condizioni e configurazioni multicamera.

Punti chiave

La realizzazione di un sistema di ispezione visiva basato su telecamera non deve necessariamente essere complessa né richiedere competenze approfondite in materia di intelligenza artificiale. Con la Ultralytics , è possibile passare dai dati grezzi a un sistema funzionante e monitorarne le prestazioni, il tutto da un'unica interfaccia. Ciò semplifica il modo in cui i sistemi di ispezione vengono realizzati, migliorati e gestiti in contesti reali.

Entra a far parte della nostra community ed esplora il nostro repository GitHub per saperne di più su Vision AI. Dai un'occhiata alle nostre opzioni di licenza per dare il via ai tuoi progetti di visione artificiale. Ti interessano innovazioni come l'intelligenza artificiale nel settore manifatturiero o la visione artificiale nell'industria automobilistica? Visita le nostre pagine dedicate alle soluzioni per saperne di più.

Costruiamo insieme il futuro dell'intelligenza artificiale!

Inizia il tuo viaggio con il futuro del machine learning