Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Come utilizzare Ultralytics YOLO11 per il rilevamento di oggetti

Abirami Vina

3 minuti di lettura

29 novembre 2024

Scopri come il nuovo modello Ultralytics YOLO11 può essere utilizzato per il rilevamento di oggetti al fine di ottenere una maggiore precisione in varie applicazioni in diversi settori.

La computer vision è un campo dell'intelligenza artificiale (IA) che aiuta le macchine a interpretare e comprendere le informazioni visive per consentire attività essenziali come l'object detection. A differenza dell'image classification, l'object detection non solo identifica quali oggetti sono presenti in un'immagine, ma ne individua anche le posizioni esatte. Questo la rende uno strumento fondamentale per le applicazioni di vision AI come le auto a guida autonoma, i sistemi di sicurezza in tempo reale e l'automazione dei magazzini.

Nel tempo, la tecnologia di rilevamento degli oggetti è diventata più avanzata e facile da usare. Un importante passo avanti è stato annunciato all'evento ibrido annuale di Ultralytics, YOLO Vision 2024 (YV24), con il lancio del modello Ultralytics YOLO11. YOLO11 migliora l'accuratezza e le prestazioni supportando al contempo le stesse attività di YOLOv8, rendendo facile per gli utenti dei modelli precedenti la transizione senza problemi.

Fig. 1. Un esempio di utilizzo del modello Ultralytics YOLO11 per il rilevamento di oggetti.

In questo articolo, analizzeremo cos'è il rilevamento di oggetti, in cosa si differenzia da altre attività di computer vision ed esploreremo le sue applicazioni nel mondo reale. Ti guideremo anche attraverso l'uso del modello YOLO11 con il pacchetto Python Ultralytics e la piattaforma Ultralytics HUB. Iniziamo!

Cos'è il rilevamento oggetti?

Il rilevamento oggetti è un'attività fondamentale nella computer vision che fa più che identificare oggetti in un'immagine. A differenza della classificazione delle immagini, che determina solo se un oggetto specifico è presente, il rilevamento oggetti riconosce più oggetti e individua le loro posizioni esatte utilizzando bounding box. 

Ad esempio, può identificare e localizzare i volti in una foto di gruppo, le auto in una strada trafficata o i prodotti sullo scaffale di un negozio. La combinazione di riconoscimento e localizzazione degli oggetti lo rende particolarmente utile per applicazioni come la sorveglianza, il monitoraggio della folla e la gestione automatizzata dell'inventario.

Fig. 2. Utilizzo di YOLO11 per il rilevamento dei volti.

Ciò che distingue il rilevamento di oggetti da altre attività come la segmentazione semantica o di istanze è la sua focalizzazione ed efficienza. 

La segmentazione semantica etichetta ogni pixel in un'immagine ma non distingue tra singoli oggetti dello stesso tipo (ad esempio, tutti i volti in una foto sarebbero raggruppati come "volto"). La segmentazione di istanza fa un ulteriore passo avanti separando ogni oggetto e delineandone la forma esatta, anche per oggetti della stessa classe. 

Il rilevamento oggetti, tuttavia, fornisce un approccio più snello identificando e classificando gli oggetti contrassegnando al contempo le loro posizioni. Questo lo rende ideale per attività in tempo reale come il rilevamento di volti in filmati di sicurezza o l'identificazione di ostacoli per veicoli autonomi.

Applicazioni di YOLO11 e object detection

Le funzionalità avanzate di rilevamento oggetti di YOLO11 lo rendono utile in molti settori. Diamo un'occhiata ad alcuni esempi.

Utilizzo di YOLO11 per l'analisi dei dati di vendita al dettaglio

YOLO11 e il rilevamento oggetti stanno ridefinendo l'analisi della vendita al dettaglio rendendo la gestione dell'inventario e il monitoraggio degli scaffali più efficienti e accurati. La capacità del modello di rilevare oggetti in modo rapido e affidabile aiuta i rivenditori a tenere traccia dei livelli di stock, organizzare gli scaffali e ridurre gli errori nel conteggio dell'inventario.

Ad esempio, YOLO11 può rilevare elementi specifici come gli occhiali da sole sullo scaffale di un negozio. Ma perché un rivenditore dovrebbe voler monitorare uno scaffale? Mantenere gli scaffali riforniti e organizzati è fondamentale per garantire che i clienti possano trovare ciò di cui hanno bisogno, il che ha un impatto diretto sulle vendite. Monitorando gli scaffali in tempo reale, i rivenditori possono individuare rapidamente quando gli articoli stanno per esaurirsi, sono fuori posto o sovraffollati, aiutandoli a mantenere un'esposizione organizzata e attraente che migliora l'esperienza di acquisto.

Fig. 3. Un esempio di utilizzo di YOLO11 per rilevare prodotti sugli scaffali.

YOLO11 nelle applicazioni per smart city

Una città vivace si affida a un flusso di traffico fluido e a strade sicure per funzionare in modo efficiente, e YOLO11 può contribuire a renderlo possibile. Infatti, molte applicazioni di smart city possono essere integrate con YOLO11. 

Un caso interessante riguarda l'uso del rilevamento di oggetti per identificare le targhe dei veicoli in movimento. In questo modo, YOLO11 può supportare una riscossione dei pedaggi più rapida, una migliore gestione del traffico e un'applicazione più rapida delle normative. 

Fig. 4. Utilizzo del rilevamento oggetti e di YOLO11 per rilevare le targhe.

Le informazioni provenienti dai sistemi di Vision AI che monitorano le strade possono avvisare le autorità in caso di violazioni del codice stradale o di congestione prima che si trasformino in problemi più grandi. YOLO11 può anche rilevare pedoni e ciclisti, rendendo le strade più sicure ed efficienti per tutti. 

Infatti, la capacità di YOLO11 di elaborare dati visivi lo rende uno strumento potente per migliorare le infrastrutture cittadine. Ad esempio, può aiutare a ottimizzare i tempi dei semafori analizzando il movimento di veicoli e pedoni. Può anche migliorare la sicurezza nelle zone scolastiche rilevando i bambini e avvisando i conducenti di rallentare. Con YOLO11, le città possono adottare misure proattive per affrontare le sfide e creare un ambiente più efficiente per tutti.

Rilevamento video in tempo reale con YOLO11: aumento dell'accessibilità

Il rilevamento di oggetti in tempo reale si riferisce alla capacità di un sistema di identificare e classificare gli oggetti in un flusso video live mentre appaiono. YOLO11 è progettato per prestazioni superiori in tempo reale ed eccelle nel supportare questa capacità. Le sue applicazioni vanno oltre la semplice ottimizzazione dei processi: può anche contribuire a creare un mondo più inclusivo e accessibile.

Ad esempio, YOLO11 può assistere le persone con problemi di vista identificando gli oggetti in tempo reale. Sulla base dei rilevamenti, possono essere fornite descrizioni audio, che aiutano gli utenti a orientarsi nell'ambiente circostante con maggiore indipendenza.

Si consideri una persona con disabilità visive che fa la spesa. Scegliere gli articoli giusti può essere difficile, ma YOLO11 può essere d'aiuto. Mentre ripongono gli articoli nel carrello, un sistema integrato con YOLO11 potrebbe essere utilizzato per identificare ogni articolo, come banane, avocado o un cartone di latte, e fornire descrizioni audio in tempo reale. Ciò consente loro di confermare le proprie scelte e assicurarsi di avere tutto il necessario. Riconoscendo gli oggetti di uso quotidiano, YOLO11 può semplificare lo shopping.

Fig. 5. Il rilevamento oggetti può contribuire a rendere il mondo più accessibile alle persone con problemi di vista.

Guida dettagliata al rilevamento oggetti con YOLO11 

Ora che abbiamo trattato le basi del rilevamento oggetti e le sue diverse applicazioni, approfondiamo come iniziare a utilizzare il modello Ultralytics YOLO11 per attività come il rilevamento oggetti.

Ci sono due modi semplici per utilizzare YOLO11: tramite il pacchetto Python di Ultralytics o l'Ultralytics HUB. Esploriamo entrambi i metodi, iniziando con il pacchetto Python.

Esecuzione di inferenze utilizzando YOLO11

L'inferenza è quando un modello di IA analizza nuovi dati, mai visti prima, per fare previsioni, classificare informazioni o fornire approfondimenti basati su ciò che ha imparato durante il training. Rispetto al rilevamento di oggetti, ciò significa identificare e localizzare oggetti specifici all'interno di un'immagine o di un video, tracciare riquadri di delimitazione attorno a essi ed etichettarli in base al training del modello.

Per eseguire l'inferenza utilizzando il modello di object detection YOLO11, è necessario innanzitutto installare il pacchetto Python di Ultralytics tramite pip, conda o Docker. In caso di problemi di installazione, consulta la guida alla risoluzione dei problemi per suggerimenti e trucchi utili. Una volta installato, è possibile utilizzare il seguente codice per caricare il modello di object detection YOLO11 ed effettuare previsioni su un'immagine.

Fig. 6. Esecuzione di un'inferenza su un'immagine utilizzando YOLO11n.

Addestramento di un modello YOLO11 personalizzato

YOLO11 supporta anche il training personalizzato per adattarsi meglio ai tuoi casi d'uso specifici. Mettendo a punto il modello, puoi personalizzarlo per rilevare oggetti rilevanti per il tuo progetto. Ad esempio, quando si utilizza la computer vision in ambito sanitario, un modello YOLO11 addestrato in modo personalizzato potrebbe essere utilizzato per rilevare specifiche anomalie nelle immagini mediche, come tumori nelle scansioni MRI o fratture nelle radiografie, aiutando i medici a formulare diagnosi più rapide e accurate.

Il frammento di codice seguente mostra come caricare e addestrare un modello YOLO11 per il rilevamento di oggetti. È possibile partire da un file di configurazione YAML o da un modello pre-addestrato, trasferire i pesi ed eseguire il training su dataset come COCO per ottenere funzionalità di object detection più precise.

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Dopo aver addestrato un modello, è anche possibile esportare il modello addestrato in vari formati per l'implementazione in diversi ambienti.

Rilevamento di oggetti YOLO11 su Ultralytics HUB

Per chi cerca un'alternativa no-code, Ultralytics HUB fornisce una piattaforma Vision AI facile da usare per l'addestramento e il deployment di modelli YOLO, incluso YOLO11.

Per eseguire l'object detection sulle immagini, è sufficiente creare un account, andare alla sezione 'Modelli' e selezionare la variante del modello di object detection YOLO11. Carica la tua immagine e la piattaforma visualizzerà gli oggetti rilevati in una sezione di anteprima.

Fig. 7. Esecuzione di inferenze su Ultralytics HUB.

Combinando la flessibilità del pacchetto Python con la facilità dell'HUB, YOLO11 rende semplice per sviluppatori e aziende sfruttare la potenza della tecnologia avanzata di object detection.

Punti chiave

YOLO11 stabilisce un nuovo standard nel rilevamento di oggetti, combinando alta precisione e versatilità per soddisfare le esigenze di vari settori. Dal miglioramento dell'analisi della vendita al dettaglio alla gestione dell'infrastruttura di smart city, YOLO11 è costruito per prestazioni affidabili e in tempo reale in innumerevoli applicazioni.

Con opzioni per l'addestramento personalizzato e un'interfaccia facile da usare tramite Ultralytics HUB, l'integrazione di YOLO11 nei tuoi flussi di lavoro non è mai stata così semplice. Che tu sia uno sviluppatore che esplora la computer vision o un'azienda che cerca di innovare con l'IA, YOLO11 offre gli strumenti necessari per avere successo.

Per saperne di più, consulta il nostro repository GitHub e interagisci con la nostra community. Esplora le applicazioni dell'AI nelle auto a guida autonoma e nella computer vision per l'agricoltura nelle nostre pagine delle soluzioni. 🚀

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti