Portare Ultralytics YOLO11 sui dispositivi Apple tramite CoreML

30 luglio 2025
Scopri com'è facile portare Ultralytics YOLO11 sui dispositivi Apple con CoreML e abilitare attività di computer vision offline veloci per app iOS in tempo reale.


30 luglio 2025
Scopri com'è facile portare Ultralytics YOLO11 sui dispositivi Apple con CoreML e abilitare attività di computer vision offline veloci per app iOS in tempo reale.

Con l'introduzione da parte di Apple di funzionalità come Apple Intelligence, è chiaro che l'AI on-device sta diventando una parte centrale del modo in cui utilizziamo i nostri telefoni. Per gli sviluppatori, questo cambiamento significa che gli utenti stanno adottando app iOS che utilizzano funzionalità come la computer vision per offrire esperienze più intelligenti e reattive.
La computer vision è un tipo di intelligenza artificiale (IA) che consente ai computer di comprendere e analizzare informazioni visive, come immagini o video. Sui dispositivi mobili, può essere utilizzata in tempo reale per rilevare, classificare e interagire con gli oggetti attraverso la fotocamera del telefono. I modelli di Vision AI come Ultralytics YOLO11 possono essere addestrati in modo personalizzato per riconoscere oggetti specifici, a seconda delle esigenze della tua app.
Tuttavia, YOLO11 non è impostato per essere eseguito su iOS immediatamente. Per implementare YOLO11 su iPhone o altri dispositivi Apple, in particolare per l'uso offline, deve essere convertito in un formato ottimizzato per l'ecosistema Apple.
Questo è esattamente il tipo di problema che CoreML è stato creato per risolvere. CoreML è il framework di machine learning di Apple, creato per eseguire modelli localmente e integrarsi perfettamente nelle applicazioni iOS e macOS. L'integrazione CoreML, supportata da Ultralytics, semplifica l'esportazione del modello per il deployment locale su iPhone.
In questo articolo, esamineremo più da vicino come esportare il tuo modello YOLO11 nel formato CoreML. Esploreremo anche casi d'uso in tempo reale che mostrano i vantaggi dell'esecuzione di modelli di computer vision direttamente su dispositivi iOS. Iniziamo!
CoreML è un framework di machine learning (ML) sviluppato da Apple che consente agli sviluppatori di integrare modelli ML addestrati direttamente nelle app dell'ecosistema Apple, tra cui iOS (iPhone e iPad), macOS (Mac), watchOS (Apple Watch) e tvOS (Apple TV). È progettato per rendere il machine learning accessibile ed efficiente sui dispositivi Apple, consentendo ai modelli di essere eseguiti direttamente sul dispositivo, senza richiedere una connessione internet.
Il fulcro di CoreML è un formato di modello unificato che supporta un'ampia gamma di attività di IA come la classificazione delle immagini, il rilevamento degli oggetti, il riconoscimento vocale e l'elaborazione del linguaggio naturale. Il framework è ottimizzato per sfruttare al meglio l'hardware di Apple, utilizzando la CPU (central processing unit), la GPU (graphics processing unit) e l'ANE (Apple Neural Engine) per eseguire i modelli in modo rapido ed efficiente.
CoreML supporta una varietà di tipi di modelli ed è compatibile con le librerie di machine learning più diffuse, tra cui TensorFlow, PyTorch, scikit-learn, XGBoost e LibSVM. Questo semplifica l'integrazione di funzionalità ML avanzate nelle app di uso quotidiano, garantendo al contempo un funzionamento ottimale sui dispositivi Apple.

Ecco alcune delle caratteristiche principali che rendono CoreML uno strumento affidabile per l'integrazione dell'IA nelle app Apple:
Ora che abbiamo una migliore comprensione del framework CoreML, vediamo come utilizzare l'integrazione CoreML supportata da Ultralytics per esportare un modello YOLOv8 nel formato CoreML.
Per accedere alle funzionalità di integrazione fornite da Ultralytics, inizia installando il pacchetto Python Ultralytics. Si tratta di una libreria leggera e facile da usare che semplifica attività quali l'addestramento, la valutazione, la previsione e l'esportazione di modelli Ultralytics YOLO.
Puoi installare il pacchetto Python Ultralytics eseguendo “pip install ultralytics” nel tuo terminale dei comandi. Se stai usando un ambiente come Jupyter Notebook o Google Colab, includi un punto esclamativo (!) prima del comando: “!pip install ultralytics”.
In caso di problemi durante l'installazione o l'esportazione in CoreML, consulta la documentazione ufficiale di Ultralytics o la guida ai problemi comuni per assistenza.
Una volta installato correttamente il pacchetto, sei pronto per caricare un modello YOLO11 e convertirlo in formato CoreML.
Se non sei sicuro di quale modello YOLO11 pre-addestrato utilizzare, puoi esplorare la gamma di modelli supportati da Ultralytics. Ognuno offre un diverso equilibrio tra velocità, dimensioni e precisione, e puoi scegliere quello più adatto al tuo progetto. Puoi anche utilizzare un modello YOLO11 addestrato personalizzato se ne hai addestrato uno sul tuo set di dati.
Nello snippet di codice seguente, viene utilizzato un file modello YOLO11 pre-addestrato denominato "yolo11n.pt". Durante il processo di esportazione, viene convertito in un pacchetto CoreML chiamato "yolo11n.mlpackage".
Il modello "yolo11n" è la versione nano, ottimizzata per la velocità e il basso utilizzo di risorse. A seconda delle esigenze del tuo progetto, puoi anche scegliere altre dimensioni del modello come "s" per piccolo, "m" per medio, "l" per grande o "x" per extra-large. Ogni versione offre un diverso equilibrio tra prestazioni e precisione.
from ultralytics import YOLO
model = YOLO("yolo11n.pt")
model.export(format="coreml")
Dopo l'esportazione nel formato CoreML, YOLO11 può essere facilmente integrato nelle applicazioni iOS, consentendo attività di computer vision in tempo reale come il rilevamento di oggetti su dispositivi come iPhone, iPad e Mac.
Ad esempio, il frammento di codice seguente mostra come caricare il modello CoreML esportato ed eseguire l'inference. L'inference è il processo di utilizzo di un modello addestrato per fare previsioni su nuovi dati. In questo caso, il modello analizza un'immagine di una famiglia che gioca con una palla.
coreml_model = YOLO("yolo11n.mlpackage")
results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)
Dopo aver eseguito il codice, l'immagine di output verrà salvata nella cartella "runs/detect/predict".

L'esportazione di YOLO11 in CoreML offre la flessibilità di creare diverse applicazioni di computer vision che possono essere eseguite in modo efficiente su iPhone, iPad e Mac. Successivamente, esaminiamo alcuni scenari reali in cui questa integrazione può essere particolarmente utile.
La realtà aumentata (AR) fonde il contenuto digitale con il mondo reale sovrapponendo elementi virtuali alle visualizzazioni live della fotocamera. Sta diventando una parte fondamentale del mobile gaming, creando esperienze più interattive e coinvolgenti.
Con YOLO11 esportato nel formato CoreML, gli sviluppatori iOS possono creare giochi AR che riconoscono oggetti del mondo reale come panchine, alberi o segnali utilizzando la fotocamera del telefono. Il gioco può quindi sovrapporre elementi virtuali, come monete, indizi o creature, sopra questi oggetti per migliorare l'ambiente circostante del giocatore.
Dietro le quinte, questo funziona utilizzando il rilevamento e il tracciamento degli oggetti. YOLO11 rileva e identifica gli oggetti in tempo reale, mentre il tracciamento mantiene tali oggetti in vista mentre la telecamera si muove, assicurandosi che gli elementi virtuali rimangano allineati con il mondo reale.
I giocatori possono puntare i loro telefoni, esplorare il loro ambiente e interagire con ciò che vedono per raccogliere oggetti o completare sfide rapide. Tutto questo può essere eseguito direttamente sul dispositivo senza bisogno di una connessione internet, rendendo l'esperienza fluida e coinvolgente.
Il riconoscimento automatico delle targhe (ANPR) è un'applicazione di computer vision utilizzata per rilevare e leggere le targhe dei veicoli. È comunemente utilizzata nei sistemi di sicurezza, monitoraggio del traffico e controllo degli accessi. Con CoreML e modelli come YOLO11, l'ANPR può ora essere eseguito in modo efficiente sui dispositivi iOS.
Avere un'app ANPR sul tuo iPhone può essere particolarmente utile in ambienti focalizzati sulla sicurezza. Ad esempio, può aiutare i team a determinare rapidamente se un veicolo che entra in un'area riservata è autorizzato o meno.
Un'app di questo tipo può utilizzare un modello Vision AI come YOLO11, integrato tramite CoreML, per rilevare i veicoli e localizzare le loro targhe in tempo reale utilizzando la fotocamera del dispositivo. Una volta rilevata una targa, la tecnologia di riconoscimento ottico dei caratteri (OCR) può leggere il numero di targa. L'app può quindi confrontare questo numero con un database locale o basato su cloud per verificare l'accesso o segnalare veicoli non autorizzati.

L'IA ha avuto un enorme impatto sull'accessibilità, contribuendo ad abbattere le barriere per le persone con disabilità visive. Con strumenti come CoreML e modelli di computer vision come YOLO11, gli sviluppatori possono creare app iOS che descrivono il mondo circostante agli utenti in tempo reale, rendendo le attività quotidiane più facili e indipendenti.
Ad esempio, una persona ipovedente può puntare la fotocamera del proprio iPhone verso l'ambiente circostante. L'app utilizza il rilevamento oggetti per riconoscere elementi chiave, come veicoli, persone o segnali stradali, e narra ciò che vede. Questo può essere utilizzato in situazioni come la navigazione in una strada trafficata o la comprensione di un'emergenza.

L'esportazione di YOLOv8 nel formato CoreML crea nuove opportunità per applicazioni in tempo reale, tra cui il rilevamento di oggetti offline su dispositivi iOS. Dall'agricoltura e la sicurezza all'accessibilità, questa combinazione consente agli sviluppatori di creare app intelligenti, efficienti e incentrate sulla privacy che vengono eseguite interamente sul dispositivo.
Con pochi semplici passaggi, puoi convertire il tuo modello YOLO11 e aggiungere funzionalità di computer vision affidabili agli iPhone. Soprattutto, funziona senza bisogno di una connessione internet. Nel complesso, l'integrazione di CoreML porta la potenza dell'AI avanzata alle app mobili di tutti i giorni, rendendole più veloci, più reattive e pronte per essere eseguite ovunque.
Vuoi saperne di più sull'AI? Esplora il nostro repository GitHub, entra in contatto con la nostra community e dai un'occhiata alle nostre opzioni di licenza per dare il via al tuo progetto di computer vision. Scopri come innovazioni come l'AI nel retail e la computer vision nella logistica stanno plasmando il futuro nelle nostre pagine delle soluzioni.