Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Impostazioni dei cookie
Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Scopri come Ultralytics definisce un nuovo standard per l'intelligenza artificiale visiva edge-first con inferenza end-to-end NMS, CPU più veloci e implementazione semplificata in produzione.
Oggi Ultralytics lancia Ultralytics YOLO26, il YOLO più avanzato e implementabile fino ad oggi. Annunciato per la prima volta in occasione di YOLO 2025 (YV25), YOLO26 rappresenta un cambiamento fondamentale nel modo in cui i modelli di visione artificiale vengono addestrati, implementati e scalati nei sistemi reali.
La visione artificiale sta rapidamente passando all'edge. Sempre più spesso, immagini e video vengono elaborati direttamente su dispositivi, telecamere, robot e sistemi integrati, dove la latenza, l'affidabilità e i costi sono più importanti rispetto alla semplice elaborazione cloud. YOLO26 è progettato per questa realtà, offrendo prestazioni leader a livello mondiale e funzionando in modo efficiente su CPU, acceleratori edge e hardware a basso consumo energetico.
Sebbene YOLO26 rappresenti un significativo passo avanti, mantiene comunque la familiare e semplificata Ultralytics YOLO su cui fanno affidamento gli sviluppatori. Si integra perfettamente nei flussi di lavoro esistenti, supporta un'ampia gamma di attività di visione e rimane facile da usare, rendendo l'adozione semplice sia per i team di ricerca che per quelli di produzione.
Fig. 1. Esempio di utilizzo Ultralytics per il rilevamento di oggetti
In questo articolo analizzeremo tutto ciò che c'è da sapere su Ultralytics e cosa significa un YOLO più leggero, più piccolo e più veloce per il futuro dell'IA visiva. Cominciamo!
Ultralytics stabilisce un nuovo standard per l'intelligenza artificiale visiva
Ultralytics è stato progettato partendo dall'idea che le funzionalità di intelligenza artificiale visiva di grande impatto dovrebbero essere facilmente accessibili a tutti. Crediamo che i potenti strumenti di visione artificiale non debbano essere riservati o limitati a un ristretto gruppo di organizzazioni.
All'YV25 di Londra, il nostro fondatore e CEO Glenn Jocher ha condiviso le sue riflessioni su questa visione, affermando: "La tecnologia AI più straordinaria è nascosta dietro porte chiuse. Non è accessibile. Le grandi aziende controllano i nuovi sviluppi e tutti gli altri devono attendere il proprio turno per potervi accedere. Noi di Ultralytics abbiamo una visione diversa. Vogliamo che l'AI sia alla portata di tutti".
Ha anche spiegato che ciò significa portare l'IA fuori dal cloud e negli ambienti del mondo reale, aggiungendo: "Vogliamo che la tecnologia non rimanga solo nel cloud, ma venga trasferita nei dispositivi edge, nei telefoni, nei veicoli e nei sistemi a basso consumo energetico. E vogliamo che queste persone straordinarie che stanno creando soluzioni abbiano accesso a tutto questo".
YOLO26 riflette questa visione nella pratica: un modello progettato per funzionare dove l'intelligenza artificiale visiva è effettivamente implementata, non dove è più facile prototiparla.
Analisi dettagliata Ultralytics : un modello di visione all'avanguardia
ComeYOLO precedentiYOLO Ultralytics , YOLO26 supporta molteplici attività di visione artificiale all'interno di un'unica famiglia di modelli unificati. È disponibile in cinque dimensioni: Nano (n), Small (s), Medium (m), Large (l) ed Extra Large (x), consentendo ai team di bilanciare velocità, precisione e dimensioni del modello in base ai vincoli di implementazione.
Oltre alla flessibilità, YOLO26 alza il livello delle prestazioni. Rispetto a YOLO11, il modello nano YOLO26 offre CPU fino al 43% più veloce, rendendolo uno dei modelli di rilevamento oggetti ad alta precisione più veloci disponibili per l'implementazione edge e CPU.
Fig. 2. Ultralytics è un modello di visione all'avanguardia.
Classificazione delle immagini: YOLO26 è in grado di analizzare un'intera immagine e assegnarla a una categoria specifica, aiutando i sistemi a comprendere il contesto generale di una scena.
Rilevamento di oggetti: il modello è in grado di individuare e localizzare più oggetti nelle immagini o nei video.
Segmentazione delle istanze: YOLO26 è in grado di delineare singoli oggetti con dettagli a livello di pixel.
Stima della posa: può essere utilizzata per identificare i punti chiave e stimare le pose di persone e altri oggetti.
Rilevamento di bounding box orientati (OBB): YOLO26 è in grado di detect con angolazioni diverse, il che è particolarmente utile per le immagini aeree e satellitari.
Tracciamento degli oggetti: in combinazione con il Python Ultralytics , YOLO26 può essere utilizzato per seguire gli oggetti nei fotogrammi video e nei live streaming.
Tutte le attività supportano la formazione, la convalida, l'inferenza e l'esportazione all'interno di un quadro coerente.
Le principali innovazioni alla base di Ultralytics
Ultralytics introduce diverse innovazioni fondamentali che migliorano la velocità di inferenza, la stabilità dell'addestramento e la semplicità di implementazione. Ecco una panoramica di queste innovazioni:
Rimozione della perdita focale di distribuzione (DFL): il modulo DFL è stato rimosso per semplificare la previsione del bounding box, migliorare la compatibilità hardware e rendere i modelli più facili da esportare ed eseguire su dispositivi edge e a basso consumo energetico.
Inferenza end-to-end NMS: YOLO26 è progettato come modello end-to-end nativo che fornisce direttamente le previsioni finali, eliminando la necessità della soppressione non massima e riducendo la latenza dell'inferenza e la complessità dell'implementazione.
Bilanciamento progressivo delle perdite + STAL: queste strategie di perdita migliorate stabilizzano l'addestramento e migliorano la precisione di rilevamento, in particolare perdetect piccoli edetect .
Ottimizzatore MuSGD: YOLO26 utilizza un nuovo ottimizzatore ibrido che combina SGD tecniche di ottimizzazione ispirate al muone per un addestramento più stabile.
CPU fino al 43% più veloce: ottimizzato specificamente per l'edge computing, YOLO26 offre CPU fino al 43% più veloce, consentendo prestazioni in tempo reale sui dispositivi edge.
Passiamo ora ad analizzare nel dettaglio queste funzionalità di nuova generazione che rendono YOLO26 più veloce, più efficiente e più facile da implementare.
Semplificazione della previsione tramite la rimozione della perdita focale di distribuzione
YOLO precedenti utilizzavano la Distribution Focal Loss (DFL) durante l'addestramento per migliorare la precisione dei bounding box. Sebbene efficace, la DFL introduceva ulteriore complessità e imponeva limiti di regressione fissi che rendevano più difficili l'esportazione e l'implementazione, in particolare su hardware edge e a bassa potenza.
YOLO26 elimina completamente il DFL. La rimozione del DFL elimina i limiti di regressione del bounding box fissi presenti nei modelli precedenti, migliorando l'affidabilità e la precisione nel rilevamento di oggetti molto grandi.
Semplificando il processo di previsione del bounding box, YOLO26 diventa più facile da esportare e funziona in modo più affidabile su un'ampia gamma di dispositivi edge e a basso consumo energetico.
Inferenza end-to-end NMS con Ultralytics
Le pipeline tradizionali per il rilevamento degli oggetti si basano sulla soppressione non massima (NMS) come fase di post-elaborazione per filtrare le previsioni sovrapposte. Sebbene efficace, NMS latenza, complessità e fragilità, soprattutto quando si implementano modelli su più runtime e target hardware.
YOLO26 introduce una modalità di inferenza end-to-end nativa, in cui il modello produce direttamente le previsioni finali senza richiedere NMS fase di post-elaborazione separata. Le previsioni duplicate vengono gestite all'interno della rete stessa.
L'eliminazione NMS la latenza, semplifica le pipeline di implementazione e diminuisce il rischio di errori di integrazione, rendendo YOLO26 particolarmente adatto per implementazioni in tempo reale e edge.
Miglioramento del riconoscimento con Progressive Loss Balancing + STAL
Una caratteristica fondamentale relativa all'addestramento è l'introduzione del Progressive Loss Balancing (ProgLoss) e dello Small-Target-Aware Label Assignment (STAL). Queste funzioni di perdita migliorate aiutano a stabilizzare l'addestramento e a migliorare la precisione del rilevamento.
ProgLoss aiuta il modello ad apprendere in modo più coerente durante l'addestramento, riducendo l'instabilità e consentendogli di convergere più agevolmente. Nel frattempo, STAL si concentra sul miglioramento del modo in cui il modello apprende dai piccoli oggetti, che spesso sono più difficili da detect dei dettagli visivi limitati.
Insieme, ProgLoss e STAL consentono rilevamenti più affidabili, con notevoli miglioramenti nel riconoscimento di oggetti di piccole dimensioni. Ciò è particolarmente importante per applicazioni all'avanguardia come l'Internet delle cose (IoT), la robotica e le immagini aeree, dove gli oggetti sono spesso piccoli, distanti o parzialmente visibili.
Formazione più stabile con l'ottimizzatore MuSGD
Con YOLO26 abbiamo adottato un nuovo ottimizzatore chiamato MuSGD, progettato per rendere l'addestramento più stabile ed efficiente. MuSGD è un approccio ibrido che combina i punti di forza del tradizionale Stochastic Gradient Descent (SGD) con tecniche ispirate a Muon, un ottimizzatore utilizzato nell'addestramento di modelli linguistici di grandi dimensioni (LLM).
SGD stata a lungo una scelta affidabile nel campo della visione artificiale, grazie alla sua semplicità e alla sua forte generalizzazione. Allo stesso tempo, i recenti progressi nella formazione LLM hanno dimostrato che i nuovi metodi di ottimizzazione possono migliorare la stabilità e la velocità se applicati con attenzione. MuSGD introduce alcune di queste idee nel campo della visione artificiale.
Ispirato al Kimi K2 di Moonshot AI, MuSGD incorpora strategie di ottimizzazione che aiutano il modello a convergere più agevolmente durante l'addestramento. Ciò consente a YOLO26 di raggiungere prestazioni elevate più rapidamente, riducendo al contempo l'instabilità dell'addestramento, soprattutto in configurazioni di addestramento più grandi o complesse.
MuSGD aiuta YOLO26 ad addestrare in modo più prevedibile modelli di diverse dimensioni, contribuendo sia al miglioramento delle prestazioni che alla stabilità dell'addestramento.
Ultralytics offre CPU fino al 43% più veloce
Man mano che l'intelligenza artificiale visiva continua ad avvicinarsi al luogo in cui vengono generati i dati, diventa sempre più cruciale disporre di prestazioni edge elevate. Ottimizzato specificamente per l'edge computing, YOLO26 offre CPU fino al 43% più veloce, garantendo prestazioni in tempo reale su dispositivi senza GPU. Questo miglioramento consente di eseguire sistemi di visione reattivi e affidabili direttamente su telecamere, robot e hardware integrato, dove la latenza, l'efficienza e i vincoli di costo definiscono ciò che è possibile fare.
Miglioramento delle attività di visione artificiale supportate da Ultralytics
Oltre ai miglioramenti architetturali che rendono più accurato il rilevamento degli oggetti, YOLO26 include anche ottimizzazioni specifiche progettate per migliorare le prestazioni in tutte le attività di visione artificiale. Ad esempio, migliora la segmentazione delle istanze, la stima della posa e il rilevamento dei riquadri di delimitazione orientati con aggiornamenti mirati che migliorano l'accuratezza e l'affidabilità.
Ecco una panoramica di queste ottimizzazioni:
Segmentazione delle istanze: YOLO26 utilizza la perdita di segmentazione semantica per migliorare il modo in cui il modello apprende durante l'addestramento, il che porta a maschere di istanze più accurate e coerenti. Un modulo proto aggiornato consente inoltre di utilizzare informazioni provenienti da più scale, in modo che il modello gestisca oggetti di dimensioni diverse in modo più efficace, anche in scene complesse.
Stima della posa: integrando la stima della log-verosimiglianza residua (RLE), una tecnica che modella l'incertezza nelle previsioni dei punti chiave, e migliorando il processo di decodifica, YOLO26 fornisce punti chiave più accurati con prestazioni in tempo reale migliori.
Rilevamento orientato dei riquadri di delimitazione: YOLO26 introduce una perdita angolare specializzata che aiuta il modello ad apprendere la rotazione degli oggetti in modo più accurato, in particolare per gli oggetti di forma quadrata in cui l'orientamento può essere ambiguo. La decodifica OBB ottimizzata riduce anche i salti improvvisi nelle previsioni angolari vicino ai confini di rotazione, con conseguente stima dell'orientamento più stabile e coerente.
Fig. 3. Utilizzo di Ultralytics per la segmentazione degli istanti.
Ultralytics : segmentazione a vocabolario aperto basata su YOLO26
Ultralytics inoltre introducendo YOLOE-26, una nuova famiglia di modelli di segmentazione a vocabolario aperto basati sull'architettura e sulle innovazioni di addestramento di YOLO26.
YOLOE-26 non è una nuova attività o funzionalità, ma una famiglia di modelli specializzati che riutilizza l'attività di segmentazione esistente consentendo al contempo prompt di testo, prompt visivi e inferenze senza prompt. Disponibile in tutte YOLO standard YOLO , YOLOE-26 offre una maggiore precisione e prestazioni più affidabili nel mondo reale rispetto ai precedenti modelli di segmentazione a vocabolario aperto.
Ultralytics è progettato per gli ambienti in cui viene effettivamente eseguita la Vision AI.
Dalle telecamere basate sulla visione artificiale ai robot alimentati dalla visione artificiale e dai minuscoli chip di elaborazione all'avanguardia, la visione artificiale e l'intelligenza artificiale vengono implementate direttamente sui dispositivi per l'inferenza in tempo reale. Ultralytics è stato progettato appositamente per questi ambienti, dove la bassa latenza, l'efficienza e le prestazioni affidabili sono fondamentali.
In pratica, ciò significa che YOLO26 può essere facilmente implementato su un'ampia gamma di hardware. Nello specifico, grazie alPython Ultralytics e alla sua ampia gamma di integrazioni, i modelli possono essere esportati in formati ottimizzati per diverse piattaforme e acceleratori hardware.
Ad esempio, l'esportazione in TensorRT un'inferenza ad alte prestazioni sulle NVIDIA , mentre CoreML l'implementazione nativa sui dispositivi Apple e OpenVINO le prestazioni Intel . YOLO26 può anche essere esportato per funzionare su più acceleratori edge dedicati, consentendo un'inferenza ad alta produttività ed efficienza energetica su hardware Edge AI specializzato.
Questi sono solo alcuni esempi, ma esistono molte altre integrazioni supportate negli ambienti edge e di produzione. Questa flessibilità consente a un singolo modello YOLO26 di funzionare su diversi obiettivi di implementazione. Semplifica i flussi di lavoro di produzione e avvicina la Vision AI all'edge.
Ridefinire i casi d'uso della visione artificiale in tutti i settori industriali
Progettato per l'implementazione nel mondo reale, YOLO26 può essere utilizzato in un'ampia gamma di casi d'uso di visione artificiale in diversi settori. Ecco alcuni esempi di dove può essere applicato:
Robotica: YOLO26 può essere utilizzato per attività quali navigazione, rilevamento di ostacoli e interazione con oggetti. Queste funzionalità supportano operazioni robotiche sicure ed efficaci in ambienti dinamici.
Produzione: sulle linee di produzione, YOLO26 è in grado di analizzare immagini e video per identificare difetti, componenti mancanti o problemi di processo. L'elaborazione dei dati sul dispositivo garantisce una rilevazione rapida e riduce la dipendenza dai sistemi cloud.
Applicazioni aeree e con droni: quando viene utilizzato sui droni, YOLO26 è in grado di elaborare immagini aeree durante il volo per ispezioni, mappature e rilevamenti. Ciò consente di analizzare le scene in tempo reale, anche in luoghi remoti.
Sistemi integrati e IoT: grazie al suo design leggero, YOLO26 può funzionare su hardware integrato a bassa potenza per elaborare i dati visivi a livello locale. Tra gli utilizzi più comuni figurano telecamere intelligenti, sensori connessi e dispositivi di monitoraggio automatizzati.
Città intelligenti: in tutti gli ambienti urbani, YOLO26 è in grado di analizzare i flussi video provenienti dalle telecamere del traffico e degli spazi pubblici. Ciò consente applicazioni quali il monitoraggio del traffico, la sicurezza pubblica e la gestione delle infrastrutture all'avanguardia.
Fig. 4. YOLO26 può essere utilizzato per varie applicazioni di visione artificiale.
Introduzione a Ultralytics
Ultralytics può essere utilizzato attraverso due flussi di lavoro complementari, a seconda di come si costruisce e si implementa l'IA visiva.
Opzione 1: Utilizzare Ultralytics tramite la Ultralytics (consigliato)
Ultralytics offre un modo centralizzato per addestrare, implementare e monitorare i modelli YOLO26 in produzione. Riunisce set di dati, esperimenti e implementazioni in un unico posto, semplificando la gestione dei flussi di lavoro di visione AI su larga scala, in particolare per i team che effettuano implementazioni in ambienti edge e di produzione.
Attraverso la Piattaforma, gli utenti possono:
Accedi ai modelli YOLO26
Addestrare e mettere a punto su set di dati personalizzati
Modelli di esportazione per l'implementazione edge e di produzione
Monitorare gli esperimenti e i modelli implementati in un unico flusso di lavoro
Opzione 2: Utilizzare Ultralytics tramite flussi di lavoro open source
YOLO26 rimane completamente accessibile attraverso l'ecosistema open source Ultralyticse può essere utilizzato con i flussi di lavoro esistenti Python per la formazione, l'inferenza e l'esportazione.
Gli sviluppatori possono installare il Ultralytics , caricare modelli YOLO26 preaddestrati e distribuirli utilizzando strumenti e formati familiari come ONNX, TensorRT, CoreML o OpenVINO.
pip install ultralytics
from ultralytics import YOLO
# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")
Per gli utenti che preferiscono un controllo manuale o pipeline personalizzate, è disponibile una documentazione completa e guide nella Ultralytics .
Ultralytics : progettato per il futuro della visione artificiale
Ultralytics è progettato per soddisfare le esigenze delle soluzioni di visione artificiale del futuro, in cui i modelli dovranno essere veloci, efficienti e facili da implementare su hardware reali. Migliorando le prestazioni, semplificando l'implementazione e ampliando le funzionalità del modello, YOLO26 si adatta naturalmente a un'ampia gamma di applicazioni reali. YOLO26 stabilisce un nuovo punto di riferimento per la creazione, l'implementazione e la scalabilità della visione artificiale. Siamo entusiasti di vedere come la comunità lo utilizzerà per realizzare sistemi di visione artificiale nel mondo reale.
Unitevi alla nostra comunità in crescita ed esplorate il nostro repository GitHub per trovare risorse pratiche sull'intelligenza artificiale. Per costruire con Vision AI oggi, esplorate le nostre opzioni di licenza. Scoprite come l 'IA in agricoltura sta trasformando l'agricoltura e come Vision AI nella robotica sta plasmando il futuro visitando le nostre pagine dedicate alle soluzioni.