Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Impostazioni dei cookie
Cliccando su “Accetta tutti i cookie”, l'utente accetta di memorizzare i cookie sul proprio dispositivo per migliorare la navigazione del sito, analizzare l'utilizzo del sito e assistere le nostre attività di marketing. Maggiori informazioni
Ultralytics l'intelligenza artificiale visiva all'avanguardia con YOLO26
4 minuti di lettura
14 gennaio 2026
Scopri come Ultralytics definisce un nuovo standard per l'intelligenza artificiale visiva in termini di velocità, semplicità e implementabilità nel mondo reale, dai dispositivi edge ai server su larga scala.
Oggi lanciamo ufficialmente Ultralytics , il nostro nuovo modello che stabilisce un nuovo standard di riferimento per prestazioni all'avanguardia. Presentato per la prima volta dal nostro fondatore e CEO, Glenn Jocher, in occasione dell'evento YOLO 2025 (YV25) a Londra, è il nostro modello più avanzato e implementabile fino ad oggi.
Progettato per essere leggero, compatto e veloce, YOLO26 è stato sviluppato per applicazioni di visione artificiale in tempo reale nel mondo reale. Con inferenza end-to-end nativa integrata direttamente nel modello, YOLO26 semplifica l'implementazione, riduce la complessità del sistema e offre prestazioni affidabili su dispositivi edge e ambienti di produzione su larga scala.
Infatti, la versione più piccola di YOLO26, il modello nano, funziona fino al 43% più velocemente su CPU standard, consentendo soluzioni efficienti di visione AI in tempo reale su applicazioni mobili, telecamere intelligenti e altri dispositivi edge. Basato sulla visione Ultralyticsdi rendere accessibili a tutti le potenti funzionalità di visione AI, YOLO26 combina prestazioni all'avanguardia con la semplicità, rendendolo facile da usare e da implementare.
Progettato per la prossima era della visione artificiale
La visione artificiale sta rapidamente andando oltre il cloud. Le applicazioni nel mondo reale richiedono sempre più spesso inferenze in tempo reale, bassa latenza, flessibilità hardware e prestazioni prevedibili su dispositivi quali droni, fotocamere, sistemi mobili e piattaforme integrate.
YOLO26 è stato creato appositamente per questo cambiamento. Ripensando da zero il processo di rilevamento degli oggetti, Ultralytics creato un'architettura di modello che elimina inutili complessità, garantendo al contempo precisione e velocità all'avanguardia.
Ad esempio, i modelli tradizionali di rilevamento Ultralytics si basano su un'ulteriore fase di post-elaborazione denominata "Non-Maximum Suppression " (soppressione non massima) per filtrare le previsioni sovrapposte dopo l'inferenza. YOLO26 elimina questa fase aggiuntiva abilitando l'inferenza end-to-end nativa, consentendo al modello di produrre direttamente i rilevamenti finali. Ciò consente un'implementazione nel mondo reale più rapida, più prevedibile e più affidabile.
YOLO26 non è un aggiornamento incrementale. Rappresenta un salto di qualità strutturale nel modo in cui l'intelligenza artificiale visiva di livello produttivo viene addestrata, implementata e scalata.
Fig. 1. Benchmarking Ultralytics
Cosa rende possibile YOLO26
Uno degli aspetti chiave di YOLO26 è il modo in cui si basa sui punti di forza dei modelli precedenti come Ultralytics YOLO11 , ampliando al contempo le possibilità offerte dalla visione artificiale. YOLO26 supporta immediatamente le stesse attività fondamentali di visione artificiale di YOLO11, tra cui il rilevamento di oggetti, la segmentazione di istanze e la classificazione di immagini.
Fig. 2. Esempio di utilizzo di YOLO26 per detect in un'immagine.
Continua inoltre a supportare la stima della posa, il rilevamento di oggetti con bounding box orientato per immagini aeree e satellitari e il tracciamento di oggetti nei flussi video. Come YOLO11, YOLO26 è disponibile in cinque varianti di modello, Nano (n), Small (s), Medium (m), Large (l) ed Extra large (x), offrendo agli utenti opzioni che bilanciano velocità, dimensioni e precisione.
Caratteristiche principali di Ultralytics
Ultralytics include una serie di miglioramenti progettati per aumentare le prestazioni, l'affidabilità e l'usabilità nel mondo reale. Ecco una panoramica delle caratteristiche principali di YOLO26:
Rimozione della perdita focale di distribuzione: YOLO26 rimuove la perdita focale di distribuzione (DFL), riducendo la complessità del modello e favorendo un'implementazione più semplice e compatibile su hardware edge e a basso consumo energetico.
Inferenza end-to-end NMS: YOLO26 elimina in modo nativo la necessità della soppressione non massima (NMS), un passaggio normalmente utilizzato per rimuovere le previsioni duplicate, rendendo l'implementazione più semplice e veloce per l'uso in tempo reale.
Bilanciamento progressivo delle perdite + STAL: il bilanciamento progressivo delle perdite (ProgLoss) e l'assegnazione di etichette sensibili ai piccoli obiettivi (STAL) regolano il modo in cui il modello apprende durante l'addestramento, consentendo un rilevamento più affidabile di oggetti piccoli e distanti in scene complesse.
Ottimizzatore MuSGD: YOLO26 introduce l'ottimizzatore MuSGD, un ibrido tra il metodo Stochastic Gradient Descent (SGD) e tecniche ispirate al muone, che migliora la stabilità dell'addestramento e consente una convergenza più rapida e coerente.
CPU fino al 43% più veloce: il modello YOLO26 nano offre un'inferenza fino al 43% più veloce su CPU standard, consentendo un'efficiente visione AI in tempo reale su dispositivi mobili, telecamere intelligenti e altri sistemi edge.
Dietro il codice: il viaggio verso Ultralytics
Lo sviluppo di YOLO26 è stato il risultato di uno sforzo collettivo, frutto della ricerca del nostro team e del feedback ricevuto dalla comunità, dai nostri partner e dai clienti. Abbiamo deciso di semplificare l'architettura, migliorare l'efficienza e rendere il modello più adattabile all'uso nel mondo reale.
Riflettendo su quel percorso, Glenn Jocher ha spiegato: "Una delle sfide più grandi è stata quella di garantire agli utenti la possibilità di sfruttare al massimo YOLO26, continuando a offrire prestazioni eccellenti". La sua prospettiva mette in luce un principio fondamentale alla base della progettazione di YOLO26: mantenere l'intelligenza artificiale visiva facile da usare.
Ampliando questa idea, Jing Qiu, il nostro ingegnere senior di machine learning, ha aggiunto: "La creazione del nuovoYOLO Ultralytics YOLO è stata una questione di costanza, senza fretta. Ho continuato a perfezionarlo, concentrandomi solo sull'equilibrio tra velocità e precisione. Quando tutto è andato a posto, ho provato una tranquilla soddisfazione: la prova che prestare attenzione ai dettagli funziona".
Inizia a costruire con Ultralytics
Ultralytics sarà disponibile al pubblico a partire da oggi tramite la Ultralytics con supporto completo per i flussi di lavoro di formazione, inferenza ed esportazione. Le organizzazioni che implementano YOLO26 in ambienti commerciali o chiusi possono accedere a opzioni di licenza aziendale, che includono supporto per l'implementazione in produzione, manutenzione a lungo termine e rollout scalabili.
Come i nostri modelli precedenti, anche questo è completamente supportato dal Python Ultralytics , consentendo agli utenti di iniziare subito a utilizzarlo. Gli utenti possono addestrare, convalidare e implementare YOLO26 con lo stesso flusso di lavoro semplificato che già conoscono, sfruttando al contempo una vasta gamma di opzioni di esportazione quali ONNX, TensorRT, CoreML, TFLite, OpenVINO e altre ancora.
Costruiamo insieme il futuro della visione artificiale
Ultralytics rappresenta il nostro prossimo passo verso un'intelligenza artificiale visiva più veloce, più leggera e più facile da usare. Ma questo è solo l'inizio.
Il vero impatto deriva da ciò che la comunità dell'intelligenza artificiale visiva crea con essa. Non vediamo l'ora di vedere le vostre innovazioni e di continuare a plasmare insieme il futuro della visione artificiale.