Unisciti a noi per un riepilogo del più grande evento dell'anno di Ultralytics, che presenterà il lancio di Ultralytics YOLO26, panel stimolanti e i principali momenti salienti della community.
Unisciti a noi per un riepilogo del più grande evento dell'anno di Ultralytics, che presenterà il lancio di Ultralytics YOLO26, panel stimolanti e i principali momenti salienti della community.
La comunità dell'IA e della computer vision si è riunita il 25 settembre per YOLO Vision 2025 (YV25), l'evento annuale ibrido di Vision AI di Ultralytics. Ospitato a Londra presso The Pelligon e trasmesso in streaming in tutto il mondo, l'evento ha accolto un gruppo eterogeneo di ricercatori, ingegneri e appassionati di IA per condividere idee e conoscere nuove innovazioni, come Ultralytics YOLO26.
Giunto al suo quarto anno, l'evento ha continuato a crescere in termini di portata e impatto. Lo streaming live di YV25 ha già superato le 6.800 visualizzazioni, generando oltre 49.000 impression e accumulando quasi 2.000 ore di visualizzazione.
YV25 è iniziato con un discorso di apertura del nostro host Oisin Lunny, che ha impostato il tono della giornata incoraggiando i partecipanti a connettersi, condividere e sfruttare al meglio l'evento. Come ha detto lui stesso, "YOLO Vision 2025 è la conferenza che unisce la comunità open-source di Vision AI per concentrarsi sui progressi in materia di dati, machine learning e computer vision."
In questo articolo, riassumeremo i punti salienti principali di YOLO Vision 2025, tra cui il lancio del prodotto, i discorsi principali, una tavola rotonda, demo dal vivo e i momenti della community che hanno reso la giornata speciale. Iniziamo!
In vista dell'evento, c'era molta attesa per il lancio del nuovo prodotto e Glenn Jocher, il nostro fondatore e CEO, ha iniziato la giornata alimentando questa energia.
Ha condiviso il percorso di Ultralytics, ricordando come nel 2020, stava eseguendo esperimenti su una singola 1080 Ti collegata al suo MacBook, una configurazione oggi obsoleta. Da quegli umili inizi, Ultralytics è cresciuta fino a diventare una comunità globale con miliardi di inferenze giornaliere alimentate dai modelli YOLO.
Glenn ha anche parlato della recente chiusura di un round di finanziamento di Serie A da 30 milioni di dollari da parte di Ultralytics. Ha spiegato come questo investimento darà impulso alla prossima fase di crescita, consentendo all'azienda di ampliare il team, espandere la ricerca e assicurarsi le risorse di calcolo necessarie per continuare a superare i limiti della computer vision.
Glenn ha poi annunciato due nuove iniziative di Ultralytics. La prima è Ultralytics YOLO26, l'ultimo modello della famiglia Ultralytics YOLO, progettato per essere più piccolo, più veloce e più efficiente, pur raggiungendo una precisione ancora maggiore. La seconda è la Ultralytics Platform, un nuovo ambiente di lavoro SaaS end-to-end che combina dati, training, deployment e monitoraggio per rendere la creazione di soluzioni di computer vision più facile che mai, il cui annuncio è previsto a breve.

YOLO26 è progettato per spingere le prestazioni migliorando al contempo la praticità per l'uso nel mondo reale. La versione più piccola è già fino al 43% più veloce sulle CPU, pur migliorando la precisione, rendendola ideale per applicazioni che vanno dai dispositivi mobili ai grandi sistemi aziendali. YOLO26 sarà disponibile pubblicamente entro la fine di ottobre.
Ecco un assaggio delle caratteristiche principali di YOLO26:
Dopo aver presentato YOLO26, Glenn ha invitato Prateek Bhatnagar, il nostro responsabile dell'ingegneria del prodotto, a dimostrare il prossimo progetto all'orizzonte, la piattaforma Ultralytics. Costruita per semplificare l'intero flusso di lavoro della computer vision, la piattaforma mira a riunire dataset, annotazione, addestramento, implementazione e monitoraggio in un unico luogo.
Prateek l'ha paragonato alla messa a punto di un'auto: invece di recarsi in diverse officine per pneumatici, motori e trasmissioni, tutto avviene in un'unica officina. Allo stesso modo, la piattaforma offre agli sviluppatori un'area di lavoro integrata per gestire l'intero ciclo di vita di un modello di visione artificiale.
La demo ha mostrato strumenti di annotazione assistita dall'AI che accelerano la preparazione del set di dati, opzioni di addestramento personalizzabili sia per esperti che per principianti e il monitoraggio in tempo reale delle esecuzioni di addestramento.
Un altro punto saliente di YV25 è stato un panel sull'edge deployment, moderato da Oisin Lunny. La sessione ha visto la partecipazione di Yuki Tsuji di Sony Semiconductor Solutions, David Plowman di Raspberry Pi e Glenn Jocher.
La discussione ha esplorato come lo spostamento dell'IA all'edge riduca la latenza, diminuisca i costi e migliori la privacy. Yuki ha presentato il sensore IMX500 di Sony, che può eseguire l'inferenza direttamente sul chip. Nel frattempo, David ha parlato di come Raspberry Pi si stia espandendo dalle sue radici di maker in applicazioni commerciali su larga scala.

Il panel ha anche toccato uno dei maggiori ostacoli per gli sviluppatori: far funzionare i modelli senza problemi su diversi dispositivi. È qui che il pacchetto Python di Ultralytics svolge un ruolo chiave.
Grazie alla sua ampia gamma di opzioni di esportazione, semplifica lo spostamento di un modello addestrato in produzione su dispositivi mobili, sistemi embedded o hardware aziendale. Eliminando le difficoltà della conversione del modello, Ultralytics aiuta i team a concentrarsi sulla creazione di soluzioni invece di lottare con problemi di compatibilità.
Come ha spiegato David, “So per mia amara esperienza che convertire i modelli è orribile e, se qualcun altro lo facesse per me, mi semplificherebbe molto la vita. È qui che Ultralytics sta davvero migliorando la situazione e offrendo qualcosa di valore ai nostri utenti.”
I progressi del software di IA avvengono parallelamente all'hardware e, insieme, stanno guidando una nuova ondata di innovazione nella computer vision. Mentre modelli come Ultralytics YOLO continuano a spingere in avanti l'accuratezza, il loro impatto nel mondo reale dipende anche dalle piattaforme su cui vengono eseguiti.
Ad esempio, Seeed Studio ha mostrato come hardware modulare a basso costo come le loro schede reCamera e XIAO, precaricate con modelli Ultralytics YOLO, renda facile per gli sviluppatori passare dalla prototipazione a sistemi AI reali. Questo tipo di integrazione hardware-software riduce la barriera all'ingresso e mostra come l'innovazione a livello hardware acceleri direttamente l'adozione.
Ecco alcuni punti chiave di altri keynote di YV25 che hanno sottolineato come la co-progettazione hardware-software stia aprendo nuove possibilità:
Grazie ai progressi congiunti di software e hardware, la computer vision si sta evolvendo più velocemente che mai. Questi sviluppi paralleli non solo stanno migliorando l'accuratezza e la velocità, ma stanno anche plasmando il modo in cui la Vision AI può essere implementata nel mondo reale. A YV25, i partecipanti hanno avuto l'opportunità di ascoltare esperti di robotica, edge deployment e AI multimodale, ognuno dei quali ha offerto una prospettiva diversa sulla direzione in cui si sta muovendo il settore.
Ad esempio, nel suo keynote, Michael Hart di D-Robotics ha dimostrato come l'abbinamento dei modelli Ultralytics YOLO con la loro scheda compatta RDK X5 (un piccolo modulo di visione AI integrato) consenta ai robot di eseguire modelli di visione avanzati in tempo reale. La sua demo dal vivo ha mostrato quanto la robotica sia progredita, evolvendosi da esperimenti di laboratorio a sistemi pratici alimentati dall'intelligenza artificiale.

Allo stesso modo, Alexis Crowell e Steven Hunsche di Axelera AI hanno sottolineato le sfide e le opportunità della distribuzione di Vision AI all'edge. Attraverso demo dal vivo, hanno spiegato come le Metis AI Processing Units (AIPU) di Axelera AI combinano RISC-V e calcolo digitale in-memory per offrire prestazioni elevate a bassissima potenza. Confezionata in fattori di forma familiari come M.2 e PCIe, la co-progettazione hardware-software della piattaforma rende lo scaling dell'edge AI pratico ed efficiente.
E in un'altra sessione, Merve Noyan di Hugging Face ha esplorato l'ascesa dell'IA multimodale, in cui i modelli combinano la visione con testo, audio e altri input. Ha parlato di casi d'uso che vanno dall'analisi dei documenti agli agenti embodied, sottolineando come l'innovazione open-source stia accelerando l'adozione dell'IA.
Mentre YV25 presentava discorsi stimolanti di ampio respiro, includeva anche sessioni profondamente pratiche. Jiri Borovec di Lightning AI ha fornito una guida pratica che mostra come addestrare e mettere a punto i modelli Ultralytics YOLO con PyTorch Lightning e il supporto multi-GPU.
Ha illustrato esempi di codice, evidenziando come gli strumenti open source, la documentazione chiara e i framework flessibili semplifichino per gli sviluppatori l'aumento di scala del training, la convalida di ogni fase e l'adattamento dei workflow ai propri progetti. È stato un promemoria di quanto siano importanti la community e gli strumenti accessibili per il reale progresso nella computer vision.
Dall'altro lato dello spettro, i relatori hanno esortato il pubblico a riflettere sul ruolo più ampio dell'IA nella società. Nel suo discorso programmatico, Gerd Leonhard, futurista, umanista e CEO di The Futures Agency, ha sostenuto che “la tecnologia è moralmente neutra finché non la usiamo”, sottolineando che la vera domanda non è solo cosa può fare l'IA, ma cosa dovrebbe fare. Ha messo in guardia contro il cadere in trappole come il riduzionismo e la falsità e ha invocato un'IA che serva veramente gli interessi a lungo termine dell'umanità.

Questa attenzione alla responsabilità è proseguita in una chiacchierata informale con Carissa Véliz dell'Università di Oxford, che ha sottolineato l'importanza della privacy e della sicurezza. Ha evidenziato che le community open-source sono vitali per controllare e migliorare il codice e che l'etica e il design sono inseparabili. Il suo messaggio era chiaro: gli sviluppatori devono anticipare l'uso improprio e costruire sistemi che mettano al primo posto la dignità umana e il benessere sociale.
Andando oltre i discorsi e le demo, YV25 ha anche creato uno spazio per le connessioni tra le persone. Durante le pause caffè e il pranzo, i partecipanti si sono mescolati, hanno condiviso esperienze, confrontato approcci e dato il via a nuove collaborazioni.
Per il team di Ultralytics, è stata anche una grande opportunità per incontrarsi di persona. Con membri sparsi in tutto il mondo, momenti come questo aiutano a rafforzare i legami e a celebrare i progressi insieme.

La giornata si è conclusa con un after-party, dove i partecipanti hanno avuto la possibilità di rilassarsi e continuare a fare networking. È stato un momento per riflettere, ricaricarsi e guardare avanti al prossimo capitolo dell'innovazione nella Vision AI.
YOLO Vision 2025 è stata una celebrazione di idee, innovazione e comunità. Il lancio di Ultralytics YOLO26 ha preparato il terreno, seguito da coinvolgenti interventi sull'edge deployment e sull'intelligenza artificiale incentrata sull'uomo che hanno evidenziato la rapida evoluzione della Vision AI e il suo crescente impatto sul mondo.
Oltre alle sessioni principali, l'evento ha riunito le persone. Ricercatori, sviluppatori e appassionati hanno condiviso esperienze, stimolato conversazioni significative ed esplorato nuove possibilità per il futuro. L'evento si è concluso con una nota positiva, con i partecipanti entusiasti del futuro dei modelli Ultralytics YOLO e della computer vision.
Pronto ad esplorare l'AI? Unisciti alla nostra community e al repository GitHub per saperne di più sull'AI e sulla computer vision. Visita le nostre pagine delle soluzioni per esplorare ulteriori applicazioni della computer vision in agricoltura e dell'AI nella robotica. Controlla le nostre opzioni di licenza e inizia oggi stesso con la computer vision!