Unitevi a noi per un riepilogo del più grande evento dell'anno di Ultralytics, con il lancio di Ultralytics YOLO26, panel stimolanti e i punti salienti della comunità.

Unitevi a noi per un riepilogo del più grande evento dell'anno di Ultralytics, con il lancio di Ultralytics YOLO26, panel stimolanti e i punti salienti della comunità.
La comunità dell'intelligenza artificiale e della computer vision si è riunita il 25 settembre per YOLO Vision 2025 (YV25), l'evento annuale di Ultralytics dedicato all'intelligenza artificiale ibrida. Ospitato a Londra presso The Pelligon e trasmesso in streaming in tutto il mondo, l'evento ha accolto un gruppo eterogeneo di ricercatori, ingegneri e appassionati di AI per condividere idee e conoscere nuove innovazioni, come Ultralytics YOLO26.
Al suo quarto anno, l'evento ha continuato a crescere in termini di portata e impatto. Il live stream dell'YV25 ha già ottenuto oltre 6.800 visualizzazioni, generato più di 49.000 impressioni e raccolto quasi 2.000 ore di visione.
YV25 ha preso il via con una nota di apertura del nostro ospite Oisin Lunny, che ha dato il tono alla giornata incoraggiando i partecipanti a connettersi, condividere e sfruttare al meglio l'evento. Come ha detto lui stesso, "YOLO Vision 2025 è la conferenza che riunisce la comunità open-source dell'intelligenza artificiale per concentrarsi sui dati, sull'apprendimento automatico e sui progressi della computer vision".
In questo articolo riepilogheremo i punti salienti di YOLO Vision 2025, tra cui il lancio del prodotto, gli interventi dei relatori, un panel, le dimostrazioni dal vivo e i momenti della comunità che hanno reso speciale la giornata. Iniziamo!
L'evento è stato preceduto da un grande entusiasmo per il lancio del nuovo prodotto e Glenn Jocher, il nostro fondatore e CEO, ha iniziato la giornata facendo leva su questa energia.
Ha condiviso il percorso di Ultralytics, ricordando come nel 2020 eseguisse gli esperimenti su una singola 1080 Ti collegata al suo MacBook, una configurazione oggi obsoleta. Da quegli inizi modesti, Ultralytics è cresciuta fino a diventare una comunità globale con miliardi di inferenze quotidiane basate su modelli YOLO.
Glenn ha anche parlato della recente chiusura di un round di finanziamento della Serie A da 30 milioni di dollari da parte di Ultralytics. Ha spiegato come questo investimento darà impulso alla prossima fase di crescita, consentendo all'azienda di scalare il team, espandere la ricerca e garantire le risorse informatiche necessarie per continuare a spingere i confini della computer vision.
Glenn ha poi annunciato due nuove iniziative di Ultralytics. La prima è Ultralytics YOLO26, l'ultimo modello della famiglia Ultralytics YOLO, progettato per essere più piccolo, più veloce e più efficiente e per ottenere una precisione ancora maggiore. Il secondo è Ultralytics Platform, un nuovo spazio di lavoro SaaS end-to-end che combina dati, formazione, implementazione e monitoraggio per rendere la creazione di soluzioni di computer vision più semplice che mai.
YOLO26 è costruito per spingere al massimo le prestazioni, pur rimanendo pratico per l'uso nel mondo reale. La versione più piccola è già in grado di funzionare fino al 43% più velocemente sulle CPU, pur migliorando l'accuratezza, il che la rende ideale per applicazioni che vanno dai dispositivi mobili ai grandi sistemi aziendali. YOLO26 sarà disponibile al pubblico entro la fine di ottobre.
Ecco un assaggio delle caratteristiche principali di YOLO26:
Dopo aver presentato YOLO26, Glenn ha invitato Prateek Bhatnagar, il nostro responsabile dell'ingegneria dei prodotti, a mostrare il prossimo progetto all'orizzonte, la piattaforma Ultralytics. Costruita per semplificare l'intero flusso di lavoro della computer vision, la piattaforma mira a riunire in un unico luogo i set di dati, l'annotazione, la formazione, la distribuzione e il monitoraggio.
Prateek ha fatto un paragone con la messa a punto di un'auto: invece di visitare diversi negozi per pneumatici, motori e trasmissioni, tutto avviene in un'unica officina. Allo stesso modo, la piattaforma offre agli sviluppatori uno spazio di lavoro integrato per gestire l'intero ciclo di vita di un modello di intelligenza artificiale.
La demo ha mostrato strumenti di annotazione assistita dall'intelligenza artificiale che velocizzano la preparazione dei set di dati, opzioni di formazione personalizzabili per esperti e principianti e il monitoraggio in tempo reale dei cicli di formazione.
Un altro momento saliente dell'YV25 è stato un panel sull'edge deployment, moderato da Oisin Lunny. Alla sessione hanno partecipato Yuki Tsuji di Sony Semiconductor Solutions, David Plowman di Raspberry Pi e Glenn Jocher.
La discussione ha esplorato il modo in cui lo spostamento dell'intelligenza artificiale ai margini riduce la latenza, abbassa i costi e migliora la privacy. Yuki ha presentato il sensore IMX500 di Sony, che può eseguire l'inferenza direttamente sul chip. Nel frattempo, David ha parlato di come Raspberry Pi si stia espandendo dalle sue radici di maker alle applicazioni commerciali su larga scala.
Il panel ha anche affrontato uno dei maggiori ostacoli per gli sviluppatori: far funzionare i modelli senza problemi su diversi dispositivi. È qui che il pacchetto Ultralytics Python gioca un ruolo fondamentale.
Grazie all'ampia gamma di opzioni di esportazione, è semplice spostare un modello addestrato in produzione su dispositivi mobili, sistemi embedded o hardware aziendali. Eliminando le difficoltà di conversione dei modelli, Ultralytics aiuta i team a concentrarsi sulla creazione di soluzioni invece di lottare con i problemi di compatibilità.
Come ha spiegato David, "so per esperienza che convertire i modelli è orribile e se qualcun altro lo fa per me, la vita è molto più facile. È qui che Ultralytics migliora davvero la storia e offre qualcosa di prezioso ai nostri utenti".
I progressi del software di intelligenza artificiale stanno avvenendo parallelamente all'hardware e insieme stanno guidando una nuova ondata di innovazione nella computer vision. Mentre modelli come Ultralytics YOLO continuano a spingere la precisione, il loro impatto nel mondo reale dipende anche dalle piattaforme su cui vengono eseguiti.
Ad esempio, Seeed Studio ha mostrato come un hardware modulare e a basso costo come le sue schede reCamera e XIAO, precaricate con i modelli Ultralytics YOLO, renda facile per gli sviluppatori passare dalla prototipazione ai sistemi di intelligenza artificiale del mondo reale. Questo tipo di integrazione hardware-software abbassa la barriera all'ingresso e dimostra come l'innovazione a livello hardware acceleri direttamente l'adozione.
Ecco alcuni punti salienti degli altri keynote dell'YV25 che hanno sottolineato come la co-progettazione hardware-software stia liberando nuove possibilità:
Grazie ai progressi del software e dell'hardware, la computer vision si sta evolvendo più rapidamente che mai. Questi sviluppi paralleli non solo migliorano l'accuratezza e la velocità, ma modellano anche il modo in cui l'IA della visione può essere impiegata nel mondo reale. All'YV25 i partecipanti hanno avuto la possibilità di ascoltare esperti di robotica, edge deployment e IA multimodale, ognuno dei quali ha offerto una prospettiva diversa sulla direzione che sta prendendo il settore.
Ad esempio, nel suo intervento, Michael Hart di D-Robotics ha dimostrato come l'abbinamento dei modelli Ultralytics YOLO con la scheda compatta RDK X5 (un piccolo modulo di visione AI incorporato) consenta ai robot di eseguire modelli di visione avanzati in tempo reale. La sua dimostrazione dal vivo ha mostrato quanto sia avanzata la robotica, che si è evoluta da esperimenti di laboratorio a sistemi pratici alimentati dall'intelligenza artificiale.
Allo stesso modo, Alexis Crowell e Steven Hunsche di Axelera AI hanno sottolineato le sfide e le opportunità dell'implementazione dell'IA di visione ai margini. Attraverso dimostrazioni dal vivo, hanno spiegato come le unità di elaborazione Metis AI (AIPU) di Axelera AI combinino RISC-V e calcolo digitale in-memory per offrire prestazioni elevate a bassissimo consumo. Confezionate in fattori di forma familiari come M.2 e PCIe, la co-progettazione hardware-software della piattaforma rende la scalabilità dell'IA edge pratica ed efficiente.
In un'altra sessione, Merve Noyan di Hugging Face ha esplorato l'ascesa dell'IA multimodale, in cui i modelli combinano la visione con testo, audio e altri input. Ha parlato di casi d'uso che vanno dall'analisi dei documenti agli agenti incarnati, sottolineando come l'innovazione open-source stia accelerando l'adozione dell'IA.
Se da un lato l'YV25 è stato caratterizzato da stimolanti interventi di grande respiro, dall'altro ha incluso anche sessioni profondamente pratiche. Jiri Borovec di Lightning AI ha mostrato come addestrare e mettere a punto i modelli Ultralytics YOLO con PyTorch Lightning e il supporto multi-GPU.
Ha illustrato esempi di codice e ha sottolineato come gli strumenti open-source, la documentazione chiara e i framework flessibili rendano più facile per gli sviluppatori scalare la formazione, convalidare ogni fase e adattare i flussi di lavoro ai propri progetti. È stato un promemoria di quanto siano importanti la comunità e gli strumenti accessibili per un reale progresso nella computer vision.
Dall'altro lato dello spettro, gli oratori hanno esortato il pubblico a pensare al ruolo più ampio dell'IA nella società. Nel suo intervento, Gerd Leonhard, futurista, umanista e CEO di The Futures Agency, ha sostenuto che "la tecnologia è moralmente neutra finché non la usiamo", sottolineando che la vera questione non è solo cosa può fare l'IA, ma cosa dovrebbe fare. Ha messo in guardia dal cadere in trappole come il riduzionismo e l'assenza di verità e ha chiesto un'IA che serva davvero gli interessi a lungo termine dell'umanità.
L'attenzione alla responsabilità è proseguita nella chiacchierata con Carissa Véliz dell'Università di Oxford, che ha posto l'accento su privacy e sicurezza. Ha sottolineato che le comunità open-source sono fondamentali per verificare e migliorare il codice e che l'etica e la progettazione sono inseparabili. Il suo messaggio è stato chiaro: gli sviluppatori devono prevedere gli abusi e costruire sistemi che mettano al primo posto la dignità umana e il benessere sociale.
Andando oltre i colloqui e le dimostrazioni, l'YV25 ha anche creato uno spazio per i contatti tra le persone. Durante le pause caffè e il pranzo, i partecipanti si sono mescolati, hanno condiviso esperienze, confrontato approcci e avviato nuove collaborazioni.
Per il team di Ultralytics è stata anche una grande opportunità di incontrarsi di persona. Con membri sparsi in tutto il mondo, momenti come questo aiutano a rafforzare i legami e a celebrare i progressi compiuti insieme.
La giornata si è conclusa con un after-party, in cui i partecipanti hanno avuto la possibilità di rilassarsi e continuare a fare networking. È stato un momento per riflettere, ricaricarsi e guardare al prossimo capitolo dell'innovazione nella Vision AI.
YOLO Vision 2025 è stata una celebrazione di idee, innovazione e comunità. Il lancio di Ultralytics YOLO26 ha fatto da cornice, seguito da coinvolgenti interventi sull'edge deployment e sull'IA incentrata sull'uomo che hanno evidenziato i rapidi progressi di Vision AI e il suo crescente impatto sul mondo.
Oltre alle sessioni di presentazione, l'evento ha riunito le persone. Ricercatori, sviluppatori e appassionati hanno condiviso esperienze, avviato conversazioni significative ed esplorato nuove possibilità per il futuro. L'evento si è concluso con una nota positiva, con i partecipanti entusiasti del futuro dei modelli Ultralytics YOLO e della computer vision.
Siete pronti a esplorare l'IA? Unitevi alla nostra comunità e al repository GitHub per saperne di più sull'IA e sulla computer vision. Visitate le nostre pagine dedicate alle soluzioni per esplorare altre applicazioni della computer vision in agricoltura e dell'IA nella robotica. Verificate le nostre opzioni di licenza e iniziate a lavorare con la computer vision oggi stesso!