Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

I principali punti salienti di Ultralytics da YOLO Vision 2024!

Abirami Vina

4 minuti di lettura

8 ottobre 2024

Esplora i momenti salienti dell'evento annuale di Ultralytics e rivivi l'esperienza ibrida di YOLO Vision. Tratteremo il lancio di YOLO11 di Ultralytics, panel coinvolgenti e altro ancora.

Il 27 settembre, Ultralytics ha riunito la comunità dell'IA e della computer vision per il nostro entusiasmante evento ibrido annuale, YOLO Vision 2024 (YV24). Ospitato presso il Google for Startups Campus di Madrid e trasmesso in streaming a livello globale, l'evento ha riunito esperti, sviluppatori e appassionati per discutere le ultime novità nella Vision AI, come il nuovo modello Ultralytics YOLO11. La diretta streaming dell'evento ha già raggiunto oltre 5.400 visualizzazioni, con più di 10.600 impressioni e 469,5 ore di visualizzazione, coinvolgendo innovatori di tutto il mondo.

YV24 è iniziato con un caloroso benvenuto da parte del nostro presentatore, Oisin Lunny, che ha sottolineato l'importanza della community e della connessione dicendo: "Credo fermamente nel potere delle grandi idee e delle grandi community, e ciò che Ultralytics ha creato con YOLO Vision è proprio questo: una grande community di persone fantastiche con grandi idee."

In questo articolo, individueremo i punti salienti di YOLO Vision 2024, dalle coinvolgenti tavole rotonde agli affascinanti casi d'uso reali della computer vision. Esploreremo anche i talk tecnici che spaziano dall'edge AI all'accelerazione hardware, nonché i momenti di networking e di creazione di community che hanno decretato il successo dell'evento. Che tu sia interessato alle innovazioni dell'AI, agli annunci chiave o al futuro della Vision AI, questo resoconto dell'evento YOLO Vision 2024 copre tutti gli aspetti essenziali! 

Lancio di Ultralytics YOLO11 allo YOLO Vision

Il lancio del prodotto che era stato anticipato prima di YOLO Vision 2024 è stato finalmente svelato con un annuncio durante il keynote iniziale da Glenn Jocher, fondatore e CEO di Ultralytics. Glenn ha presentato Ultralytics YOLO11, che segna la prossima generazione di modelli di computer vision, in fase di sviluppo da diversi mesi. Ad aumentare l'entusiasmo per il lancio, Glenn è stato successivamente intervistato a The Ravit Show e ha condiviso approfondimenti sullo sviluppo di YOLO11.

Durante il suo keynote, Glenn ha anche condiviso la storia del percorso dell'azienda, a partire dal suo background nella fisica delle particelle e da come la sua passione per la comprensione dell'universo lo abbia portato al machine learning e alla computer vision.

__wf_reserved_inherit
Fig. 1. Ultralytics YOLO11 è stato annunciato ufficialmente da Glenn Jocher sul palco al YOLO Vision 2024.

Ha spiegato come il suo lavoro iniziale in fisica, dove i ricercatori analizzavano le interazioni tra le particelle, fosse simile al rilevamento di oggetti nella computer vision. La sua curiosità e la sua spinta a lavorare su tecnologie all'avanguardia hanno portato alla creazione di Ultralytics YOLOv5. Durante il suo intervento, Glenn ha sottolineato l'importanza della collaborazione e del contributo all'interno della comunità open-source e ha ringraziato gli sviluppatori di tutto il mondo che hanno fornito feedback e contribuito a migliorare YOLOv5 e Ultralytics YOLOv8 nel tempo.

Ha quindi presentato le caratteristiche principali di Ultralytics YOLO11 e ha spiegato che è più veloce, più preciso e più efficiente dei modelli precedenti. Infatti, YOLO11m utilizza il 22% in meno di parametri rispetto a YOLOv8m, ma offre una migliore precisione sul dataset COCO, rendendo YOLO11 perfetto per le applicazioni in tempo reale dove velocità e precisione sono fondamentali.

Glenn ha sottolineato la portata del lancio affermando: "Stiamo lanciando 30 modelli in totale, 25 dei quali sono open source, con cinque diverse dimensioni per cinque diversi compiti. I compiti sono classificazione delle immagini, object detection, instance segmentation, pose estimation e oriented bounding boxes." Sul fronte enterprise, ha annunciato che il mese prossimo saranno disponibili modelli robusti addestrati su un dataset proprietario di 1 milione di immagini. Inutile dire che l'annuncio ha dato il via all'evento in grande stile, lasciando i partecipanti desiderosi di saperne di più sul potenziale di YOLO11 per innovare in settori come il manufacturing e le auto a guida autonoma.

Tavole rotonde allo YOLO Vision: una conferenza sull'IA

Le tavole rotonde, moderate da Oisin Lunny, allo YOLO Vision 2024 hanno fornito una serie di approfondimenti sull'AI, la computer vision e la costruzione di comunità. 

Il primo panel ha visto la partecipazione di Glenn Jocher, Jing Qiu (una figura chiave nello sviluppo dei modelli YOLO presso Ultralytics) e Ao Wang della Tsinghua University, co-autore di YOLOv10. Il panel ha discusso dei recenti sviluppi nell'AI generativa e nella computer vision, concentrandosi sulle loro somiglianze, differenze e sull'impatto che ogni campo ha avuto sull'altro. Nonostante la recente ascesa dei modelli linguistici di grandi dimensioni (LLM), il panel ha osservato che la computer vision tradizionale è ancora essenziale per compiti specifici in settori come l'assistenza sanitaria

Il panel successivo ha affrontato le sfide che le donne affrontano nella leadership dell'AI, con le relatrici: la direttrice della crescita di Ultralytics Paula Derrenger, l'ex CPO e COO in SaaS Bruna de Guimarães, la responsabile del capitolo per Latinas in Tech Madrid Mariana Hernandez e la fondatrice di Dare to Data Christina Stathopoulous che hanno condiviso le loro esperienze, discutendo al contempo l'importanza del mentorship e la necessità che le donne intraprendano passi proattivi nella ricerca di ruoli di leadership. Hernandez ha consigliato: "Siate proattive, non aspettate che le cose accadano per voi", e ha incoraggiato le donne del pubblico a farsi valere e a perseguire attivamente le opportunità. Il panel ha anche discusso il valore della creazione di ambienti di lavoro più favorevoli.

__wf_reserved_inherit
Fig. 2. Un panel sulle donne nel settore tecnologico, da sinistra a destra: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, con Bruna de Guimarães che si unisce da remoto.

L'ultimo panel ha esplorato come la costruzione di comunità forti possa promuovere l'innovazione nell'AI. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell hanno discusso i modi per interagire con il pubblico tecnico, sia online che durante eventi di persona. L'intuizione di Farrell, "Devi incontrarli dove si trovano", ha sottolineato l'importanza di connettersi con i membri della comunità nei loro termini per incoraggiare la collaborazione e l'apprendimento condiviso.

__wf_reserved_inherit
Fig. 3. Un panel sulla costruzione di community, da sinistra a destra: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell e Oisin Lunny.

Esempi reali di innovazioni dell'IA presso YOLO Vision

Diversi interventi allo YV24 hanno fatto luce su come i modelli YOLO vengono applicati per risolvere sfide del mondo reale in vari settori. Jim Griffin, conduttore del podcast AI Master Group, ha parlato di un progetto che utilizza i modelli YOLOv8 per monitorare i movimenti degli squali lungo la costa californiana tramite sorveglianza con droni. Il sistema avvisa bagnini, proprietari di negozi di surf e genitori, garantendo la sicurezza dei bagnanti rilevando gli squali da 200 piedi sopra l'oceano. Griffin ha spiegato che la vera sfida non era il modello di IA in sé, ma gli estesi voli dei droni e la raccolta di dati necessari per addestrare il modello.

__wf_reserved_inherit
Fig 4. Jim Griffin ha spiegato come YOLOv8 veniva utilizzato per monitorare gli spostamenti degli squali lungo la costa californiana tramite droni.

Allo stesso modo, David Scott di The Main Branch ha discusso l'espansione della computer vision dalla semplice object detection all'analisi del comportamento. Il suo intervento ha presentato applicazioni reali come il monitoraggio del comportamento del bestiame e l'identificazione di attività sospette nei negozi al dettaglio. Scott ha spiegato come YOLOv8 possa essere utilizzato per monitorare la salute del bestiame analizzando comportamenti specifici, come mangiare, bere e camminare.

Inoltre, un keynote particolarmente toccante è stato quello di Ousman Umar di NASCO Feeding Minds, dove ha condiviso come la sua organizzazione sta cambiando la vita fornendo istruzione IT in Ghana. La sua fondazione ha creato 17 centri ICT, formando oltre 65.000 studenti, con l'obiettivo di creare posti di lavoro tecnologici locali per aiutare ad affrontare problemi come l'immigrazione illegale. La potente storia di Umar ha trasmesso come l'istruzione e la tecnologia insieme possano guidare un cambiamento duraturo nelle comunità svantaggiate.

Tech talks: highlights degli speaker di YOLO Vision

YV24 ha anche presentato diversi interventi incentrati su come l'IA e l'hardware si stiano unendo per stimolare nuove idee. Esperti di aziende come Intel, Sony e NVIDIA hanno affrontato il tema dell'implementazione di modelli YOLO su dispositivi edge e dell'ottimizzazione delle prestazioni. Dmitriy Pastushenkov e Adrian Boguszewski di Intel hanno illustrato come il loro hardware supporta i modelli YOLO su NPU, CPU e GPU, mentre Amir Servi e Wei Tang di Sony hanno condiviso come YOLO si integra con la piattaforma AITRIOS per un'efficiente implementazione dell'AI edge. Guy Dahan di NVIDIA ha parlato dell'utilizzo della loro architettura GPU per migliorare l'inferenza dei modelli YOLO. 

__wf_reserved_inherit
Fig. 5. Guy Dahan parla dell'ottimizzazione dell'inferenza del modello YOLO utilizzando l'architettura GPU di NVIDIA.

Altre aziende come Qualcomm, Hugging Face e Lightning AI hanno anche mostrato come le loro piattaforme semplificano l'integrazione e la distribuzione dei modelli YOLO. Devang Aggarwal di Qualcomm ha presentato come modelli come YOLOv8 possono essere ottimizzati per i dispositivi Snapdragon tramite Qualcomm AI Hub.

Allo stesso modo, Pavel Lakubovskii di Hugging Face ha descritto come i loro strumenti open-source consentano una perfetta integrazione di modelli come YOLOv8 in vari workflow, mentre Luca Antiga di Lightning AI ci ha illustrato come gli sviluppatori possano facilmente incorporare modelli come YOLOv8 a livello di codice per una prototipazione e iterazioni più rapide.

Una settimana a Madrid: sessioni di networking di YOLO Vision

Nella settimana precedente a YV24, il team di Ultralytics si è riunito a Madrid per un mix di workshop, incontri collaborativi e attività fuori sede. Queste attività sono andate oltre il lavoro, rafforzando le relazioni e creando un'atmosfera positiva in vista dell'evento. Concludendo con un afterparty celebrativo, i partecipanti e i relatori hanno avuto l'opportunità di fare networking, condividere i principali risultati e esplorare future collaborazioni. La combinazione di lavoro di squadra e cameratismo ha reso YV24 un successo professionale e un'esperienza memorabile a tutto tondo.

__wf_reserved_inherit
Fig 6. Il team di Ultralytics festeggia una giornata fantastica allo YOLO Vision 2024.

Innovazioni di YOLO Vision AI e cosa ci aspetta

YV24 ha riunito innovazione, collaborazione e uno sguardo al futuro della computer vision. Con il lancio di YOLO11, panel coinvolgenti e discussioni sull'hardware AI e sulle soluzioni edge, l'evento si è concentrato su come la Vision AI può fare la differenza e su come la tecnologia sta cambiando per stare al passo con i progressi dell'AI. Ha anche rafforzato i legami all'interno della community. Esperti e appassionati hanno condiviso idee ed esplorato il potenziale della computer vision e di YOLO. L'evento si è concluso con una divertente sessione di quiz, in cui sono state messe in palio felpe con cappuccio Ultralytics, lasciando tutti entusiasti per ulteriori innovazioni come YOLO11 in futuro.

Visita il nostro repository GitHub e connettiti con la nostra fiorente community per saperne di più sull'AI. Scopri come l'AI visiva sta ridefinendo l'innovazione in settori come l'assistenza sanitaria e l'agricoltura. 🚀

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti