Scoprite i punti salienti dell'evento annuale di Ultralytics e rivivete l'esperienza ibrida di YOLO Vision. Parleremo del lancio di YOLO11 di Ultralytics, dei coinvolgenti panel e di molto altro ancora.
Scoprite i punti salienti dell'evento annuale di Ultralytics e rivivete l'esperienza ibrida di YOLO Vision. Parleremo del lancio di YOLO11 di Ultralytics, dei coinvolgenti panel e di molto altro ancora.
Il 27 settembre Ultralytics ha riunito la comunità dell'IA e della computer vision per il nostro evento annuale ibrido YOLO Vision 2024 (YV24). Ospitato presso il Campus Google for Startups di Madrid e trasmesso in streaming a livello globale, l'evento ha riunito esperti, sviluppatori e appassionati per discutere gli ultimi progressi nel campo dell'IA di visione, come il nuovo modelloYOLO11 Ultralytics . Il live stream dell'evento ha già raggiunto oltre 5.400 visualizzazioni, con più di 10.600 impressioni e 469,5 ore di visione, coinvolgendo gli innovatori di tutto il mondo.
YV24 è iniziato con un caloroso benvenuto da parte del nostro ospite, Oisin Lunny, che ha sottolineato l'importanza della comunità e della connessione dicendo: "Credo molto nel potere delle grandi idee e delle grandi comunità, e ciò che Ultralytics ha creato con YOLO Vision è proprio questo: una grande comunità di grandi persone con grandi idee".
In questo articolo, individueremo i punti salienti di YOLO Vision 2024, dalle coinvolgenti tavole rotonde agli affascinanti casi d'uso della computer vision nel mondo reale. Esploreremo anche gli interventi tecnici che spaziano dall'IA di frontiera all'accelerazione hardware, nonché i momenti di networking e di creazione di comunità che hanno reso l'evento un successo. Che siate interessati alle innovazioni dell'IA, agli annunci chiave o al futuro dell'IA di visione, questo riassunto dell'evento YOLO Vision 2024 copre tutti gli aspetti essenziali!
Il lancio del prodotto che era stato annunciato prima di YOLO Vision 2024 è stato finalmente svelato con un annuncio durante il keynote iniziale da parte di Glenn Jocher, fondatore e CEO di Ultralytics. Glenn ha presentato Ultralytics YOLO11che segna la prossima generazione di modelli di computer vision, in fase di sviluppo da diversi mesi. Per accrescere l'entusiasmo del lancio, Glenn è stato successivamente intervistato al Ravit Show e ha condiviso le sue intuizioni sullo sviluppo di YOLO11.
Durante il suo keynote, Glenn ha anche condiviso la storia del percorso dell'azienda, a partire dal suo background nella fisica delle particelle e da come la sua passione per la comprensione dell'universo lo abbia portato al machine learning e alla computer vision.

Ha spiegato come il suo lavoro iniziale in fisica, in cui i ricercatori analizzavano le interazioni tra le particelle, fosse simile al rilevamento degli oggetti nella computer vision. La sua curiosità e la sua voglia di lavorare su tecnologie all'avanguardia hanno portato alla creazione di Ultralytics YOLOv5. Nel corso del suo intervento, Glenn ha sottolineato l'importanza della collaborazione e del contributo all'interno della comunità open-source e ha ringraziato gli sviluppatori di tutto il mondo che hanno fornito feedback e contribuito a migliorare YOLOv5 e Ultralytics. Ultralytics YOLOv8 nel tempo.
Ha quindi presentato le caratteristiche principali di Ultralytics YOLO11, spiegando che è più veloce, più preciso e più efficiente dei modelli precedenti. Infatti, YOLO11m utilizza il 22% di parametri in meno rispetto a YOLOv8m , ma offre una migliore precisione sul set di datiCOCO , rendendo YOLO11 perfetto per le applicazioni in tempo reale in cui velocità e precisione sono fondamentali.
Glenn ha sottolineato la portata del lancio: "Stiamo lanciando 30 modelli in totale, 25 dei quali sono open source, con cinque dimensioni diverse per cinque compiti diversi. Si tratta di classificazione di immagini, rilevamento di oggetti, segmentazione di istanze, stima di pose e bounding box orientati". Per quanto riguarda le aziende, ha annunciato che il mese prossimo saranno disponibili modelli robusti addestrati su un set di dati proprietario di 1 milione di immagini. Inutile dire che l'annuncio ha dato il via all'evento con una nota positiva, lasciando i partecipanti desiderosi di saperne di più sul potenziale di innovazione diYOLO11 in campi come la produzione e le auto a guida autonoma.
Le discussioni del panel, moderate da Oisin Lunny, a YOLO Vision 2024 hanno fornito una serie di approfondimenti sull'IA, la computer vision e la creazione di comunità.
Il primo panel ha visto la partecipazione di Glenn Jocher, Jing Qiu (figura chiave nello sviluppo dei modelli YOLO presso Ultralytics) e Ao Wang dell'Università Tsinghua, co-autore di YOLOv10. Il gruppo ha discusso i recenti sviluppi dell'IA generativa e della computer vision, concentrandosi sulle loro somiglianze, differenze e sull'impatto che ciascun campo ha avuto sull'altro. Nonostante la recente ascesa dei modelli linguistici di grandi dimensioni (LLM), il gruppo ha sottolineato che la computer vision tradizionale è ancora essenziale per compiti specifici in settori come quello sanitario.
Il panel successivo ha affrontato le sfide che le donne devono affrontare nella leadership dell'IA, con interventi di: Paula Derrenger, direttore della crescita di Ultralytics, Bruna de Guimarães, ex CPO e COO in SaaS, Mariana Hernandez, responsabile del capitolo Latinas in Tech di Madrid, e Christina Stathopoulous, fondatrice di Dare to Data, che hanno condiviso le loro esperienze, discutendo dell'importanza della mentorship e della necessità per le donne di intraprendere azioni proattive nella ricerca di ruoli di leadership. Hernandez ha consigliato: "Siate proattivi, non aspettate che le cose accadano per voi" e ha incoraggiato le donne del pubblico ad affermarsi e a perseguire attivamente le opportunità. Il gruppo ha anche discusso il valore della creazione di ambienti di lavoro più favorevoli.

L'ultimo panel ha esplorato come la costruzione di comunità forti possa promuovere l'innovazione nell'AI. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell hanno discusso i modi per interagire con il pubblico tecnico, sia online che durante eventi di persona. L'intuizione di Farrell, "Devi incontrarli dove si trovano", ha sottolineato l'importanza di connettersi con i membri della comunità nei loro termini per incoraggiare la collaborazione e l'apprendimento condiviso.

Diversi interventi all'YV24 hanno fatto luce su come i modelli YOLO vengono applicati per risolvere le sfide del mondo reale in vari settori. Jim Griffin, conduttore del podcast AI Master Group, ha parlato di un progetto che utilizza i modelliYOLOv8 per monitorare i movimenti degli squali lungo la costa della California attraverso la sorveglianza dei droni. Il sistema avvisa i bagnini, i proprietari dei negozi di surf e i genitori, garantendo la sicurezza dei bagnanti grazie all'individuazione degli squali a 200 piedi di altezza dall'oceano. Griffin ha spiegato che la vera sfida non è stata il modello di intelligenza artificiale in sé, ma i lunghi voli dei droni e la raccolta dei dati necessari per addestrare il modello.

Allo stesso modo, David Scott di The Main Branch ha parlato dell'espansione della computer vision dal semplice rilevamento degli oggetti all'analisi del comportamento. Il suo intervento ha presentato applicazioni reali come il monitoraggio del comportamento del bestiame e l'identificazione di attività sospette nei negozi al dettaglio. Scott ha spiegato come YOLOv8 possa essere utilizzato per monitorare la salute del bestiame analizzando comportamenti specifici, come mangiare, bere e camminare.
Inoltre, un keynote particolarmente toccante è stato quello di Ousman Umar di NASCO Feeding Minds, dove ha condiviso come la sua organizzazione sta cambiando la vita fornendo istruzione IT in Ghana. La sua fondazione ha creato 17 centri ICT, formando oltre 65.000 studenti, con l'obiettivo di creare posti di lavoro tecnologici locali per aiutare ad affrontare problemi come l'immigrazione illegale. La potente storia di Umar ha trasmesso come l'istruzione e la tecnologia insieme possano guidare un cambiamento duraturo nelle comunità svantaggiate.
YV24 ha anche presentato diversi interventi incentrati su come l'IA e l'hardware si stanno unendo per dare vita a nuove idee. Esperti di aziende come IntelSony e NVIDIA hanno affrontato il tema dell'implementazione dei modelli YOLO sui dispositivi edge e dell'ottimizzazione delle prestazioni. Dmitriy Pastushenkov e Adrian Boguszewski di Intel hanno illustrato il modo in cui il loro hardware supporta i modelli YOLO attraverso NPU, CPU e GPU, mentre Amir Servi e Wei Tang di Sony hanno condiviso il modo in cui YOLO si integra con la piattaforma AITRIOS per un'efficiente distribuzione dell'intelligenza artificiale in ambito edge. Guy Dahan di NVIDIA ha parlato dell'utilizzo della sua architettura GPU per migliorare l'inferenza dei modelli YOLO .

Altre aziende come Qualcomm, Hugging Facee Lightning AIhanno mostrato come le loro piattaforme facilitino l'integrazione e la distribuzione dei modelli YOLO da parte degli sviluppatori. Devang Aggarwal di Qualcomm ha presentato come modelli come YOLOv8 possano essere ottimizzati per i dispositivi Snapdragon attraverso il Qualcomm AI Hub.
Allo stesso modo, Pavel Lakubovskii di Hugging Face ha descritto come i suoi strumenti open-source consentano una perfetta integrazione di modelli come YOLOv8 in vari flussi di lavoro, mentre Luca Antiga di Lightning AI ci ha illustrato come gli sviluppatori possano facilmente incorporare modelli come YOLOv8 a livello di codice per una più rapida prototipazione e iterazione.
Nella settimana che ha preceduto l'YV24, il team di Ultralytics si è riunito a Madrid per un mix di workshop, incontri collaborativi e attività fuori sede. Queste attività sono andate oltre il lavoro, alimentando relazioni più forti e creando un'atmosfera positiva in vista dell'evento. Al termine dell'evento, che si è concluso con un afterparty celebrativo, i partecipanti e i relatori hanno avuto l'opportunità di fare networking, di condividere i principali risultati ottenuti e di esplorare collaborazioni future. La combinazione di lavoro di squadra e cameratismo ha reso YV24 un successo professionale e un'esperienza memorabile.

YV24 ha riunito innovazione, collaborazione e uno sguardo al futuro della computer vision. Con il lancio di YOLO11, panel coinvolgenti e discussioni su hardware AI e soluzioni edge, l'evento si è concentrato su come la Vision AI possa fare la differenza e su come la tecnologia stia cambiando per tenere il passo con i progressi dell'AI. Inoltre, ha rafforzato le connessioni all'interno della comunità. Esperti e appassionati hanno condiviso idee ed esplorato il potenziale della computer vision e di YOLO. L'evento si è concluso con una divertente sessione di quiz, in cui sono state messe in palio le felpe Ultralytics , lasciando tutti entusiasti per ulteriori innovazioni come YOLO11 in futuro.
Visita il nostro repository GitHub e connettiti con la nostra fiorente community per saperne di più sull'AI. Scopri come l'AI visiva sta ridefinendo l'innovazione in settori come l'assistenza sanitaria e l'agricoltura. 🚀