Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Esplora la nuova frontiera della vision AI

Unisciti a noi il 27 settembre per il nostro evento ibrido gratuito, trasmesso in diretta da Google for Startups a Madrid.

Guarda in diretta
Anteprima dell'app Ultralytics HUBAnteprima dell'app Ultralytics HUBAnteprima dell'app Ultralytics HUB

YV23 Reso Possibile Da

Logo Intel
Logo di Seeed Studio
Logo Sony
Logo Axelera
Logo di Dags Hub
Logo DeGirum
Logo Intuitivo
Logo del Team Humble
Logo Prodis

Basato su Ultralytics, #YV23 è l'unica conferenza al mondo incentrata sullo sviluppo e sul progresso dell'AI vision open-source. Sia di persona che online, ricercatori, ingegneri e professionisti si riuniranno per il secondo anno consecutivo per condividere conoscenze, innovazione e progressi. Unisciti a esperti e leader il 27 settembre presso Google for Startups a Madrid, Spagna per superare i confini della nuova frontiera della Vision AI.

Ospitato presso
Logo di Google for Startups

1

giorno

18

discussioni

2,000+

partecipanti online

150

partecipanti in presenza

Relatori

10:00

Apertura

10:00

TAVOLA ROTONDA: Rendere semplice la Vision AI Open Source

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher di Ultralytics (YOLOv5 e YOLOv8), Yonatan Geifman di Deci (YOLO-NAS) e Bo Zhang di Meituan (YOLOv6) si riuniscono in questo panel per esplorare lo stato dell'IA vision open source. Questo panel approfondirà le sfide e le priorità incontrate durante l'implementazione del modello, fornendo preziose informazioni per un'adozione fluida dell'IA. Inoltre, i relatori affronteranno il tema del deployment su dispositivi edge, esamineranno il potenziale dei moduli di re-identificazione degli oggetti, forniranno approfondimenti sul deployment del modello e altro ancora. 

11:00

Aggiorna qualsiasi telecamera con YOLOv8 senza codice

Elaine Wu, Seeed

Ci sono circa 1 miliardo di telecamere di rete distribuite in tutto il mondo. Le telecamere intelligenti alimentate da IA avanzata possono concentrarsi su ciò che conta di più e portare sicurezza negli spazi per tutti, da conducenti e pedoni a rivenditori e acquirenti. Ti guideremo attraverso le prestazioni edge complessive per le applicazioni di analisi video che eseguono l'inferenza su NVIDIA Jetson e puoi aggiornare qualsiasi telecamera legacy con il modello YOLOv8 senza alcuna riga di codice.

11:15

YOLO potenziato: sfruttare la potenza nativa dell'IA

Dr. Bram Verhoef , Axelera AI

Unisciti a noi per scoprire come la piattaforma Metis di Axelera AI offre prestazioni e usabilità leader del settore, a una frazione del costo e del consumo energetico delle soluzioni disponibili oggi. Scopri gli impressionanti risultati della nostra soluzione hardware e software, che ottimizza i modelli YOLO per l'inferenza su dispositivi edge.

11:30

Colmare il divario tra la ricerca sull'IA e l'edge in tempo reale

Amir Servi, Sony

L'IA sta trasformando vari settori, materie prime e funzionalità fondamentali. Tuttavia, le reti neurali profonde consumano risorse eccessive in termini di memoria, potenza di calcolo ed energia. Per garantire l'adozione diffusa dell'IA, questa deve operare in modo efficiente sui dispositivi degli utenti finali, rispettando rigorosi vincoli di potenza e termici. Tecniche come la quantizzazione e la compressione svolgono un ruolo fondamentale nella mitigazione di queste sfide.

In questo webinar, il product manager di Sony, Amir Servi, ti guiderà attraverso il Model Compression Toolkit di Sony per la quantizzazione e l'accelerazione dei modelli di deep learning per un'efficiente implementazione edge. Imparerai come fare lo stesso per il tuo modello! Cosa imparerai:

- La nostra ultima ricerca sulle tecniche di quantizzazione e la sua implementazione in un prodotto pratico

- Importanza della compressione hardware-aware per l'inferenza sull'edge

- Come ingegneri e ricercatori possono implementare queste tecniche attraverso Sony MCT

11:45

IA per tutti: Ultralytics HUB spiana il campo di gioco

Kalen Michael, Ultralytics

Ultralytics HUB abbatte le barriere all'ingresso nel mondo del ML, rendendolo accessibile a privati e aziende, indipendentemente dalle competenze di programmazione. Scopri come questa piattaforma è destinata a rivoluzionare il modo in cui affrontiamo il machine learning, consentendo a una nuova generazione di appassionati di dati di trasformare le proprie idee in realtà con una facilità senza precedenti.

E non perderti il nostro grande annuncio...

12:15

Mostra e racconta: come distribuire YOLO su (quasi) qualsiasi cosa: più semplice e veloce!

Lakshantha Dissayanake, Seeed

L'implementazione di modelli all'avanguardia su dispositivi embedded, dalle Edge GPU di NVIDIA Jetson ai minuscoli MCU, presenta sfide e limitazioni. Spiegheremo come implementare questi modelli, incluso YOLOv8, con un approccio semplificato e le prestazioni edge complessive per l'inferenza di applicazioni di analisi video su NVIDIA Jetson.

12:40

KENYOTE: Esplorando Ultralytics YOLO: Progressi nell'AI Visiva allo Stato dell'Arte

Glenn Jocher, Ultralytics

Glenn è impegnato in una ricerca incessante per sviluppare la migliore Vision AI al mondo. Per lui, questo non è solo un risultato tecnologico, ma un passo fondamentale verso la realizzazione del potenziale dell'AGI. Le punte di diamante di questa incessante ricerca non sono altro che YOLOv5, YOLOv8 e Ultralytics HUB.

Quindi, cosa rende Ultralytics YOLO il migliore al mondo?

13:20

Pranzo

14:45

Vision Open-Source con Transformer

Merve Noyan, Hugging Face

I recenti progressi nella computer vision sono stati significativamente promossi dall'introduzione dell'architettura transformer e dalle astrazioni user-friendly per pre-addestrare, mettere a punto e fare inferenza nella libreria 🤗 transformers. Questo intervento fornisce una panoramica degli ultimi modelli di visione basati su transformer, esplora le utilità disponibili all'interno della libreria 🤗 transformers e offre approfondimenti pratici sulla filosofia alla base.

15:00

KEYNOTE: Salta la coda! Scopri come costruire un sistema intelligente di gestione delle code con YOLOv8

Adrian Boguszewski, Intel OpenVINO

Stanco delle lunghe code alla cassa al dettaglio? Il nostro sistema di gestione intelligente delle code è la risposta! Unisciti a noi per un tutorial passo dopo passo su come creare un sistema del genere utilizzando OpenVINO e YOLOv8. Ti guideremo attraverso il processo di integrazione di questi potenti strumenti open-source per sviluppare una soluzione end-to-end che può essere implementata negli ambienti di cassa al dettaglio. Imparerai come ottimizzare l'applicazione per ottenere prestazioni eccezionali. Che tu sia uno sviluppatore esperto o un nuovo arrivato nel mondo dell'IA, questa sessione fornirà suggerimenti pratici e best practice per la creazione di sistemi intelligenti utilizzando OpenVINO. Al termine della presentazione, avrai le conoscenze e le risorse per costruire la tua soluzione.

15:40

Sfide etiche dell'IA

Mónica Villas

In un'era definita dai rapidi progressi nell'intelligenza artificiale (IA), è fondamentale orientarsi nel panorama etico di questa tecnologia. In questa sessione, Mónica svelerà l'intricata rete di dilemmi etici che accompagnano il potere trasformativo dell'IA. Dall'affrontare i pregiudizi e l'equità all'esplorare la trasparenza, la responsabilità e il profondo impatto dell'IA sulla società, Monica fornirà approfondimenti che faranno luce sulle considerazioni etiche che circondano l'IA.

Questo intervento è la tua opportunità per acquisire una comprensione fondamentale delle sfide e delle responsabilità etiche associate all'IA. Mónica ti fornirà le conoscenze essenziali per chiunque sia impegnato nello sviluppo, nel processo decisionale o nella formulazione di politiche sull'IA.

16:00

Accelerare la trasformazione del retail con la potenza dei modelli Foundation

José Benítez Genes, Intuitivo

I modelli fondazionali possono essere impegnativi in termini di calcolo GPU e potrebbero non essere adatti per applicazioni in tempo reale, soprattutto se si desidera scalare milioni di punti vendita autonomi. Ma sfruttiamo il metodo chiamato knowledge distillation, in cui utilizziamo i nostri modelli fondazionali per attività complesse come le annotazioni e trasferiamo questa conoscenza in modelli più piccoli ed economici. Questo ci permette di accelerare il nostro processo di annotazione fino a 90 volte più velocemente rispetto all'etichettatura tradizionale umana.

16:30

Creazione semplificata di una pipeline di Active Learning

Yono Mittlefehldt, DagsHub

Pssst. Vuoi sapere un segreto? E se ti dicessi che l'apprendimento attivo non deve essere difficile? E se ci fosse... un modo semplice? Sei fortunato. Questo intervento ti mostrerà esattamente come implementare una pipeline di apprendimento attivo utilizzando il Data Engine di DagsHub. E il 90% della pipeline può essere eseguito direttamente in un Jupyter Notebook o su Google Colab! Alla fine dell'intervento, avrai le informazioni necessarie per convertire il tuo progetto esistente in uno che utilizza l'apprendimento attivo per migliorare in modo efficiente e rapido le metriche dei tuoi modelli!

17:00

Sviluppo con Open Source e YOLOv8

Joseph Nelson, Roboflow

L'utilizzo di strumenti open source con YOLOv8 può aiutarti ad avviare rapidamente il tuo prossimo progetto di vision AI. Sono disponibili repository di immagini open source, librerie per automatizzare l'etichettatura dei dati, strumenti per il tracciamento o il conteggio e server per la distribuzione dei tuoi modelli. Scopri come utilizzarli con YOLOv8 per costruire la tua prossima applicazione.

17:20

Intelligenza umana e artificiale per l'azione climatica planetaria

Dr. Ramit Debnath e Seán Boyle, Unitmode

Si prevede che la corsa globale in corso per sistemi di intelligenza artificiale (AI) più grandi e migliori avrà un profondo impatto sociale e ambientale, alterando i mercati del lavoro, sconvolgendo i modelli di business e consentendo nuove strutture di governance e benessere sociale che possono influenzare il consenso globale per i percorsi di azione per il clima. Tuttavia, gli attuali sistemi di intelligenza artificiale sono addestrati su dataset distorti che potrebbero destabilizzare le agenzie politiche che incidono sulle decisioni di mitigazione e adattamento ai cambiamenti climatici e compromettere la stabilità sociale, portando potenzialmente a eventi di tipping point sociali. Pertanto, la progettazione appropriata di un sistema di intelligenza artificiale meno distorto che rifletta sia gli effetti diretti che indiretti sulle società e sulle sfide planetarie è una questione di fondamentale importanza.

17:35

Distribuzione di modelli YOLOv8 quantizzati su dispositivi edge

Shashi Chilappagari, DeGirum

La quantizzazione dei modelli di machine learning (ML) può portare a una significativa diminuzione delle dimensioni del modello, nonché a una riduzione della latenza di inferenza a causa dei minori requisiti di larghezza di banda. Se implementata su opzioni hardware che supportano in modo efficiente i calcoli interi, i guadagni di prestazioni possono essere ancora più consistenti. Tuttavia, la quantizzazione può talvolta portare a un inaccettabile degrado dell'accuratezza. In questo intervento, presentiamo una panoramica dei metodi per quantizzare in modo efficiente i modelli YOLOv8, rendendoli una scelta eccellente per varie applicazioni di edge AI in tempo reale. Introduciamo anche una classe di modelli YOLOv8 con funzione di attivazione ReLU6 che mostrano eccellenti risultati di quantizzazione post-training su una varietà di architetture di modelli e dataset. Infine, illustriamo come i modelli quantizzati possono essere implementati su più opzioni hardware come CPU, Edge TPU e Orca (l'acceleratore AI HW di DeGirum) utilizzando semplici API.

18:00

Potenziare Ultralytics con Weights & Biases

Soumik Rakshit, Weights & Biases

Ultralytics è la sede di modelli di computer vision all'avanguardia per attività come la classificazione delle immagini, il rilevamento di oggetti, la segmentazione delle immagini e la stima della posa. Weights & Biases è una piattaforma MLOps developer-first che, quando integrata con un flusso di lavoro Ultralytics, ci consente di gestire facilmente i nostri esperimenti, i checkpoint dei modelli e visualizzare i risultati dei nostri esperimenti in modo intuitivo e approfondito. In questa sessione, esploreremo come possiamo potenziare efficacemente i nostri flussi di lavoro di computer vision utilizzando Ultralytics e Weights & Biases.

18:15

PatentPT: Creazione di una soluzione basata su LLM con agenti di memoria di livello enterprise

Davit Buniatyan, Activeloop

Scopri come abbiamo creato PatentPT, una soluzione avanzata di modello linguistico che migliora notevolmente le capacità di ricerca e interazione dei brevetti. La presentazione offre approfondimenti pratici sulla messa a punto e l'implementazione di modelli linguistici di grandi dimensioni e sullo sfruttamento di agenti di memoria di livello enterprise per completare automaticamente i brevetti, generare abstract e rivendicazioni e condurre funzioni avanzate di ricerca di brevetti utilizzando il ricco corpus di brevetti. Ti guideremo attraverso lo sviluppo di una soluzione simile utilizzando Deep Lake di Activeloop, il database per l'AI, modelli LLM open source, hardware Habana Gaudi HPU e le API di inferenza LLM di Amazon Sagemaker.

Ti guideremo attraverso i progetti architettonici e tutti i passaggi che abbiamo compiuto per costruire la soluzione, dall'addestramento del nostro modello LLM alla sua messa a punto, alla creazione di funzionalità personalizzate e all'implementazione di API di ricerca.

Che tu sia un professionista dell'AI alla ricerca di guide pratiche sulla messa a punto degli LLM, un professionista legale interessato a sfruttare l'AI per la ricerca di brevetti o semplicemente curioso del futuro delle soluzioni potenziate dall'AI, il nostro intervento fornisce uno sguardo al processo e al potenziale dell'utilizzo degli LLM in un campo specializzato. Unisciti a noi mentre condividiamo il nostro percorso di creazione di app personalizzate basate su LLM e alimentate da Deep Lake, il database per l'AI per aziende grandi e piccole.

18:30

Serie A per l'Open Source: cosa cercano gli investitori

Erica Brescia, Redpoint

Le aziende open source sono costruite in modo diverso. In questo intervento, esamineremo cosa cercheranno gli investitori quando prenderanno in considerazione un investimento nella Serie A. Spoiler: potresti non aver bisogno di entrate, ma hai sicuramente bisogno di slancio! Condivideremo le migliori metriche della categoria di altre società OSS per aiutarti a capire quando raccogliere fondi.

18:45

Chiusura

Ex partecipanti provenienti da

Partecipanti di Alibaba
Partecipanti di Ancestry
Partecipanti di AWS
Partecipanti di Baidu
Logo BCG
Partecipanti di Chubb
Partecipanti di Databricks
Partecipanti di Deloitte
Partecipanti di Ford
Logo Fujitsu
Partecipanti di General Electric
Partecipanti di Huawei
Partecipanti da KPMG
Partecipanti da Lowe's
Logo Nielsen
Partecipanti da Nvidia
Partecipanti da Oracle
Partecipanti da Samsung
Partecipanti da Walmart
Logo Tata

Domande frequenti su YV23

Come si presenta l'itinerario di persona?

Inizieremo la giornata presso Google for Startups a Madrid con un caffè. La mattinata prevede una serie di interventi, seguiti da una pausa pranzo offerta da Ultralytics presso Google for Startups. Dopo pranzo, ci immergeremo di nuovo in altre sessioni. Per concludere YV23, unisciti a noi per un happy hour di networking ufficiale, anch'esso ospitato presso Google for Startups.

Quali sono i vantaggi della partecipazione di persona?

La partecipazione di persona ti consente di immergerti nell'atmosfera dell'evento, interagire con relatori e altri partecipanti e partecipare a sessioni di networking. È un'opportunità unica per interagire direttamente con la community della vision AI.

Quanto costa un biglietto?

I biglietti per YV23 sono completamente gratuiti, sia che tu scelga di unirti a noi virtualmente o di persona.

Dove si trova Google for Startups a Madrid?

Calle de Moreno Nieto, 2, 28005 Madrid, Spagna.

Come posso partecipare a YV23?

YV23 offre opzioni di partecipazione sia virtuali che in presenza. Per assicurarti il tuo posto, compila semplicemente il modulo di registrazione presente in questa pagina.

Dove posso sintonizzarmi virtualmente?

Se ti trovi in Cina, puoi trovare lo streaming virtuale di Bilibili qui. Se ti stai connettendo dal resto del mondo, sintonizzati utilizzando lo streaming virtuale di Youtube qui.