Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024

Entdecken Sie die neue Grenze der Vision AI

Seien Sie am 27. September bei unserer kostenlosen Hybrid-Veranstaltung dabei, die live von Google for Startups in Madrid übertragen wird.

Live ansehen
Ultralytics HUB App VorschauUltralytics HUB App VorschauUltralytics HUB App Vorschau

YV23 wurde ermöglicht durch

Intel Logo
Seeed Studio Logo
Sony Logo
Axelera Logo
Dags Hub Logo
DeGirum Logo
Intuitivo Logo
Humble Team Logo
Prodis Logo

#YV23, powered by Ultralytics, ist die einzige Konferenz weltweit, die sich auf Open-Source-Vision-KI-Entwicklung und -Fortschritt konzentriert. Sowohl persönlich als auch online kommen Forscher, Ingenieure und Praktiker zum zweiten Mal zusammen, um Wissen, Innovation und Fortschritt auszutauschen. Treffen Sie Experten und Führungskräfte am 27. September bei Google for Startups in Madrid, Spanien, um die Grenzen der neuen Vision-KI-Frontier zu erweitern.

Gehostet bei
Google for Startups Logo

1

Tag

18

spricht

2,000+

Online-Teilnehmer

150

Teilnehmer vor Ort

Referenten

10:00

Öffnung

10:00

PANEL: Open-Source Vision AI einfach gemacht

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher von Ultralytics (YOLOv5 und YOLOv8), Yonatan Geifman von Deci (YOLO-NAS) und Bo Zhang von Meituan (YOLOv6) kommen in diesem Panel zusammen, um den Stand der Open-Source-Vision-KI zu untersuchen. Dieses Panel befasst sich mit den Herausforderungen und Prioritäten, die bei der Modellimplementierung auftreten, und bietet wertvolle Einblicke für eine nahtlose KI-Einführung. Darüber hinaus werden die Diskussionsteilnehmer die Bereitstellung auf Edge-Geräten ansprechen, das Potenzial für Objektreidentifikationsmodule untersuchen, Einblicke in die Modellbereitstellung geben und vieles mehr. 

11:00

Jede Kamera mit YOLOv8 ohne Code aufrüsten

Elaine Wu, Seeed

Weltweit sind etwa 1 Milliarde Netzwerkkameras im Einsatz. Intelligente Kameras, die von fortschrittlicher KI angetrieben werden, können sich auf das Wesentliche konzentrieren und Räume für alle sicherer machen, von Fahrern und Fußgängern bis hin zu Einzelhändlern und Käufern. Wir führen Sie durch die allgemeine Edge-Performance für Videoanalyseanwendungen, die Inferenz auf NVIDIA Jetson durchführen, und Sie können jede ältere Kamera mit dem YOLOv8-Modell ohne eine einzige Codezeile aufrüsten.

11:15

YOLO Supercharged: Nutzung der AI-nativen Leistung

Dr. Bram Verhoef , Axelera AI

Seien Sie dabei und sehen Sie, wie die Metis-Plattform von Axelera AI branchenführende Leistung und Benutzerfreundlichkeit bietet, und das zu einem Bruchteil der Kosten und des Stromverbrauchs der heute verfügbaren Lösungen. Entdecken Sie die beeindruckenden Ergebnisse unserer Hardware- und Softwarelösung, die YOLO-Modelle für die Inferenz auf Edge-Geräten optimiert.

11:30

Überbrückung der Kluft zwischen KI-Forschung und Echtzeit-Edge

Amir Servi, Sony

KI transformiert verschiedene Sektoren, Rohstoffe und grundlegende Funktionalitäten. Dennoch verbrauchen tiefe neuronale Netze übermäßige Ressourcen in Bezug auf Speicher, Rechenleistung und Energie. Um die breite Akzeptanz von KI zu gewährleisten, muss sie effizient auf Endbenutzergeräten arbeiten und strenge Leistungs- und thermische Einschränkungen einhalten. Techniken wie Quantisierung und Komprimierung spielen eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen.

In diesem Webinar führt Sie Amir Servi, Produktmanager bei Sony, durch das Model Compression Toolkit von Sony zur Quantisierung und Beschleunigung von Deep-Learning-Modellen für den effizienten Edge-Einsatz. Sie werden lernen, wie Sie dasselbe für Ihr eigenes Modell tun können! Was Sie lernen werden:

- Unsere neuesten Forschungsergebnisse zu Quantisierungstechniken und deren Implementierung in ein praktisches Produkt

- Bedeutung der Hardware-bewussten Komprimierung für die Inferenz am Edge

- Wie Ingenieure und Forscher diese Techniken mit Sony MCT implementieren können

11:45

KI für alle: Ultralytics HUB ebnet das Spielfeld

Kalen Michael, Ultralytics

Ultralytics HUB senkt die Eintrittsbarrieren in die Welt des ML und macht es Einzelpersonen und Unternehmen gleichermaßen zugänglich, unabhängig von ihren Programmierkenntnissen. Erfahren Sie, wie diese Plattform die Art und Weise, wie wir uns Machine Learning nähern, revolutionieren und eine neue Generation von Datenenthusiasten in die Lage versetzen wird, ihre Ideen mit beispielloser Leichtigkeit in die Realität umzusetzen.

Und verpassen Sie nicht unsere große Ankündigung...

12:15

Show and Tell: So stellen Sie YOLO auf (fast) allem bereit: Einfacher und schneller!

Lakshantha Dissayanake, Seeed

Das Bereitstellen modernster Modelle auf eingebetteten Geräten, von Edge-GPUs von NVIDIA Jetson bis hin zu winzigen MCUs, stellt Herausforderungen und Einschränkungen dar. Wir werden durchgehen, wie diese Modelle, einschließlich YOLOv8, auf optimierte Weise bereitgestellt werden und wie die Gesamt-Edge-Leistung für Videoanalyseanwendungen auf NVIDIA Jetson ist.

12:40

KENYOTE: Erkundung von Ultralytics YOLO: Fortschritte in der hochmodernen Vision AI

Glenn Jocher, Ultralytics

Glenn verfolgt unerbittlich das Ziel, die weltweit beste Vision AI zu entwickeln. Für ihn ist dies nicht nur eine technologische Errungenschaft, sondern ein wichtiger Schritt zur Verwirklichung des Potenzials von AGI. Die Speerspitzen dieses unerbittlichen Strebens sind kein Geringerer als YOLOv5, YOLOv8 und der Ultralytics HUB.

Was macht Ultralytics YOLO zum besten der Welt?

13:20

Mittagessen

14:45

Open-Source-Vision mit Transformatoren

Merve Noyan, Hugging Face

Jüngste Fortschritte im Bereich Computer Vision wurden maßgeblich durch die Einführung der Transformer-Architektur und der benutzerfreundlichen Abstraktionen zum Vorab-Trainieren (Pre-Train), Feinabstimmen (Fine-Tune) und Inferenzieren in der 🤗 Transformers-Bibliothek vorangetrieben. Dieser Vortrag gibt einen Überblick über die neuesten Transformer-basierten Vision-Modelle, untersucht die in der 🤗 Transformers-Bibliothek verfügbaren Dienstprogramme und bietet praktische Einblicke in die dahinter stehende Philosophie.

15:00

KEYNOTE: Umgehen Sie die Warteschlange! Erfahren Sie, wie Sie ein intelligentes Queue-Management-System mit YOLOv8 aufbauen

Adrian Boguszewski, Intel OpenVINO

Sind Sie lange Warteschlangen an der Kasse im Einzelhandel leid? Unser intelligentes Warteschlangenmanagementsystem ist die Antwort! Nehmen Sie an unserem Schritt-für-Schritt-Tutorial teil, um zu erfahren, wie Sie ein solches System mit OpenVINO und YOLOv8 erstellen können. Wir führen Sie durch den Prozess der Integration dieser leistungsstarken Open-Source-Tools, um eine End-to-End-Lösung zu entwickeln, die in Einzelhandelsumgebungen eingesetzt werden kann. Sie lernen, wie Sie die Anwendung optimieren, um eine hervorragende Leistung zu erzielen. Egal, ob Sie ein erfahrener Entwickler oder neu im Bereich KI sind, diese Sitzung bietet praktische Tipps und Best Practices für die Entwicklung intelligenter Systeme mit OpenVINO. Am Ende der Präsentation verfügen Sie über das Wissen und die Ressourcen, um Ihre eigene Lösung zu entwickeln.

15:40

Ethische Herausforderungen der KI

Mónica Villas

In einer Ära, die von rasanten Fortschritten in der künstlichen Intelligenz (KI) geprägt ist, ist die Navigation in der ethischen Landschaft dieser Technologie von größter Bedeutung. In dieser Sitzung wird Mónica das komplizierte Netz ethischer Dilemmata entwirren, die mit der transformativen Kraft der KI einhergehen. Von der Behandlung von Voreingenommenheit und Fairness bis hin zur Erforschung von Transparenz, Verantwortlichkeit und den tiefgreifenden Auswirkungen der KI auf die Gesellschaft wird Mónica Einblicke geben, die die ethischen Überlegungen im Zusammenhang mit KI beleuchten.

Dieser Vortrag ist Ihre Gelegenheit, ein grundlegendes Verständnis der ethischen Herausforderungen und Verantwortlichkeiten im Zusammenhang mit KI zu erlangen. Mónica wird Sie mit Wissen ausstatten, das für jeden, der an der KI-Entwicklung, Entscheidungsfindung oder Politikgestaltung beteiligt ist, unerlässlich ist.

16:00

Beschleunigung der Transformation des Einzelhandels mit der Leistung von Foundation Models

José Benítez Genes, Intuitivo

Foundation Models können in Bezug auf GPU-Berechnungen anspruchsvoll sein und sind möglicherweise nicht für Echtzeitanwendungen geeignet, insbesondere wenn Sie Millionen von autonomen Verkaufspunkten skalieren möchten. Wir nutzen jedoch die Methode der Wissensdestillation, bei der wir unsere Foundation Models für komplexe Aufgaben wie Annotationen einsetzen und dieses Wissen in kleinere und kostengünstigere Modelle übertragen. Dies ermöglicht es uns, unseren Annotationsprozess bis zu 90-mal schneller als mit herkömmlicher menschlicher Kennzeichnung zu beschleunigen.

16:30

Aufbau einer Active Learning Pipeline auf einfache Weise

Yono Mittlefehldt, DagsHub

Pssst. Möchten Sie ein Geheimnis hören? Was wäre, wenn ich Ihnen sagen würde, dass Active Learning nicht schwer sein muss? Was wäre, wenn es einen einfachen Weg gäbe? Sie haben Glück. Dieser Vortrag zeigt Ihnen genau, wie Sie eine Active-Learning-Pipeline mit der Data Engine von DagsHub implementieren. Und 90 % der Pipeline können direkt in einem Jupyter Notebook oder auf Google Colab ausgeführt werden! Am Ende des Vortrags verfügen Sie über die notwendigen Informationen, um Ihr bestehendes Projekt in ein Projekt umzuwandeln, das Active Learning nutzt, um die Metriken Ihrer Modelle effizient und schnell zu verbessern!

17:00

Entwicklung mit Open Source und YOLOv8

Joseph Nelson, Roboflow

Die Verwendung von Open-Source-Tools mit YOLOv8 kann Ihnen helfen, Ihr nächstes Vision-AI-Projekt schnell zum Laufen zu bringen. Es gibt Repositories mit Open-Source-Bildern, Bibliotheken zur Automatisierung der Datenbeschriftung, Tools zur Verfolgung oder Zählung und Server zur Bereitstellung Ihrer Modelle. Erfahren Sie, wie Sie diese mit YOLOv8 verwenden können, um Ihre nächste Anwendung zu erstellen.

17:20

Menschliche und maschinelle Intelligenz für planetarische Klimamaßnahmen

Dr. Ramit Debnath und Seán Boyle, Unitmode

Es wird erwartet, dass das globale Wettrennen um größere und bessere Systeme der künstlichen Intelligenz (KI) tiefgreifende gesellschaftliche und ökologische Auswirkungen haben wird, indem es Arbeitsmärkte verändert, Geschäftsmodelle aufbricht und neue Strukturen für Governance und gesellschaftliches Wohlergehen ermöglicht, die den globalen Konsens für Klimaschutzmaßnahmen beeinflussen können. Die derzeitigen KI-Systeme werden jedoch mit verzerrten Datensätzen trainiert, die politische Institutionen destabilisieren und Entscheidungen zur Eindämmung des Klimawandels und zur Anpassung an ihn beeinträchtigen und die soziale Stabilität gefährden könnten, was möglicherweise zu gesellschaftlichen Kipppunkten führt. Daher ist die angemessene Gestaltung eines weniger voreingenommenen KI-Systems, das sowohl direkte als auch indirekte Auswirkungen auf Gesellschaften und planetarische Herausforderungen berücksichtigt, von größter Bedeutung.

17:35

Quantisierte YOLOv8-Modelle auf Edge-Geräten bereitstellen

Shashi Chilappagari, DeGirum

Die Quantisierung von Machine-Learning(ML)-Modellen kann zu einer deutlichen Verringerung der Modellgröße sowie zu einer Reduzierung der Inferenzlatenz aufgrund geringerer Bandbreitenanforderungen führen. Bei der Bereitstellung auf Hardwareoptionen, die Integer-Berechnungen effizient unterstützen, können die Leistungsgewinne noch dramatischer sein. Die Quantisierung kann jedoch manchmal zu einer inakzeptablen Verschlechterung der Genauigkeit führen. In diesem Vortrag geben wir einen Überblick über die Methoden zur effizienten Quantisierung von YOLOv8-Modellen, die sie zu einer ausgezeichneten Wahl für verschiedene Echtzeit-Edge-KI-Anwendungen machen. Wir stellen auch eine Klasse von YOLOv8-Modellen mit ReLU6-Aktivierungsfunktion vor, die ausgezeichnete Ergebnisse bei der Quantisierung nach dem Training auf einer Vielzahl von Modellarchitekturen und Datensätzen zeigen. Abschließend veranschaulichen wir, wie die quantisierten Modelle auf mehreren Hardwareoptionen wie CPUs, Edge TPUs und Orca (DeGirums AI HW-Beschleuniger) mithilfe einfacher APIs bereitgestellt werden können.

18:00

Ultralytics mit Weights & Biases aufladen

Soumik Rakshit, Weights & Biases

Ultralytics ist die Heimat für hochmoderne Computer Vision-Modelle für Aufgaben wie Bildklassifizierung, Objekterkennung, Bildsegmentierung und Pose-Schätzung. Weights & Biases ist eine Developer-First-MLOps-Plattform, die, wenn sie in einen Ultralytics-Workflow integriert wird, es uns ermöglicht, unsere Experimente und Modell-Checkpoints einfach zu verwalten und die Ergebnisse unserer Experimente aufschlussreich und intuitiv zu visualisieren. In dieser Sitzung werden wir untersuchen, wie wir unsere Computer-Vision-Workflows mit Ultralytics und Weights & Biases effektiv optimieren können.

18:15

PatentPT: Aufbau einer LLM-gestützten Lösung mit Enterprise-Grade Memory Agents

Davit Buniatyan, Activeloop

Erfahren Sie, wie wir PatentPT entwickelt haben, eine fortschrittliche Sprachmodelllösung, die die Patentrecherche und Interaktionsfähigkeiten erheblich verbessert. Die Präsentation bietet praktische Einblicke in die Feinabstimmung und Bereitstellung großer Sprachmodelle und die Nutzung von Memory Agents der Enterprise-Klasse, um Patente automatisch zu vervollständigen, Zusammenfassungen und Ansprüche zu generieren und erweiterte Patent Suchfunktionen mithilfe des umfangreichen Patentkorpus durchzuführen. Wir führen Sie durch die Entwicklung einer ähnlichen Lösung mithilfe von Activeloop’s Deep Lake, der Datenbank für KI, Open-Source-LLM-Modellen, Habana Gaudi HPU-Hardware und den LLM-Inferenz-APIs von Amazon Sagemaker.

Wir führen Sie durch die architektonischen Blaupausen und alle Schritte, die wir unternommen haben, um die Lösung zu erstellen – vom Trainieren unseres LLM-Modells und dessen Feinabstimmung über das Erstellen benutzerdefinierter Funktionen bis hin zur Bereitstellung von Such-APIs.

Egal, ob Sie ein KI-Praktiker sind, der nach praktischen Anleitungen zur Feinabstimmung von LLMs sucht, ein Jurist, der daran interessiert ist, KI für die Patent Suche zu nutzen, oder einfach nur neugierig auf die Zukunft KI-gestützter Lösungen sind, unser Vortrag bietet einen Einblick in den Prozess und das Potenzial der Verwendung von LLMs in einem spezialisierten Bereich. Begleiten Sie uns, während wir unsere Reise zum Aufbau kundenspezifischer LLM-gestützter Apps teilen, die von Deep Lake, der Datenbank für KI für große und kleine Unternehmen, unterstützt werden.

18:30

Series A für Open Source: Wonach Investoren suchen

Erica Brescia, Redpoint

Open-Source-Unternehmen sind anders aufgebaut. In diesem Vortrag werden wir darauf eingehen, worauf Investoren bei einer Investition in der Serie A achten. Spoiler: Sie brauchen vielleicht keine Einnahmen, aber Sie brauchen definitiv Dynamik! Wir werden erstklassige Metriken von anderen OSS-Unternehmen weitergeben, um Ihnen bei der Entscheidung zu helfen, wann Sie Kapital aufnehmen sollten.

18:45

Abschluss

Frühere Teilnehmer von

Teilnehmer von Alibaba
Teilnehmer von Ancestry
Teilnehmer von AWS
Teilnehmer von Baidu
BCG-Logo
Teilnehmer von Chubb
Teilnehmer von Databricks
Teilnehmer von Deloitte
Teilnehmer von Ford
Fujitsu Logo
Teilnehmer von General Electric
Teilnehmer von Huawei
Teilnehmer von KPMG
Teilnehmer von Lowe's
Nielsen Logo
Teilnehmer von Nvidia
Teilnehmer von Oracle
Teilnehmer von Samsung
Teilnehmer von Walmart
Tata Logo

FAQs über YV23

Wie sieht der Zeitplan für die Präsenzveranstaltung aus?

Wir beginnen den Tag bei Google for Startups in Madrid mit Kaffee. Am Vormittag finden eine Reihe von Vorträgen statt, gefolgt von einer Mittagspause, die von Ultralytics bei Google for Startups ausgerichtet wird. Nach dem Mittagessen werden wir uns wieder weiteren Sitzungen widmen. Zum Abschluss von YV23 laden wir Sie zu einer offiziellen Networking Happy Hour ein, die ebenfalls bei Google for Startups stattfindet.

Welche Vorteile bietet die persönliche Teilnahme?

Die persönliche Teilnahme ermöglicht es Ihnen, in die Atmosphäre der Veranstaltung einzutauchen, mit Referenten und anderen Teilnehmern zu interagieren und an Networking-Sessions teilzunehmen. Es ist eine einzigartige Gelegenheit, sich direkt mit der Vision-KI-Community auszutauschen.

Wie viel kostet ein Ticket?

Tickets für YV23 sind völlig kostenlos, egal ob Sie virtuell oder persönlich teilnehmen möchten.

Wo befindet sich Google for Startups in Madrid?

Calle de Moreno Nieto, 2, 28005 Madrid, Spanien.

Wie kann ich an YV23 teilnehmen?

YV23 bietet sowohl virtuelle als auch persönliche Teilnahmeoptionen. Um sich Ihren Platz zu sichern, füllen Sie einfach das Anmeldeformular auf dieser Seite aus.

Wo kann ich virtuell einschalten?

Wenn Sie sich in China befinden, finden Sie den virtuellen Bilibili-Stream hier. Wenn Sie aus dem Rest der Welt teilnehmen, schalten Sie bitte den virtuellen Youtube-Stream hier ein.