Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Entdecken Sie die neue Grenze der Vision AI

Nehmen Sie am 27. September an unserer kostenlosen Hybrid-Veranstaltung teil, die live von Google for Startups in Madrid gestreamt wird.

Live ansehen
Ultralytics HUB-AnwendungsvorschauUltralytics HUB-AnwendungsvorschauUltralytics HUB-Anwendungsvorschau

YV23 wurde ermöglicht durch

Intel
Seeed Studio Logo
Sony Logo
Axelera Logo
Dags Hub Logo
DeGirum Logo
Intuitivo Logo
Humble Team Logo
Prodis Logo

Die von Ultralytics veranstaltete #YV23 ist die einzige Konferenz der Welt, die sich auf die Entwicklung und den Fortschritt der Open-Source-Vision-KI konzentriert. Das zweite Jahr in Folge kommen Forscher, Ingenieure und Praktiker zusammen, um Wissen, Innovationen und Fortschritte auszutauschen, sowohl vor Ort als auch online. Schließen Sie sich am 27. September bei Google for Startups in Madrid, Spanien, Experten und Führungskräften an, um die Grenzen des neuen Bereichs der Vision AI zu erweitern.

Gehostet bei
Google für Startups Logo

1

Tag

18

spricht

2,000+

Online-Teilnehmer

150

Teilnehmer vor Ort

Referenten

10:00

Öffnung

10:00

PANEL: Open-Source Vision AI einfach gemacht

Bo Zhang, Meituan
Glenn Jocher, Ultralytics
Yonatan Geifman, Deci

Glenn Jocher von Ultralytics YOLOv5 und YOLOv8), Yonatan Geifman von DeciYOLO) und Bo Zhang von MeituanYOLOv6) kommen in diesem Panel zusammen, um den Stand der Open-Source-Vision-KI zu untersuchen. Das Panel wird sich mit den Herausforderungen und Prioritäten bei der Modellimplementierung befassen und wertvolle Erkenntnisse für eine nahtlose KI-Einführung liefern. Darüber hinaus werden die Diskussionsteilnehmer die Bereitstellung auf Edge-Geräten ansprechen, das Potenzial von Modulen zur Wiedererkennung von Objekten untersuchen, Einblicke in die Modellbereitstellung geben und vieles mehr. 

11:00

Jede Kamera mit YOLOv8 ohne Code aufrüsten

Elaine Wu, Seeed

Weltweit sind etwa 1 Milliarde Netzwerkkameras im Einsatz. Intelligente Kameras, die von fortschrittlicher KI angetrieben werden, können sich auf das Wesentliche konzentrieren und die Sicherheit im Raum für alle erhöhen, von Autofahrern und Fußgängern bis hin zu Einzelhändlern und Einkäufern. Wir zeigen Ihnen, wie Sie die Gesamtleistung von Videoanalyseanwendungen mit NVIDIA Jetson verbessern und jede ältere Kamera mit dem YOLOv8 aufrüsten können, ohne eine Zeile Code schreiben zu müssen.

11:15

YOLO Supercharged: Die Nutzung von AI-Native Power

Dr. Bram Verhoef , Axelera AI

Erleben Sie mit uns, wie die Metis-Plattform von Axelera AI branchenführende Leistung und Benutzerfreundlichkeit bietet, und das zu einem Bruchteil der Kosten und des Stromverbrauchs heutiger Lösungen. Entdecken Sie die beeindruckenden Ergebnisse unserer Hardware- und Softwarelösung zur Optimierung von YOLO für Inferenzen auf Edge-Geräten.

11:30

Überbrückung der Kluft zwischen KI-Forschung und Echtzeit-Edge

Amir Servi, Sony

KI transformiert verschiedene Sektoren, Rohstoffe und grundlegende Funktionalitäten. Dennoch verbrauchen tiefe neuronale Netze übermäßige Ressourcen in Bezug auf Speicher, Rechenleistung und Energie. Um die breite Akzeptanz von KI zu gewährleisten, muss sie effizient auf Endbenutzergeräten arbeiten und strenge Leistungs- und thermische Einschränkungen einhalten. Techniken wie Quantisierung und Komprimierung spielen eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen.

In diesem Webinar führt Sie Amir Servi, Produktmanager bei Sony, durch das Model Compression Toolkit von Sony zur Quantisierung und Beschleunigung von Deep-Learning-Modellen für den effizienten Edge-Einsatz. Sie werden lernen, wie Sie dasselbe für Ihr eigenes Modell tun können! Was Sie lernen werden:

- Unsere neuesten Forschungsergebnisse zu Quantisierungstechniken und deren Implementierung in ein praktisches Produkt

- Bedeutung der Hardware-bewussten Komprimierung für die Inferenz am Edge

- Wie Ingenieure und Forscher diese Techniken mit Sony MCT implementieren können

11:45

KI für alle: Ultralytics HUB ebnet das Spielfeld

Kalen Michael, Ultralytics

Ultralytics HUB senkt die Hürden für den Einstieg in die Welt des maschinellen Lernens und macht sie für Privatpersonen und Unternehmen gleichermaßen zugänglich, unabhängig von ihren Programmierkenntnissen. Erfahren Sie, wie diese Plattform die Art und Weise, wie wir maschinelles Lernen angehen, revolutionieren und eine neue Generation von Datenenthusiasten befähigen wird, ihre Ideen mit beispielloser Leichtigkeit in die Realität umzusetzen.

Und verpassen Sie nicht unsere große Ankündigung...

12:15

Zeige und erzähle: Wie man YOLO für (fast) alles einsetzt: Einfacher und schneller!

Lakshantha Dissayanake, Seeed

Der Einsatz modernster Modelle auf eingebetteten Geräten, von der GPU des NVIDIA Jetson bis hin zu winzigen MCUs, bringt Herausforderungen und Einschränkungen mit sich. Wir zeigen Ihnen, wie Sie diese Modelle, einschließlich YOLOv8 , in einem optimierten Ansatz und mit der gesamten Edge-Performance für Videoanalyseanwendungen mit NVIDIA Jetson einsetzen können.

12:40

KENYOTE: Erkundung von Ultralytics YOLO: Fortschritte in der modernen KI

Glenn Jocher, Ultralytics

Glenn arbeitet unermüdlich daran, die beste Vision AI der Welt zu entwickeln. Für ihn ist dies nicht nur eine technologische Errungenschaft, sondern ein wichtiger Schritt auf dem Weg zur Verwirklichung des Potenzials von AGI. Die Speerspitzen dieses unerbittlichen Strebens sind keine anderen als YOLOv5, YOLOv8 und der Ultralytics HUB.

Was macht Ultralytics YOLO also zum Besten der Welt?

13:20

Mittagessen

14:45

Open-Source-Vision mit Transformatoren

Merve Noyan, Hugging Face

Jüngste Fortschritte im Bereich Computer Vision wurden maßgeblich durch die Einführung der Transformer-Architektur und der benutzerfreundlichen Abstraktionen zum Vorab-Trainieren (Pre-Train), Feinabstimmen (Fine-Tune) und Inferenzieren in der 🤗 Transformers-Bibliothek vorangetrieben. Dieser Vortrag gibt einen Überblick über die neuesten Transformer-basierten Vision-Modelle, untersucht die in der 🤗 Transformers-Bibliothek verfügbaren Dienstprogramme und bietet praktische Einblicke in die dahinter stehende Philosophie.

15:00

KEYNOTE: Überspringen Sie die Warteschlange! Erfahren Sie, wie Sie ein intelligentes Warteschlangen-Management-System mit YOLOv8 aufbauen

Adrian Boguszewski, Intel OpenVINO

Haben Sie genug von langen Schlangen an der Kasse im Einzelhandel? Unser Intelligent Queue Management System ist die Antwort! Wir zeigen Ihnen Schritt für Schritt, wie Sie ein solches System mit OpenVINO und YOLOv8 erstellen können. Wir führen Sie durch den Prozess der Integration dieser leistungsstarken Open-Source-Tools, um eine End-to-End-Lösung zu entwickeln, die in Einzelhandels-Kassenumgebungen eingesetzt werden kann. Sie erfahren, wie Sie die Anwendung optimieren können, um eine hervorragende Leistung zu erzielen. Unabhängig davon, ob Sie ein erfahrener Entwickler oder ein Neuling auf dem Gebiet der künstlichen Intelligenz sind, erhalten Sie in dieser Sitzung praktische Tipps und Best Practices für die Entwicklung intelligenter Systeme mit OpenVINO. Am Ende der Präsentation werden Sie über das Wissen und die Ressourcen verfügen, um Ihre eigene Lösung zu entwickeln.

15:40

Ethische Herausforderungen der KI

Mónica Villas

In einer Ära, die von rasanten Fortschritten in der künstlichen Intelligenz (KI) geprägt ist, ist die Navigation in der ethischen Landschaft dieser Technologie von größter Bedeutung. In dieser Sitzung wird Mónica das komplizierte Netz ethischer Dilemmata entwirren, die mit der transformativen Kraft der KI einhergehen. Von der Behandlung von Voreingenommenheit und Fairness bis hin zur Erforschung von Transparenz, Verantwortlichkeit und den tiefgreifenden Auswirkungen der KI auf die Gesellschaft wird Mónica Einblicke geben, die die ethischen Überlegungen im Zusammenhang mit KI beleuchten.

Dieser Vortrag ist Ihre Gelegenheit, ein grundlegendes Verständnis der ethischen Herausforderungen und Verantwortlichkeiten im Zusammenhang mit KI zu erlangen. Mónica wird Sie mit Wissen ausstatten, das für jeden, der an der KI-Entwicklung, Entscheidungsfindung oder Politikgestaltung beteiligt ist, unerlässlich ist.

16:00

Beschleunigung der Transformation des Einzelhandels mit der Leistung von Foundation Models

José Benítez Genes, Intuitivo

Basismodelle können hohe Anforderungen an die GPU stellen und sind möglicherweise nicht für Echtzeitanwendungen geeignet, insbesondere wenn Sie Millionen von autonomen Verkaufsstellen skalieren möchten. Wir machen uns jedoch die Methode der Wissensdestillation zunutze, bei der wir unsere Basismodelle für komplexe Aufgaben wie Annotationen in kleinere und kostengünstigere Modelle umwandeln. Auf diese Weise können wir unseren Annotationsprozess bis zu 90 Mal schneller gestalten als die herkömmliche menschliche Beschriftung.

16:30

Aufbau einer Active Learning Pipeline auf einfache Weise

Yono Mittlefehldt, DagsHub

Pssst. Willst du ein Geheimnis hören? Was wäre, wenn ich Ihnen sagen würde, dass aktives Lernen nicht schwer sein muss. Was wäre, wenn es ... einen einfachen Weg gäbe? Da haben Sie Glück. In diesem Vortrag wird Ihnen genau gezeigt, wie Sie eine aktive Lernpipeline mit der Data Engine von DagsHub implementieren können. Und 90% der Pipeline kann direkt in einem Jupyter Notebook oder auf Google Colab laufen! Am Ende des Vortrags werden Sie die notwendigen Informationen haben, um Ihr bestehendes Projekt in eines umzuwandeln, das aktives Lernen nutzt, um die Metriken Ihrer Modelle effizient und schnell zu verbessern!

17:00

Bauen mit Open Source und YOLOv8

Joseph Nelson, Roboflow

Die Verwendung von Open-Source-Tools mit YOLOv8 kann Ihnen helfen, Ihr nächstes KI-Projekt schnell zum Laufen zu bringen. Es gibt Repositories mit Open-Source-Bildern, Bibliotheken zur Automatisierung der Datenbeschriftung, Tools zur Verfolgung oder Zählung und Server für die Bereitstellung Ihrer Modelle. Erfahren Sie, wie Sie diese mit YOLOv8 nutzen können, um Ihre nächste Anwendung zu entwickeln.

17:20

Menschliche und maschinelle Intelligenz für planetarische Klimamaßnahmen

Dr. Ramit Debnath und Seán Boyle, Unitmode

Es wird erwartet, dass das globale Wettrennen um größere und bessere Systeme der künstlichen Intelligenz (KI) tiefgreifende gesellschaftliche und ökologische Auswirkungen haben wird, indem es Arbeitsmärkte verändert, Geschäftsmodelle aufbricht und neue Strukturen für Governance und gesellschaftliches Wohlergehen ermöglicht, die den globalen Konsens für Klimaschutzmaßnahmen beeinflussen können. Die derzeitigen KI-Systeme werden jedoch mit verzerrten Datensätzen trainiert, die politische Institutionen destabilisieren und Entscheidungen zur Eindämmung des Klimawandels und zur Anpassung an ihn beeinträchtigen und die soziale Stabilität gefährden könnten, was möglicherweise zu gesellschaftlichen Kipppunkten führt. Daher ist die angemessene Gestaltung eines weniger voreingenommenen KI-Systems, das sowohl direkte als auch indirekte Auswirkungen auf Gesellschaften und planetarische Herausforderungen berücksichtigt, von größter Bedeutung.

17:35

Einsatz von quantisierten YOLOv8 auf Edge-Geräten

Shashi Chilappagari, DeGirum

Die Quantisierung von Modellen des maschinellen Lernens (ML) kann zu einer erheblichen Verringerung der Modellgröße sowie zu einer Verringerung der Latenzzeit bei der Ableitung aufgrund geringerer Bandbreitenanforderungen führen. Beim Einsatz von Hardwareoptionen, die Ganzzahlberechnungen effizient unterstützen, können die Leistungsgewinne sogar noch dramatischer ausfallen. Allerdings kann die Quantisierung manchmal zu einer inakzeptablen Verschlechterung der Genauigkeit führen. In diesem Vortrag geben wir einen Überblick über die Methoden zur effizienten Quantisierung von YOLOv8 , was sie zu einer ausgezeichneten Wahl für verschiedene Echtzeit-KI-Anwendungen macht. Außerdem stellen wir eine Klasse von YOLOv8 mit ReLU6-Aktivierungsfunktion vor, die nach dem Training hervorragende Quantisierungsergebnisse für eine Vielzahl von Modellarchitekturen und Datensätzen zeigen. Schließlich zeigen wir, wie die quantisierten Modelle auf verschiedenen Hardware-Optionen wie CPUs, Edge TPUs und Orca (DeGirums KI-HW-Beschleuniger) mithilfe einfacher APIs eingesetzt werden können.

18:00

Supercharging Ultralytics mit Weights & Biases

Soumik Rakshit, Weights & Biases

Ultralytics ist die Heimat für hochmoderne Computer-Vision-Modelle für Aufgaben wie Bildklassifizierung, Objekterkennung, Bildsegmentierung und Posenschätzung. Weights & Biases ist eine von Entwicklern entwickelte MLOps-Plattform, die es uns bei Integration in einen Ultralytics ermöglicht, unsere Experimente und Modellprüfpunkte einfach zu verwalten und die Ergebnisse unserer Experimente auf eine aufschlussreiche und intuitive Weise zu visualisieren. In dieser Sitzung werden wir untersuchen, wie wir unsere Computer-Vision-Workflows mit Ultralytics und Weights & Biases effektiv aufladen können.

18:15

PatentPT: Aufbau einer LLM-gestützten Lösung mit Enterprise-Grade Memory Agents

Davit Buniatyan, Activeloop

Erfahren Sie, wie wir PatentPT entwickelt haben, eine fortschrittliche Sprachmodelllösung, die die Patentrecherche und Interaktionsfähigkeiten erheblich verbessert. Die Präsentation bietet praktische Einblicke in die Feinabstimmung und Bereitstellung großer Sprachmodelle und die Nutzung von Memory Agents der Enterprise-Klasse, um Patente automatisch zu vervollständigen, Zusammenfassungen und Ansprüche zu generieren und erweiterte Patent Suchfunktionen mithilfe des umfangreichen Patentkorpus durchzuführen. Wir führen Sie durch die Entwicklung einer ähnlichen Lösung mithilfe von Activeloop’s Deep Lake, der Datenbank für KI, Open-Source-LLM-Modellen, Habana Gaudi HPU-Hardware und den LLM-Inferenz-APIs von Amazon Sagemaker.

Wir führen Sie durch die architektonischen Blaupausen und alle Schritte, die wir unternommen haben, um die Lösung zu erstellen – vom Trainieren unseres LLM-Modells und dessen Feinabstimmung über das Erstellen benutzerdefinierter Funktionen bis hin zur Bereitstellung von Such-APIs.

Egal, ob Sie ein KI-Praktiker sind, der nach praktischen Anleitungen zur Feinabstimmung von LLMs sucht, ein Jurist, der daran interessiert ist, KI für die Patent Suche zu nutzen, oder einfach nur neugierig auf die Zukunft KI-gestützter Lösungen sind, unser Vortrag bietet einen Einblick in den Prozess und das Potenzial der Verwendung von LLMs in einem spezialisierten Bereich. Begleiten Sie uns, während wir unsere Reise zum Aufbau kundenspezifischer LLM-gestützter Apps teilen, die von Deep Lake, der Datenbank für KI für große und kleine Unternehmen, unterstützt werden.

18:30

Series A für Open Source: Wonach Investoren suchen

Erica Brescia, Redpoint

Open-Source-Unternehmen sind anders aufgebaut. In diesem Vortrag werden wir darauf eingehen, worauf Investoren bei einer Investition in der Serie A achten. Spoiler: Sie brauchen vielleicht keine Einnahmen, aber Sie brauchen definitiv Dynamik! Wir werden erstklassige Metriken von anderen OSS-Unternehmen weitergeben, um Ihnen bei der Entscheidung zu helfen, wann Sie Kapital aufnehmen sollten.

18:45

Abschluss

Frühere Teilnehmer von

Teilnehmer von Alibaba
Teilnehmer von Ancestry
Teilnehmer von AWS
Teilnehmer von Baidu
BCG-Logo
Teilnehmer von Chubb
Teilnehmer von Databricks
Teilnehmer von Deloitte
Teilnehmer von Ford
Fujitsu Logo
Teilnehmer von General Electric
Teilnehmer von Huawei
Teilnehmer von KPMG
Teilnehmer von Lowe's
Nielsen Logo
Teilnehmer von Nvidia
Teilnehmer von Oracle
Teilnehmer von Samsung
Teilnehmer von Walmart
Tata Logo

FAQs über YV23

Wie sieht der Zeitplan für die Präsenzveranstaltung aus?

Wir werden den Tag bei Google for Startups in Madrid mit einem Kaffee beginnen. Am Vormittag gibt es eine Reihe von Vorträgen, gefolgt von einer Mittagspause, die von Ultralytics bei Google for Startups veranstaltet wird. Nach dem Mittagessen geht es mit weiteren Sessions weiter. Zum Abschluss des YV23 findet eine offizielle Networking-Happy-Hour statt, die ebenfalls bei Google for Startups ausgerichtet wird.

Welche Vorteile bietet die persönliche Teilnahme?

Die persönliche Teilnahme ermöglicht es Ihnen, in die Atmosphäre der Veranstaltung einzutauchen, mit Referenten und anderen Teilnehmern zu interagieren und an Networking-Sessions teilzunehmen. Es ist eine einzigartige Gelegenheit, sich direkt mit der Vision-KI-Community auszutauschen.

Wie viel kostet ein Ticket?

Tickets für YV23 sind völlig kostenlos, egal ob Sie virtuell oder persönlich teilnehmen möchten.

Wo befindet sich Google for Startups in Madrid?

Calle de Moreno Nieto, 2, 28005 Madrid, Spanien.

Wie kann ich an YV23 teilnehmen?

YV23 bietet sowohl virtuelle als auch persönliche Teilnahmeoptionen. Um sich Ihren Platz zu sichern, füllen Sie einfach das Anmeldeformular auf dieser Seite aus.

Wo kann ich virtuell einschalten?

Wenn Sie sich in China befinden, finden Sie den virtuellen Bilibili-Stream hier. Wenn Sie aus dem Rest der Welt teilnehmen, schalten Sie bitte den virtuellen Youtube-Stream hier ein.