Ultralytics' wichtigste Highlights der YOLO Vision 2024!

Abirami Vina

4 Minuten lesen

8. Oktober 2024

Entdecken Sie die Highlights der jährlichen Ultralytics-Veranstaltung und erleben Sie die YOLO Vision Hybrid-Erfahrung noch einmal. Wir berichten über die YOLO11-Einführung von Ultralytics, interessante Panels und mehr.

Am 27. September brachte Ultralytics die KI- und Computer-Vision-Gemeinschaft zu unserem spannenden jährlichen Hybrid-Event YOLO Vision 2024 (YV24) zusammen. Die Veranstaltung, die auf dem Google for Startups Campus in Madrid stattfand und weltweit gestreamt wurde, versammelte Experten, Entwickler und Enthusiasten, um die neuesten Fortschritte im Bereich der KI zu diskutieren, wie z. B. das neue Ultralytics YOLO11-Modell. Der Live-Stream der Veranstaltung hat bereits über 5.400 Aufrufe, mehr als 10.600 Impressionen und 469,5 Stunden Sehzeit erreicht und damit Innovatoren auf der ganzen Welt angesprochen.

YV24 begann mit einer herzlichen Begrüßung durch unseren Gastgeber Oisin Lunny, der die Bedeutung von Gemeinschaft und Verbindung hervorhob: "Ich glaube fest an die Kraft großer Ideen und großer Gemeinschaften, und was Ultralytics mit YOLO Vision geschaffen hat, ist genau das - eine große Gemeinschaft von großartigen Menschen mit großartigen Ideen."

In diesem Artikel stellen wir die wichtigsten Highlights der YOLO Vision 2024 vor, von den spannenden Podiumsdiskussionen bis hin zu faszinierenden Anwendungsfällen der Computer Vision in der Praxis. Wir gehen auch auf die technischen Vorträge ein, die von Edge AI bis hin zu Hardware-Beschleunigung reichen, sowie auf die Momente des Networkings und der Gemeinschaftsbildung, die die Veranstaltung zu einem Erfolg machten. Egal, ob Sie sich für KI-Innovationen, wichtige Ankündigungen oder die Zukunft von Vision AI interessieren, dieses YOLO Vision 2024 Event-Recap enthält alle wichtigen Informationen! 

Einführung von Ultralytics YOLO11 auf der YOLO Vision

Die Produkteinführung, die bereits vor der YOLO Vision 2024 angekündigt worden war, wurde schließlich mit einer Ankündigung während der ersten Keynote von Glenn Jocher, Ultralytics' Gründer und CEO, enthüllt. Glenn stellte Ultralytics YOLO11 vor, die nächste Generation von Computer-Vision-Modellen, die seit mehreren Monaten in der Entwicklung war. Um die Spannung der Einführung noch zu steigern, wurde Glenn später in der The Ravit Show interviewt und gab Einblicke in die Entwicklung von YOLO11.

Während seiner Keynote erzählte Glenn auch die Geschichte des Unternehmens, beginnend mit seinem Hintergrund in der Teilchenphysik und wie seine Faszination für das Verständnis des Universums ihn schließlich zu maschinellem Lernen und Computer Vision führte.

__wf_reserved_inherit
Bild 1. Ultralytics YOLO11 wurde offiziell von Glenn Jocher auf der Bühne der YOLO Vision 2024 angekündigt.

Er erläuterte, wie seine frühe Arbeit in der Physik, bei der Forscher Teilcheninteraktionen analysierten, mit der Objekterkennung in der Computer Vision vergleichbar war. Seine Neugier und sein Drang, an Spitzentechnologie zu arbeiten, führten schließlich zur Entwicklung von Ultralytics YOLOv5. Während seines Vortrags betonte Glenn die Bedeutung der Zusammenarbeit und des Beitrags innerhalb der Open-Source-Gemeinschaft und dankte den Entwicklern auf der ganzen Welt, die im Laufe der Zeit Feedback gegeben und zur Verbesserung von YOLOv5 und Ultralytics YOLOv8 beigetragen haben.

Anschließend stellte er die wichtigsten Merkmale von Ultralytics YOLO11 vor und erklärte, dass es schneller, genauer und effizienter ist als frühere Modelle. Tatsächlich verwendet YOLO11m 22 % weniger Parameter als YOLOv8m und liefert dennoch eine bessere Genauigkeit auf dem COCO-Datensatz, was YOLO11 perfekt für Echtzeitanwendungen macht, bei denen Geschwindigkeit und Genauigkeit von grundlegender Bedeutung sind.

Glenn betonte den Umfang der Markteinführung mit den Worten: "Wir bringen insgesamt 30 Modelle auf den Markt, von denen 25 Open Source sind, mit fünf verschiedenen Größen für fünf verschiedene Aufgaben. Die Aufgaben sind Bildklassifizierung, Objekterkennung, Instanzsegmentierung, Posenschätzung und orientierte Bounding Boxes." Auf der Unternehmensseite kündigte er an, dass im nächsten Monat robuste Modelle, die auf einem proprietären Datensatz von 1 Million Bildern trainiert wurden, verfügbar sein werden. Es ist unnötig zu erwähnen, dass diese Ankündigung den Auftakt der Veranstaltung bildete und die Teilnehmer begierig darauf waren, mehr über das Innovationspotenzial von YOLO11 in Bereichen wie Fertigung und selbstfahrende Autos zu erfahren.

Podiumsdiskussionen auf der YOLO Vision: Eine KI-Konferenz

Die von Oisin Lunny moderierten Podiumsdiskussionen auf der YOLO Vision 2024 boten eine Reihe von Einblicken in die Bereiche KI, Computer Vision und Community Building. 

An der ersten Diskussionsrunde nahmen Glenn Jocher, Jing Qiu (eine Schlüsselfigur bei der Entwicklung von YOLO-Modellen bei Ultralytics) und Ao Wang von der Tsinghua University teil, der Mitautor von YOLOv10 ist. Die Diskussionsrunde erörterte die jüngsten Entwicklungen im Bereich der generativen KI und der Computer Vision und konzentrierte sich dabei auf deren Gemeinsamkeiten, Unterschiede und den Einfluss, den beide Bereiche auf den jeweils anderen haben. Trotz des jüngsten Aufschwungs von großen Sprachmodellen (LLMs) wies das Podium darauf hin, dass die traditionelle Computer Vision für bestimmte Aufgaben in Branchen wie dem Gesundheitswesen nach wie vor unerlässlich ist. 

Die nächste Diskussionsrunde befasste sich mit den Herausforderungen, mit denen Frauen in der KI-Führung konfrontiert sind, mit Rednern: Paula Derrenger, Director of Growth bei Ultralytics, Bruna de Guimarães, ehemalige CPO und COO im SaaS-Bereich, Mariana Hernandez, Chapter Lead für Latinas in Tech Madrid, und Christina Stathopoulous, Gründerin von Dare to Data, tauschten ihre Erfahrungen aus und erörterten die Bedeutung von Mentorenschaft und die Notwendigkeit, dass Frauen proaktive Schritte unternehmen, um Führungsrollen zu übernehmen. Hernandez riet: "Seien Sie proaktiv, warten Sie nicht darauf, dass die Dinge für Sie passieren", und ermutigte die Frauen im Publikum, sich durchzusetzen und aktiv nach Möglichkeiten zu suchen. Die Diskussionsteilnehmer erörterten auch den Wert der Schaffung eines förderlichen Arbeitsumfelds.

__wf_reserved_inherit
Abb. 2. Eine Podiumsdiskussion über Frauen in der Technologiebranche, von links nach rechts: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, mit Bruna de Guimarães, die aus der Ferne zugeschaltet wurde.

Die letzte Diskussionsrunde befasste sich mit der Frage, wie der Aufbau starker Gemeinschaften die Innovation in der KI fördern kann. Burhan Qaddoumi, Harpreet Sahota und Bart Farrell erörterten, wie man sowohl online als auch bei persönlichen Veranstaltungen mit dem Fachpublikum in Kontakt treten kann. Farrells Erkenntnis "Man muss sie dort abholen, wo sie sind" verdeutlichte, wie wichtig es ist, mit den Mitgliedern der Community zu ihren Bedingungen in Kontakt zu treten, um die Zusammenarbeit und das gemeinsame Lernen zu fördern.

__wf_reserved_inherit
Abb. 3. Eine Diskussionsrunde über den Aufbau von Gemeinschaften, von links nach rechts: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell und Oisin Lunny.

Beispiele aus der Praxis für KI-Innovationen bei YOLO Vision

Mehrere Vorträge bei YV24 beleuchteten, wie YOLO-Modelle zur Lösung realer Herausforderungen in verschiedenen Branchen eingesetzt werden. Jim Griffin, Moderator des AI Master Group-Podcasts, sprach über ein Projekt, bei dem YOLOv8-Modelle eingesetzt werden , um die Bewegungen von Haien entlang der kalifornischen Küste durch Drohnenüberwachung zu überwachen. Das System alarmiert Rettungsschwimmer, Surfshop-Besitzer und Eltern und gewährleistet die Sicherheit der Strandbesucher, indem es Haie aus einer Höhe von 200 Fuß über dem Meer erkennt. Griffin erklärte, dass die eigentliche Herausforderung nicht das KI-Modell selbst war, sondern die umfangreichen Drohnenflüge und Datenerhebungen, die zum Trainieren des Modells erforderlich waren.

__wf_reserved_inherit
Abbildung 4. Jim Griffin berichtete, wie YOLOv8 zur Überwachung von Haibewegungen entlang der kalifornischen Küste mithilfe von Drohnen eingesetzt wird.

In ähnlicher Weise sprach David Scott von The Main Branch über die Ausweitung der Computer Vision von der einfachen Objekterkennung zur Verhaltensanalyse. In seinem Vortrag ging es um reale Anwendungen wie die Verfolgung des Verhaltens von Rindern und die Erkennung verdächtiger Aktivitäten in Einzelhandelsgeschäften. Scott erklärte, wie YOLOv8 zur Überwachung der Gesundheit von Rindern eingesetzt werden kann, indem bestimmte Verhaltensweisen wie Fressen, Trinken und Gehen analysiert werden.

Eine besonders zu Herzen gehende Keynote kam von Ousman Umar von NASCO Feeding Minds, der berichtete, wie seine Organisation durch die Bereitstellung von IT-Ausbildung in Ghana Leben verändert. Seine Stiftung hat 17 IKT-Zentren eingerichtet, in denen über 65.000 Schüler ausgebildet werden, mit dem Ziel, vor Ort technische Arbeitsplätze zu schaffen, um Probleme wie die illegale Einwanderung zu bekämpfen. Umars eindrucksvolle Geschichte verdeutlichte, wie Bildung und Technologie zusammen einen nachhaltigen Wandel in unterversorgten Gemeinden bewirken können.

Technische Gespräche: Highlights der YOLO-Vision-Sprecher

YV24 bot auch verschiedene Vorträge, die sich darauf konzentrierten, wie KI und Hardware zusammenkommen und neue Ideen hervorbringen. Experten von Unternehmen wie Intel, Sony und NVIDIA sprachen über den Einsatz von YOLO-Modellen auf Edge-Geräten und die Optimierung der Leistung. Dmitriy Pastushenkov und Adrian Boguszewski von Intel erläuterten, wie ihre Hardware YOLO-Modelle über NPU, CPU und GPU hinweg unterstützt, während Amir Servi und Wei Tang von Sony erläuterten, wie YOLO mit der AITRIOS-Plattform für einen effizienten Edge-KI-Einsatz integriert wird. Guy Dahan von NVIDIA sprach über die Verwendung ihrer GPU-Architektur zur Verbesserung der YOLO-Modellinferenz. 

__wf_reserved_inherit
Abbildung 5. Guy Dahan spricht über die Optimierung der YOLO-Modellinferenz mit Hilfe der NVIDIA-GPU-Architektur.

Andere Unternehmen wie Qualcomm, Hugging Face und Lightning AIstellten ebenfalls vor, wie ihre Plattformen Entwicklern die Integration und Bereitstellung von YOLO-Modellen erleichtern. Devang Aggarwal von Qualcomm präsentierte, wie Modelle wie YOLOv8 über den Qualcomm AI Hub für Snapdragon-Geräte optimiert werden können.

In ähnlicher Weise beschrieb Pavel Lakubovskii von Hugging Face, wie ihre Open-Source-Tools eine nahtlose Integration von Modellen wie YOLOv8 in verschiedene Arbeitsabläufe ermöglichen, während Luca Antiga von Lightning AI uns zeigte, wie Entwickler Modelle wie YOLOv8 einfach auf Code-Ebene für schnelleres Prototyping und Iterationen einbinden können.

Eine Woche in Madrid: YOLO-Vision-Netzwerktreffen

In der Woche vor dem YV24 versammelte sich das Ultralytics-Team in Madrid zu einer Mischung aus Workshops, gemeinsamen Treffen und außerbetrieblichen Aktivitäten. Diese Aktivitäten gingen über die Arbeit hinaus, förderten stärkere Beziehungen und schufen eine positive Atmosphäre im Vorfeld der Veranstaltung. Bei der abschließenden Afterparty hatten die Teilnehmer und Referenten die Gelegenheit, Kontakte zu knüpfen, wichtige Erkenntnisse auszutauschen und zukünftige Kooperationen zu erkunden. Die Kombination aus Teamarbeit und Kameradschaft machte YV24 zu einem professionellen Erfolg und einem rundum unvergesslichen Erlebnis.

__wf_reserved_inherit
Abb. 6. Das Ultralytics-Team feiert einen tollen Tag auf der YOLO Vision 2024.

YOLO Vision AI-Innovationen und was vor uns liegt

YV24 brachte Innovation, Zusammenarbeit und einen Blick auf die Zukunft der Computer Vision zusammen. Mit der Vorstellung von YOLO11, spannenden Panels und Diskussionen über KI-Hardware und Edge-Lösungen konzentrierte sich die Veranstaltung darauf, wie Vision AI einen Unterschied machen kann und wie sich die Technologie verändert, um mit den Fortschritten der KI Schritt zu halten. Außerdem wurden die Verbindungen innerhalb der Community gestärkt. Experten und Enthusiasten tauschten Ideen aus und erkundeten das Potenzial von Computer Vision und YOLO. Die Veranstaltung endete mit einem lustigen Quiz, bei dem es Ultralytics-Kapuzenpullis zu gewinnen gab, so dass alle gespannt auf weitere Innovationen wie YOLO11 in der Zukunft waren.

Besuchen Sie unser GitHub-Repository und verbinden Sie sich mit unserer florierenden Community, um mehr über KI zu erfahren. Sehen Sie, wie Vision AI die Innovation in Bereichen wie Gesundheitswesen und Landwirtschaft neu definiert. 🚀

Lassen Sie uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise in die Zukunft des maschinellen Lernens

Kostenloser Start
Link in die Zwischenablage kopiert