Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Ultralytics' wichtigste Highlights der YOLO Vision 2024!

Abirami Vina

4 Min. Lesezeit

8. Oktober 2024

Entdecken Sie die Highlights der jährlichen Ultralytics und erleben Sie die YOLO Vision Hybrid-Erfahrung noch einmal. Wir berichten über die YOLO11 Ultralytics, interessante Panels und mehr.

Am 27. September brachte Ultralytics die KI- und Computer-Vision-Gemeinschaft zu unserem spannenden jährlichen Hybrid-Event YOLO Vision 2024 (YV24) zusammen. Die Veranstaltung, die auf dem Google for Startups Campus in Madrid stattfand und weltweit gestreamt wurde, versammelte Experten, Entwickler und Enthusiasten, um die neuesten Fortschritte im Bereich der Bildverarbeitung zu diskutieren, wie zum Beispiel das neue Ultralytics YOLO11 . Der Live-Stream der Veranstaltung hat bereits über 5.400 Aufrufe, mehr als 10.600 Impressionen und 469,5 Stunden Sehzeit erreicht und damit Innovatoren auf der ganzen Welt angesprochen.

YV24 begann mit einer herzlichen Begrüßung durch unseren Gastgeber Oisin Lunny, der die Bedeutung von Gemeinschaft und Verbindung hervorhob: "Ich glaube fest an die Kraft großer Ideen und großer Gemeinschaften, und was Ultralytics mit YOLO Vision geschaffen hat, ist genau das - eine große Gemeinschaft von großartigen Menschen mit großartigen Ideen."

In diesem Artikel stellen wir die wichtigsten Highlights der YOLO Vision 2024 vor, von den spannenden Podiumsdiskussionen bis hin zu faszinierenden Anwendungsfällen der Computer Vision in der Praxis. Wir gehen auch auf die technischen Vorträge ein, die von Edge AI bis hin zu Hardware-Beschleunigung reichen, sowie auf die Momente des Networkings und der Gemeinschaftsbildung, die die Veranstaltung zu einem Erfolg machten. Egal, ob Sie sich für KI-Innovationen, wichtige Ankündigungen oder die Zukunft von Vision AI interessieren, dieses YOLO Vision 2024 Event-Recap enthält alle wichtigen Informationen! 

Einführung von Ultralytics YOLO11 auf der YOLO Vision

Die Produkteinführung, die bereits vor der YOLO Vision 2024 angekündigt worden war, wurde schließlich während der ersten Keynote von Glenn Jocher, Ultralytics' Gründer und CEO, bekannt gegeben. Glenn stellte vor Ultralytics YOLO11vor, das die nächste Generation von Computer-Vision-Modellen darstellt, die seit mehreren Monaten in der Entwicklung war. Um die Spannung der Einführung noch zu steigern, wurde Glenn später in der The Ravit Show interviewt und gab Einblicke in die Entwicklung von YOLO11.

Während seiner Keynote erzählte Glenn auch die Geschichte des Unternehmens, beginnend mit seinem Hintergrund in der Teilchenphysik und wie seine Faszination für das Verständnis des Universums ihn schließlich zum maschinellen Lernen und zur Computer Vision führte.

__wf_reserved_inherit
Bild 1. Ultralytics YOLO11 wurde offiziell von Glenn Jocher auf der Bühne der YOLO Vision 2024 angekündigt.

Er erläuterte, wie seine frühe Arbeit in der Physik, bei der Forscher Teilcheninteraktionen analysierten, der Objekterkennung in der Computer Vision ähnelte. Seine Neugierde und sein Drang, an Spitzentechnologien zu arbeiten, führten schließlich zur Gründung von Ultralytics YOLOv5. Während seines Vortrags betonte Glenn die Bedeutung der Zusammenarbeit und des Beitrags innerhalb der Open-Source-Gemeinschaft und dankte den Entwicklern auf der ganzen Welt, die Feedback gegeben und zur Verbesserung von YOLOv5 und Ultralytics YOLOv8 mit der Zeit verbessert haben.

Anschließend stellte er die wichtigsten Merkmale von Ultralytics YOLO11 vor und erklärte, dass es schneller, genauer und effizienter ist als frühere Modelle. Tatsächlich verwendet YOLO11m 22 % weniger Parameter als YOLOv8m und liefert dennoch eine bessere Genauigkeit auf dem COCO , was YOLO11 perfekt für Echtzeitanwendungen macht, bei denen Geschwindigkeit und Genauigkeit von grundlegender Bedeutung sind.

Glenn betonte den Umfang der Markteinführung mit den Worten: "Wir bringen insgesamt 30 Modelle auf den Markt, von denen 25 Open Source sind, mit fünf verschiedenen Größen für fünf verschiedene Aufgaben. Die Aufgaben sind Bildklassifizierung, Objekterkennung, Instanzsegmentierung, Posenschätzung und orientierte Bounding Boxes." Auf der Unternehmensseite kündigte er an, dass im nächsten Monat robuste Modelle, die auf einem proprietären Datensatz von 1 Million Bildern trainiert wurden, verfügbar sein werden. Es ist unnötig zu erwähnen, dass diese Ankündigung den Auftakt der Veranstaltung bildete und die Teilnehmer begierig darauf waren, mehr über das Innovationspotenzial vonYOLO11 in Bereichen wie Fertigung und selbstfahrende Autos zu erfahren.

Podiumsdiskussionen auf der YOLO Vision: Eine KI-Konferenz

Die von Oisin Lunny moderierten Podiumsdiskussionen auf der YOLO Vision 2024 boten eine Reihe von Einblicken in die Bereiche KI, Computer Vision und Community Building. 

An der ersten Diskussionsrunde nahmen Glenn Jocher, Jing Qiu (eine Schlüsselfigur bei der Entwicklung von YOLO bei Ultralytics) und Ao Wang von der Tsinghua-Universität teil, der als Co-Autor von YOLOv10. Die Diskussionsteilnehmer erörterten die jüngsten Entwicklungen in den Bereichen generative KI und Computer Vision und konzentrierten sich dabei auf deren Gemeinsamkeiten, Unterschiede und den Einfluss, den beide Bereiche auf den jeweils anderen haben. Trotz des jüngsten Aufschwungs von großen Sprachmodellen (LLMs) stellte das Podium fest, dass die traditionelle Computer Vision für bestimmte Aufgaben in Branchen wie dem Gesundheitswesen nach wie vor unerlässlich ist. 

Die nächste Diskussionsrunde befasste sich mit den Herausforderungen, mit denen Frauen in der KI-Führung konfrontiert sind, mit Rednern: Paula Derrenger, Director of Growth bei Ultralytics, Bruna de Guimarães, ehemalige CPO und COO im SaaS-Bereich, Mariana Hernandez, Chapter Lead für Latinas in Tech Madrid, und Christina Stathopoulous, Gründerin von Dare to Data, tauschten ihre Erfahrungen aus und erörterten die Bedeutung von Mentoring und die Notwendigkeit, dass Frauen proaktiv nach Führungspositionen suchen. Hernandez riet: "Seien Sie proaktiv, warten Sie nicht darauf, dass die Dinge für Sie passieren", und ermutigte die Frauen im Publikum, sich durchzusetzen und aktiv nach Möglichkeiten zu suchen. Die Diskussionsteilnehmer erörterten auch den Wert der Schaffung eines förderlichen Arbeitsumfelds.

__wf_reserved_inherit
Abb. 2. Ein Panel zum Thema Frauen in der Technik, von links nach rechts: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, mit Bruna de Guimarães, die remote zugeschaltet ist.

Das abschließende Panel untersuchte, wie der Aufbau starker Communities Innovationen im Bereich der KI fördern kann. Burhan Qaddoumi, Harpreet Sahota und Bart Farrell diskutierten Möglichkeiten, mit technischen Zielgruppen in Kontakt zu treten, sowohl online als auch bei persönlichen Veranstaltungen. Farrells Erkenntnis, "Man muss sie dort treffen, wo sie sich aufhalten", betonte, wie wichtig es ist, mit Community-Mitgliedern zu ihren Bedingungen in Kontakt zu treten, um Zusammenarbeit und gemeinsames Lernen zu fördern.

__wf_reserved_inherit
Abb. 3. Eine Podiumsdiskussion über den Aufbau von Communities, von links nach rechts: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell und Oisin Lunny.

Beispiele aus der Praxis für KI-Innovationen bei YOLO Vision

Mehrere Vorträge bei YV24 beleuchteten, wie YOLO zur Lösung realer Herausforderungen in verschiedenen Branchen eingesetzt werden. Jim Griffin, Moderator des AI Master Group-Podcasts, sprach über ein Projekt, bei dem YOLOv8 eingesetzt werden , um die Bewegungen von Haien entlang der kalifornischen Küste durch Drohnenüberwachung zu überwachen. Das System alarmiert Rettungsschwimmer, Surfshop-Besitzer und Eltern und gewährleistet die Sicherheit der Strandbesucher, indem es Haie aus einer Höhe von 200 Fuß über dem Meer erkennt. Griffin erklärte, dass die eigentliche Herausforderung nicht das KI-Modell selbst war, sondern die umfangreichen Drohnenflüge und Datenerhebungen, die zum Trainieren des Modells erforderlich waren.

__wf_reserved_inherit
Abbildung 4. Jim Griffin berichtete, wie YOLOv8 zur Überwachung von Haibewegungen entlang der kalifornischen Küste mithilfe von Drohnen eingesetzt wird.

In ähnlicher Weise sprach David Scott von The Main Branch über die Ausweitung der Computer Vision von der einfachen Objekterkennung zur Verhaltensanalyse. In seinem Vortrag ging es um reale Anwendungen wie die Verfolgung des Verhaltens von Rindern und die Erkennung verdächtiger Aktivitäten in Einzelhandelsgeschäften. Scott erklärte, wie YOLOv8 zur Überwachung der Gesundheit von Rindern eingesetzt werden kann, indem bestimmte Verhaltensweisen wie Fressen, Trinken und Gehen analysiert werden.

Darüber hinaus gab es eine besonders bewegende Keynote von Ousman Umar von NASCO Feeding Minds, in der er erzählte, wie seine Organisation das Leben von Menschen verändert, indem sie IT-Bildung in Ghana anbietet. Seine Stiftung hat 17 IKT-Zentren eingerichtet, in denen über 65.000 Studenten ausgebildet werden, mit dem Ziel, lokale Technologiearbeitsplätze zu schaffen, um Probleme wie illegale Einwanderung zu bekämpfen. Umars eindrucksvolle Geschichte vermittelte, wie Bildung und Technologie gemeinsam einen nachhaltigen Wandel in unterversorgten Gemeinden bewirken können.

Technische Gespräche: Highlights der YOLO

YV24 bot auch verschiedene Vorträge, die sich darauf konzentrierten, wie KI und Hardware zusammenkommen und neue Ideen hervorbringen. Experten von Unternehmen wie Intel, Sony und NVIDIA sprachen über den Einsatz von YOLO auf Edge-Geräten und die Optimierung der Leistung. Dmitriy Pastushenkov und Adrian Boguszewski von Intel erläuterten, wie ihre Hardware YOLO über NPU, CPU und GPU hinweg unterstützt, während Amir Servi und Wei Tang von Sony erläuterten, wie YOLO mit der AITRIOS-Plattform für eine effiziente Edge-KI-Bereitstellung integriert wird. Guy Dahan von NVIDIA sprach über die Verwendung ihrer GPU zur Verbesserung der YOLO . 

__wf_reserved_inherit
Abbildung 5. Guy Dahan spricht über die Optimierung der YOLO mit Hilfe der GPU .

Andere Unternehmen wie Qualcomm, Hugging Faceund Lightning AIstellten ebenfalls vor, wie ihre Plattformen es Entwicklern erleichtern, YOLO zu integrieren und einzusetzen. Devang Aggarwal von Qualcomm präsentierte, wie Modelle wie YOLOv8 über den Qualcomm AI Hub für Snapdragon-Geräte optimiert werden können.

In ähnlicher Weise beschrieb Pavel Lakubovskii von Hugging Face , wie ihre Open-Source-Tools eine nahtlose Integration von Modellen wie YOLOv8 in verschiedene Arbeitsabläufe ermöglichen, während Luca Antiga von Lightning AI uns zeigte, wie Entwickler Modelle wie YOLOv8 einfach auf Code-Ebene für schnelleres Prototyping und Iterationen einbinden können.

Eine Woche in Madrid: YOLO

In der Woche vor dem YV24 versammelte sich das Ultralytics in Madrid zu einer Mischung aus Workshops, gemeinsamen Treffen und außerbetrieblichen Aktivitäten. Diese Aktivitäten gingen über die Arbeit hinaus, förderten stärkere Beziehungen und schufen eine positive Atmosphäre im Vorfeld der Veranstaltung. Bei der abschließenden Afterparty hatten die Teilnehmer und Referenten die Gelegenheit, Kontakte zu knüpfen, wichtige Erkenntnisse auszutauschen und zukünftige Kooperationen zu erkunden. Die Kombination aus Teamarbeit und Kameradschaft machte YV24 zu einem professionellen Erfolg und einem rundum unvergesslichen Erlebnis.

__wf_reserved_inherit
Abb. 6. Das Ultralytics feiert einen tollen Tag auf der YOLO Vision 2024.

YOLO Vision AI-Innovationen und was vor uns liegt

YV24 brachte Innovation, Zusammenarbeit und einen Blick auf die Zukunft der Computer Vision zusammen. Mit der Vorstellung von YOLO11, spannenden Panels und Diskussionen über KI-Hardware und Edge-Lösungen konzentrierte sich die Veranstaltung darauf, wie Vision AI einen Unterschied machen kann und wie sich die Technologie verändert, um mit den Fortschritten der KI Schritt zu halten. Außerdem wurden die Verbindungen innerhalb der Community gestärkt. Experten und Enthusiasten tauschten Ideen aus und erkundeten das Potenzial von Computer Vision und YOLO. Die Veranstaltung endete mit einem lustigen Quiz, bei dem es Ultralytics zu gewinnen gab, so dass alle gespannt auf weitere Innovationen wie YOLO11 in der Zukunft waren.

Besuchen Sie unser GitHub-Repository und vernetzen Sie sich mit unserer florierenden Community, um mehr über KI zu erfahren. Sehen Sie, wie Vision AI Innovationen in Sektoren wie dem Gesundheitswesen und der Landwirtschaft neu definiert. 🚀

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten