Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Cookie-Einstellungen
Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Erleben Sie mit uns eine Zusammenfassung der größten Ultralytics-Veranstaltung des Jahres, bei der die Ultralytics YOLO26-Einführung, inspirierende Diskussionsrunden und wichtige Highlights der Community vorgestellt werden.
Die KI- und Computer Vision-Gemeinschaft traf sich am 25. September zur YOLO Vision 2025 (YV25), der jährlichen Veranstaltung von Ultralytics zum Thema Hybrid Vision AI. Die Veranstaltung, die in London im The Pelligon stattfand und weltweit gestreamt wurde, begrüßte eine vielfältige Gruppe von Forschern, Ingenieuren und KI-Enthusiasten, um Ideen auszutauschen und neue Innovationen wie Ultralytics YOLO26 kennenzulernen.
Im vierten Jahr ihres Bestehens hat die Veranstaltung in Bezug auf Reichweite und Wirkung weiter zugenommen. Der YV25-Livestream hat bereits mehr als 6.800 Aufrufe, mehr als 49.000 Impressionen und fast 2.000 Stunden Sehzeit erzielt.
Die YV25 begann mit einer Eröffnungsrede unseres Gastgebers Oisin Lunny, der den Ton für den Tag angab, indem er die Teilnehmer ermutigte, sich zu vernetzen, auszutauschen und das Beste aus der Veranstaltung zu machen. Er sagte: "YOLO Vision 2025 ist die Konferenz, die die Open-Source-Vision-KI-Community vereint, um sich auf Daten, maschinelles Lernen und Fortschritte in der Computer Vision zu konzentrieren."
In diesem Artikel fassen wir die wichtigsten Highlights der YOLO Vision 2025 zusammen, darunter die Produkteinführung, Keynotes, ein Panel, Live-Demos und die Momente in der Community, die den Tag zu etwas Besonderem machten. Legen wir los!
Von einer einzelnen GPU zu einer 30-Millionen-Dollar-Finanzierung der Serie A
Im Vorfeld der Veranstaltung herrschte große Aufregung über die Markteinführung des neuen Produkts, und Glenn Jocher, unser Gründer und CEO, begann den Tag, indem er auf diese Energie aufbaute.
Er erzählte von der Entwicklung von Ultralytics und erinnerte daran, wie er im Jahr 2020 Experimente mit einer einzigen 1080 Ti, die an sein MacBook angeschlossen war, durchführte - eine Einrichtung, die heute veraltet ist. Aus diesen bescheidenen Anfängen hat sich Ultralytics zu einer globalen Gemeinschaft mit Milliarden von täglichen Schlussfolgerungen entwickelt, die auf YOLO-Modellen basieren.
Glenn sprach auch über die kürzlich abgeschlossene Finanzierungsrunde der Serie A von Ultralytics in Höhe von 30 Millionen US-Dollar. Er erläuterte, wie diese Investition die nächste Wachstumsphase vorantreiben wird, indem sie es dem Unternehmen ermöglicht, das Team zu vergrößern, die Forschung zu erweitern und die erforderlichen Computerressourcen zu sichern, um die Grenzen der Computer Vision weiter zu verschieben.
Ultralytics YOLO26: Ein besseres, schnelleres und kleineres YOLO-Modell
Glenn kündigte dann zwei neue Anstrengungen von Ultralytics an. Das erste ist Ultralytics YOLO26, das neueste Modell der Ultralytics YOLO-Familie, das kleiner, schneller und effizienter ist und gleichzeitig eine noch höhere Genauigkeit erreicht. Die zweite ist die Ultralytics-Plattform, ein neuer End-to-End-SaaS-Arbeitsbereich, der Daten, Training, Bereitstellung und Überwachung kombiniert, um den Aufbau von Computer-Vision-Lösungen so einfach wie nie zuvor zu machen, und der in Kürze angekündigt werden soll.
Abb. 1. Glenn Jocher bei der Ankündigung von Ultralytics YOLO26 auf der Bühne der YOLO Vision 2025.
YOLO26 wurde entwickelt, um die Leistung zu steigern und gleichzeitig für den realen Einsatz geeignet zu sein. Die kleinste Version läuft bereits bis zu 43 % schneller auf CPUs, während die Genauigkeit weiter verbessert wird, was sie ideal für Anwendungen von mobilen Geräten bis hin zu großen Unternehmenssystemen macht. YOLO26 wird ab Ende Oktober öffentlich verfügbar sein.
Rationalisierte Architektur: Das Modul "Distribution Focal Loss" (DFL) wurde entfernt, das zuvor die Modelle verlangsamte. YOLO26 läuft jetzt effizienter, ohne dass die Genauigkeit darunter leidet.
Schnellere Vorhersagen: YOLO26 führt eine Option ein, mit der der Schritt der Nicht-Maximum-Unterdrückung (NMS) übersprungen werden kann, was eine schnellere Bereitstellung von Ergebnissen ermöglicht und den Einsatz in Echtzeit erleichtert.
Bessere Erkennung kleiner Objekte: Neue Trainingsmethoden verbessern die Stabilität und erhöhen die Genauigkeit erheblich, insbesondere beim Erkennen kleiner Details in komplexen Szenen.
Intelligenteres Training: Der neue MuSGD-Optimierer kombiniert die Stärken zweier Trainingstechniken, damit das Modell schneller lernt und eine höhere Genauigkeit erreicht.
Ein erster Blick auf die Ultralytics-Plattform
Nach der Vorstellung von YOLO26 lud Glenn Prateek Bhatnagar, unseren Leiter der Produktentwicklung, ein, das nächste Projekt am Horizont vorzustellen: die Ultralytics-Plattform. Die Plattform wurde zur Vereinfachung des gesamten Computer-Vision-Workflows entwickelt und soll Datensätze, Beschriftungen, Schulungen, Bereitstellung und Überwachung an einem Ort zusammenführen.
Prateek verglich es mit dem Tunen eines Autos: Anstatt verschiedene Werkstätten für Reifen, Motoren und Getriebe aufzusuchen, geschieht alles in einer einzigen Werkstatt. In gleicher Weise bietet die Plattform Entwicklern einen integrierten Arbeitsbereich zur Verwaltung des gesamten Lebenszyklus eines KI-Modells.
Die Demo zeigte KI-gestützte Annotationswerkzeuge, die die Vorbereitung von Datensätzen beschleunigen, anpassbare Trainingsoptionen für Experten und Anfänger sowie die Echtzeitüberwachung von Trainingsläufen.
Erkenntnisse aus einer Podiumsdiskussion zum Thema Edge Deployment
Ein weiterer Höhepunkt des YV25 war eine von Oisin Lunny moderierte Diskussionsrunde zum Thema Edge Deployment. An der Sitzung nahmen Yuki Tsuji von Sony Semiconductor Solutions, David Plowman von Raspberry Pi und Glenn Jocher teil.
In der Diskussion wurde erörtert, wie die Verlagerung von KI an den Rand der Gesellschaft die Latenzzeit verringert, die Kosten senkt und den Datenschutz verbessert. Yuki stellte den IMX500-Sensor von Sony vor, der Inferenzen direkt auf dem Chip ausführen kann. In der Zwischenzeit sprach David darüber, wie der Raspberry Pi von seinen Herstellerwurzeln in groß angelegte kommerzielle Anwendungen expandiert.
Abb. 2. Eine Diskussionsrunde über den Einsatz von Kanten mit Oisin Lunny, Yuki Tsuji, David Plowman und Glenn Jocher.
In der Diskussion wurde auch eine der größten Hürden für Entwickler angesprochen: die reibungslose Ausführung von Modellen auf verschiedenen Geräten. Hier spielt das Python-Paket von Ultralytics eine Schlüsselrolle.
Mit seiner breiten Palette von Exportoptionen ist es einfach, ein trainiertes Modell in die Produktion auf mobilen, eingebetteten Systemen oder Unternehmenshardware zu übertragen. Ultralytics nimmt den Teams die Mühe der Modellkonvertierung ab und hilft ihnen, sich auf die Entwicklung von Lösungen zu konzentrieren, anstatt sich mit Kompatibilitätsproblemen herumzuschlagen.
David erklärte: "Ich weiß aus eigener bitterer Erfahrung, dass die Konvertierung von Modellen schrecklich ist, und wenn jemand anderes das für mich übernimmt, macht das das Leben viel einfacher. In diesem Punkt verbessert Ultralytics die Geschichte wirklich und bietet etwas, das für unsere Benutzer wertvoll ist.
Beschleunigung von Innovation und KI-Hardware
Die Fortschritte bei der KI-Software verlaufen parallel zur Hardware, und gemeinsam treiben sie eine neue Innovationswelle in der Computer Vision voran. Während Modelle wie Ultralytics YOLO die Genauigkeit weiter vorantreiben, hängt ihre Wirkung in der realen Welt auch von den Plattformen ab, auf denen sie laufen.
Seeed Studio beispielsweise zeigte, wie modulare, kostengünstige Hardware wie die reCamera- und XIAO-Boards, die mit den YOLO-Modellen von Ultralytics vorinstalliert sind, es Entwicklern leicht machen, vom Prototyping zu realen KI-Systemen überzugehen. Diese Art der Hardware-Software-Integration senkt die Einstiegshürde und zeigt, wie Innovation auf Hardware-Ebene die Akzeptanz direkt beschleunigt.
Hier sind einige der wichtigsten Erkenntnisse aus anderen YV25-Keynotes, die betonten, wie das Co-Design von Hardware und Software neue Möglichkeiten eröffnet:
Quantisierung sorgt für große Geschwindigkeitssteigerungen: Intel zeigte, wie die Konvertierung von Ultralytics YOLO-Modellen in OpenVINO mit Quantisierung die Inferenz von 54 FPS auf 606 FPS in nur 30 Minuten steigerte und damit die Macht der Optimierung unterstrich.
Umfassende Tools machen den Einsatz von Edge-KI praktikabel: NVIDIA zeigte, wie Jetson-Geräte, TensorRT, Triton Inference Server und das DeepStream SDK zusammenarbeiten, um den Einsatz von Hochleistungs-Vision-KI am Edge zu optimieren.
Offene Ökosysteme beschleunigen das Prototyping: AMD hob seine End-to-End-Plattform hervor, die auf GPUs und dem ROCm-Software-Stack aufbaut und Entwicklern hilft, schnell vom Prototyp zum Einsatz zu kommen und dabei die Kosten zu kontrollieren.
Chips mit geringem Stromverbrauch erweitern die KI auf eingeschränkte Geräte: DEEPX stellte seine DX-M1- und DX-M2-Prozessoren vor, die Dutzende von TOPS unter 5 Watt liefern, um fortschrittliche Inferenzen in kompakten, strombegrenzten Systemen zu ermöglichen.
Neueste Trends in der Computer Vision
Mit Fortschritten bei Software und Hardware, die Hand in Hand arbeiten, entwickelt sich die Computer Vision schneller als je zuvor. Diese parallelen Entwicklungen verbessern nicht nur die Genauigkeit und Geschwindigkeit, sondern prägen auch die Art und Weise, wie KI in der realen Welt eingesetzt werden kann. Auf der YV25 hatten die Teilnehmer die Möglichkeit, von Experten aus den Bereichen Robotik, Edge Deployment und multimodale KI zu hören, die jeweils eine andere Perspektive auf die Zukunft des Bereichs boten.
In seiner Keynote demonstrierte Michael Hart von D-Robotics beispielsweise, wie die Kombination von Ultralytics YOLO-Modellen mit ihrem kompakten RDK X5-Board (einem kleinen eingebetteten KI-Vision-Modul) es Robotern ermöglicht, fortschrittliche Vision-Modelle in Echtzeit auszuführen. Seine Live-Demo zeigte, wie weit sich die Robotik von Laborexperimenten zu praktischen, KI-gesteuerten Systemen entwickelt hat.
Abbildung 3. Michael Hart wies darauf hin, dass die heutigen KI-gestützten Roboter von der Computer Vision abhängen.
In ähnlicher Weise betonten Alexis Crowell und Steven Hunsche von Axelera AI die Herausforderungen und Möglichkeiten des Einsatzes von Vision AI im Edge-Bereich. Anhand von Live-Demos erläuterten sie, wie die Metis AI Processing Units (AIPUs) von Axelera AI RISC-V und digitale In-Memory-Berechnungen kombinieren, um hohe Leistung bei sehr geringem Stromverbrauch zu liefern. Das Hardware-Software-Co-Design der Plattform, die in vertrauten Formfaktoren wie M.2 und PCIe untergebracht ist, macht die Skalierung von Edge-KI sowohl praktisch als auch effizient.
In einer anderen Sitzung untersuchte Merve Noyan von Hugging Face den Aufstieg der multimodalen KI, bei der Modelle die Sicht mit Text, Audio und anderen Eingaben kombinieren. Sie sprach über Anwendungsfälle, die von der Dokumentenanalyse bis zu verkörperten Agenten reichen, und betonte, wie Open-Source-Innovationen die Einführung von KI beschleunigen.
Ausgleich zwischen technischem Fortschritt und menschlichen Werten
YV25 bot nicht nur inspirierende Vorträge über große Zusammenhänge, sondern auch sehr praktische Sitzungen. Jiri Borovec von Lightning AI zeigte in einem praktischen Durchgang, wie man Ultralytics YOLO-Modelle mit PyTorch Lightning und Multi-GPU-Unterstützung trainiert und fein abstimmt.
Er ging durch Code-Beispiele und hob hervor, wie Open-Source-Tools, klare Dokumentation und flexible Frameworks es Entwicklern erleichtern, Schulungen zu skalieren, jeden Schritt zu validieren und Arbeitsabläufe an ihre eigenen Projekte anzupassen. Er erinnerte daran, wie wichtig die Community und zugängliche Tools für echte Fortschritte in der Computer Vision sind.
Auf der anderen Seite des Spektrums forderten die Redner die Zuhörer auf, über die breitere Rolle der KI in der Gesellschaft nachzudenken. In seiner Keynote argumentierte Gerd Leonhard, Futurist, Humanist und CEO von The Futures Agency, dass "Technologie moralisch neutral ist, solange wir sie nicht nutzen", und betonte, dass die eigentliche Frage nicht nur ist, was KI tun kann, sondern was sie tun sollte. Er warnte davor, in Fallen wie Reduktionismus und Wahrheitslosigkeit zu tappen, und forderte eine KI, die wirklich den langfristigen Interessen der Menschheit dient.
Abbildung 4. Gerd Leonhard teilt seine Gedanken zur Entwicklung von KI-Lösungen, die den Menschen in den Mittelpunkt stellen.
Dieser Fokus auf Verantwortung setzte sich in einem Kamingespräch mit Carissa Véliz von der Universität Oxford fort, die den Schwerpunkt auf Datenschutz und Sicherheit legte. Sie wies darauf hin, dass Open-Source-Gemeinschaften für die Überprüfung und Verbesserung von Code unerlässlich sind und dass Ethik und Design untrennbar miteinander verbunden sind. Ihre Botschaft war klar: Entwickler müssen den Missbrauch vorhersehen und Systeme entwickeln, bei denen die Menschenwürde und das soziale Wohlergehen an erster Stelle stehen.
Netzwerkbildung in London bei YV25
Über die Vorträge und Demos hinaus schuf YV25 auch Raum für Kontakte zwischen den Teilnehmern. Während der Kaffeepausen und des Mittagessens mischten sich die Teilnehmer, tauschten Erfahrungen aus, verglichen Ansätze und knüpften neue Kooperationen.
Für das Ultralytics-Team war es auch eine gute Gelegenheit, sich persönlich zu treffen. Mit Mitgliedern, die über den ganzen Globus verteilt sind, helfen Momente wie dieser, die Verbindungen zu stärken und gemeinsam Fortschritte zu feiern.
Bild 5. Das Ultralytics-Team am Ende eines inspirierenden Tages auf der YOLO Vision 2025.
Der Tag endete mit einer After-Party, bei der die Teilnehmer die Gelegenheit hatten, sich zu entspannen und weiter Kontakte zu knüpfen. Es war ein Moment der Besinnung, des Auftankens und des Ausblicks auf das nächste Innovationskapitel der Vision AI.
Gemeinsam die Grenzen von Vision AI verschieben
YOLO Vision 2025 war ein Fest der Ideen, der Innovation und der Gemeinschaft. Der Start von Ultralytics YOLO26 bildete den Rahmen, gefolgt von spannenden Vorträgen über Edge Deployment und menschenzentrierte KI, die den rasanten Fortschritt der Vision KI und ihren wachsenden Einfluss auf die Welt verdeutlichten.
Neben den Keynote-Sitzungen brachte die Veranstaltung die Menschen zusammen. Forscher, Entwickler und Enthusiasten tauschten Erfahrungen aus, entfachten sinnvolle Gespräche und erkundeten neue Möglichkeiten für die Zukunft. Die Veranstaltung endete mit einem positiven Fazit. Die Teilnehmer waren begeistert von der Zukunft der Ultralytics YOLO-Modelle und der Computer Vision.