Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Begleiten Sie uns zu einem Rückblick auf das größte Ereignis des Jahres für Ultralytics, bei dem die Einführung von Ultralytics YOLO26, inspirierende Podiumsdiskussionen und wichtige Community-Highlights vorgestellt werden.
Die KI- und Computer-Vision-Community kam am 25. September zum YOLO Vision 2025 (YV25) zusammen, dem jährlichen hybriden Vision-AI-Event von Ultralytics. Die Veranstaltung, die in London im The Pelligon stattfand und weltweit gestreamt wurde, begrüsste eine vielfältige Gruppe von Forschern, Ingenieuren und KI-Enthusiasten, um Ideen auszutauschen und sich über neue Innovationen wie Ultralytics YOLO26 zu informieren.
Die Veranstaltung, die ihr viertes Jahr begeht, hat in Bezug auf Reichweite und Wirkung stetig zugenommen. Der YV25-Livestream hat bereits über 6.800 Aufrufe erzielt, mehr als 49.000 Impressionen generiert und fast 2.000 Stunden Wiedergabezeit gesammelt.
YV25 begann mit einer Eröffnungsrede unseres Hosts Oisin Lunny, der den Ton für den Tag angab, indem er die Teilnehmer ermutigte, sich zu vernetzen, auszutauschen und das Beste aus der Veranstaltung zu machen. Wie er es formulierte: “YOLO Vision 2025 ist die Konferenz, die die Open-Source-Vision-KI-Community vereint, um sich auf Daten, maschinelles Lernen und Fortschritte im Bereich Computer Vision zu konzentrieren.”
In diesem Artikel fassen wir die wichtigsten Highlights der YOLO Vision 2025 zusammen, darunter die Produkteinführung, Keynote-Vorträge, eine Podiumsdiskussion, Live-Demos und die Community-Momente, die den Tag zu etwas Besonderem gemacht haben. Los geht's!
Von einer einzelnen GPU zu einer Series-A-Finanzierung in Höhe von 30 Millionen Dollar
Im Vorfeld der Veranstaltung herrschte große Aufregung um die Einführung des neuen Produkts, und Glenn Jocher, unser Gründer und CEO, begann den Tag, indem er auf dieser Energie aufbaute.
Er erzählte von der Reise von Ultralytics und erinnerte sich daran, wie er im Jahr 2020 Experimente mit einer einzigen 1080 Ti durchführte, die an sein MacBook angeschlossen war, eine Konfiguration, die heute veraltet ist. Aus diesen bescheidenen Anfängen hat sich Ultralytics zu einer globalen Community mit Milliarden von täglichen Inferenzschlüssen entwickelt, die von YOLO-Modellen unterstützt werden.
Glenn sprach auch darüber, dass Ultralytics vor kurzem eine Series-A-Finanzierungsrunde in Höhe von 30 Millionen Dollar abgeschlossen hat. Er erklärte, wie diese Investition die nächste Wachstumsphase vorantreiben wird, indem sie es dem Unternehmen ermöglicht, das Team zu vergrößern, die Forschung auszuweiten und die Computerressourcen zu sichern, die erforderlich sind, um die Grenzen der Computer Vision weiter zu verschieben.
Ultralytics YOLO26: Ein besseres, schnelleres, kleineres YOLO-Modell
Glenn kündigte anschließend zwei neue Initiativen von Ultralytics an. Die erste ist Ultralytics YOLO26, das neueste Modell der Ultralytics YOLO-Familie, das kleiner, schneller und effizienter sein soll und gleichzeitig eine noch höhere Genauigkeit erzielt. Die zweite ist die Ultralytics-Plattform, ein neuer End-to-End-SaaS-Workspace, der Daten, Training, Deployment und Monitoring kombiniert, um die Entwicklung von Computer-Vision-Lösungen einfacher denn je zu gestalten. Die Ankündigung hierzu wird in naher Zukunft erwartet.
Abb. 1. Glenn Jocher kündigt Ultralytics YOLO26 auf der Bühne der YOLO Vision 2025 an.
YOLO26 wurde entwickelt, um die Leistung zu steigern und gleichzeitig für den realen Einsatz praktikabel zu bleiben. Die kleinste Version läuft bereits bis zu 43 % schneller auf CPUs und verbessert gleichzeitig die Genauigkeit, was sie ideal für Anwendungen von mobilen Geräten bis hin zu großen Unternehmenssystemen macht. YOLO26 wird bis Ende Oktober öffentlich verfügbar sein.
Optimierte Architektur: Das Distribution Focal Loss (DFL)-Modul wurde entfernt, das die Modelle zuvor verlangsamt hat. YOLO26 läuft jetzt effizienter, ohne die Genauigkeit zu beeinträchtigen.
Schnellere Vorhersagen: YOLO26 führt eine Option ein, den Non-Maximum Suppression (NMS)-Schritt zu überspringen, wodurch Ergebnisse schneller geliefert und die Echtzeitbereitstellung erleichtert wird.
Besser im Erkennen kleiner Objekte: Neue Trainingsmethoden verbessern die Stabilität und steigern die Genauigkeit erheblich, insbesondere bei der Erkennung kleiner Details in komplexen Szenen.
Intelligenteres Training: Der neue MuSGD-Optimierer kombiniert die Stärken zweier Trainingstechniken und hilft dem Modell, schneller zu lernen und eine höhere Genauigkeit zu erreichen.
Ein erster Blick auf die Ultralytics-Plattform
Nach der Vorstellung von YOLO26 lud Glenn Prateek Bhatnagar, unseren Head of Product Engineering, ein, das nächste Projekt am Horizont zu demonstrieren: die Ultralytics-Plattform. Die Plattform wurde entwickelt, um den gesamten Computer-Vision-Workflow zu vereinfachen, und zielt darauf ab, Datensätze, Annotationen, Training, Bereitstellung und Überwachung an einem Ort zusammenzuführen.
Prateek verglich es mit dem Tuning eines Autos: Anstatt verschiedene Werkstätten für Reifen, Motoren und Getriebe aufzusuchen, passiert alles in einer Garage. Auf die gleiche Weise bietet die Plattform Entwicklern einen integrierten Arbeitsbereich, um den gesamten Lebenszyklus eines Vision-KI-Modells zu verwalten.
Die Demo zeigte KI-gestützte Annotationstools, die die Vorbereitung von Datensätzen beschleunigen, anpassbare Trainingsoptionen für Experten und Anfänger sowie die Echtzeitüberwachung von Trainingsläufen.
Erkenntnisse aus einer Podiumsdiskussion über Edge-Deployment
Ein weiteres Highlight von YV25 war ein von Oisin Lunny moderiertes Panel zum Thema Edge Deployment. In der Sitzung waren Yuki Tsuji von Sony Semiconductor Solutions, David Plowman von Raspberry Pi und Glenn Jocher vertreten.
In der Diskussion wurde untersucht, wie die Verlagerung von KI an den Edge die Latenz reduziert, die Kosten senkt und die Privatsphäre verbessert. Yuki stellte den IMX500-Sensor von Sony vor, der Inferenz direkt auf dem Chip ausführen kann. David sprach darüber, wie Raspberry Pi sich von seinen Wurzeln im Maker-Bereich zu groß angelegten kommerziellen Anwendungen ausweitet.
Abb. 2. Eine Podiumsdiskussion über Edge-Deployment mit Oisin Lunny, Yuki Tsuji, David Plowman und Glenn Jocher.
Das Panel ging auch auf eine der größten Hürden für Entwickler ein: die reibungslose Ausführung von Modellen auf verschiedenen Geräten. Hier spielt das Ultralytics Python-Paket eine Schlüsselrolle.
Mit seiner breiten Palette an Exportoptionen vereinfacht es die Übertragung eines trainierten Modells in die Produktion auf mobilen, eingebetteten Systemen oder Enterprise-Hardware. Indem Ultralytics die Mühe der Modellkonvertierung beseitigt, können sich Teams auf die Entwicklung von Lösungen konzentrieren, anstatt mit Kompatibilitätsproblemen zu kämpfen.
Wie David erklärte: “Ich weiß aus bitterer Erfahrung, dass das Konvertieren von Modellen schrecklich ist, und wenn jemand anderes das für mich erledigt, macht es das Leben viel einfacher. Hier verbessert Ultralytics die Situation wirklich und bietet etwas, das für unsere Benutzer wertvoll ist.”
Beschleunigung von Innovation und KI-Hardware
Die Fortschritte in der KI-Software erfolgen parallel zur Hardware, und gemeinsam treiben sie eine neue Welle der Innovation im Bereich Computer Vision voran. Während Modelle wie Ultralytics YOLO weiterhin die Genauigkeit verbessern, hängt ihre reale Wirkung auch von den Plattformen ab, auf denen sie laufen.
Seeed Studio zeigte beispielsweise, wie modulare, kostengünstige Hardware wie ihre reCamera- und XIAO-Boards, die mit Ultralytics YOLO-Modellen vorinstalliert sind, es Entwicklern erleichtern, vom Prototyping zu realen KI-Systemen überzugehen. Diese Art der Hardware-Software-Integration senkt die Eintrittsbarriere und zeigt, wie Innovationen auf Hardwareebene die Akzeptanz direkt beschleunigen.
Hier sind einige wichtige Erkenntnisse aus anderen YV25-Keynotes, die betonten, wie die gemeinsame Entwicklung von Hard- und Software neue Möglichkeiten eröffnet:
Quantisierung ermöglicht große Geschwindigkeitssteigerungen: Intel zeigte, wie die Konvertierung von Ultralytics YOLO-Modellen in OpenVINO mit Quantisierung die Inferenz in nur 30 Minuten von 54 FPS auf 606 FPS steigerte, was die Leistungsfähigkeit der Optimierung verdeutlicht.
Full-Stack-Tools machen Edge-KI-Bereitstellung praktikabel: NVIDIA hob hervor, wie Jetson-Geräte, TensorRT, Triton Inference Server und das DeepStream SDK zusammenarbeiten, um die Bereitstellung von leistungsstarker Vision-KI am Edge zu optimieren.
Offene Ökosysteme beschleunigen das Prototyping: AMD betonte seine End-to-End-Plattform, die auf GPUs und dem ROCm-Software-Stack basiert und Entwicklern hilft, schnell vom Prototyp zur Bereitstellung zu gelangen und gleichzeitig die Kosten zu kontrollieren.
Chips mit geringem Stromverbrauch erweitern KI auf eingeschränkte Geräte: DEEPX stellte seine DX-M1- und DX-M2-Prozessoren vor, die Dutzende von TOPS unter 5 Watt liefern, um fortschrittliche Inferenz in kompakten, stromsparenden Systemen zu ermöglichen.
Aktuelle Trends in der Computer Vision
Dank der Fortschritte in Software und Hardware, die Hand in Hand arbeiten, entwickelt sich Computer Vision schneller als je zuvor. Diese parallelen Entwicklungen verbessern nicht nur die Genauigkeit und Geschwindigkeit, sondern prägen auch die Art und Weise, wie Vision AI in der realen Welt eingesetzt werden kann. Auf der YV25 hatten die Teilnehmer die Möglichkeit, von Experten aus den Bereichen Robotik, Edge Deployment und multimodale KI zu hören, die jeweils eine andere Perspektive auf die zukünftige Entwicklung des Feldes boten.
Beispielsweise demonstrierte Michael Hart von D-Robotics in seiner Keynote, wie die Kombination von Ultralytics YOLO-Modellen mit ihrer kompakten RDK X5-Platine (einem kleinen Embedded-KI-Vision-Modul) es Robotern ermöglicht, fortschrittliche Vision-Modelle in Echtzeit auszuführen. Seine Live-Demo zeigte, wie weit die Robotik gekommen ist und sich von Laborexperimenten zu praktischen, KI-gestützten Systemen entwickelt hat.
Abb. 3. Michael Hart hob hervor, wie die heutigen KI-gestützten Roboter von Computer Vision abhängen.
In ähnlicher Weise betonten Alexis Crowell und Steven Hunsche von Axelera AI die Herausforderungen und Chancen des Einsatzes von Vision-KI am Edge. Anhand von Live-Demos erklärten sie, wie die Metis AI Processing Units (AIPUs) von Axelera AI RISC-V und digitalen In-Memory-Compute kombinieren, um eine hohe Leistung bei sehr geringem Stromverbrauch zu erzielen. Die Hardware-Software-Co-Design der Plattform, die in bekannten Formfaktoren wie M.2 und PCIe verpackt ist, macht die Skalierung von Edge-KI sowohl praktikabel als auch effizient.
Und in einer anderen Sitzung untersuchte Merve Noyan von Hugging Face den Aufstieg der multimodalen KI, bei der Modelle Vision mit Text, Audio und anderen Eingaben kombinieren. Sie sprach über Anwendungsfälle von der Dokumentenanalyse bis hin zu verkörperten Agenten und betonte, wie die Open-Source-Innovation die Einführung von KI beschleunigt.
Technischer Fortschritt im Einklang mit menschlichen Werten
Während YV25 inspirierende Vorträge mit großer Perspektive bot, umfasste es auch sehr praxisorientierte Sitzungen. Jiri Borovec von Lightning AI gab eine praktische Einführung, die zeigte, wie man Ultralytics YOLO-Modelle mit PyTorch Lightning und Multi-GPU-Unterstützung trainiert und feinabstimmt.
Er ging Codebeispiele durch und hob hervor, wie Open-Source-Tools, eine übersichtliche Dokumentation und flexible Frameworks es Entwicklern erleichtern, das Training zu skalieren, jede Phase zu validieren und Workflows an ihre eigenen Projekte anzupassen. Es war eine Erinnerung daran, wie wichtig die Community und zugängliche Tools für den wirklichen Fortschritt im Bereich Computer Vision sind.
Auf der anderen Seite des Spektrums forderten Redner das Publikum auf, über die umfassendere Rolle der KI in der Gesellschaft nachzudenken. In seiner Keynote argumentierte Gerd Leonhard, Zukunftsforscher, Humanist und CEO von The Futures Agency, dass “Technologie moralisch neutral ist, bis wir sie nutzen”, und betonte, dass die eigentliche Frage nicht nur ist, was KI kann, sondern was sie tun sollte. Er warnte davor, in Fallen wie Reduktionismus und Unwahrheit zu geraten, und forderte eine KI, die den langfristigen Interessen der Menschheit wirklich dient.
Abb. 4. Gerd Leonhard teilt seine Gedanken zum Aufbau von KI-Lösungen und deren Menschzentriertheit.
Dieser Fokus auf Verantwortung setzte sich in einem Kamingespräch mit Carissa Véliz von der University of Oxford fort, die den Schwerpunkt auf Datenschutz und Sicherheit legte. Sie wies darauf hin, dass Open-Source-Communities für die Überprüfung und Verbesserung von Code von entscheidender Bedeutung sind und dass Ethik und Design untrennbar miteinander verbunden sind. Ihre Botschaft war klar: Entwickler müssen Missbrauch antizipieren und Systeme entwickeln, die die Menschenwürde und das soziale Wohlergehen in den Vordergrund stellen.
Networking in London auf der YV25
YV25 ging über die Vorträge und Demos hinaus und schuf Raum für Kontakte. Während der Kaffeepausen und des Mittagessens mischten sich die Teilnehmer, tauschten Erfahrungen aus, verglichen Ansätze und initiierten neue Kooperationen.
Für das Ultralytics-Team war es auch eine großartige Gelegenheit, sich persönlich zu treffen. Da die Mitglieder über den ganzen Globus verteilt sind, tragen solche Momente dazu bei, die Verbindungen zu stärken und gemeinsam Fortschritte zu feiern.
Abb. 5. Das Ultralytics-Team beendet einen inspirierenden Tag auf der YOLO Vision 2025.
Der Tag endete mit einer After-Party, bei der die Teilnehmer die Möglichkeit hatten, sich zu entspannen und weiter zu vernetzen. Es war ein Moment, um zu reflektieren, neue Energie zu tanken und auf das nächste Kapitel der Innovation im Bereich Vision AI zu blicken.
Gemeinsam die Grenzen von Vision AI erweitern
YOLO Vision 2025 war ein Fest der Ideen, Innovation und Gemeinschaft. Der Start von Ultralytics YOLOv8 bildete die Grundlage, gefolgt von anregenden Vorträgen über Edge-Deployment und Human-Centric AI, die den rasanten Fortschritt von Vision AI und seine wachsende Bedeutung für die Welt hervorhoben.
Neben den Keynote-Sessions brachte die Veranstaltung Menschen zusammen. Forscher, Entwickler und Enthusiasten tauschten Erfahrungen aus, initiierten sinnvolle Gespräche und erkundeten neue Möglichkeiten für die Zukunft. Die Veranstaltung endete mit einem Höhepunkt, und die Teilnehmer zeigten sich begeistert von der Zukunft der Ultralytics YOLO-Modelle und der Computer Vision.