Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Ultralytics' wichtigste Highlights der YOLO Vision 2025!

Erleben Sie mit uns eine Zusammenfassung der größten Ultralyticsdes Jahres, bei der die Ultralytics YOLO26-Einführung, inspirierende Diskussionsrunden und wichtige Highlights der Community vorgestellt werden.

Die KI- und Computer Vision-Gemeinschaft traf sich am 25. September zur YOLO Vision 2025 (YV25), der jährlichen Veranstaltung von Ultralyticszum Thema Hybrid Vision AI. Die Veranstaltung, die in London im The Pelligon stattfand und weltweit gestreamt wurde, begrüßte eine vielfältige Gruppe von Forschern, Ingenieuren und KI-Enthusiasten, um Ideen auszutauschen und neue Innovationen wie Ultralytics YOLO26 kennenzulernen.

Die Veranstaltung, die ihr viertes Jahr begeht, hat in Bezug auf Reichweite und Wirkung stetig zugenommen. Der YV25-Livestream hat bereits über 6.800 Aufrufe erzielt, mehr als 49.000 Impressionen generiert und fast 2.000 Stunden Wiedergabezeit gesammelt.

Die YV25 begann mit einer Eröffnungsrede unseres Gastgebers Oisin Lunny, der den Ton für den Tag angab, indem er die Teilnehmer ermutigte, sich zu vernetzen, auszutauschen und das Beste aus der Veranstaltung zu machen. Er sagte: "YOLO Vision 2025 ist die Konferenz, die die Open-Source-Vision-KI-Community vereint, um sich auf Daten, maschinelles Lernen und Fortschritte in der Computer Vision zu konzentrieren."

In diesem Artikel fassen wir die wichtigsten Highlights der YOLO Vision 2025 zusammen, darunter die Produkteinführung, Keynotes, ein Panel, Live-Demos und die Momente in der Community, die den Tag zu etwas Besonderem machten. Legen wir los!

Von einer einzelnen GPU zu einer 30-Millionen-Dollar-Finanzierung der Serie A

Im Vorfeld der Veranstaltung herrschte große Aufregung um die Einführung des neuen Produkts, und Glenn Jocher, unser Gründer und CEO, begann den Tag, indem er auf dieser Energie aufbaute. 

Er erzählte von der Entwicklung von Ultralytics und erinnerte sich daran, wie er im Jahr 2020 Experimente mit einer einzigen 1080 Ti, die an sein MacBook angeschlossen war, durchführte - eine Einrichtung, die heute veraltet ist. Aus diesen bescheidenen Anfängen hat sich Ultralytics zu einer globalen Gemeinschaft mit Milliarden von täglichen Schlussfolgerungen entwickelt, die auf YOLO basieren.

Glenn sprach auch über die kürzlich abgeschlossene Serie-A-Finanzierungsrunde von Ultralytics in Höhe von 30 Millionen US-Dollar. Er erläuterte, wie diese Investition die nächste Wachstumsphase vorantreiben wird, indem sie es dem Unternehmen ermöglicht, das Team zu vergrößern, die Forschung zu erweitern und die erforderlichen Computerressourcen zu sichern, um die Grenzen der Computer Vision weiter zu verschieben. 

Ultralytics YOLO26: Ein besseres, schnelleres und kleineres YOLO

Glenn kündigte dann zwei neue Anstrengungen von Ultralytics an. Das erste ist Ultralytics YOLO26, das neueste Modell der Ultralytics YOLO , das kleiner, schneller und effizienter ist und gleichzeitig eine noch höhere Genauigkeit erreicht. Die zweite ist die Ultralytics , ein neuer End-to-End-SaaS-Arbeitsbereich, der Daten, Training, Bereitstellung und Überwachung kombiniert, um den Aufbau von Computer-Vision-Lösungen so einfach wie nie zuvor zu machen, und der in Kürze angekündigt werden soll.

Abb. 1. Glenn Jocher bei der Ankündigung von Ultralytics YOLO26 auf der Bühne der YOLO Vision 2025.

YOLO26 wurde entwickelt, um die Leistung zu steigern und gleichzeitig für den realen Einsatz praktikabel zu bleiben. Die kleinste Version läuft bereits bis zu 43 % schneller auf CPUs und verbessert gleichzeitig die Genauigkeit, was sie ideal für Anwendungen von mobilen Geräten bis hin zu großen Unternehmenssystemen macht. YOLO26 wird bis Ende Oktober öffentlich verfügbar sein.

Hier ist ein Einblick in die Hauptmerkmale von YOLO26:

  • Optimierte Architektur: Das Distribution Focal Loss (DFL)-Modul wurde entfernt, das die Modelle zuvor verlangsamt hat. YOLO26 läuft jetzt effizienter, ohne die Genauigkeit zu beeinträchtigen.
  • Schnellere Vorhersagen: YOLO26 führt eine Option ein, mit der der Schritt der Nicht-Maximum-UnterdrückungNMS) übersprungen werden kann, was eine schnellere Bereitstellung von Ergebnissen ermöglicht und den Einsatz in Echtzeit erleichtert.
  • Besser im Erkennen kleiner Objekte: Neue Trainingsmethoden verbessern die Stabilität und steigern die Genauigkeit erheblich, insbesondere bei der Erkennung kleiner Details in komplexen Szenen.
  • Intelligenteres Training: Der neue MuSGD-Optimierer kombiniert die Stärken zweier Trainingstechniken und hilft dem Modell, schneller zu lernen und eine höhere Genauigkeit zu erreichen.

Ein erster Blick auf die Ultralytics

Nach der Vorstellung von YOLO26 lud Glenn Prateek Bhatnagar, unseren Leiter der Produktentwicklung, ein, das nächste Projekt am Horizont vorzustellen: die Ultralytics . Die Plattform wurde zur Vereinfachung des gesamten Computer-Vision-Workflows entwickelt und soll Datensätze, Beschriftungen, Schulungen, Bereitstellung und Überwachung an einem Ort zusammenführen.

Prateek verglich es mit dem Tuning eines Autos: Anstatt verschiedene Werkstätten für Reifen, Motoren und Getriebe aufzusuchen, passiert alles in einer Garage. Auf die gleiche Weise bietet die Plattform Entwicklern einen integrierten Arbeitsbereich, um den gesamten Lebenszyklus eines Vision-KI-Modells zu verwalten.

Die Demo zeigte KI-gestützte Annotationstools, die die Vorbereitung von Datensätzen beschleunigen, anpassbare Trainingsoptionen für Experten und Anfänger sowie die Echtzeitüberwachung von Trainingsläufen. 

Erkenntnisse aus einer Podiumsdiskussion über Edge-Deployment

Ein weiteres Highlight von YV25 war ein von Oisin Lunny moderiertes Panel zum Thema Edge Deployment. In der Sitzung waren Yuki Tsuji von Sony Semiconductor Solutions, David Plowman von Raspberry Pi und Glenn Jocher vertreten. 

In der Diskussion wurde untersucht, wie die Verlagerung von KI an den Edge die Latenz reduziert, die Kosten senkt und die Privatsphäre verbessert. Yuki stellte den IMX500-Sensor von Sony vor, der Inferenz direkt auf dem Chip ausführen kann. David sprach darüber, wie Raspberry Pi sich von seinen Wurzeln im Maker-Bereich zu groß angelegten kommerziellen Anwendungen ausweitet.

Abb. 2. Eine Podiumsdiskussion über Edge-Deployment mit Oisin Lunny, Yuki Tsuji, David Plowman und Glenn Jocher.

In der Diskussion wurde auch eine der größten Hürden für Entwickler angesprochen: die reibungslose Ausführung von Modellen auf verschiedenen Geräten. Hier spielt das Python eine Schlüsselrolle. 

Mit seiner breiten Palette von Exportoptionen ist es einfach, ein trainiertes Modell in die Produktion auf mobilen, eingebetteten Systemen oder Unternehmenshardware zu übertragen. Ultralytics nimmt den Teams die Mühe der Modellkonvertierung ab und hilft ihnen, sich auf die Entwicklung von Lösungen zu konzentrieren, anstatt sich mit Kompatibilitätsproblemen herumzuschlagen.

David erklärte: "Ich weiß aus eigener bitterer Erfahrung, dass die Konvertierung von Modellen schrecklich ist, und wenn jemand anderes das für mich übernimmt, macht das das Leben viel einfacher. In diesem Punkt verbessert Ultralytics die Geschichte wirklich und bietet etwas, das für unsere Benutzer wertvoll ist. 

Beschleunigung von Innovation und KI-Hardware

Die Fortschritte bei der KI-Software verlaufen parallel zur Hardware, und gemeinsam treiben sie eine neue Innovationswelle in der Computer Vision voran. Während Modelle wie Ultralytics YOLO die Genauigkeit weiter vorantreiben, hängt ihre Wirkung in der realen Welt auch von den Plattformen ab, auf denen sie laufen.

Seeed Studio beispielsweise zeigte, wie modulare, kostengünstige Hardware wie die reCamera- und XIAO-Boards, die mit denYOLO Ultralytics vorinstalliert sind, es Entwicklern leicht machen, vom Prototyping zu realen KI-Systemen überzugehen. Diese Art der Hardware-Software-Integration senkt die Einstiegshürde und zeigt, wie Innovation auf Hardware-Ebene die Akzeptanz direkt beschleunigt.

Hier sind einige wichtige Erkenntnisse aus anderen YV25-Keynotes, die betonten, wie die gemeinsame Entwicklung von Hard- und Software neue Möglichkeiten eröffnet:

  • Quantisierung sorgt für große Geschwindigkeitssteigerungen: Intel zeigte, wie die Konvertierung von Ultralytics YOLO in OpenVINO mit Quantisierung die Inferenz von 54 FPS auf 606 FPS in nur 30 Minuten steigerte und damit die Macht der Optimierung unterstrich.
  • Umfassende Tools machen den Einsatz von Edge-KI praktikabel: NVIDIA zeigte, wie Jetson-Geräte, TensorRT, Triton Inference Server und das DeepStream SDK zusammenarbeiten, um den Einsatz von Hochleistungs-Vision-KI am Edge zu optimieren.
  • Offene Ökosysteme beschleunigen das Prototyping: AMD betonte seine End-to-End-Plattform, die auf GPUs und dem ROCm-Software-Stack basiert und Entwicklern hilft, schnell vom Prototyp zur Bereitstellung zu gelangen und gleichzeitig die Kosten zu kontrollieren.
  • Chips mit geringem Stromverbrauch erweitern KI auf eingeschränkte Geräte: DEEPX stellte seine DX-M1- und DX-M2-Prozessoren vor, die Dutzende von TOPS unter 5 Watt liefern, um fortschrittliche Inferenz in kompakten, stromsparenden Systemen zu ermöglichen.

Aktuelle Trends in der Computer Vision

Dank der Fortschritte in Software und Hardware, die Hand in Hand arbeiten, entwickelt sich Computer Vision schneller als je zuvor. Diese parallelen Entwicklungen verbessern nicht nur die Genauigkeit und Geschwindigkeit, sondern prägen auch die Art und Weise, wie Vision AI in der realen Welt eingesetzt werden kann. Auf der YV25 hatten die Teilnehmer die Möglichkeit, von Experten aus den Bereichen Robotik, Edge Deployment und multimodale KI zu hören, die jeweils eine andere Perspektive auf die zukünftige Entwicklung des Feldes boten.

In seiner Keynote demonstrierte Michael Hart von D-Robotics beispielsweise, wie die Kombination von Ultralytics YOLO mit ihrem kompakten RDK X5-Board (einem kleinen eingebetteten KI-Vision-Modul) es Robotern ermöglicht, fortschrittliche Vision-Modelle in Echtzeit auszuführen. Seine Live-Demo zeigte, wie weit sich die Robotik von Laborexperimenten zu praktischen, KI-gesteuerten Systemen entwickelt hat.

Abb. 3. Michael Hart hob hervor, wie die heutigen KI-gestützten Roboter von Computer Vision abhängen.

In ähnlicher Weise betonten Alexis Crowell und Steven Hunsche von Axelera AI die Herausforderungen und Chancen des Einsatzes von Vision-KI am Edge. Anhand von Live-Demos erklärten sie, wie die Metis AI Processing Units (AIPUs) von Axelera AI RISC-V und digitalen In-Memory-Compute kombinieren, um eine hohe Leistung bei sehr geringem Stromverbrauch zu erzielen. Die Hardware-Software-Co-Design der Plattform, die in bekannten Formfaktoren wie M.2 und PCIe verpackt ist, macht die Skalierung von Edge-KI sowohl praktikabel als auch effizient.

In einer anderen Sitzung untersuchte Merve Noyan von Hugging Face den Aufstieg der multimodalen KI, bei der Modelle die Sicht mit Text, Audio und anderen Eingaben kombinieren. Sie sprach über Anwendungsfälle, die von der Dokumentenanalyse bis zu verkörperten Agenten reichen, und betonte, wie Open-Source-Innovationen die Einführung von KI beschleunigen.

Technischer Fortschritt im Einklang mit menschlichen Werten

YV25 bot nicht nur inspirierende Vorträge über große Zusammenhänge, sondern auch sehr praktische Sitzungen. Jiri Borovec von Lightning AI zeigte in einem praktischen Durchgang, wie man Ultralytics YOLO mit PyTorch Lightning und GPU trainiert und fein abstimmt. 

Er ging Codebeispiele durch und hob hervor, wie Open-Source-Tools, eine übersichtliche Dokumentation und flexible Frameworks es Entwicklern erleichtern, das Training zu skalieren, jede Phase zu validieren und Workflows an ihre eigenen Projekte anzupassen. Es war eine Erinnerung daran, wie wichtig die Community und zugängliche Tools für den wirklichen Fortschritt im Bereich Computer Vision sind.

Auf der anderen Seite des Spektrums forderten Redner das Publikum auf, über die umfassendere Rolle der KI in der Gesellschaft nachzudenken. In seiner Keynote argumentierte Gerd Leonhard, Zukunftsforscher, Humanist und CEO von The Futures Agency, dass “Technologie moralisch neutral ist, bis wir sie nutzen”, und betonte, dass die eigentliche Frage nicht nur ist, was KI kann, sondern was sie tun sollte. Er warnte davor, in Fallen wie Reduktionismus und Unwahrheit zu geraten, und forderte eine KI, die den langfristigen Interessen der Menschheit wirklich dient.

Abb. 4. Gerd Leonhard teilt seine Gedanken zum Aufbau von KI-Lösungen und deren Menschzentriertheit.

Dieser Fokus auf Verantwortung setzte sich in einem Kamingespräch mit Carissa Véliz von der University of Oxford fort, die den Schwerpunkt auf Datenschutz und Sicherheit legte. Sie wies darauf hin, dass Open-Source-Communities für die Überprüfung und Verbesserung von Code von entscheidender Bedeutung sind und dass Ethik und Design untrennbar miteinander verbunden sind. Ihre Botschaft war klar: Entwickler müssen Missbrauch antizipieren und Systeme entwickeln, die die Menschenwürde und das soziale Wohlergehen in den Vordergrund stellen.

Networking in London auf der YV25

YV25 ging über die Vorträge und Demos hinaus und schuf Raum für Kontakte. Während der Kaffeepausen und des Mittagessens mischten sich die Teilnehmer, tauschten Erfahrungen aus, verglichen Ansätze und initiierten neue Kooperationen.

Für das Ultralytics war es auch eine gute Gelegenheit, sich persönlich zu treffen. Mit Mitgliedern, die über den ganzen Globus verteilt sind, helfen Momente wie dieser, die Verbindungen zu stärken und gemeinsam Fortschritte zu feiern.

Bild 5. Das Ultralytics am Ende eines inspirierenden Tages auf der YOLO Vision 2025.

Der Tag endete mit einer After-Party, bei der die Teilnehmer die Möglichkeit hatten, sich zu entspannen und weiter zu vernetzen. Es war ein Moment, um zu reflektieren, neue Energie zu tanken und auf das nächste Kapitel der Innovation im Bereich Vision AI zu blicken.

Gemeinsam die Grenzen von Vision AI erweitern

YOLO Vision 2025 war ein Fest der Ideen, der Innovation und der Gemeinschaft. Der Start von Ultralytics YOLO26 bildete den Rahmen, gefolgt von spannenden Vorträgen über Edge Deployment und menschenzentrierte KI, die den rasanten Fortschritt der Vision KI und ihren wachsenden Einfluss auf die Welt verdeutlichten.

Neben den Keynote-Sitzungen brachte die Veranstaltung die Menschen zusammen. Forscher, Entwickler und Enthusiasten tauschten Erfahrungen aus, entfachten sinnvolle Gespräche und erkundeten neue Möglichkeiten für die Zukunft. Die Veranstaltung endete mit einem positiven Fazit. Die Teilnehmer waren begeistert von der Zukunft der Ultralytics YOLO und der Computer Vision.

Sind Sie bereit, KI zu erkunden? Treten Sie unserer Community und unserem GitHub-Repository bei, um mehr über KI und Computer Vision zu erfahren. Besuchen Sie unsere Lösungsseiten, um weitere Anwendungen von Computer Vision in der Landwirtschaft und KI in der Robotik zu entdecken. Informieren Sie sich über unsere Lizenzoptionen und legen Sie noch heute mit Computer Vision los!

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten