Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Ultralytics' Highlights von der Embedded World North America 2025

Abirami Vina

4 Min. Lesezeit

11. November 2025

Seien Sie dabei, wenn wir die Erfahrungen von Ultralytics auf der Embedded World North America 2025 Revue passieren lassen. Finden Sie heraus, wie die YOLO-Modelle von Ultralytics die Embedded Vision voranbringen.

Anfang März dieses Jahres waren wir mit der Embedded-Community in Nürnberg auf der Embedded World Messe und Konferenz. Dort konnten wir sehen, wie Ultralytics YOLO-Modelle in echten Embedded-Vision-Anwendungen in vielen Branchen eingesetzt werden. 

Verschiedene Innovationen machten deutlich, wie schnell die KI auf Geräten wächst und wie weit die YOLO-Modelle von Ultralytics angenommen werden. Letzte Woche haben wir diese Dynamik fortgesetzt und sind vom 4. bis 6. November nach Anaheim, Kalifornien, zur Embedded World North America 2025 gereist.

Die Veranstaltung brachte Ingenieure, Hardwarehersteller, Softwareentwickler, Technikbegeisterte und Forscher zusammen, die die nächste Generation intelligenter eingebetteter Geräte entwickeln. Es war eine großartige Gelegenheit, mit der Embedded-Community in den Vereinigten Staaten in Kontakt zu treten und zu sehen, wie die YOLO-Modelle von Ultralytics in praktischen, produktionsorientierten Umgebungen eingesetzt werden.

Lassen Sie uns daher einige der Höhepunkte unserer Zeit auf der Embedded World North America 2025 erkunden. Legen wir los!

Beginn der Woche in Santa Clara mit NVIDIA

Bevor es nach Anaheim ging, reisten Francesco Mattioli, unser Lead Partnership Engineer, und Nuvola Ladi, unser Digital Content Manager, nach Santa Clara im Herzen des Silicon Valley, um die Büros von NVIDIA zu besuchen. Der Besuch bot einen entspannten und offenen Raum, um die Zusammenarbeit zu fördern und bekannte Gesichter zu treffen.

Abbildung 1. Francesco Mattioli und Nuvola Ladi mit dem NVIDIA-Team.

Sie besichtigten den Campus und aßen gemeinsam zu Mittag. Es war eine herzliche und anregende Art, die Woche zu beginnen und den Ton für unsere Zeit in Anaheim zu setzen.

Ein Rückblick auf die Embedded World in Nürnberg

Lassen Sie uns zunächst einen kurzen Rückblick auf unsere Erfahrungen in Nürnberg zu Beginn des Jahres werfen, bevor wir uns mit den Ereignissen der letzten Woche befassen.

Im März gab es auf der Embedded World Expo viele inspirierende Beispiele für Embedded Vision in Aktion. Insbesondere sahen wir viele Teams, die Ultralytics YOLO-Modelle für Echtzeitanwendungen auf Edge-Hardware einsetzten. 

Von kompakten Entwicklungsplatinen bis hin zu fortschrittlicheren Rechenmodulen wurden Ultralytics YOLO-Modelle für Leistungstests, zur Präsentation neuer Hardwarefunktionen und zur Demonstration praktischer eingebetteter KI-Workflows verwendet. Wir sahen zum Beispiel Ultralytics YOLO-Modelle auf Hardware von Unternehmen wie D-Robotics, Infineon Technologies, Seeed Studio und M5Stack, die jeweils unterschiedliche Ansätze für eine effiziente Computer Vision in den Randbereichen präsentierten.

Ein Überblick über die Embedded World North America 2025

Ähnlich wie im März brachte die Embedded World North America die Embedded-Community wieder im Anaheim Convention Center in Kalifornien zusammen. Die dreitägige Veranstaltung umfasste Keynotes von Dario Freddi von SECO, der über die Entwicklung der Edge-KI-Beschleunigung sprach, und Joe Fabbre von Green Hills Software, der die wachsende Komplexität der Embedded-Softwareentwicklung hervorhob.

In den Konferenzsitzungen und auf der Ausstellungsfläche lag der Schwerpunkt auf eingebetteter Bildverarbeitung und praktischem KI-Einsatz. Viele Teams untersuchten, wie Computer Vision in realen Umgebungen, in denen Effizienz, Stromverbrauch und Reaktionszeit entscheidend sind, zuverlässig eingesetzt werden kann. Dies machte die Konferenz zu einer großartigen Umgebung, um zu sehen, wie die YOLO-Modelle von Ultralytics als zugängliche und zuverlässige Lösungen für KI auf Geräten eingesetzt werden.

Abbildung 2. Ein Blick auf die Embedded World North America 2025.

Die Dynamik der eingebetteten KI verstehen

Während Sie diese Zusammenfassung durchgehen, fragen Sie sich vielleicht, warum eingebettete KI in letzter Zeit so sehr in den Mittelpunkt gerückt ist. Viele Geräte müssen heute verstehen, was sie sehen, und direkt vor Ort Entscheidungen treffen, ohne Daten zurück in die Cloud zu senden. 

Dies wird in Bereichen wie Fabriken, Lagern, Krankenhäusern, Konsumgütern und sogar kleinen Robotern und Sensoren immer wichtiger. Wenn KI direkt auf dem Gerät ausgeführt werden kann, wird alles schneller und zuverlässiger, und sensible Daten bleiben lokal.

Aus diesem Grund wächst die eingebettete Bildverarbeitung schnell und findet in der gesamten Branche große Beachtung. Viele Teams sind auf der Suche nach Modellen, die effizient, einfach zu implementieren und flexibel genug sind, um auf verschiedenen Arten von Hardware zu laufen. 

Insbesondere die YOLO-Modelle von Ultralytics haben sich zu einer beliebten Wahl entwickelt, da sie eine hohe Genauigkeit bieten und gleichzeitig leichtgewichtig genug sind, um auf Geräten mit eingeschränkten Ressourcen zu laufen. Außerdem lassen sie sich problemlos in eine breite Palette von Hardwareplattformen integrieren, was es Entwicklern erleichtert, echte eingebettete KI-Lösungen zu prototypisieren, zu testen und einzusetzen.

Tag eins auf der Embedded World: YOLO auf der gesamten Messe zu sehen

Am 5. November trafen Francesco Mattioli und Nuvola Ladi auf der Embedded World North America ein und verbrachten den Tag damit, die Ausstellungsfläche zu erkunden. Es war spannend zu sehen, wie viele Teams die YOLO-Modelle von Ultralytics als Teil ihrer Embedded-Vision-Workflows verwenden. 

Von Prototypen im Frühstadium bis hin zu produktionsreifen Systemen waren die YOLO-Modelle von Ultralytics in einer Vielzahl von Lösungen in den Bereichen Robotik, Automatisierung, intelligente Geräte und industrielle Systeme vertreten. Diese Anwendungen profitieren davon, dass die KI direkt auf dem Gerät ausgeführt wird, was die Reaktionszeiten schnell hält, die Zuverlässigkeit verbessert und die Notwendigkeit beseitigt, ständig Daten an die Cloud zu senden.

Abbildung 3. Francesco Mattioli und Nuvola Ladi auf der Embedded World North America 2025.

Francesco teilte mit: "Unsere Erfahrung auf der Embedded World hat uns wirklich gezeigt, dass die YOLO-Modelle von Ultralytics absolut bereit für die erste Zeit in der Industrie sind. Es war wirklich beeindruckend, herumzulaufen und zu sehen, wie viele verschiedene Arten von Geräten diese Modelle jetzt reibungslos ausführen können. Die Palette reicht von winzigen Mikrocontrollern, die in die Handfläche passen, bis hin zu leistungsstarken GPUs. Die Vielseitigkeit ist wirklich unglaublich, egal ob Sie mit ressourcenbeschränkten Edge-Geräten arbeiten oder Zugang zu großer Rechenleistung haben, diese Modelle funktionieren einfach. Es ist aufregend zu sehen, wie diese Art von Flexibilität Realität wird und Computer Vision für ein so breites Spektrum an Hardware zugänglich macht."

Vorführung der Ultralytics YOLO-Modelle auf dem Stand von STMicroelectronics

Einer der wichtigsten Höhepunkte des Tages war unser Besuch auf dem Stand von STMicroelectronics in Halle C, Ebene 1, Stand 4015. Der Stand zeigte eine Edge AI Ecosystem Partner Wall, die eine Reihe von Unternehmen vorstellte, die gemeinsam daran arbeiten, KI auf Geräten zugänglicher und praktikabler zu machen, und zwar über verschiedene Arten von Hardware. 

Abb. 4. Francesco Mattioli vor der Edge AI Ecosystem Wall auf dem Stand von STMicroelectronics.

Es war großartig zu sehen, dass Ultralytics als Teil dieses Ökosystems einbezogen und anerkannt wurde. Auf der Wand wurde eine Demo der YOLO-Modelle von Ultralytics gezeigt, bei der die Objekterkennung in Echtzeit ablief. Dabei wurde deutlich, wie effizient unsere Modelle auf STMicroelectronics-Hardware arbeiten können, die für stromsparende Edge-Geräte ausgelegt ist.

Wir hatten auch die Gelegenheit, mit dem Team von STMicroelectronics darüber zu sprechen, wie Entwickler die YOLO-Modelle von Ultralytics auf ihren Mikrocontrollern (MCUs) und Mikroprozessoren (MPUs) einsetzen und wie Leistung, Speichereffizienz und Bereitstellungsabläufe weiter verbessert werden.

Vernetzung mit der Vision AI-Community

Am nächsten Tag setzten wir unsere Treffen mit Unternehmen, Entwicklern und Partnern auf der Messe fort. Anstatt sich nur auf Demos zu konzentrieren, ging es an diesem Tag mehr um Gespräche. Wir erfuhren aus erster Hand, wie Teams die YOLO-Modelle von Ultralytics in Projekten einsetzen, die von Robotik und automatischen Inspektionssystemen bis hin zu intelligenten Verbrauchergeräten und medizinischen Werkzeugen reichen. 

Viele dieser Teams tauschten sich über ihr Feedback, ihre Erfahrungen und ihre Ideen aus, was sie als Nächstes in der Embedded Vision sehen möchten. Wir hatten auch die Gelegenheit, uns mit Mitgliedern unserer Open-Source-Community auszutauschen, die an der Veranstaltung teilnahmen. 

Es war ermutigend zu sehen, wie die Leute experimentieren, die YOLO-Modelle von Ultralytics anpassen und erweitern, um praktische Anforderungen in realen Umgebungen zu erfüllen. In diesen Gesprächen wurde deutlich, wie wichtig Benutzerfreundlichkeit, Flexibilität und eine solide Dokumentation sind, da immer mehr Teams KI direkt auf Geräten einsetzen.

Wesentliche Erkenntnisse

Unsere Zeit auf der Embedded World North America 2025 hat gezeigt, wie schnell sich die eingebettete KI weiterentwickelt und wie weit Ultralytics YOLO-Modelle in realen Produkten und Arbeitsabläufen eingesetzt werden. Es war inspirierend, sich mit Teams auszutauschen, die Computer Vision aktiv in die Praxis umsetzen, und zu sehen, wie sich diese Anwendungen in Bereichen wie Robotik, Automatisierung, Gesundheitswesen und intelligente Geräte auswirken.

Vielen Dank an alle, die sich die Zeit genommen haben, ihre Arbeit, ihre Erkenntnisse und ihr Feedback während der Veranstaltung mit uns zu teilen. Wir freuen uns darauf, die Embedded-KI-Community weiterhin zu unterstützen und hochleistungsfähige, zugängliche Computer Vision auf Geräten jeder Größe zu ermöglichen.

Treten Sie unserer globalen Community bei und besuchen Sie unser GitHub-Repository, um mehr über Computer Vision zu erfahren. Entdecken Sie auf unseren Lösungsseiten Innovationen wie KI in der Landwirtschaft und Computer Vision im Einzelhandel. Informieren Sie sich über unsere Lizenzoptionen und beginnen Sie mit dem Aufbau Ihres eigenen Computer-Vision-Modells.

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert