Erfahre, wie du mit Ultralytics YOLO11 KI-gestützte Drohnenanwendungen erstellen kannst, die eine Objekterkennung in Echtzeit und Drohnen-basierte Computer Vision Aufgaben ermöglichen.
Der Einkauf im Laden und der Online-Einkauf mögen sich ähneln, aber sie sind auf unterschiedliche Logistik angewiesen. In den Geschäften müssen die Regale aufgefüllt werden, während Online-Bestellungen an die Haustür geliefert werden müssen. Dank des technologischen Fortschritts werden beide Einkaufserlebnisse parallel umgestaltet.
Zum Beispiel gibt es eine große Veränderung bei den Lieferungen. KI-gesteuerte Drohnen verändern die Art und Weise, wie Produkte zu uns nach Hause kommen. Es wird erwartet, dass diese intelligenten Drohnen in den nächsten zehn Jahren rund 808 Millionen Lieferungen abwickeln und den Himmel zum neuesten Lieferweg für den täglichen Handel machen werden.
Lieferdrohnen nutzen künstliche Intelligenz (KI) und Computer Vision, ein Teilgebiet der KI, das zur Analyse visueller Daten verwendet wird, um zu navigieren und um Hindernisse herum zu manövrieren. Computer Vision Modelle wie Ultralytics YOLO11 können Drohnen dabei helfen, Objekte in Echtzeit zu erkennen und zu verfolgen, so dass sie ihre Umgebung besser verstehen und mit ihr interagieren können.
Unternehmen wie Meituan und DJI integrieren bereits Computer Vision in ihre Drohnen. Die rasche Einführung von Drohnen in verschiedenen Branchen hat dazu geführt, dass der Markt für KI-Drohnen bis 2031 auf 206,9 Milliarden US-Dollar ansteigen wird.
In diesem Artikel werfen wir einen genaueren Blick darauf, wie Computer-Vision-Modelle wie Ultralytics YOLO11 bei drohnenbasierten Anwendungen wie Drohnenlieferungen eingesetzt werden können. Anhand eines Beispiels zeigen wir, wie diese Technologien entwickelt und getestet werden können, bevor sie in realen Szenarien zum Einsatz kommen.
Ein wichtiger Bestandteil von Lieferdrohnen ist ihre Fähigkeit, Häuser zu erkennen, während sie navigieren. Um diese Fähigkeit nachzubilden und zu verstehen, wie sie funktioniert, werden wir ein Computer-Vision-Modell trainieren, das Häuser in den von einer Drohne aufgenommenen Bildern erkennen kann. Dazu werden wir YOLO11 individuell trainieren, indem wir ein bereits trainiertes YOLO11 mit Hilfe von gelabelten Beispielen feinabstimmen, um Häuser zu erkennen und zu identifizieren.
Dafür brauchen wir hochwertige Videodaten von einer Drohne. Interessanterweise können wir auch ohne Zugang zu einer echten Drohne realistische Luftaufnahmen erstellen. Schauen wir uns an, wie das geht.
Google Earth Studio ist ein webbasiertes Animationstool, mit dem Nutzer/innen Standbilder und Animationen aus den Satelliten- und 3D-Bildern von Google Earth erstellen können. Wir können damit realistische Luftaufnahmen erstellen.
Der erste Schritt besteht darin, Google Earth Studio zu öffnen und ein Projekt zu erstellen, wie unten gezeigt.
Du brauchst ein Google , um dich anzumelden.
Sobald du dich angemeldet hast, kannst du einen Ort für dein künstliches Drohnenvideo auswählen. Mit der Suchleiste in der oberen linken Ecke der Seite kannst du nach Orten suchen. Für dieses Lernprogramm wählen wir Kanada. Da wir ein Modell trainieren wollen, um Häuser zu erkennen, sollte unser Drohnenvideo eine Luftaufnahme von Häusern enthalten.
Als Nächstes können wir das erste und letzte Zeitraster festlegen, um die Bewegung der künstlichen Drohnenaufnahme zu erfassen. Wenn du den Startpunkt für die Drohnenaufnahme gewählt hast, legst du das erste Bild mit den blauen Rauten fest, wie unten gezeigt.
Als Nächstes können wir das letzte Bild auswählen, um das Ziel der Drohne zu bestimmen. So können wir einen Bewegungseffekt für die Drohnenaufnahme erzeugen. Dazu schiebst du den Balken (unten hervorgehoben) zu einer bestimmten Zeit nach rechts, um den Bewegungseffekt für die Drohnenaufnahme zu erzeugen. Verwende auch hier die blauen Rauten, um den letzten Punkt zu setzen.
Schließlich kannst du das Projekt speichern und rendern, indem du auf die rote Schaltfläche "Rendern" oben rechts auf der Seite klickst. So erhältst du die endgültige Videoausgabe der Drohnenaufnahme und hast erfolgreich künstliche Drohnenvideos erstellt.
Nachdem wir das künstliche Drohnenvideo erstellt haben, müssen wir als Nächstes die Häuser beschriften oder mit Anmerkungen versehen. Außerdem müssen wir die einzelnen Bilder des Videos trennen.
Um damit anzufangen, installieren wir LabelImg. LabelImg ist ein Open-Source-Tool zur Bildbeschriftung. Du kannst es direkt vom Terminal aus mit dem pip package installer installieren, indem du den folgenden Befehl ausführst: "pip install labelImg".
Nach der Installation kannst du das Tool mit dem Befehl "labelImg" in deinem Terminal oder der Eingabeaufforderung starten. Dadurch gelangst du auf die unten abgebildete Seite.
In der Zwischenzeit können wir entweder einen Online-Video-zu-Bild-Konverter oder ein Tool namens FFmpeg verwenden, um das Video in Einzelbilder zu zerlegen. FFmpeg ist eine Sammlung von Bibliotheken und Werkzeugen zur Verarbeitung von Multimedia-Inhalten wie Audio, Video, Untertiteln und zugehörigen Metadaten.
Du kannst den folgenden Terminalbefehl verwenden, um die einzelnen Bilder des Drohnenvideos zu trennen:
ffmpeg -i input_video.mp4 -vf fps=1 frame_%04d.jpg
Sobald wir die Einzelbilder des Drohnenmaterials getrennt haben, können wir die Objekte (Häuser) darin beschriften. Indem wir mit dem Werkzeug LabelImg zum Bildordner navigieren, können wir die Objekte in jedem Bild beschriften. Stelle sicher, dass du jedes beschriftete Bild speicherst und überprüfst. Nachdem wir die Bilder beschriftet haben, können wir nun mit diesen Daten YOLO11 trainieren.
Bevor wir mit dem Training YOLO11 beginnen, organisieren wir unsere Bilder und Etiketten. Beginne damit, zwei Ordner zu erstellen: einen mit dem Namen "train" und einen mit dem Namen "valid". Verteile deine Bilder auf diese Ordner. Erstelle in beiden Ordnern separate Unterordner für die Bilder und die dazugehörigen Beschriftungsdateien (Textformat), wie unten gezeigt.
Dann können wir mit dem Training des YOLO11 wie folgt beginnen:
from ultralytics import YOLO
# Load a YOLO11 model
model = YOLO("yolo11n.pt") # choose your model, e.g., YOLO11 nano
# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
Das trainierte YOLO11 kann nun dazu verwendet werden, Vorhersagen zu treffen, und zwar durch das sogenannte Inferencing. Beim Inferencing wird ein Modell verwendet, um neue, ungesehene Daten auf der Grundlage dessen, was es beim Training gelernt hat, zu analysieren. In diesem Fall kann das Modell verwendet werden, um bestimmte Objekte, wie Häuser, in Bildern oder Videos zu finden und zu kennzeichnen, indem es Bounding Boxes um sie herum zeichnet.
Um eine Vorhersage zu machen, kannst du das trainierte YOLO11 mit dem folgenden Python auf ein Eingangsvideo anwenden. In diesem Beispiel verwenden wir dasselbe künstliche Drohnenvideo wie beim Training, aber du kannst auch eine beliebige andere Videodatei verwenden, wenn du möchtest.
# Import library
from ultralytics import YOLO
# Load the YOLO model
model = YOLO("best.pt") # Choose your custom-trained model
# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)
Nachdem du diesen Code ausgeführt hast, wird die Ausgabevideodatei mit den Vorhersagen und Bounding Boxes gespeichert.
Die Erkennung von Häusern für Paketdrohnen ist nur ein Beispiel dafür, wie Computer Vision und YOLO11 eingesetzt werden können. Hier sind einige andere reale Anwendungen von Computer Vision, YOLO11 und Drohnen in der Luft:
KI-Drohnen, die mit Hilfe von Computer Vision arbeiten, verändern viele Branchen, von der Paketzustellung bis zur Hilfe in Notfällen und in der Landwirtschaft. In diesem Leitfaden gehen wir durch die Erstellung eines künstlichen Drohnenvideos, die Beschriftung von Objekten darin, das Training von YOLO11 und die Verwendung der Drohne zur Erkennung von Häusern.
Die Anwendung von Objekterkennung auf Drohnenaufnahmen macht diese Drohnen intelligenter und ermöglicht es ihnen, Objekte automatisch und in Echtzeit zu erkennen und zu verfolgen. Wenn sich die Technologie weiterentwickelt, werden KI-gesteuerte Drohnen wahrscheinlich eine noch größere Rolle bei der Beschleunigung von Lieferungen, bei der Verbesserung der Sicherheit und bei der Katastrophenhilfe spielen.
Tritt unserer Community bei und erkunde unser GitHub-Repository, um mehr über Vision AI zu erfahren und unsere Lizenzierungsoptionen für den Start deiner Computer Vision-Projekte kennenzulernen. Interessierst du dich für Innovationen wie KI in der Fertigung oder Computer Vision in der Automobilindustrie? Besuche unsere Lösungsseiten, um mehr zu erfahren.
Beginne deine Reise in die Zukunft des maschinellen Lernens