Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Cookie-Einstellungen
Wenn Sie auf "Alle Cookies akzeptieren" klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Navigation auf der Website zu verbessern, die Nutzung der Website zu analysieren und unsere Marketingaktivitäten zu unterstützen. Mehr Infos
Erfahren Sie, wie Sie mit Ultralytics YOLO11 KI-gestützte Drohnenanwendungen erstellen können, die Objekterkennung in Echtzeit und drohnenbasierte Computer-Vision-Aufgaben ermöglichen.
Der Einkauf im Geschäft und der Online-Einkauf mögen sich ähneln, aber sie beruhen auf unterschiedlicher Logistik. In den Geschäften müssen die Regale aufgefüllt werden, während Online-Bestellungen an die Haustür geliefert werden müssen. Dank des technologischen Fortschritts werden beide Einkaufserlebnisse parallel umgestaltet.
So vollzieht sich beispielsweise bei den Lieferungen ein großer Wandel. KI-gesteuerte Drohnen verändern die Art und Weise, wie Produkte zu uns nach Hause kommen. Es wird erwartet, dass diese intelligenten Drohnen in den nächsten zehn Jahren rund 808 Millionen Lieferungen abwickeln und den Luftraum zum neuesten Lieferweg für den täglichen Handel machen werden.
Lieferdrohnen nutzen künstliche Intelligenz (KI) und Computer Vision, ein Teilgebiet der KI, das zur Analyse visueller Daten verwendet wird, um zu navigieren und um Hindernisse herum zu manövrieren. Computer-Vision-Modelle wie Ultralytics YOLO11 können Drohnen dabei helfen, Objekte in Echtzeit zu erkennen und zu verfolgen, wodurch sie ihre Umgebung besser verstehen und mit ihr interagieren können.
Abb. 1. Eine Lieferdrohne, die ein Paket zu seinem Bestimmungsort bringt.
Unternehmen wie Meituan und DJI integrieren bereits Computer Vision in ihre Drohnen. Die rasche Einführung von Drohnen in verschiedenen Branchen hat dazu geführt, dass der Markt für KI-Drohnen bis 2031 auf 206,9 Milliarden US-Dollar ansteigen wird.
In diesem Artikel werfen wir einen genaueren Blick darauf, wie Computer-Vision-Modelle wie Ultralytics YOLO11 bei Drohnen-basierten Anwendungen wie Drohnenlieferungen eingesetzt werden können. Wir gehen ein Beispiel durch, das zeigt, wie diese Technologien entwickelt und getestet werden können, bevor sie in realen Szenarien eingesetzt werden.
Einsatz von Ultralytics YOLO11 auf Drohnen zur Erkennung von Häusern
Ein wichtiger Bestandteil von Lieferdrohnen ist ihre Fähigkeit, Häuser zu erkennen, während sie navigieren. Um diese Fähigkeit nachzubilden und zu verstehen, wie sie funktioniert, werden wir ein Computer-Vision-Modell trainieren, das Häuser in den von einer Drohne aufgenommenen Aufnahmen identifizieren kann. Zu diesem Zweck werden wir YOLO11 individuell trainieren, d. h. wir werden ein bereits trainiertes YOLO11-Modell feinabstimmen, um Häuser anhand von markierten Beispielen zu erkennen und zu erkennen.
Dazu benötigen wir hochwertige Videodaten von einer Drohne. Interessanterweise können wir auch ohne Zugang zu einer echten Drohne realistische Luftaufnahmen erstellen. Schauen wir uns einmal an, wie.
Erstellen einer künstlichen Drohnenaufnahme mit Google Earth Studio
Google Earth Studio ist ein webbasiertes Animationstool, mit dem Nutzer unbewegte und animierte Inhalte unter Verwendung der Satelliten- und 3D-Bilder von Google Earth erstellen können. Wir können damit realistische Luftaufnahmen erstellen.
Der erste Schritt besteht darin, Google Earth Studio zu öffnen und ein Projekt zu erstellen, wie unten gezeigt.
Sie benötigen ein Google-Konto, um sich anzumelden.
Abbildung 2. Erstellen eines Projekts in Google Earth Studio.
Sobald Sie sich angemeldet haben, können Sie einen Ort für Ihr künstliches Drohnenvideo auswählen. Über die Suchleiste in der oberen linken Ecke der Seite können Sie nach Orten suchen. Für dieses Lernprogramm wählen wir Kanada. Da wir ein Modell für die Erkennung von Häusern trainieren wollen, sollte unser Drohnenvideo eine Luftaufnahme von Häusern enthalten.
Abbildung 3. Auswählen eines Standorts mit Google Earth Studio.
Als Nächstes können wir das erste und das letzte Zeitraster festlegen, um die Bewegung der künstlichen Drohnenaufnahme zu erfassen. Nachdem Sie den Startpunkt für die Drohnenaufnahme gewählt haben, legen Sie das erste Bild mithilfe der blauen Rauten fest, wie unten gezeigt.
Abb. 4. Einstellung des ersten Rahmens mit Hilfe der blauen Rauten.
Als nächstes können wir das letzte Bild auswählen, um das Ziel der Drohne zu bestimmen. Dies hilft uns, einen Bewegungseffekt für die Drohnenaufnahmen zu erzeugen. Schieben Sie dazu die Leiste (unten hervorgehoben) zu einer bestimmten Zeit nach rechts, um den Bewegungseffekt für die Drohnenaufnahme zu erzeugen. Verwenden Sie wiederum die blauen Rauten, um den letzten Punkt festzulegen.
Abb. 5. Einstellung des letzten Bildes durch Verschieben des Balkens.
Schließlich können Sie dieses Projekt speichern und rendern, indem Sie auf die rote Schaltfläche "Rendern" in der oberen rechten Ecke der Seite klicken. So erhalten Sie die endgültige Videoausgabe der Drohnenaufnahme und können erfolgreich künstliche Drohnenvideos erstellen.
Abb. 6. Rendering des endgültigen Ausgabevideos.
Wie werden die Drohnendaten gekennzeichnet?
Nachdem wir nun künstliches Drohnen-Videomaterial erstellt haben, besteht der nächste Schritt darin, die Häuser darin zu beschriften oder mit Anmerkungen zu versehen. Außerdem müssen wir die einzelnen Frames des Videos trennen.
Um damit zu beginnen, werden wir LabelImg installieren. LabelImg ist ein Open-Source-Tool zur Bildbeschriftung. Sie können es direkt vom Terminal aus mit dem pip-Paketinstallationsprogramm installieren, indem Sie den folgenden Befehl ausführen: "pip install labelImg".
Nach der Installation können Sie das Tool mit dem Befehl "labelImg" in Ihrem Terminal oder der Eingabeaufforderung ausführen. Dadurch gelangen Sie auf die unten abgebildete Seite.
Abb. 7. Die Oberfläche des Tools LabelImg.
In der Zwischenzeit können wir entweder einen Online-Video-zu-Bild-Konverter oder ein Tool namens FFmpeg verwenden, um das Video in Einzelbilder zu zerlegen. FFmpeg ist eine Sammlung von Bibliotheken und Werkzeugen zur Verarbeitung von Multimedia-Inhalten wie Audio, Video, Untertiteln und zugehörigen Metadaten.
Sie können den folgenden Terminal-Befehl verwenden, um jedes Bild des Drohnenvideos zu trennen:
Sobald wir die Einzelbilder des Drohnenmaterials getrennt haben, können wir mit der Beschriftung der Objekte (Häuser) in den Bildern beginnen. Indem wir mit dem Werkzeug LabelImg zum Bildordner navigieren, können wir die Objekte in jedem Bild beschriften. Stellen Sie sicher, dass Sie jedes beschriftete Bild speichern und überprüfen. Nachdem wir die Bilder beschriftet haben, können wir nun mit diesen Daten YOLO11 trainieren.
Abb. 8. Ein Beispiel für die Speicherung kommentierter Bilder.
Arbeitsablauf der YOLO11-Modellschulung
Bevor wir mit dem Training von YOLO11 beginnen, müssen wir unsere Bilder und Etiketten organisieren. Beginnen Sie damit, zwei Ordner zu erstellen: einen mit dem Namen "train" und den anderen mit "valid". Verteilen Sie Ihre Bilder auf diese Ordner. Erstellen Sie in jedem dieser Ordner separate Unterordner für die Bilder und die entsprechenden Beschriftungsdateien (Textformat), wie unten gezeigt.
Abb. 9. Ein Beispiel für die Erstellung von Bild- und Etikettenordnern.
Dann können wir mit dem Training des YOLO11-Modells wie folgt beginnen:
Schritt 1: Installieren Sie das Ultralytics-Python-Paket. Sie können dies tun, indem Sie den Befehl "pip install ultralytics" in Ihrem Terminal ausführen. Sollten bei der Installation Probleme auftreten, finden Sie in unserem Leitfaden zur Fehlerbehebung Tipps und Tricks, die Ihnen bei der Lösung dieser Probleme helfen.
Schritt 2: Nachdem Sie das Paket erfolgreich installiert haben, erstellen Sie eine Datei mit dem Namen "data.yaml". Dies ist eine Konfigurationsdatei, die für das Training des Modells entscheidend ist. Geben Sie in der Datei data.yaml die folgenden Informationen an: den Pfad zu Ihrem Trainingsdatensatz, den Pfad zu Ihrem Validierungsdatensatz, die Anzahl der Klassen (nc) und eine Liste der Klassennamen (names), wie unten dargestellt.
Abbildung 10. Ein Beispiel für eine data.yaml-Datei.
Schritt 3: Sobald die Datei "data.yaml" konfiguriert ist, können Sie mit dem Training Ihres Modells mithilfe des folgenden Python-Codes beginnen. Dieser Code lädt das vortrainierte YOLO11-Modell und trainiert es gemäß Ihren Konfigurationen.
from ultralytics import YOLO
# Load a YOLO11 modelmodel = YOLO("yolo11n.pt") # choose your model, e.g., YOLO11 nano# Train the model with your data and settingsmodel.train(data="data.yaml", epochs=100, imgsz=640)
Schritt 4: Sobald das Training abgeschlossen ist, sollten Sie eine Ausgabe ähnlich der unten abgebildeten sehen. Das bedeutet, dass Sie Ihr YOLO11-Modell für Drohnenanwendungen erfolgreich trainiert haben.
Abb. 11. Die nach dem Modelltraining angezeigte Ausgabe.
Durchführung von Prognosen mit Ultralytics YOLO11 auf Drohnen
Das trainierte YOLO11-Modell kann nun verwendet werden, um Vorhersagen durch einen Prozess namens Inferenzierung zu treffen. Beim Inferencing wird ein Modell verwendet, um neue, ungesehene Daten auf der Grundlage dessen, was es während des Trainings gelernt hat, zu analysieren. In diesem Fall kann das Modell verwendet werden, um bestimmte Objekte, wie Häuser, in Bildern oder Videos zu finden und zu kennzeichnen, indem es Begrenzungsrahmen um sie herum zeichnet.
Um eine Vorhersage durchzuführen, können Sie das trainierte YOLO11-Modell mit dem folgenden Python-Code auf ein Eingabevideo anwenden. In diesem Beispiel verwenden wir dasselbe künstliche Drohnenvideo, das für das Training verwendet wurde, aber Sie können auch jede andere Videodatei verwenden, wenn Sie dies bevorzugen.
# Import libraryfrom ultralytics import YOLO
# Load the YOLO modelmodel = YOLO("best.pt") # Choose your custom-trained model# Predict the results from the modelresults = model.predict(source="path/to/original/video.mp4", show=True, save=True)
Nach der Ausführung dieses Codes wird die Ausgabevideodatei mit den Vorhersagen und Begrenzungsrahmen gespeichert.
Abb. 12. Ein Bild aus der ausgegebenen Videodatei.
Integration von Ultralytics YOLO11 auf Drohnen für verschiedene Anwendungen
Die Erkennung von Häusern für Paketdrohnen ist nur ein Beispiel dafür, wie Computer Vision und YOLO11 eingesetzt werden können. Hier sind einige andere reale Anwendungen von Computer Vision, YOLO11 und Luftdrohnen:
Überwachung und Sicherheit:KI-Drohnen können zur Überwachung großer Gebiete in Echtzeit eingesetzt werden. Sie können Eindringlinge aufspüren, verdächtige Aktivitäten verfolgen und die Sicherheit an den Landesgrenzen sowie bei großen öffentlichen Veranstaltungen verbessern.
Katastrophenschutz, Suche und Rettung: Ausgestattet mit Wärmekameras und Objekterkennung können Drohnen helfen, Überlebende in Katastrophengebieten zu finden. Sie können auch Schäden begutachten und Hilfsgüter liefern.
Landwirtschaft und Präzisionslandwirtschaft: Drohnen mit integriertem Bildverarbeitungssystem können zur Analyse des Gesundheitszustands von Nutzpflanzen und zur Erkennung von Krankheiten eingesetzt werden und Landwirten helfen, ihre Erträge zu steigern und gleichzeitig die Kosten zu senken.
Kartierung und Geodatenanalyse: Durch die Erfassung hochauflösender 3D-Karten können KI-Drohnen bei der Stadtplanung und Landvermessung helfen. Sie bieten schnellere und genauere Geländebeurteilungen als herkömmliche Methoden.
Die wichtigsten Erkenntnisse
KI-Drohnen, die durch Computer Vision unterstützt werden, verändern viele Branchen, von der Paketzustellung bis zur Hilfe in Notfällen und der Landwirtschaft. In diesem Leitfaden gehen wir durch die Erstellung eines künstlichen Drohnenvideos, die Beschriftung von Objekten darin, das Training von YOLO11 und die Verwendung der Drohne zur Erkennung von Häusern.
Die Anwendung von Objekterkennung auf Drohnenaufnahmen macht diese Drohnen intelligenter, da sie Objekte automatisch und in Echtzeit erkennen und verfolgen können. Mit zunehmender technologischer Entwicklung werden KI-gesteuerte Drohnen wahrscheinlich eine noch größere Rolle bei der Beschleunigung von Lieferungen, der Verbesserung der Sicherheit und der Unterstützung bei der Katastrophenhilfe spielen.