Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024

Entwickeln Sie KI-gestützte Drohnenanwendungen mit Ultralytics YOLO11

Abirami Vina

4 Min. Lesezeit

18. April 2025

Erfahren Sie, wie Sie mit Ultralytics YOLO11 KI-gestützte Drohnenanwendungen entwickeln, die Objekterkennung in Echtzeit und Computer-Vision-Aufgaben auf Drohnenbasis ermöglichen.

Einkaufen im Geschäft und Online-Shopping mögen ähnlich erscheinen, aber sie basieren auf unterschiedlichen Logistiksystemen. Geschäfte müssen Regale nachfüllen, während Online-Bestellungen von der Lieferung bis vor die Haustür abhängen. Dank technologischer Fortschritte werden beide Einkaufserlebnisse parallel neu gestaltet.

Zum Beispiel findet gerade eine große Veränderung bei den Lieferungen statt. KI-gestützte Drohnen verändern die Art und Weise, wie Produkte bei uns zu Hause ankommen. Es wird erwartet, dass diese intelligenten Drohnen im nächsten Jahrzehnt rund 808 Millionen Lieferungen abwickeln werden und den Himmel in die neueste Lieferroute für den täglichen Handel verwandeln.

Lieferdrohnen nutzen künstliche Intelligenz (KI) und Computer Vision, ein Teilgebiet der KI, das zur Analyse visueller Daten verwendet wird, um zu navigieren und Hindernisse zu umfliegen. Computer-Vision-Modelle wie Ultralytics YOLO11 können Drohnen helfen, Objekte in Echtzeit zu erkennen und zu verfolgen, wodurch sie ihre Umgebung besser verstehen und mit ihr interagieren können.

Abb. 1. Eine Lieferdrohne bringt ein Paket zu seinem Zielort.

Unternehmen wie Meituan und DJI integrieren Computer Vision bereits in ihre Drohnen. Tatsächlich hat die rasche Verbreitung von Drohnen in verschiedenen Branchen dazu geführt, dass der KI-Drohnenmarkt bis 2031 auf 206,9 Milliarden Dollar ansteigen wird. 

In diesem Artikel werden wir uns genauer ansehen, wie Computer-Vision-Modelle wie Ultralytics YOLO11 in drohnenbasierten Anwendungen wie Drohnenlieferungen eingesetzt werden können. Wir werden ein Beispiel durchgehen, das zeigt, wie diese Technologien entwickelt und getestet werden können, bevor sie in realen Szenarien eingesetzt werden.

Verwendung von Ultralytics YOLO11 auf Drohnen zur Erkennung von Häusern

Ein wichtiger Bestandteil von Lieferdrohnen ist ihre Fähigkeit, Häuser während der Navigation zu erkennen. Um diese Fähigkeit nachzubilden und zu verstehen, wie sie funktioniert, trainieren wir ein Computer-Vision-Modell, das Häuser in Aufnahmen einer Flugdrohne identifizieren kann. Wir werden YOLO11 dafür benutzerdefiniert trainieren, was die Feinabstimmung eines vortrainierten YOLO11-Modells zur Erkennung von Häusern anhand von beschrifteten Beispielen beinhaltet.

Dazu benötigen wir hochwertige Videodaten von einer Drohne. Interessanterweise können wir auch ohne Zugang zu einer echten Drohne realistische Luftaufnahmen erstellen. Sehen wir uns an, wie das geht.

Erstellen einer künstlichen Drohnenaufnahme mit Google Earth Studio

Google Earth Studio ist ein webbasiertes Animationstool, mit dem Benutzer mithilfe der Satelliten- und 3D-Bilder von Google Earth statische und animierte Inhalte erstellen können. Wir können es verwenden, um realistische Luftaufnahmen zu erstellen.

Der erste Schritt ist das Öffnen von Google Earth Studio und das Erstellen eines Projekts, wie unten dargestellt. 

Sie benötigen ein Google-Konto, um sich anzumelden.

Abb. 2. Erstellung eines Projekts in Google Earth Studio.

Sobald Sie sich angemeldet haben, können Sie einen Ort für Ihr künstliches Drohnenvideo auswählen. Über die Suchleiste in der oberen linken Ecke der Seite können Sie nach Orten suchen. Für dieses Tutorial wählen wir Kanada. Da wir ein Modell trainieren werden, um Häuser zu erkennen, sollte unser Drohnenvideo eine Luftaufnahme von Häusern enthalten.

Abb. 3. Auswahl eines Standorts mit Google Earth Studio.

Als Nächstes können wir den ersten und letzten Zeitrahmen festlegen, um die Bewegung der künstlichen Drohnenaufnahme zu erfassen. Sobald Sie den Startort für die Drohnenaufnahme ausgewählt haben, legen Sie den ersten Frame mit den blauen Rauten fest, wie unten gezeigt. 

Abb. 4. Festlegen des ersten Frames mit den blauen Rauten.

Als Nächstes können wir den letzten Frame auswählen, um das Ziel der Drohne zu bestimmen. Dies wird uns helfen, einen Bewegungseffekt für das Drohnenmaterial zu erzeugen. Schieben Sie dazu die Leiste (unten hervorgehoben) nach rechts zu einem bestimmten Zeitpunkt, um den Bewegungseffekt für die Drohnenaufnahme zu erzeugen. Verwenden Sie auch hier die blauen Rauten, um den letzten Punkt festzulegen.

Abb. 5. Festlegen des letzten Frames durch Verschieben des Balkens.

Schließlich können Sie dieses Projekt speichern und rendern, indem Sie auf die rote Schaltfläche “Rendern” in der oberen rechten Ecke der Seite klicken. Dadurch erhalten Sie die endgültige Videoausgabe der Drohnenaufnahme, wodurch erfolgreich künstliches Drohnenvideomaterial erstellt wird.

Abb. 6. Rendern des finalen Ausgabevideos.

Wie werden die Drohnendaten beschriftet?

Nachdem wir nun künstliches Drohnenvideomaterial erstellt haben, besteht der nächste Schritt darin, die Häuser darin zu beschriften oder zu annotieren. Wir müssen auch die einzelnen Frames des Videos trennen. 

Um damit zu beginnen, installieren wir LabelImg. LabelImg ist ein Open-Source-Tool zur Bildbeschriftung. Sie können es direkt über das Terminal mit dem Paketinstallationsprogramm pip installieren, indem Sie den folgenden Befehl ausführen: “pip install labelImg”.

Nach der Installation können Sie das Tool mit dem Befehl ‘labelImg’ in Ihrem Terminal oder Ihrer Eingabeaufforderung ausführen. Dadurch gelangen Sie zu der unten gezeigten Seite.

Abb. 7. Die Benutzeroberfläche des LabelImg-Tools.

In der Zwischenzeit können wir entweder einen Online-Video-zu-Bild-Konverter oder ein Tool namens FFmpeg verwenden, um das Video in Einzelbilder zu zerlegen. FFmpeg ist eine Sammlung von Bibliotheken und Tools zur Verarbeitung von Multimedia-Inhalten wie Audio, Video, Untertitel und zugehörige Metadaten. 

Sie können den folgenden Terminalbefehl verwenden, um jedes Einzelbild des Drohnenvideo-Materials zu trennen:

Sobald wir die Frames des Drohnenmaterials getrennt haben, können wir mit der Beschriftung der Objekte (Häuser) in ihnen beginnen. Indem wir mit dem LabelImg-Tool zum Bildordner navigieren, können wir die Objekte in jedem Bild beschriften. Stellen Sie sicher, dass Sie jedes beschriftete Bild speichern und überprüfen. Nach dem Annotieren der Bilder können wir nun mit dem Training von YOLO11 mit diesen Daten fortfahren.

Abb. 8. Ein Beispiel für das Speichern annotierter Bilder.

YOLO11 Workflow für das Modelltraining

Bevor wir mit dem Training von YOLO11 beginnen, organisieren wir unsere Bilder und Beschriftungen. Erstellen Sie zunächst zwei Ordner: einen mit dem Namen "train" und den anderen mit dem Namen "valid". Teilen Sie Ihre Bilder zwischen diesen Ordnern auf. Erstellen Sie in jedem Ordner separate Unterordner für die Bilder und die dazugehörigen Beschriftungsdateien (Textformat), wie unten dargestellt.

Abb. 9. Ein Beispiel für das Erstellen von Bild- und Label-Ordnern.

Dann können wir mit dem Training des YOLO11-Modells wie folgt beginnen:

  • Schritt 1: Installieren Sie das Ultralytics Python-Paket. Sie können dies tun, indem Sie den Befehl “pip install ultralytics” in Ihrem Terminal ausführen. Wenn Sie auf Installationsprobleme stoßen, lesen Sie unseren Leitfaden zur Fehlerbehebung für Tipps und Tricks, die Ihnen bei der Lösung helfen.
  • Schritt 2: Erstellen Sie nach erfolgreicher Installation des Pakets eine Datei mit dem Namen ‘data.yaml’. Dies ist eine Konfigurationsdatei, die für das Training des Modells entscheidend ist. Fügen Sie in die Datei data.yaml die folgenden Informationen ein: den Pfad zu Ihrem Trainingsdatensatz, den Pfad zu Ihrem Validierungsdatensatz, die Anzahl der Klassen (nc) und eine Liste der Klassennamen (names), wie unten gezeigt.
Abb. 10. Ein Beispiel für eine data.yaml-Datei.

  • Schritt 3: Sobald die Datei ‘data.yaml’ konfiguriert ist, können Sie mit dem Training Ihres Modells mit dem folgenden Python-Code beginnen. Dieser Code lädt das vortrainierte YOLO11-Modell und trainiert es gemäß Ihren Konfigurationen.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • Schritt 4: Sobald das Training abgeschlossen ist, sollten Sie eine ähnliche Ausgabe wie die unten gezeigte sehen. Dies bedeutet, dass Sie Ihr YOLO11-Modell erfolgreich für drohnenbasierte Anwendungen trainiert haben.
Abb. 11. Die Ausgabe nach dem Modelltraining.

Vorhersagen mit Ultralytics YOLO11 auf Drohnen ausführen

Das trainierte YOLO11-Modell kann nun verwendet werden, um Vorhersagen durch einen Prozess namens Inferencing zu treffen. Inferencing beinhaltet die Verwendung eines Modells zur Analyse neuer, ungesehener Daten auf der Grundlage dessen, was es während des Trainings gelernt hat. In diesem Fall kann das Modell verwendet werden, um bestimmte Objekte, wie z. B. Häuser, in Bildern oder Videos zu finden und zu kennzeichnen, indem es Begrenzungsrahmen um sie herum zeichnet.

Um eine Vorhersage auszuführen, können Sie das trainierte YOLO11-Modell auf ein Eingangsvideo mit dem folgenden Python-Code anwenden. In diesem Beispiel verwenden wir dasselbe künstliche Drohnenvideo, das für das Training verwendet wurde, aber Sie können auch jede andere Videodatei verwenden, wenn Sie dies bevorzugen.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

Nach dem Ausführen dieses Codes wird die Ausgabevideodatei mit den Vorhersagen und Begrenzungsrahmen gespeichert.

Abb. 12. Ein Frame aus der Ausgabevideodatei. 

Integration von Ultralytics YOLO11 auf Drohnen für verschiedene Anwendungen

Die Erkennung von Häusern für Drohnen-Lieferpakete ist nur ein Beispiel dafür, wie Computer Vision und YOLO11 eingesetzt werden können. Hier sind einige andere reale Anwendungen von Computer Vision, YOLO11 und Flugdrohnen:

  • Überwachung und Sicherheit: KI-Drohnen können zur Überwachung großer Gebiete in Echtzeit eingesetzt werden. Sie können Eindringlinge erkennen, verdächtige Aktivitäten verfolgen und die Sicherheit an nationalen Grenzen sowie bei großen öffentlichen Veranstaltungen erhöhen. 
  • Katastrophenhilfe und Suche und Rettung: Ausgestattet mit Wärmebildkameras und Objekterkennung können Drohnen helfen, Überlebende in Katastrophengebieten zu lokalisieren. Sie können auch Schäden beurteilen und Notfallversorgung liefern.
  • Landwirtschaft und Präzisionslandwirtschaft: Mit Computer Vision ausgestattete Drohnen können zur Analyse des Zustands von Feldfrüchten und zur Erkennung von Krankheiten eingesetzt werden, wodurch Landwirte ihre Erträge steigern und gleichzeitig Kosten senken können. 
  • Kartierung und Geodatenanalyse: Durch das Sammeln hochauflösender 3D-Karten können KI-Drohnen die Stadtplanung und Landvermessung unterstützen. Sie liefern schnellere und genauere Geländebewertungen als traditionelle Methoden. 

Wesentliche Erkenntnisse

KI-Drohnen, die mit Computer Vision ausgestattet sind, verändern viele Branchen, von der Paketzustellung über die Hilfe in Notfällen bis hin zur Landwirtschaft. In diesem Leitfaden haben wir die Erstellung eines künstlichen Drohnenvideos, die Kennzeichnung von Objekten darin, das Training von YOLO11 und die Verwendung zur Erkennung von Häusern durchlaufen.

Die Anwendung von Objekterkennung auf Drohnenaufnahmen macht diese Drohnen intelligenter, sodass sie Objekte automatisch und in Echtzeit erkennen und verfolgen können. Mit der Verbesserung der Technologie werden KI-gesteuerte Drohnen wahrscheinlich eine noch größere Rolle bei der Beschleunigung von Lieferungen, der Verbesserung der Sicherheit und der Unterstützung bei der Katastrophenhilfe spielen.

Treten Sie unserer Community bei und erkunden Sie unser GitHub-Repository, um mehr über Vision AI zu erfahren, und sehen Sie sich unsere Lizenzoptionen an, um Ihre Computer Vision-Projekte zu starten. Interessieren Sie sich für Innovationen wie KI in der Fertigung oder Computer Vision in der Automobilindustrie? Besuchen Sie unsere Lösungsseiten, um mehr zu erfahren. 

Lasst uns gemeinsam die Zukunft
der KI gestalten!

Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens

Kostenlos starten
Link in die Zwischenablage kopiert