Grüner Scheck
Link in die Zwischenablage kopiert

Entwickle KI-gestützte Drohnenanwendungen mit Ultralytics YOLO11

Erfahre, wie du mit Ultralytics YOLO11 KI-gestützte Drohnenanwendungen erstellen kannst, die eine Objekterkennung in Echtzeit und Drohnen-basierte Computer Vision Aufgaben ermöglichen.

Der Einkauf im Laden und der Online-Einkauf mögen sich ähneln, aber sie sind auf unterschiedliche Logistik angewiesen. In den Geschäften müssen die Regale aufgefüllt werden, während Online-Bestellungen an die Haustür geliefert werden müssen. Dank des technologischen Fortschritts werden beide Einkaufserlebnisse parallel umgestaltet.

Zum Beispiel gibt es eine große Veränderung bei den Lieferungen. KI-gesteuerte Drohnen verändern die Art und Weise, wie Produkte zu uns nach Hause kommen. Es wird erwartet, dass diese intelligenten Drohnen in den nächsten zehn Jahren rund 808 Millionen Lieferungen abwickeln und den Himmel zum neuesten Lieferweg für den täglichen Handel machen werden.

Lieferdrohnen nutzen künstliche Intelligenz (KI) und Computer Vision, ein Teilgebiet der KI, das zur Analyse visueller Daten verwendet wird, um zu navigieren und um Hindernisse herum zu manövrieren. Computer Vision Modelle wie Ultralytics YOLO11 können Drohnen dabei helfen, Objekte in Echtzeit zu erkennen und zu verfolgen, so dass sie ihre Umgebung besser verstehen und mit ihr interagieren können.

Abb. 1. Eine Lieferdrohne, die ein Paket zu seinem Ziel bringt.

Unternehmen wie Meituan und DJI integrieren bereits Computer Vision in ihre Drohnen. Die rasche Einführung von Drohnen in verschiedenen Branchen hat dazu geführt, dass der Markt für KI-Drohnen bis 2031 auf 206,9 Milliarden US-Dollar ansteigen wird. 

In diesem Artikel werfen wir einen genaueren Blick darauf, wie Computer-Vision-Modelle wie Ultralytics YOLO11 bei drohnenbasierten Anwendungen wie Drohnenlieferungen eingesetzt werden können. Anhand eines Beispiels zeigen wir, wie diese Technologien entwickelt und getestet werden können, bevor sie in realen Szenarien zum Einsatz kommen.

Einsatz von Ultralytics YOLO11 auf Drohnen zur Erkennung von Häusern

Ein wichtiger Bestandteil von Lieferdrohnen ist ihre Fähigkeit, Häuser zu erkennen, während sie navigieren. Um diese Fähigkeit nachzubilden und zu verstehen, wie sie funktioniert, werden wir ein Computer-Vision-Modell trainieren, das Häuser in den von einer Drohne aufgenommenen Bildern erkennen kann. Dazu werden wir YOLO11 individuell trainieren, indem wir ein bereits trainiertes YOLO11 mit Hilfe von gelabelten Beispielen feinabstimmen, um Häuser zu erkennen und zu identifizieren.

Dafür brauchen wir hochwertige Videodaten von einer Drohne. Interessanterweise können wir auch ohne Zugang zu einer echten Drohne realistische Luftaufnahmen erstellen. Schauen wir uns an, wie das geht.

Erstellen einer künstlichen Drohnenaufnahme mit Google Earth Studio

Google Earth Studio ist ein webbasiertes Animationstool, mit dem Nutzer/innen Standbilder und Animationen aus den Satelliten- und 3D-Bildern von Google Earth erstellen können. Wir können damit realistische Luftaufnahmen erstellen.

Der erste Schritt besteht darin, Google Earth Studio zu öffnen und ein Projekt zu erstellen, wie unten gezeigt. 

Du brauchst ein Google , um dich anzumelden.

Abb. 2. Erstellen eines Projekts in Google Earth Studio.

Sobald du dich angemeldet hast, kannst du einen Ort für dein künstliches Drohnenvideo auswählen. Mit der Suchleiste in der oberen linken Ecke der Seite kannst du nach Orten suchen. Für dieses Lernprogramm wählen wir Kanada. Da wir ein Modell trainieren wollen, um Häuser zu erkennen, sollte unser Drohnenvideo eine Luftaufnahme von Häusern enthalten.

Abb. 3. Auswählen eines Standorts mit Google Earth Studio.

Als Nächstes können wir das erste und letzte Zeitraster festlegen, um die Bewegung der künstlichen Drohnenaufnahme zu erfassen. Wenn du den Startpunkt für die Drohnenaufnahme gewählt hast, legst du das erste Bild mit den blauen Rauten fest, wie unten gezeigt. 

Abb. 4. Einstellen des ersten Rahmens mithilfe der blauen Rauten.

Als Nächstes können wir das letzte Bild auswählen, um das Ziel der Drohne zu bestimmen. So können wir einen Bewegungseffekt für die Drohnenaufnahme erzeugen. Dazu schiebst du den Balken (unten hervorgehoben) zu einer bestimmten Zeit nach rechts, um den Bewegungseffekt für die Drohnenaufnahme zu erzeugen. Verwende auch hier die blauen Rauten, um den letzten Punkt zu setzen.

Abb. 5. Einstellen des letzten Bildes durch Verschieben des Balkens.

Schließlich kannst du das Projekt speichern und rendern, indem du auf die rote Schaltfläche "Rendern" oben rechts auf der Seite klickst. So erhältst du die endgültige Videoausgabe der Drohnenaufnahme und hast erfolgreich künstliche Drohnenvideos erstellt.

Abb. 6. Rendering des endgültigen Ausgabevideos.

Wie kennzeichne ich die Daten der Drohne?

Nachdem wir das künstliche Drohnenvideo erstellt haben, müssen wir als Nächstes die Häuser beschriften oder mit Anmerkungen versehen. Außerdem müssen wir die einzelnen Bilder des Videos trennen. 

Um damit anzufangen, installieren wir LabelImg. LabelImg ist ein Open-Source-Tool zur Bildbeschriftung. Du kannst es direkt vom Terminal aus mit dem pip package installer installieren, indem du den folgenden Befehl ausführst: "pip install labelImg".

Nach der Installation kannst du das Tool mit dem Befehl "labelImg" in deinem Terminal oder der Eingabeaufforderung starten. Dadurch gelangst du auf die unten abgebildete Seite.

Abb. 7. Die Oberfläche des LabelImg-Tools.

In der Zwischenzeit können wir entweder einen Online-Video-zu-Bild-Konverter oder ein Tool namens FFmpeg verwenden, um das Video in Einzelbilder zu zerlegen. FFmpeg ist eine Sammlung von Bibliotheken und Werkzeugen zur Verarbeitung von Multimedia-Inhalten wie Audio, Video, Untertiteln und zugehörigen Metadaten. 

Du kannst den folgenden Terminalbefehl verwenden, um die einzelnen Bilder des Drohnenvideos zu trennen:

ffmpeg -i input_video.mp4 -vf fps=1 frame_%04d.jpg

Sobald wir die Einzelbilder des Drohnenmaterials getrennt haben, können wir die Objekte (Häuser) darin beschriften. Indem wir mit dem Werkzeug LabelImg zum Bildordner navigieren, können wir die Objekte in jedem Bild beschriften. Stelle sicher, dass du jedes beschriftete Bild speicherst und überprüfst. Nachdem wir die Bilder beschriftet haben, können wir nun mit diesen Daten YOLO11 trainieren.

Abb. 8. Ein Beispiel für das Speichern von kommentierten Bildern.

Arbeitsablauf der YOLO11

Bevor wir mit dem Training YOLO11 beginnen, organisieren wir unsere Bilder und Etiketten. Beginne damit, zwei Ordner zu erstellen: einen mit dem Namen "train" und einen mit dem Namen "valid". Verteile deine Bilder auf diese Ordner. Erstelle in beiden Ordnern separate Unterordner für die Bilder und die dazugehörigen Beschriftungsdateien (Textformat), wie unten gezeigt.

Abb. 9. Ein Beispiel für die Erstellung von Bild- und Etikettenordnern.

Dann können wir mit dem Training des YOLO11 wie folgt beginnen:

  • Schritt 1: Installiere das Ultralytics Python . Du kannst dies tun, indem du den Befehl "pip install ultralytics" in deinem Terminal ausführst. Wenn du Probleme bei der Installation hast, findest du in unserem Leitfaden zur Fehlerbehebung Tipps und Tricks, die dir bei der Lösung helfen.
  • Schritt 2: Nachdem du das Paket erfolgreich installiert hast, erstelle eine Datei mit dem Namen "data.yaml". Dies ist eine Konfigurationsdatei, die für das Training des Modells entscheidend ist. Gib in der Datei data.yaml die folgenden Informationen an: den Pfad zu deinem Trainingsdatensatz, den Pfad zu deinem Validierungsdatensatz, die Anzahl der Klassen (nc) und eine Liste der Klassennamen (names), wie unten gezeigt.
Abb. 10. Ein Beispiel für eine data.yaml-Datei.

  • Schritt 3: Sobald die Datei "data.yaml" konfiguriert ist, kannst du dein Modell mit dem folgenden Python trainieren. Dieser Code lädt das vortrainierte YOLO11 und trainiert es entsprechend deiner Konfigurationen.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • Schritt 4: Sobald das Training abgeschlossen ist, solltest du eine ähnliche Ausgabe wie die unten abgebildete sehen. Das bedeutet, dass du dein YOLO11 erfolgreich für dronenbasierte Anwendungen trainiert hast.
Abb. 11. Die Ausgabe nach dem Modelltraining.

Vorhersagen mit Ultralytics YOLO11 auf Drohnen durchführen

Das trainierte YOLO11 kann nun dazu verwendet werden, Vorhersagen zu treffen, und zwar durch das sogenannte Inferencing. Beim Inferencing wird ein Modell verwendet, um neue, ungesehene Daten auf der Grundlage dessen, was es beim Training gelernt hat, zu analysieren. In diesem Fall kann das Modell verwendet werden, um bestimmte Objekte, wie Häuser, in Bildern oder Videos zu finden und zu kennzeichnen, indem es Bounding Boxes um sie herum zeichnet.

Um eine Vorhersage zu machen, kannst du das trainierte YOLO11 mit dem folgenden Python auf ein Eingangsvideo anwenden. In diesem Beispiel verwenden wir dasselbe künstliche Drohnenvideo wie beim Training, aber du kannst auch eine beliebige andere Videodatei verwenden, wenn du möchtest.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

Nachdem du diesen Code ausgeführt hast, wird die Ausgabevideodatei mit den Vorhersagen und Bounding Boxes gespeichert.

Abb. 12. Ein Bild aus der ausgegebenen Videodatei. 

Integration von Ultralytics YOLO11 auf Drohnen für verschiedene Anwendungen

Die Erkennung von Häusern für Paketdrohnen ist nur ein Beispiel dafür, wie Computer Vision und YOLO11 eingesetzt werden können. Hier sind einige andere reale Anwendungen von Computer Vision, YOLO11 und Drohnen in der Luft:

  • Überwachung und Sicherheit: KI-Drohnen können zur Überwachung großer Gebiete in Echtzeit eingesetzt werden. Sie können Eindringlinge aufspüren, verdächtige Aktivitäten verfolgen und die Sicherheit an nationalen Grenzen sowie bei großen öffentlichen Veranstaltungen erhöhen. 
  • Katastrophenschutz, Suche und Rettung: Ausgestattet mit Wärmekameras und Objekterkennung können Drohnen helfen, Überlebende in Katastrophengebieten zu finden. Sie können auch Schäden begutachten und Hilfsgüter ausliefern...
  • Landwirtschaft und Präzisionslandwirtschaft: Mit Hilfe von Drohnen, die mit Computer Vision ausgestattet sind, können die Gesundheit von Pflanzen analysiert und Krankheiten erkannt werden, was den Landwirten hilft, ihre Erträge zu steigern und die Kosten zu senken. 
  • Kartierung und Geodatenanalyse: Durch die Erfassung hochauflösender 3D-Karten können KI-Drohnen bei der Stadtplanung und Landvermessung helfen. Sie ermöglichen schnellere und genauere Geländebeurteilungen als herkömmliche Methoden. 

Die wichtigsten Erkenntnisse

KI-Drohnen, die mit Hilfe von Computer Vision arbeiten, verändern viele Branchen, von der Paketzustellung bis zur Hilfe in Notfällen und in der Landwirtschaft. In diesem Leitfaden gehen wir durch die Erstellung eines künstlichen Drohnenvideos, die Beschriftung von Objekten darin, das Training von YOLO11 und die Verwendung der Drohne zur Erkennung von Häusern.

Die Anwendung von Objekterkennung auf Drohnenaufnahmen macht diese Drohnen intelligenter und ermöglicht es ihnen, Objekte automatisch und in Echtzeit zu erkennen und zu verfolgen. Wenn sich die Technologie weiterentwickelt, werden KI-gesteuerte Drohnen wahrscheinlich eine noch größere Rolle bei der Beschleunigung von Lieferungen, bei der Verbesserung der Sicherheit und bei der Katastrophenhilfe spielen.

Tritt unserer Community bei und erkunde unser GitHub-Repository, um mehr über Vision AI zu erfahren und unsere Lizenzierungsoptionen für den Start deiner Computer Vision-Projekte kennenzulernen. Interessierst du dich für Innovationen wie KI in der Fertigung oder Computer Vision in der Automobilindustrie? Besuche unsere Lösungsseiten, um mehr zu erfahren. 

LinkedIn-LogoTwitter-LogoFacebook-LogoKopier-Link-Symbol

Lies mehr in dieser Kategorie

Lass uns gemeinsam die Zukunft
der KI gestalten!

Beginne deine Reise in die Zukunft des maschinellen Lernens