YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

Ultralytics YOLO11でAI搭載ドローンアプリケーションを構築

Abirami Vina

4分で読めます

2025年4月18日

Ultralytics YOLO11を使用して、リアルタイムの物体検出やドローンベースのコンピュータビジョンタスクを可能にする、AI搭載ドローンアプリケーションの構築方法を学びます。

実店舗での買い物とオンラインショッピングは似ているように見えるかもしれませんが、異なるロジスティクスに依存しています。店舗は棚の補充が必要ですが、オンライン注文は玄関先までの配達に依存しています。技術の進歩のおかげで、両方のショッピング体験は並行して再構築されています。

例えば、配達に大きな変化が起きています。AI搭載のドローンが、製品が私たちの家に届く方法を変えています。これらのスマートドローンは、今後10年間で約8億800万件の配達を処理すると予想されており、空を日常の商取引のための最新の配達ルートに変えています。

配送ドローンは、視覚データを分析するために使用されるAIのサブフィールドである人工知能(AI)とコンピュータビジョンを使用して、障害物をナビゲートおよび回避します。Ultralytics YOLO11のようなコンピュータビジョンモデルは、ドローンがリアルタイムでオブジェクトを検出および追跡するのに役立ち、環境をより良く理解し、相互作用できるようにします。

Fig 1. 荷物を目的地まで運ぶ配送ドローン。

美団 (Meituan)やDJIなどの企業は、すでにコンピュータビジョンをドローンに統合しています。実際、さまざまな業界でのドローンの急速な採用により、AIドローン市場は2031年までに2,069億ドルに急成長すると予測されています。 

この記事では、Ultralytics YOLO11のようなコンピュータビジョンモデルが、ドローン配送のようなドローンベースのアプリケーションでどのように使用できるかについて詳しく見ていきます。これらの技術が実際のシナリオで使用される前に、どのように開発およびテストできるかを示す例を説明します。

ドローンでUltralytics YOLO11を使用して住宅を検出

配達ドローンの重要な要素は、ナビゲート中に家を検出する能力です。この機能を再現し、その仕組みを理解するために、空中ドローンが撮影した映像内の家を識別できるコンピュータービジョンモデルをトレーニングします。このためにカスタムトレーニングされたYOLO11を使用します。これには、ラベル付けされた例を使用して、事前トレーニング済みのYOLO11モデルを微調整し、家を認識および検出することが含まれます。

そのためには、ドローンからの高品質なビデオデータが必要です。興味深いことに、実際のドローンにアクセスできなくても、リアルな航空映像を生成できます。その方法を見てみましょう。

Google Earth Studioを使用した人工的なドローンショットの作成

Google Earth Studioは、Google Earthの衛星画像と3D画像を使用して、静止画やアニメーションコンテンツを作成するためにユーザーが使用できるWebベースのアニメーションツールです。これを使用して、リアルな航空映像を作成できます。

最初のステップは、以下に示すように、Google Earth Studioを開いてプロジェクトを作成することです。 

サインインするには、Googleアカウントが必要です。

図2. Google Earth Studioでプロジェクトを作成。

サインインしたら、人工ドローンビデオの場所を選択できます。ページ左上隅の検索バーを使用して、場所を検索できます。このチュートリアルでは、カナダを選択します。また、家を検出するモデルをトレーニングするため、ドローンビデオには家の航空写真が必要です。

図3. Google Earth Studioを使用した場所の選択。

次に、人工ドローンショットの動きをキャプチャするために、最初と最後のタイムフレームを設定できます。ドローンショットの開始場所を選択したら、以下に示すように、青いひし形を使用して最初のフレームを設定します。 

図4. 青いひし形を使用して最初のフレームを設定。

次に、ドローンの目的地を決定するために、最後のフレームを選択できます。これは、ドローン映像に動きの効果を作成するのに役立ちます。これを行うには、(以下に強調表示されている)バーを右にスライドさせて、ドローンショットに動きの効果を作成するために特定の時間に移動します。もう一度、青いひし形を使用して最後のポイントを設定します。

図5:バーを動かして最後のフレームを設定。

最後に、このプロジェクトを保存し、ページ右上隅にある赤い「Render」ボタンをクリックしてレンダリングできます。これにより、ドローンショットの最終的なビデオ出力が得られ、人工的なドローンビデオ映像が正常に作成されます。

図6:最終出力ビデオのレンダリング。

ドローンデータにラベルを付ける方法

人工的なドローンビデオ映像を作成したので、次のステップは、その中の住宅にラベル付けまたはアノテーションを付けることです。また、ビデオの個々のフレームを分離する必要があります。 

まず、LabelImgをインストールします。LabelImgは、オープンソースの画像ラベリングツールです。ターミナルからpipパッケージインストーラーを使用して直接インストールするには、次のコマンド「pip install labelImg」を実行します。

インストール後、ターミナルまたはコマンドプロンプトでコマンド「labelImg」を使用してツールを実行できます。これにより、以下に示すページが表示されます。

図7. LabelImgツールのインターフェース。

一方、オンラインの動画-画像変換ツールか、FFmpegと呼ばれるツールを使用して、動画をフレームに分割できます。FFmpegは、オーディオ、ビデオ、字幕、および関連するメタデータなどのマルチメディアコンテンツを処理するためのライブラリとツールのコレクションです。 

次のターミナルコマンドを使用して、ドローン映像ビデオの各フレームを分離できます。

ドローン映像のフレームを分離したら、オブジェクト(家)のラベリングを開始できます。LabelImgツールで画像フォルダに移動し、各画像のオブジェクトにラベルを付けます。ラベル付けされたすべての画像を保存して確認してください。画像にアノテーションを付けたら、このデータを使用してYOLO11の学習に進むことができます。

図8. アノテーションされた画像の保存例。

YOLO11モデルのトレーニングワークフロー

YOLO11のトレーニングを開始する前に、画像とラベルを整理します。「train」と「valid」という2つのフォルダーを作成することから始めます。画像をこれらのフォルダーに分割します。それぞれの中に、画像と対応するラベルファイル(テキスト形式)の個別のサブフォルダーを、以下に示すように作成します。

図9. 画像とラベルのフォルダ作成例。

次に、次のようにYOLO11モデルのトレーニングを開始できます。

  • ステップ1: Ultralytics Pythonパッケージをインストールします。これは、ターミナルで「pip install ultralytics」コマンドを実行することで実行できます。インストールに関する問題が発生した場合は、トラブルシューティングガイドで、問題を解決するためのヒントとコツを確認してください。
  • ステップ2: パッケージのインストールが成功したら、「data.yaml」という名前のファイルを作成します。これは、モデルのトレーニングに不可欠な構成ファイルです。data.yamlファイルに、トレーニングデータセットへのパス、検証データセットへのパス、クラス数(nc)、および以下に示すようにクラス名(names)のリストを含めます。
図10. data.yamlファイルの例。

  • ステップ 3: ‘data.yaml’ファイルの設定が完了したら、次の Python コードを使用してモデルの学習を開始できます。このコードは、事前学習済みの YOLO11 モデルをロードし、設定に従って学習させます。
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • ステップ 4: 学習が完了すると、以下に示すような出力が表示されます。これは、ドローンベースのアプリケーション用に YOLO11 モデルの学習が正常に完了したことを意味します。
図11. モデル学習後の出力結果。

ドローンでUltralytics YOLO11を使用した予測の実行

トレーニング済みのYOLO11モデルは、推論と呼ばれるプロセスを通じて予測を行うために使用できるようになりました。推論とは、トレーニング中に学習した内容に基づいて、新しい、未知のデータを分析するためにモデルを使用することです。この場合、モデルを使用して、画像またはビデオ内の家などの特定のオブジェクトを見つけてラベル付けし、それらの周囲にバウンディングボックスを描画できます。

予測を実行するには、トレーニング済みのYOLO11モデルを、次のPythonコードを使用して入力ビデオに対して使用できます。この例では、トレーニングに使用したのと同じ人工ドローンビデオを使用しますが、必要に応じて他のビデオファイルを使用することもできます。

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

このコードを実行すると、予測とバウンディングボックスを含む出力ビデオファイルが保存されます。

図12. 出力ビデオファイルからのフレーム。 

さまざまなアプリケーション向けのドローンへのUltralytics YOLO11の統合

ドローン配送パッケージのための住宅の検出は、コンピュータビジョンとYOLO11の応用例の1つにすぎません。コンピュータビジョン、YOLO11、および空撮ドローンのその他の実際の使用例を以下に示します。

  • 監視とセキュリティ: AI ドローンを使用して、広大なエリアをリアルタイムで監視できます。侵入を検出し、不審な活動を追跡し、国境や大規模な公共イベントでのセキュリティを強化できます。 
  • 災害対応と捜索救助: サーマルカメラと物体検出を搭載したドローンは、災害地帯で生存者を見つけるのに役立ちます。また、被害状況を評価し、緊急物資を配達することもできます。
  • 農業と精密農業: コンピュータビジョンと統合されたドローンを使用して、作物の健康状態を分析し、病気を検出できるため、農家はコストを削減しながら収量を増やすことができます。 
  • マッピングと地理空間分析: 高解像度の3Dマップを収集することにより、AIドローンは都市計画と土地調査を支援できます。従来のメソッドよりも高速かつ正確な地形評価を提供します。 

主なポイント

コンピュータビジョンを活用したAIドローンは、宅配から緊急支援、農業まで、多くの産業に変化をもたらしています。このガイドでは、AIによるドローン動画の作成、動画内のオブジェクトのラベリング、YOLO11のトレーニング、そしてそれを用いた住宅の検出について解説しました。

オブジェクト検出をドローン映像に応用することで、ドローンはよりスマートになり、リアルタイムで物体を自動認識および追跡できるようになります。技術の向上に伴い、AI駆動のドローンは、配送の迅速化、セキュリティの向上、災害対応の支援において、さらに大きな役割を果たす可能性があります。

コミュニティに参加し、GitHubリポジトリを探索して、Vision AIについてさらに学びましょう。また、ライセンスオプションを確認して、コンピュータビジョンプロジェクトを始めましょう。製造業におけるAI自動車産業におけるコンピュータビジョンなどのイノベーションにご興味がありますか?ソリューションページにアクセスして、詳細をご覧ください。 

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました