YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

Ultralytics YOLO11を物体検出に使用する方法

Abirami Vina

3分で読めます

2024年11月29日

新しいUltralytics YOLO11モデルを物体検出に使用して、さまざまな業界の幅広いアプリケーションでより高い精度を達成する方法を探ります。

コンピュータビジョンは、機械が視覚情報を解釈および理解し、物体検出のような不可欠なタスクを可能にする人工知能(AI)の分野です。画像分類とは異なり、物体検出は画像内にどのような物体があるかを識別するだけでなく、それらの正確な位置を特定します。これにより、自動運転車、リアルタイムセキュリティシステム、倉庫の自動化などのビジョンAIアプリケーションにとって重要なツールとなります。

時間の経過とともに、物体検出技術はより高度になり、使いやすくなりました。Ultralyticsの年次ハイブリッドイベントであるYOLO Vision 2024(YV24)で、Ultralytics YOLO11モデルの発表とともに、大きな進歩が発表されました。YOLO11は、YOLOv8と同じタスクをサポートしながら、精度とパフォーマンスを向上させているため、以前のモデルのユーザーはシームレスに移行できます。

図1. Ultralytics YOLO11モデルを物体検出に使用する例。

この記事では、物体検出とは何か、他のコンピュータビジョンタスクとどのように異なるのかを詳しく解説し、その実際のアプリケーションを探ります。また、Ultralytics PythonパッケージUltralytics HUBプラットフォームでYOLO11モデルを使用する方法についても説明します。それでは始めましょう!

物体検出とは?

物体検出は、コンピュータビジョンの中核となるタスクであり、画像内の物体を識別する以上のことを行います。特定の物体が存在するかどうかのみを判断する画像分類とは異なり、物体検出は複数の物体を認識し、バウンディングボックスを使用してそれらの正確な位置を特定します。 

たとえば、グループ写真内の顔、交通量の多い道路上の車、または店舗の棚にある製品を識別して特定できます。物体認識と位置特定の組み合わせにより、監視、群集監視、自動在庫管理などのアプリケーションに特に役立ちます。

図2. YOLO11を使用して顔を検出。

物体検出をセマンティックセグメンテーションやインスタンスセグメンテーションのような他のタスクと区別するものは、その焦点と効率です。 

セマンティックセグメンテーションは、画像内のすべてのピクセルにラベルを付けますが、同じタイプの個々の物体を区別しません(たとえば、写真内のすべての顔は「顔」としてグループ化されます)。インスタンスセグメンテーションは、各物体を分離し、同じクラスの物体であっても、その正確な形状を概説することで、さらにそれを進めます。 

ただし、物体検出は、物体の位置をマークしながら、物体を識別および分類することにより、より合理化されたアプローチを提供します。これにより、セキュリティ映像内の顔の検出や、自動運転車の障害物の識別などのリアルタイムタスクに最適です。

YOLO11と物体検出の応用事例

YOLO11の高度な物体検出機能は、多くの産業で役立ちます。いくつかの例を見てみましょう。

小売分析におけるYOLO11の活用

YOLO11と物体検出は、在庫管理と棚の監視をより効率的かつ正確にすることで、小売分析を再定義しています。このモデルの、物体を迅速かつ確実に検出する能力は、小売業者が在庫レベルを追跡し、棚を整理し、在庫数の誤りを減らすのに役立ちます。

例えば、YOLO11は、店舗の棚にあるサングラスのような特定のアイテムを検出できます。しかし、なぜ小売業者は棚を監視する必要があるのでしょうか?棚の在庫を確保し、整理することは、顧客が必要なものを見つけられるようにするために不可欠であり、売上に直接影響します。リアルタイムで棚を監視することで、小売業者は商品の不足、置き間違い、過剰な在庫を迅速に特定し、整理され魅力的な陳列を維持して、ショッピング体験を向上させることができます。

図3. YOLO11を使用して棚にある商品を検出する例

スマートシティにおけるYOLO11の応用

活気のある都市は、円滑な交通の流れと安全な道路によって効率的に機能しており、YOLO11はこれを実現するのに役立ちます。実際、多くのスマートシティアプリケーションをYOLO11と統合できます。 

興味深い事例の1つとして、物体検出を使用して走行中の車両のナンバープレートを識別することがあります。これにより、YOLO11は、より迅速な料金徴収、より優れた交通管理、および迅速な規制執行をサポートできます。 

図4. 物体検出とYOLO11を使用してナンバープレートを検出する。

道路を監視するVision AIシステムからの洞察は、交通違反や交通渋滞がより大きな問題に発展する前に当局に警告できます。YOLO11は歩行者や自転車も検出できるため、道路はすべての人にとってより安全かつ効率的になります。 

実際、YOLO11の視覚データを処理する能力は、都市インフラを改善するための強力なツールとなります。例えば、車両や歩行者の動きを分析することで、信号のタイミングを最適化できます。また、子供を検出してドライバーに減速を促すことで、学区の安全性を高めることもできます。YOLO11を使用することで、都市は課題に対処するための事前対策を講じ、すべての人にとってより効率的な環境を作り出すことができます。

YOLO11によるリアルタイムビデオ検出:アクセシビリティの向上

リアルタイム物体検出とは、ライブビデオフィードに映る物体を、出現と同時に識別および分類するシステムの能力を指します。YOLO11は、優れたリアルタイムパフォーマンスを実現するように設計されており、この機能をサポートすることに優れています。その応用は、プロセスの合理化にとどまらず、より包括的でアクセシブルな世界の創造にも役立ちます。

例えば、YOLO11は、リアルタイムで物体を識別することで、視覚障碍者を支援できます。検出に基づいて音声解説を提供することで、ユーザーがより自立して周囲を移動できるようになります。

視覚障碍者が食料品を買いに行くことを考えてみましょう。適切な商品を選ぶのは難しいかもしれませんが、YOLO11が支援できます。商品をカートに入れると、YOLO11と統合されたシステムを使用して、バナナ、アボカド、牛乳パックなどの各商品を識別し、リアルタイムの音声解説を提供できます。これにより、選択を確認し、必要なものをすべて揃えることができます。YOLO11は、日常的な商品を認識することで、買い物をよりシンプルにできます。

図5. 物体検出は、視覚障碍者にとって世界をよりアクセスしやすくするのに役立ちます。

YOLO11を使用した物体検出のステップバイステップガイド 

物体検出の基本とその多様な応用について説明したので、物体検出などのタスクでUltralytics YOLO11モデルを使い始める方法について詳しく見ていきましょう。

YOLO11を使用するには、Ultralytics PythonパッケージまたはUltralytics HUBを使用する2つの簡単な方法があります。Pythonパッケージから順に、両方の方法を見ていきましょう。

YOLO11を使用した推論の実行

推論とは、AIモデルがトレーニング中に学習した内容に基づいて、新しい、未知のデータを分析して予測を行ったり、情報を分類したり、洞察を提供したりすることです。物体検出に関して言えば、画像またはビデオ内の特定の物体を識別して位置を特定し、それらの周囲にバウンディングボックスを描画し、モデルのトレーニングに基づいてラベルを付けることを意味します。

YOLO11物体検出モデルを使用して推論を行うには、まず、pip、conda、またはDockerを使用してUltralytics Pythonパッケージをインストールする必要があります。インストールに関する問題が発生した場合は、トラブルシューティングガイドで、問題を解決するためのヒントとコツを確認してください。インストールが完了したら、次のコードを使用してYOLO11物体検出モデルをロードし、画像に対して予測を行うことができます。

図6. YOLO11nを使用して画像に対して推論を実行する。

カスタムYOLO11モデルのトレーニング

YOLO11は、特定のユースケースに合わせてカスタムトレーニングもサポートしています。モデルを微調整することで、プロジェクトに関連するオブジェクトを検出するように調整できます。例えば、ヘルスケア分野でコンピュータビジョンを使用する場合、カスタムトレーニングされたYOLO11モデルを使用すると、MRIスキャンにおける腫瘍やX線写真における骨折など、医療画像内の特定の異常を検出し、医師がより迅速かつ正確な診断を下すのに役立ちます。

以下のコードスニペットは、オブジェクト検出のためにYOLO11モデルをロードしてトレーニングする方法を示しています。YAML構成ファイルまたは事前トレーニング済みのモデルから開始し、重みを転送して、COCOなどのデータセットでトレーニングすることで、より洗練されたオブジェクト検出機能を実現できます。

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

モデルをトレーニングした後、トレーニング済みモデルをさまざまな形式でエクスポートして、異なる環境にデプロイすることも可能です。

Ultralytics HUBでのYOLO11オブジェクト検出

コード不要の代替手段をお探しの方には、Ultralytics HUBが、YOLO11を含むYOLOモデルのトレーニングとデプロイのための使いやすいVision AIプラットフォームを提供します。

画像上でオブジェクト検出を実行するには、アカウントを作成し、‘Models’セクションに移動して、YOLO11オブジェクト検出モデルのバリアントを選択します。画像をアップロードすると、プラットフォームが検出されたオブジェクトをプレビューセクションに表示します。

図7. Ultralytics HUBでの推論の実行。

Pythonパッケージの柔軟性とHUBの使いやすさを組み合わせることで、YOLO11は開発者や企業が高度なオブジェクト検出技術の力を簡単に活用できるようにします。

主なポイント

YOLO11は、高精度と多様性を兼ね備え、さまざまな業界のニーズに応えるオブジェクト検出における新たな標準を打ち立てます。小売分析の強化からスマートシティのインフラ管理まで、YOLO11は数え切れないほどのアプリケーションでリアルタイムかつ信頼性の高いパフォーマンスを実現するために構築されています。

カスタムトレーニングのオプションと、Ultralytics HUBによる使いやすいインターフェースにより、YOLO11をワークフローに統合することがこれまで以上に簡単になりました。あなたがコンピュータビジョンを探求する開発者であれ、AIで革新を起こそうとしている企業であれ、YOLO11は成功に必要なツールを提供します。

詳細については、GitHubリポジトリをご覧になり、コミュニティにご参加ください。ソリューションページで、自動運転車農業向けコンピュータビジョンにおけるAIアプリケーションをご覧ください。🚀

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました