Yolo 深圳
深セン
今すぐ参加

YOLO12解説:実際のアプリケーションとユースケース

Abirami Vina

5分で読めます

2025年2月26日

最新のコンピュータビジョンモデルであるYOLO12をご覧ください。そのアテンション中心のアーキテクチャとFlashAttentionテクノロジーが、業界全体のオブジェクト検出タスクをどのように強化するかを学びます。

コンピュータ・ビジョンは人工知能(AI)の一分野であり、機械が画像や映像を理解するのを助ける。AIの研究者や開発者は常に限界に挑戦しているため、この分野は驚くべきスピードで進歩している。AIコミュニティは常に、モデルをより速く、より賢く、より効率的にすることを目指している。最新のブレークスルーのひとつが、2025年2月18日にリリースされたYOLO (You Only Look Once)モデルシリーズの最新作、YOLO12だ。

YOLO12は、バッファロー大学、ニューヨーク州立大学(SUNY)、および中国科学院大学の研究者によって開発されました。YOLO12は、新しい独自のアプローチで、注意メカニズムを導入し、モデルがすべてを平等に処理するのではなく、画像の最も重要な部分に焦点を当てることができるようにします。 

また、FlashAttentionという、メモリの使用量を減らしながら処理を高速化する技術と、人間が自然に中心的なオブジェクトに焦点を当てる方法を模倣するように設計されたarea attentionメカニズムも備えています。

これらの改善により、YOLO12nはYOLOv10nよりも2.1%精度が高く、YOLO12mはYOLO11mよりも+1.0%精度が高くなっています。ただし、これにはトレードオフがあり、YOLO12nはYOLOv10nよりも9%遅く、YOLO12mはYOLO11mよりも3%遅くなっています。

__wf_reserved_inherit
図1.YOLO12による物体detect 例。

この記事では、YOLO12は何が違うのか、以前のバージョンと比較してどうなのか、そしてどこに適用できるのかについて解説します。

YOLO12のリリースへの道

YOLO モデルシリーズは、リアルタイムの物体検出のために設計されたコンピュータビジョンモデルのコレクションである。時間の経過とともに、各バージョンはスピード、精度、効率の点で向上しています。

例えば Ultralytics YOLOv52020年にリリースされたUltralytics YOLOv5は、カスタムトレーニングやデプロイが迅速かつ容易であったため、広く使用されるようになった。その後 Ultralytics YOLOv8は、インスタンスのセグメンテーションやオブジェクトの追跡といったコンピュータ・ビジョン・タスクの追加サポートを提供することで、これを改善した。 

最近では Ultralytics YOLO11は、スピードと精度のバランスを保ちながら、リアルタイム処理を改善することに重点を置いた。例えば、YOLO11mは、YOLOv8m22%少ないパラメータを持ちながら、物体検出モデルの評価に広く使われているベンチマークであるCOCO データセットにおいて、より優れた検出性能を実現した。

これらの進歩に基づいて、YOLO12は視覚情報の処理方法に変化をもたらします。画像全体を均等に扱うのではなく、最も関連性の高い領域を優先することで、検出精度を向上させます。簡単に言えば、YOLO12は以前の改善点を基に、より正確になることを目指しています。

YOLO12の主な機能

YOLO12は、リアルタイム処理速度を維持しながら、コンピュータビジョンタスクを強化するいくつかの改善を導入しています。YOLO12の主な機能の概要を以下に示します。

  • 注意機構を中心としたアーキテクチャ:YOLO12は、画像全体を均等に扱うのではなく、最も重要な領域に焦点を当てます。これにより、精度が向上し、不要な処理が削減され、混雑した画像でも検出がよりシャープで効率的になります。
  • FlashAttention: YOLO12は、より少ないメモリを使用しながら画像分析を高速化します。FlashAttention(メモリ効率の高いアルゴリズム)により、データ処理が最適化され、ハードウェアへの負荷が軽減され、リアルタイムタスクがよりスムーズかつ信頼性の高いものになります。
  • Residual Efficient Layer Aggregation Networks(R-ELAN):YOLO12は、R-ELANを使用してレイヤーをより効率的に編成し、モデルがデータを処理および学習する方法を改善します。これにより、トレーニングがより安定し、オブジェクト認識がより鮮明になり、計算要件が低くなるため、さまざまな環境で効率的に実行できます。

これらの機能が実際にどのように機能するかを理解するために、ショッピングモールを考えてみよう。YOLO12は、買い物客をtrack し、鉢植えや販促看板などの店舗装飾を識別し、置き忘れや放置された商品を発見するのに役立つ。 

そのアテンション機構を中心としたアーキテクチャは、最も重要な詳細に焦点を当てるのに役立ち、FlashAttentionはシステムに過負荷をかけることなく、すべてを迅速に処理することを保証します。これにより、ショッピングモールの運営者は、セキュリティの向上、店舗レイアウトの整理、ショッピング体験全体の向上を容易に行うことができます。

__wf_reserved_inherit
図2. YOLO12を使用してショッピングモール内のオブジェクトを検出。

ただし、YOLO12には考慮すべきいくつかの制限事項もあります。

  • トレーニング時間が遅い:YOLO12はそのアーキテクチャーにより、YOLO11比べ、より多くのトレーニング時間を必要とする。
  • エクスポートの課題:一部のユーザーは、YOLO12モデルのエクスポート時、特に特定のデプロイメント環境に統合する際に問題に遭遇する可能性があります。

YOLO12のパフォーマンスベンチマークの理解

YOLO12には複数のバリアントがあり、それぞれ異なるニーズに合わせて最適化されています。小型バージョン(nanoおよびsmall)は、速度と効率を優先しており、モバイルデバイスやエッジコンピューティングに最適です。ミディアムおよびラージバージョンは、速度と精度のバランスを取りますが、YOLO12x(extra large)は、産業オートメーション、医療イメージング、高度な監視システムなどの高精度アプリケーション向けに設計されています。

これらのバリエーションにより、YOLO12はモデル・サイズに応じて異なるレベルのパフォーマンスを提供する。ベンチマークテストによると、YOLO12の特定のバリエーションは、YOLOv10 YOLO11 精度で上回り、より高い平均平均精度mAP)を達成している。 

しかし、YOLO12m、YOLO12l、YOLO12xのように、YOLO11画像処理が遅いモデルもあり、検出精度と速度のトレードオフが見られる。にもかかわらず、YOLO12は依然として効率的であり、他の多くのモデルよりも少ないパラメータしか必要としないが、それでもYOLO11多くのパラメータを使用する。このため、生のスピードよりも精度が重視される用途に最適です。

__wf_reserved_inherit
図3. Ultralytics YOLO11 YOLO12の比較。

YOLO12をUltralytics Python パッケージで使う

YOLO12は、Ultralytics Python パッケージによってサポートされており、使いやすく、初心者にも専門家にも利用しやすい。わずか数行のコードで、ユーザーは事前に訓練されたモデルをロードし、画像や動画に対して様々なコンピュータビジョンタスクを実行し、カスタムデータセットでYOLO12を訓練することができます。Ultralytics Python パッケージは、プロセスを合理化し、複雑なセットアップ手順を不要にします。

例えば、YOLO12を物体検出に使用するための手順は次のとおりです。

  • Ultralytics パッケージをインストールする:最初に、YOLO12を効率的に実行するために必要なツールを提供するUltralytics Python パッケージをインストールする。これにより、すべての依存関係が正しくセットアップされる。
  • 事前学習済みのYOLO12モデルをロードする:タスクに必要な精度と速度に基づいて、適切なYOLO12バリアント(nano、small、medium、large、またはextra large)を選択します。
  • 画像またはビデオを提供する: 解析したい画像またはビデオファイルを入力します。YOLO12は、リアルタイム検出のためにライブビデオフィードを処理することもできます。
  • 検出プロセスの実行: モデルは視覚データをスキャンし、オブジェクトを識別し、それらの周囲にバウンディングボックスを配置します。検出された各オブジェクトに、予測されたクラスと信頼度スコアのラベルを付けます。
  • 検出設定の調整: 信頼度閾値などのパラメータを変更して、検出の精度とパフォーマンスを微調整することもできます。
  • 出力の保存または使用: 処理された画像またはビデオ(検出されたオブジェクトを含む)を保存するか、アプリケーションに統合して、さらなる分析、自動化、または意思決定に利用できます。

これらのステップにより、YOLO12は、監視や小売追跡から、医療画像処理や自動運転車まで、さまざまなアプリケーションで簡単に使用できます。

実践的なYOLOv8アプリケーション

YOLO12は、物体検出、インスタンスセグメンテーション、画像分類、姿勢推定、およびOriented Object Detection(OBB)のサポートのおかげで、さまざまな実際のアプリケーションで使用できます。 

__wf_reserved_inherit
図4. YOLO12は、物体検出やインスタンスセグメンテーションなどのタスクをサポートします。

しかし、前述したように、YOLO12モデルは速度よりも精度を優先するため、以前のバージョンと比較して画像の処理にわずかに時間がかかります。このトレードオフにより、YOLO12は、以下のようなリアルタイム速度よりも精度が重要なアプリケーションに最適です。

  • メディカルイメージング:YOLO12は、X線やMRIの腫瘍や異常を高精度でdetect するためのカスタム・トレーニングが可能で、診断のために精密な画像解析を必要とする医師や放射線科医にとって有用なツールとなっている。
    ‍。
  • 製造業における品質管理: 製品の欠陥を製造プロセス中に特定し、高品質のアイテムのみが市場に出回るようにすると同時に、無駄を削減し、効率を向上させるのに役立ちます。
  • フォレンジック分析: 法執行機関は、YOLO12をファインチューニングして、監視映像を分析し、証拠を収集できます。犯罪捜査では、重要な詳細を特定するために精度が不可欠です。
  • 精密農業:農家はYOLO12を使って、作物の健康状態を分析し、病気や害虫の発生をdetect し、土壌の状態をモニターすることができる。正確な評価は農業戦略の最適化に役立ち、より良い収穫と資源管理につながります。

YOLO12を使ってみる

YOLO12を実行する前に、システムが必要な要件を満たしていることを確認することが重要です。

技術的には、YOLO12はどんな専用GPU (Graphics Processing Unit)でも動作します。デフォルトでは、FlashAttentionを必要としないため、FlashAttentionなしでもほとんどのGPU システムで動作します。しかし、FlashAttentionを有効にすることは、大きなデータセットや高解像度の画像を扱う場合に特に有効で、処理速度の低下を防ぎ、メモリ使用量を減らし、処理効率を向上させるのに役立ちます。 

FlashAttentionを使用するには、以下のシリーズのNVIDIA GPU 必要です:Turing(T4、Quadro RTX)、Ampere(RTX 30シリーズ、A30、A40、A100)、Ada Lovelace(RTX 40シリーズ)、またはHopper(H100、H200)。

ユーザビリティとアクセシビリティを考慮し、Ultralytics Python パッケージはまだFlashAttention推論をサポートしていません。YOLO12を使い始め、そのパフォーマンスを最適化するための詳細については、 Ultralytics 公式ドキュメントをご覧ください。

主なポイント

コンピュータビジョンの進歩に伴い、モデルはより正確かつ効率的になっています。YOLO12は、注意集中型処理とFlashAttentionにより、物体検出、インスタンスセグメンテーション、画像分類などのコンピュータビジョンタスクを改善し、メモリ使用量を最適化しながら精度を高めます。

同時に、コンピュータ・ビジョンはこれまで以上に身近なものとなりました。YOLO12は、Ultralytics Python パッケージを通じて簡単に使用でき、スピードよりも精度に重点を置いているため、医療用画像処理、工業用検査、ロボット工学など、精度が重要なアプリケーションに適しています。

AIにご興味がありますか?GitHubリポジトリにアクセスして、コミュニティにご参加ください。ソリューションページで、自動運転車におけるAI農業におけるコンピュータビジョンなどの分野のイノベーションをご覧ください。ライセンスオプションをチェックして、Vision AIプロジェクトを実現しましょう。🚀

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる