YOLO Vision Shenzhen
深セン
今すぐ参加

Ultralytics vsYOLO11 YOLOv8:どれを使うべきか?

Ultralytics 、Ultralytics YOLO11 Ultralytics YOLOv8 比較検討しYOLOv8 ご自身のプロジェクトに最適なコンピュータビジョンモデルを見つけましょう。

Ultralyticsでコンピュータービジョンプロジェクトをスケールアップ

始める

多くの場合、畳み込みニューラルネットワーク(CNN)を基盤とする最先端のコンピュータビジョンシステムは、機械が画像や動画からの視覚データを分析・解釈することを可能にし、現在では幅広い分野で導入が進められている。 

農業から製造業、小売業に至るまで、これらのシステムは、エッジデバイス、組み込みハードウェア、IoT(モノのインターネット)デバイス、デバイス上での処理、そしてリアルタイムアプリケーションをサポートする大規模なクラウドパイプラインなど、幅広い導入環境で稼働しています。

実際の運用においては、こうしたモデルの導入は必ずしも容易ではありません。多くの場合、限られた計算リソースで動作させ、厳しいレイテンシ要件を満たし、かつコストを大幅に増やすことなくスケールさせる必要があります。こうした制約により、パフォーマンスは単なる精度の問題ではなく、多面的な課題となります。

精度は依然として重要ですが、本番環境でモデルが効率的に動作することも同様に重要です。速度、リソース使用量、スケーラビリティといった要素は、システムが長期的にどれほど良好に機能するかに大きな影響を及ぼします。

Ultralytics YOLO のようなコンピュータビジョンモデルは、このバランスを考慮して進化してきました。例えば、 Ultralytics YOLOv8 は強力かつ汎用性の高い基盤を確立し、 Ultralytics YOLO11 は速度と精度を向上させ、さらに一歩前進させました。そしてUltralytics 、これに基づいて、これまで以上に軽量で高速、かつ効率的になっています。

図1.Ultralytics を使用した画像内のdetect (出典

この記事では、Ultralytics 、YOLO11 YOLOv8 比較しYOLOv8 コンピュータビジョンプロジェクトに最適なモデル選びYOLOv8 します。さっそく始めましょう!

Ultralytics YOLO どのように進化してきたかを理解する

Ultralytics YOLO 、各バージョンアップごとに改良が加えられ、実世界の要件により適切に対応し、コンピュータビジョンの利用をより身近なものにしてきました。これらの更新により、モデルはより高速かつ効率的になり、導入も容易になったことで、ビジョンAIエコシステムの成長を支えています。 

また、これらはPyTorch基盤としているため、トレーニングやカスタマイズが容易で、インテリジェントな機械学習ワークフローへの統合もスムーズに行えます。Ultralytics YOLO 、COCO などのデータセットを用いて事前学習されたモデルとしてすぐに利用可能であり、チームは迅速に開発を開始し、特定のユースケースに合わせて微調整を行うことができます。

さらに、Ultralytics Python 、ONNX TensorRT ONNX 形式へのモデルエクスポートを標準でサポートしているため、デプロイが容易になります。これにより、エッジデバイスからGPUに至るまで、さまざまなハードウェアプラットフォーム間でモデルを統合することが容易になります。

Ultralytics YOLOv5 からUltralytics YOLOv5 移行

最初のUltralytics YOLO 、 Ultralytics YOLOv5は、その信頼性の高い物体検出機能により広く普及しました。1段階検出アプローチに基づいて構築されており、1回のパスで高速かつリアルタイムな予測を可能にしたため、本番環境のワークフローに最適でした。 

その後のアップデートでは、アンカーボックスを使用せずにモデルが直接物体の位置を予測する「アンカーフリー」方式が導入され、検出の柔軟性が高まりました。しかし、元のモデルは依然として主に物体検出タスクに重点を置いていました。

この基盤を土台として、YOLOv8 モデルファミリーの適用範囲をYOLOv8 。物体検出のみに焦点を当てるのではなく、インスタンスセグメンテーション、画像分類、姿勢推定、オリエンテッド・バウンディングボックス(OBB)検出など、複数のコンピュータビジョンタスクへの対応を追加しました。また、高度なバックボーンおよびネック設計を含むアーキテクチャの改善も行われ、特徴抽出と検出性能全体が向上しました。 

さらに、YOLOv8n Nano)、YOLOv8s Small)、YOLOv8m Medium)、YOLOv8l Large)、YOLOv8x Extra Large)といったバリエーションが登場したことで、開発者はニーズに応じて処理速度、精度、リソース使用量のバランスを柔軟に調整できるようになりました。 こうした幅広い機能と使いやすさが相まって、本モデルは多種多様なビジョンアプリケーションにおいて、定番の選択肢となりました。

図2.YOLOv8、YOLO11、YOLO などのYOLO 、さまざまな視覚認識タスクに対応している。

その後、YOLO11 実環境でのワークフローにおけるパフォーマンスの向上にYOLO11 、より高い精度と高速な推論速度を実現しました。軽量化されたアーキテクチャにより、エッジ環境とクラウド環境の両方で良好に動作するほか、既存のYOLOv8 互換性も確保されています。

Ultralytics YOLO に新たに加わった「YOLO26」は、エッジファースト型ビジョンAIの新たな基準を打ち立てる最先端モデルであり、実環境での導入において、より軽量かつ高速で効率的なアプローチを実現します。CPUや組み込みシステム上で効率的に動作するように設計されており、幅広いアプリケーションにおいて導入を簡素化し、リアルタイム性能を向上させます。

YOLO26、YOLO11 YOLOv8 YOLO11 比較

コンピュータビジョンプロジェクトに取り組む際、さまざまなUltralytics に出くわし、どれが自分のプロジェクトに適しているのか迷うことがあるかもしれません。ここでは、YOLO26、YOLO11 YOLOv8 実際のシナリオにおいてどのようにYOLOv8 を見ていきましょう。

YOLOv8 2023年にYOLOv8 、それ以来、コンピュータビジョンコミュニティで広く利用されています。強力なコミュニティサポートと使いやすさから、これまで多くのチームにとって定番のモデルとなってきました。充実したドキュメントに加え、幅広いチュートリアル、ガイド、コミュニティリソースが揃っているモデルをお探しなら、YOLOv8 最適な出発点YOLOv8 。

2024年、YOLO11 、性能と効率の両面で改善がYOLO11 。YOLOv8速度と精度が向上している一方で、よりコンパクトで最適化されたアーキテクチャを維持しています。リソース使用量を大幅に増加させることなく、本番環境でも安定した性能を発揮する、よりバランスの取れたモデルです。 

今年、YOLO26が最新バージョンとしてリリースされ、大規模な環境での効率的な導入に重点が置かれています。これにより、CPU 高速化とリソース利用率の向上が実現され、チームは同じハードウェア上でより多くのワークロードを実行できるようになります。 

例えば、YOLO26 nanoモデルは、中央処理装置(CPU)YOLO11 最大43%高速な推論を実現できるため、エッジ環境やリソースが限られた環境において最適な選択肢となります。従来のシステムは、コストが高くスケーリングも困難なグラフィックス処理装置(GPU)に大きく依存していることが多いため、この点は特に重要です。 

図3. CPU上でのYOLO26の性能比較(出典

総じて、YOLO26は、性能、コスト、スケーラビリティのバランスを最適化したいと考えているチームや個人にとって、確かな選択肢と言えます。

Ultralytics を詳しく見てみよう

YOLO26は、実環境での導入を想定して設計された最先端のモデルであり、精度と同様に効率性、速度、スケーラビリティも重視されています。ベンチマーク性能の向上だけに注力するのではなく、アーキテクチャやトレーニング手法に改良を加えることで、モデルの実行が容易になり、導入が迅速化され、さまざまなハードウェア環境においてより高い信頼性が確保されています。

こうした改善点は、限られた演算リソース、レイテンシの制約、コスト面での配慮が重要な要素となるエッジシステムや生産システムにおいて、特に重要です。推論処理を簡素化し、パフォーマンスを最適化したYOLO26により、AI愛好家はビジョンアプリケーションをより効率的に構築・拡張できるようになります。

YOLO26の主な機能を詳しくご紹介します:

  • NMS:重要な変更点の一つは、Non-Maximum Suppression(NMS)を排除した設計であり、これにより後処理が不要になります。簡単に言えば、モデルが直接最終的な予測結果を生成します。その結果、レイテンシがより予測しやすくなり、導入も容易になります。
  • DFLの廃止:YOLO26は、分布焦点損失(DFL)モジュールから離れ、よりシンプルなバウンディングボックス予測アプローチを採用しています。この変更は、エンドツーエンドNMS設計方針に沿ったものであり、パイプラインの複雑さを軽減し、デプロイの一貫性を向上させます。
  • MuSGDオプティマイザー: Ultralytics YOLO 、確率的勾配降下法(SGD)とミューオンに着想を得た更新法を組み合わせたハイブリッドオプティマイザー「MuSGD」が導入されています。これにより、学習の安定性と収束性が向上し、最適化がよりスムーズに行われるほか、異なるモデルサイズ間でも一貫した挙動が得られるようになります。
  • ‍ProgLossとSTAL:これらの革新的な学習手法である「Progressive Loss Balancing(ProgLoss)」と「Small-Target-Aware Label Assignment(STAL)」は、モデルの安定性と信頼性を高めます。ProgLossは、モデルが時間をかけて段階的にデータセットから学習することを支援し、STALは学習中に小さな物体が無視されないようにすることで、複雑なシーンにおける検出精度を向上させます。

精度と効率:ベンチマークを超えて、実環境でのパフォーマンスへ

YOLO26、YOLO11、YOLOv8 の違いをYOLOv8 理解するために、実運用におけるモデルの性能を左右する要因について、より深く掘り下げてみましょう。

精度(平均精度(mAP)などの性能指標で測定されることが多い)は、長年にわたりコンピュータビジョンモデルを評価する重要な指標となってきた。これは、標準化された条件下でモデルがどの程度良好に機能するかを示し、異なるバージョンを比較する際に有用である。

しかし、モデルがテスト段階から実運用に移行すると、精度だけでは不十分です。実運用時のパフォーマンスは、モデルのサイズ、推論時間やレイテンシ、リソース使用量、そしてシステムがさまざまな環境でどれだけうまくスケールできるかといった要因に左右されます。

制御されたベンチマークとは異なり、実環境では予測不可能な状況がしばしば生じます。照明条件が変化したり、物体が部分的にしか見えなかったり、入力データがモデルの学習データと大きく異なったりすることがあります。こうした変動は、実運用におけるモデルのパフォーマンスの安定性に影響を及ぼす可能性があります。

図4. 建設現場のような予測不可能な環境においてYOLO26が使用されている例。 

例えば、スマートシティや小売店、倉庫などに数百台のカメラが設置されている環境を考えてみましょう。各ストリームはリアルタイムで処理される必要があり、遅延やフレームの欠落を防ぐためには、多くの場合、安定したフレームレート(1秒あたりのフレーム数、FPS)が求められます。 

効率の低いモデルでは、特定のシステム上で処理できる同時ストリームの数が少なくなります。つまり、スケーリングを行うには通常、追加のハードウェアが必要となり、インフラコストが増加することになります。

YOLO26のようなより効率的なモデルは、同じハードウェア上でより多くのストリームを処理できるため、利用可能なリソースをより有効に活用できます。これにより、システム全体の効率が向上し、将来にわたって展開規模を拡大しやすくなります。

YOLO26、YOLO11 YOLOv8の違いについてさらに詳しく知りたい場合は、 Ultralytics 公式Ultralytics をご覧ください。

主なポイント 

Ultralytics YOLO は、実環境での導入ニーズにより適切に対応できるよう進化を遂げてきました。各バージョンは前バージョンを基盤とし、効率性、拡張性、導入の容易さにますます重点を置いています。つまり、大規模な環境でも確実に動作するリアルタイム検出アプリケーションを構築する場合、Ultralytics 最適な選択肢となります。

業務にビジョンAIの導入をお考えですか?当社のライセンスプランをご覧ください。また、ソリューションページでは、製造業におけるAIが工場をどのように変革しているか、ロボット工学におけるビジョンAIが未来をどのように形作っているかをご覧いただけます。拡大を続けるコミュニティに参加し、GitHubリポジトリでAI関連のリソースをぜひご活用ください。 

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。