YOLOビジョン2025にご期待ください!
2025年9月25日
10:00 - 18:00
ハイブリッド・イベント
ヨロ・ビジョン2024

UltralyticsのYOLO26:より良く、より速く、より小さなYOLOモデル

アビラミ・ヴィナ

5分で読める

2025年9月25日

Ultralytics YOLOの最新モデル、Ultralytics YOLO26と、スピード、精度、展開性の最適なバランスをサポートする最先端の機能をご覧ください。

9月25日、ロンドンで開催された年次ハイブリッドイベント、YOLO Vision 2025 (YV25)で、弊社の創設者兼CEOであるグレン・ジョーチャーは、Ultralytics YOLOモデルシリーズの最新のブレークスルー、Ultralytics YOLO26を正式に発表しました!私たちの新しいコンピュータビジョンモデル、YOLO26は、スピード、正確さ、展開のしやすさのバランスが取れた合理的なアーキテクチャで、画像やビデオを分析し、解釈することができます。 

Ultralytics YOLO26は、モデルの設計を簡素化し、新たな機能拡張を加える一方で、ユーザーがUltralytics YOLOモデルに期待するお馴染みの機能も引き続き提供します。例えば、Ultralytics YOLO26は使いやすく、様々なコンピュータビジョンタスクをサポートし、柔軟な統合と展開オプションを提供します。 

言うまでもなく、Ultralytics YOLO26の使用への切り替えは手間がかからず、10月末に一般公開される際には、ユーザーが実際に体験するのを見るのが待ち遠しい。 

図1.YOLO26を使って画像内の物体を検出した例。

簡単に言えば、Ultralytics YOLO26は、より良く、より速く、より小さなVision AIモデルです。この記事では、Ultralytics YOLO26の主な特徴と、それがもたらすものを探っていこう。始めよう! 

ウルトラリティクスでビジョンAIの限界に挑む YOLO26

Ultralytics YOLO26の主な機能とそれが可能にするアプリケーションに飛び込む前に、一歩引いて、このモデルの開発を推進したインスピレーションと動機について説明しよう。

ウルトラリティクスは、常にイノベーションの力を信じてきました。設立当初から、私たちの使命は2つあります。一方では、誰もが障壁なくVision AIを利用できるよう、Vision AIを身近なものにしたいと考えています。もう一方では、私たちは最先端の技術を維持し、コンピューター・ビジョン・モデルが達成できることの限界を押し広げることにも同じように取り組んでいます。

このミッションの背景にある重要な要因は、AIの領域が常に進化していることだ。例えば、クラウドに依存する代わりにデバイス上で直接AIモデルを実行するエッジAIは、業界全体で急速に採用が進んでいる。

スマート・カメラから自律システムに至るまで、エッジにあるデバイスは現在、リアルタイムで情報を処理することが期待されている。このシフトは、より軽量で高速でありながら、同じレベルの精度を提供するモデルを要求している。

だからこそ、UltralyticsのYOLOモデルを常に改良し続ける必要があるのです。グレン・ジョーチャーが言うように、"最大の課題のひとつは、最高のパフォーマンスを提供しながらも、ユーザーがYOLO26を最大限に活用できるようにすることでした"。

ウルトラリティクスYOLO26の概要

YOLO26は5つの異なるモデルバリエーションがあり、どのような規模のアプリケーションにも柔軟に対応できます。
これらのモデルバリエーションはすべて、これまでのUltralytics YOLOモデルと同様に、複数のコンピュータービジョンタスクをサポートしています。つまり、どのサイズを選択しても、Ultralytics YOLO11のように、幅広い機能を提供するYOLO26に頼ることができます。

YOLO26がサポートするコンピュータ・ビジョン・タスクの概要は以下の通り:

  • 物体検出:YOLO26は、画像またはビデオフレーム内の複数のオブジェクトを識別し、位置を特定することができます。
    ‍。
  • インスタンスのセグメンテーション:YOLO26は検出の一歩先を行き、識別した各オブジェクトの周囲にピクセル単位で完璧な境界線を生成することができる。
  • 画像の分類:このモデルは画像全体を分析し、特定のカテゴリーやラベルに割り当てることができる。

  • 姿勢推定:YOLO26は、キーポイントを検出し、人間や他のオブジェクトのポーズを推定することができます。

  • 方向バウンディングボックス(OBB):このモデルは、あらゆる角度からオブジェクトを検出することができます。これは、建物、車両、農作物などのアイテムが画像フレームと整列していない可能性がある、空撮、ドローン、衛星画像に特に便利です。

  • オブジェクト・トラッキング:YOLO26は、ビデオフレームまたはリアルタイムストリーム全体でオブジェクトを追跡するために使用することができます。
図2.YOLO26を使った画像中の物体の検出。

YOLO26のアーキテクチャーを見る

YOLO26の能力をよりよく理解したところで、そのアーキテクチャーの革新のいくつかを見ていこう。

以前は推論を遅くし、バウンディングボックス回帰を制限していたDFL(Distribution Focal Loss)モジュールを削除することで、モデルの設計が合理化された。 

予測プロセスは、従来の非最大抑制(NMS)ステップを省略できるエンドツーエンド(E2E)推論オプションによって簡素化されました。この機能強化により、複雑さが軽減され、モデルがより迅速に結果を提供できるようになり、実世界のアプリケーションでの展開が容易になりました。

その他の改良点は、モデルをより賢く、より信頼できるものにします。Progressive Loss Balancing (ProgLoss)は学習を安定させ、精度を向上させるのに役立ち、Small-Target-Aware Label Assignment (STAL)はモデルがより効果的に小さな物体を検出することを保証します。さらに、新しいMuSGDオプティマイザがトレーニングの収束を改善し、全体的なパフォーマンスを向上させます。

実際、YOLO26の最小バージョンであるnanoモデルは、標準的なCPUで最大43%高速に動作するようになり、スピードと効率が重要なモバイルアプリ、スマートカメラ、その他のエッジデバイスに特に適している。

、YOLO26の特徴とユーザーが期待できることを簡単にまとめてみた:

  • DFLの除去: モデルのアーキテクチャからDistribution Focal Lossモジュールを削除した。画像内のオブジェクトのサイズに関係なく、YOLO26は、より効率的に実行しながら、調整されたバウンディングボックスを配置することができる。
  • エンドツーエンドのNMSフリー推論: YOLO26は、通常重複予測を除去するために使用されるステップであるNMS(Non-Maximum Suppression)を必要としないオプションモードを追加し、リアルタイムでの使用をよりシンプルかつ高速に展開します。
    ‍。
  • ProgLossとSTAL: これらの改良により、トレーニングがより安定し、特に複雑なシーンで小さな物体を検出する精度が大幅に向上した。
  • MuSGDオプティマイザー:YOLO26は、2つの学習オプティマイザ(MuonとSGD)の長所を組み合わせた新しいオプティマイザを使用しており、モデルの学習を高速化し、より高い精度を達成するのに役立ちます。
図3.YOLO26のベンチマーク。

Ultralytics YOLO26による配備の簡素化 

モバイルアプリ、スマートカメラ、企業システムのいずれに取り組んでいる場合でも、YOLO26の導入はシンプルで柔軟です。Ultralytics Pythonパッケージは、常に増え続けるエクスポート形式をサポートしているため、YOLO26を既存のワークフローに簡単に統合でき、ほぼすべてのプラットフォームと互換性があります。 

いくつかのエクスポートオプションには、GPUアクセラレーションを最大化するためのTensorRT、幅広い互換性のためのONNX、ネイティブiOSアプリのためのCoreML、AndroidおよびエッジデバイスのためのTFLite、およびIntelハードウェア上で最適化されたパフォーマンスのためのOpenVINOが含まれます。この柔軟性により、YOLO26を開発から生産に移行する際、余分なハードルなしに簡単に移行することができる。

配備のもう一つの重要な部分は、限られたリソースのデバイス上でモデルが効率的に実行されるようにすることである。そこで登場するのが量子化だ。簡素化されたアーキテクチャのおかげで、YOLO26はこれを非常にうまく処理します。 INT8展開(8ビット圧縮を使用してサイズを縮小し、最小限の精度損失で速度を向上させる)だけでなく、サポートされているハードウェア上でより高速な推論を行うための半精度(FP16)もサポートしている。 

最も重要なことは、YOLO26がこれらの量子化レベルにわたって一貫したパフォーマンスを提供することです。したがって、パワフルなサーバーで動作していても、コンパクトなエッジ・デバイスで動作していても、YOLO26を信頼することができます。

ロボット工学から製造業まで:YOLO26の使用例 

YOLO26は、さまざまな業界や使用例において、多種多様なコンピューター・ビジョン・アプリケーションに使用することができます。ロボット工学から製造業まで、ワークフローを改善し、より迅速で正確な意思決定を可能にすることで、大きなインパクトを与えることができます。

例えば、ロボット工学がその良い例で、YOLO26はロボットがリアルタイムで周囲の状況を解釈するのを助けることができる。これにより、ナビゲーションがよりスムーズになり、物体の取り扱いがより正確になる。また、より安全な人間との共同作業も可能になる。

もうひとつの例は製造業で、このモデルは欠陥検出に使用できる。手作業による検査よりも迅速かつ正確に、生産ラインの欠陥を自動的に特定することができる。

図4.YOLO26を使用した製造工場でのボトル検出。

一般的に、YOLO26は、より良く、より速く、より軽量であるため、軽量なエッジ・デバイスから大規模なエンタープライズ・システムまで、幅広い環境に容易に適応する。そのため、効率、精度、信頼性の向上を目指す業界にとって実用的な選択肢となる。

要点 

Ultralytics YOLO26は、より良く、より速く、より軽く、しかも使いやすく、強力なパフォーマンスを発揮するコンピュータビジョンモデルです。幅広いタスクとプラットフォームで動作し、10月末までに誰でも利用できるようになる予定です。私たちは、コミュニティがこのモデルを使って新しいソリューションを生み出し、コンピュータ・ビジョンの限界を押し広げるのを見るのが待ちきれません。

成長中のコミュニティに参加しよう!GitHubリポジトリでAIについてもっと学びましょう。当社のソリューションページを訪問して、小売業におけるコンピュータビジョンや 自動車産業におけるAIのようなイノベーションを発見してください。今すぐコンピュータビジョンを使った開発を始めるには、ライセンスオプションをご覧ください。

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう

無料で始める
クリップボードにコピーされたリンク