Yolo 深圳
深セン
今すぐ参加

Ultralytics :エッジファースト型ビジョンAIの新たな基準

Ultralytics 、エンドツーエンドNMS推論、高速化されたCPU 、簡素化された本番環境デプロイメントにより、エッジファーストのビジョンAIにおける新たな基準を確立する方法を学びましょう。

本日、Ultralytics これまでで最も先進的かつYOLO 「YOLO26」Ultralytics リリースします。YOLO 2025(YV25)で初発表されたYOLO26は、コンピュータビジョンモデルの訓練方法、実運用システムへの導入方法、スケーリング手法において根本的な変革をもたらします。 

ビジョンAIは急速にエッジへ移行している。画像や動画は、クラウドの純粋な計算能力よりも遅延、信頼性、コストが重視されるデバイス、カメラ、ロボット、組み込みシステム上で直接処理されるケースが増えている。YOLO26はこの現実に対応し、CPU、エッジアクセラレータ、低消費電力ハードウェア上で効率的に動作しながら、世界トップクラスの性能を実現する。

YOLO26は大きな飛躍を遂げつつも、おなじみの洗練された Ultralytics YOLO 体験を維持しています。既存のワークフローにシームレスに統合され、幅広いビジョンタスクをサポートし、使いやすさを保っているため、研究チームと生産チームの両方にとって導入が容易です。

Ultralytics による物体検出
図1.Ultralytics YOLO26の使用例

本記事では、Ultralytics 知っておくべきすべてを解説し、軽量化・小型化・高速化YOLO ビジョンAIの未来にどのような意味を持つのかを明らかにします。さっそく始めましょう!

Ultralytics 、ビジョンAIの新たな基準を打ち立てた

Ultralytics 、インパクトのあるビジョンAI機能を誰もが簡単に利用できるようにするという理念に基づいて構築されています。強力なコンピュータビジョンツールは、特定の組織に限定されたり、利用が制限されたりすべきではないと私たちは考えています。

ロンドンで開催されたYV25において、当社の創業者兼CEOであるグレン・ジョッカーはこのビジョンについて次のように語りました。「最も驚くべきAI技術は閉ざされた扉の向こう側に存在します。それは公開されていません。大企業が新たな開発を支配し、他の誰もがアクセスを待つ列に並ばねばならないのです。Ultralyticsビジョンを持っています。私たちはAIを誰もが手にできるものにしたいのです」

彼はまた、これはAIをクラウドから現実世界の環境へ移行させることを意味すると説明し、次のように付け加えた。「この技術をクラウドに留まらせるだけでなく、エッジデバイスやスマートフォン、自動車、低消費電力システムへと展開させたい。そして、ソリューションを創り出す素晴らしい人材が、その技術にアクセスできるようにしたい」

YOLO26はこのビジョンを実践で体現している:視覚AIが実際に導入される環境で動作するよう設計されたモデルであり、プロトタイプ作成が最も容易な環境向けではない。

Ultralytics の分解:最先端のビジョンモデル

Ultralytics YOLO と同様に、YOLO26は単一の統合モデルファミリー内で複数のコンピュータビジョンタスクをサポートします。Nano (n)、Small (s)、Medium (m)、Large (l)、Extra Large (x) の5つのサイズが用意されており、チームはデプロイメントの制約に応じて速度、精度、モデルサイズのバランスを調整できます。

柔軟性を超え、YOLO26は性能の基準を引き上げます。 YOLO11と比較して、YOLO26 nanoモデルはCPU 最大43%高速化し、エッジおよびCPU展開向けに利用可能な高精度物体検出モデルの中で最速クラスの性能を実現しています。

Ultralytics YOLO26
図2.Ultralytics 最先端のビジョンモデルである。

YOLO26がサポートするコンピュータビジョンタスクの詳細は以下の通りです:

  • 画像分類:YOLO26は 画像全体を分析し、特定のカテゴリに割り当てることができ、システムがシーンの全体的な文脈を理解するのに役立ちます。
  • 物体検出:モデルは 画像や動画内の複数の物体を検出し、位置を特定できます。
  • インスタンスセグメンテーション:YOLO26は 個々のオブジェクトをピクセルレベルの詳細で輪郭描画できる。
  • 姿勢推定: 人物やその他の物体のキーポイントの特定や姿勢の推定に使用できます
  • 方向性バウンディングボックス(OBB)検出:YOLO26は 異なる角度detect でき、航空写真や衛星画像において特に有用である。
  • 物体追跡: Ultralytics Python 組み合わせることで 、YOLO26は動画フレームやライブストリーム全体にわたって物体を追跡するために使用できます。

すべてのタスクは、一貫したフレームワーク内でトレーニング、検証、推論、およびエクスポートをサポートします。

Ultralytics YOLO26を支える主要な革新技術

Ultralytics 、推論速度、トレーニングの安定性、デプロイの簡便性を向上させる複数のコアとなる革新を導入しています。これらの革新の概要は以下の通りです:

  • 分布焦点損失(DFL)の除去: バウンディングボックス予測の簡素化、ハードウェア互換性の向上、およびエッジデバイスや低電力デバイスでのモデルのエクスポートと実行を容易にするため、DFLモジュールが 除去されました。
  • エンドツーエンドNMS論:YOLO26は ネイティブなエンドツーエンドモデルとして設計されており、最終予測を直接出力するため、非最大抑制(NMS)が不要となり、推論遅延と展開の複雑さが軽減されます。
  • 漸進的損失バランス調整+STAL:これらの 改良された損失戦略は、特に小さくdetect において、学習を安定化させ検出精度を向上させます。
  • MuSGDオプティマイザー: YOLO26は 、より安定した学習を実現するため、SGD ミューオンに着想を得た最適化技術を融合した新しいハイブリッドオプティマイザーを採用しています。
  • 最大43%高速CPU : エッジコンピューティング向けに特別に 最適化されたYOLO26は、最大43%高速CPU を実現し、エッジデバイスでのリアルタイム性能を可能にします。

次に、YOLO26をより高速で効率的、かつ導入しやすいものにする次世代機能について、詳細に解説していきます。

分布焦点損失の除去による予測の簡素化

初期YOLO 、バウンディングボックスの精度向上を目的として、トレーニング中に分布焦点損失(DFL)を採用していた。DFLは効果的であったものの、複雑性を増大させ、固定された回帰制限を課すことで、特にエッジや低電力ハードウェア上でのエクスポートやデプロイをより困難にしていた。

YOLO26はDFLを完全に除去します。DFLの除去により、以前のモデルに存在した固定バウンディングボックス回帰制限が解消され、非常に大きな物体の検出における信頼性と精度が向上します。

バウンディングボックス予測プロセスを簡素化することで、YOLO26はエクスポートが容易になり、幅広いエッジデバイスや低消費電力デバイスでより信頼性の高い動作を実現します。

Ultralytics YOLO26によるエンドツーエンドのNMS

従来の物体検出パイプラインは、重複する予測をフィルタリングする後処理ステップとして非最大抑制(NMS)に依存している。NMS 効果的ではあるが、特に複数のランタイムやハードウェアターゲットにモデルを展開する場合、遅延、複雑性、脆弱性をNMS 。

YOLO26はネイティブなエンドツーエンド推論モードを導入し、モデルが直接最終予測を出力するため、NMS 別途の後処理ステップNMS 必要としません。重複予測はネットワーク内部で処理されます。

NMS 排除することでレイテンシがNMS 、デプロイメントパイプラインが簡素化され、統合エラーのリスクが低下するため、YOLO26は特にリアルタイムおよびエッジデプロイメントに最適です。

漸進的損失バランス+STALによる認識能力の向上

トレーニングに関連する重要な機能として、Progressive Loss Balancing(ProgLoss)とSmall-Target-Aware Label Assignment(STAL)の導入が挙げられる。これらの改良された損失関数は、トレーニングの安定化と検出精度の向上に寄与する。

ProgLossは、トレーニング中にモデルがより一貫して学習することを助け、不安定性を減らし、よりスムーズに収束できるようにします。一方、STALは、視覚的な詳細detect 困難なことが多い小さな物体からモデルが学習する方法を改善することに焦点を当てています。

ProgLossとSTALを組み合わせることで、より信頼性の高い検出が可能となり、特に小型物体の認識精度が顕著に向上します。これは、物体が小さく、遠くにある、あるいは部分的にしか見えないことが多いIoT(モノのインターネット)、ロボティクス、航空画像などのエッジアプリケーションにおいて特に重要です。

MuSGDオプティマイザによるより安定したトレーニング 

YOLO26では、トレーニングの安定性と効率性を高めるために設計されたMuSGDという新しいオプティマイザを採用しました。MuSGDは、従来の確率的勾配降下法(SGD)の強みと、大規模言語モデル(LLM)のトレーニングで使用されるオプティマイザであるMuonに着想を得た技術を組み合わせたハイブリッド手法です。

SGD 、その簡潔さと強力な汎化性能により、長年にわたりコンピュータビジョン分野で信頼性の高いSGD 。一方で、LLMトレーニングにおける近年の進展は、新しい最適化手法を慎重に適用することで安定性と速度を向上させられることを示している。MuSGDは、こうした知見の一部をコンピュータビジョン領域に導入するものである。

Moonshot AIのKimi K2に着想を得たMuSGDは、トレーニング中のモデルの収束をより円滑にする最適化戦略を組み込んでいます。これにより、特に大規模または複雑なトレーニング環境において、YOLO26がトレーニングの不安定性を低減しつつ、より迅速に高い性能を達成することが可能となります。

MuSGDは、YOLO26がモデルサイズを問わずより予測可能な形で学習することを支援し、性能向上と学習の安定性の両方に寄与する。

Ultralytics 最大CPU を実現

ビジョンAIがデータ生成源に近づくにつれ、強力なエッジ性能がますます重要になっている。エッジコンピューティング向けに特別に最適化されたYOLO26は、CPU 最大43%高速化し、GPU非搭載デバイスでもリアルタイム性能を保証する。この改善により、応答性が高く信頼性の高いビジョンシステムを、カメラやロボット、組み込みハードウェア上で直接実行可能となる。これらの環境では、レイテンシ、効率性、コスト制約が実現可能性を決定づける。

Ultralytics によってサポートされる改良されたコンピュータビジョンタスク

物体検出の精度を高めるアーキテクチャ改良に加え、YOLO26はコンピュータービジョンタスク全般の性能向上を目的としたタスク特化型最適化も備えています。例えば、インスタンスセグメンテーション、姿勢推定、方向付きバウンディングボックス検出において、精度と信頼性を向上させる対象を絞った更新により性能を強化しています。

これらの最適化の概要は以下の通りです:

  • インスタンスセグメンテーション:YOLO26は セマンティックセグメンテーション損失を用いることで、トレーニング中のモデルの学習方法を改善し、より正確で一貫性のあるインスタンスマスクを実現します。改良されたプロトモジュールにより、複数のスケールからの情報を活用できるようになり、複雑なシーンにおいても異なるサイズのオブジェクトをより効果的に処理します。
  • 姿勢推定: キーポイント予測の不確実性をモデル化する手法である残差対数尤度推定(RLE)を統合し 、デコードプロセスを改善することで 、YOLO26はより正確なキーポイントと優れたリアルタイム性能を実現する。
  • 方向性バウンディングボックス検出:YOLO26は 、特に方向性が曖昧になりがちな正方形オブジェクトにおいて、モデルの物体回転学習精度を向上させる専用角度損失を導入した。最適化されたOBBデコードにより、回転境界付近での角度予測の急激な変動も低減され、より安定かつ一貫性のある方向性推定を実現している。
Ultralytics を用いたインスタンスセグメンテーション。
図3. インスタンスセグメンテーションUltralytics の使用。

Ultralytics : YOLO26を基盤としたオープンボキャブラリセグメンテーション

Ultralytics また、YOLO26のアーキテクチャとトレーニング技術革新を基盤とした、新たなオープンボキャブラリーセグメンテーションモデル群「YOLOE-26」Ultralytics 発表Ultralytics

YOLOE-26は新たなタスクや機能ではなく、既存のセグメンテーションタスクを再利用しつつ、テキストプロンプト、ビジュアルプロンプト、プロンプト不要の推論を可能にする特化型モデルファミリーです。全ての標準YOLO で利用可能なYOLOE-26は、従来のオープンボキャブラリーセグメンテーションモデルよりも高い精度と、より信頼性の高い実世界での性能を発揮します。

Ultralytics 、ビジョンAIが実際に稼働する環境向けに設計されています

ビジョン駆動型カメラから、コンピュータービジョンとエッジの小型プロセッシングチップで駆動されるロボットまで、コンピュータービジョンとAIはリアルタイム推論のためにデバイス上で直接展開されています。Ultralytics 、低遅延、効率性、信頼性の高いパフォーマンスが不可欠なこうした環境向けに特別に設計されています。

実際の運用では、YOLO26は幅広いハードウェアに容易に展開可能です。具体的には、Ultralytics Python 多様な統合機能を通じて、モデルを様々なプラットフォームやハードウェアアクセラレータ向けに最適化された形式でエクスポートできます。

例えば、TensorRT エクスポートによりNVIDIA での高性能推論TensorRT 、CoreML Appleデバイスへのネイティブ展開CoreML 、OpenVINO Intel でのパフォーマンスをOpenVINO 。YOLO26は複数の専用エッジアクセラレータ向けにエクスポート可能であり、専用エッジAIハードウェア上で高スループットかつ省電力な推論を実現します。 

これらはほんの一例であり、エッジ環境と本番環境の両方でさらに多くの統合がサポートされています。この柔軟性により、単一のYOLO26モデルが多様なデプロイ先で動作可能となります。これにより本番ワークフローが効率化され、ビジョンAIがエッジに近づきます。

産業横断的なコンピュータービジョンの活用事例の再定義

実環境での展開を想定して設計されたYOLO26は、様々な業界における幅広いコンピュータビジョンのユースケースで使用可能です。適用例を以下に示します:

  • ロボティクス: YOLO26は、ナビゲーション、障害物検知、物体との相互作用などのタスクに使用できます。これらの機能は、動的な環境における安全かつ効果的なロボット操作を支えます。
  • 製造生産ラインにおいて、YOLO26は画像や動画を分析し、欠陥、部品の欠落、または工程上の問題を特定できます。デバイス上でデータを処理することで、検出を高速に保ち、クラウドシステムへの依存を減らします。
  • 航空およびドローン応用:ドローンに搭載されたYOLO26は、飛行中の航空画像を検査、マッピング、測量のために処理できます。これにより、遠隔地であってもリアルタイムでのシーン分析が可能となります。
  • 組み込みおよびIoTシステム:軽量設計により、YOLO26は低電力の組み込みハードウェア上で動作し、視覚データをローカルで処理できます。代表的なユースケースには、スマートカメラ、接続型センサー、自動監視デバイスなどが含まれます。

スマートシティ:都市環境全体において、YOLO26は交通監視カメラや公共空間カメラからの動画ストリームを分析できます。これにより、エッジ環境での交通監視、公共安全、インフラ管理といったアプリケーションが可能となります。

YOLO26は様々なコンピュータビジョンアプリケーションに使用できます。
図4. YOLO26は様々なコンピュータビジョンアプリケーションに使用できる。

Ultralytics の始め方

Ultralytics 、ビジョンAIの構築およびデプロイ方法に応じて、2つの補完的なワークフローを通じて利用できます。

オプション1: Ultralytics 経由Ultralytics を使用する (推奨)

Ultralytics 、YOLO26モデルのトレーニング、デプロイ、監視を集中管理する手段を提供します。データセット、実験、デプロイを単一環境に統合することで、特にエッジ環境や本番環境へデプロイするチームにとって、大規模なビジョンAIワークフローの管理を容易にします。

プラットフォームを通じて、ユーザーは以下のことができます:

  • YOLO26モデルにアクセスする
  • カスタムデータセットで学習と微調整を行う
  • エッジおよび本番環境展開用のモデルをエクスポートする
  • 単一のワークフローで実験と展開済みモデルを監視する

👉Ultralytics 探索:platform.ultralytics.ultralytics

オプション2: オープンソースワークフロー経由Ultralytics を使用する

YOLO26Ultralyticsオープンソースエコシステムを通じて完全にアクセス可能であり、トレーニング、推論、エクスポートのための既存のPythonワークフローで使用できます。

Ultralytics インストールし、事前学習済みYOLO26モデルを読み込み、ONNX、TensorRT、CoreML、OpenVINO慣れ親しんだツールやフォーマットを使用してデプロイできます。

pip install ultralytics
from ultralytics import YOLO

# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

手動制御やカスタムパイプラインを好むユーザー向けに、Ultralytics で完全なドキュメントとガイドが利用可能です。

Ultralytics :コンピュータービジョンの次なる進化に向けて構築

Ultralytics 、明日のビジョンAIソリューションのニーズに応えるべく設計されています。そこではモデルは高速で効率的であり、実ハードウェアへの展開が容易でなければなりません。性能の向上、展開の簡素化、モデルの機能拡張により、YOLO26は幅広い実世界アプリケーションに自然に適合します。YOLO26は、ビジョンAIの構築、展開、スケーリングの方法における新たな基準を確立します。 コミュニティがこの技術を活用し、実世界のコンピュータビジョンシステムをどのように実現していくか、我々は期待に胸を膨らませています。

成長中のコミュニティに参加して、GitHubリポジトリで実践的なAIリソースを探索してください。今すぐVision AIを使って構築するには、ライセンスオプションをご覧ください。農業におけるAIがどのように農業を変革しているか、ロボット工学におけるVision AIがどのように未来を形成しているかについては、ソリューションのページをご覧ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる