Ultralytics 、エンドツーエンドNMS推論、高速化されたCPU 、簡素化された本番環境デプロイメントにより、エッジファーストのビジョンAIにおける新たな基準を確立する方法を学びましょう。

Ultralytics 、エンドツーエンドNMS推論、高速化されたCPU 、簡素化された本番環境デプロイメントにより、エッジファーストのビジョンAIにおける新たな基準を確立する方法を学びましょう。

本日、Ultralytics これまでで最も先進的かつYOLO 「YOLO26」Ultralytics リリースします。YOLO 2025(YV25)で初発表されたYOLO26は、コンピュータビジョンモデルの訓練方法、実運用システムへの導入方法、スケーリング手法において根本的な変革をもたらします。
ビジョンAIは急速にエッジへ移行している。画像や動画は、クラウドの純粋な計算能力よりも遅延、信頼性、コストが重視されるデバイス、カメラ、ロボット、組み込みシステム上で直接処理されるケースが増えている。YOLO26はこの現実に対応し、CPU、エッジアクセラレータ、低消費電力ハードウェア上で効率的に動作しながら、世界トップクラスの性能を実現する。
YOLO26は大きな飛躍を遂げつつも、おなじみの洗練された Ultralytics YOLO 体験を維持しています。既存のワークフローにシームレスに統合され、幅広いビジョンタスクをサポートし、使いやすさを保っているため、研究チームと生産チームの両方にとって導入が容易です。

本記事では、Ultralytics 知っておくべきすべてを解説し、軽量化・小型化・高速化YOLO ビジョンAIの未来にどのような意味を持つのかを明らかにします。さっそく始めましょう!
Ultralytics 、インパクトのあるビジョンAI機能を誰もが簡単に利用できるようにするという理念に基づいて構築されています。強力なコンピュータビジョンツールは、特定の組織に限定されたり、利用が制限されたりすべきではないと私たちは考えています。
ロンドンで開催されたYV25において、当社の創業者兼CEOであるグレン・ジョッカーはこのビジョンについて次のように語りました。「最も驚くべきAI技術は閉ざされた扉の向こう側に存在します。それは公開されていません。大企業が新たな開発を支配し、他の誰もがアクセスを待つ列に並ばねばならないのです。Ultralyticsビジョンを持っています。私たちはAIを誰もが手にできるものにしたいのです」
彼はまた、これはAIをクラウドから現実世界の環境へ移行させることを意味すると説明し、次のように付け加えた。「この技術をクラウドに留まらせるだけでなく、エッジデバイスやスマートフォン、自動車、低消費電力システムへと展開させたい。そして、ソリューションを創り出す素晴らしい人材が、その技術にアクセスできるようにしたい」
YOLO26はこのビジョンを実践で体現している:視覚AIが実際に導入される環境で動作するよう設計されたモデルであり、プロトタイプ作成が最も容易な環境向けではない。
Ultralytics YOLO と同様に、YOLO26は単一の統合モデルファミリー内で複数のコンピュータビジョンタスクをサポートします。Nano (n)、Small (s)、Medium (m)、Large (l)、Extra Large (x) の5つのサイズが用意されており、チームはデプロイメントの制約に応じて速度、精度、モデルサイズのバランスを調整できます。
柔軟性を超え、YOLO26は性能の基準を引き上げます。 YOLO11と比較して、YOLO26 nanoモデルはCPU 最大43%高速化し、エッジおよびCPU展開向けに利用可能な高精度物体検出モデルの中で最速クラスの性能を実現しています。
.webp)
YOLO26がサポートするコンピュータビジョンタスクの詳細は以下の通りです:
すべてのタスクは、一貫したフレームワーク内でトレーニング、検証、推論、およびエクスポートをサポートします。
Ultralytics 、推論速度、トレーニングの安定性、デプロイの簡便性を向上させる複数のコアとなる革新を導入しています。これらの革新の概要は以下の通りです:
次に、YOLO26をより高速で効率的、かつ導入しやすいものにする次世代機能について、詳細に解説していきます。
初期YOLO 、バウンディングボックスの精度向上を目的として、トレーニング中に分布焦点損失(DFL)を採用していた。DFLは効果的であったものの、複雑性を増大させ、固定された回帰制限を課すことで、特にエッジや低電力ハードウェア上でのエクスポートやデプロイをより困難にしていた。
YOLO26はDFLを完全に除去します。DFLの除去により、以前のモデルに存在した固定バウンディングボックス回帰制限が解消され、非常に大きな物体の検出における信頼性と精度が向上します。
バウンディングボックス予測プロセスを簡素化することで、YOLO26はエクスポートが容易になり、幅広いエッジデバイスや低消費電力デバイスでより信頼性の高い動作を実現します。
従来の物体検出パイプラインは、重複する予測をフィルタリングする後処理ステップとして非最大抑制(NMS)に依存している。NMS 効果的ではあるが、特に複数のランタイムやハードウェアターゲットにモデルを展開する場合、遅延、複雑性、脆弱性をNMS 。
YOLO26はネイティブなエンドツーエンド推論モードを導入し、モデルが直接最終予測を出力するため、NMS 別途の後処理ステップNMS 必要としません。重複予測はネットワーク内部で処理されます。
NMS 排除することでレイテンシがNMS 、デプロイメントパイプラインが簡素化され、統合エラーのリスクが低下するため、YOLO26は特にリアルタイムおよびエッジデプロイメントに最適です。
トレーニングに関連する重要な機能として、Progressive Loss Balancing(ProgLoss)とSmall-Target-Aware Label Assignment(STAL)の導入が挙げられる。これらの改良された損失関数は、トレーニングの安定化と検出精度の向上に寄与する。
ProgLossは、トレーニング中にモデルがより一貫して学習することを助け、不安定性を減らし、よりスムーズに収束できるようにします。一方、STALは、視覚的な詳細detect 困難なことが多い小さな物体からモデルが学習する方法を改善することに焦点を当てています。
ProgLossとSTALを組み合わせることで、より信頼性の高い検出が可能となり、特に小型物体の認識精度が顕著に向上します。これは、物体が小さく、遠くにある、あるいは部分的にしか見えないことが多いIoT(モノのインターネット)、ロボティクス、航空画像などのエッジアプリケーションにおいて特に重要です。
YOLO26では、トレーニングの安定性と効率性を高めるために設計されたMuSGDという新しいオプティマイザを採用しました。MuSGDは、従来の確率的勾配降下法(SGD)の強みと、大規模言語モデル(LLM)のトレーニングで使用されるオプティマイザであるMuonに着想を得た技術を組み合わせたハイブリッド手法です。
SGD 、その簡潔さと強力な汎化性能により、長年にわたりコンピュータビジョン分野で信頼性の高いSGD 。一方で、LLMトレーニングにおける近年の進展は、新しい最適化手法を慎重に適用することで安定性と速度を向上させられることを示している。MuSGDは、こうした知見の一部をコンピュータビジョン領域に導入するものである。
Moonshot AIのKimi K2に着想を得たMuSGDは、トレーニング中のモデルの収束をより円滑にする最適化戦略を組み込んでいます。これにより、特に大規模または複雑なトレーニング環境において、YOLO26がトレーニングの不安定性を低減しつつ、より迅速に高い性能を達成することが可能となります。
MuSGDは、YOLO26がモデルサイズを問わずより予測可能な形で学習することを支援し、性能向上と学習の安定性の両方に寄与する。
ビジョンAIがデータ生成源に近づくにつれ、強力なエッジ性能がますます重要になっている。エッジコンピューティング向けに特別に最適化されたYOLO26は、CPU 最大43%高速化し、GPU非搭載デバイスでもリアルタイム性能を保証する。この改善により、応答性が高く信頼性の高いビジョンシステムを、カメラやロボット、組み込みハードウェア上で直接実行可能となる。これらの環境では、レイテンシ、効率性、コスト制約が実現可能性を決定づける。
物体検出の精度を高めるアーキテクチャ改良に加え、YOLO26はコンピュータービジョンタスク全般の性能向上を目的としたタスク特化型最適化も備えています。例えば、インスタンスセグメンテーション、姿勢推定、方向付きバウンディングボックス検出において、精度と信頼性を向上させる対象を絞った更新により性能を強化しています。
これらの最適化の概要は以下の通りです:

Ultralytics また、YOLO26のアーキテクチャとトレーニング技術革新を基盤とした、新たなオープンボキャブラリーセグメンテーションモデル群「YOLOE-26」Ultralytics 発表Ultralytics
YOLOE-26は新たなタスクや機能ではなく、既存のセグメンテーションタスクを再利用しつつ、テキストプロンプト、ビジュアルプロンプト、プロンプト不要の推論を可能にする特化型モデルファミリーです。全ての標準YOLO で利用可能なYOLOE-26は、従来のオープンボキャブラリーセグメンテーションモデルよりも高い精度と、より信頼性の高い実世界での性能を発揮します。
ビジョン駆動型カメラから、コンピュータービジョンとエッジの小型プロセッシングチップで駆動されるロボットまで、コンピュータービジョンとAIはリアルタイム推論のためにデバイス上で直接展開されています。Ultralytics 、低遅延、効率性、信頼性の高いパフォーマンスが不可欠なこうした環境向けに特別に設計されています。
実際の運用では、YOLO26は幅広いハードウェアに容易に展開可能です。具体的には、Ultralytics Python 多様な統合機能を通じて、モデルを様々なプラットフォームやハードウェアアクセラレータ向けに最適化された形式でエクスポートできます。
例えば、TensorRT エクスポートによりNVIDIA での高性能推論TensorRT 、CoreML Appleデバイスへのネイティブ展開CoreML 、OpenVINO Intel でのパフォーマンスをOpenVINO 。YOLO26は複数の専用エッジアクセラレータ向けにエクスポート可能であり、専用エッジAIハードウェア上で高スループットかつ省電力な推論を実現します。
これらはほんの一例であり、エッジ環境と本番環境の両方でさらに多くの統合がサポートされています。この柔軟性により、単一のYOLO26モデルが多様なデプロイ先で動作可能となります。これにより本番ワークフローが効率化され、ビジョンAIがエッジに近づきます。
実環境での展開を想定して設計されたYOLO26は、様々な業界における幅広いコンピュータビジョンのユースケースで使用可能です。適用例を以下に示します:
スマートシティ:都市環境全体において、YOLO26は交通監視カメラや公共空間カメラからの動画ストリームを分析できます。これにより、エッジ環境での交通監視、公共安全、インフラ管理といったアプリケーションが可能となります。

Ultralytics 、ビジョンAIの構築およびデプロイ方法に応じて、2つの補完的なワークフローを通じて利用できます。
オプション1: Ultralytics 経由Ultralytics を使用する (推奨)
Ultralytics 、YOLO26モデルのトレーニング、デプロイ、監視を集中管理する手段を提供します。データセット、実験、デプロイを単一環境に統合することで、特にエッジ環境や本番環境へデプロイするチームにとって、大規模なビジョンAIワークフローの管理を容易にします。
プラットフォームを通じて、ユーザーは以下のことができます:
👉Ultralytics 探索:platform.ultralytics.ultralytics
オプション2: オープンソースワークフロー経由Ultralytics を使用する
YOLO26Ultralyticsオープンソースエコシステムを通じて完全にアクセス可能であり、トレーニング、推論、エクスポートのための既存のPythonワークフローで使用できます。
Ultralytics インストールし、事前学習済みYOLO26モデルを読み込み、ONNX、TensorRT、CoreML、OpenVINO慣れ親しんだツールやフォーマットを使用してデプロイできます。
pip install ultralyticsfrom ultralytics import YOLO
# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")
# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")手動制御やカスタムパイプラインを好むユーザー向けに、Ultralytics で完全なドキュメントとガイドが利用可能です。
Ultralytics 、明日のビジョンAIソリューションのニーズに応えるべく設計されています。そこではモデルは高速で効率的であり、実ハードウェアへの展開が容易でなければなりません。性能の向上、展開の簡素化、モデルの機能拡張により、YOLO26は幅広い実世界アプリケーションに自然に適合します。YOLO26は、ビジョンAIの構築、展開、スケーリングの方法における新たな基準を確立します。 コミュニティがこの技術を活用し、実世界のコンピュータビジョンシステムをどのように実現していくか、我々は期待に胸を膨らませています。
成長中のコミュニティに参加して、GitHubリポジトリで実践的なAIリソースを探索してください。今すぐVision AIを使って構築するには、ライセンスオプションをご覧ください。農業におけるAIがどのように農業を変革しているか、ロボット工学におけるVision AIがどのように未来を形成しているかについては、ソリューションのページをご覧ください。

