ヨロビジョン深圳
深セン
今すぐ参加

YOLOビジョン2025深圳でのウルトラリティクスの主なハイライト!

Abirami Vina

5分で読めます

2025年11月10日

Ultralyticsがイノベーター、パートナー、AIコミュニティを集め、インスピレーションの1日を過ごしたYOLO Vision 2025 Shenzhenの重要な瞬間をご覧ください。

10月26日、YOLO Vision 2025(YV25)が深センのOCT Creative Culture ParkのB10ビルで中国デビューを飾った。ウルトラリティクスのハイブリッド・ビジョンAIイベントには200人以上の参加者が集まり、YouTubeやBilibiliを通じてオンラインでも多くの参加者が集まった。 

YV25深センのライブストリームは、YouTubeですでに3,500ビューを超え、イベントのハイライトがコミュニティ全体で共有されるにつれて注目を集め続けている。ビジョンAIの次の方向性について、アイデアと会話、そして実践的な探求に満ちた一日だった。

当日は、ホストの黄学英氏の温かい歓迎の言葉で始まり、イベントを通して皆につながり、学び、議論に参加するよう呼びかけた。彼女は、これが9月のロンドン開催に続く今年2回目のYOLOビジョンであることを説明し、Vision AIコミュニティがここ深センで再び一堂に会することがいかにエキサイティングであるかを共有した。

この記事では、モデル・アップデート、スピーカー・セッション、ライブ・デモ、そしてみんながひとつになったコミュニティの瞬間など、当日のハイライトを再確認しよう。さっそく始めよう!

ウルトラリティクスYOLOモデルのこれまでの歩み

この日の最初の基調講演は、Ultralyticsの創設者兼CEOのグレン・ジョーチャー氏が担当し、UltralyticsのYOLOモデルが、研究のブレークスルーから、世界で最も広く使用されているビジョンAIモデルへと成長した経緯を紹介した。グレンは、初期の仕事はYOLOを使いやすくすることに重点を置いていたと説明した。 

彼はモデルをPyTorchに移植し、ドキュメントを改善し、あらゆる開発者がその上に構築できるようにすべてをオープンに共有した。2018年に真っ先に飛び込んだ。私の未来はここにあると決めたのです」。個人的な取り組みとして始まったことは、瞬く間に世界的なオープンソース・ムーブメントとなった。

図1.YOLO Vision 2025 Shenzhenのステージでスピーチするグレン・ジョーチャー。

今日、UltralyticsのYOLOモデルは、毎日何十億もの推論を可能にしている。グレンは、このようなスケールが可能になったのは、構築に協力してくれた人々のおかげだと強調した。世界中の研究者、エンジニア、学生、ホビースト、オープンソースの貢献者たちが、YOLOを今日の形に作り上げた。 

グレンの言葉を借りれば、「1000人近い(貢献者の)方々がいてくれて、本当に感謝している。この人たちのおかげで、今があるんだ。"

ウルトラリティクスYOLO26の最新情報

Ultralytics YOLO26の最初の外観は、今年の初めにYOLO Vision 2025 Londonのイベントで共有され、Ultralytics YOLOモデルファミリーの次の大きな前進として紹介された。YV25深圳で、グレンはその発表以来の進展について最新情報を提供し、このモデルがどのように進化してきたかをAIコミュニティに詳しく紹介した。 

YOLO26は、より小さく、より速く、より正確でありながら、実世界での使用に耐えうるように設計されている。グレンによれば、チームはこの1年間、アーキテクチャの改良、デバイス間の性能のベンチマーク、リサーチやコミュニティからのフィードバックの取り込みに費やしてきたという。目標は、モデルの導入を難しくすることなく、最先端のパフォーマンスを提供することだ。

ウルトラリティクスYOLO26に期待すること

グレンが強調した中心的なアップデートのひとつは、YOLO26が専用のハイパーパラメータ・チューニング・キャンペーンと組み合わされていることで、完全にゼロからのトレーニングから、より大きなデータセットでの微調整へとシフトしている。彼は、このアプローチが実際のユースケースにより合致していると説明した。

以下は、このイベントで共有されたその他の主な改善点である:

  • アーキテクチャの簡素化:DFL(Distribution Focal Loss)レイヤーが削除された。これにより、同レベルの精度を維持したまま、モデルをよりシンプルかつ高速に実行できるようになりました。
  • エンド・ツー・エンドの推論サポート:YOLO26はネイティブのエンドツーエンドであり、NMSレイヤーを分離することなく実行できる。これにより、ONNXやTensorRTのようなフォーマットへのエクスポートや、エッジハードウェアへのデプロイがより簡単になります。
  • 小さな物体の性能が向上:更新された損失戦略により、コンピュータ・ビジョンの長年の課題であった微小物体の検出がより確実に行えるようになった。
  • 新しいハイブリッド・オプティマイザー:YOLO26には、最近の大規模言語モデルのトレーニング研究にインスパイアされた新しいオプティマイザーが含まれており、モデルの精度を向上させ、Ultralytics Pythonパッケージに直接組み込まれています。

Ultralytics YOLO26は実用的なビジョンAIの次のステップだ

これらのアップデートを組み合わせることで、Ultralytics YOLO11よりも高精度でありながらCPUが最大43%高速化され、YOLO26は組み込み機器、ロボット工学、エッジシステムにとって特にインパクトのあるモデルとなっている。 

YOLO26は、現在YOLO11で利用可能なすべてのタスクとモデルサイズをサポートし、ファミリー全体で25のモデルバリエーションを提供する。これには、検出、セグメンテーション、ポーズ推定、オリエンテッド・バウンディング・ボックス、分類のためのモデルが含まれ、ナノサイズから超大型まで幅広い。 

チームはまた、5つのプロンプト可能なバリアントにも取り組んでいる。これらは、テキストプロンプトを受け取り、トレーニングなしで直接バウンディングボックスを返すことができるモデルである。 

これは、さまざまなユースケースに適応しやすい、より柔軟な命令ベースのビジョンワークフローへの初期段階である。YOLO26モデルはまだ活発に開発中だが、初期の性能結果は強力であり、チームは近日中のリリースに向けて取り組んでいる。

Utralyticsプラットフォーム

YOLO26のアップデートの後、グレンは製品エンジニアリングの責任者であるPrateek Bhatnagarを迎え、Ultralyticsプラットフォームのライブデモを行いました。このプラットフォームは、データセットの探索、画像へのアノテーション、モデルのトレーニング、結果の比較など、コンピューター・ビジョンのワークフローの主要部分をまとめるために構築されています。

図2.Ultralyticsプラットフォームを紹介するPrateek Bhatnagar氏。

プラティーク氏は、このプラットフォームがUltralyticsのオープンソースのルーツに忠実であることを指摘し、データセット・コミュニティとプロジェクト・コミュニティの2つのコミュニティ・スペースを紹介した。デモでは、AIが支援するアノテーション、簡単なクラウドトレーニング、ローカルGPUリソースを必要とせずにコミュニティから直接モデルを微調整できる機能などが紹介された。

このプラットフォームは現在開発中である。プラティークは、発表に注目するよう聴衆に呼びかけ、立ち上げをサポートするために中国でチームが成長していることを指摘した。

YOLOを支える声:著者パネル

盛り上がりを見せる中、イベントは様々なYOLOモデルの研究者たちによるパネルディスカッションへと移行した。パネルディスカッションには、グレン・ジョーチャー、シニア機械学習エンジニアのジン・チウ、Metaの機械学習エンジニアでYOLOv10の作者の一人であるチェン・ホイ、Meituanのアルゴリズム・ストラテジストでYOLOv6の作者の一人であるボー・チャンが参加した。

図3.Huang Xueying、Chen Hui、Bo Zhang、Jing Qiu、Glenn JocherによるYOLOモデルの開発に関するパネル。

ディスカッションでは、YOLOが実際の使用を通じてどのように進化し続けているかに焦点が当てられた。講演者は、エッジデバイス上での効率的な動作、小さな物体の検出の改善、モデルエクスポートの簡素化など、実用的な展開の課題によって進歩が促進されることが多いことに触れた。 

パネルディスカッションでは、正確さだけを追求するのではなく、本番環境におけるスピード、使いやすさ、信頼性のバランスの重要性が指摘された。また、イテレーションとコミュニティからのフィードバックの重要性も共有された。 

以下は、その会話から得られた他の興味深い洞察である:

  • オープン語彙検出はYOLOエコシステムで人気を集めている: 新しいモデルは、視覚と言語のアライメントとプロンプトベースのワークフローによって、固定されたカテゴリーを超えたオブジェクトを検出できることを示している。
  • 軽量アテンションが台頭している:パネルディスカッションでは、あらゆる場所で完全な注意を払うのではなく、効率的な注意メカニズムを使用することで、推論をエッジデバイス向けに軽量化しつつ、精度を高めることができる方法について議論された。
  • コミュニティとともに、早くから頻繁に繰り返す: パネリストたちは、ビルド-テスト-インプルーブのマインドセットを強化し、より早くモデルをリリースし、ユーザーから学ぶことで、長いプライベートな開発サイクルよりも強力な成果を生み出す。

AIとビジョンの未来を定義するオピニオンリーダーたち

次に、YV25深センの基調講演のいくつかを詳しく見てみよう。そこでは、AIコミュニティ全体のリーダーたちが、デジタルヒューマンやロボット工学からマルチモーダル推論や効率的なエッジ展開まで、ビジョンAIがどのように進化しているかを共有した。

AIに人間の経験を理解させる

アリババQwenラボのPeng Zhang博士は、洞察に満ちたセッションで、彼のチームが、より自然な動きとコントロールを持つ表現力豊かなデジタルヒューマンを生成できる大規模なビデオモデルをどのように開発しているかを紹介した。彼はWan S2VとWan Animateについて説明し、音声やモーションリファレンスを使用してリアルなスピーチ、ジェスチャー、アニメーションを生成し、純粋なテキスト駆動型の生成の限界に対処しました。

図4.大規模なビデオモデルがデジタル・ヒューマンにどのようなパワーを与えるかを説明する張鵬。

Zhang博士はまた、外見と動きのゼロショットクローニングや、ライブカメラのフィードから直接顔をアニメーション化できる軽量モデルなど、リアルタイムのインタラクティブアバターへの進展についても語った。

知覚から行動へ:身体化された知性の時代

YV25深センの重要なテーマのひとつは、単に世界を見るだけのビジョンモデルから、その中で行動できるシステムへのシフトである。言い換えれば、知覚はもはやパイプラインの終点ではなく、行動の始まりになりつつあるということだ。

例えば、D-RoboticsのHu Chunxu氏は基調講演で、同社の開発キットとSoC(System on a Chip)ソリューションが、統合されたハードウェアとソフトウェアスタック上でセンシング、リアルタイムのモーションコントロール、意思決定をどのように統合しているかを説明した。知覚と行動を別々の段階ではなく、連続的なフィードバックループとして扱うことで、彼らのアプローチは、実環境でより確実に動き、適応し、相互作用できるロボットをサポートする。

図5.中国・深センで開催されたYOLO Vision 2025でのD-Roboticsのデモ。

バイドゥ・パドルのアレックス・チャン氏は講演で、YOLOとPaddleOCRがどのように連携してオブジェクトを検出し、その周辺のテキストや構造を解釈するかを説明した。これにより、システムは画像や文書を、物流、検査、自動処理などのタスクで使用可能な構造化された情報に変換することができる。 

エッジのインテリジェンス:あらゆるデバイスに効率的なAIを

YV25深圳でのもうひとつの興味深いトピックは、ビジョンAIがエッジデバイス上でいかに効率的で有能になってきているかということだった。 

DEEPXのポール・ユング氏は、YOLOモデルを組み込みハードウェアに直接展開することで、クラウドへの依存を減らすことについて話した。低消費電力、最適化された推論、ハードウェアを意識したモデルチューニングに注力することで、DEEPXはドローン、モバイルロボット、ダイナミックな環境で動作する産業システムのリアルタイム知覚を可能にする。

同様に、Moore Threads社のLiu Lingfei氏は、Moore Threads E300プラットフォームが中央演算処理装置(CPU)、グラフィックス処理装置(GPU)、ニューラル処理装置(NPU)のコンピューティングを統合し、コンパクトなデバイスで高速ビジョン推論を実現する方法を紹介した。 

このプラットフォームは、高フレームレートで複数のYOLOストリームを実行でき、そのツールチェーンは量子化、静的コンパイル、パフォーマンスチューニングなどのステップを簡素化する。また、Moore Threads社は、開発者の障壁を低くするために、コンピュータ・ビジョンのモデルと展開例を幅広くオープンソース化している。

よりスマートなAIシステムのための視覚と言語の融合

最近まで、画像を理解し言語を解釈できる単一のモデルを構築するには、実行コストが高い大規模な変換器アーキテクチャが必要だった。YV25深圳で、Yuanshi IntelligenceのYue Ziyin氏は、トランスフォーマーのロングコンテクスト推論能力とリカレントモデルの効率性を融合させたアーキテクチャであるRWKVの概要を説明した。 

同氏は、Vision-RWKVが解像度に比例してリニアにスケールする方法で画像を処理することで、この設計をコンピュータ・ビジョンに応用していることを説明した。これにより、高解像度の入力や、計算が制限されるエッジデバイスに適している。

ユエはまた、RWKVが視覚言語システムでどのように使用されているかを示した。そこでは、画像特徴がテキスト理解と組み合わされ、物体検出を超えて、シーン、文書、実世界の文脈の解釈に移行している。 

図6.RWKVの応用について話すユエ・ツィイン。

ビジョンAIを実現したブースとライブデモ

ステージでの講演がビジョンAIの行く末を先取りするものであったのに対し、会場内のブースでは、ビジョンAIが今日すでにどのように活用されているかを示すものであった。参加者は、ライブで動作するモデルを見たり、ハードウェアのオプションを比較したり、これらのシステムを構築しているチームと直接話したりすることができた。

展示されていた技術の一部を紹介しよう:

  • 開発プラットフォームとプロトタイピング・プラットフォーム: Seeed、M5Stack、Infermoveはコンパクトな開発ボードとスターターキットを展示し、YOLOベースのアプリケーションの実験を容易にし、アイデアから実用的なデモに素早く移行できるようにした。
  • 高性能エッジ・ハードウェア: Hailo、DEEPX、Intel、およびMoore Threadは、高速で効率的な推論用に構築されたチップとモジュールのデモを行った。
    ‍。
  • 視覚と言語のワークフロー: Baidu PaddleとRWKVは、オブジェクトを検出し、画像や文書に表示される内容を読み取り、解釈し、推論することができるソフトウェア・スタックを強調した。
  • オープンソース とコミュニティツール UltralyticsとDatawhaleは、モデルのライブデモ、トレーニングのヒント、実践的なガイダンスで開発者を引き込み、知識の共有がいかにイノベーションを加速するかを強化した。
図6.YV25深センのM5Stackブースの様子。

Vision AIコミュニティとの連携

すべてのエキサイティングな技術に加え、YV25深センで最も良かったことの1つは、コンピュータビジョンのコミュニティとUltralyticsチームが再び直接集まったことです。一日を通して、人々はデモの周りに集まり、コーヒーブレイクの間にアイデアを共有し、講演が終わった後も会話が続きました。 

研究者、技術者、学生、そして建設業者がメモを取り合い、質問し、配備からモデル・トレーニングまで実体験を交換した。また、Grupo OsborneのCinco Jotasのおかげで、切り分けたばかりのハモンでスペイン文化の雰囲気を味わうこともでき、温かい交流のひと時となりました。美しい会場、熱狂的な観衆、そして勢いの共有が、この日を本当に特別なものにした。

主なポイント

刺激的な基調講演から体験型デモまで、YOLO Vision 2025 Shenzhenは、Ultralyticsコミュニティを定義するイノベーションの精神を捉えました。一日を通して、スピーカーと参加者はアイデアを交換し、新しいテクノロジーを探求し、AIの未来に対するビジョンを共有してつながりました。参加者は、Ultralytics YOLOの次の展開に向け、活力を得て帰りました。

AIとコンピュータ・ビジョンで何が可能かを再考する。私たちのコミュニティと GitHubリポジトリに参加して、さらに多くのことを発見してください。農業におけるコンピュータビジョンや 小売業におけるAIのようなアプリケーションの詳細をご覧ください。ライセンスオプションを調べて、今すぐコンピュータビジョンを始めましょう!

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました