YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024

Ultralytics YOLOv5 v6.2による分類ワークフローの簡素化

Ultralyticsチーム

2分で読めます

2022年8月25日

分類モデル、ClearML統合、GPUベンチマーク、トレーニングの再現性などを備えた新しいYOLOv5 v6.2リリースをご覧ください。

YOLOv5は、オブジェクト検出の最先端技術を新たな高みへと押し上げています。新しい分類モデル、トレーニングの再現性、Apple Metal Performance Shader(MPS)のサポートから、ClearMLおよびDeciとの統合まで、新しいYOLOv5 v6.2リリースをご紹介します。

YOLOv5の重要なアップデート

2022年2月の最新リリース以来、お気に入りのYOLO Vision AIアーキテクチャの改善に取り組んでいます。以下は、最新のYOLOv5 v6.2における最も重要なアップデートです。

  • 分類モデル: YOLOv5-cls ImageNet事前学習済み分類モデルが初めて利用可能になりました。
  • ClearMLロギング: オープンソースの実験トラッカーClearMLとの統合。pip install clearmlでインストールすると統合が有効になり、ClearMLですべてのトレーニング実行を追跡できます。これにより、実行の追跡と比較、さらにはリモートでの実行のスケジュールも可能になります。
  • GPUエクスポートベンチマーク: python utils/benchmarks.py --weights yolov5s.pt --device 0(GPUベンチマークの場合)または--device CPU(CPUベンチマークの場合)を使用して、すべてのYOLOv5エクスポート形式のベンチマーク(mAPと速度)を測定します。
  • トレーニングの再現性: torch>=1.12.0を使用したシングルGPU YOLOv5トレーニングは完全に再現可能になり、新しい--seed引数を使用できます(デフォルトのseed=0)。
  • Apple Metal Performance Shader(MPS)のサポート: --device mpsを使用したApple M1/M2デバイスのMPSサポート(完全な機能は、pytorch/pytorch#77764のtorchアップデートで保留中)。

YOLOv5 v6.2 分類

新しい分類モデル

今回のリリースにおける主な目標は、既存の物体検出モデルと同様に、シンプルなYOLOv5の分類ワークフローを導入することです。新しいv6.2 YOLOv5-clsモデルはまだ始まりにすぎず、既存の検出モデルとともに、今後も改善を続けていきます。この取り組みへのご貢献をお待ちしております。

今回のリリースでは、2022年2月の前回のリリース以降、41人の貢献者から401件のPRが組み込まれています。分類のトレーニング、検証、予測、エクスポート(全11形式に対応)が追加され、ImageNetで事前トレーニングされたYOLOv5m-cls、ResNet(18、34、50、101)、EfficientNet(b0-b3)モデルも提供されます。

4xA100インスタンスを使用して、ImageNetでYOLOv5-cls分類モデルを90エポック学習させ、ResNetおよびEfficientNetモデルも同様のデフォルト学習設定で学習させて比較しました。すべてのモデルをCPU速度テスト用にONNX FP32に、GPU速度テスト用にTensorRT FP16にエクスポートしました。再現性を容易にするために、すべての速度テストをGoogle Colab Proで実行しました。  

Ultralyticsの今後の予定は?

次期リリースv6.3は2022年9月を予定しており、YOLOv5に公式のインスタンスセグメンテーションのサポートが追加されます。また、今年後半には、分類、検出、セグメンテーションの3つのタスクすべてでアーキテクチャを更新するメジャーリリースv7.0が予定されています。

YOLOv5オープンソースGitHubリポジトリにアクセスして、最新情報を入手し、このリリースの詳細をご確認ください。

AIの未来を
共に築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。

無料ではじめる
クリップボードにコピーしました