YOLOv5 v7.0に新しいインスタンス分割モデルが追加され、SOTAベンチマークを凌駕するAI精度とスピードが実現しました。コミュニティにご参加ください。

YOLOv5 v7.0に新しいインスタンス分割モデルが追加され、SOTAベンチマークを凌駕するAI精度とスピードが実現しました。コミュニティにご参加ください。
我々のAIアーキテクチャーの最新バージョンであるYOLOv5 v7.0がリリースされ、新しいインスタンス・セグメンテーション・モデルを紹介できることに興奮している!
この最新リリースに取り組んでいる間、私たちは2つの目標を常に念頭に置いていた。ひとつはAIを簡単にすること、もうひとつは "最先端 "とは何かを再定義することです。
そこで、大幅な改良、修正、アップグレードを行いました。YOLOv5 v7.0では、既存のYOLOv5物体検出モデルと同じシンプルなワークフローを維持しながら、モデルのトレーニング、検証、デプロイがこれまで以上に簡単になりました。その上、すべてのSOTAベンチマークを上回り、事実上、YOLOv5は世界で最も速く、最も正確なものとなりました。
セグメンテーション・モデルのリリースは今回が初めてなので、このマイルストーンを非常に誇りに思う。このリリースを可能にしたのは、献身的なコミュニティと貢献者のおかげです。
それでは早速、YOLOv5 v7.0のリリースノートをご覧いただこう!
2022年8月にYOLOv5 v6.2をリリースして以来、YOLOv5で更新された内容は以下の通りです。
A100GPUを使用し、画像サイズ640で300エポック、COCO上でYOLOv5セグメンテーションモデルを学習した。すべてのモデルをCPUスピードテスト用にONNX FP32に、GPUスピードテスト用にTensorRT FP16にエクスポートした。再現性を容易にするため、すべてのスピードテストをGoogleColab Proノートブックで実行した。
YOLOv5のセグメンテーション学習は、-data coco128-seg.yaml引数によるCOCO128-segセグメンテーションデータセットの自動ダウンロードと、bash data/scripts/get_coco.sh --train --val --segments、そしてpython train.py --data coco.yamlによるCOCO-segmentsデータセットの手動ダウンロードに対応しています。
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
ImageNet-1kデータセットでYOLOv5m-segの精度を検証:
bash data/scripts/get_coco.sh --val --segments # COCOのvalセグメント分割をダウンロードする (780MB、5000画像) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # バリデーション
事前に学習したYOLOv5m-segを使ってbus.jpgを予測する:
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # PyTorch Hubからロード (WARNING: まだ推論はサポートされていません)
YOLOv5s-segモデルをONNXとTensorRTにエクスポートする:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0
ご質問がありますか?Ultralyticsフォーラムで質問したり、問題を提起したり、レポにPRを投稿してください。また、YOLOv5セグメンテーションColabノートブックでクイックスタートチュートリアルを始めることもできます。