Ultralytics Python パッケージを使って、コンピュータビジョンアプリケーションのデータを分かりやすいグラフに変換し、より良い洞察を得る方法を学びます。
空港ターミナルや駅からショッピングモールまで、刻々と膨大な量のデータが生み出されている。AIが広く使われるようになるにつれて、こうしたデータの多くが分析・分解されるようになった。しかし、これらのAIモデルから得られた結果を一目見ただけでは、パターンを発見したり傾向を理解したりするのが難しいこともある。そこで役立つのがデータの可視化で、複雑な出力を明確で消化しやすい洞察に変えることができる。
特にコンピュータ・ビジョンのアプリケーションに関してはそうだ。コンピュータ・ビジョンは 人工知能(AI)の一分野であり、機械が画像や動画など、周囲の世界から得られる視覚情報を解釈・理解するのを助ける。ビジョンAIモデルは Ultralytics YOLO11のようなビジョンAIモデルは、そのような視覚データを分析して情報を得るのに役立ちますが、データの視覚化は、その情報を理解しやすい形式にするのに役立ちます。
簡単に言えば、データ・ビジュアライゼーションは、意味のある分析グラフを使用することで、生データと実際の理解とのギャップを埋めるものである。今日のデータ主導の世界では、機械がタスクを実行するだけでは不十分であり、ストーリーを語る必要があるため、これは重要な鍵となる。
データ・ビジュアライゼーションは、2030年までに183億6000万ドルに達すると言われている。前回は、コンピュータ・ビジョンがどのように価値あるビジネス・インサイトを提供できるかを探りました。今日は、さらに一歩進んで、Ultralytics パッケージを使って、コンピュータ・ビジョン・アプリケーションのための明確で洞察に満ちた分析グラフを作成する方法を説明します。さっそく始めましょう!
コンピュータビジョンアプリケーションにおけるデータ可視化とは、物体検出や追跡などのコンピュータビジョンタスクの結果を、分かりやすいグラフやダッシュボードに変換することです。これらのビジュアルは、特に大量のビデオ映像を扱う場合に、パターンや傾向を特定するのに役立ちます。
例えば、監視カメラの映像を何時間も手作業で見直す代わりに、検出された車や人の数を経時的に示すシンプルな折れ線グラフを使えば、ピーク時間帯や異常に静かな時間帯を素早く強調することができる。
データの可視化が有用である主な理由をいくつか挙げてみよう:
様々なタイプの分析グラフは、コンピュータ・ビジョンの結果を明確で理解しやすいビジュアルに変えることができます。例えば、監視カメラの映像から人や車を検出するコンピュータビジョンアプリケーションを開発しているとしましょう。この場合、折れ線グラフは、一日の人通りのピークを追跡するように、検出数が時間とともにどのように変化するかを示すのに最適です。
同様に、棒グラフは、検出されたさまざまな種類のオブジェクトの数を比較したい場合に役立ちます。例えば、ビデオに車、バイク、歩行者のどちらが多く映っているかを確認することができます。一方、円グラフは、各オブジェクトタイプが全体の検出数に占める割合を示します。それぞれのグラフには用途があり、複雑なコンピュータビジョンデータの解釈や共有を容易にします。
データ可視化とは何か、なぜ様々なタイプの分析グラフが重要なのかを探ったところで、Ultralytics Analyticsソリューションを使ってコンピュータビジョンモデルの予測結果を可視化する方法を詳しく見ていきましょう。ステップバイステップのプロセスを説明する前に、Ultralytics パッケージとYOLO11ようなモデルをトレーニングして使用するためのツールとセットアップオプションを見てみましょう。
Ultralytics Python パッケージは、モデルのトレーニング、オブジェクトの検出、予測の実行、結果の視覚化を簡単に行うことができます。使い始めるには、コーディング環境が必要です。ここでは3つの簡単なオプションを紹介します:
これらのツールはすぐに使い始めるのに最適ですが、ユーザーはUltralytics Visual Studio Code(VS Code)のような統合開発環境(IDE)に統合したり、本番パイプラインに統合することもできます。詳しいオプションについては、Ultralytics 公式ドキュメントをご覧ください。
お好みの環境を選んだら、次のステップは、予測を実行し結果を視覚化するためのセットアップです。上記の環境は、あなたが最も使いやすいものに応じて、どれでも使うことができる。
Google Colabで作業する場合、デフォルトではCPU 使用するため、パフォーマンスが低下する可能性があることに留意してください。スピードアップするには、"Runtime "メニューから "Change runtime type "を選択し、ハードウェアアクセラレータをGPU (理想的にはT4)に設定してGPU ください。
環境を整えるには、以下のコマンドを使ってUltralytics Python パッケージをインストールする必要がある。ColabやJupyterのようなノートブックベースのツールでは、コマンドの前に感嘆符(!)
pip install ultralytics
次に、作業用の動画が必要だ。Pexelsのような無料のストックサイトから簡単にダウンロードできる。YOLO11 検出できるオブジェクトが含まれているビデオを選ぶようにしてください。このモデルはCOCOデータセットで事前学習されているので、人、車、自転車などの一般的な物体を認識できる。
このチュートリアルでは、混雑した空港ターミナルでの手荷物処理のビデオを使います。同じビデオを使っても、あなたのプロジェクトに合った別のビデオを選んでもかまいません。
次に、必要なライブラリをインポートし、入力ビデオをロードする。
まずOpenCV (cv2)をインポートします。OpenCVはコンピュータ・ビジョンで画像やビデオを扱うために広く使われているライブラリです。また、Ultralytics ライブラリもインポートします。これは、オブジェクト検出を実行し、ビデオから分析を生成するのに役立ちます。
次に、ビデオファイルのパスを指定して開いてみます。path/to/video.mp4」は、ダウンロードした動画ファイルの実際の場所に置き換えてください。
また、以下のコード・スニペットには、ビデオが正しく読み込まれるかどうかを確認する簡単なチェックが含まれています。パスが間違っていたり、ファイルが壊れていたりすると、プログラムは停止してエラーメッセージを表示します:"ビデオファイルの読み込みエラー"
import cv2
from ultralytics import solutions
cap = cv2.VideoCapture("path/to/video.mp4")
assert cap.isOpened(), "Error reading video file"
次に、出力を保存するビデオライターをセットアップします。アナリティクスを実行すると、コードのこの部分は、元のビデオの各フレームから生成された更新されたグラフを記録する新しいビデオファイルを作成します。
以下のコードでは、まず入力動画から主要なプロパティである幅、高さ、fps(frames per second)を抽出します。これらの値は動画から直接取得され、出力を書き出すために正しい形式であることを確認するために整数に変換されます。
次に、cv2.VideoWriter 関数を使用して、"analytics_output.avi" という名前の新しいビデオファイルを作成します(必要に応じて名前を変更できます)。ビデオは、一般的なビデオ圧縮方式である MJPG フォーマットで保存されます。出力解像度は、元の動画のサイズに関係なく、1280×720ピクセルに設定されます。
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))
out = cv2.VideoWriter(
"analytics_output.avi",
cv2.VideoWriter_fourcc(*"MJPG"),
fps,
(1280, 720),
)
次に、動画からグラフを生成するために、Ultralytics Analyticsソリューションを設定します。折れ線グラフ、円グラフ、エリアグラフ、棒グラフなど、データの表示方法と、使用するYOLO モデルを選択できます。この例では、軽量の「yolo11n.pt」モデルを使用し、結果を面積グラフで表示します。
analytics = solutions.Analytics(
show=True,
analytics_type="area",
model="yolo11n.pt",
)
コードの最後の部分は、ビデオを1フレームずつ処理するループを実行する。各フレームは分析ツールに渡され、分析ツールはリアルタイムでグラフを更新する。更新されたグラフは出力ビデオに書き込まれる。フレームが読み取れない場合、ループは停止する。すべてのフレームが処理された後、ビデオは保存され、開いているウィンドウは閉じられます。
frame_count = 0
while cap.isOpened():
success, im0 = cap.read()
if success:
frame_count += 1
results = analytics(im0, frame_count)
out.write(results.plot_im)
else:
break
cap.release()
out.release()
cv2.destroyAllWindows()
最後に、すべてをまとめてみよう。1つはYOLO11 オブジェクト検出結果をバウンディングボックスとラベルで表示したもの、もう1つはリアルタイム分析グラフを表示したものだ。
そのために、2つのVideoWriterインスタンスをセットアップします。1つは予測ビデオを保存するため、もう1つは分析用です。このバージョンのコードには、オブジェクト追跡とグラフ生成の両方が含まれており、視覚的な洞察と一緒に検出結果を見ることができます。
以下は、包括的なコードと、予測および分析出力の例である。
import cv2
from ultralytics import YOLO, solutions
# Load model and video
model = YOLO('yolo11n.pt')
cap = cv2.VideoCapture('path/to/video.mp4')
assert cap.isOpened(), "Error opening video"
# Get properties
w, h = int(cap.get(3)), int(cap.get(4))
fps = cap.get(5)
analytics_res = (1280, 720)
# Writers for prediction and analytics videos
out_pred = cv2.VideoWriter('output_predictions.avi', cv2.VideoWriter_fourcc(*'MJPG'), fps, (w, h))
out_ana = cv2.VideoWriter('output_analytics.avi', cv2.VideoWriter_fourcc(*'MJPG'), fps, analytics_res)
# Analytics setup
analytics = solutions.Analytics(show=True, analytics_type="area", model='yolo11n.pt')
# Process frames
frame_count = 0
while cap.isOpened():
ret, frame = cap.read()
if not ret:
break
frame_count += 1
pred_frame = model.track(frame, persist=True)[0].plot()
out_pred.write(pred_frame)
resized = cv2.resize(pred_frame, analytics_res)
out_ana.write(analytics(resized, frame_count).plot_im)
cap.release(), out_pred.release(), out_ana.release(), cv2.destroyAllWindows()
上記のコードが正常に実行されると、2つの出力ビデオが生成される。output_predictions.avi "はバウンディングボックスとラベル付きのオブジェクト検出結果を表示し、"output_analytics.avi "は検出結果に基づいたリアルタイム分析グラフを表示します。
これは予測に基づく分析出力からのフレームです。エリアチャートを使用することで、スーツケースの数の時間的な変動、例えば268フレーム付近のスパイクのような洞察を得ることができます。
ここでは、データの可視化が重要な影響を与える、実際のコンピュータ・ビジョン・アプリケーションをいくつか紹介します:
Ultralytics パッケージを使用すると、ビデオ映像を鮮明で洞察力のあるグラフに簡単に変換することができます。何時間ものビデオを手作業で確認する代わりに、主要なパターンや傾向を強調する視覚的なサマリーを生成できるため、迅速な対応が容易になります。病院、小売店、製造施設のいずれにおいても、これらのグラフは、複雑なAI出力を、誰もが理解し利用できる洞察に変えます。
AIについてもっと知りたいですか?GitHubリポジトリを探索し、私たちのコミュニティとつながり、あなたのコンピュータビジョンプロジェクトをジャンプスタートするためのライセンスオプションをチェックしてください。製造業におけるAIや 物流業界におけるコンピュータビジョンなどのイノベーションについては、ソリューションページをご覧ください。