YOLOビジョン2025にご期待ください!
2025年9月25日
10:00 - 18:00
ハイブリッド・イベント
ヨロ・ビジョン2024

夜間の交通ビデオ検知:精度が重要な理由

アビラミ・ヴィナ

5分で読める

2025年10月3日

視界の悪さから眩しさまで、夜間の交通ビデオ検知の精度を高める要因と、コンピュータ・ビジョンが安全性と交通流を改善する方法についてご紹介します。

ドライバーだけでなく、ドライバーの安全を守るシステムにとっても、暗闇の道路は違って見える。視界の悪さ、ヘッドライトのまぶしさ、動きの速い反射などは、夜間の車両検知を難しくする。 

手動観察やモーション・ベース・カメラなどの従来の方法は、主に人間の判断と単純な動きの手がかりに頼っている。このため、低照度や複雑な交通状況では信頼性に欠けることがある。このような方法では、車両や歩行者を誤認識し、誤検出や見逃しが発生する可能性があります。  

図1.夜間の照明が不十分な道路の例(出典)。

人工知能(AI)、ディープラーニング、コンピュータービジョンは、車両の検出と認識を自動化することで、このギャップを埋めることができる。特にコンピュータ・ビジョンは、機械が視覚データを見たり解釈したりすることを可能にするAIの一分野である。夜間の交通ビデオ検出に関しては、ビジョンAIモデルは明るさや動きを超えて、精度を向上させる複雑なパターンを認識するように学習することができます。

例えば、Ultralytics YOLO26や Ultralytics YOLO11のようなコンピュータビジョンモデルは、その速度と精度で知られています。ビデオや画像データをリアルタイムで処理し、フレーム内の複数のオブジェクトを検出・分類し、シーケンス全体でそれらを追跡することができます。 

これらの機能は、ヘッドライトや影、重なり合う車両が検出を困難にしている場合でも、物体検出やインスタンスのセグメンテーションなどのさまざまな視覚タスクによって実現される。これらの機能により、モデルは物体を識別、分類、区別することができる。

この記事では、夜間の交通監視の課題を探り、コンピュータ・ビジョンがどのようにそれらに対処しているのか、そしてビジョンAIが実際の交通監視システムでどのように応用されているのかを紹介します。はじめに 

夜間探知における課題

コンピュータ・ビジョンが夜間の交通量検知の課題をどのように解決するのかを探る前に、なぜ日没後に車両を発見するのが難しいのかを見てみよう。考慮すべき要因をいくつか挙げてみよう:  

  • 視界が悪い:照明が限られていたり、照度が低かったりすると、カメラは鮮明で詳細な映像を撮影することが難しくなります。画質が低下すると、車両が背景に溶け込んでしまったり、誤認されたりする可能性があります。
  • 気象条件:雨、霧、霞、あるいは埃は、ビデオの画質をさらに劣化させます。このような状況では、検知システムが車両を周囲から区別することが難しくなります。
  • ヘッドライトとテールライト:明るいビームや反射はカメラを圧倒することがあります。光点が車両と誤認され、検知アルゴリズムが混乱し、精度が低下する。
  • 車両の遮蔽:交通量が多い場合、車両の一部または全体が他の車両の陰に隠れることがある。オクルージョンの発生は、特に1フレーム内で複数の道路利用者が重なる場合、車両の追跡、カウント、分類を複雑にする。

夜間のベンチマーク・データセットと指標の必要性

コンピュータビジョンモデルは、データセットとして知られる画像の大規模なコレクションを使用して学習される。これらのデータセットには、車、トラック、歩行者、自転車など、含まれているオブジェクトが注意深くラベル付けされており、学習の基礎となる。これらのラベル付けされた例を研究することで、モデルはパターンを認識することを学習し、新しいビデオ映像内のオブジェクトを識別・検出できるようになる。

図2.コンピュータ・ビジョンによる交通中の車両と歩行者の検出(出典)。

トレーニング中、モデルはデータから特徴を抽出し、それを使って検出精度を向上させる。このプロセスは、モデルが実際の交通シーンにさらされたときに、検出ミスや誤報を減らすのに役立ちます。

しかし、夜間のデータセットやデータ収集の構築は、より困難である。ビデオの画質が悪いと、ラベリングに時間がかかり、ミスも起こりやすい。また、事故や異常な運転行動など、まれではあるが重要な事象は、夜間の環境では撮影が困難な場合がある。その結果、モデルが学習するためのトレーニング例の数が限られてしまう。 

この問題に対処するため、研究者は専用のベンチマークデータセットを開発してきた。ベンチマークデータセットは単なる画像の集まりではない。標準化されたラベル、評価プロトコル、そして精度、再現率、平均平均精度(mAP)などの性能指標が含まれている。これらの指標により、異なるアルゴリズムを同じ条件でテストし比較することが可能になり、公平で一貫性のある評価が保証される。

例えば、ExDarkベンチマークデータセットには、12の物体カテゴリ(自転車、ボート、ボトル、バス、車、猫、椅子、コップ、犬、バイク、人、テーブル)にまたがる7,363枚の低照度画像が含まれている。各画像はバウンディングボックスで注釈されており、このデータセットは暗い照明下での物体検出と分類を評価する研究に広く利用されている。

図3.ExDarkデータセットの一例(出典)

同様に、NightOwlsベンチマークデータセットは、約115,000の夜間画像と約279,000の歩行者アノテーションを提供しています。交通安全や先進運転支援システム(ADAS)において重要な役割を果たす歩行者検知システムを評価するための重要なリソースとなっている。

コンピュータ・ビジョンが夜間の交通ビデオ検知にどのように役立っているか

さて、このような課題とデータセットの必要性について理解を深めたところで、ビジョンベースのシステムが夜間の交通ビデオをどのように解釈できるかを詳しく見てみよう。 

YOLO11やYOLO26のようなモデルは、物体検出、追跡、インスタンス分割などのコンピュータ・ビジョン・タスクをサポートしており、低照度下でも交通を分析することが可能です。ここでは、これらのモデルが夜間の交通を分析するためにサポートするビジョンAIタスクの概要を説明します:

  • オブジェクト検出:このタスクは、各フレームにおいて、車両、歩行者、自転車、その他の道路利用者を識別し、位置を特定するために使用され、通常はそれらの周囲にバウンディングボックスを描画する。
  • 物体追跡:検出された物体をフレームをまたいで追跡することで、同じ車両や歩行者を時系列で認識できるようになり、車両速度の推定や交通の流れの監視が可能になる。
  • インスタンス分割:個々のオブジェクトが重なっていても区別でき、複雑な夜間の条件下で精度を向上させるピクセルレベルの詳細を提供する。
  • 画像の分類:このタスクは、画像全体または検出された物体を、車、バス、トラック、オートバイなど、事前に定義されたカテゴリに割り当てます。
    ‍‍
  • OBB(Oriented bounding box)検出:オブジェクトの正確な角度と方向をキャプチャし、夜間の交通で車両が斜めや奇妙な位置に表示される場合の精度を向上させます。

夜間のモニタリングにUltralytics YOLOモデルを使用

モデルのトレーニング、データセットの必要性、YOLO11やYOLO26のようなモデルがサポートするタスクについて説明した。しかし、すべてをまとめるには、もうひとつ、これらのモデルが夜間のモニタリングに実際にどのように適用されるかという概念を説明する必要がある。 

UltralyticsのYOLOモデルは訓練済みバージョンとして提供されており、COCOデータセットのような多くの日常的なオブジェクトをカバーする大規模な汎用データセットですでに訓練されている。これにより、モデルには物体を検出・分類する強力なベースライン能力が与えられます。

しかし、これらのデータセットには低照度や夜間の事例がほとんど含まれていないため、事前学習されたモデルは、グレア、シャドウ、コントラスト不良を効果的に扱うことができません。夜間の交通ビデオ検知にインパクトを与えるには、実際の夜間の状況を反映した特別なデータセットで微調整する必要があります。 

微調整やカスタムトレーニングでは、ヘッドライトがまぶしい車両、横断歩道の歩行者、夜間の混雑した交差点など、低照度の状況で撮影されたラベル付き画像でモデルを追加トレーニングし、夜間のシーン特有の特徴を学習させる。

一旦カスタム・トレーニングされたモデルは、低照度条件下でより高い精度で検出、追跡、セグメンテーション、分類などのタスクをサポートすることができる。これにより、交通当局は、車両カウント、速度推定、適応信号制御、夜間の事故防止などの実用的なユースケースにこのようなモデルを適用することができます。

夜間の交通映像検出のためのビジョンAIアプリケーション

次に、コンピュータビジョンが実際の夜間交通システムにどのように採用されるかを見てみよう。

スマート信号機はスマート都市計画をサポートできる

特に夜間は視界が悪くなり、交通の流れが予測しにくくなる。従来の信号は、リアルタイムの変化に対応できない固定タイマーに依存している。調査によると、これはドライバーの時間を浪費するだけでなく、不必要な燃料消費と遅れにつながる。

コンピュータ・ビジョン・システムは、まさにこの課題を克服するのに役立つ。これらのシステムは、車両の動きを監視し、車両の数をリアルタイムで検出することができる。そして、そのデータは適応型交通管制システムに送られる。これにより、実際の道路状況に応じて信号を素早く調整することが可能になる。そのため、ある車線が混雑しているのに別の車線が空いている場合、信号のタイミングを即座に調整してボトルネックを解消することができる。

事故防止

夜間の運転は日中よりも危険である。視界が悪くなり、照明が不均一になり、まぶしいため、ドライバーは距離を判断しにくくなるからだ。実際、調査によると、夜間の1kmあたりの死亡事故率は昼間の3倍にもなる。

固定監視カメラ、道路パトロール、車両存在センサー、定時信号システムといった従来の監視方法は、反応的に作動するため、危険な状況の発生を未然に防ぐのに十分なほど早期に発見できない可能性がある。 

コンピュータビジョンソリューションは、ライブビデオストリームを解析し、道路や高速道路上の異常なパターンを検出することによって、この懸念に対処することができます。オブジェクト・トラッキングを使用することで、これらのシステムはリアルタイムで車両の挙動を監視し、異常が見られた場合に警告を発することができます。

例えば、走行中の車両が車線変更をしていたり、混雑した場所で速度が速すぎたり、急に減速していたりすると、システムはリアルタイムでフラグを立てることができる。つまり、当局は迅速に対応し、事故を未然に防ぐことができる。

自律走行とADAS

自律走行車やADASにとって、夜間走行は独自の課題をもたらす。視界が悪く、交通パターンが予測できないため、従来のセンサーが確実に作動することが難しくなり、安全上の懸念が高まる。 

コンピュータ・ビジョンは、物体検出、車線追跡、セグメンテーションなどのタスクを処理することで、これらのシステムを強化し、照明条件が悪い場合でも車両が歩行者、他の車両、障害物を認識できるようにします。周囲を3DでマッピングするレーダーやLiDAR(Light Detection and Ranging)と組み合わせることで、視覚レイヤーが追加され、ADASは早期警告を提供し、自律走行車に夜間のより安全なナビゲーションに必要な認識を与えることができます。

図4.日中と夜間の両方で撮影された車両映像(出典)。

法の執行と違反の検出

スピード違反は世界中で交通死亡事故の3件に1件の原因となっており、その危険性は夜間になるほど高まる。暗闇は交通警察にとって違反の摘発を難しくする。昼間ははっきりしていることでも、日が暮れるとぼんやりしてしまうことが多いからだ。 

そのため、空いた道路でのスピード違反、赤信号無視、間違った車線へのドリフトなどの違反が罰せられないことが多い。コンピュータ・ビジョンは、赤外線カメラを使って低照度下でも違反を発見することで、この問題に取り組んでいる。これらのシステムは、事故が記録される検出ゾーンを作り、誤検出を減らし、明確で検証可能な証拠を提供する。交通当局にとっては、死角が減り、手作業によるチェックへの依存が減ることを意味する。

夜間の交通ビデオ検知の長所と短所

夜間の交通ビデオ検知にVision AIを使用する利点は以下の通りである。

  • 拡張性:一度微調整すれば、多数のカメラや交差点にモデルを展開でき、市全体の監視をサポートする。
  • 予測分析:
    ‍ 過去の映像データから渋滞や事故多発地帯を予測し、予防策をサポートする。
  • リソースの最適化道路パトロールや緊急サービスをより効率的に割り当てるためのリアルタイムの洞察を当局に提供する。

ビジョンAIを使った夜間交通検知は、その利点にもかかわらず、一定の制限もある。以下に留意すべき点をいくつか挙げる:

  • データ依存:ビジョンAIシステムの精度は、夜間のさまざまな状況を捉えた、大規模で高品質なデータセットへのアクセスに大きく依存する。
  • 環境の課題:雨、霧、霞などの天候要因や、カメラレンズの汚れや位置ズレなどの実用的な問題は、検出性能を低下させ、定期的なメンテナンスが必要になります。
  • ハードウェア要件:高度なAIモデルを実行するには、高性能なGPUや特殊なエッジデバイスが必要になることが多く、大規模な展開にはコストと複雑さが伴う。 

夜間インテリジェント交通システムの前途

都市が発展し道路が混雑するにつれ、夜間の交通検知はよりインテリジェントで応答性の高いシステムへと移行している。例えば、サーマルカメラや赤外線センサーは、人や車両の熱信号を検出することができるため、完全な暗闇でも視認が可能です。これにより、標準的なカメラがまぶしさや低照度との闘いで発生するエラーを減らすことができる。

図5.夜間の歩行者検知を強化するナイトビジョン技術(出典:Night Vision Technology)

もうひとつの成長中のアプローチは、カメラとLiDARのフュージョンだ。カメラは道路の詳細な画像を提供し、LiDARは正確な3Dマップを生成する。これらを併用することで、特に低照度や中程度の霧の中で、車線、車両、障害物の検出精度が向上する。

同時に、低照度画像補正、歩行者認識、ナンバープレート識別の進歩により、コンピュータビジョンの能力が拡大している。これらの改良により、照明の少ない道路や交差点でも、より高い信頼性と少ないエラーで監視できるようになりました。

要点

夜間の車両検知は交通監視にとって常に課題であったが、コンピューター・ビジョンはそれをより扱いやすくしている。まぶしさの影響を軽減し、複雑な交通シーンを処理することで、日没後の道路の挙動をより正確に把握することができる。このようなシステムが進歩し続けることで、より安全でスマートで効率的な夜間交通への道が開かれつつある。

Vision AIをプロジェクトに組み込む準備はできましたか?私たちの活発なコミュニティに参加して、自動車産業におけるAIや ロボット工学におけるVision AIなどのイノベーションを発見してください。GitHub リポジトリをご覧ください。今すぐコンピュータビジョンを始めるには、ライセンスオプションをご覧ください。

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう

無料で始める
クリップボードにコピーされたリンク