視界の悪さから眩しさまで、夜間の交通ビデオ検知の精度を高める要因と、コンピュータ・ビジョンが安全性と交通流を改善する方法についてご紹介します。

視界の悪さから眩しさまで、夜間の交通ビデオ検知の精度を高める要因と、コンピュータ・ビジョンが安全性と交通流を改善する方法についてご紹介します。
ドライバーだけでなく、ドライバーの安全を守るシステムにとっても、暗闇の道路は違って見える。視界の悪さ、ヘッドライトのまぶしさ、動きの速い反射などは、夜間の車両検知を難しくする。
手動観察やモーション・ベース・カメラなどの従来の方法は、主に人間の判断と単純な動きの手がかりに頼っている。このため、低照度や複雑な交通状況では信頼性に欠けることがある。このような方法では、車両や歩行者を誤認識し、誤検出や見逃しが発生する可能性があります。
人工知能(AI)、ディープラーニング、コンピュータービジョンは、車両の検出と認識を自動化することで、このギャップを埋めることができる。特にコンピュータ・ビジョンは、機械が視覚データを見たり解釈したりすることを可能にするAIの一分野である。夜間の交通ビデオ検出に関しては、ビジョンAIモデルは明るさや動きを超えて、精度を向上させる複雑なパターンを認識するように学習することができます。
例えば、Ultralytics YOLO26や Ultralytics YOLO11のようなコンピュータビジョンモデルは、その速度と精度で知られています。ビデオや画像データをリアルタイムで処理し、フレーム内の複数のオブジェクトを検出・分類し、シーケンス全体でそれらを追跡することができます。
これらの機能は、ヘッドライトや影、重なり合う車両が検出を困難にしている場合でも、物体検出やインスタンスのセグメンテーションなどのさまざまな視覚タスクによって実現される。これらの機能により、モデルは物体を識別、分類、区別することができる。
この記事では、夜間の交通監視の課題を探り、コンピュータ・ビジョンがどのようにそれらに対処しているのか、そしてビジョンAIが実際の交通監視システムでどのように応用されているのかを紹介します。はじめに
コンピュータ・ビジョンが夜間の交通量検知の課題をどのように解決するのかを探る前に、なぜ日没後に車両を発見するのが難しいのかを見てみよう。考慮すべき要因をいくつか挙げてみよう:
コンピュータビジョンモデルは、データセットとして知られる画像の大規模なコレクションを使用して学習される。これらのデータセットには、車、トラック、歩行者、自転車など、含まれているオブジェクトが注意深くラベル付けされており、学習の基礎となる。これらのラベル付けされた例を研究することで、モデルはパターンを認識することを学習し、新しいビデオ映像内のオブジェクトを識別・検出できるようになる。
トレーニング中、モデルはデータから特徴を抽出し、それを使って検出精度を向上させる。このプロセスは、モデルが実際の交通シーンにさらされたときに、検出ミスや誤報を減らすのに役立ちます。
しかし、夜間のデータセットやデータ収集の構築は、より困難である。ビデオの画質が悪いと、ラベリングに時間がかかり、ミスも起こりやすい。また、事故や異常な運転行動など、まれではあるが重要な事象は、夜間の環境では撮影が困難な場合がある。その結果、モデルが学習するためのトレーニング例の数が限られてしまう。
この問題に対処するため、研究者は専用のベンチマークデータセットを開発してきた。ベンチマークデータセットは単なる画像の集まりではない。標準化されたラベル、評価プロトコル、そして精度、再現率、平均平均精度(mAP)などの性能指標が含まれている。これらの指標により、異なるアルゴリズムを同じ条件でテストし比較することが可能になり、公平で一貫性のある評価が保証される。
例えば、ExDarkベンチマークデータセットには、12の物体カテゴリ(自転車、ボート、ボトル、バス、車、猫、椅子、コップ、犬、バイク、人、テーブル)にまたがる7,363枚の低照度画像が含まれている。各画像はバウンディングボックスで注釈されており、このデータセットは暗い照明下での物体検出と分類を評価する研究に広く利用されている。
同様に、NightOwlsベンチマークデータセットは、約115,000の夜間画像と約279,000の歩行者アノテーションを提供しています。交通安全や先進運転支援システム(ADAS)において重要な役割を果たす歩行者検知システムを評価するための重要なリソースとなっている。
さて、このような課題とデータセットの必要性について理解を深めたところで、ビジョンベースのシステムが夜間の交通ビデオをどのように解釈できるかを詳しく見てみよう。
YOLO11やYOLO26のようなモデルは、物体検出、追跡、インスタンス分割などのコンピュータ・ビジョン・タスクをサポートしており、低照度下でも交通を分析することが可能です。ここでは、これらのモデルが夜間の交通を分析するためにサポートするビジョンAIタスクの概要を説明します:
モデルのトレーニング、データセットの必要性、YOLO11やYOLO26のようなモデルがサポートするタスクについて説明した。しかし、すべてをまとめるには、もうひとつ、これらのモデルが夜間のモニタリングに実際にどのように適用されるかという概念を説明する必要がある。
UltralyticsのYOLOモデルは訓練済みバージョンとして提供されており、COCOデータセットのような多くの日常的なオブジェクトをカバーする大規模な汎用データセットですでに訓練されている。これにより、モデルには物体を検出・分類する強力なベースライン能力が与えられます。
しかし、これらのデータセットには低照度や夜間の事例がほとんど含まれていないため、事前学習されたモデルは、グレア、シャドウ、コントラスト不良を効果的に扱うことができません。夜間の交通ビデオ検知にインパクトを与えるには、実際の夜間の状況を反映した特別なデータセットで微調整する必要があります。
微調整やカスタムトレーニングでは、ヘッドライトがまぶしい車両、横断歩道の歩行者、夜間の混雑した交差点など、低照度の状況で撮影されたラベル付き画像でモデルを追加トレーニングし、夜間のシーン特有の特徴を学習させる。
一旦カスタム・トレーニングされたモデルは、低照度条件下でより高い精度で検出、追跡、セグメンテーション、分類などのタスクをサポートすることができる。これにより、交通当局は、車両カウント、速度推定、適応信号制御、夜間の事故防止などの実用的なユースケースにこのようなモデルを適用することができます。
次に、コンピュータビジョンが実際の夜間交通システムにどのように採用されるかを見てみよう。
特に夜間は視界が悪くなり、交通の流れが予測しにくくなる。従来の信号は、リアルタイムの変化に対応できない固定タイマーに依存している。調査によると、これはドライバーの時間を浪費するだけでなく、不必要な燃料消費と遅れにつながる。
コンピュータ・ビジョン・システムは、まさにこの課題を克服するのに役立つ。これらのシステムは、車両の動きを監視し、車両の数をリアルタイムで検出することができる。そして、そのデータは適応型交通管制システムに送られる。これにより、実際の道路状況に応じて信号を素早く調整することが可能になる。そのため、ある車線が混雑しているのに別の車線が空いている場合、信号のタイミングを即座に調整してボトルネックを解消することができる。
夜間の運転は日中よりも危険である。視界が悪くなり、照明が不均一になり、まぶしいため、ドライバーは距離を判断しにくくなるからだ。実際、調査によると、夜間の1kmあたりの死亡事故率は昼間の3倍にもなる。
固定監視カメラ、道路パトロール、車両存在センサー、定時信号システムといった従来の監視方法は、反応的に作動するため、危険な状況の発生を未然に防ぐのに十分なほど早期に発見できない可能性がある。
コンピュータビジョンソリューションは、ライブビデオストリームを解析し、道路や高速道路上の異常なパターンを検出することによって、この懸念に対処することができます。オブジェクト・トラッキングを使用することで、これらのシステムはリアルタイムで車両の挙動を監視し、異常が見られた場合に警告を発することができます。
例えば、走行中の車両が車線変更をしていたり、混雑した場所で速度が速すぎたり、急に減速していたりすると、システムはリアルタイムでフラグを立てることができる。つまり、当局は迅速に対応し、事故を未然に防ぐことができる。
自律走行車やADASにとって、夜間走行は独自の課題をもたらす。視界が悪く、交通パターンが予測できないため、従来のセンサーが確実に作動することが難しくなり、安全上の懸念が高まる。
コンピュータ・ビジョンは、物体検出、車線追跡、セグメンテーションなどのタスクを処理することで、これらのシステムを強化し、照明条件が悪い場合でも車両が歩行者、他の車両、障害物を認識できるようにします。周囲を3DでマッピングするレーダーやLiDAR(Light Detection and Ranging)と組み合わせることで、視覚レイヤーが追加され、ADASは早期警告を提供し、自律走行車に夜間のより安全なナビゲーションに必要な認識を与えることができます。
スピード違反は世界中で交通死亡事故の3件に1件の原因となっており、その危険性は夜間になるほど高まる。暗闇は交通警察にとって違反の摘発を難しくする。昼間ははっきりしていることでも、日が暮れるとぼんやりしてしまうことが多いからだ。
そのため、空いた道路でのスピード違反、赤信号無視、間違った車線へのドリフトなどの違反が罰せられないことが多い。コンピュータ・ビジョンは、赤外線カメラを使って低照度下でも違反を発見することで、この問題に取り組んでいる。これらのシステムは、事故が記録される検出ゾーンを作り、誤検出を減らし、明確で検証可能な証拠を提供する。交通当局にとっては、死角が減り、手作業によるチェックへの依存が減ることを意味する。
夜間の交通ビデオ検知にVision AIを使用する利点は以下の通りである。
ビジョンAIを使った夜間交通検知は、その利点にもかかわらず、一定の制限もある。以下に留意すべき点をいくつか挙げる:
都市が発展し道路が混雑するにつれ、夜間の交通検知はよりインテリジェントで応答性の高いシステムへと移行している。例えば、サーマルカメラや赤外線センサーは、人や車両の熱信号を検出することができるため、完全な暗闇でも視認が可能です。これにより、標準的なカメラがまぶしさや低照度との闘いで発生するエラーを減らすことができる。
もうひとつの成長中のアプローチは、カメラとLiDARのフュージョンだ。カメラは道路の詳細な画像を提供し、LiDARは正確な3Dマップを生成する。これらを併用することで、特に低照度や中程度の霧の中で、車線、車両、障害物の検出精度が向上する。
同時に、低照度画像補正、歩行者認識、ナンバープレート識別の進歩により、コンピュータビジョンの能力が拡大している。これらの改良により、照明の少ない道路や交差点でも、より高い信頼性と少ないエラーで監視できるようになりました。
夜間の車両検知は交通監視にとって常に課題であったが、コンピューター・ビジョンはそれをより扱いやすくしている。まぶしさの影響を軽減し、複雑な交通シーンを処理することで、日没後の道路の挙動をより正確に把握することができる。このようなシステムが進歩し続けることで、より安全でスマートで効率的な夜間交通への道が開かれつつある。
Vision AIをプロジェクトに組み込む準備はできましたか?私たちの活発なコミュニティに参加して、自動車産業におけるAIや ロボット工学におけるVision AIなどのイノベーションを発見してください。GitHub リポジトリをご覧ください。今すぐコンピュータビジョンを始めるには、ライセンスオプションをご覧ください。