Yolo 深圳
深セン
今すぐ参加
用語集

自動運転車

自動運転車がAI、コンピュータビジョン、およびセンサーを使用して、安全性、効率性、および革新性で輸送に革命を起こす方法をご覧ください。

自律走行車(AV)は、自動運転車と呼ばれることも多いインテリジェントな交通システムである。 環境を感知し、人間の関与なしに運転することができるインテリジェントな交通システムである。この技術は 機械工学と 人工知能(AI)の融合である。 複雑な道路を安全に走行するために設計されている。AVの主な目的は、ヒューマンエラーによる事故を減らすことである、 交通の流れを最適化し、運転できない人々にモビリティ・ソリューションを提供することである。高度なプロセッサーとアルゴリズムを活用することで これらの自動車は、高度なプロセッサーとアルゴリズムを活用することで、自動車産業の展望を大きく変えつつある。 自動車業界の様相を一変させ ドライバー中心の操作から乗客中心の体験へと焦点を移しつつある。

知覚とコントロールを支える技術

安全に航行するためには、自律走行車は周囲の状況を包括的に理解していなければならない。これは ハードウェアセンサーと ディープラーニング(DL)ソフトウェアの高度な統合によって達成される。車両は エッジデバイスとして機能し、膨大な量のデータをリアルタイムで処理する。

  • センサー・スイート:AVは、カメラ、レーダー、LiDAR技術を組み合わせて使用する。 LiDAR技術を組み合わせて使用する。カメラ LiDARはレーザーの反射を測定することで、正確な深度情報を提供する。
  • コンピュータビジョン:生のセンサーデータは コンピュータビジョン(CV)アルゴリズム。 高性能モデルは以下のようなタスクに不可欠です。 歩行者や他の車両の位置を特定するための物体検出や また、走行可能な路面と歩道をclassify 画像セグメンテーション を分類する画像セグメンテーションのようなタスクに不可欠です。
  • センサー・フュージョン:信頼性を確保するために、複数のソースからのデータを センサーフュージョン。このプロセスは不確実性を低減する。 例えば、カメラが眩しさで見えなくなったとしても、レーダーは前方の障害物をdetect することができます。
  • 意思決定:環境が認識されると、システムは 機械学習(ML)ロジック 目的地に安全に到達するために必要なステアリング角度と加速度を決定します。

自動化のレベル

自律走行車の能力は、SAE国際規格J3016によって6段階に分類されている。 レベル0(自動化なし)からレベル5(完全自動化)まである。

  • 運転支援(レベル1~2):最近のほとんどの車には、アダプティブ・クルーズ・コントロールやレーンキーピング・アシストのような先進運転支援システム(ADAS)が搭載されている。 アダプティブ・クルーズ・コントロールやレーン・キープ・アシストなど。これらのシステムは助けになるが、ドライバーの関与を維持する必要がある。
  • 条件付き~完全自動化(レベル3~5):より高いレベルでは、システムが完全に レベル3では、特定の条件下でハンズオフ運転が可能になる。レベル3では、特定の条件下でハンズオフ運転が可能になる。 レベル5は、人間が運転できる場所ならどこでも運転できる車両を意味する。 強化学習を使って研究者が積極的に追求している目標である。規制 NHTSAのような機関による監視は NHTSAのような機関による規制上の監視は、これらの技術が一般に普及するために不可欠である。

実際のアプリケーション

自律走行車の技術は現在、さまざまな分野で展開されており、理論的な研究を超えて実用的なものへと移行しつつある。 実用化されつつある。

  1. ロボットタクシーサービス: ウェイモCruiseのような企業が完全自律走行 タクシー車両を運行している。これらの車両は GPUコンピュー を処理し、人間の運転手なしで乗客を輸送する。
  2. 長距離トラック輸送:自律走行トラック輸送は物流不足の解消を目指す。高速道路の自動化によって トラックはより効率的に運行できる。オーロラ・イノベーションのような新興企業は のような新興企業は、高速道路の速度と制動距離を管理するために長距離知覚を利用する自動運転トラックをテストしている。

モデル実装例

AVの知覚スタックの基本コンポーネントは、車やバス、信号などの物体を検出することだ。以下の 以下のPython コードは、事前に訓練された YOLO11モデルを使用して画像に対して推論を実行する方法を示します。 をシミュレートしています。

from ultralytics import YOLO

# Load a pretrained YOLO11 model capable of detecting common road objects
model = YOLO("yolo11n.pt")

# Perform inference on an image (e.g., a dashboard camera view)
# The model predicts bounding boxes and classes for objects in the scene
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Display the detection results to visualize what the 'vehicle' sees
results[0].show()

自動運転車 vs. ロボティクス

AVは厳密にはロボティクスのサブセットであるが、その用語は異なる。 は異なるものである。ロボティクスは、物理的世界と相互作用するあらゆるプログラム可能な機械を広く包含する、 製造業で使用される固定式の産業用アームも含まれる。対照的に、自律走行車は特に以下のものを指す。 移動ロボットを指す。しかし、以下のようなコア技術は共通している。 同時定位とマッピング(SLAM) や、低レイテンシのエッジAI処理の必要性といったコア技術は共通している。

開発の課題

完全に自律的なシステムを構築するには、「エッジケース エッジケース」、つまり悪天候や人間の不規則な行動など エッジケース」、つまり悪天候や人間の不規則な行動のような稀な事象を処理するために、膨大な学習データが必要となります。開発者はしばしば CARLA」のようなシミュレーション・プラットフォームを使用することが多い。さらに さらに、これらのモデルを車両のハードウェアに展開するには、次のようなテクニックが必要です。 モデルの量子化などの技術が必要です。 のような技術が必要になります。フレームワーク PyTorchTensorFlowが、これらの車両を駆動する複雑なニューラルネットワークを これらの車両を駆動する複雑なニューラルネットワークをトレーニングするための標準的なツールである。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加