Автономные транспортные средства
Исследуйте будущее мобильности с помощью автономных транспортных средств. Узнайте, как Ultralytics обеспечивает восприятие в реальном времени, обнаружение объектов и объединение датчиков для автономных транспортных средств.
Автономные транспортные средства (АТС), часто называемые самоуправляемыми автомобилями, представляют собой интеллектуальные транспортные системы, способные
ощущать свое окружение и работать без участия человека. Эти системы представляют собой вершину
искусственного интеллекта в автомобильной инновации, сочетая в себе
сложное оборудование с передовыми программными алгоритмами для интерпретации сложной обстановки. Основная цель
технологии AV — повысить безопасность дорожного движения за счет минимизации аварий, вызванных человеческим фактором, а также оптимизировать эффективность дорожного движения
и обеспечить мобильность для тех, кто не может водить автомобиль. В своей основе эти транспортные средства полагаются на
искусственный интеллект (ИИ) для восприятия
стимулов, обработки информации и принятия мгновенных решений во время вождения.
Технологии восприятия и сенсорики
Для безопасного перемещения автономного транспортного средства необходимо полное понимание окружающей обстановки. Это
достигается за счет уровня восприятия, который агрегирует данные с набора датчиков.
-
Компьютерное зрение (CV): Камеры служат в качестве основных визуальных датчиков, имитируя человеческое зрение. Алгоритмы обрабатывают видеопоток для распознавания
разметкой полос движения, светофорами и дорожными знаками
-
Технология LiDAR: система обнаружения и измерения расстояния с помощью света (LiDAR) использует лазерные импульсы для создания точных трехмерных карт окружающей среды с высоким разрешением
, необходимых для восприятия глубины.
-
Обнаружение объектов: Модели глубокого обучения идентифицируют и локализуют динамические препятствия. Высокоскоростные модели, такие как
YOLO26, имеют решающее значение для обнаружения пешеходов и
других транспортных средств с низкой задержкой.
-
Сенсорная фьюжн: Ни один отдельный датчик не является идеальным во всех условиях (например, камеры в тумане). Алгоритмы фьюжн
объединяют данные с камер, радаров и LiDAR для формирования надежной модели окружающей среды.
-
Семантическая сегментация: эта техника классифицирует каждый пиксель в изображении, помогая транспортному средству различать проезжую часть дороги
, тротуары и растительность
Уровни автономии
Возможности автономных систем классифицируются по
уровням автоматизации вождения SAE J3016, которые определяют
степень компьютерного управления по сравнению с вмешательством человека.
-
Усовершенствованные системы помощи водителю (ADAS): охватывая уровни 1 и 2, эти системы помогают с управлением или ускорением (например, адаптивный круиз-контроль), но
требуют от водителя постоянного внимания.
-
Условная автоматизация: На уровне 3 автомобиль может выполнять большинство задач вождения в определенных условиях, например в пробках на шоссе, но
человек должен быть готов взять управление на себя при получении предупреждения.
-
Высокая и полная автоматизация: Уровни 4 и 5 представляют транспортные средства, которые могут работать без участия человека. Уровень 4 ограничен геозонами,
тогда как уровень 5 нацелен на полную автономность на любой дороге, что часто требует мощного
аппаратного обеспечения Edge AI
Применение ИИ в реальном мире
Технологии автономных транспортных средств в настоящее время внедряются в различных секторах и опираются на мощные
вычисления в области машинного обучения (ML) для решения
сложных задач реального мира.
-
Роботакси: такие компании, как Waymo, используют парки полностью
автономных транспортных средств для перевозки пассажиров в городских условиях. Эти транспортные средства используют
прогнозное моделирование для предсказания
поведения пешеходов и других водителей в сложных городских условиях.
-
Автономные грузоперевозки: логистика дальних перевозок выигрывает от автоматизации на предсказуемых трассах.
Такие инноваторы, как Aurora, разрабатывают самоуправляемые грузовики, которые используют дальнобойное
восприятие для повышения топливной эффективности и безопасности.
-
Доставка «последней мили»: небольшие автономные роботы используют
отслеживание объектов для перемещения по тротуарам и доставки посылок,
снижая затраты и углеродный след логистики.
Различение смежных понятий
Важно различать автономные транспортные средства и связанные с ними термины в области робототехники и автомобилестроения.
-
Vs. Робототехника: Хотя автономные транспортные средства (АТС) технически являются мобильными роботами, область робототехники шире и включает в себя стационарные промышленные
манипуляторы и человекоподобных помощников. АТС специально специализируются на логике транспортировки.
-
Vs.
Подключенные транспортные средства (V2X): подключенные транспортные средства обмениваются данными друг с другом (V2V) и с инфраструктурой (V2I), например, информацией о скорости и
местоположении. Транспортное средство может быть подключено, не будучи автономным, хотя подключение часто повышает безопасность автономных транспортных средств.
-
Vs.
Дистанционное управление: Дистанционное управление предполагает удаленное управление транспортным средством человеком. В отличие от этого, настоящие автономные транспортные средства полагаются на бортовые
нейронные сети для принятия решений на местном уровне.
Реализация восприятия с помощью YOLO26
Важным компонентом любой автономной системы является способность track во времени. В следующем примере
показано, как использовать Платформа Ultralytics совместимый
ultralytics библиотека для отслеживания объектов на видео, имитирующая систему восприятия транспортного средства.
from ultralytics import YOLO
# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")
# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
show=True,
)
# Process results (e.g., counting objects or estimating speed)
for r in results:
print(r.boxes.xywh) # Print bounding box coordinates